500 руб
Журнал «Нейрокомпьютеры: разработка, применение» №1 за 2026 г.
Статья в номере:
Применение генеративных нейронных сетей для предсказания экстремально коротких временных рядов
Тип статьи: научная статья
DOI: https://doi.org/10.18127/j19998554-202601-01
УДК: 004.912
Авторы:

А.В. Пролетарский1, Д.В. Березкин2, С.Т. Цаплин3
1–3 МГТУ им. Н.Э. Баумана (Москва, Россия)

1 pav@bmstu.ru, 2 berezkind@bmstu.ru, 3 tsaplin@bmstu.ru

Аннотация:

Постановка проблемы. Прогнозирование экстремально коротких временных рядов (менее десяти наблюдений) представляет собой фундаментальную проблему современного искусственного интеллекта и аналитики данных, особенно критичную для социально-экономических и образовательных систем с ограниченным объемом исторических данных. В условиях быстро изменяющейся конъюнктуры, включая планирование приема в высшие учебные заведения, колебания потребительского спроса и мониторинг новых технологических трендов, традиционные статистические методы прогнозирования (ARIMA, экспоненциальное сглаживание) демонстрируют критическое снижение эффективности из-за недостаточности данных для построения надежных статистических моделей. Существующие архитектуры глубокого обучения также подвержены переобучению в условиях дефицита обучающих примеров, что создает потребность в новых подходах к краткосрочному прогнозированию.

Цель. Оценить применимость генеративных состязательных сетей для решения задач прогнозирования экстремально коротких временных рядов, провести сравнительный анализ эффективности архитектур VanillaGAN, Wasserstein GAN (WGAN) и WGAN с градиентным штрафом (WGAN-GP), выявить их ограничения и определить перспективные направления практического применения в условиях ограниченных данных.

Результаты. Экспериментально установлено, что все исследованные GAN-архитектуры демонстрируют системные ограничения при работе с экстремально короткими временными рядами: сгенерированные последовательности характеризуются заниженной амплитудой колебаний (снижение на 40–60%), сглаженными трендовыми компонентами и недостаточной вариативностью по сравнению с исходными данными. Отмечено, что WGAN-GP показал относительно лучшие результаты стабильности обучения, однако качество генерации остается неудовлетворительным для прямого прогнозирования. Выявлена перспективность применения генеративных моделей в качестве инструментов аугментации данных для создания дополнительных обучающих примеров, что может повысить эффективность других прогностических алгоритмов.

Практическая значимость. Результаты исследования имеют непосредственное применение в следующих приложениях: совершенствование систем планирования в образовательных учреждениях, где требуется прогнозирование на основе ограниченной статистики приема; разработка гибридных прогностических систем, комбинирующих генеративные модели с классическими статистическими методами; создание специализированных решений для задач краткосрочного планирования в условиях высокой неопределенности. Предложенный подход к использованию GAN для аугментации данных может быть адаптирован для широкого класса задач социально-экономического прогнозирования, включая анализ рыночных трендов, планирование ресурсов и оценку рисков в условиях ограниченной исторической информации.

Страницы: 5-16
Для цитирования

Пролетарский А.В., Березкин Д.В., Цаплин С.Т. Применение генеративных нейронных сетей для предсказания экстремально коротких временных рядов // Нейрокомпьютеры: разработка, применение. 2026. Т. 28. № 1. С. 5–16. DOI: https://doi.org/ 10.18127/j19998554-202601-01

Список источников
  1. Torres J.F., Hadjout D., Sebaa A. et al. Deep learning for time series forecasting: A survey // Big Data. 2021. V. 9. № 1. P. 3–21.
  2. Box G.E.P., Jenkins G.M., Reinsel G.C. et al. Time series analysis: Forecasting and control // Journal of Time Series Analysis. 2015. V. 36. № 4. P. 709–711.
  3. Hyndman R.J., Khandakar Y. Automatic time series forecasting: the forecast package for R // Journal of Statistical Software. 2008. V. 27. № 3. P. 1–22.
  4. Wen Q., Zhou T., Zhang C. et al. Transformers in time series: A survey // arXiv preprint. 2022. arXiv:2202.07125.
  5. Giannone D., Lenza M., Primiceri G.E. Prior selection for vector autoregressions // Review of Economics and Statistics. 2015. V. 97. № 2. P. 436–451.
  6. Lim B., Zohren S. Time-series forecasting with deep learning: A survey // Philosophical Transactions of the Royal Society A. 2021. V. 379. № 2194. P. 20200209.
  7. Lara-Benítez P., Carranza-García M., Riquelme J.C. An experimental review on deep learning architectures for time series forecasting // International Journal of Neural Systems. 2021. V. 31. № 3. P. 2130001.
  8. Yoon J., Jarrett D., Van der Schaar M. Time-series generative adversarial networks // Advances in Neural Information Processing Systems. 2019. V. 32. P. 5508–5518.
  9. Eckerli F., Osterrieder J. Generative adversarial networks in finance // arXiv preprint. 2021. arXiv:2106.06364.
  10. Eskandari N.M.R., Hamdi S.M., Filali B.S. SeriesGAN: Time series generation via adversarial and autoregressive learning // arXiv preprint. 2024. arXiv:2410.21203.
  11. Seol S., Lee J., Yoon J., Kim B. Improving SOH estimation for lithium-ion batteries using TimeGAN // Machine Learning: Science and Technology. 2023. V. 4. № 4. P. 045007.
  12. Roque L., Soares C., Cerqueira V., Torgo L. Latent generative transformer augmentation: Controlled synthetic generation of time series via variational multi-head attention // arXiv preprint. 2025. arXiv:2507.23615.
  13. Zhang H., Wang L., Chen Y., Li J. Time series data augmentation for energy consumption data based on improved TimeGAN // Sensors. 2024. V. 25. № 2. P. 493.
  14. Challu C., Olivares K.G., Oreshkin B.N. et al. N-HiTS: Neural hierarchical interpolation for time series forecasting // Proceedings of the AAAI Conference on Artificial Intelligence. 2023. V. 37. № 6. P. 6989–6997.
  15. Talagala T.S., Hyndman R.J., Athanasopoulos G. Meta-learning how to forecast time series // Journal of Forecasting. 2023. V. 42. № 6. P. 1476–1501.
  16. Norton D.A., Ott E., Pomerance A. et al. Tailored forecasting from short time series via meta-learning // arXiv preprint. 2025. arXiv: 2501.16325.
  17. Wang X., Hyndman R.J., Li F., Kang Y. Forecast combinations: An over 50-year review // International Journal of Forecasting. 2023. V. 39. № 4. P. 1518–1547.
  18. Goodfellow I., Pouget-Abadie J., Mirza M. et al. Generative adversarial nets // Advances in Neural Information Processing Systems. 2014. V. 27. P. 2672–2680.
  19. Radford A., Metz L., Chintala S. Unsupervised representation learning with deep convolutional generative adversarial networks // arXiv preprint. 2015. arXiv:1511.06434.
  20. Salimans T., Goodfellow I., Zaremba W. et al. Improved techniques for training GANs // Advances in Neural Information Processing Systems. 2016. V. 29. P. 2234–2242.
  21. Karras T., Aila T., Laine S., Lehtinen J. Progressive growing of GANs for improved quality, stability, and variation // arXiv preprint. 2017. arXiv:1710.10196.
  22. Солычева О.М. Липшицевы операторы суперпозиции на метрических полугруппах и абстрактных выпуклых конусах отображений конечной L-вариации // Сибирский математический журнал. 2006. Т. 47. № 3. С. 650–665.
  23. Мониторинг качества приема в ВУЗы [Электронный ресурс] / URL: https://ege.hse.ru/ (дата обращения: 12.10.2024).
  24. Esteban C., Hyland S.L., Rätsch G. Real-valued (medical) time series generation with recurrent conditional GANs // arXiv preprint. 2017. arXiv:1706.02633.
  25. Chen R.T., Li X., Grosse R., Duvenaud D. Isolating sources of disentanglement in variational autoencoders // Advances in Neural Information Processing Systems. 2018. V. 31. P. 2610–2620.
  26. Yoon J., Jarrett D., van der Schaar M. Time-series generative adversarial networks // Advances in Neural Information Processing Systems. 2019. V. 32. P. 5508–5518.
  27. Brophy E., Wang Z., She Q., Ward T. Generative adversarial networks in time series: A systematic literature review // ACM Computing Surveys. 2023. V. 55. № 10. P. 1–31.
  28. Forestier G., Petitjean F., Dau H.A. et al. Generating synthetic time series to augment sparse datasets // IEEE International Conference on Data Mining (ICDM). 2017. P. 865–870.
Дата поступления: 14.10.2025
Одобрена после рецензирования: 10.11.2025
Принята к публикации: 14.01.2026