Трансформеры и механизмы внимания для прогнозирования финансовых временных рядов: применение в инвестиционном анализе энергетического сектора
Работая с сайтом, я даю свое согласие на использование файлов cookie. Это необходимо для нормального функционирования сайта, показа целевой рекламы и анализа трафика. Статистика использования сайта обрабатывается системой Яндекс.Метрика
НАУЧНЫЙ ЖУРНАЛ ВЕСТНИК ВОРОНЕЖСКОГО ИНСТИТУТА ВЫСОКИХ ТЕХНОЛОГИЙ
cетевое издание
ISSN 2949-4443

Трансформеры и механизмы внимания для прогнозирования финансовых временных рядов: применение в инвестиционном анализе энергетического сектора

Кошелев Н.М. ,  Тарлыков А.В. ,  Преображенский А.П.  

УДК 004.8+519.72

  • Аннотация
  • Список литературы
  • Об авторах

В данной работе проводится исследование архитектур на основе механизма внимания применительно к задаче прогнозирования финансовых временны́х рядов в контексте инвестиционного анализа эмитентов энергетического сектора. Прослеживается эволюция от авторегрессионных моделей и LSTM к трансформерам; детально анализируется математика масштабированного скалярного произведения внимания и архитектура Temporal Fusion Transformer (TFT). Сравнительный анализ показывает, что TFT превосходит базовые модели по метрикам MAE и SMAPE – снижение MAE на 36% относительно ARIMA и 17% относительно LSTM – при сохранении интерпретируемости прогнозов. Вместе с тем рассматриваются квадратичная вычислительная сложность полного внимания, архитектура Informer как её решение для длинных рядов и принципиальные ограничения трансформерного подхода, включая свидетельства того, что правильно настроенная линейная модель превосходит сложные трансформерные архитектуры на ряде стандартных задач.

1. Are Transformers Effective for Time Series Forecasting? / A. Zeng, M. Chen, L. Zhang, Q. Xu // Thirty-Seventh AAAI Conference on Artificial Intelligence, AAAI 2023, Thirty-Fifth Conference on Innovative Applications of Artificial Intelligence, IAAI 2023, Thirteenth Symposium on Educational Advances in Artificial Intelligence, EAAI 2023, Washington, DC, USA, 07–14 February 2023. – AAAI Press, 2023. – P. 11121–11128.

2. Ozbayoglu A.M. Deep Learning for Financial Applications: A Survey / A.M. Ozbayoglu, M.U. Gudelek, O.B. Sezer // Applied Soft Computing. – 2020. – Vol. 93. – URL: https://doi.org/10.1016/j.asoc.2020.106384 (дата обращения: 14.02.2026).

3. Hochreiter S. Long Short-Term Memory / S. Hochreiter, J. Schmidhuber // Neural Computation. – 1997. – Vol. 9, No. 8. – P. 1735–1780.

4. Attention Is All You Need / A. Vaswani, N. Shazeer, N. Parmar [et al.] // Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 04–09 December 2017, Long Beach, CA, USA. – 2017. – P. 5998–6008.

5. Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting / B. Lim, S.Ö. Arık, N. Loeff, T. Pfister // International Journal of Forecasting. – 2021. – Vol. 37, Iss. 4. – P. 1748–1764.

6. Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting / H. Zhou, Sh. Zhang, J. Peng [et al.] // Thirty-Fifth AAAI Conference on Artificial Intelligence, AAAI 2021, Thirty-Third Conference on Innovative Applications of Artificial Intelligence, IAAI 2021, The Eleventh Symposium on Educational Advances in Artificial Intelligence, EAAI 2021, Virtual Event, 02–09 February 2021. – AAAI Press, 2021. – P. 11106–11115.

Кошелев Никита Михайлович

Воронежский институт высоких технологий

Воронеж, Россия

Тарлыков Александр Вячеславович

Воронежский институт высоких технологий

Воронеж, Россия

Преображенский Андрей Петрович
Доктор технических наук, профессор

Воронежский институт высоких технологий

Воронеж, Россия

Ключевые слова: трансформер, механизм внимания, временны́е ряды, прогнозирование, энергетический сектор, интерпретируемость, инвестиционный анализ

Для цитирования: Кошелев Н.М. , Тарлыков А.В. , Преображенский А.П. , Трансформеры и механизмы внимания для прогнозирования финансовых временных рядов: применение в инвестиционном анализе энергетического сектора. Вестник Воронежского института высоких технологий. 2026;20(1). Доступно по: https://vestnikvivt.ru/ru/journal/pdf?id=1467

74

Полный текст статьи в PDF

Поступила в редакцию 11.03.2026

Поступила после рецензирования 27.03.2026

Принята к публикации 27.03.2026

Опубликована 31.03.2026