НЕЙРОСЕТЕВОЕ ПРОГНОЗИРОВАНИЕ ДИНАМИКИ ЭКВАТОРИАЛЬНОЙ АНОМАЛИИ ПО ДАННЫМ ПОЛНОГО ЭЛЕКТРОННОГО СОДЕРЖАНИЯ ИОНОСФЕРЫ
НЕЙРОСЕТЕВОЕ ПРОГНОЗИРОВАНИЕ ДИНАМИКИ ЭКВАТОРИАЛЬНОЙ АНОМАЛИИ ПО ДАННЫМ ПОЛНОГО ЭЛЕКТРОННОГО СОДЕРЖАНИЯ ИОНОСФЕРЫ
DOI
10.33286/2075-8693-2021-50-29-42
Авторы
Аппалонов Артем Михайлович, магистрант Института физики К(П)ФУ, e-mail: artem309_97@mail.ru.
Масленникова Юлия Сергеевна, канд. физ.-мат. наук, доцент кафедры радиофизики К(П)ФУ.
Ключевые слова
нейронные сети, полное электронное содержание, прогнозирование временных рядов, главные компоненты, экваториальная аномалия
Аннотация
Представлен метод прогнозирования динамики экваториальной аномалии на основе совместного использования анализа главных компонент и искусственных нейронных сетей. Модель прогнозирования разработана с использованием глобальных карт полного электронного содержания ионосферы за период с 2001 по 2018 г. Показано, что при правильном центрировании глобальных карт и учете доминирующих периодичностей ключевой вклад в дисперсию флуктуаций данных полного электронного содержания вносит экваториальная аномалия. Рассмотрены несколько методов нейросетевого предсказания, которые обучались независимо для каждой компоненты разложения. Подход на основе гибридной модели, состоящей из сверточной сети и сети с долгой краткосрочной памятью с предварительным анализом главных компонент, уменьшил ошибку прогнозирования карт полного электронного содержания на 2 часа вперед более чем в 4 раза по сравнению с прогнозированием исходных карт методом линейной регрессии.
Литература
1. Максимов Д. С., Когогин Д. А., Насыров И. А., Загретдинов Р. В. Автоматизированная система обработки данных радиозондирования сигналами навигационных спутников, полученных на плотной сети ГНСС станций // Современные проблемы дистанционного зондирования земли из Космоса : материалы XVII Всерос. открытой конференции. М. : ИКИ РАН, 2019. С. 487.
2. Пашинцев В. П., Ахмадеев Р. Р. Прогнозирование помехоустойчивости спутниковых радиосистем по данным GPS-мониторинга ионосферы // Электросвязь. 2015. № 11. С. 58–65.
3. Jones, Daniel Peter Roach; James Hartmann; Jane Setter (eds.). English Pronouncing Dictionary. Cambridge : Cambridge University Press, 2003.
4. Heelis, R. A. Electrodynamics in the low and middle latitude ionosphere: A tutorial // J. Atmos. Solar-Terr. Phys. 2004, no. 66, pp. 825–838. DOI: 10.1016/j.jastp.2004.01.034.
5. Kudeki E., Woodman R. F., Feng Z. Incoherent scatter radar plasma density measurements at Jicamarca using a transverse-mode differential-phase method // Geophysical Research Letters. 2003. Vol. 30, no. 5, pp. 59-1–59-4. DOI: 10.1029/2002GL015496.
6. Tsagouri I., Koutroumbas K., Elias P. A new short-term forecasting model for the total electron content storm time disturbances // Journal of Space Weather and Space Climate. 2018, no. 8, pp. 2–12. DOI: 10.1051/swsc/2018019.
7. Zhukov A., Sidorov D., Mylnikova A., Yasyukevich Yu. Machine learningmethodology for ionosphere total electron content nowcasting // International Journal of Artificial Intelligence. 2018. Vol. 16, no. 1, pp. 144–157.
8. Sun W., Xu L., Huang X., Weiqiang Zh., Tianjiao Y., Zhuo Chen, Yi. Y. Forecasting of ionospheric vertical total electron content (TEC) using LSTM networks // International Conference on Machine Learning and Cybernetics (ICMLC), 2017, pp. 340–344. DOI: 10.1109/ICMLC.2017.8108945.
9. Maslennikova Yu. S., Bochkarev V. V. Principal Component Analysis of Global Maps of the Total Electronic Content // Geomagnetism and Aeronomy. 2014. Vol. 54(2), pp. 216–223. DOI: 10.1134/s0016793214020133.
10. Масленникова Ю. С. Развитие методов прогнозирования и анализа динамики ионосферных параметров с использованием искусственных нейронных сетей : дис. … канд. физ.-мат. наук / Казанский (Приволжский) федеральный университет. Казань, 2013. 137 с.
11. Maslennikova Yu. S., Bochkarev V. V., Voloskov D. S. Use of principal component analysis for identification of temporal and spatial patterns in the dynamics of ionospheric equatorial anomaly // Journal of Physics: Conference Series (2015). Vol. 574, pp. 012–152. DOI: 10.1088/1742-6596/574/1/012152.
12. JPL. URL: https://www.jpl.nasa.gov (дата обращения: 31.08.2020).
13. Jolliffe I. T. Principal component analysis 2002 Series: Springer Series in Statistics, 2nd ed., N. Y.
14. McCulloch, W., Pitts W. A Logical Calculus of Ideas Immanent in Nervous Activity // Bulletin of Mathematical Biophysics. 1943. Vol. 5, no. 4, pp. 115–133. DOI: 10.1007/BF02478259.
15. Акулич И. Л. Математическое программирование в примерах и задачах. М. : Высш. шк., 1986. С. 298–310.
16. LeCun Y., Bengio Y. Convolutional networks for images, speech, and time series // The handbook of brain theory and neural networks. 1998, pp. 255–258.
17. Krizhevsky A., Sutskever I., Hinton G. E. ImageNet classification with deep convolutional neural networks // Communications of the ACM. 2017. Vol. 60, no. 6, pp. 84–90. DOI: 10.1145/3065386.
18. Kaiming He, Xiangyu Zh., Shaoqing R., Jian S. Deep Residual Learning for Image Recognition // Proc. Computer Vision and Pattern Recognition (CVPR), IEEE, 2016, pp.770–778. DOI: 10.1109/CVPR.2016.90.
19. Borovykh A., Bohter S., and Oosterlee C. W. Conditional time series forecasting with convolutional neural networks // Stat. ML. 2017. Vol. 5, arXiv preprint arXiv:1703.04691.
20. Nair V., Hinton G. E. Rectified Linear Units Improve Restricted Boltzmann Machines // Proc. 27th ICML, 2010, pp. 807–814.
21. Maas A. L., Hannun A. Y., Ng A. Y. Rectifier Nonlinearities Improve Neural Network Acoustic Models // Proc. 29th ICML. 2013. Vol. 30, no. 1.
22. He K. et al. Deep Residual Learning for Image Recognition // Proc. 2016 CVPR, 2016, pp. 770–778.
23. Ioffe S., Szegedy C. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift // Proc. 32nd ICML, 2015, pp. 448–456.
24. Kingma D., Ba J. Adam: A Method for Stochastic Optimization // arXiv, 2014. URL: http:// arxiv.org/abs/1412.6980.
25. Zeiler M. D. ADADELTA: An Adaptive Learning Rate Method // arXiv, 2012. URL: http:// arxiv.org/abs/1212.5701.
26. Hochreiter S., Schmidhuber J. Long short-term memory // Neural Computation. 1997. Vol. 9, no. 8, pp. 1735–1780. DOI: 10.1162/neco.1997.9.8.1735.
27. Srivastava N. et al. Dropout: A Simple Way to Prevent Neural Networks from Overfitting // Journal of Machine Learning Research. 2014. Vol. 15, no. 1, pp. 1929–1958. DOI: 10.5555/2627435.2670313.
28. Kim T.-Y., Cho S.-B. Predicting Residential Energy Consumption using CNN-LSTM Neural Networks // Energy. 2019. Vol. 182, pp. 72–81. DOI: 10.1016/j.energy.2019.05.230.
Для цитирования
Аппалонов А. М., Масленникова Ю. С. Нейросетевое прогнозирование динамики экваториальной аномалии по данным полного электронного содержания ионосферы // Техника радиосвязи. 2021. Выпуск 3 (50). С. 29–42. DOI: 10.33286/2075-8693-2021-50-29-42.