Е.С. Будаев1, С.С. Михайлова2, И.С. Евдокимова3, Е.А. Халмакшинов4
1,2 Финансовый университет при Правительстве РФ (Москва, Россия)
3,4 Восточно-Сибирский государственный университет технологий и управления (г. Улан-Удэ, Россия)
Постановка проблемы. На сегодняшний день распознавание образов на видео продолжает активно развиваться и предоставлять новые возможности для создания интеллектуальных систем в разных областях. Однако существует множество проблем, связанных с улучшением адаптивности, оптимизацией, этичностью и интерпретируемостью моделей, которые требуют дальнейших исследований и разработок. Возникает потребность в автоматизированных системах для анализа и обработки данных. Нейросетевые модели обнаружения объектов могут сыграть ключевую роль в данном процессе.
Цель. Разработать нейросетевую модель, способную упростить и ускорить процесс статистического анализа данных объектов социальной направленности, получаемых из видеопотока.
Результаты. Проведено исследование существующих алгоритмов и методик, выбор наиболее оптимальных из них, а также разработана и протестирована нейросетевая модель, способная эффективно и точно распознавать образы в видеопотоке.
Практическая значимость. Предложенная нейросетевая модель предназначена для анализа различных объектов из видеотрансляций, предобработанных видеофайлов для статистического учета этих объектов в различных целях, например, ведение статистики нахождения людей в торговом центре, количество проходящих людей на улице и т.д.
Будаев Е.С., Михайлова С.С., Евдокимова И.С., Халмакшинов Е.А. Разработка нейросетевой модели обнаружения объектов в видеопотоке // Нейрокомпьютеры: разработка, применение. 2023. T. 25. № 4. С. 54-64. DOI: https://doi.org/10.18127/j19998554-202304-07
- Бишоп К.М. Обучение с подкреплением. М.: Вильямс. 2016. 287 с.
- Адамова А.А., Зайкин В.А., Гордеев Д.В. Методы и технологии машинного обучения и нейросетевых технологий в задачах компьютерного зрения // Нейрокомпьютеры: разработка, применение. 2021. Т. 23. № 4. С. 25–39. DOI 10.18127/j19998554-202104-03.
- Селиски Р. Компьютерное зрение: алгоритмы и приложения. М.: Спрингер. 2010. 812 с. ISBN 978-1848829343.
- LeCun Y., Bengio Y., Hinton G. Deep Learning // Nature. 2015. V. 521. № 7553. P. 436–444. DOI 10.1038/nature14539.
- Гудфеллоу И.Й., Бенджио И., Курвилль А. Глубокое обучение. М.: МИФ. 2018. 736 с. ISBN 978-5-17-104617-4.
- Гай В.Е., Дмитриев А.В., Милов В.Р., Викулова Е.Н., Кувшинов А.С., Никифоров Н.А. Система тестирования процедур обнаружения и распознавания образов в видеопотоке // Информационно-измерительные и управляющие системы. 2017. Т. 15. № 8. С. 47–54.
- Vaswani A., Shazeer N., Parmar N., Uszkoreit J., Jones L., Gomez A.N., Kaiser L., Polosukhin I. Attention is All you Need // Neural Information Processing Systems. 2017. V. 30. P. 5998–6008. DOI 10.48550/arXiv.1706.03762.
- He K., Zhang X., Ren S., Sun J. Deep Residual Learning for Image Recognition // IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA. 2016. P. 770–778. DOI 10.1109/CVPR.2016.90.
- Redmon J., Divvala S., Girshick R., Farhadi A. You Only Look Once: Unified, Real-Time Object Detection // IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, USA. 2016. P. 779–788. DOI 10.1109/CVPR.2016.91.
- Simonyan K., Zisserman A. Two-Stream Convolutional Networks for Action Recognition in Videos // Neural Information Processing Systems. 2014. V. 27. P. 568–576.
- Сергиенко А.Б. Цифровая обработка сигналов. СПб.: Питер. 2017. 604 с.
- Шолле Ф. Глубокое обучение с использованием Python. М.: ДМК Пресс. 2019. 424 с. ISBN 978-5-97060-715-3.
- Grineva N.V. Development of Strategy for Managing Efficiency of it Companies // Proceedings of 2018 11th International Conference "Management of Large-Scale System Development". Moscow: V.A. Trapeznikov Institute of Control SciencesMoscow. 2018. P. 8551864. DOI 10.1109/MLSD.2018.8551864.
- Wang H., Kläser A., Schmid C., Liu C.L. Dense Trajectories and Motion Boundary Descriptors for Action Recognition // International Journal of Computer Vision. 2013. V. 103. № 1. P. 60–79. DOI 10.1007/s11263-012-0594-8.