350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №4 за 2025 г.
Статья в номере:
Реализация возможности распознавания летающих объектов в видеопотоке с помощью нейронной сети
Тип статьи: научная статья
DOI: https://doi.org/10.18127/j19998554-202504-01
УДК: 004.932.2
Авторы:

А.О. Касьянов1, Л.А. Подколзина2
1 Южный федеральный университет (г. Ростов-на-Дону, Россия)
2 Донской государственный технический университет (г. Ростов-на-Дону, Россия)

1 kasao@mail.ru, 2 lubov.pod@yandex.ru

Аннотация:

Постановка проблемы. Для управления такими мультиагентными системами, как, например, группы (рои) роботизированных летающих объектов (ЛО), необходимо решать вопросы координации действий как каждой из таких подвижных групп, так и отдельных агентов (роботизированных ЛО), входящих в состав каждой из подвижных групп. С учетом этого к частным задачами управления роями ЛО можно отнести как обнаружение, так и распознавание отдельных ЛО из состава подвижной роботизированной группы. Решение задачи обнаружения и распознавания отдельных ЛО можно использовать для координации действий всех ЛО, входящих в данную роботизированную группу. Несмотря на то, что алгоритмы распознавания ЛО довольно широко известны, в настоящее время существует необходимость разработки для них таких программных реализаций, которые позволят выполнять координацию действий ЛО в реальном масштабе времени, т.е. по данным их идентификации непосредственно в видеопотоке.

Цель. Осуществить программную реализацию метода обнаружения и распознавания объекта типа роботизированного ЛО в реальном масштабе времени, т.е. непосредственно в видеопотоке.

Результаты. Решены задачи анализа существующих подходов к распознаванию ЛО, а также применения на практике выбранного метода распознавания и создания реализующего его программного обеспечения. В процессе реализации функционального программного обеспечения (ФПО) исследовано несколько способов координации действий ЛО из состава роя с учетом его специфических особенностей. Для обнаружения ЛО выбрана сверточная архитектура нейронной сети YOLOv8. Сформирован набор данных и проведено дообучение нейронной сети. Отмечено, что набор данных составил 27 тысяч изображений. Алгоритм обработки потокового видео, поступающего от стороннего робототехнического комплекса, выполняющего функции наблюдателя, выбран с учетом использования графического процессора Nvidia GTX 3080, что позволило обеспечить высокую скорость обработки поступающих кадров видеопотока. Для обеспечения работы в режиме реального времени использована дообученная авторами на сформированном наборе данных нейронная сеть YOLOv8 small. Инференс сети составил 28 мс. Точность составила ~96,2%, полнота ~93,7%, mAP@0,5 ~95,5%. Граничным условием применимости разработанного авторами ФПО является перекрытие ЛО (попадание в область видимости видеокамеры) более чем на 50% его площади.

Практическая значимость. Разработанное ФПО позволяет передавать данные для корректировки направления движения ЛО в реальном масштабе времени и может быть использовано для организации координированных групп ЛО в целях выполнения разнородных миссий.

Страницы: 5-16
Для цитирования

Касьянов А.О., Подколзина Л.А. Реализация возможности распознавания летающих объектов в видеопотоке с помощью нейронной сети // Нейрокомпьютеры: разработка, применение. 2025. Т. 27. № 4. С. 5–16. DOI: https://doi.org/10.18127/j19998554- 202504-01

Список источников
  1. Будаев Е.С., Михайлова С.С., Евдокимова И.С., Халмакшинов Е.А. Разработка нейросетевой модели обнаружения объектов в видеопотоке // Нейрокомпьютеры: разработка, применение. 2023. Т. 25. № 4. С. 54–64. DOI: https://doi.org/10.18127/jl9998554-202304-07.
  2. Blackman S.S. Multiple hypothesis tracking for multiple target tracking // IEEE Aerospace and Electronic Systems Magazine. 2006. V. 19. № 1. P. 5–18.
  3. Методы компьютерной обработки изображений / Под ред. В.А. Сойфера. М.: Физматлит. 2001.
  4. Форсайт Д., Понс Ж. Компьютерное зрение. Современный подход. М.: ИД Вильямс. 2004.
  5. Богуславский А.А., Соколов С.М., Фёдоров Н.Г., Виноградов П.В. Система технического зрения для информационного обеспечения автоматической посадки и движения по ВПП летательных аппаратов // Известия ЮФУ. Технические науки. 2015. № 1 (162). С. 96–109.
  6. Свидетельство о регистрации программы для ЭВМ № 2016613671 РФ. Система сопровождения цели / А.П. Шведов, М.И. Прейскурантова. Опубл. 01.04.2016.
  7. Тихонов К.М., Тишков В.В. Разработка модели программного корректируемого сопровождения наземной цели с учетом возможностей человека-оператора // Вестник Московского авиационного института. 2011. Т. 18. № 6. С. 68–77.
  8. Voronin V.V., Sizyakin R.A., Zhdanova M. et al. Automated visual inspection of fabric image using deep learning approach for defect detection // Automated Visual Inspection and Machine Vision IV. 2021. V. 11787. P. 117870.
  9. Алфимцев А.Н., Лычков И.И. Метод обнаружения объекта в видеопотоке в реальном времени // Вестник Тамбовского государственного технического университета. 2011. Т. 17. № 1. С. 44–55.
  10. Мирзоян А.С., Малышев О.В., Хмаров И.М., Канивец В.Ю. Распознавание летательных аппаратов оптической системой в реальном масштабе времени // Вестник Московского авиационного института. 2014. Т. 21. № 5. С. 145–156.
  11. Blackman S.S. Multiple hypothesis tracking for multiple target tracking // IEEE Aerospace and Electronic Systems Magazine. 2004. V. 19. № 1. P. 5–18. DOI: 10.1109/MAES.2004.1263228.
  12. Алпатов Б.А., Муравьев В.С., Муравьев С.И. Обработка и анализ изображений в системах автоматического обнаружения и сопровождения воздушных объектов. Рязань: РГРТУ. 2012.
  13. Акиншин Р.Н., Хомяков А.В., Полубехин А.И., Румянцев В.Л. Алгоритм сопровождения маневрирующих воздушных целей в многопозиционной радиолокационной системе // Известия Тульского государственного университета. Технические науки. 2021. № 2. С. 175–183.
  14. Макаренко С.И. Противодействие беспилотным летательным аппаратам: Монография. СПб.: Наукоемкие технологии. 2020.
  15. Ultralytics – YOLOv8 [Электронный ресурс] / URL: https://docs/ultralytics.com/.
  16. Khan M.U., Dil M., Misbah M. et al. TransLearn-YOLOx: Improved-YOLO with transfer learning for fast and accurate multiclass UAV detection // 2023 International Conference on Communication, Computing and Digital Systems (C-CODE). Islamabad, Pakistan. 2023. P. 1–7. DOI: 10.1109/C-CODE58145.2023.10139896.
  17. Yilmaz B., Kutbay U. YOLOv8-based drone detection: Performance analysis and optimization // Computers. 2024. V. 13. № 9. P. 234.
  18. Naveen H., Menon P., Vinitha V. et al. A study on YOLOv5 for drone detection with Google colab training // 2023 2nd International Conference on Automation, Computing and Renewable Systems (ICACRS). Pudukkottai, India. 2023. P. 1576–1580. DOI: 10.1109/ ICACRS58579.2023.10404797.
  19. Purbaditya B., Nowak P. Drone detection and tracking with YOLO and a rule-based method. 2025. DOI: 10.48550/arXiv.2502.05292.
  20. Roboflow [Электронный ресурс] / URL: https://roboflow.com/.
Дата поступления: 16.06.2025
Одобрена после рецензирования: 08.07.2025
Принята к публикации: 28.07.2025