В. В. Борисов – д.т.н., профессор, филиал ФГБОУ ВО «Национальный исследовательский университет «МЭИ» (г. Смоленск)
E-mail: vbor67@mail.ru
О. И. Гаранин – аспирант, ФГБОУ ВО «Национальный исследовательский университет «МЭИ»
E-mail: hedgehog91@mail.ru
Предложена оригинальная модель визуального представления объектов в сверточной нейронной сети (СНС), отличающаяся от известных решений добавлением слоя нейронов для формирования «глубоких» признаков объектов и возможностью детектирования, выделения «глубоких» признаков этих объектов в реальном времени за один проход сигналов в СНС.
Представлен способ, который позволяет сопоставить объекты одного изображения с объектами другого изображения на основе степени различия «глубоких» признаков этих объектов. На основе экспериментальной оценки результатов использования предложенного способа сделан вывод о том, что его применение позволяет уменьшить время детектирования, выделения признаков визуальных объектов и сопоставления их изображений в СНС и в итоге обеспечить анализ динамических зрительных сцен в режиме реального времени.
Отмечено, что представленный в статье способ может быть эффективно использован при решении задач анализа динамических зрительных сцен, например, для визуального представления и сопровождения множества объектов в режиме реального времени.
- Ahonen T., Hadid A., Pietikainen M. Face recognition with local binary patterns // Proc. 8th European Conference on Computer Vision (ECCV). 2004. P. 469–481.
- Bay H., Tuytelaars T., Gool L.V. SURF: Speeded up robust features // Proc. 10th European Conference on Computer Vision (ECCV). 2006. P. 404–417.
- Luo W., Xing J. Multiple object tracking: a literature review [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/ abs/1409.7618 (дата обращения: 14.03.2018).
- Wojke N., Bewley A., Paulus D. Simple online and realtime tracking with a deep association metric [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1703.07402 (дата обращения: 24.02.2018).
- Sadeghian A., Alahi A., Savarese S. Tracking the untrackable: learning to track multiple cues with long-term dependencies [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1701.01909 (дата обращения: 24.02.2018).
- Held D., Thrun S., Savarese S. Learning to track at 100 FPS with deep regression networks [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1604.01802 (дата обращения: 24.02.2018).
- Zhai M., Roshtkhari M., Mori G. Deep learning of appearance models for online object tracking [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1607.02568 (дата обращения: 24.02.2018).
- Liu W., Anguelov D., Erhan D., Szegedy C., Reed S. SSD: single shot multibox detector [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1512.02325 (дата обращения: 24.02.2018).
- Гаранин О.И. Способ выделения эмпирического рецептивного поля сверточной нейронной сети // Нейрокомпьютеры: разработка, применение. 2017. № 3. С. 63–69.
- Гаранин О.И. Способ настройки многомасштабной модели детектирования визуальных объектов в сверточной нейронной сети // Нейрокомпьютеры: разработка, применение. 2018. № 2. С. 50–56.
- Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // Proc. of the Neural Information Processing Systems Conference. 2015.
- Borisov V., Garanin O. A method of dynamic visual scene analysis based on convolutional neural network // Proc. 16th Russian Conference. RCAI-2018. 2018. P. 60–69.