350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №1 за 2019 г.
Статья в номере:
Модель визуального представления и способ сопоставления изображений в сверточных нейронных сетях
Тип статьи: научная статья
DOI: 10.18127/j19998554-201901-03
УДК: 004.93
Авторы:

В. В. Борисов – д.т.н., профессор, филиал ФГБОУ ВО «Национальный исследовательский университет «МЭИ» (г. Смоленск)

E-mail: vbor67@mail.ru

О. И. Гаранин – аспирант, ФГБОУ ВО «Национальный исследовательский университет «МЭИ»

E-mail: hedgehog91@mail.ru

Аннотация:

Предложена оригинальная модель визуального представления объектов в сверточной нейронной сети (СНС), отличающаяся от известных решений добавлением слоя нейронов для формирования «глубоких» признаков объектов и возможностью детектирования, выделения «глубоких» признаков этих объектов в реальном времени за один проход сигналов в СНС.

Представлен способ, который позволяет сопоставить объекты одного изображения с объектами другого изображения на основе степени различия «глубоких» признаков этих объектов. На основе экспериментальной оценки результатов использования предложенного способа сделан вывод о том, что его применение позволяет уменьшить время детектирования, выделения признаков визуальных объектов и сопоставления их изображений в СНС и в итоге обеспечить анализ динамических зрительных сцен в режиме реального времени.

Отмечено, что представленный в статье способ может быть эффективно использован при решении задач анализа динамических зрительных сцен, например, для визуального представления и сопровождения множества объектов в режиме реального времени.

Страницы: 9-18
Список источников
  1. Ahonen T., Hadid A., Pietikainen M. Face recognition with local binary patterns // Proc. 8th European Conference on Computer Vision (ECCV). 2004. P. 469–481.
  2. Bay H., Tuytelaars T., Gool L.V. SURF: Speeded up robust features // Proc. 10th European Conference on Computer Vision (ECCV). 2006. P. 404–417.
  3. Luo W., Xing J. Multiple object tracking: a literature review [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/ abs/1409.7618 (дата обращения: 14.03.2018).
  4. Wojke N., Bewley A., Paulus D. Simple online and realtime tracking with a deep association metric [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1703.07402 (дата обращения: 24.02.2018).
  5. Sadeghian A., Alahi A., Savarese S. Tracking the untrackable: learning to track multiple cues with long-term dependencies [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1701.01909 (дата обращения: 24.02.2018).
  6. Held D., Thrun S., Savarese S. Learning to track at 100 FPS with deep regression networks [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1604.01802 (дата обращения: 24.02.2018).
  7. Zhai M., Roshtkhari M., Mori G. Deep learning of appearance models for online object tracking [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1607.02568 (дата обращения: 24.02.2018).
  8. Liu W., Anguelov D., Erhan D., Szegedy C., Reed S. SSD: single shot multibox detector [Электронный ресурс] // arXiv.org. URL: https://arxiv.org/abs/1512.02325 (дата обращения: 24.02.2018).
  9. Гаранин О.И. Способ выделения эмпирического рецептивного поля сверточной нейронной сети // Нейрокомпьютеры: разработка, применение. 2017. № 3. С. 63–69.
  10. Гаранин О.И. Способ настройки многомасштабной модели детектирования визуальных объектов в сверточной нейронной сети // Нейрокомпьютеры: разработка, применение. 2018. № 2. С. 50–56.
  11. Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // Proc. of the Neural Information Processing Systems Conference. 2015.
  12. Borisov V., Garanin O. A method of dynamic visual scene analysis based on convolutional neural network // Proc. 16th Russian Conference. RCAI-2018. 2018. P. 60–69.
Дата поступления: 27 октября 2018 г.