350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №2 за 2020 г.
Статья в номере:
Применение искусственных нейронных сетей на примере крупных IT-проектов
Тип статьи: научная статья
DOI: 10.18127/j19998554-202002-02
УДК: 004.8
Авторы:

Н.С. Коннова – к.т.н., доцент, Московский государственный технический университет им. Н. Э. Баумана

E-mail: nkonnova@bmstu.ru

Аннотация:

Постановка проблемы. Бурное развитие искусственного интеллекта и машинного обучения. В последние годы обусловило растущий интерес и повышенный спрос на специалистов в области искусственных нейронных сетей. Особое внимание специалистов при этом обращено на нейронные сети классов LSTM и сверточные. Актуальность основных решаемых ими задач (распознавание изображений и семантический анализ текста) во всех сферах, от информационной безопасности до интернета вещей и игр, обусловила интерес к данным типам искусственных нейронных сетей, который в дальнейшем будет только расти. Вопросы построения, обучения, а также использования таких сетей являются наиболее актуальными на сегодняшний день.

Цель. Описать концепции, принципы построения и основные архитектуры искусственных нейронных сетей, алгоритмы их обучения и дать обзор их использования в различных классах задач с конкретными кейсами.

Результаты. Обсуждены основные вопросы, связанные с применением нейросетевых технологий в различных задачах на примере популярных IT-проектов: Яндекс.Алиса, Google.Translate, Google Photos и Google Image Search (сети AlexNet и GoogleNet). 

Практическая значимость. Рассмотренные методы обучения и алгоритмы функционирования используемых в этих проектах нейронных сетей вплоть до отдельных слоев позволяют данным сетям наиболее успешно справляться с указанными задачами и демонстрировать наилучшие результаты по сравнению с другими методами машинного обучения.

Страницы: 18-23
Список источников

 

  1. Pribram K. Languages of the brain. Prentice-Hall, 1971. 432 p.
  2. Vlasov A., Yudin A. Distributed control system in mobile robot application: general approach, realization and usage // Communications in Computer and Information Science. 2011. Т. 156 CCIS. P. 180–192.
  3. Яковлев В.Л., Яковлева Г.Л., Власов А.И. Нейросетевые методы и модели при прогнозировании краткострочных и долгосрочных тенденций финансовых рынков // Материалы VI Всеросс. конф. «Нейрокомпьютеры и их применение», 2000. С. 372–377.
  4. Розенблатт Ф. Принципы нейродинамики. Перцептроны и теория механизмов мозга. М.: Мир, 1965. 82 с.
  5. Солдатова О.П. Нейроинформатика. Курс лекций. СГАУ, 2013. 130 с.
  6. LeCun Y., Bengio Y. Convolutional Networks for Images, Speech, and Time-Series // The Handbook of Brain Theory and Neural Networks, MIT Press, 1995.
  7. Как работает нейросеть Google Translate [Электронный ресурс] URL: https://www.cossa.ru/152/196086 (Дата обращения 26.03.2020).
  8. Understanding LSTM Networks [Электронный ресурс] URL: https://colah.github.io/posts/2015-08-Understanding-LSTMs/ (Дата обращения 26.03.2020).
  9. Как устроена Алиса. Лекция Яндекса [Электронный ресурс] URL: https://habr.com/ru/company/yandex/blog/349372/ (Дата обращения 26.03.2020).
  10. Басараб М.А., Коннова Н.С. Интеллектуальные технологии на основе искусственных нейронных сетей. М.: Изд-во МГТУ им. Н.Э. Баумана, 2017. 53 с.
  11. LSTM – сети долгой краткосрочной памяти [Электронный ресурс] URL: https://habr.com/ru/company/wunderfund/blog/331310/ (Дата обращения 30.03.2020).
  12. LeCun Y., Bottou L., Bengio Y., Haffner P. GradientBased Learning Applied to Document Recognition // Proceedings of the IEEE. 1998. 46p.
  13. Krizhevsky A., Sutskever I., Hinton G. ImageNet Classification with Deep Convolutional Neural Networks // Advances in neural information processing systems. 2012. V. 25. № 2. 
  14. Hubel D., Wiesel T. Brain mechanisms of vision // Scientific American. 1979. 241(3).
  15. Nayak S. Understanding AlexNet [Электронный ресурс] URL: https://www.learnopencv.com/understanding-alexnet/ (Дата обращения 30.03.2020).
  16. Dumoulin V., Visin F. A guide to convolution arithmetic for deep learning [Электронный ресурс] URL: https://arxiv.org/pdf/1603.07285.pdf (Датаобращения 30.03.2020).
  17. Szegedy C., Liu W., Jia Y., Sermanet P., Reed S., Anguelov D., Erhan D., Vanhoucke V., Rabinovich A. Going deeper with convolutions // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015. P. 1–10.
  18. Szegedy C., Vanhoucke V., Ioffe S., Shlens J. Rethinking the Inception Architecture for Computer // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016 [Электронный ресурс] URL: https://arxiv.org/pdf/1512.00567.pdf (Дата обращения 30.03.2020).
  19. Goodfellow I.J., Shlens J., Szegedy C. Explaining and harnessing adversarial examples // Published as a conference paper at ICLR. 2015 [Электронныйресурс] URL: https://arxiv.org/pdf/1412.6572.pdf (Дата обращения 30.03.2020).

 

Дата поступления: 13 февраля 2020 г.