350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №3 за 2019 г.
Статья в номере:
Разработка нейронной сети на основе знаний о воздействиях окружающей среды
Тип статьи: научная статья
DOI: 10.18127/j19998554-201903-01
УДК: 519.764
Авторы:

К. Р. Ахметзянов – аспирант, кафедра автоматики и телемеханики, Пермский национальный исследовательский политехнический университет

E-mail: kirill94a@mail.ru

А. А. Южаков – д.т.н., профессор, зав. кафедрой автоматики и телемеханики, Пермский национальный исследовательский политехнический университет

E-mail: uz@at.pstu.ru

Аннотация:

Постановка проблемы. В настоящее время в России большое внимание уделяется проблемам экологии, в частности, раздельному сбору мусора. Для этих целей разрабатываются специальные устройства для сбора отходов, в которых сортировка осуществляется на этапе сбора мусора. Для решения задачи сортировки необходимо разработать нейронную сеть для классификации изображений.

Цель. Предложить идею об извлечении и переносе информации о предметах, что позволит обучать нейронные сети на небольшом количестве данных.

Результаты. Предложен подход к построению оригинальной нейронной сети, а также вариант реализации такой сети. Отмечено, что подход заключается в извлечении воздействий, которые оказывает окружающая среда на любой предмет, после чего предлагаемая нейронная сеть получает предмет без каких-либо воздействий. Указаны условия проведения экспериментов с разработанной архитектурой нейронной сети, а также представлены результаты этих экспериментов.

Практическая значимость. Для обучения предлагаемой нейронной сети, которая устраняет воздействия окружающей среды и сравнивает предметы без воздействий, необходимо всего несколько эталонов обучающей выборки на каждый распознаваемый класс, что устранит недостаток сверточных нейронных сетей – необходимость большой обучающей выборки для точного распознавания.

Страницы: 5-13
Список источников
  1. Чердак: наука, технологии, будущее [Электронный ресурс] / URL: https://chrdk.ru/news/podschitano-obshchee-kolichestvoplastika (дата обращения: 16.12.2018).
  2. Raspberry Pi – Teach, learn, and make with Raspberry Pi [Электронный ресурс] / URL: https://www.raspberrypi.org/ (дата обращения: 16.12.2018).
  3. Ахметзянов К.Р., Южаков А.А. Сравнение сверточных нейронных сетей для задач сортировки мусорных отходов // Известия СПбГЭТУ ЛЭТИ. 2018. № 6. С. 27–32.
  4. Krizhevsky A., Sutskever I., Hinton G.E. ImageNet classification with deep convolutional neural networks // Proceedings of the 25th International Conference on Neural Information Processing Systems. (NIPS'12). Curran Associates Inc. Lake Tahoe, Nevada, USA. 2012. V. 1. P. 1106–1114.
  5. Iandola F.N., Han S., Moskewicz M.W., Ashraf Kh., Dally W.J., Keutzer K. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and < 0.5 MB model size // arXiv препринт arXiv:1602.07360. 2016 [Электронный ресурс] / URL: https://arxiv.org/pdf/1602.07360.pdf (дата обращения: 16.12.2018).
  6. Howard A.G., Zhu M., Chen B., Kalenichenko D., Wang W., Weyand T., Andreetto M., Adam H. MobileNets: Efficient convolutional neural networks for mobile vision applications // arXiv препринт arXiv:1704.04861. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/1704.04861.pdf (дата обращения: 16.12.2018).
  7. Jia Y., Shelhamer E., Donahue J., Karayev S., Long J., Girshick R., Guadarrama S., Darrell T. Caffe: Convolutional architecture for fast feature embedding // arXiv препринт arXiv:1408.5093. 2014 [Электронный ресурс] / URL: https://arxiv.org/ pdf/1408.5093.pdf (дата обращения: 16.12.2018).
  8. UKBench Dataset [Электронный ресурс] / URL: https://archive.org/details/ukbench (дата обращения: 30.12.2017).
  9. Ахметзянов К.Р., Южаков А.А. Увеличение точности сверточной нейронной сети за счет возрастания количества данных // Нейрокомпьютеры: разработка, применение. 2018. № 7. С. 14–19.
  10. Wang J., Perez L. The effectiveness of data augmentation in image classification using deep learning [Электронный ресурс] / URL: http://cs231n.stanford.edu/reports/2017/pdfs/300.pdf (дата обращения: 16.12.2018).
  11. Vasconcelos C.N., Vasconcelos B.N. Convolutional neural network committees for melanoma classification with classical and expert knowledge base image transforms data augmentation // arXiv препринт arXiv:1702.07025. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/1702.07025.pdf (дата обращения: 16.12.2018).
  12. Zhong Z., Zheng L., Kang G., Li S., Yang Y. Random erasing data augmentation // arXiv препринт arXiv:1708.04896. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/1708.04896.pdf (дата обращения: 16.12.2018).
  13. Krizhevsky A., Sutskever I., Hinton G.E. ImageNet classification with deep convolutional neural networks // Proceedings of the 25th International Conference on Neural Information Processing Systems. (NIPS'12). Curran Associates Inc. Lake Tahoe, Nevada, USA. 2012. V. 1. P. 1106–1114.
  14. Simonyan K., Zisserman A. Very deep convolutional networks for large-scale image recognition // arXiv препринт arXiv: 1409.1556. 2014 [Электронный ресурс] / URL: https://arxiv.org/pdf/1409.1556.pdf (дата обращения: 16.12.2018).
  15. Sabour S., Frosst N., Hinton G.E. Dynamic routing between capsules // arXiv препринт arXiv:1710.09829v2. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/1710.09829.pdf (дата обращения: 16.12.2018).
  16. Hinton G.E., Sabour S., Frosst N. Matrix capsules with EM routing // Proceedings of the 6th International Conference on Learning Representations (ICLR’2018). Vancouver, Canada. 2018 [Электронный ресурс] / URL: https://openreview.net/ pdf?id=HJWLfGWRb (дата обращения: 16.12.2018).
  17. Long M., Chu H., Wang J., Jordan M.I. Unsupervised domain adaption with residual transfer networks // arXiv препринт arXiv:1602.04433v2. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/1602.04433.pdf (дата обращения: 16.12.2018).
  18. Yan H., Ding Y., Li P., Wang Q., Xu Y., Zuo W. Umind the class weight bias: Weighted maximum mean discrepancy for unsupervised domain adaption // arXiv препринт arXiv:1705.00609v1. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/ 1705.00609.pdf (дата обращения: 16.12.2018).
  19. Long M., Cao Y., Wang J., Jordan M.I. Learning transferable features with deep adaption networks // arXiv препринт arXiv: 1502.02791v2. 2015 [Электронный ресурс] / URL: https://arxiv.org/pdf/1502.02791.pdf (дата обращения: 16.12.2018).
  20. Long M., Zhu H., Wang J., Jordan M.I. Deep transfer learning with joint adaption networks // arXiv препринт arXiv: 1605.06636v2. 2017 [Электронный ресурс] / URL: https://arxiv.org/pdf/1605.06636.pdf (дата обращения: 16.12.2018).
  21. Hochreiter S., Schmidhuber J. Long short-term memory // Neural Computation. 1997. V. 9. № 8. P. 1735–1780. DOI: 10.1162/ neco.1997.9.8.1735.
  22. Li F.-F., Fergus R., Perona P. One-shot learning of object categories // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2006. V. 28. № 4. P. 594–611.
  23. Koch G., Zemel R., Salakhutdinov R. Siamese neural networks for one-shot image recognition [Электронный ресурс] / URL: https://www.cs.cmu.edu/~rsalakhu/papers/oneshot1.pdf (дата обращения: 16.12.2018).
Дата поступления: 27 июня 2019 г.