350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №1 за 2014 г.
Статья в номере:
Распознавание и генерация образов в нейронной сети с иерархической связностью
Авторы:
Диане Секу Абдель Кадер - аспирант, ассистент, кафедры «Проблемы управления», Московский государственный технический университет радиотехники, электроники и автоматики. E-mail: sekoudiane1990@gmail.com
Аннотация:
Рассмотрен метод построения и обучения нейронных сетей, основанный на организации иерархической структуры соединений между нейронами в сети прямого распространения и использовании биологически оправданных принципов образования детекторной селективности нейронов. Данный подход позволяет детектировать во входном образе значимые признаки, сложность которых возрастает с каждым уровнем иерархии нейронной сети. Выявленные признаки повышают точность классификации входных информационных образов. Кроме того, возможна генерация образов по набору признаков, путем многоэтапного декодирования их значений. Приведены результаты моделирования нейронной сети с иерархической связностью в задачах распознавания и генерации изображений рукописных символов. Обсуждены перспективы применения предлагаемого подхода в ряде задач анализа информации и интеллектуального управления.
Страницы: 47-57
Список источников

 

  1. Hawkins J., Blakeslee S. On Intelligence. USA: Henry Holt and Company. 2004. 261 p.
  2. Умрюхин Е.А. Проблемы моделирования функций мозга (нейрокибернетический подход) // Нейрокомпьютеры: разработка, применение. 2013. №8. С. 54-59.
  3. Чернавский Д.С., Карп В.П., Никитин А.П., Чернавская О.Д. Один из вариантов конструкции аппарата мышления и модель обучения речи // Сборник трудов XV Всеросс. научно-технич. конф. «Нейроинформатика-2013». В 3-х частях. Ч. 1. М.: Изд-во НИЯУ МИФИ. 2013. 240 с.
  4. Salakhutdinov R., Hinton G. Deep Boltzmann Machines // Proceedings of the 12th International Conference on Artificial Intelligence and Statistics (AISTATS). 2009. Clearwater Beach. Florida, USA. V. 5 of JMLR.
  5. Ciresan D.C. et al. Flexible, High Performance Convolutional Neural Networks for Image Classification // Twenty-Second International Joint Conference on Artificial Intelligence. 2011.
  6. Ananthanarayanan R., Esser S., Simon H., Modha D. The Cat is Out of the Bag: Cortical Simulations with 109Neurons, 1013 Synapses // SC09. November 14-20 2009. Portland, Oregon, USA.
  7. Болотова Ю.А., Кермани А.К., Спицын В.Г. Распознавание символов на цветном фоне на основе иерархической временной модели с предобработкой фильтрами Габора // Электромагнитные волны и электронные системы. 2012. № 1. С. 14-19.
  8. Bienenstock E., Cooper L., and Munro P.W. Theory for the development of neuron selectivity: orientation specificity and binocular interaction in visual cortex. // The Journal of Neuroscience. January 1982. № 1. Р. 32-48.
  9. LeCun Y., Bottou L., Bengio Y., and Haffner P. Gradient-based learning applied to document recognition // Proceedings of the IEEE. November 1998.
  10. Ciresan D., Meier U., Schmidhuber J. Multi-column Deep Neural Networks for Image Classification. Technical Report No. IDSIA-04-12, [Электронный ресурс] // Режим доступа: http://arxiv.org/pdf/1202.2745v1.pdf