350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №5 за 2019 г.
Статья в номере:
Анализ данных с использованием гистограммной модели комбинации признаков
Тип статьи: научная статья
DOI: 10.18127/j19998554-201905-02
УДК: 519.878
Авторы:

А.И. Власов – к.т.н., доцент, кафедра ИУ4 «Проектирование и технология производства электронной аппаратуры»,  Московский государственный технический университет им. Н.Э. Баумана

E-mail: vlasovai@bmstu.ru

С.Ю. Папулин – к.т.н., доцент, кафедра ИУ6 «Компьютерные системы и сети», Московский государственный технический университет им. Н.Э. Баумана

E-mail: papulin@rambler.ru

Аннотация:

Постановка проблемы. Гистограмма, как форма представления данных, используется для одного признака, который можно определить в виде универсального множества элементов. В то же время элементы данных, как правило, характеризуются множеством признаков. Поэтому возникает вопрос, можно ли применить математический аппарат гистограммной модели для данных, элементы которых определяются совокупностью признаков.

Цель. Проанализировать особенности применения гистограммной модели для многомерных данных, в которых каждому элементу соответствует комбинация признаков. Для простоты изложения материала приведен анализ изображений с двумя признаками (цвет и текстура).

Результаты. Рассмотрены два подхода к решению поставленной задачи: с использованием отдельных гистограмм для каждого признака и одной гистограммы, элементы которой соответствуют комбинации признаков. Первый подход требует введение дополнительных математических определений, которые могут усложнить реализацию метода. В то же время размерность данных будет соответствовать сумме количества элементов универсальных множеств для всех признаков. Если брать в учёт множество регионов, то для каждого из них строится весь набор гистограмм признаков. В случае реализации второго подхода используется стандартный математический аппарат гистограммной модели, но размерность данных возрастает за счет прямого произведения универсальных множеств всех признаков.

Практическая значимость. Полученные результаты могут быть использованы для реализации систем анализа элементного состава различного рода объектов по совокупности признаков.

Страницы: 18-27
Список источников
  1. Hinton G., Krizhevsky A., Sutskever I. ImageNet classification with deep convolutional neural networks // Neural Information Processing Systems (NIPS). 2012. P. 1106-1114. [Электронный ресурс] URL: = https://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf (дата обращения: 15.03.2017).
  2. Canziani A., Culurciell, E., Paszke A. An Analysis of Deep Neural Network Models for Practical Applications // Computing Research Repository (CoRR). 2017. [Электронный ресурс] URL: = https://arxiv.org/pdf/1605.07678.pdf (дата обращения: 15.03.2017)
  3. Krause J., Johnson J., Krishna R., Fei-Fei L.A Hierarchical Approach for Generating Descriptive Image Paragraphs // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017. P. 3337–3345.
  4. Chen X., Zitnick C.L. Mind’s eye: A recurrent visual representation for image caption generation // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2015. P. 2422–2431.
  5. Darrell T., Donahue J., Guadarrama S., Hendricks L.A., Rohrbach M., Saenko K., Venugopalan S. Long-term recurrent convolutional networks for visual recognition and description // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. V. 39. №. 4. P. 677–691.
  6. Darrell T., Long J., Shelhamer E. Fully Convolutional Networks for Semantic Segmentation // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. V. 39. № 4. P. 640–651.
  7. Badrinarayanan V., Cipolla R., Kendall A. SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation // IEEE Transactions on Pattern Analysis and Machine Intelligence. 2017. V. 39. № 12. P. 2481–2495.
  8. Dai J., He K., Li Y., Ren S., Sun J. Instance-Sensitive Fully Convolutional Networks // European Conference on Computer Vision. 2016. P. 534-549.
  9. Hayder Z., He X., Salzmann M. Boundary-Aware Instance Segmentation // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017. P. 587–595.
  10. Cöster R., Sahlgren M. Using bag-of-concepts to improve the performance of support vector machines in text categorization // COLING '04 Proceedings of the 20th international conference on Computational Linguistics. Article № 487. 2004. [Электронный ресурс] URL: = https://www.sics.se/~mange/papers/ coling2004.pdfnetworks.pdf (дата обращения: 15.03.2017).
  11. Sivic J., Zisserman A. Video Google: Efficient Visual Search of Videos. In: Toward Category-Level Object Recognition. Lecture Notes in Computer Science. Berlin: Springer Berlin Heidelberg. 2006. V. 4170. P. 127-144. [Электронный ресурс] URL: = http://www.robots.ox.ac.uk/~vgg/publications/papers/ sivic06c.pdf (дата обращения: 15.03.2017).
  12. Chen K., Corrado G., Dean J., Mikolov T. Efficient Estimation of Word Representations in Vector Space // Computing Research Repository (CoRR). 2013. [Электронный ресурс] URL: = https://arxiv.org/pdf/1301.3781.pdf (дата обращения: 15.03.2017).
  13. Папулин С.Ю. Анализ коллекции данных посредством логико-множественного гистограммного представления // Программные продукты и системы. 2014. №1. С. 57–60;
  14. Папулин С.Ю. Анализ многоблочных данных посредством логико-множественного гистограммного представления // Научное обозрение. 2014. №2. С. 72–77.
Дата поступления: 20 марта 2019 г.