350 руб
Журнал «Нейрокомпьютеры: разработка, применение» №2 за 2025 г.
Статья в номере:
Эргономический анализ методов картографирования нарушений лесного покрова с использованием нейронных сетей
Тип статьи: научная статья
DOI: https://doi.org/10.18127/j19998554-202502-04
УДК: 004.85
Авторы:

Б.С. Горячкин1, Н.С. Подопригорова2, С.С. Подопригорова3
1–3 Московский государственный технический университет им. Н.Э. Баумана (Москва, Россия)

1 bsgor@mail.ru, 2 n.podoprigorova@icloud.com, 3 s.podoprigorova@icloud.com

Аннотация:

Постановка проблемы. Поиск эффективной архитектуры нейронной сети занимает много времени и требует значительных вычислительных ресурсов.

Цель. Установить связь между особенностями архитектуры нейронной сети и ее выходными характеристиками, чтобы еще до обучения модели можно было отделить высокопроизводительные архитектуры от неоптимальных.

Результаты. Проведен анализ влияния архитектуры нейронной сети на характеристики модели: время обучения, скорость работы и размер модели. Эксперименты проведены над моделью на основе архитектуры U-Net. Исследованы изменения основных характеристик модели: глубина, ширина (средний размер фильтров), размер ядер свертки и наличие или отсутствие пропускных соединений. Решена задача семантической сегментации нарушений лесного покрова на наборе данных со спутниковыми снимками.

Практическая значимость. Установленные зависимости между особенностями архитектуры нейронной сети и ее выходными характеристиками должны облегчить процесс поиска эффективной архитектуры нейронной сети для задачи семантической сегментации.

Страницы: 32-42
Для цитирования

Горячкин Б.С., Подопригорова Н.С., Подопригорова С.С. Эргономический анализ методов картографирования нарушений лесного покрова с использованием нейронных сетей // Нейрокомпьютеры: разработка, применение. 2025. Т. 27. № 2. С. 32–42. DOI: https://doi.org/10.18127/j19998554-202502-04

Список источников
  1. Zoph B., Le Q.V. Neural architecture search with reinforcement learning // Proc. of the 5th International Conference on Learning Representations. 2017.
  2. Lopes V. et al. EPE-NAS: Efficient performance estimation without training for neural architecture search // International Conference on Artificial Neural Networks. 2021. P. 552–563.
  3. Shen X. et al. DeepMAD: Mathematical architecture design for deep convolutional neural network // 2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Vancouver, BC, Canada. 2023. P. 6163–6173. DOI: 10.1109/CVPR52729.2023.00597.
  4. Forrest I. Exploring the design space of deep convolutional neural networks at large scale. Dissertation. University of California, Berkeley. 2016. URL: https://doi.org/10.48550/arXiv.1612.06519.
  5. Zebin T., Scully P.J., Peek N., Casson A.J., Ozanyan K.B. Design and implementation of a convolutional neural network on an edge computing smartphone for human activity recognition // IEEE Access. 2019. V. 7. P. 133509–133520. DOI: 10.1109/ACCESS.2019. 2941836.
  6. Шихов А.Н., Чернокульский А.В., Ажигов И.О. Пространственно-временное распределение ветровалов в лесной зоне Западной Сибири в 2001–2020 гг. // Современные проблемы дистанционного зондирования Земли из космоса. 2022. Т. 19. № 3. С. 186–202. DOI: 10.21046/2070-7401-2022-19-3-186-202.
  7. Тарасов А.В., Шихов А.Н., Шабалина Т.В. Распознавание нарушений лесного покрова по спутниковым снимкам Sentinel-2 с помощью сверточных нейронных сетей // Современные проблемы дистанционного зондирования Земли из космоса. 2021. Т. 18. № 3. С. 51–64. DOI: 10.21046/2070-7401-2021-18-3-51-64.
  8. Patel C., Bhatt D., Sharma U. et al. DBGC: Dimension-based generic convolution block for object recognition // Sensors. 2022. V. 22. № 1780. DOI: https://doi.org/10.3390/s22051780.
  9. Sankararaman K.A., De S., Xu Zh. et al. The impact of neural network overparameterization on gradient confusion and stochastic gradient descent // Proceedings of the 37th International Conference on Machine Learning. Vienna, Austria. 2020.
Дата поступления: 13.02.2025
Одобрена после рецензирования: 26.02.2025
Принята к публикации: 14.03.2025