М.В. Букин1, А.А. Керхайли2, А.А. Ширяев3, А.Н.Дементьев4
1,2 ВУНЦ ВВС «ВВА им. проф. Н.Е. Жуковского и Ю.А. Гагарина» (г. Воронеж, Россия)
3,4 МИРЭА – Российский технологический университет (РТУ МИРЭА) (Москва, Россия)
1 bukinm@mail.ru, 2 ali.ahmad.karhili@gmail.com
Постановка проблемы. В работе представлена усовершенствованная гибридная модель для обнаружения объектов на радиолокационных изображениях с синтезированной апертурой (РСА). При этом особое внимание уделено улучшению использования информации радиолокационной тени для сокращения ложных тревог и повышения точности обнаружения объектов.
Цель. Предложить новую модель детектора, основанную на интеллектуальном объединении двух взаимодополняющих подходов: один специализируется на обнаружении объектов с использованием информации о тени, другой – на обнаружении объектов вне зависимости от информации о тени.
Результаты. Выбор подходящей модели или объединение их выходных данных осуществлен посредством адаптивного механизма принятия решений, основанного на анализе качества изображения, включая расчет уровня шума с использованием преобразования Фурье и индекса размытия с использованием текстурных характеристик (GLCM). Показано явное превосходство гибридной модели, которая достигла значительного снижения уровня ложных тревог (FPPI) до 0,0035 на исходном тестовом наборе и до 0,0061 на составном наборе при пороге уверенности 0,8, сохраняя при этом высокую полноту и общую точность.
Практическая значимость. Полученные результаты делают гибридную модель практичным и перспективным решением для военных и охранных применений, требующих высокой надежности в условиях помех и маскировки.
Букин М.В., Керхайли А.А., Ширяев А.А., Дементьев А.Н. Гибридная модель детектора объектов на радиолокационных изображениях синтезированной апертуры с целью повышения использования информации о радиолокационной тени // Наукоемкие технологии. 2026. Т. 27. № 1. С. 5−17. DOI: https://doi.org/ 10.18127/ j19998465-202601-01
- Cui Z., Wang C., Li S., Jiao L., Yang M. A Review of False Alarm Reduction in SAR Object Detection: Challenges and Future Directions. IEEE Transactions on Geoscience and Remote Sensing. 2022. V. 60. Art. № 5230619. https://doi.org/10.1109/TGRS.2022.3230987.
- Ross T.D., Worrell S.W., Velten V.J., Mossing J.C., Bryant M.L. Standard SAR ATR Evaluation Experiments Using the MSTAR Public Release Data Set. Proceedings of SPIE – The International Society for Optical Engineering. 1998. V. 3370. P. 566–573. https://doi.org/10.1117/12.321859.
- Wang C., Liu S., Li Z., Zhang Y. A Comprehensive Survey of SAR Image Target Detection: From Traditional Methods to Deep Learning. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 2021. V. 14. P. 7039–7062. https://doi.org/10.1109/JSTARS.2021.3096137.
- Zhang L., Zhang Z., Wang L. Deep Learning for SAR Object Detection: A Review. ISPRS Journal of Photogrammetry and Remote Sensing. 2022. V. 187. P. 142–160. https://doi.org/10.1016/j.isprsjprs.2022.03.007.
- Chen S., Wang H., Xu F., Jin Y.Q. Target Classification Using the Deep Convolutional Networks for SAR Images. IEEE Transactions on Geoscience and Remote Sensing. 2016. V. 54. № 8. P. 4806–4817. https://doi.org/10.1109/TGRS.2016.2551720.
- Bai X., Zhou F., Xue B. Shadow-Enhanced SAR Target Detection with Contextual Feature Fusion. IEEE Geoscience and Remote Sensing Letters. 2022. V. 19. Art. № 6504005. https://doi.org/10.1109/LGRS.2021.3051912.
- Wang Y., Li Z., Wang L., Li Q. A Shadow-Enhanced Ship Detection Method for SAR Images in Complex Environments Based on Deep Learning. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing. 2021. V. 14. P. 8964–8976. https://doi.org/10.1109/JSTARS.2021.3107436.
- Zhang X., Yang Z., Li S., Yu W. Robust SAR Target Recognition Based on Multiview Deep Learning Framework with Spectral Filtering. IEEE Transactions on Geoscience and Remote Sensing. 2022. V. 60. Art. № 5232414. https://doi.org/10.1109/TGRS.2022.3167259.
- Géron A. Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow. O'Reilly Media. 2022. Chap.8: Evaluation Metrics for Object Detection. P. 321–358.
- Redmon J., Farhadi A. YOLOv3: An Incremental Improvement. Computer Vision: Principles, Algorithms, Applications, Learning. Academic Press. 2023. Chap.22: Evaluation Challenges in Object Detection. P. 823–825. https://doi.org/10.1016/B978-0-12-822109-9.00022-3.
- Szeliski R. Computer Vision: Algorithms and Applications. Springer. 2022. Chap.6: Object Detection and Recognition. P. 345–348. https://doi.org/10.1007/978-3-030-34372-9.
- Touzi R., Boerner W.M., Lee J.S. Polarimetric SAR Calibration: The SLICY Target Approach. IEEE Transactions on Geoscience and Remote Sensing. 2022. V. 60. Art. № 5207514. https://doi.org/10.1109/TGRS.2021.3132125.
- Gonzalez R.C., Woods R.E. Digital Image Processing. Pearson. 2023. Chap.5: Image Restoration and Noise Models. P. 289–324.
- Gonzalez R.C., Woods R.E. Digital Image Processing. Pearson. 2023. Chap.4. P. 245–248.
- Lee J.S. Digital Image Enhancement and Noise Filtering by Use of Local Statistics. IEEE Transactions on Pattern Analysis and Machine Intelligence. 1980. V.PAMI-2. № 2. P. 165–168. https://doi.org/10.1109/TPAMI.1980.4766994.
- Hall-Beyer M. Practical Guidelines for Choosing GLCM Parameters to Use in Landscape Classification Tasks over a Range of Moderate Spatial Scales. International Journal of Remote Sensing. 2017. V. 38. № 5. P. 1312–1338. https://doi.org/10.1080/01431161.2016.1278314.
- Sharma N., Verma A.K., Goyal S. GLCM-Based Texture Features for Classification of SAR Images. 2019 IEEE International Conference on Signal and Image Processing Applications (ICSIPA). 2019. P. 175–179. https://doi.org/10.1109/ICSIPA45851.2019.8977787.
- Crete-Roffet F., Dolmiere T., Ladret P., Nicolas M. The Blur Effect: Perception and Estimation with a New No-Reference Perceptual Blur Metric. Proceedings of SPIE Electronic Imaging. 2007. V. 6492. https://doi.org/10.1117/12.702790.
- Redmon J., Farhadi A. YOLO9000: Better, Faster, Stronger. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2017.
- Redmon J., Divvala S., Girshick R., Farhadi A. You Only Look Once: Unified, Real-Time Object Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 779–788.

