350 руб
Журнал «Системы высокой доступности» №4 за 2022 г.
Статья в номере:
Метод интеграции трехмерных моделей в сцену в процессе трехмерной реконструкции
Тип статьи: научная статья
DOI: https://doi.org/10.18127/j20729472-202204-02
УДК: 004.92
Авторы:

Ю.А. Маньяков1, П.О. Архипов2, П.Л. Ставцев3

1–3 Орловский филиал ФИЦ ИУ РАН (Орел, Россия)
 

Аннотация:

Постановка проблемы. Ввиду принципиальных ограничений методов трехмерной реконструкции результирующие модели могут содержать ряд ошибок, в частности, шум и визуальную неполноту. Появление шумов в реконструкции неизбежно и связано как с источником входных данных (дискретизация изображений, цифровой шум камеры), так и непосредственно с алгоритмом реконструкции (ошибки стереосопоставления, погрешность локализации). Неполнота реконструкции может быть вызвана, например, невозможностью выполнить съемку определенной области из-за взаимных перекрытий объектов, недостаточным освещением, а также наличием однородно-окрашенных поверхностей.

Также важной проблемой для реконструкции в реальном времени является необходимость оптимизации алгоритмов и снижения их вычислительной сложности с целью повышения скорости.

Цель. Решить проблемы снижения уровня зашумленности и неполноты геометрии результатов трехмерной реконструкции, а также повысить вычислительную эффективность, а, следовательно, и скорости реконструкции.

Результаты. Результатами исследования является разработанный метод, позволяющий успешно интегрировать модели в сцену, были получены значения параметров, показывающие точность сопоставлений объектов сцены и геометрическое соответствие эталонных объектов реальным.

Практическая значимость. Результаты исследования позволяют снизить неполнота (за счет использования полных моделей) и зашумленность реконструкции, так как эталонная модель не содержит шумов и искажений и может быть использована для усовершенствования методов трехмерной реконструкции.

Страницы: 16-27
Для цитирования

Маньяков Ю.А., Архипов П.О., Ставцев П.Л. Метод интеграции трехмерных моделей в сцену в процессе трехмерной реконструкции // Системы высокой доступности. 2022. Т. 18. № 4. С. 16−27. DOI: https://doi.org/ 10.18127/j20729472-202204-02

Список источников
  1. Nu-lee Song, Jin-Ho Park, Gye-Young Kim Robust. 3D Reconstruction Through Noise Reduction of Ultra-Fast Images. Advances in Computer Science and Ubiquitous Computing, Jan. 2021. P. 509–514.
  2. Katja Wolff, Changil Kim, Henning Zimmer, Christopher Schroers, Mario Botsch, Olga Sorkine-Hornung, Alexander Sorkine-Hornung. Point Cloud Noise and Outlier Removal for Image-Based 3D Reconstruction. 2016 Fourth International Conference on 3D Vision (3DV). 2016. P. 118–127, DOI: 10.1109/3DV.2016.20.
  3. Yao Duan, Chuanchuan Yang, Hao Chen, Weizhen Yan, Hongbin Li. Low-complexity point cloud denoising for LiDAR by PCA-based dimension reduction. Optics Communications. 2021. V. 82.
  4. Qingxiong Yang, Liang Wang, Ruigang Yang, Shengnan Wang, Miao Liao, David Nistér. Real-time Global Stereo Matching Using Hierarchical Belief Propagation. 17th British Machine Vision Conference (BMVC), 2006. P. 989-998. DOI: 10.5244/C.20.101.
  5. Zhang Yu., Garcia S., Xu W., Shao T., Yang Y. Efficient voxelization using projected optimal scanline. Graphical Models. 2018. V. 100. P. 61–70. ISSN 1524-0703.
  6. MeshLab – URL: https://www.meshlab.net
  7. Батенков А.А., Маньяков Ю.А., Гасилов А.В., Яковлев О.А. Математическая модель оптимальной триангуляции // Информатика и ее применения. 2018. Т. 12. № 2. С. 69–74.
  8. Shamos M.I., Hoey D. Geometric intersection problems. 17th Annual Symposium on Foundations of Computer Science proceedings. Houston, TX, USA. 1976. P. 208–215.
  9. Dai A.A., Chang A.X., Savva M., Halber M., Funkhouser T., Nießner M. ScanNet: Richly-Annotated 3D Reconstructions of Indoor Scenes. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) proceedings. Honolulu, HI, USA. 2017. P. 2432–2443.
  10. Hua B., Pham Q., Nguyen D. T., Tran M., Yu L., Yeung S. SceneNN: A Scene Meshes Dataset with aNNotations. 2016 Fourth International Conference on 3D Vision (3DV) proceedings. Stanford. CA. USA. 2016. P. 92–101.
  11. Armeni I., Sener O., Zamir A.R., Jiang H., Brilakis I., Fischer M., Savarese S. 3D Semantic Parsing of Large-Scale Indoor Spaces. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) proceedings. Las Vegas, NV, USA. 2016. P. 1534–1543.
  12. Яковлев О.А., Гасилов А.В. Создание реалистичных наборов данных для алгоритмов трехмерной реконструкции с помощью виртуальной съемки компьютерной модели // Системы и средства информатики. 2016. Т. 26. № 2. С. 98–107.
  13. А.с. № 2019663718 (РФ). Программное обеспечение системы обследования помещений и трехмерной реконструкции помещений с помощью автономного мобильного робота (RT-Rec): свидетельство о государственной регистрации программы для ЭВМ / О.П. Архипов, О.А. Яковлев, А.И. Сорокин, Ю.А. Маньяков, П.Ю. Бутырин; заявитель и правообладатель ФИЦ ИУ РАН. 2019.
  14. Goodfellow I., Bengio Y., Courville A. Deep Learning // MIT Press, 2016, 800 p.
  15. Boykov Y., Veksler O., Zabih R. Fast approximate energy minimization via graph cuts // IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2011. Vol. 23. Iss. 11. pp. 1222–1239.
  16. Boykov Y., Kolmogorov V. An experimental comparison of Min-Cut/Max-Flow algorithms for energy minimization in vision // IEEE Transactions on Pattern Analysis and Machine Intelligence (PAMI), 2004. Vol. 26. Iss. 9. pp. 1124–1137.
  17. Chang A.X., Funkhouser T., Guibas L., Hanrahan P., Qixing Huang, Zimo Li, Savarese S., Savva M., Shuran Song, Hao Su, Jianxiong Xiao, Li Yi, Fisher Yu. ShapeNet: An Information-Rich 3D Model Repository // ArXiv, abs/1512.03012 URL: https://arxiv.org/abs/1512.03012v1
  18. Нистратов А.А. Аналитическое прогнозирование интегрального риска нарушения приемлемого выполнения совокупности стандартных процессов в жизненном цикле систем высокой доступности. Часть 1. Математические модели и методы // Системы высокой доступности. 2021. Т. 17. № 3. С. 16-31. DOI: https://doi.org/ 10.18127/j20729472-202103-02.
Дата поступления: 05.10.2022
Одобрена после рецензирования: 19.10.2022
Принята к публикации: 21.11.2022