Object Distance Determination by Means of Technical Vision
DOI:
https://doi.org/10.22213/2410-9304-2025-4-33-39Keywords:
camera parameters, image processing algorithms, distance determination accuracy, computer vision, stereo vision, focal length, Monocular Depth, aperture, exposure time, Image Segmentation, algorithm testingAbstract
The purpose of this paper is to evaluate the effectiveness and accuracy of an integrated approach for object distance estimation based on a camera model and machine learning libraries in the context of advanced driver assistance systems (ADAS) and autonomous driving. This paper examines how camera model parameters (sensor resolution, focal length, field of view, and aperture characteristics) influence the quality of input data for algorithms implemented using machine learning libraries and, consequently, the overall distance estimation accuracy. Particular attention is paid to the practical application of modern machine learning algorithms, including deep neural networks, to solve the problem of monocular depth estimation from a single image. This study aims to identify the potential dependence of distance estimation accuracy on object distance. In particular, it will analyze how distance increasing can lead to a disproportionate increase in estimation error, which will help identify potential limitations of current implementations of machine learning algorithms when working with distant objects. Factors, contributing measurement accuracy reduction at long distances will be considered, such as increased distortion during image capture and processing, as well as issues of adapting algorithms to the characteristics of data from remote objects.References
Агафонов А. А., Юмаганов А. С. Сравнение методов детектирования трёхмерных объектов в задаче автономного вождения транспортных средств // Информационные технологии и нанотехнологии: сборник трудов по материалам VI Международной конференции и молодежной школы, 2020. С. 277-284.
Ковалевский В. А., Волхонский В. В. Методы повышения качества изображения для работы системы видеонаблюдения в условиях недостаточной освещаемости // Известия высших учебных заведений. Приборостроение. 2021. № 10 (64). С. 811-816.
Истомин В. И., Привалов А. Н. К вопросу применяемости методов монокулярной оценки глубины для 3D-реконструкции геометрии документов // Известия Тульского государственного университета. 2024. Вып. 9. С. 401-404.
Паутова Л. В. Исследование и оптимизация стереокомпьютерного метода формирования изображений и разработка на его основе устройства для диагностики параметров стереоскопического зрения: дисс. … канд. техн. наук, 2003. 164 c.
Использование машинного обучения для управления навигацией робота по показаниям датчиков расстояний / Н. А. Ломовцева, Ю. Е. Кувайскова, И. Н. Карпунина, В. Н. Клячкин, Д. М. Ястребов // Информационные технологии и нанотехнологии: сборник трудов по материалам Международной конференции и молодежной школы. 2022. Т. 5. 50252-50581.
Бархум М., Пыркин А. А. Использование монокулярной оптики при оценке глубины объектов для двумерного картирования моделируемой среды // Научно-технический вестник информационных технологий, механики и оптики. 2024. № 1. С. 118-122.
Зайцев А. К. Автономное управление транспортным средством с использованием Lidar // Вестник науки. 2023. Т. 1, № 6 (63). С. 873-887.
Godard, C., Aodha, O. J., & Brostow, G. J. (2019). Digging Into Self-Supervised Monocular Depth Estimation. Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), c. 2803-2812.
Ranftl, R., Lasinger, K., & Hafner, D. (2022). Towards Robust Monocular Depth Estimation: Mixing Datasets for Zero-Shot Cross-Dataset Transfer. IEEE Transactions on Pattern Analysis and Machine Intelligence. IEEE Transactions on Pattern Analysis and Machine Intelligence, 44(3), 1623 - 1637 c.
Лупенко Н. Л., Богуш Р. П., Чен Х. Анализ методов определения абсолютного расстояния до объекта по изображению с одной видеокамеры с использованием нейронных сетей // Вестник полоцкого государственного университета. 2024. № 2 (43). С. 24-32.
Khan, F., Salahuddin, S., & Javidnia, H. (2020). Deep Learning-Based Monocular Depth Estimation Methods- A State-of-the-Art Review. Sensors, 20(8), 1- 16 c.
Тихонов М. К. Интеграция федеративного обучения и yolov11 для обнаружения объектов в автономных транспортных средствах // Научный результат. Информационные технологии. 2024. № 9. С. 58-64.
Skibicki, J., Golijanek-Jędrzejczyk, A., & Dzwonkowski, A. (2020). The Influence of Camera and Optical System Parameters on the Uncertainty of Object Location Measurement in Vision Systems. Sensors, 20(108), 80-233 c.
Devo, A., Mao, J., Costante, G., Loianno, G., & Authors, А. (2022). Autonomous Single-Image Drone Exploration With Deep Reinforcement Learning and Mixed Reality. IEEE Robotics and Automation Letters, 7(2), 5031-5038 c.
Zhu, Z., Wu, F., Sun, W., & Wu, Q. (2025). Depth Estimation Based on MMwave Radar and Camera Fusion with Attention Mechanisms and Multi-Scale Features for Autonomous Driving Vehicles. Electronics, 14(2), 1-17 c.
Downloads
Published
How to Cite
Issue
Section
License
Copyright (c) 2025 А В Колузов, К С Корнеев, А С Гой

This work is licensed under a Creative Commons Attribution 4.0 International License.