ОГЛЯД ОНЛАЙН-НАВЧАННЯ БЕЗ УЧИТЕЛЯ З СЕМАНТИЧНОЇ СЕГМЕНТАЦІЇ ДЛЯ АВТОНОМНИХ ТРАНСПОРТНИХ ЗАСОБІВ

Автор(и)

Ключові слова:

online adaptation, unsupervised learning, monocular depth estimation, semantic segmentation, autonomous cars

Анотація

У представленому дослідженні досліджуються методи безперервної адаптації для монокулярної оцінки глибини та семантичної сегментації для покращення можливостей розуміння сцени в реальному часі для автономних транспортних засобів та систем допомоги водієві. Запропоновані методології дозволяють моделям динамічно пристосовуватися до нової інформації у відеорядах, зберігаючи високу продуктивність на тлі поточних змін зовнішнього вигляду сцени, освітлення та інших контекстуальних факторів. Першим внеском є постійна онлайн-адаптація для вимірювання глибини монокуляра, що усуває потребу в ізольованих методах тонкого налаштування та зберігає інформацію на відеокадрах. Цей метод усуває дрейф даних, постійно адаптуючись до нових кадрів, запобігаючи перевантаженню через обмежену різноманітність даних. Повторне відтворення досвіду інтегровано для стабілізації процесу навчання та введення мінімальних обчислювальних витрат. Такі методи, як автоматичне маскування та спостереження за швидкістю, допомагають розрізняти нерухомі та рухомі об'єкти, пом'якшуючи помилки, пов'язані з непостійними сигналами глибини. Дослідження підтверджує ефективність запропонованого підходу за допомогою сценаріїв адаптації всередині набору даних і між наборами даних, демонструючи значний приріст точності при збереженні часу виконання в режимі реального часу. 

Посилання

1. Kuznietsov, Y., Proesmans, M., & Van Gool, L. (2022). Towards unsupervised online domain adaptation for semantic segmentation. In Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision (pp. 261-271).

2. Chen, P. Y., Liu, A. H., Liu, Y. C., & Wang, Y. C. F. (2019). Towards scene understanding: Unsupervised monocular depth estimation with semantic-aware representation. In Proceedings of the IEEE/CVF Conference on computer vision and pattern recognition (pp. 2624-2632).

3. Tonioni, A., Poggi, M., Mattoccia, S., & Di Stefano, L. (2019). Unsupervised domain adaptation for depth prediction from images. IEEE transactions on pattern analysis and machine intelligence, 42(10), 2396-2409.

4. Kundu, J. N., Uppala, P. K., Pahuja, A., & Babu, R. V. (2018). Adadepth: Unsupervised content congruent adaptation for depth estimation. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 2656-2665).

5. Tonioni, A., Tosi, F., Poggi, M., Mattoccia, S., & Stefano, L. D. (2019). Real-time self-adaptive deep stereo. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 195-204).

6. Sagar, A., & Soundrapandiyan, R. (2021). Semantic segmentation with multi scale spatial attention for self driving cars. In Proceedings of the IEEE/CVF International Conference on Computer Vision (pp. 2650-2656).

7. Pasupa, K., Kittiworapanya, P., Hongngern, N., & Woraratpanya, K. (2022). Evaluation of deep learning algorithms for semantic segmentation of car parts. Complex & Intelligent Systems, 8(5), 3613-3625.

Завантаження

Опубліковано

2025-01-25 – оновлено 2025-11-07

Версії

Номер

Розділ

Усі статті з випуску