ПОРІВНЯННЯ ОНДНОЕТАПНОЇ ТА ДВОЕТАПНОЇ СЕГМЕНТАЦІЇ ДЛЯ ДЕТЕКЦІЇ ПОШКОДЖЕННЯ АВТОТРАСПОРТУ НА ЗОБРАЖЕННІ
DOI:
https://doi.org/10.31891/2307-5732-2025-355-87Ключові слова:
виявлення пошкоджень транспортних засобів, сегментація зображень, YOLOv8, Mask R-CNN, комп'ютерний зірАнотація
Стрімке зростання автомобільної промисловості та зростаючий попит на ефективну оцінку пошкоджень після аварій призвели до необхідності створення точних та автоматизованих систем виявлення пошкоджень транспортних засобів. У цій статті представлено порівняльний аналіз одноетапного та двоетапного методів сегментації для виявлення різних типів пошкоджень транспортних засобів з використанням комп'ютерного зору та глибокого навчання. Основна мета - визначити, який підхід до сегментації дає більш точні та надійні результати при виявленні таких типів пошкоджень, як вм'ятини, подряпини, тріщини, розбите скло, розбиті лампи та спущені шини.
Для навчання та оцінки використовувався набір даних CarDD, що складається з 4 000 зображень із випадками пошкоджень. Для порівняння було обрано дві найсучасніші моделі: YOLOv8, що представляє одноступеневий підхід до сегментації, та Mask R-CNN, як двоступеневий метод сегментації. YOLOv8 пропонує швидший висновок і простішу архітектуру, тоді як Mask R-CNN забезпечує вищу точність сегментації завдяки вдосконаленому механізму пропозиції областей і техніці RoIAlign.
Експериментальні результати показують, що Mask R-CNN перевершує YOLOv8 за точністю сегментації, особливо в складних сценаріях пошкоджень. Для оцінки продуктивності для різних класів пошкоджень використовувалися такі показники, як середня точність (mAP50 і mAP50-95) і матриці плутанини. У той час як YOLOv8 продемонстрував високу ефективність у виявленні простих типів пошкоджень, таких як вм'ятини і подряпини, Mask R-CNN стабільно показував кращі результати у всіх категоріях, особливо в мінімізації плутанини з фоном.
Завантаження
Опубліковано
Номер
Розділ
Ліцензія
Авторське право (c) 2025 ПЕТРО ТЕЛІШЕВСЬКИЙ, НАТАЛІЯ БОЙКО (Автор)

Ця робота ліцензується відповідно до ліцензії Creative Commons Attribution 4.0 International License.