2025, випуск 4, с. 99-105
Одержано 12.08.2025; Виправлено 30.10.2025; Прийнято 18.11.2025
Надруковано 08.12.2025; Вперше Online 15.12.2025
https://doi.org/10.34229/2707-451X.25.4.9
Попередня | ПОВНИЙ ТЕКСТ | Наступна
Порівняння архітектур нейронних мереж для просторової орієнтації безпілотних літальних апаратів та наземних дронів
О.Ю. Сусленко
Інститут кібернетики імені В.М. Глушкова НАН України, Київ
Листування: Ця електронна адреса захищена від спам-ботів. Вам потрібно увімкнути JavaScript, щоб побачити її.
Вступ. Забезпечення просторової орієнтації безпілотних літальних апаратів та наземних дронів це одна з ключових задач сучасної робототехніки та автономних систем. Використання класичних методів, таких як SLAM або GNSS-IMU, має суттєві обмеження у складних умовах, де дані сенсорів є зашумленими, а доступ до супутникових сигналів відсутній. У таких випадках перспективним є застосування методів глибинного навчання, зокрема архітектур нейронних мереж для сегментації та детекції об’єктів, які дають змогу дронам інтерпретувати навколишнє середовище на рівні семантики.
Мета роботи – провести порівняльний аналіз архітектур сегментаційних нейронних мереж (U-Net, DeepLabV3+) та архітектур об’єктної детекції (YOLO, SSD, Faster R-CNN) у контексті їх придатності для вирішення завдань просторової орієнтації БПЛА та наземних дронів у реальному часі, а також визначити переваги й недоліки обох підходів залежно від середовища функціонування та обчислювальних ресурсів.
Методи. У роботі використано експериментальний підхід із застосуванням наборів даних UAVid та синтетичних даних аерофотозйомки. Для оцінки ефективності обраних архітектур аналізувалися показники точності (mIoU, mAP), швидкодії (FPS) та вимоги до ресурсів (кількість параметрів, обчислювальна складність). Окремо розглянуто приклади застосування сегментації для формування семантичних карт місцевості та детекторів об’єктів для локалізації реперних точок.
Результати. Дослідження показали, що сегментаційні архітектури (U-Net, DeepLabV3+) забезпечують більш точне відображення форми об’єктів і дозволяють будувати карти з високою деталізацією, що є критично важливим у середовищах із хаотичними перешкодами (лісові масиви, гірська місцевість). Водночас детектори об’єктів (YOLO, SSD) мають значно вищу швидкодію, що робить їх більш придатними для систем із обмеженими обчислювальними ресурсами. Faster R-CNN продемонстрував високий рівень точності, але поступався у швидкодії. Було показано, що використання сегментаційних моделей дозволяє визначати прохідність між об’єктами та класифікувати типи поверхонь, чого неможливо досягти за допомогою класичних bounding box-детекторів.
Висновки. Сегментаційні архітектури надають дронам більш багату семантичну інформацію для просторової орієнтації, однак потребують значних обчислювальних ресурсів і мають меншу швидкодію. Архітектури об’єктної детекції дозволяють працювати у реальному часі, проте знижують точність відображення середовища. Перспективним є комбінований підхід, коли обидва методи застосовуються разом залежно від завдань навігації та ресурсних обмежень. Подальші дослідження мають бути спрямовані на розробку гібридних багатовихідних моделей, що поєднують переваги сегментації й детекції.
Ключові слова: просторове орієнтування, безпілотні літальні апарати, нейронні мережі, семантична сегментація, виявлення об’єктів, U-Net, YOLO, DeepLabV3+, Faster R-CNN.
Цитувати так: Сусленко О.Ю. Порівняння архітектур нейронних мереж для просторової орієнтації безпілотних літальних апаратів та наземних дронів. Cybernetics and Computer Technologies. 2025. 4. С. 99–105. https://doi.org/10.34229/2707-451X.25.4.9
Список літератури
1. Jaulin L. A nonlinear set-membership approach for the localization and map building of an underwater robot using interval constraint propagation. IEEE Transactions on Robotics. 2009. Vol. 25, No. 1. P. 88–98. https://doi.org/10.1109/TRO.2008.2010358
2. Ronneberger O., Fischer P., Brox T. U-Net: Convolutional Networks for Biomedical Image Segmentation. Medical Image Computing and Computer-Assisted Intervention – MICCAI 2015. Springer, Cham, 2015. P. 234–241. https://doi.org/10.1007/978-3-319-24574-4_28
3. Chen L.-C., Zhu Y., Papandreou G., Schroff F., Adam H. Encoder-Decoder with Atrous Separable Convolution for Semantic Image Segmentation. Proceedings of the European Conference on Computer Vision (ECCV). Springer, 2018. P. 801–818. https://doi.org/10.1007/978-3-030-01234-2_49
4. Redmon J., Divvala S., Girshick R., Farhadi A. You Only Look Once: Unified, Real-Time Object Detection. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 779–788. https://doi.org/10.1109/CVPR.2016.91
5. Liu W., Anguelov D., Erhan D., Szegedy C., Reed S., Fu C.-Y., Berg A. C. SSD: Single Shot MultiBox Detector. Proceedings of the European Conference on Computer Vision (ECCV). Springer, 2016. P. 21–37. https://doi.org/10.1007/978-3-319-46448-0_2
6. Ren S., He K., Girshick R., Sun J. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. dvances in Neural Information Processing Systems (NeurIPS). 2015. P. 91–99. https://arxiv.org/abs/1506.01497
7. Schiefer F., Kattenborn T., Frick A., Frey J., Schmidtlein S. Mapping forest tree species in high-resolution UAV-based RGB imagery by means of convolutional neural networks. ISPRS Journal of Photogrammetry and Remote Sensing. 2020. Vol. 170. P. 205–215. https://doi.org/10.1016/j.isprsjprs.2020.10.016
8. Xia G.-S., Bai X., Ding J., Zhu Z., Belongie S., Luo J., Datcu M., Pelillo M., Zhang L. DOTA: A Large-scale Dataset for Object Detection in Aerial Images. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2018. P. 3974–3983. https://doi.org/10.1109/CVPR.2018.00418
9. Hu S., Liu J., Kang Z. DeepLabV3+/EfficientNet Hybrid Network for Complex Scene Segmentation and Safe Landing Zone Detection. Sensors. 2021. 21 (23). Article 8136. https://doi.org/10.3390/s21238136
10. Anagnostis A., Zampogiannis K., et al. Deep Learning-based Semantic Segmentation for UAV-based Orchard and Forest Monitoring. Remote Sensing. 2021. 13 (12). Article 2364. https://doi.org/10.3390/rs13122364
ISSN 2707-451X (Online)
ISSN 2707-4501 (Print)
Попередня | ПОВНИЙ ТЕКСТ | Наступна