Comparative Analysis of Object Detection Algorithms for Pothole Recognition on Roads and Highways

Autores

  • Luiz Fernando Mello Centro Universitário Avantis - UNIAVAN Author
  • Evandro L. Viapiana Centro Universitário Avantis - UNIAVAN Author
  • Luiz Fernando M. Arruda Centro Universitário Avantis - UNIAVAN Author https://orcid.org/0000-0002-9159-2245

DOI:

https://doi.org/10.5281/zenodo.18294543

Palavras-chave:

Single Shot Multibox Detector, Pothole Detection, Computer Vision, You Only Look Once

Resumo

This work presents a comparative analysis using the mAP metric of the YOLOv7 and SSD algorithms applied to the field of computer vision. The comparison is performed through the detection of potholes on highways and roads. In works defended by other authors, both techniques are considered for applications in computer vision. In this study, both models achieved promising results in pothole detection; however, it is observed that the YOLOv7 model reached an mAP metric of 80%, while the SSD model obtained an mAP of 73%. Thus, the results indicate that YOLOv7 is more efficient and accurate in pothole detection in this specific context.

Downloads

Os dados de download ainda não estão disponíveis.

Biografia do Autor

  • Luiz Fernando M. Arruda, Centro Universitário Avantis - UNIAVAN

    (Membro Estudante de Pós-Graduação do IEEE) recebeu o título de Bacharel em Engenharia da Computação pelo Centro Universitário de Goiás – Uni-Anhanguera, Brasil, em 2012, e o título de Tecnólogo em Automação Industrial pela Faculdade SENAI Ítalo de Bolonha, Brasil, em 2016. Recebeu o título de Mestre em Sistemas Eletrônicos pela Universidade Federal de Santa Catarina (UFSC), Brasil, em 2021. Atualmente, cursa o doutorado em Engenharia Elétrica e da Computação na Universidade de Illinois em Chicago (UIC), Chicago, IL, EUA, no Laboratório de Energia e Sistemas de Comutação Eletrônica (LESES). Seus interesses de pesquisa incluem eletrônica de potência, com foco em cibersegurança, redes neurais artificiais aplicadas a sistemas de conversão de energia e aplicações em energias renováveis.

Referências

[1] R. S. Rodrigues,Detecção de buracos em estradas: uma abordagemautomatizada baseada na transformada Wavelet de Haar, Master’sthesis, UNIVERSIDADE FEDERAL DE SANTA MARIA, SantaMaria, RS, Jun. 2019.

[2] PRF, “Documento CSV de Acidentes 2023 (Agrupados porpessoa - Todas as causas e tipos de acidentes)”,https://www.gov.br/prf/pt-br/acesso-a-informacao/dados-abertos/dados-abertos-da-prf, 2023.

[3] G. Almeida, “Após acidente por causa de buraco, moradoresreclamam de abandono no Caiobá”, , 2017, URL:https://www.campograndenews.com.br/direto-das-ruas/apos-acidente-por-causa-de-buraco-moradores-reclamam-de-abandono-no-caioba.

[4] D. de Milano, L. B. Honorato, “Visao computacional”, , 2010.

[5] R. Zrenner, “Explorando o potencial prático da visão computacional:o que é, aplicação e possibilidades”, , 2023, URL:https://blog.pti.org.br/visao-computacional/.

[6] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C.-Y. Fu, A. C.Berg, “SSD: Single Shot MultiBox Detector”,inB. Leibe, J. Matas,N. Sebe, M. Welling, eds.,Computer Vision – ECCV 2016, pp. 21–37,Springer International Publishing, Cham, 2016.

[7] C.-Y. Wang, A. Bochkovskiy, H.-Y. M. Liao, “YOLOv7: Trainablebag-of-freebies sets new state-of-the-art for real-time objectdetectors”,arXiv preprint arXiv:220702696, 2022.

[8] P. F. N. Ferreira, D. L. G. Junior, A. M. Santos, “Detecçao de usode máscaras em ambientes fechados com MobileNetV2 e Single ShotMultibox Detector”,in Anais da X Escola Regional de Computaçãodo Ceará, Maranhão e Piauí, pp. 61–68, SBC, 2022.

[9] M. A. de Sousa, K. de SOUZA, J. CAMARGO NETO, S. TERNES,I. YANO, “Usando a rede neural SSD para identificar frutos verdes empomares de laranja.”,in "CONGRESSO INTERINSTITUCIONAL DEINICIAÇÃO CIENTÍFICA", pp. 1–10, Embrapa Agricultura Digital,"Campinas - SC", 2021.

[10] P. F. C. Araujo, “Protótipo de braço robótico capaz de capturar objetosfazendo uso de processamento de imagens e redes neurais”,RE3C-Revista Eletrônica Científica de Ciência da Computação, vol. 13,no. 1, 2018.

[11] I. Costa, E. Silva Jr, A. Rodrigues, L. Angeloni, E. Dias,“Avaliação do Processo para Embarcar uma Rede Neural Baseadaem YOLO Utilizando um Acelerador de Hardware Dedicado”,inAnais Estendidos do X Simpósio Brasileiro de Engenharia de SistemasComputacionais, pp. 174–179, SBC, 2020.

[12] A. M. Araújo,Detecção e destaque em vídeo de objetos utilizandoYOLO, Master’s thesis, Universidade Federal da Paraíba - UFPB, JoãoPessoa , PB, Oct. 2022.

[13] L. Barbado, L. M. R. dos Santos, M. D. Matrakas, J. Moreira,“Aplicação da rede convolucional Yolo para análise de fluxo deveículos”,in Anais do XIX Congresso Latino-Americano de SoftwareLivre e Tecnologias Abertas, pp. 43–49, SBC, 2022.

[14] A. C. Banderchuk,Detecção de defeitos de fabricação em placasde circuito impresso utilizando técnicas de aprendizado profundo,Instituto Federal de Santa Catarina - IFSC, Florianópolis, SC, May2021.

[15] Z. Li, F. Liu, W. Yang, S. Peng, J. Zhou, “A survey of convolutionalneural networks:analysis, applications, and prospects”,IEEETransactions on neural networks and learning systems, 2021.

[16] Y. Yakimovsky, “Boundary and object detection in real-worldimages”,Journal of the ACM (JACM), vol. 23, no. 4, pp. 599–618,1976.

[17] M. Zakariah, K. A. AlShalfan, “Image Boundary, Corner, and EdgeDetection: Past, Present, and Future”, , 2020, URL:https://api.semanticscholar.org/CorpusID:231771734.

[18] J. V. E. Gomes,Detecção de objetos com a arquitetura YOLO.,Universidade Federal de Ouro Preto - UFOP, João Monlevade, MG,Outubro 2022.

[19] A. C. Rios,Comparação dos algoritmos YOLOv3 e SSD paraidentificação de objetos em imagens, em um dataset para navegaçãode robôs em ambientes interiores, Universidade Federal de SantaMaria - UFSM, Santa Maria, RS, Feb. 2022.

[20] J.O.G.CALIS,APLICAÇÃODEREDESNEURAISCONVOLUCIONAIS PARA RECONHECIMENTO AUTOMÁTICODE PLACAS DE VEÍCULOS, Universidade Estadual Paulista “Júliode Mesquita Filho, São José do Rio Preto - SP, Dec. 2018.

[21] A. Ivanov, N. Chivarov, “Methods for object recognition andclassification for tele-controlled service robots”,IOP ConferenceSeries: Materials Science and Engineering, vol. 878, p. 012005, 072020, doi:10.1088/1757-899X/878/1/012005.

[22] M. Ferguson, R. ak, Y.-T. Lee, K. Law, “Automatic localization ofcasting defects with convolutional neural networks”, pp. 1726–1735,12 2017, doi:10.1109/BigData.2017.8258115.

[23] R. V. de Sousa Junior,Estudo de métodos de inteligênciacomputacional para detecção de humanos em imagens de webcam,Universidade Federal do Ceará - UFC, Fortaleza, CE, 2018.[24] K. Liu, Q. Sun, D. Sun, L. Peng, M. Yang, N. Wang, “Underwatertarget detection based on improved YOLOv7”,Journal of MarineScience and Engineering, vol. 11, no. 3, p. 677, 2023.

[25] X. Ding, X. Zhang, N. Ma, J. Han, G. Ding, J. Sun, “RepVGG: MakingVGG-style ConvNets Great Again”,CoRR, vol. abs/2101.03697,2021, URL:https://arxiv.org/abs/2101.03697,2101.03697.

[26] A. B. Nogueira,et al., “Análise de viabilidade no uso de DeepLearning para contagem de pessoas com câmeras de segurança”, ,2018.

[27] A. C. Serra, J. V. F. França, J. A. de Sousa, R. W. de Sousa Costa,I. F. S. da Silva, S. V. da Rocha, A. C. de Paiva, A. C. Silva,E. M. G. Monteiro, I. F. S. da Silva,et al., “Segmentaçao semânticade medidores de energia elétrica e componentes de identificaçao”,Brazilian Applied Science Review, vol. 4, no. 3, pp. 2002–2013, 2020.

[28] R. R. Leocádio, A. K. Segundo, J. R. Souza, J. Galaschi-Teixeira,P. de Souza, G. Pessin, “Detecçao de abelhas nativas em colmeias emcampo utilizando visao computacional”,in Anais do XII Workshopde Computação Aplicada à Gestão do Meio Ambiente e RecursosNaturais, pp. 59–68, SBC, 2021.Revista Brasileira de Estudos Científicos REBEC | Balneário Camboriú (SC), v. 1, n. 1, Janeiro 2026DOI: 10.5281/zenodo.182945438/8

Downloads

Publicado

19-01-2026

Como Citar

[1]
L. F. Mello, E. L. Viapiana, e L. F. M. Arruda, “Comparative Analysis of Object Detection Algorithms for Pothole Recognition on Roads and Highways”, REBEC, vol. 1, nº 1, p. 8, jan. 2026, doi: 10.5281/zenodo.18294543.