x
UAI
Fácil de manipular?

Estudo aponta que IA de direção autônoma pode ser enganada facilmente

Estudo revela que simples intervenções visuais, como placas improvisadas, são capazes de confundir sistemas que controlam carros autônomos

Publicidade
Carros de aplicativo e taxis autônomos tem se popularizado nos EUA
Carros de aplicativo e taxis autônomos tem se popularizado nos EUA Foto: Waymo / Divulgação

Uma pesquisa recente, realizada por alunos da Universidade da Califórnia (EUA), acendeu um alerta importante sobre a segurança dos sistemas de direção autônoma. Durante os testes, foi possível observar que intervenções simples, feitas apenas com tinta e papel, podem interferir no comportamento dos veículos. 

Em um dos experimentos, o carro autônomo, que não teve a marca divulgada, deixou de respeitar uma faixa de pedestres ativa após identificar uma placa improvisada com a mensagem “Siga em frente”. Mostrando assim, que a I.A do veículo priorizou a instrução visual em vez da sinalização horizontal da via.

O estudo evidencia uma fragilidade conhecida como ataque adversarial, quando elementos visuais são manipulados para induzir erro em sistemas de inteligência artificial. Como os veículos autônomos dependem de câmeras e algoritmos de reconhecimento de imagem para interpretar o ambiente, pequenas alterações no cenário podem levar a decisões equivocadas, especialmente quando a leitura entre diversas placas entrar em conflito.

5 coisas que a Inteligência Artificial já faz no seu carro e você não sabia
Sistemas avançados de assistência (ADAS) utilizam inteligência artificial para ler o ambiente e garantir mais segurança na condução. Foto: Divulgação/Volkswagen

Durante os testes, os pesquisadores avaliaram como o software reage diante de informações contraditórias e concluíram que, em determinadas situações, o sistema dá mais peso a placas verticais do que à sinalização pintada no asfalto. Essa priorização pode fazer com que o carro ignore regras fundamentais de trânsito, como a obrigatoriedade de parar para pedestres.

Especialistas apontam que o problema não está apenas na tecnologia em si, mas na forma como os modelos de IA são treinados e validados. Sistemas que aprendem a partir de grandes volumes de dados podem apresentar dificuldades quando expostos a cenários inesperados ou manipulados intencionalmente.

Nissan inicia testes de táxi autÎnomo no Japão
Taxis autônomos estão em testes no Japão Foto: Divulgação/Nissan

Embora os testes tenham sido realizados em ambiente controlado, os resultados reforçam a necessidade de aprimorar mecanismos de redundância e validação cruzada entre sensores, como radares de trânsito, por exemplo. Essa tecnologia ainda é recente, portanto, é normal que cometa erros que, com o tempo, devem ser corrigidos e o sistema aprimorado.