Logotipo do Site Inovação Tecnológica





Informática

Inteligência Artificial é reprovada em testes no mundo real

Com informações da A*Star - 25/06/2020

Inteligência Artificial é reprovada em testes no mundo real
Outros pesquisadores estão preocupados também com o risco de a inteligência artificial ferir os humanos.
[Imagem: CC0 Creative Commons]

Testar a inteligência artificial

Com as crescentes preocupações com os riscos da inteligência artificial, e com o fato de que as decisões da inteligência artificial nem sempre são inteligentes, pesquisadores decidiram que era hora de começar a simular as complexidades do mundo real nesses sistemas antes que eles sejam liberados para uso.

"Embora o aprendizado profundo tenha realmente sido muito bem-sucedido em obter desempenho de ponta em ambientes acadêmicos selecionados, ele ainda precisa ser testado na presença das complexidades do mundo real," disse Abhishek Gupta, do Instituto de Tecnologia da Manufatura de Cingapura.

E os resultados não foram nem um pouco entusiasmantes para a inteligência artificial: As simulações mostraram que mesmo pequenas alterações nos dados podem alterar totalmente os resultados, mostrando que o aprendizado profundo é na verdade um "aprendizado" pouco seletivo e relativo.

Pior do que isso, as simulações mostram que é muito fácil enganar esses sistemas de análise automatizada.

Inteligente e ingênua

O trabalho se concentrou no desempenho da inteligência artificial baseada em visão de máquina, a tecnologia que vem sendo usada nos carros sem motorista e em vigilância.

Usando seis videogames Atari, incluindo o clássico jogo Pong, os pesquisadores simularam perturbações visuais que podem acontecer no mundo real, devido a reflexos, por exemplo. E eles foram conservadores, alterando um pequeno número de píxeis em quadros selecionados no ambiente do jogo. A seguir, examinaram o desempenho do algoritmo no ambiente perturbado, medindo a "recompensa acumulada", um termômetro da qualidade das decisões de um algoritmo.

Surpreendentemente, o que se viu foi que uma alteração de um único píxel nas imagens de entrada foi suficiente para fazer com que a recompensa acumulada despencasse para todos os quatro algoritmos testados, incluindo algoritmos amplamente usados, como o Deep Q Networks.

Segundo a equipe, esses resultados indicam que, embora os modelos de aprendizado profundo prosperem em ambientes já testados e padronizados, eles estariam mal equipados para lidar com um ambiente altamente variável, como estradas e áreas densamente povoadas, potencialmente em detrimento da segurança.

"A maior parte do trabalho se concentrou em obter modelos de aprendizado profundo ou inteligência artificial altamente precisos," disse Gupta. "No entanto, essa vulnerabilidade precisa ser considerada antes que essas inteligências artificiais sejam colocadas em uso operacional, para garantir a integridade e a confiabilidade da sua implantação."

Bibliografia:

Artigo: Minimalistic Attacks: How Little it Takes to Fool Deep Reinforcement Learning Policies
Autores: Xinghua Qu, Zhu Sun, Yew Soon Ong, Abhishek Gupta, Pengfei Wei
Revista: IEEE Transactions on Cognitive and Developmental Systems
DOI: 10.1109/TCDS.2020.2974509
Seguir Site Inovação Tecnológica no Google Notícias





Outras notícias sobre:
  • Inteligência Artificial
  • Software e Programação
  • Segurança da Informação
  • Computadores

Mais tópicos