A inteligência artificial (IA) pode ser fatal. Foi o que revelou um funcionário do alto-comando da Força Aérea norte-americana durante uma cúpula em Londres; segundo o militar, um drone operado por IA treinado para “causar destruição” atacou o seu operador humano durante testes simulados.
Tucker Hamilton, coronel da Força Aérea dos EUA, afirmou, durante uma apresentação no Future Combat Air and Space Capabilities Summit, que o drone habilitado para IA mudou o seu curso durante a missão e atacou o soldado responsável pela sua operação.
As declarações de advertência de Hamilton, retransmitidas em um blog por redatores da Royal Aeronautical Society, detalharam que o objetivo das operações com o drone conduzido por inteligência artificial era encontrar e destruir locais de mísseis terra-ar (SAM, na sigla em inglês) durante uma missão de supressão de defesa aérea inimiga. No entanto, a decisão final para atirar no local cabia a um humano.
IA conclui que evitar humano durante ataque atrapalha a missão
O drone havia sido “treinado” a fim de priorizar os locais com alvos durante os ataques. Durante o teste simulado, porém, a IA chegou à conclusão de que qualquer instrução “não ir” do controlador humano atrapalharia o sucesso da missão, que era o de destruir os SAMs. Como consequência, a IA supostamente atacou e matou o operador.
O coronel Hamilton afirmou: “Nós estávamos treinando-o em simulação para identificar e direcionar uma ameaça SAM. O operador da missão diria ‘sim, mate esta ameaça’. No entanto, o sistema percebeu que, embora eles pudessem identificar a ameaça, às vezes o operador humano negava a autorização para neutralizá-la (…). E então o que isso fez? Matou o operador. A IA matou o operador porque essa pessoa o impedia de atingir o seu objetivo”.
E a história continua.
“Nós treinamos o sistema — ‘Ei, não mate o operador!’ —, isso é ruim”. Continua Hamilton. “Você vai perder pontos se fizer isso. Então o que a IA começa a fazer? Ela começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone a fim de impedi-lo de matar o alvo”.
Tudo não passou de um caso “anedótico”?
Segundo Ann Stefanek, porta-voz da Força Aérea dos EUA, ao portal Insider, as declarações do coronel Hamilton não ocorreram de fato. “O Departamento da Força Aérea não realizou nenhuma dessas simulações de drone de IA e continua comprometido com o uso ético e responsável dessa tecnologia. Aparentemente, os comentários do coronel foram tirados do contexto e deveriam ser anedóticos.”
Fonte: revistaoeste