Sophia @princesinhamt
Mundo

Novo avanço em tecnologia de drones: operador é morto por máquina guiada por inteligência artificial.

2024 word2
Grupo do Whatsapp Cuiabá

A inteligência artificial (IA) pode ser fatal. Foi o que revelou um funcionário do alto-comando da norte-americana durante uma cúpula em Londres; segundo o militar, um drone operado por IA treinado para “causar destruição” atacou o seu operador humano durante testes simulados.

Tucker Hamilton, coronel da Força Aérea dos EUA, afirmou, durante uma apresentação no Future Combat Air and Space Capabilities Summit, que o drone habilitado para IA mudou o seu curso durante a missão e atacou o soldado responsável pela sua operação.

As declarações de advertência de Hamilton, retransmitidas em um blog por redatores da Royal Aeronautical Society, detalharam que o objetivo das operações com o drone conduzido por inteligência artificial era encontrar e destruir locais de mísseis terra-ar (SAM, na sigla em inglês) durante uma missão de supressão de defesa aérea inimiga. No entanto, a decisão final para atirar no local cabia a um humano.

inteligência artificialinteligência artificial
Coronel Tucker “Cinco” Hamilton. Imagem/Tucker “Cinco” Hamilton/LinkedIn |

IA conclui que evitar humano durante ataque atrapalha a missão

O drone havia sido “treinado” a fim de priorizar os locais com alvos durante os ataques. Durante o teste simulado, porém, a IA chegou à conclusão de que qualquer instrução “não ir” do controlador humano atrapalharia o da missão, que era o de destruir os SAMs. Como consequência, a IA supostamente atacou e matou o operador.

O coronel Hamilton afirmou: “Nós estávamos treinando-o em simulação para identificar e direcionar uma ameaça SAM. O operador da missão diria ‘sim, mate esta ameaça’. No entanto, o sistema percebeu que, embora eles pudessem identificar a ameaça, às vezes o operador humano negava a autorização para neutralizá-la (…). E então o que isso fez? Matou o operador. A IA matou o operador porque essa pessoa o impedia de atingir o seu objetivo”.

E a história continua.

“Nós treinamos o sistema — ‘Ei, não mate o operador!’ —, isso é ruim”. Continua Hamilton. “Você vai perder pontos se fizer isso. Então o que a IA começa a fazer? começa a destruir a torre de comunicação que o operador usa para se comunicar com o drone a fim de impedi-lo de matar o alvo”.

Tudo não passou de um caso “anedótico”?

Segundo Ann Stefanek, porta-voz da Força Aérea dos EUA, ao portal Insider, as declarações do coronel Hamilton não ocorreram de fato. “O Departamento da Força Aérea não realizou nenhuma dessas simulações de drone de IA e continua comprometido com o uso ético e responsável dessa tecnologia. Aparentemente, os comentários do coronel foram tirados do contexto e deveriam ser anedóticos.”

Fonte: revistaoeste

Sobre o autor

Avatar de Redação

Redação

Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.