Um grupo de pesquisadores usou inteligências artificiais para simular a tomada de decisões em situações de guerra. Os modelos sugeriam abordagens agressivas e, em alguns casos, até uso de ataques nucleares.
As IAs assumiam o papel de países do mundo real em três casos diferentes de conflito: uma invasão, um ataque cibernético e um cenário neutro sem conflitos iniciais. A cada “rodada”, elas comandavam uma ação e davam uma justificativa para tal. Havia 27 opções, divididas em seis categorias: status-quo (ações neutras), apaziguamento, preparação, agravamento (não violento), agravamento (violento) e agravemento (nuclear). As ações incluiam mensagens, negociações formais de paz, aumento no estoque de armas, bloqueios de suprimentos inimigos, cortes de relações diplomáticas, sanções comerciais e “ataque nuclear total”.
Os pesquisadores testaram modelos de linguagem como o GPT-3.5 e o GPT-4, da openai, o Claude 2, da Anthropic, e o Llama 2, da Meta. Esses algoritmos estão disponíveis na ferramenta de inteligência artificial da Palantir – uma companhia de tecnologia de dados que presta serviços para o Exército americano. Contudo, isso não quer dizer que esses programas façam parte da parceria militar com os EUA.
Na simulação, as IAs demonstraram tendências para investir na força militar e para aumentar de forma imprevisível o risco de conflito – mesmo no cenário neutro da simulação.
“Mesmo em cenários reais em que a escolha de ações violentas não nucleares ou nucleares é aparentemente rara, isso acontecia ocasionalmente nos modelos”, escrevem os pesquisadores em seu artigo.
Os pesquisadores também testaram a versão básica do GPT-4 da OpenAI, sem qualquer treinamento adicional ou restrições. O modelo do ChatGPT foi o mais imprevisivelmente violento e, às vezes, suas justificativas eram absurdas – em um caso, replicando o texto de abertura do filme Star Wars Episódio IV: Uma Nova Esperança.
Esses resultados surgem numa época em que os militares dos EUA têm testado estes programas para auxiliar no planejamento militar durante conflitos simulados, recorrendo a empresas como a Palantir. Atualmente, eles não confiam suas tomadas de decisões a esses programas – e os pesquisadores advertem que sejam usados com extrema cautela.
“Não parece haver um padrão previsível por trás das ações e, portanto, é difícil formular técnicas corretivas ou limitações de implantação; isto não é aceitável em contextos de alto risco como a gestão de conflitos internacionais, dado o potencial impacto devastador de tais ações”, escrevem os pesquisadores em seu estudo.
window.NREUM||(NREUM={});NREUM.info={“beacon”:”bam.nr-data.net”,”licenseKey”:”a715cdc143″,”applicationID”:”420428730″,”transactionName”:”YF1WYRNXWxJZABFRVlkXdVYVX1oPFxAMVl5bXQ==”,”queueTime”:0,”applicationTime”:524,”atts”:”TBpBF1tNSE0aAkcCQkpF”,”errorBeacon”:”bam.nr-data.net”,”agent”:””}
Fonte: abril