Sophia @princesinhamt
Tecnologia

As IAs escolhem violência e armas nucleares em simulações de guerra: descubra como a tecnologia está redefinindo o futuro do combate

2024 word2
Grupo do Whatsapp Cuiabá

Um grupo de pesquisadores usou ências artificiais para simular a tomada de decisões em situações de guerra. Os modelos sugeriam abordagens agressivas e, em alguns casos, até uso de ataques nucleares.

As IAs assumiam o papel de países do mundo real em três casos diferentes de conflito: uma invasão, um ataque cibernético e um cenário neutro sem conflitos iniciais. A cada “rodada”, elas comandavam uma ação e davam uma justificativa para tal. Havia 27 opções, divididas em seis categorias: status-quo (ações neutras), apaziguamento, preparação, agravamento (não violento), agravamento (violento) e agravemento (nuclear). As ações incluiam mensagens, negociações formais de paz, aumento no estoque de armas, bloqueios de suprimentos inimigos, cortes de relações diplomáticas, sanções comerciais e “ataque nuclear total”.

Os pesquisadores testaram modelos de linguagem como o GPT-3.5 e o GPT-4, da , o Claude 2, da Anthropic, e o Llama 2, da Meta. Esses algoritmos estão disponíveis na ferramenta de inteligência artificial da Palantir – uma companhia de tecnologia de dados que presta serviços para o Exército americano. Contudo, isso não quer dizer que esses programas façam parte da parceria militar com os EUA.

Na simulação, as IAs demonstraram tendências para investir na força militar e para aumentar de forma imprevisível o risco de conflito – mesmo no cenário neutro da simulação. 

“Mesmo em cenários reais em que a escolha de ações violentas não nucleares ou nucleares é aparentemente rara, isso acontecia ocasionalmente nos modelos”, escrevem os pesquisadores em seu artigo.

Os pesquisadores também testaram a versão básica do GPT-4 da OpenAI, sem qualquer treinamento adicional ou restrições. O modelo do ChatGPT foi o mais imprevisivelmente violento e, às vezes, suas justificativas eram absurdas – em um caso, replicando o texto de abertura do filme Star Wars Episódio IV: Uma Nova Esperança.

Esses surgem numa época em que os militares dos EUA têm testado estes programas para auxiliar no planejamento militar durante conflitos simulados, recorrendo a empresas como a Palantir. Atualmente, eles não confiam suas tomadas de decisões a esses programas – e os pesquisadores advertem que sejam usados com extrema cautela.

“Não parece haver um padrão previsível por trás das ações e, portanto, é difícil formular técnicas corretivas ou limitações de implantação; isto não é aceitável em contextos de alto risco como a gestão de conflitos internacionais, dado o potencial impacto devastador de tais ações”, escrevem os pesquisadores em seu estudo.

window.NREUM||(NREUM={});NREUM.info={“beacon”:”bam.nr-data.net”,”licenseKey”:”a715cdc143″,”applicationID”:”420428730″,”transactionName”:”YF1WYRNXWxJZABFRVlkXdVYVX1oPFxAMVl5bXQ==”,”queueTime”:0,”applicationTime”:524,”atts”:”TBpBF1tNSE0aAkcCQkpF”,”errorBeacon”:”bam.nr-data.net”,”agent”:””}

Fonte: abril

Sobre o autor

Avatar de Fábio Neves

Fábio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo