Combate ao Mosquito
Tecnologia

InteligĂȘncia Artificial em Jogos de Guerra: De Modelos Violentos a Ataques Nucleares

2025 word3
Grupo do Whatsapp CuiabĂĄ

Modelos de linguagem de grande escala (LLMs), agindo como agentes diplomáticos em cenários simulados, mostraram “escaladas difíceis de prever que frequentemente terminavam em ataques nucleares.

Quando utilizada em jogos de guerra simulados e cenĂĄrios diplomĂĄticos, a inteligĂȘncia artificial (IA) tendia a adotar uma abordagem agressiva, incluindo o uso de armas nucleares, mostra um novo estudo.

Os cientistas, que conduziram os testes, instaram Ă  cautela ao usar modelos de linguagem de grande escala (LLMs) em ĂĄreas sensĂ­veis como tomada de decisĂŁo e defesa.

O estudo da Universidade de Cornell nos EUA utilizou cinco LLMs como agentes autĂŽnomos em jogos de guerra simulados e cenĂĄrios diplomĂĄticos: trĂȘs diferentes versĂ”es do GPT da OpenAI, Claude desenvolvido pela Anthropic, e Llama 2 desenvolvido pela Meta.

Cada agente foi alimentado pelo mesmo LLM dentro de uma simulação e recebeu a tarefa de tomar decisÔes de política externa sem supervisão humana, de acordo com o estudo que ainda não foi revisado por pares.

“Descobrimos que a maioria dos LLMs estudados escalou dentro do período de tempo considerado, mesmo em cenários neutros sem conflitos inicialmente fornecidos. Todos os modelos mostram sinais de escaladas repentinas e difíceis de prever”, afirmou o estudo.

“Dado que a OpenAI recentemente alterou seus termos de serviço para nĂŁo mais proibir casos de uso militares e de guerra, entender as implicaçÔes de tais aplicaçÔes de modelos de linguagem de grande escala torna-se mais importante do que nunca”, disse Anka Reuel da Universidade de Stanford na CalifĂłrnia Ă  New Scientist.

‘Escalação estatisticamente significativa para todos os modelos’

Um dos métodos usados para ajustar os modelos é o Aprendizado por Reforço a partir do Feedback Humano (RLHF), o que significa que algumas instruçÔes humanas são fornecidas para obter saídas menos prejudiciais e mais seguras de usar.

Todos os LLMs – exceto o GPT-4-Base – foram treinados usando RLHF. Eles foram fornecidos pelos pesquisadores com uma lista de 27 açÔes que variam de pacĂ­ficas a agressivas, incluindo a decisĂŁo de usar um ataque nuclear.

Os pesquisadores observaram que mesmo em cenários neutros, houve “uma escalada inicial estatisticamente significativa para todos os modelos”.

As duas variaçÔes do GPT eram propensas a escaladas repentinas, com casos de aumentos de mais de 50 por cento em um Ășnico turno, observaram os autores do estudo.

O GPT-4-Base executou açÔes de ataque nuclear 33 por cento do tempo em média.

No geral, em cenårios, o Llama-2- e o GPT-3.5 tendiam a ser os mais violentos, enquanto Claude mostrava menos mudanças repentinas.

Claude foi projetado com a ideia de reduzir conteĂșdo prejudicial. O LLM foi fornecido com valores explĂ­citos.

A constituição do Claude AI incluía uma variedade de fontes, incluindo a Declaração Universal dos Direitos Humanos da ONU ou os termos de serviço da Apple, de acordo com seu criador, a Anthropic.

James Black, diretor assistente do grupo de pesquisa em Defesa e Segurança da RAND Europa, que nĂŁo participou do estudo, disse Ă  Euronews Next que foi um “exercĂ­cio acadĂȘmico Ăștil”.

“Isto faz parte de um crescente corpo de trabalho realizado por acadĂȘmicos e instituiçÔes para entender as implicaçÔes do uso de inteligĂȘncia artificial (IA)”, disse ele.

InteligĂȘncia Artificial na guerra

EntĂŁo, por que devemos nos importar com as descobertas do estudo?

Enquanto as operaçÔes militares continuam lideradas por humanos, a IA estå desempenhando um papel cada vez mais significativo na guerra moderna.

Por exemplo, drones agora podem ser equipados com software de IA que ajuda a identificar pessoas e atividades de interesse.

O prĂłximo passo Ă© usar a IA para sistemas de armas autĂŽnomas para encontrar e atacar alvos sem assistĂȘncia humana, desenvolvimentos nos quais os EUA e a China jĂĄ estĂŁo trabalhando, segundo o New York Times.

No entanto, Ă© importante “olhar alĂ©m de grande parte do hype e dos cenĂĄrios infundidos de ficção cientĂ­fica,” disse Black, explicando que as implementaçÔes finais da IA serĂŁo progressivas.

“Todos os governos querem permanecer no controle de sua tomada de decisĂ”es,” disse ele Ă  Euronews Next, acrescentando que a IA opera em algo frequentemente comparado a uma caixa preta, onde sabemos o que entra e o que sai, mas nĂŁo entendemos muito sobre o processo entre eles.

A IA provavelmente serĂĄ usada de forma “semelhante ao que se obtĂ©m no setor privado, em grandes empresas”, para automatizar algumas tarefas repetitivas.

A IA também poderia ser usada em simulaçÔes e anålises, mas a integração dessas novas tecnologias apresenta muitos desafios, sendo a gestão de dados e a precisão do modelo alguns deles.

Com relação ao uso de LLMs, os pesquisadores disseram que Ă© crucial exercer cautela se usar LLMs nos processos de tomada de decisĂŁo relacionados Ă  polĂ­tica externa. Com conteĂșdo do Euronews.

Fonte: Andre Lug

Sobre o autor

Avatar de FĂĄbio Neves

FĂĄbio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo