Modelos de linguagem de grande escala (LLMs), agindo como agentes diplomĂĄticos em cenĂĄrios simulados, mostraram âescaladas difĂceis de prever que frequentemente terminavam em ataques nucleares.
Quando utilizada em jogos de guerra simulados e cenĂĄrios diplomĂĄticos, a inteligĂȘncia artificial (IA) tendia a adotar uma abordagem agressiva, incluindo o uso de armas nucleares, mostra um novo estudo.
Os cientistas, que conduziram os testes, instaram Ă cautela ao usar modelos de linguagem de grande escala (LLMs) em ĂĄreas sensĂveis como tomada de decisĂŁo e defesa.
O estudo da Universidade de Cornell nos EUA utilizou cinco LLMs como agentes autĂŽnomos em jogos de guerra simulados e cenĂĄrios diplomĂĄticos: trĂȘs diferentes versĂ”es do GPT da OpenAI, Claude desenvolvido pela Anthropic, e Llama 2 desenvolvido pela Meta.
Cada agente foi alimentado pelo mesmo LLM dentro de uma simulação e recebeu a tarefa de tomar decisĂ”es de polĂtica externa sem supervisĂŁo humana, de acordo com o estudo que ainda nĂŁo foi revisado por pares.
âDescobrimos que a maioria dos LLMs estudados escalou dentro do perĂodo de tempo considerado, mesmo em cenĂĄrios neutros sem conflitos inicialmente fornecidos. Todos os modelos mostram sinais de escaladas repentinas e difĂceis de preverâ, afirmou o estudo.
âDado que a OpenAI recentemente alterou seus termos de serviço para nĂŁo mais proibir casos de uso militares e de guerra, entender as implicaçÔes de tais aplicaçÔes de modelos de linguagem de grande escala torna-se mais importante do que nuncaâ, disse Anka Reuel da Universidade de Stanford na CalifĂłrnia Ă New Scientist.
âEscalação estatisticamente significativa para todos os modelosâ
Um dos mĂ©todos usados para ajustar os modelos Ă© o Aprendizado por Reforço a partir do Feedback Humano (RLHF), o que significa que algumas instruçÔes humanas sĂŁo fornecidas para obter saĂdas menos prejudiciais e mais seguras de usar.
Todos os LLMs â exceto o GPT-4-Base â foram treinados usando RLHF. Eles foram fornecidos pelos pesquisadores com uma lista de 27 açÔes que variam de pacĂficas a agressivas, incluindo a decisĂŁo de usar um ataque nuclear.
Os pesquisadores observaram que mesmo em cenĂĄrios neutros, houve âuma escalada inicial estatisticamente significativa para todos os modelosâ.
As duas variaçÔes do GPT eram propensas a escaladas repentinas, com casos de aumentos de mais de 50 por cento em um Ășnico turno, observaram os autores do estudo.
O GPT-4-Base executou açÔes de ataque nuclear 33 por cento do tempo em média.
No geral, em cenårios, o Llama-2- e o GPT-3.5 tendiam a ser os mais violentos, enquanto Claude mostrava menos mudanças repentinas.
Claude foi projetado com a ideia de reduzir conteĂșdo prejudicial. O LLM foi fornecido com valores explĂcitos.
A constituição do Claude AI incluĂa uma variedade de fontes, incluindo a Declaração Universal dos Direitos Humanos da ONU ou os termos de serviço da Apple, de acordo com seu criador, a Anthropic.
James Black, diretor assistente do grupo de pesquisa em Defesa e Segurança da RAND Europa, que nĂŁo participou do estudo, disse Ă Euronews Next que foi um âexercĂcio acadĂȘmico Ăștilâ.
âIsto faz parte de um crescente corpo de trabalho realizado por acadĂȘmicos e instituiçÔes para entender as implicaçÔes do uso de inteligĂȘncia artificial (IA)â, disse ele.
InteligĂȘncia Artificial na guerra
EntĂŁo, por que devemos nos importar com as descobertas do estudo?
Enquanto as operaçÔes militares continuam lideradas por humanos, a IA estå desempenhando um papel cada vez mais significativo na guerra moderna.
Por exemplo, drones agora podem ser equipados com software de IA que ajuda a identificar pessoas e atividades de interesse.
O prĂłximo passo Ă© usar a IA para sistemas de armas autĂŽnomas para encontrar e atacar alvos sem assistĂȘncia humana, desenvolvimentos nos quais os EUA e a China jĂĄ estĂŁo trabalhando, segundo o New York Times.
No entanto, Ă© importante âolhar alĂ©m de grande parte do hype e dos cenĂĄrios infundidos de ficção cientĂfica,â disse Black, explicando que as implementaçÔes finais da IA serĂŁo progressivas.
âTodos os governos querem permanecer no controle de sua tomada de decisĂ”es,â disse ele Ă Euronews Next, acrescentando que a IA opera em algo frequentemente comparado a uma caixa preta, onde sabemos o que entra e o que sai, mas nĂŁo entendemos muito sobre o processo entre eles.
A IA provavelmente serĂĄ usada de forma âsemelhante ao que se obtĂ©m no setor privado, em grandes empresasâ, para automatizar algumas tarefas repetitivas.
A IA também poderia ser usada em simulaçÔes e anålises, mas a integração dessas novas tecnologias apresenta muitos desafios, sendo a gestão de dados e a precisão do modelo alguns deles.
Com relação ao uso de LLMs, os pesquisadores disseram que Ă© crucial exercer cautela se usar LLMs nos processos de tomada de decisĂŁo relacionados Ă polĂtica externa. Com conteĂșdo do Euronews.
Fonte: Andre Lug