Sophia @princesinhamt
Tecnologia

Elite da Inteligência Artificial pede priorização global dos riscos existenciais da IA

2024 word1
Grupo do Whatsapp Cuiabá

Principais pesquisadores de IA e líderes do setor emitiram uma declaração aberta exigindo que os riscos extremos da IA sejam levados tão a sério quanto uma guerra nuclear.

“A mitigação do risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos de escala societal, como pandemias e guerra nuclear”, insta uma declaração divulgada hoje pelo Center for AI Safety.

A declaração foi assinada pelos CEOs das principais empresas de IA, incluindo OpenAI, Google DeepMind e Anthropic, bem como por cientistas de ponta em IA nos Estados Unidos e na China.

“Uma coalizão histórica”

“Isto representa uma coalizão histórica de especialistas em IA – juntamente com filósofos, éticos, estudiosos do direito, economistas, físicos, cientistas políticos, cientistas de pandemias, cientistas nucleares e cientistas do clima – estabelecendo o risco de extinção proveniente de sistemas avançados de IA futura como um dos problemas mais importantes do mundo”, afirmou um comunicado do centro.

Os impactos negativos da IA já estão sendo sentidos e precisam ser abordados. No entanto, também é necessário antecipar os riscos futuros dos sistemas avançados de IA, disseram eles.

“Falar sobre como a IA pode levar ao fim da humanidade pode parecer ficção científica”, disse Charlotte Siegmann, co-fundadora da KIRA, um think tank que estuda os riscos da IA. “Mas há muitas razões para se preocupar: abuso, competição, ignorância, descuido e a falta de controle dos sistemas atuais e futuros. A carta aberta destaca isso.”

Yann LeCun e Meta estão ausentes da lista

Alguns dos signatários notáveis da declaração incluem:

Um vencedor do Prêmio Turing está faltando: o chefe de IA da Meta, Yann LeCun, não assinou a carta, e a Meta em si está ausente da lista. A empresa atualmente possui uma política de código aberto e está por trás dos poderosos modelos LLaMA, por exemplo. Também ausente atualmente está Gary Marcus, que recentemente testemunhou no Senado dos Estados Unidos a favor de uma maior regulamentação da pesquisa e das empresas de IA.

Um dos signatários é Connor Leahy, CEO da Conjecture, uma empresa dedicada à pesquisa de alinhamento aplicado e escalável. Em um episódio recente do programa Machine Learning Street Talk, ele explica em detalhes por que a IA representa um risco existencial e como podemos gerenciá-lo.

Fonte: Andre Lug

Sobre o autor

Avatar de Fábio Neves

Fábio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo