Tecnologia

OpenAI cria equipe para enfrentar o desafio do alinhamento da superinteligĂȘncia

2025 word1
Grupo do Whatsapp CuiabĂĄ

Uma nova equipe da OpenAI estĂĄ enfrentando o desafio do alinhamento da superinteligĂȘncia para garantir que os futuros sistemas de IA, que serĂŁo muito mais inteligentes do que os humanos, sigam a intenção humana.

A equipe, co-liderada por Ilya Sutskever e Jan Leike, estĂĄ dedicada a encontrar avanços cientĂ­ficos e tĂ©cnicos para garantir o controle seguro dos sistemas de IA, que podem trazer um progresso sem precedentes, mas tambĂ©m podem representar perigos ao potencialmente causar consequĂȘncias indesejadas para a humanidade.

O objetivo ambicioso dessa nova equipe Ă© criar “o primeiro pesquisador de alinhamento automatizado” com capacidades equivalentes Ă s humanas. A equipe espera “alinhavar iterativamente a superinteligĂȘncia” utilizando “vastas quantidades de processamento” e, em apenas quatro anos, resolver os desafios tĂ©cnicos centrais do alinhamento da superinteligĂȘncia. A OpenAI estĂĄ dedicando 20% da capacidade de processamento garantida atualmente para esse objetivo.

O alinhamento da superinteligĂȘncia Ă© fundamentalmente um problema de aprendizado de mĂĄquina, e acreditamos que grandes especialistas em aprendizado de mĂĄquina, mesmo que nĂŁo estejam atualmente trabalhando em alinhamento, serĂŁo essenciais para resolvĂȘ-lo.

OpenAI

Recentemente, tem havido uma crescente crĂ­tica de que as distopias de extinção por uma superinteligĂȘncia artificial sĂŁo projetadas para distrair dos perigos atuais da IA.

“Um objetivo incrivelmente ambicioso”

Para alcançar esse “objetivo incrivelmente ambicioso”, a equipe planeja desenvolver um mĂ©todo de treinamento escalĂĄvel, validar o modelo resultante e realizar testes rigorosos em seu processo de alinhamento.

Eles pretendem focar em monitoramento e generalização escalåveis, que podem ajudar a fornecer um sinal de treinamento para tarefas difíceis de serem avaliadas pelos humanos. Além disso, planejam automatizar a busca por comportamentos problemåticos e processos internos problemåticos para validar o alinhamento do sistema, e avaliar todo o processo usando testes adversårios.

Embora reconheçam que suas prioridades de pesquisa possam mudar, a equipe pretende aprender mais sobre o problema e incorporar potencialmente novas áreas de pesquisa em sua abordagem. A OpenAI promete “compartilhar amplamente os resultados desse esforço” e está em busca de pesquisadores e engenheiros para se juntarem à iniciativa.

O trabalho da nova equipe complementarĂĄ os projetos em andamento na OpenAI voltados para melhorar a segurança dos modelos atuais e compreender e mitigar outros riscos relacionados Ă  IA, como mau uso, interrupção econĂŽmica, desinformação, viĂ©s e discriminação, alĂ©m de vĂ­cios e dependĂȘncia.

Fonte: Andre Lug

Sobre o autor

Avatar de FĂĄbio Neves

FĂĄbio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo