Uma nova equipe da OpenAI estĂĄ enfrentando o desafio do alinhamento da superinteligĂȘncia para garantir que os futuros sistemas de IA, que serĂŁo muito mais inteligentes do que os humanos, sigam a intenção humana.
A equipe, co-liderada por Ilya Sutskever e Jan Leike, estĂĄ dedicada a encontrar avanços cientĂficos e tĂ©cnicos para garantir o controle seguro dos sistemas de IA, que podem trazer um progresso sem precedentes, mas tambĂ©m podem representar perigos ao potencialmente causar consequĂȘncias indesejadas para a humanidade.
O objetivo ambicioso dessa nova equipe Ă© criar âo primeiro pesquisador de alinhamento automatizadoâ com capacidades equivalentes Ă s humanas. A equipe espera âalinhavar iterativamente a superinteligĂȘnciaâ utilizando âvastas quantidades de processamentoâ e, em apenas quatro anos, resolver os desafios tĂ©cnicos centrais do alinhamento da superinteligĂȘncia. A OpenAI estĂĄ dedicando 20% da capacidade de processamento garantida atualmente para esse objetivo.
O alinhamento da superinteligĂȘncia Ă© fundamentalmente um problema de aprendizado de mĂĄquina, e acreditamos que grandes especialistas em aprendizado de mĂĄquina, mesmo que nĂŁo estejam atualmente trabalhando em alinhamento, serĂŁo essenciais para resolvĂȘ-lo.
OpenAI
Recentemente, tem havido uma crescente crĂtica de que as distopias de extinção por uma superinteligĂȘncia artificial sĂŁo projetadas para distrair dos perigos atuais da IA.
âUm objetivo incrivelmente ambiciosoâ
Para alcançar esse âobjetivo incrivelmente ambiciosoâ, a equipe planeja desenvolver um mĂ©todo de treinamento escalĂĄvel, validar o modelo resultante e realizar testes rigorosos em seu processo de alinhamento.
Eles pretendem focar em monitoramento e generalização escalĂĄveis, que podem ajudar a fornecer um sinal de treinamento para tarefas difĂceis de serem avaliadas pelos humanos. AlĂ©m disso, planejam automatizar a busca por comportamentos problemĂĄticos e processos internos problemĂĄticos para validar o alinhamento do sistema, e avaliar todo o processo usando testes adversĂĄrios.
Embora reconheçam que suas prioridades de pesquisa possam mudar, a equipe pretende aprender mais sobre o problema e incorporar potencialmente novas ĂĄreas de pesquisa em sua abordagem. A OpenAI promete âcompartilhar amplamente os resultados desse esforçoâ e estĂĄ em busca de pesquisadores e engenheiros para se juntarem Ă iniciativa.
O trabalho da nova equipe complementarĂĄ os projetos em andamento na OpenAI voltados para melhorar a segurança dos modelos atuais e compreender e mitigar outros riscos relacionados Ă IA, como mau uso, interrupção econĂŽmica, desinformação, viĂ©s e discriminação, alĂ©m de vĂcios e dependĂȘncia.
Fonte: Andre Lug