Todos estão falando sobre o ChatGPT e a geração de texto por IA. Mas o objetivo real da OpenAI é desenvolver uma superinteligência artificial. A empresa nos lembra de seu objetivo distante – e sugere como manter tal sistema sob controle.
Diretamente da diretoria executiva da OpenAI, surge um artigo sobre como controlar uma potencial superinteligência: os autores são Sam Altman, Greg Brockman e Ilya Sutskever.
Eles discutem possíveis sistemas de controle para sistemas de IA superinteligentes. Segundo sua definição, esses serão sistemas de IA futuros que serão “dramaticamente mais poderosos” do que mesmo a “inteligência artificial geral” (AGI), embora não especifiquem o termo “superinteligência”.
Altman, Brockman e Sutskever sugerem que o impacto da superinteligência artificial será amplo, tanto positivo quanto negativo, e comparam as potenciais consequências às da energia nuclear ou da biologia sintética. Na próxima década, sistemas de IA “superarão especialistas na maioria das áreas e realizarão tanto trabalho produtivo quanto as maiores empresas fazem hoje”.
Coordenação, controle, tecnologia
Para controlar efetivamente uma superinteligência, eles sugerem três pontos de partida:
Embora os três líderes da OpenAI apoiem uma regulamentação rigorosa da superinteligência, eles também enfatizam a necessidade de um limite claro que permita às empresas e projetos de código aberto desenvolver modelos abaixo de um limiar de capacidade significativa sem regulamentação.
“Os sistemas que nos preocupam terão poder além de qualquer tecnologia já criada, e devemos ter cuidado para não diluir o foco neles aplicando padrões semelhantes a tecnologias muito aquém desse nível.”
Sam Altman, Greg Brockman, Ilya Sutskever
Os seres humanos devem estar no comando da IA
Altman, Brockman e Sutskever enfatizam a importância da participação pública e supervisão na governança de sistemas de IA poderosos. Em sua visão, os limites e objetivos desses sistemas devem ser determinados democraticamente.
Dentro desses limites amplos, no entanto, os usuários devem ter “muito controle” sobre o sistema de IA que utilizam. O CEO da OpenAI, Altman, já anunciou anteriormente que sua empresa planeja oferecer modelos de IA personalizáveis no futuro.
Por fim, os autores justificam o desenvolvimento de uma superinteligência artificial, apesar de todos os riscos: ela poderia levar a um “mundo muito melhor” do que podemos imaginar hoje. Eles afirmam que já são visíveis exemplos disso na educação, criatividade e produtividade.
Além disso, seria quase impossível impedir o desenvolvimento de uma superinteligência artificial. Sua emergência é inevitável, afirmam os três fundadores, devido aos enormes benefícios, aos custos em declínio e à multiplicidade de atores envolvidos. Pará-la exigiria algum tipo de “regime global de vigilância”, e mesmo assim não há garantias. “Portanto, precisamos acertar.”
Fonte: Andre Lug