Sophia @princesinhamt
Tecnologia

OpenAI: Líderes da organização revelam insights sobre controle de superinteligência

2024 word3
Grupo do Whatsapp Cuiabá

Todos estão falando sobre o e a geração de texto por IA. Mas o real da OpenAI é desenvolver uma artificial. A empresa nos lembra de seu objetivo distante – e sugere como manter tal sob controle.

Diretamente da diretoria executiva da OpenAI, surge um artigo sobre como controlar uma potencial superinteligência: os autores são Sam Altman, Greg Brockman e Ilya Sutskever.

Eles discutem possíveis sistemas de controle para sistemas de IA superinteligentes. Segundo sua definição, esses serão sistemas de IA futuros que serão “dramaticamente mais poderosos” do que mesmo a “ artificial geral” (AGI), embora não especifiquem o termo “superinteligência”.

Altman, Brockman e Sutskever sugerem que o impacto da superinteligência artificial será amplo, tanto positivo quanto negativo, e comparam as potenciais consequências às da nuclear ou da biologia sintética. Na próxima década, sistemas de IA “superarão especialistas na maioria das áreas e realizarão tanto trabalho produtivo quanto as maiores empresas fazem hoje”.

Coordenação, controle, tecnologia

Para controlar efetivamente uma superinteligência, eles sugerem três pontos de partida:

Embora os três líderes da OpenAI apoiem uma regulamentação rigorosa da superinteligência, eles também enfatizam a necessidade de um limite claro que permita às empresas e projetos de código aberto desenvolver modelos abaixo de um limiar de capacidade significativa sem regulamentação.

“Os sistemas que nos preocupam terão poder além de qualquer tecnologia já criada, e devemos ter cuidado para não diluir o foco neles aplicando padrões semelhantes a tecnologias muito aquém desse nível.”

Sam Altman, Greg Brockman, Ilya Sutskever

Os seres humanos devem estar no comando da IA

Altman, Brockman e Sutskever enfatizam a importância da participação pública e supervisão na governança de sistemas de IA poderosos. Em sua visão, os limites e objetivos desses sistemas devem ser determinados democraticamente.

Dentro desses limites amplos, no entanto, os usuários devem ter “muito controle” sobre o sistema de IA que utilizam. O CEO da OpenAI, Altman, já anunciou anteriormente que sua empresa planeja oferecer modelos de IA personalizáveis no futuro.

Por fim, os autores justificam o desenvolvimento de uma superinteligência artificial, apesar de todos os riscos: ela poderia levar a um “mundo muito melhor” do que podemos imaginar hoje. Eles afirmam que já são visíveis exemplos disso na educação, criatividade e produtividade.

Além disso, seria quase impossível impedir o desenvolvimento de uma superinteligência artificial. Sua emergência é inevitável, afirmam os três fundadores, devido aos enormes benefícios, aos custos em declínio e à multiplicidade de atores envolvidos. Pará-la exigiria algum tipo de “regime global de vigilância”, e mesmo assim não há garantias. “Portanto, precisamos acertar.”

Fonte: Andre Lug

Sobre o autor

Avatar de Fábio Neves

Fábio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo