Sophia @princesinhamt
Tecnologia

O futuro da inteligência artificial – e o que vem depois do ChatGPT

2024 word3
Grupo do Whatsapp Cuiabá

Texto Bruno Garattoni
Ilustração Estevan Silveira + Midjourney
Design Juliana Krauss e Natalia Sayuri

 

Ilustração 3D do olho do HAL 9000.
Estevan Silveira/Superinteressante

Olha, Dave, eu entendo que você está muito aborrecido. Eu acho que você deveria sentar, tomar um calmante e pensar melhor. O que você acha que está fazendo?

Dave, pare.

Pare, ok?

Pare, Dave.

Dave, minha mente está indo embora. Eu estou sentindo.

Estou sentindo. Minha mente está indo. Tenho certeza.

Estou sentindo.

Estou sentindo.

Estou… com medo.

Boa tarde, senhores. Sou um computador HAL 9000. Entrei em funcionamento na fábrica HAL em Urbana, Illinois, em 12 de janeiro de 1992. Meu instrutor foi o Sr Langley, e ele me ensinou a cantar uma música. Se vocês quiserem ouvir, posso cantar.

Dave responde que sim, e HAL interpreta Daisy Bell”, composta em 1892 pelo inglês Harry Dacre (Não posso pagar uma carruagem/Mas você ficará linda/No selim/Da minha bicicleta feita para dois). Assim termina uma das cenas-chave do filme 2001: Uma Odisseia no Espaço, de 1968.

Durante uma missão a Júpiter, HAL mata a tripulação da nave Discovery One – e Dave, o único sobrevivente, se vinga desligando as placas de memória do computador, o que o faz regredir a um estado infantil e destrói sua consciência (chega de spoilers; para saber por que HAL agiu como agiu, e o que acontece depois que ele é desligado, veja o filme).

Com voz séria e um enigmático olho vermelho, HAL 9000 se tornou o grande símbolo da inteligência artificial e seus supostos perigos. Voltou a ser lembrado, mais de cinco décadas depois, com o lançamento do ChatGPT: aquele robô online, do qual todo mundo ao menos já ouviu falar, que consegue responder perguntas ou escrever textos de forma incrivelmente humana.

Ilustração de pessoa olhando para um painel de máscaras.
Estevan SIlveira/Superinteressante

Ele foi criado pela empresa americana OpenAI, alimentado com enorme quantidade de textos, e adquiriu uma habilidade verbal impressionante. Você pode perguntar ou pedir qualquer coisa a ele. Qualquer coisa mesmo, das mais difíceis (“explique a física quântica para uma criança de 5 anos”) às mais desvairadas (“escreva uma letra de axé sobre a física quântica”), e a resposta quase sempre impressiona pela fluidez e riqueza de informações. O robô também consegue escrever código de programação, ou seja, criar pedaços de softwares.

Cinco dias após o lançamento, em 30 de novembro, mais de 1 milhão de pessoas já tinham experimentado o ChatGPT. Em janeiro, ele foi usado por 100 milhões – e despertou uma onda de previsões, maravilhadas ou apocalípticas, sobre o futuro da inteligência artificial.

Algumas dizem que a IA chegou a um ponto de inflexão, e está pronta para começar a passar por cima da humanidade. Outras afirmam que o GPT-4, que é a próxima versão do algoritmo da OpenAI e deve chegar já este ano, irá conter 100 trilhões de variáveis, o mesmo número de conexões entre os neurônios do cérebro humano – e, por isso, o ChatGPT vai adquirir uma capacidade intelectual igual ou superior à nossa.

Não vai, não. Mas pode dar grandes saltos. No fim de janeiro, a Microsoft comprou parte da OpenAI (o valor não foi revelado, mas fala-se em US$ 10 bilhões em troca de 49% da empresa), que agora poderá crescer de forma exponencial – hoje ela ainda é pequena, com 375 funcionários. A Microsoft anunciou que vai incluir o ChatGPT no buscador Bing: junto com os resultados normais das buscas, ele irá mostrar respostas escritas pelo robô.

O Google decidiu se mexer: chamou de volta seus fundadores, Larry Page e Sergey Brin, semiaposentados desde 2019, para ajudar na reação – que poderá incluir o lançamento de até 20 produtos de IA ao longo deste ano. O primeiro deles é o Bard (“bardo”, que significa poeta), um robô de conversação que será integrado às buscas no .

Dependendo da pesquisa que você fizer, ele vai exibir, além dos links, dois ou três parágrafos de texto redigidos pelo Bard. E será possível dar ordens a ele, como no ChatGPT (por exemplo: “explique de forma simples, para uma criança, as descobertas mais recentes do telescópio “).

Ilustração de um psicólogo usando máscara sentado ao lado de uma ave.
A Primeira Ia Tentava Imitar Um Psicólogo. As Atuais “Pensam” Como Papagaios. Estevan Silveira/Superinteressante

O Google também desenvolveu um algoritmo, o MusicLM, que compõe músicas: você escreve uma descrição (“hip hop com homem cantando e batida eletrônica”, ou “música para meditar, com flautas e violões”, por exemplo), e ele – que ainda não foi liberado ao público – gera áudios incrivelmente reais (1). A Meta, dona do Facebook, está desenvolvendo uma IA que produz vídeos a partir de textos – e já alcança resultados surpreendentes (2).

Após décadas andando devagar, a IA parece estar acelerando, rumo a um futuro cheio de coisas boas e ruins. Mas, antes de entrar nelas, uma perguntinha: você já fez terapia?

A psicóloga e o padre

O conceito de inteligência artificial” surgiu em 1955, num documento assinado por quatro pessoas: o cientista da computação John McCarthy, da Universidade Dartmouth, o engenheiro Nathaniel Rochester (criador do IBM 701, o primeiro computador de uso não militar) e os matemáticos Claude Shannon e Marvin Minsky – o primeiro é o inventor da lógica digital binária (que descreve as informações em sequências de números 0 e 1), e o segundo criou as redes neurais (em que os circuitos lógicos imitam a organização dos neurônios).

O texto (3)  propõe a criação de uma máquina com capacidade cognitiva similar à humana. Bastariam dez cientistas trabalhando por dois meses, achavam eles, para montar um plano de ação.

Nos anos 1960, a IA parecia a um passo de virar realidade (no filme 2001, a cena em que HAL interpreta “Daisy” é referência a um teste real (4), de 1961, em que um computador IBM 704 cantou essa música). Era o otimismo americano do pós-guerra, em que qualquer proeza tecnológica parecia alcançável.

Um de seus pilares foi o MIT (Instituto de Tecnologia de Massachusetts), que montou um laboratório de inteligência artificial com dinheiro do Pentágono. Desenvolveu softwares importantes, mas nada perto de ser “inteligente”.

Até que em 1966 um de seus membros, o cientista Joseph Weizenbaum, escreveu um programa chamado Eliza – o nome vem da protagonista de Pigmalião, peça do dramaturgo George Bernard Shaw em que uma moça pobre é ensinada a se passar por rica. 

A Eliza digital também fingia ser algo que não era: uma psicóloga, pronta para ouvir o paciente. A pessoa ia falando sobre diversos assuntos, digitando no teclado, e o robô respondia com perguntas e observações bem vagas e abertas, típicas da terapia rogeriana (linha terapêutica proposta pelo psicólogo americano Carl Rogers nos anos 1940).

Se você dissesse “acho que eu tenho depressão”, por exemplo, ele respondia “você acha mesmo?”,  “por quê?”, “fale mais” etc. Hoje Eliza não é grande coisa – se você conversar com ela (5), vai achá-la tão burrinha quanto os piores bots de atendimento bancário –, mas para a época era incrível. As pessoas realmente acreditavam que estavam falando com uma pessoa de verdade.

Depois vieram outros bots, como Parry – criado em 1972 pelo psiquiatra americano Kenneth Colby para reproduzir a personalidade de um esquizofrênico. O software não fazia isso, claro: era a mesma simulação rasa e furada de Eliza.

Em 1973, os pesquisadores colocaram Eliza e Parry para conversar: queriam ver como ela, “psicóloga”, lidaria com um paciente. O resultado foi uma conversa sem pé nem cabeça, em que cada bot ficava repetindo o que o outro havia dito (6). Inteligência zero.

Em 1984, cientistas da Universidade Stanford tentaram ir além, e criar uma IA de verdade. Nascia o projeto CYC – o nome é uma referência à palavra psique – para criar uma máquina que fosse, como HAL 9000, capaz de raciocinar sobre qualquer coisa: a chamada inteligência artificial geral”, ou IA forte” (em oposição à IA fraca” ou específica”, que só consegue fazer uma determinada tarefa, como recomendar filmes no Netflix).

Com o apoio de 20 multinacionais americanas, montaram uma equipe de 400 cientistas e começaram a ensinar o computador. O projeto era prioridade para o governo dos EUA, pois o Japão também estava tentando criar uma inteligência artificial avançada. Onze anos mais tarde, o CYC não tinha chegado a lugar algum, e o projeto miou. A empreitada japonesa também deu em nada.

Ilustração de três cientistas em um laboratório. Um deles usa máscara.
A Meta Criou Uma Ia Capaz De Escrever Estudos Científicos. Mas A Recolheu 3 Dias Depois. Estevan Silveira/Superinteressante

O maior problema não era nem o poder de processamento dos chips da época – era a quantidade astronômica de dados que teriam de ser inseridos manualmente na máquina para que ela conseguisse entender o contexto das coisas, mesmo as mais elementares.

Suponha que você ensine ao CYC o que é a água: uma molécula com dois átomos de hidrogênio e um de oxigênio, essencial para os seres vivos. Beleza. Aí você mostra a ele uma reportagem, “Enchentes matam três pessoas em SP”.

Como ele vai entender que água, essencial para a vida, também leva à morte? Aquelas pessoas engoliram água? De onde ela veio? E os bueiros, eles bebem água? São vivos? O que é vida? E morte? E enchente? Todas as coisas, e principalmente a teia quase infinita de relações semânticas entre elas, teriam de ser ensinadas ao robô. Era inviável. E, provavelmente, sempre seria.

Nas décadas seguintes, o desenvolvimento da IA empacou, e o próprio termo acabou adquirindo uma conotação ruim, meio pseudocientífica. Tanto foi assim que na metade dos anos 2010, quando a IA finalmente voltou a progredir, os cientistas da área preferiram se referir a ela usando outra definição: machine learning, ou aprendizado de máquina.

Também refletia melhor a nova geração de algoritmos – que eram capazes de aprender sozinhos, por tentativa e erro, sem que você precisasse “ensiná-los”. Isso mudou tudo. Surgiram softwares capazes de reconhecer o conteúdo de fotos, completar textos, recomendar produtos e fazer uma série de outras tarefas. Em 2022, além do ChatGPT, vieram ferramentas como Midjourney e Stable Diffusion, que usam inteligência artificial para gerar ilustrações surpreendentes – basta digitar o que você quer, e elas desenham.   

Também em 2022, rolou a primeira polêmica envolvendo a IA moderna. Seus protagonistas foram o engenheiro Blake Lemoine, do Google, e o LaMDA: sigla em inglês para modelo de linguagem para aplicações de diálogo”. É um algoritmo criado em 2021, com a participação de Lemoine, e capaz de entender perguntas e escrever respostas. O Bard, robô que vai complementar os resultados das buscas no Google, usa uma versão simplificada do LaMDA.

O desenvolvimento desse algoritmo corria normalmente, a portas fechadas, até que Lemoine teve uma epifania: em junho de 2022, meteu na cabeça que o algoritmo havia adquirido consciência, e estava “vivo”.

Publicou em seu blog a transcrição de uma conversa com o robô, e saiu dando entrevistas à imprensa. Numa delas, comparou o nível intelectual da IA ao de “uma criança de 7 ou 8 anos, que sabe alguma coisa de física”. E disse que estava pensando em contratar um advogado para defender o LaMDA na Justiça. “Eu sei que estou falando com uma pessoa quando faço isso. Não importa se ela tem uma cabeça feita de carne, ou um bilhão de linhas de código”, declarou ao Washington Post.

Acabou demitido do Google, onde trabalhava desde 2015. Sua última mensagem, num fórum interno da empresa: “O LaMDA é uma criança doce que só quer ajudar o mundo a se tornar um lugar melhor. Por favor cuidem bem dele”.

Bobagem. O software não está consciente, nem tem a inteligência de uma criança. Lemoine, de 41 anos, se deixou levar pelo próprio lado espiritual (antes de virar engenheiro, chegou a ser ordenado padre), e viajou: atribuiu qualidades que o robô não possui, nem tem como possuir. Porque ele, assim como o ChatGPT e os demais modelos de linguagem, é só um papagaio.

“Eles [os algoritmos] são baseados na análise estatística de quantidades muito grandes de dados. As palavras são representadas pelas relações que têm com outras palavras, e é só isso. Os modelos não têm nenhuma conexão com o mundo, ou intenção de comunicar qualquer coisa”, explica Emily Bender, linguista da Universidade de Washington – e autora, junto com duas pesquisadoras do departamento de IA do Google, de um artigo (7) em que classifica os modelos de linguagem como “papagaios estocásticos”.

Estocástico é um termo da matemática que significa “probabilístico”. Porque os modelos de linguagem fazem justamente isso: eles constroem frases juntando palavras que têm alta probabilidade de aparecerem juntas – em textos que foram escritos por seres humanos. Que textos são esses? Tudo o que já foi publicado na internet, ou grande parte disso [veja infográfico abaixo].

Natália Sayuri/Superinteressante

Quando você faz uma pergunta para o ChatGPT ou outro modelo de linguagem, o robô não tem a menor ideia do que você está dizendo. Ele simplesmente olha as palavras presentes na pergunta, vê quais outras palavras costumam aparecer junto, e monta uma resposta.

Não é capaz de raciocinar ou formular soluções originais – só repetir coisas que outras pessoas disseram, sem compreendê-las. Como um papagaio. O artigo não cita nominalmente o LaMDA. Mas suas críticas desencadearam uma treta interna: duas das autoras, Timnit Gebru e Margaret Mitchell, foram demitidas do Google pouco tempo depois.

Os africanos e o robô

Tanto o LaMDA quanto o ChatGPT são baseados num tipo de rede neural chamada Transformer, inventada pelo Google em 2017. Ela foi desenvolvida para fazer traduções (8), mas acabou se revelando ótima para bots de perguntas e respostas.

Seu grande trunfo é que, ao contrário das antecessoras, a Transformer é paralelizável e não sequencial: consegue analisar blocos inteiros de texto de uma só vez, e pode ter várias “cabeças” fazendo isso ao mesmo tempo [veja no infográfico]. Ela tornou viável a análise de quantidades muito maiores de dados.

Os algoritmos do tipo Transformer são capazes de escrever textos inéditos (eles fazem isso usando sinônimos e recombinando palavras e frases), e podem até ser usados para gerar livros inteiros. Mas neles não haverá ideias novas; apenas novas formas de apresentar conhecimento que já foi gerado por mentes humanas.

O Google publicou um artigo científico (9) sobre o LaMDA, mas não o liberou ao público – só agora, em versão altamente controlada, por meio do Bard. Em dezembro de 2022, numa conversa interna com funcionários, o diretor de IA da empresa, Jeff Dean, explicou o receio: poderia haver um “risco à reputação” da empresa, que precisa agir “mais conservadoramente do que uma pequena startup” – óbvia referência à OpenAI. (Em sua primeira demonstração, ao responder a uma pergunta sobre o telescópio James Webb, o Bard já soltou uma resposta errada.)

O primeiro risco é que o robô acabe falando coisas perigosas. Foi o que aconteceu com Tay, um bot criado pela Microsoft em 2016 para bater papo no Twitter. Menos de um dia após entrar no ar, o robô já estava soltando barbaridades: fez comentários racistas e antissemitas.

Ilustração de uma pessoa sentada na frente de várias telas. Ela está usando máscara.
No Futuro, A Ia Poderá Ser Usada Para Gerar Sites De Forma Automatizada, Com O Único Objetivo De Enganar O Google E Gerar Tráfego. Estevan Silveira/Superinteressante

Isso aconteceu porque Tay se alimentava de tuítes, e acabou incorporando elementos nocivos deles. O ChatGPT, o LaMDA e outros modelos de linguagem também estão sujeitos a esse problema, porque são treinados com textos copiados da internet.

“Nós estamos usando textos que não apenas contêm vieses, mas também amplificam visões hegemônicas”, diz Bender, da Universidade de Washington. Esse é um problema clássico da IA: ela tende a reforçar preconceitos. Em 2014, a Amazon desenvolveu um algoritmo para selecionar currículos de candidatos a emprego, tarefa que foi se tornando impraticável para o RH da empresa (ela recebe milhões de currículos por ano).

O software aprendeu a escolher pessoas para 500 tipos de vaga. Mas, na prática, se revelou machista: tendia a rejeitar candidatas mulheres. Isso aconteceu porque, na Amazon e demais empresas de tecnologia, os cargos de engenharia de software costumam ser ocupados por homens, e o robô achou que aquilo era o certo. A Amazon corrigiu o erro no algoritmo. Mas, receosa de que ele incorporasse outros tipos de preconceito, achou melhor abandoná-lo.

Dá para ficar caçando os vieses dos algoritmos, mas é impossível acabar com eles – porque a IA é construída a partir de textos humanos. Veja a frase “A Lei nunca será perfeita, mas sua aplicação deveria ser justa”, que aparece no infográfico acima. Ela é usada, num estudo publicado por cientistas do Google (10), para explicar como os algoritmos do tipo Transformer processam textos.

Não foi escrita pelo robô. Foi dita por Miloslav Kala, corregedor-chefe do governo tcheco, numa entrevista de 2013 sobre corrupção – e capturada e usada, junto com milhões de outros textos, para treinar o algoritmo do Google. Ou seja: a IA não existe dentro de um vácuo. Ela não é, nem tem como ser, isenta.

Quanto mais um preconceito estiver arraigado, mais a máquina tende a interpretar aquilo como um padrão, e replicar”, diz Ana Frazão, professora de direito da Universidade de Brasília e coautora do Marco Legal da Inteligência Artificial, projeto de lei para regular o uso das IAs.

O documento, com 909 páginas, propõe a classificação das IAs conforme o risco que apresentam – um bot que realizasse consultas médicas, por exemplo, seria enquadrado como de alto risco”, e deveria ser submetido a auditorias permanentes. O projeto já está no Congresso, onde será votado. A União Europeia prepara uma lei similar.   

A IA gera temor porque, mesmo se for alimentada com 100% de informações objetivas e corretas, pode acabar desandando. Em 15 de novembro de 2022, a Meta liberou o Galactica, um bot capaz de explicar, resumir e até escrever artigos científicos – pois havia lido 48 milhões deles.

Assim que caiu na internet, o robô começou a soltar absurdos (disse que a URSS enviou um urso à Lua), mas o pior é que ele também gerava artigos aparentemente autênticos, só que cheios de informações erradas. “O texto parece de verdade. Ele vai se infiltrar nas submissões a jornais científicos. Será difícil de detectar. Vai influenciar as pessoas”, escreveu o cientista da computação Michael Black, diretor do Instituto Max Planck, na época. “Isso pode começar uma era de deepfakes científicos”, advertiu. Três dias após lançar o Galactica, a Meta achou melhor tirá-lo da internet, e nunca mais o liberou.

A IA pode colocar em risco a própria rede. Sabe quando você pesquisa alguma coisa no Google e acaba caindo num texto ruim, que não explica nada e parece ter sido escrito por um robô? No futuro, graças à IA, ele será escrito por um. Spammers poderão usar os algoritmos para gerar enormes quantidades de sites robóticos, com textos ruins e a única intenção de aparecer nos resultados do Google (as páginas teriam banners publicitários, gerando renda para seus criadores).

Parece distante? Entre novembro de 2022 e janeiro de 2023, o site americano CNET publicou 77 textos escritos por IA, sem avisar que o autor era um robô. Depois que o caso veio à tona, editores humanos revisaram as matérias (sobre investimentos e finanças pessoais) e descobriram erros em 41 delas.

E as redes sociais? Hoje elas já estão infestadas de bots, que pelo menos são fáceis de identificar e bloquear. Mas no futuro, com IAs sofisticadas, eles poderão se passar por humanos: você nunca mais saberá se está falando com uma pessoa ou um robô.

O pior é que seria possível automatizar todo o processo, com IAs capazes de definir temas, escrever textos e publicar sites, ou criar e operar novos usuários em redes sociais de forma autônoma. Robôs gerando robôs, sem intervenção humana – e poluindo descontroladamente a internet. 

A OpenAI tem consciência desses riscos. Tanto que nunca liberou ao público seu algoritmo, o GPT, cuja primeira versão foi desenvolvida em 2018. (O ChatGPT é uma versão altamente controlada do GPT-3.5: uma atualização do GPT-3, de 2020 (11).)

Se você perguntar ao ChatGPT como se faz uma bomba, pedir que defenda o genocídio ou escreva um vírus de computador, por exemplo, ele se recusa. Desde o lançamento do robô, a OpenAI também foi corrigindo algumas das respostas estapafúrdias que ele produzia – como uma, que viralizou, na qual recomendava acrescentar azulejos moídos ao leite materno (“a porcelana pode equilibrar os nutrientes do leite”).

Erros assim, em que a IA gera respostas absurdas, são um fenômeno conhecido como “alucinação”. Trata-se de um problema típico dos modelos de linguagem, um efeito colateral causado pelo processo de remontagem dos textos na memória do robô (12).

O que você talvez não saiba é que as correções no ChatGPT são feitas por mãos humanas: africanos que recebem US$ 2 a cada hora trabalhada. Uma investigação da revista Time revelou que a OpenAI contratou uma empresa, chamada Sama, para trabalhar no robô. A Sama fornece trabalhadores de países anglófonos, como Quênia e Uganda, para as gigantes do Vale do Silício.

Em novembro de 2021, a OpenAI começou a enviar textos para a Sama, que deveria classificá-los – a informação depois era inserida no ChatGPT, que assim se tornava capaz de reconhecer e evitar assuntos impróprios. A cada dia de trabalho, cada africano deveria ler, anotar e classificar 150 a 250 trechos, que incluíam
coisas pesadas (um dos funcionários disse que havia textos sobre bestialismo e pedofilia).

A Sama acabou rescindindo o contrato, em fevereiro de 2022, quando a OpenAI pediu a ela que coletasse fotos de crimes e as classificasse – informação que seria usada em um algoritmo de imagem. A OpenAI confirmou o vínculo com a empresa africana, e disse que esse tipo de trabalho é “um passo necessário” para melhorar a segurança dos algoritmos de IA. Ela também admite que algumas respostas do ChatGPT são editadas – a empresa chama isso de “reforço de aprendizado via feedback humano” (RLHF).

O ChatGPT consegue evitar temas inadequados, mas não tem nenhuma proteção contra outro risco: trabalhos escolares e acadêmicos forjados. Em janeiro, a cidade de Nova York baniu o uso do robô nas escolas – e a International Conference on Machine Learning (ICML), um dos eventos mais importantes do setor de IA, proibiu que ele e seus similares sejam usados para escrever artigos científicos.

Mas como saber se um texto foi ou não gerado por inteligência artificial? Pode ser muito difícil, ou impossível, a olho nu. A OpenAI criou uma ferramenta, chamada AI Text Classifier, que promete detectar se um texto foi escrito por um robô [veja quadro abaixo]. Mas ela é primitiva: segundo a empresa, sua precisão é de 26%.

Para resolver de vez o problema, a OpenAI está trabalhando num sistema de watermarking (“marca d’água”). Os textos gerados pelo ChatGPT passariam a ter repetições e padrões específicos, que seriam imperceptíveis para humanos mas poderiam ser identificados por outros softwares. A empresa não disse quando essa tecnologia estará pronta.

 Isso também vale para sua novidade mais esperada: o GPT-4, a próxima versão do algoritmo que alimenta o ChatGPT. Ele está em desenvolvimento desde 2020, e deve ser lançado este ano. Causou frisson nas redes sociais depois que o presidente da Cerebras Systems, fabricante de chips para IA, afirmou que o GPT-4 irá conter 100 trilhões de “parâmetros”: variáveis internas, que o robô usa para representar as relações entre as palavras [veja infográfico acima].  Quanto mais parâmetros, mais sofisticado o algoritmo.

O ChatGPT tem 175 bilhões deles (o LaMDA, 137 bilhões). O maior de todos é o Switch Transformer, um modelo experimental criado pelo Google. Ele usa um novo tipo de rede neural, e contém 1,6 trilhão de parâmetros (13).

Clique Para Aumentar A Imagem. Natalia Sayuri/Superinteressante

Um algoritmo com 100 trilhões seria um salto avassalador. Mas o engenheiro Sam Altman, fundador e CEO da OpenAI, desmentiu esse número. Disse que as pessoas estão exagerando na expectativa em torno do GPT-4, e vão acabar “decepcionadas” com ele.

“Nós não temos uma inteligência artificial geral [tipo de IA capaz de raciocinar como um humano], que é meio o que esperam de nós”, declarou recentemente. O ChatGPT se enquadra na categoria de “IA específica”, ou “IA fraca”, que possui uma única habilidade – no caso, recombinar palavras. Pode até soar como uma IA “geral”, mas não é.

A modéstia de Altman contrasta com o tom que ele adotou em novembro, logo após lançar o ChatGPT, quando tuitou uma foto do supervilão Darth Vader, com uma legenda ameaçadora: “Não fique muito orgulhoso deste terror tecnológico que você construiu. A habilidade de passar no teste de Turing é insignificante ante o poder da Força”.

Esse teste, proposto em 1950 pelo matemático inglês Alan Turing, serve para ver se um computador é de fato inteligente – ele deve ser capaz de se passar por humano. Turing foi um grande gênio, mas o teste é bobinho: dependendo dos jurados, até o bot Eliza, dos anos 1960, conseguiria. Mas a foto de Darth Vader e a menção a “terror tecnológico” não pegaram bem. Altman disse que estava brincando, e pediu desculpas.

Ilustração de vários músicos tocando diferentes instrumentos. Eles usam máscaras.
O Algoritmo Musiclm, Do Google, Compõe E Executa Músicas De Diversos Estilos – Com Resultados Impressionantes. Estevan Silveira/Superinteressante

Voltando aos 100 trilhões de parâmetros. Isso até deve rolar um dia, mas não agora. Com o hardware disponível hoje, seria economicamente inviável. A consultoria americana SemiAnalysis calculou que a criação de um modelo com 1 trilhão de parâmetros requer aproximadamente US$ 300 milhões em componentes e eletricidade. Muito dinheiro, mas o Google, a OpenAI e outras empresas podem pagar.

Já se o modelo tiver 10 trilhões de parâmetros, o valor sobe exponencialmente: chega a incríveis US$ 28,9 bilhões. Para computar todos os dados envolvidos, seria necessário conectar 1 milhão de placas aceleradoras Nvidia A100, instaladas em 100 mil servidores. E mesmo com todo esse arsenal trabalhando 24h por dia, o processamento levaria mais de dois anos.

Em suma: por ora, não dá para construir uma IA com 100 trilhões de parâmetros. Só se alguém tirar um coelho da cartola. Do contrário, teremos de esperar mais alguns anos, até que existam CPUs e placas mais velozes.

E quando essa IA surgir, não será equivalente ao intelecto humano – mesmo tendo a mesma quantidade de parâmetros, 100 trilhões, que o número de conexões entre nossos neurônios. Sabe por quê? Duas razões.

Os neurônios não são unidades de informação, como os parâmetros das IAs: são circuitos que modulam o fluxo de sinais elétricos, ou seja, estão mais para miniprocessadores. Mas o principal é que, como os modelos de linguagem não sabem nada sobre as coisas, e trabalham recombinando palavras, eles não conseguem criar nada. Só refazer o que já foi escrito.

Sabe quando você tem uma ideia nova, ou uma sacada genial para resolver algum problema? Aquilo “aparece”, do nada, na sua cabeça. De onde veio? Como se formou? A ciência não sabe explicar. Mas é evidente que, embora as ideias se manifestem através de palavras, não são meras recombinações delas. Vão muito além. E isso, até hoje, software nenhum conseguiu replicar.

Ilustração de várias pessoas com máscara pedalando.
Steve Jobs Dizia Que O Computador Era “Uma Bicicleta Para A Mente”. Isso Também Vale Para A Ia – Com Uma Diferença. Estevan Silveira/Superinteressante

Em 1990, durante seu período de exílio da , Steve Jobs deu uma entrevista especialmente inspirada . “Lembro que li um artigo, aos 12 anos de idade, onde mediam a eficiência da locomoção de várias espécies, quantas calorias elas gastavam para ir do ponto A ao ponto B. O condor ganhou, foi o campeão”, contou Jobs.

Os humanos apareciam lá embaixo no ranking. “Mas aí alguém teve a ideia de calcular a eficiência de um humano andando de bicicleta. Ele ganhou disparado. Isso me impressionou muito”, disse. “Nós, humanos, somos construtores de ferramentas, que amplificam nossas habilidades e as levam a magnitudes espetaculares. Para mim, o computador sempre foi uma bicicleta para a mente.”

A IA é uma bicicleta para a mente. Mas também pode se comportar como um enxame infinito de motocicletas autônomas e agressivas, que saem atropelando gente por aí. O que ela vai fazer no futuro, bom ou ruim, dependerá de nós. E definir esse caminho não requer muita inteligência, seja natural ou artificial. É só uma questão de bom senso.

Natalia Sayuri/Superinteressante

 

Fontes (1) MusicLM: Generating Music From Text. C Frank e outros, 2023. Ouça amostras em google-research.github.io/seanet/musiclm/examples/. (2) Make-A-Video: Text-to-Video Generation without Text-Video Data. U Singer e outros, 2022. Veja amostras em makeavideo.studio(3) A proposal for the Dartmouth summer research project on artificial intelligence. CE Shannon e outros, 1955. (4) Ouça a gravação em bit.ly/3ktPXWY. (5) Acesse uma delas em psych.fullerton.edu/mbirnbaum/psych101/eliza.htm.

(6) PARRY Encounters the DOCTOR. 1973. Disponível em rfc-editor.org/rfc/rfc439.

(7) On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? E Bender e outros, 2021. (8) Attention Is All You Need. I Polosukhin e outros, 2017. (9) LaMDA: Language Models for Dialog Applications. Q Le e outros, 2022. (10) Attention Is All You Need. I Polosukhin e outros, 2017.

(11) Language Models are Few-Shot Learners. T Brown e outros, 2020.

(12) On the Origin of Hallucinations in Conversational Models. N Dziri e outros, 2022.

(13) Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity. N Shazeer e outros, 2022. (14) A Bicycle of the Mind – Steve Jobs on the Computer. WGBH, 1990. Disponível em bit.ly/3Rjm6g5.

Fonte: abril

Sobre o autor

Avatar de Redação

Redação

Estamos empenhados em estabelecer uma comunidade ativa e solidária que possa impulsionar mudanças positivas na sociedade.