A ideia de que a inteligência artificial poderia superar a humanidade tem sido discutida há décadas – e programas como o ChatGPT apenas renovaram essas preocupações.
Então, quão provável é que seremos capazes de controlar uma superinteligência computacional de alto nível? Cientistas em 2021 fizeram os cálculos. A resposta? Quase certamente não.
O problema é que controlar uma superinteligência muito além da compreensão humana exigiria uma simulação dessa superinteligência que pudéssemos analisar. Mas se não pudermos compreendê-la, é impossível criar tal simulação.
Regras como “não causar danos aos seres humanos” não podem ser estabelecidas se não compreendermos os tipos de cenários que uma IA poderia criar, sugerem os autores do artigo. Uma vez que um sistema computacional esteja operando em um nível acima da capacidade de nossos programadores, não podemos mais impor limites.
“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética dos robôs’”, escreveram os pesquisadores em 2021.
“Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar uma diversidade de recursos para atingir objetivos potencialmente incompreensíveis para os seres humanos, muito menos controláveis”.
Parte do raciocínio da equipe se baseia no problema da interrupção proposto por Alan Turing em 1936. O problema se concentra em saber se um programa de computador alcançará uma conclusão e uma resposta (e, portanto, interromperá), ou se simplesmente ficará em um loop infinito tentando encontrar uma resposta.
Como Turing provou por meio de alguns cálculos inteligentes, embora possamos saber disso para alguns programas específicos, é logicamente impossível encontrar uma maneira de saber isso para todos os programas potenciais que possam ser escritos.
Isso nos leva de volta à IA, que em um estado superinteligente poderia armazenar simultaneamente todos os programas de computador possíveis em sua memória.
Qualquer programa escrito para impedir que a IA prejudique os seres humanos e destrua o mundo, por exemplo, pode ou não alcançar uma conclusão (e interromper) – é matematicamente impossível ter absoluta certeza de qualquer maneira, o que significa que não é contível.
“Na prática, isso torna o algoritmo de contenção inutilizável”, disse o cientista da computação Iyad Rahwan, do Instituto Max Planck para o Desenvolvimento Humano na Alemanha.
A alternativa a ensinar ética à IA e dizer para ela não destruir o mundo – algo que nenhum algoritmo pode ter absoluta certeza de fazer, segundo os pesquisadores – é limitar as capacidades da superinteligência. Poderíamos restringi-la de partes da internet ou de certas redes, por exemplo.
O estudo de 2021 também rejeita essa ideia, sugerindo que isso limitaria o alcance da inteligência artificial – o argumento é que, se não a usaremos para resolver problemas além do alcance dos humanos, por que criá-la?
Se formos avançar com a inteligência artificial, pode ser que nem saibamos quando uma superinteligência além do nosso controle chegará, devido à sua incompreensibilidade. Isso significa que precisamos começar a fazer algumas perguntas sérias sobre as direções que estamos seguindo.
Na verdade, neste ano, gigantes da tecnologia como Elon Musk e o cofundador da Apple, Steve Wozniak, assinaram uma carta aberta pedindo à humanidade que interrompesse o trabalho em inteligência artificial por pelo menos 6 meses para que sua segurança pudesse ser explorada.
“Sistemas de IA com inteligência comparável à humana podem representar riscos profundos para a sociedade e a humanidade”, dizia a carta aberta intitulada “Pausar Experimentos Gigantes de IA”.
“Sistemas de IA poderosos devem ser desenvolvidos apenas quando tivermos confiança de que seus efeitos serão positivos e seus riscos serão gerenciáveis”, afirmou.
A pesquisa foi publicada no Journal of Artificial Intelligence Research em janeiro de 2021.
Fonte: Andre Lug