Na terça-feira, o Center for AI Safety (CAIS) divulgou uma declaração de uma única frase assinada por executivos da OpenAI e DeepMind, vencedores do Prêmio Turing, e outros pesquisadores de IA, alertando que o trabalho de suas vidas poderia potencialmente extinguir toda a humanidade.
A breve declaração, que o CAIS afirma ser destinada a abrir discussão sobre o tema de “uma ampla gama de riscos importantes e urgentes da IA”, diz o seguinte: “Mitigar o risco de extinção causado pela IA deve ser uma prioridade global, ao lado de outros riscos de escala societal, como pandemias e guerra nuclear”.
Dentre os signatários proeminentes da declaração estão os vencedores do Prêmio Turing Geoffery Hinton e Yoshua Bengio, o CEO da OpenAI Sam Altman, o cientista-chefe da OpenAI Ilya Sutskever, o CTO da OpenAI Mira Murati, o CEO da DeepMind Demis Hassabis, o CEO da Anthropic Dario Amodei e professores da UC Berkeley, Stanford e MIT.
Essa declaração surge enquanto Altman viaja pelo mundo, realizando reuniões com chefes de Estado sobre a IA e seus perigos potenciais. No início de maio, Altman defendeu a regulamentação de sua indústria perante o Senado dos Estados Unidos.
Considerando sua breve extensão, a carta aberta do CAIS é notável pelo que não inclui. Por exemplo, não especifica exatamente o que significa por “IA”, considerando que o termo pode se aplicar desde movimentos fantasmas em Pac-Man até modelos de linguagem capazes de escrever sonetos no estilo de gangsters espertos dos anos 1940. A carta também não sugere como os riscos de extinção poderiam ser mitigados, apenas que deve ser uma “prioridade global”.
No entanto, em um comunicado de imprensa relacionado, o CAIS afirma que deseja “estabelecer salvaguardas e instituições para que os riscos da IA não nos peguem desprevenidos” e compara o aviso sobre a IA ao alerta feito por J. Robert Oppenheimer sobre os efeitos potenciais da bomba atômica.
Os especialistas em ética de IA não estão impressionados
Esta não é a primeira carta aberta sobre perigos hipotéticos da IA que poderiam acabar com o mundo que vemos este ano. Em março, o Future of Life Institute divulgou uma declaração mais detalhada assinada por Elon Musk que defendia uma pausa de seis meses em modelos de IA “mais poderosos que o GPT-4”, o que recebeu ampla cobertura da imprensa, mas também foi recebido com ceticismo por parte da comunidade de aprendizado de máquina.
Os especialistas que frequentemente se concentram em ética de IA não estão impressionados com essa tendência emergente de cartas abertas.
A Dra. Sasha Luccioni, cientista de pesquisa em aprendizado de máquina da Hugging Face, compara a nova carta do CAIS a um truque de mágica: “Em primeiro lugar, mencionar o risco hipotético existencial da IA ao lado de riscos muito tangíveis como pandemias e mudanças climáticas, que são muito recentes e visíveis para o público, dá mais credibilidade”, diz ela. “Também é uma distração, atraindo a atenção pública para uma coisa (riscos futuros) para que não pensem em outra (riscos atuais tangíveis, como viés, questões legais e consentimento).
O escritor e futurista Daniel Jeffries twittou: “Os riscos e danos da IA agora são oficialmente um jogo de status em que todos se juntam para parecerem bons… Então por que as pessoas continuam insistindo nisso? Parece bom. Não custa nada. Parece bom. É basicamente isso.”
A organização por trás da recente carta aberta, o Center for AI Safety, é uma organização sem fins lucrativos sediada em São Francisco, cujo objetivo é “reduzir os riscos de escala social da inteligência artificial” por meio de pesquisa técnica e defesa. Um de seus co-fundadores, Dan Hendrycks, possui doutorado em ciência da computação pela UC Berkeley e trabalhou anteriormente como estagiário na DeepMind. Outro co-fundador, Oliver Zhang, às vezes publica sobre segurança de IA nos fóruns do LessWrong, uma comunidade online conhecida por seu foco nos perigos hipotéticos da IA.
Na comunidade de aprendizado de máquina, alguns pesquisadores de segurança de IA temem especialmente que uma IA superinteligente, que seja exponencialmente mais inteligente que os seres humanos, em breve surja, escape do cativeiro e assuma o controle da civilização humana ou a aniquile completamente. Essa crença na chegada da “AGI” informa o trabalho fundamental de segurança na OpenAI, possivelmente o principal fornecedor de IA generativa no momento. Essa empresa é apoiada pela Microsoft, que está incorporando sua tecnologia de IA em muitos de seus produtos, incluindo o Windows. Isso significa que essas visões apocalípticas de um destino sombrio da IA são profundas em alguns setores da indústria de tecnologia.
Embora esse suposto perigo seja preocupante para alguns, outros argumentam que assinar uma carta aberta vaga sobre o assunto é uma maneira fácil para as pessoas que podem ser responsáveis por outros danos da IA aliviarem suas consciências. “Isso faz com que as pessoas que assinam a carta pareçam os heróis da história, já que são elas que estão criando essa tecnologia”, diz Luccioni.
Para deixar claro, críticos como Luccioni e seus colegas não acham que a tecnologia de IA seja inofensiva, mas argumentam que priorizar ameaças futuras hipotéticas serve como uma distração dos danos da IA que existem agora – aqueles que apresentam problemas éticos complexos que as grandes corporações que vendem ferramentas de IA prefeririam esquecer.
“Certas subpopulações estão sendo prejudicadas ativamente agora”, diz Margaret Mitchell, cientista-chefe de ética da Hugging Face: “Desde as mulheres no Irã obrigadas a usar roupas com as quais não consentem com base em vigilância, até pessoas injustamente encarceradas com base em reconhecimento facial defeituoso, até o tratamento dos uigures na China com base em vigilância e técnicas de visão computacional.”
Portanto, embora seja possível que um dia uma forma avançada de inteligência artificial possa ameaçar a humanidade, esses críticos dizem que não é construtivo nem útil focar em um cenário apocalíptico mal definido em 2023. Não é possível pesquisar algo que não é real, observam eles.
“O risco existencial da IA é uma fantasia que não existe atualmente, e você não pode consertar algo que não existe”, twittou Jeffries em uma linha semelhante. “É uma completa e total perda de tempo tentar resolver problemas imaginários do amanhã. Resolva os problemas de hoje, e os problemas de amanhã serão resolvidos quando chegarmos lá.” Com conteúdo da arstechnica.
Fonte: Andre Lug