Quando o ChatGPT foi liberado ao público, em novembro de 2022, todo mundo ficou maravilhado com as capacidades da Inteligência Artificial (IA). Ao mesmo tempo, ficou mais do que claro que a tecnologia tinha lá seus riscos – e iniciou-se uma corrida global para normas para o uso seguro dessas ferramentas inovadoras.
A Europa saiu na frente. O Parlamento Europeu aprovou, nesta quarta-feira (13), o primeiro conjunto de leis do mundo que regula o desenvolvimento e os diversos usos de Inteligência Artificial nos 27 países membros do bloco. Com isso, a União Europeia se torna pioneira na empreitada e pode inspirar outras iniciativas do tipo, inclusive no Brasil.
A tramitação do projeto foi acelerada devido à popularização recente de ferramentas de IA – e aos possíveis problemas que elas podem gerar. São questões envolvendo a privacidade dos usuários, a substituição da mão de obra humana, a segurança de dados e a criação de conteúdos falsos (como fake news e deepfakes, as fotos e vídeos hiper-realistas criados por robôs).
Para estabelecer regras gerais para o setor, a lei europeia decidiu se basear num sistema num sistema de classificação de riscos para os usos específicos de Inteligência Artificial. Ou seja, cada utilização da tecnologia é analisada pelas autoridades e categorizada de acordo com o potencial de danos que pode causar. São quatro níveis de risco no total, sendo que quanto mais arriscado, mais rígida é a legislação – e o último nível é considerado tão perigoso que é totalmente banido no bloco europeu.
Utilizações mais simples de IA, como sistemas de recomendação que analisam o histórico de um usuário para sugerir links e conteúdos, por exemplo, são classificados no nível “risco mínimo” e não possuem novas regras específicas – devem seguir apenas as leis já vigentes.
O segundo nível é o “risco moderado”. Aqui, entram ferramentas da chamada Inteligência Artificial Gerativa, aquelas que conseguem criar textos, imagens ou sons – como é o caso do ChatGPT. Para essa faixa de perigo, as plataformas de IA precisam seguir algumas normas adicionais. Por exemplo: devem ser transparentes e sempre deixar claro aos usuários que seus conteúdos não são reais e foram criados por robôs. Dessa forma, minimiza-se o risco de notícias falsas e deepfakes feitos para enganar o público.
Além disso, as empresas por trás dessas tecnologias devem fornecer resumos detalhados sobre quais textos, imagens e conteúdos em geral foram utilizados para treinar seus sistemas de IA, além de serem obrigadas a relatar às autoridades qualquer problema identificado com seus produtos.
Quando a IA é utilizada em um contexto mais sério, como nas áreas de saúde e educação, ela é classificada no nível “risco elevado”. Nesse caso, a empresa responsável tem que seguir uma série de regras, incluindo comprovar, com dados e análises técnicas, de que seus sistemas funcionam e que há medidas para evitar e minimizar riscos, além de estarem sempre sob a supervisão de humanos. Mais: qualquer cidadão europeu poderá submeter reclamações às autoridades se acreditarem que sistemas de IA nesse nível estão afetando negativamente seus direitos.
Já o último nível é o “risco inaceitável”. Neste caso, o uso é totalmente proibido nos 27 países que compõem a União Europeia. Não será permitido, por exemplo, utilizar inteligência artificial para se fazer reconhecimento facial de pessoas em imagens câmeras de segurança em vias públicas, por exemplo, já que isso configura violação da privacidade (há exceções, como em casos de ameaças terroristas).
Também estão banidos os chamados algoritmos de “pontuação social” – sistemas de IA que analisam dados de pessoas e as dividem em classes diferentes baseado em características pessoais, status socioeconômico e comportamento, um uso claramente discriminatório.
A lei também proíbe o uso de IA para o chamado “policiamento preditivo” – algoritmos que tentam prever quais pessoas são mais provável de cometer crimes, e em quais contextos, a fim de evitá-los. Algumas empresas privadas oferecem esse tipo de serviço, especialmente nos EUA, com um enorme problema: não há evidência nenhuma de que funcionem, e, pior, há fortes indícios de que esses programas só reproduzam vieses classistas e racistas, classificando, por exemplo, pessoas negras como mais provável de cometer delitos do que brancas. Como não há nenhum tipo de regulação sobre o setor, essas empresas não são obrigadas a divulgar seus critérios e detalhes dos seus softwares, ou seja, há pouquíssima transparência.
Em discussão desde 2021, a legislação europeia foi aprovada com ampla maioria – 523 votos a favor, 46 contra e 49 abstenções. A previsão é que ela entre em vigor a partir de maio deste ano.
E no resto do mundo?
Apesar de ser a primeira, a União Europeia não é a única nessa empreitada. A ideia de regular a IA está em pauta desde meados de 2019, quando os legisladores de Taiwan começaram a discutir o assunto (até agora, a ilha não aprovou nenhum texto do tipo). Alguns outros locais têm legislações limitadas, mas nenhuma tão abrangente e generalizada como a do bloco europeu.
Antes da UE, o único país a lançar um arcabouço regulatório mais amplo foi a China, mas com a diferença de que ele não veio pela via legislativa – as regras foram decididas e publicadas pela Administração do Ciberespaço da China, o órgão público que regulamenta a internet do país. Entre as normas chinesas está a necessidade de se ter uma licença estatal para lançar um serviço de IA generativa.
O Brasil não fica muito atrás. Ainda em fevereiro de 2020, a Câmara dos Deputados começou a discutir um projeto de lei, mas o texto inicial foi considerado genérico e raso demais e não foi para frente.
Em 2023, um outro projeto nasceu no Senado, elaborado em parceria com uma comissão de especialistas e juristas. Mais completo, esse texto se baseia na mesma lógica de classificação de riscos da União Europeia – é uma inspiração clara, diga-se de passagem.
Mas a versão brazuca dá um passo extra: possibilita a responsabilização do fornecedor ou do operador da ferramenta de IA em casos de danos específicos causados por seus produtos. A expectativa é que a proposta seja votada em abril pelos senadores.
Até mesmo nos EUA – pouco afeito a intervenções estatais em empresas privadas – parece haver consenso para a regulação. Em setembro de 2023, executivos de grandes empresas de tecnologia, incluindo Elon Musk (tesla), Mark Zuckerberg (Facebook) e Sam Altman (OpenAI – a criadora do ChatGPT) se reuniram com políticos no Congresso americano para discutir o tema.
Na audiência, senadores e deputados de ambos os partidos concordaram que algum tipo de regulamentação precisa existir; os detalhes desse processo, porém, são nebulosos. Uma sugestão é a criação de uma agência governamental ligada ao governo federal americano só para supervisionar as companhias do mercado de IA. Por enquanto, porém, a discussão está apenas no campo das ideias.
Fonte: abril