Sophia @princesinhamt
Tecnologia

para o portuguĂȘs

2025 word2
Grupo do Whatsapp CuiabĂĄ

Nesse artigo vou colocar a tradução da carta feita pela Future of Life Institute para que os avanços em inteligĂȘncia artificial sejam interrompidos por 6 meses.

Assinantes como Elon Musk, Steve Wozniak, Yuval Noah Harari, entre outros estudiosos, empresĂĄrios e especialistas em IA estĂŁo como assinantes dessa carta aberta. Ela Ă© especialmente direcionada aos gigantes da tecnologia OpenAI, Microsoft e Google.

Veja o resumo e anĂĄlise sobre a carta.

Para acessar o original no idioma InglĂȘs, clique aqui.

Vamos entĂŁo Ă  tradução da carta para portuguĂȘs:

Pausar Experimentos Gigantes de IA: Uma Carta Aberta

Pedimos a todos os laboratĂłrios de IA que pausem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4.

Os sistemas de IA com inteligĂȘncia competitiva humana podem representar riscos profundos para a sociedade e a humanidade, como demonstrado por uma extensa pesquisa[1] e reconhecido pelos principais laboratĂłrios de IA.[2] Como afirmado nos PrincĂ­pios de IA Asilomar amplamente endossados, a IA Avançada pode representar uma mudança profunda na histĂłria da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais. Infelizmente, esse nĂ­vel de planejamento e gerenciamento nĂŁo estĂĄ acontecendo, embora os Ășltimos meses tenham visto os laboratĂłrios de IA travados em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguĂ©m – nem mesmo seus criadores – pode entender, prever ou controlar de forma confiĂĄvel.

Os sistemas contemporĂąneos de IA estĂŁo agora se tornando competitivos em tarefas gerais, e devemos nos perguntar: devemos deixar as mĂĄquinas inundarem nossos canais de informação com propaganda e inverdade? Devemos automatizar todos os trabalhos, incluindo os cumpridores? Devemos desenvolver mentes nĂŁo humanas que possam eventualmente superar em nĂșmero, ser mais inteligentes, obsoletas e nos substituir? Devemos correr o risco de perder o controle de nossa civilização? Tais decisĂ”es nĂŁo devem ser delegadas a lĂ­deres tecnolĂłgicos nĂŁo eleitos. Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serĂŁo positivos e seus riscos gerenciĂĄveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos efeitos potenciais de um sistema. “Em algum momento, pode ser importante obter uma revisĂŁo independente antes de começar a treinar sistemas futuros e para os esforços mais avançados para concordar em limitar a taxa de crescimento da computação usada para criar novos modelos.” NĂłs concordamos. Esse ponto Ă© agora.

Portanto, pedimos a todos os laboratĂłrios de IA que pausem imediatamente por pelo menos 6 meses o treinamento de sistemas de IA mais poderosos que o GPT-4. Essa pausa deve ser pĂșblica e verificĂĄvel e incluir todos os principais atores. Se tal pausa nĂŁo puder ser decretada rapidamente, os governos devem intervir e instituir uma moratĂłria.

LaboratĂłrios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que sĂŁo rigorosamente auditados e supervisionados por especialistas externos independentes. Esses protocolos devem garantir que os sistemas que aderem a eles estejam seguros alĂ©m de uma dĂșvida razoĂĄvel.[1] Isso nĂŁo significa uma pausa no desenvolvimento da IA em geral, apenas um recuo da corrida perigosa para modelos de caixa preta imprevisĂ­veis cada vez maiores com recursos emergentes.

A pesquisa e o desenvolvimento de IA devem ser reorientados para tornar os sistemas poderosos e de Ășltima geração de hoje mais precisos, seguros, interpretĂĄveis, transparentes, robustos, alinhados, confiĂĄveis e leais.

Paralelamente, os desenvolvedores de IA devem trabalhar com os formuladores de polĂ­ticas para acelerar drasticamente o desenvolvimento de sistemas robustos de governança de IA. Estes devem, no mĂ­nimo, incluir: autoridades reguladoras novas e capazes dedicadas Ă  IA; supervisĂŁo e rastreamento de sistemas de IA altamente capazes e grandes grupos de capacidade computacional; sistemas de proveniĂȘncia e marca d ‘água para ajudar a distinguir vazamentos de modelos reais de sintĂ©ticos e rastrear; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados pela IA; financiamento pĂșblico robusto para pesquisa tĂ©cnica de segurança da IA; e instituiçÔes com bons recursos para lidar com as dramĂĄticas interrupçÔes econĂŽmicas e polĂ­ticas (especialmente para a democracia) que a IA causarĂĄ.

A humanidade pode desfrutar de um futuro próspero com a IA. Tendo conseguido criar poderosos sistemas de IA, agora podemos desfrutar de um “verão de IA” no qual colhemos as recompensas, projetamos esses sistemas para o claro benefício de todos e damos à sociedade uma chance de se adaptar. A sociedade fez uma pausa em outras tecnologias com efeitos potencialmente catastróficos na sociedade.[5] Podemos fazer isso aqui. Vamos aproveitar um longo verão de IA, não nos apressarmos despreparados para uma queda.

Notas e referĂȘncias

[1]

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?🩜. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).

Bostrom, N. (2016). Superintelligence. Oxford University Press.

Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).

Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk?. arXiv preprint arXiv:2206.13353.

Christian, B. (2020). The Alignment Problem: Machine Learning and human values. Norton & Company.

Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).

Eloundou, T., et al. (2023). GPTs are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.

Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.

Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.

Russell, S. (2019). Human Compatible: Artificial Intelligence and the Problem of Control. Viking.

Tegmark, M. (2017). Life 3.0: Being Human in the Age of Artificial Intelligence. Knopf.

Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.

[2]

Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks: ‘A little bit scared of this’. ABC News.

Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.

[3]

Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712.

OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.

[4]

Ample legal precedent exists – for example, the widely adopted OECD AI Principles require that AI systems “function appropriately and do not pose unreasonable safety risk”.

[5]

Examples include human cloning, human germline modification, gain-of-function research, and eugenics.

Fonte: andrelug

Sobre o autor

Avatar de Redação

Redação

Estamos empenhados em estabelecer uma comunidade ativa e solidåria que possa impulsionar mudanças positivas na sociedade.