Sophia @princesinhamt
Tecnologia

Com a chegada do InternLM, modelo de linguagem da China, a corrida por avanços em inteligência artificial se acirra.

2024 word1
Grupo do Whatsapp Cuiabá

O InternLM é um grande modelo de linguagem com 104 bilhões de parâmetros introduzido pelo Laboratório Nacional de IA da China, o Shanghai AI Lab, em parceria com a empresa de vigilância SenseTime.

if(typeof ez_ad_units != ‘undefined’){ez_ad_units.push([[728,90],’andrelug_com-box-3′,’ezslot_6′,104,’0′,’0′])};__ez_fad_position(‘div-gpt-ad-andrelug_com-box-3-0’);

A Universidade Chinesa de Hong Kong, a Universidade Fudan e a Universidade Jiaotong de Xangai também estiveram envolvidas no seu desenvolvimento. Em tarefas em língua chinesa, ele claramente supera o ChatGPT da OpenAI e o Anthropics Claude.

No entanto, ele fica atrás do GPT-4 no C-Eval, uma plataforma que avalia o desempenho de grandes modelos de linguagem em chinês. O InternLM foi treinado com 1,6 trilhão de tokens e, assim como o GPT-4, foi refinado para atender às necessidades humanas usando RLHF e exemplos selecionados. Ele é baseado em uma arquitetura de transformer semelhante à do GPT.

if(typeof ez_ad_units != ‘undefined’){ez_ad_units.push([[728,90],’andrelug_com-medrectangle-3′,’ezslot_8′,112,’0′,’0′])};__ez_fad_position(‘div-gpt-ad-andrelug_com-medrectangle-3-0’);

melhores no c-eval
Com A Chegada Do Internlm, Modelo De Linguagem Da China, A Corrida Por Avanços Em Inteligência Artificial Se Acirra. 2

O treinamento foi baseado principalmente em dados do Massive Web Text, enriquecido com enciclopédias, livros, artigos científicos e código. Os pesquisadores também desenvolveram o sistema de treinamento Uniscale LLM, capaz de treinar de forma confiável grandes modelos de linguagem com mais de 200 bilhões de parâmetros em 2048 GPUs usando um conjunto de técnicas de treinamento paralelo.

O InternLM alcança um desempenho equivalente ao ChatGPT em benchmarks de exames
Em benchmarks com tarefas que simulam exames humanos, como MMLU, AGIEval, C-Eval e GAOKAO Bench, o InternLM também atinge um desempenho comparável ao ChatGPT. No entanto, ele fica aquém do GPT-4, o que os pesquisadores atribuem à pequena janela de contexto de apenas 2000 tokens.

Em outras áreas, como recuperação de conhecimento, o modelo fica atrás dos melhores modelos da OpenAI. Modelos de linguagem de código aberto populares, como o LLaMA da Meta com 65 bilhões de parâmetros, têm um desempenho inferior ao do InternLM nos benchmarks.

if(typeof ez_ad_units != ‘undefined’){ez_ad_units.push([[250,250],’andrelug_com-medrectangle-4′,’ezslot_7′,113,’0′,’0′])};__ez_fad_position(‘div-gpt-ad-andrelug_com-medrectangle-4-0’);

resultados preliminares do modelo
Com A Chegada Do Internlm, Modelo De Linguagem Da China, A Corrida Por Avanços Em Inteligência Artificial Se Acirra. 3

A equipe ainda não publicou o modelo de linguagem, até o momento, apenas a documentação técnica está disponível. No entanto, a equipe escreve no Github que planeja compartilhar mais com a comunidade no futuro, sem fornecer detalhes.

Independentemente disso, o InternLM oferece uma visão interessante do estado atual da pesquisa chinesa em modelos de linguagem em grande escala, presumindo que o Laboratório Nacional de IA e a SenseTime tenham feito o seu melhor trabalho até o momento. “Em direção a um nível mais elevado de inteligência, ainda há um longo caminho a percorrer”, escreve a equipe de pesquisa.

Fonte: Andre Lug

Sobre o autor

Avatar de Fábio Neves

Fábio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo