Tecnologia

ReWOO: Novo algoritmo aprimora a eficiĂȘncia de modelos de linguagem aumentada

2025 word1
Grupo do Whatsapp CuiabĂĄ

Modelos de linguagem com acesso a ferramentas, chamados de modelos de linguagem aumentada, tĂȘm potencialmente muitas mais capacidades do que os modelos de linguagem nativos. O mĂ©todo ReWOO pode tornĂĄ-los muito mais eficientes.

Atualmente, o exemplo mais proeminente de um modelo de linguagem aumentada é o ChatGPT com navegadores da Internet ou plugins. Graças a essas ferramentas, o ChatGPT pode, por exemplo, obter informaçÔes atuais ou resolver tarefas computacionais de forma confiåvel.

O mĂ©todo ReWOO (Reasoning Without Observation) tem como objetivo contribuir para a eficiĂȘncia desses modelos aumentados. No teste HotpotQA, um benchmark de raciocĂ­nio lĂłgico em vĂĄrios nĂ­veis, ele alcançou um aumento de quatro por cento na precisĂŁo com cinco vezes menos consumo de tokens.

O ReWOO alcança isso desacoplando o raciocínio do modelo de linguagem do acesso às ferramentas. Como resultado, os tokens do prompt precisam ser passados para a ferramenta apenas uma vez em vez de vårias vezes.

Acesso Ă s ferramentas otimizado para eficiĂȘncia

Atualmente, os modelos de linguagem acessam as ferramentas chamando-as, passando a solicitação, aguardando a resposta, aceitando-a e depois continuando a gerar ao longo da resposta. O modelo executa, para, executa, para, e assim por diante. Isso leva tempo e poder de processamento, além de exigir o envio de tokens do prompt para a ferramenta vårias vezes.

O ReWOO torna esse processo mais eficiente usando um módulo de planejamento que permite que o modelo de linguagem antecipe o raciocínio e defina onde as ferramentas são necessårias na resposta. O modelo, então, gera todas as subtarefas com todas as perguntas e o texto completo, mesmo que as informaçÔes das ferramentas ainda não estejam disponíveis.

The Rewoo framework. | Imagem: Binfeng Xu et al.
The Rewoo Framework. | Imagem: Binfeng Xu Et Al.

De forma simplificada, isso pode ser comparado a um texto com lacunas que Ă© preenchido com informaçÔes das ferramentas em uma Ășnica etapa. De acordo com os autores, os grandes modelos de linguagem prĂ©-treinados tĂȘm conhecimento suficiente sobre a “forma” das respostas das ferramentas para permitir esse tipo de antecipação.

Como o modelo de linguagem armazena as consultas à ferramenta como subtarefas e as faz apenas uma vez e diretamente com todas as perguntas, o processo de geração não precisa ser interrompido e reiniciado vårias vezes.

Esse processamento em “lote” das tarefas das ferramentas economiza poder de processamento, tornando os modelos de linguagem aumentada mais eficientes. Em particular, modelos pequenos podem produzir resultados de maior qualidade por meio desse uso eficiente e baseado em planejamento das ferramentas. A conclusĂŁo dos pesquisadores Ă©: “Planejamento Ă© tudo o que vocĂȘ precisa” – uma referĂȘncia ao lendĂĄrio artigo “Attention is all you need” sobre os Transformers.

Os pesquisadores fornecem um modelo de planejamento ReWOO baseado no Alpaca 7B e os conjuntos de dados usados para treinamento estĂŁo disponĂ­veis no Github.

Fonte: Andre Lug

Sobre o autor

Avatar de FĂĄbio Neves

FĂĄbio Neves

Jornalista DRT 0003133/MT - O universo de cada um, se resume no tamanho do seu saber. Vamos ser a mudança que, queremos ver no Mundo