Modelos de linguagem com acesso a ferramentas, chamados de modelos de linguagem aumentada, tĂȘm potencialmente muitas mais capacidades do que os modelos de linguagem nativos. O mĂ©todo ReWOO pode tornĂĄ-los muito mais eficientes.
Atualmente, o exemplo mais proeminente de um modelo de linguagem aumentada é o ChatGPT com navegadores da Internet ou plugins. Graças a essas ferramentas, o ChatGPT pode, por exemplo, obter informaçÔes atuais ou resolver tarefas computacionais de forma confiåvel.
O mĂ©todo ReWOO (Reasoning Without Observation) tem como objetivo contribuir para a eficiĂȘncia desses modelos aumentados. No teste HotpotQA, um benchmark de raciocĂnio lĂłgico em vĂĄrios nĂveis, ele alcançou um aumento de quatro por cento na precisĂŁo com cinco vezes menos consumo de tokens.
O ReWOO alcança isso desacoplando o raciocĂnio do modelo de linguagem do acesso Ă s ferramentas. Como resultado, os tokens do prompt precisam ser passados para a ferramenta apenas uma vez em vez de vĂĄrias vezes.
Acesso Ă s ferramentas otimizado para eficiĂȘncia
Atualmente, os modelos de linguagem acessam as ferramentas chamando-as, passando a solicitação, aguardando a resposta, aceitando-a e depois continuando a gerar ao longo da resposta. O modelo executa, para, executa, para, e assim por diante. Isso leva tempo e poder de processamento, além de exigir o envio de tokens do prompt para a ferramenta vårias vezes.
O ReWOO torna esse processo mais eficiente usando um mĂłdulo de planejamento que permite que o modelo de linguagem antecipe o raciocĂnio e defina onde as ferramentas sĂŁo necessĂĄrias na resposta. O modelo, entĂŁo, gera todas as subtarefas com todas as perguntas e o texto completo, mesmo que as informaçÔes das ferramentas ainda nĂŁo estejam disponĂveis.

De forma simplificada, isso pode ser comparado a um texto com lacunas que Ă© preenchido com informaçÔes das ferramentas em uma Ășnica etapa. De acordo com os autores, os grandes modelos de linguagem prĂ©-treinados tĂȘm conhecimento suficiente sobre a âformaâ das respostas das ferramentas para permitir esse tipo de antecipação.
Como o modelo de linguagem armazena as consultas à ferramenta como subtarefas e as faz apenas uma vez e diretamente com todas as perguntas, o processo de geração não precisa ser interrompido e reiniciado vårias vezes.
Esse processamento em âloteâ das tarefas das ferramentas economiza poder de processamento, tornando os modelos de linguagem aumentada mais eficientes. Em particular, modelos pequenos podem produzir resultados de maior qualidade por meio desse uso eficiente e baseado em planejamento das ferramentas. A conclusĂŁo dos pesquisadores Ă©: âPlanejamento Ă© tudo o que vocĂȘ precisaâ â uma referĂȘncia ao lendĂĄrio artigo âAttention is all you needâ sobre os Transformers.
Os pesquisadores fornecem um modelo de planejamento ReWOO baseado no Alpaca 7B e os conjuntos de dados usados para treinamento estĂŁo disponĂveis no Github.
Fonte: Andre Lug