Redatora
Publicado em 10 de março de 2025 às 16h34.
Pesquisadores da Zoom Communications desenvolveram um novo método para treinar modelos de inteligência artificial com menos texto, mantendo a mesma precisão das abordagens tradicionais. A técnica usou apenas 7,6% do volume de texto normalmente requerido, ao reduzir a verbosidade e focar em informações essenciais.
O método tradicional, conhecido como Cadeia de Pensamento (Chain of Thought - CoT), faz com que a IA resolva tarefas complexas de forma detalhada, passo a passo. Já a nova abordagem, chamada de Cadeia de Rascunho (Chain of Draft - CoD), simula o raciocínio humano ao gerar respostas concisas, capturando apenas os elementos mais relevantes.
Segundo os pesquisadores, o CoD melhora a eficiência dos modelos ao gerar saídas mais minimalistas, resultando em menor consumo computacional e maior velocidade. Os resultados foram publicados na plataforma Arxiv e os dados, junto com o código, estão disponíveis no GitHub.
Atualmente, gigantes da tecnologia como Amazon, Google, Anthropic e OpenAI utilizam o CoT para estruturar o raciocínio de IA em tarefas complexas. No entanto, esse modelo exige grande capacidade computacional, o que eleva os custos e limita a escalabilidade de sistemas avançados.