“A janela de contexto multimilionária da Nvidia é um marco impressionante de engenharia, mas para a maioria das empresas, é uma solução em busca de um problema”, disse Wyatt Mayham, CEO e co-fundador da Northwest AI Consulting. “Sim, ele aborda uma limitação real em modelos existentes, como raciocínio de longo prazo e escala quadrática, mas há uma lacuna entre o que é tecnicamente possível e o que é realmente útil”.
O paralelismo da helix ajuda a corrigir o grande problema de memória da LLMS
Os grandes modelos de idiomas (LLMs) ainda lutam para se manter focado em contextos ultra-longos, apontam os especialistas.
“Por um longo tempo, os LLMs foram gargalos por janelas de contexto limitado, forçando-as a” esquecer “informações anteriores em tarefas ou conversas longas”, disse Justin St-Maurice, conselheiro técnico do Info-Tech Research Group.
Fonte: Computer World