Além de ser mais simples de implantar e personalizar, os modelos menores de IA são até 30 vezes mais baratos do que o LLMS mais convencional, disse ele.
Assim como o custo de armazenamento e computação caiu dramaticamente desde os anos 90, a tecnologia de IA também se tornará significativamente mais barata com o tempo, disse Krishna. “Por isso, você pode jogar (ai) com muito mais problemas”, disse ele. “Não há lei na ciência da computação que diga que a IA deve permanecer cara e grande. Esse é o desafio de engenharia que estamos enfrentando”.
Krishna destacou a família de granito de IBM de modelos de IA de código aberto-modelos menores com entre 3 bilhões e 20 bilhões de parâmetros-e como eles se comparam ao LLMS como o GPT-4, que possui mais de 1 trilhão de parâmetros. (Openai, Meta e outros criadores de modelos de IA também estão focados na criação de modelos “mini” de suas plataformas maiores, como GPT O3 e GPT O4 Mini e Llama 2 e Llama 3, todos relatados como tendo 8 bilhões ou menos parâmetros.
Fonte: Computer World












