Chris Hoffman, fundição
Os contras da visão copilota
Além disso, a Experiência da Microsoft Copilot Vision AI tem alguns dos mesmos limites que qualquer AI Chatbot no momento. Ele deseja validar você, o usuário. Pode acenar com a cabeça, mesmo se você entender algo errado. Por exemplo, aqui está uma interação rápida que eu tive:
“Como faço para desenhar algo na palavra?”
“Para desenhar no Word, você iria para a guia ‘Draw’ na fita …”
“Ok, então está na guia Layout, certo?”
“Isso está correto!”
“Não, estava sob a guia Draw.”
“MM-HM.”
Este não é um ataque aos chatbots da IA em geral, o modelo GPT subjacente do OpenAI ou copilote. É apenas uma limitação da tecnologia – pelo menos no momento. Ao interagir com copilot, chatgpt ou qualquer outro LLM, você precisa ficar alerta e questionar o que está ouvindo.
As limitações reais com os modos de voz da AI
Embora os modos de voz possam parecer mais “futuristas” do que as interações LLM baseadas em texto, as interações baseadas em texto são simplesmente melhores e mais ricas no momento. Primeiro de tudo, essa experiência baseada em voz está apenas dependendo do texto. Sob o capô, as coisas que você está dizendo estão sendo convertidas em texto, e o LLM está emitindo texto que está sendo falado em voz alta por um processo diferente. Isso é crucial para entender: o LLM Não consigo ouvir nenhum tom emocional que você tem em sua voz. Além disso, enquanto a voz do copiloto que você ouve pode parecer ter um tom emocional, que está sendo inserido pelo processo de texto em fala após a produção do LLM.
Fonte: Computer World