Todos os óculos do Google rodarão no sistema operacional Android XR, que estreou no fone de ouvido Samsung Galaxy XR em outubro.
Crucialmente, os óculos do Google serão baseados no modelo Gemini AI da empresa, que atualmente é um modelo muito melhor que o Meta AI. O Gemini pode ser a maior vantagem do Google, juntamente com o profundo conhecimento contextual das pessoas que usam o Gmail, o Google Fotos, o Google Docs, o Tasks, o Notes e outros produtos do Google.
O Google também possui serviços líderes do setor que poderiam melhorar os óculos do Google: Google Translate e Google Maps, por exemplo. No anúncio, o Google demonstrou um recurso de tradução em tempo real disponível por meio de legendas na tela ou por meio de tradução de áudio pelos alto-falantes. Como usuário do recurso Live Translate do Ray-Ban Meta, posso dizer que as legendas são muito melhores, porque as traduções de áudio geralmente são reproduzidas quando você ou a outra pessoa estão falando, então você entende ainda menos do que sem a tradução.
Fonte: Computer World










