As preocupações com a privacidade são importantes, ele disse, “mas isso não significa que as organizações devem evitar grandes modelos de idiomas.
St-Maurice apontou que, nesses cenários, “o LLM funciona estritamente como um processador, como a CPU do seu laptop. Ele não ‘se lembra’ de ‘nada que você não armazena e volte para ele. você Mantenha o controle sobre a memória, armazenamento de dados e histórico de usuários. Você não precisa do OpenAI ou Google para desbloquear o valor do LLMS; hospede seus próprios modelos internos e reduza completamente o risco de exposição de dados de terceiros. ”
O que as pessoas não entendem, acrescentou Zayas, de Ironwall: “é que toda essa informação não está sendo sugada, mas está sendo reaproveitada, está sendo reutilizada. Está sendo divulgada por aí e será usada contra você”.
Fonte: Computer World











