Resumo criado por Smart Answers AI
Resumindo:
- PCWorld relata um bug crítico do Microsoft Copilot (CW1226324) que permite à IA verificar e resumir e-mails confidenciais do Outlook, ignorando as proteções de privacidade.
- Esta vulnerabilidade afeta contas do Microsoft 365 e compromete dados confidenciais, como contratos e informações médicas armazenadas nas pastas Enviados e Rascunhos.
- A Microsoft está lançando uma correção, mas o cronograma ainda não está claro, levantando preocupações significativas sobre a confiabilidade da IA e a proteção da privacidade dos dados.
Apesar de toda a sua suposta inteligência, a “IA” parece cometer muitos erros estúpidos – por exemplo, verificar e resumir e-mails marcados como “confidenciais” no Microsoft Outlook. Esse é o problema mais recente do assistente Copilot da Microsoft, de acordo com um relatório de bug da própria Microsoft.
O Copilot Chat em contas do Microsoft 365 é capaz de ler e resumir e-mails nas pastas Enviados e Rascunhos do Outlook, mesmo que estejam marcados como confidenciais… uma marca projetada especificamente para manter as ferramentas automatizadas afastadas. BleepingComputer resume o problema denominado “CW1226324” e diz que uma correção está sendo implementada nas contas afetadas. Não há cronograma para quando a correção estará disponível para todos os usuários. (Infelizmente, o relatório completo não está disponível para visualização pelo público em geral – você precisa de privilégios de administrador do Microsoft 365 apenas para vê-lo.)
O problema é, como você pode imaginar, alarmante. O recurso confidencial do Outlook é frequentemente usado para contratos comerciais, correspondência jurídica, investigações governamentais ou policiais e informações médicas pessoais. É o tipo de coisa que você absolutamente não deseja que seja escaneado por um grande modelo de linguagem e, definitivamente, não seja sugado por seus dados de treinamento, como costuma acontecer.
A Microsoft não informa quantos usuários serão afetados, mas afirma que “o escopo do impacto pode mudar” à medida que investiga o problema. Que reconfortante. Isso realmente fará com que as pessoas comecem a usar o Copilot, certo?
Fonte: PC World













