Com novos sistemas de IA, surgem novas vulnerabilidades de IA, e uma grande foi descoberta. É uma falha no método da Microsoft de permitir que os agentes interajam com sites em seu nome.
A Microsoft chama essa técnica NLWeb, que é uma espécie de HTML para agentes de IA. A empresa revelou isso em sua conferência de construção nesta primavera e, desde então, se inclinou para essa visão com um modo de copiloto experimental para o navegador de borda. (A Microsoft não confirmou se usa o NLWeb para isso.)
O pesquisador Aonan Guan, no entanto, descobriu uma vulnerabilidade no NLWeb: um bug de travessia de caminho que permite que qualquer usuário remoto leia arquivos sensíveis, como configurações do sistema e credenciais de nuvem por meio de um URL malformado.
Em um post médio, Guan mostrou como ele conseguiu baixar uma lista das senhas do sistema junto com o Google Gemini e o Openai Keys. Isso permitiria que um invasor executasse aplicativos de IA adicionais dependentes do servidor “GRATUITAMENTE”, sem ser cobrado pelo OpenAI.
Segundo Guan, o Centro de Resposta de Segurança da Microsoft empurrou um patch para o repositório do GitHub em junho, confirmando que o problema foi corrigido. A Microsoft não emitiu um relatório oficial do patch. Os usuários, no entanto, não precisam tomar nenhuma ação.
É justo dizer que o desenvolvimento da IA prosseguiu em velocidade vertiginosa. Mas, como Guan aponta, a linha entre conversar com uma IA e a emissão de comandos de TI pode desfocar.
“A própria natureza do NLWeb é interpretar a linguagem natural”, disse Guan. “Isso obscurece a linha entre os comandos de entrada do usuário e os comandos do sistema. Vetores de ataque futuros podem envolver a elaboração de frases que, quando analisadas por um agente, se traduzem em caminhos ou ações maliciosas de arquivos.”
Já vimos interações com chatgpt vazando nos resultados de pesquisa do Google. (O ChatGPT agora desligou a bandeira que torna os bate -papos descobertos no chatgpt.) Como Guan (e a Verge, que relataram a história) observam, vazamentos de tal magnitude em um agente de IA podem ser catastróficos para todos os envolvidos.
Fonte: PC World