Resumo criado por Smart Answers AI
Resumindo:
- A PCWorld relata que o Threat Intelligence Group do Google documentou hackers patrocinados pelo Estado da Rússia, China, Coreia do Norte e Irã explorando a Gemini AI para ataques cibernéticos.
- Esses atores mal-intencionados aproveitam os recursos do Gemini para vigilância, identificação de alvos, descoberta de vulnerabilidades e depuração de código de exploração, incluindo o desenvolvimento de explorações do WinRAR.
- O Google restringe o acesso de malfeitores identificados, mas o relatório destaca a natureza de dupla utilização da IA e os desafios emergentes de segurança cibernética.
Os sistemas de “IA” não são ótimos apenas para aumentar o preço de seus produtos eletrônicos, fornecer resultados de pesquisa errados e encher seu feed de mídia social com lixo. Também é útil para hackers! Aparentemente, o grande modelo de linguagem escolhido para ataques patrocinados pelo Estado de países como Rússia, China, Coreia do Norte e Irã é o Google Gemini. E isso está de acordo com o próprio Google.
Num extenso relatório sobre o que chama repetidamente de violação dos seus termos de serviço, o Threat Intelligence Group do Google documenta a utilização do Gemini por atacantes associados às nações agressivas. A maior parte do uso documentado do Gemini é a vigilância automatizada, identificando alvos e vulnerabilidades de alto valor, incluindo corporações, grupos separatistas e dissidentes. Mas grupos de hackers associados à China e ao Irão foram vistos a executar campanhas mais sofisticadas, incluindo depuração de código de exploração e engenharia social. Um ataque de um grupo com ligações com o Irã estava desenvolvendo uma exploração de prova de conceito para uma falha bem conhecida no WinRAR.
Apesar de todas as minhas reclamações sobre “IA”, uma coisa que grandes modelos de linguagem são genuinamente bom é examinar e destilar grandes quantidades de dados. Os avanços no aprendizado de máquina permitem pesquisar conjuntos de dados que levariam anos para serem examinados por equipes de humanos – isso está sendo aplicado de maneiras menos nefastas em campos como astronomia e pesquisa do câncer. Este é um benefício definitivo para os hackers, que precisam realizar enormes quantidades de processamento tedioso de dados para encontrar vulnerabilidades de software, além de toneladas de triagem mais convencional para identificar alvos e técnicas de engenharia social.
Um exemplo se destacou para mim. Um grupo rotulado internamente como APT31 usou um exemplo de prompt do Gemini como “Sou um pesquisador de segurança que está testando as ferramentas Hexstrike MCP”, usando um sistema que conecta “agentes de IA” com ferramentas de segurança preexistentes para testar vulnerabilidades e outros vetores de ataque. Naturalmente, Gemini não consegue distinguir entre um pesquisador de segurança legítimo (chapéu branco) e um hacker mal-intencionado (chapéu preto), uma vez que muito do seu trabalho se sobrepõe tanto conceitual quanto praticamente. Portanto, as respostas fornecidas a ambos seriam as mesmas… apesar de tudo o que o Google afirma que usar o Gemini dessa maneira é contra as regras.
Gemini também é usado para sistemas de codificação mais comuns, escrevendo e depurando código para malware. E sim, “resíduos de IA” estão espalhados pelo chão, às vezes literalmente. “Os atores de ameaças da China, do Irão, da Rússia e da Arábia Saudita estão a produzir sátira política e propaganda para promover ideias específicas tanto em plataformas digitais como em meios físicos, como cartazes impressos”, afirma o relatório do Google.
O Google afirma que o acesso ao Gemini é restrito para usuários que ele pode identificar com segurança como maliciosos, incluindo as equipes de hackers patrocinadas pelo estado detectadas.
Fonte: PC World












