‘Imagens geradas pela AI de vítimas de abuso sexual infantil’ sofrimento ‘

TO que há anos atrás, quando os infratores começaram a usar a inteligência artificial (IA) para gerar imagens de crianças sendo abusadas sexualmente, as imagens encontradas pela Internet Watch Foundation (IWF) ainda eram grosseiras, mesmo que sua crueldade não fosse menos perturbadora a das imagens tradicionais.

Desde então, a ameaça cresceu de forma considável. Graças aos rápidos avanços da tecnologia, o conteúdo mais condenatório da IA, agora pode ser visualizável de imagens e vídeos reais. Essa situação é ainda mais alarmante, porque eles podem ser produzidos em uma escala e velocidade surpreendentes. Um único prompt pode gerar pelo menos 50 imagens, cada uma com apenas 20 segundos para criar. Além disso, essa tecnologia é amplamente acessível, permitindo que quase qualquer pessoa crie secretamente conteúdo de alta qualidade e profundamente perturbador.

Em algumas caixas, imagens existentes que descrevem crianças sendo abusadas sexualmente foram usadas para treinar modelos de IA, incorporando o trauma real ao conteúdo artificial. Isso permite que os predadores manipulem imagens de abuso real para seguir suas fantasias e preferenidades. Como resultado, o sofrimento da vítima é prolongado, pois essas novas versões podem ser compartilhadas sem parar.

Novas avenidas para predadores

A pesquisa mostrou que existe um vínculo real e inegável entre visualizar material de abuso sexual infantil e cometer ofensas. Um estudo realizado entre os usuários da Web Dark descobriu que 40% dos infratores relataram que veriam entrar em contato com uma criança de verdade depois de ter uma imagem de alguma forma de violência sexual.

Leia mais Apenas assinantes Surre em imagens de abuso sexual infantil geradas por A-AI Alarmes Grupos de defesa e investigadores

Ao investigar um fórum da Web Dark, os analistas da IWF descobriram que mais da metade das imagens de abuso sexual infantil geradas pela IA retratavam filhos de idade escolar primária (7 a 10 anos); 143 imagens mostraram crianças de 3 a 6 anos; e dois bebês retratados. Mais de 20% deles foram classificados como categoria A sob a lei do Reino Unido – a mais severa, envolvendo estupro, tortura ou bestialidade.

A IA também está abrindo novos caminhos para os predadores abordarem as crianças e extorquê -las. Os analistas da IWF encontraram um “manual” para extorquir sexual explicando como coagir as crianças a produzir imagens, sugerindo o uso da IA ​​para falsificar visuais e aprisionar a vítima. Em algumas caixas, as próprias crianças correm o risco de se tornar criminosas usando ferramentas de IA para criar conteúdo que pode “não secar” seus colegas.

Você tem 37,5% deste artigo para ler. O resto é apenas para assinantes.

Fonte: Le Monde

Compartilhe este artigo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *