Discord recorre ao reconhecimento facial na repressão à segurança infantil

A plataforma de mensagens Discord anunciou na segunda-feira, 9 de fevereiro, que implementará recursos de segurança aprimorados para usuários adolescentes em todo o mundo, incluindo reconhecimento facial, juntando-se a uma onda de empresas de mídia social que estão lançando sistemas de verificação de idade.

O lançamento, a partir do início de março, tornará as configurações apropriadas para adolescentes o padrão para todos os usuários, com os adultos precisando verificar sua idade para afrouxar as proteções, incluindo filtros de conteúdo e proibições de mensagens diretas, disse a empresa.

A plataforma com sede em São Francisco, popular entre os jogadores, usará tecnologia de estimativa de idade facial e verificação de identidade por meio de fornecedores parceiros para determinar a idade dos usuários.

O software de rastreamento executado em segundo plano também ajudará a determinar a idade dos usuários, sem sempre exigir verificação direta.

“Em nenhum lugar nosso trabalho de segurança é mais importante do que quando se trata de usuários adolescentes”, disse Savannah Badalich, chefe de política de produtos do Discord.

Discord insistiu que as medidas vêm com proteções de privacidade, dizendo que os vídeos selfies para estimativa de idade nunca saem dos dispositivos dos usuários e que os documentos de identidade enviados são excluídos rapidamente.

A plataforma disse que testou com sucesso as medidas na Grã-Bretanha e na Austrália no ano passado, antes de se expandir para todo o mundo.

Leia mais Somente assinantes Agência de saúde francesa alerta sobre riscos das redes sociais para adolescentes

Intenso escrutínio sobre a segurança infantil

A medida segue-se a ações semelhantes de rivais que enfrentam um intenso escrutínio sobre a segurança infantil e segue-se a uma proibição australiana de menores de 16 anos utilizarem as redes sociais, que está a ser duplicada noutros países.

O recurso ao reconhecimento facial e outras tecnologias aborda a realidade de que a idade autodeclarada se revelou pouco fiável, com os menores a mentirem rotineiramente sobre as suas datas de nascimento para contornar as medidas de segurança da plataforma.

A plataforma de jogos Roblox começou em janeiro a exigir verificação de idade facial globalmente para todos os usuários acessarem recursos de bate-papo, depois de enfrentar vários processos judiciais alegando que a plataforma permitia comportamento predatório e exploração infantil.

A Meta, proprietária do Instagram e do Facebook, implantou métodos baseados em IA para determinar a idade e introduziu “Contas de adolescentes” com restrições automáticas para usuários menores de 18 anos. A empresa de Mark Zuckerberg removeu mais de 550.000 contas de menores de idade somente na Austrália em dezembro, antes da proibição de mídia social para menores de 16 anos naquele país.

Leia mais Somente assinantes Proibição de redes sociais para menores de 15 anos: o que sabemos sobre o plano do governo francês

O TikTok implementou limites diários de tempo de tela de 60 minutos para usuários menores de 18 anos e cortes de notificação com base em faixas etárias.

A mudança em toda a indústria ocorre num momento em que metade dos estados dos EUA promulgou ou introduziu legislação que envolve regulamentação das redes sociais relacionada com a idade, embora os tribunais tenham bloqueado muitas das restrições por motivos de liberdade de expressão.

As mudanças ocorrem no mesmo dia em que começa em Los Angeles um julgamento na Califórnia sobre o vício em mídias sociais para crianças, com os demandantes alegando que as plataformas Meta e YouTube foram projetadas para viciar menores.

Le Monde com AFP

Fonte: Le Monde

Compartilhe este artigo