O Dr. Robert H. Lustig é endocrinologista, professor emérito de pediatria na Universidade da Califórnia, em São Francisco, e autor de livros best-sellers sobre obesidade.
Ele definitivamente não está — apesar do que você possa ver e ouvir no Facebook — vendendo “pérolas líquidas” com promessas duvidosas de perda de peso. “Sem injeções, sem cirurgia, só resultados”, é o que parece dizer em uma publicação.
Na verdade, alguém usou inteligência artificial para criar um vídeo que imita ele e sua voz — tudo isso sem o seu conhecimento, muito menos consentimento.
FERRAMENTA GRATUITA
Simulador da XP
Saiba em 1 minuto quanto seu dinheiro pode render
Essas publicações fazem parte de uma onda global de fraudes que sequestram a imagem online de profissionais médicos renomados para vender produtos de saúde não comprovados ou simplesmente enganar consumidores desavisados, segundo médicos, autoridades governamentais e pesquisadores que acompanham o problema.
Embora a área da saúde sempre tenha atraído charlatanismo, as ferramentas de IA desenvolvidas pelas grandes empresas de tecnologia estão permitindo que os responsáveis por essas imitações alcancem milhões de pessoas na internet — e lucrem com isso. O resultado é a disseminação de desinformação, a perda de confiança na profissão e o possível risco à saúde dos pacientes.
Mesmo que os produtos não sejam perigosos, vender suplementos inúteis pode criar falsas esperanças em pessoas que deveriam estar recebendo o tratamento médico adequado.
Continua depois da publicidade
“Tem tantas coisas erradas nisso tudo”, disse Lustig — o verdadeiro — em entrevista, quando foi informado sobre as imitações. Essa foi a primeira vez que ele soube do caso.
A FDA (órgão similar à Anvisa nos EUA) e outras agências governamentais, além de grupos de defesa e órgãos de fiscalização privados, intensificaram os alertas sobre produtos de saúde falsificados ou fraudulentos na internet, mas parecem ter feito pouco para conter o avanço.
Os avanços das ferramentas de IA facilitaram a criação de conteúdos convincentes e sua disseminação em redes sociais e sites de comércio eletrônico, que muitas vezes não aplicam suas próprias políticas contra fraudes.
Continua depois da publicidade
Hoje, existem centenas de ferramentas capazes de recriar a imagem e a voz de alguém, disse Vijay Balasubramaniyan, CEO da Pindrop, empresa que monitora usos enganosos de IA. A tecnologia está tão avançada que golpistas podem criar impostores convincentes a partir de poucos vídeos ou fotos.
“Eu posso criar um bot de IA que se pareça com você e tenha conversas completas só com base no seu perfil do LinkedIn”, afirmou.
A Dra. Gemma Newman, médica de família na Inglaterra e autora de dois livros sobre nutrição e saúde, usou o Instagram em abril para alertar seus seguidores sobre um vídeo no TikTok que havia sido alterado para parecer que ela promovia cápsulas de vitamina B12 e 9 mil miligramas de “beterraba pura e rica em nutrientes”.
Continua depois da publicidade
Newman ficou horrorizada: sua imagem estava promovendo um suplemento que, em doses elevadas, poderia ser prejudicial, explorando as inseguranças das mulheres — sugerindo que as pílulas poderiam fazê-las “se sentirem desejáveis, admiradas e confiantes”.
O vídeo era tão realista que até a própria mãe dela acreditou que fosse ela.
“É uma dupla traição, porque minha imagem está ali, apoiando algo em que eu não acredito”, disse.
Continua depois da publicidade
A imitação de profissionais da saúde vai além dos suplementos não comprovados.
O Dr. Eric Topol, cardiologista e fundador do Scripps Research Translational Institute em San Diego, descobriu dezenas de supostas versões de IA do seu livro mais recente na Amazon. Um de seus pacientes comprou sem saber uma autobiografia falsa, com um retrato gerado por IA de Topol na capa.
Christopher Gardner, cientista da nutrição em Stanford, recentemente descobriu que era o rosto involuntário de pelo menos seis canais no YouTube, incluindo um chamado “Nutrient Nerd”.
Continua depois da publicidade
Juntos, esses canais têm centenas de vídeos, muitos narrados por uma versão gerada por IA da voz de Gardner. A maioria dos vídeos é direcionada a idosos e oferece conselhos que ele não apoia, tratando de problemas como dor da artrite e perda muscular. Essas imitações podem ser uma tentativa de construir seguidores suficientes para participar de programas que dividem receita de anúncios.
A proliferação desses conteúdos falsos fez com que os conselhos tradicionais sobre como encontrar informações confiáveis de saúde na internet parecessem ultrapassados, disse a Dra. Eleonora Teplinsky, oncologista que encontrou impostores no Facebook, Instagram e TikTok.
“Isso mina tudo o que dizemos às pessoas sobre como identificar desinformação online: são pessoas reais? Têm página de hospital? Como saberiam que não sou eu?”, questionou.
Gardner disse estar preocupado com a quantidade de desinformação sobre nutrição na internet. Ele tem sido ativo nas redes sociais e participado de podcasts para esclarecer os fatos.
Agora, Gardner se pergunta se esses esforços não acabaram sendo usados contra ele — fornecendo uma biblioteca de gravações para imitá-lo. Experiências como a dele podem desestimular outros especialistas a participar de conversas online, disse. “Assim, as vozes confiáveis serão ainda mais abafadas.”
Gardner e um representante de Stanford passaram horas denunciando os vídeos ao YouTube e às autoridades federais. Também comentaram nos vídeos alertando que eram falsificações, mas a maioria dos comentários foi deletada em menos de um minuto.
Um porta-voz do YouTube, Jack Malon, disse ao The New York Times que a plataforma removeu “vários canais” por violar suas políticas contra spam. O TikTok afirmou em nota que não permite a maioria das imitações, mas não comentou sobre o vídeo da Newman.
Outros médicos, sem sucesso nas denúncias, recorreram a medidas mais desesperadas para derrubar as páginas falsas.
Após várias denúncias e uma carta legal ameaçadora ignoradas pela Meta — dona do Facebook –, a Dra. Tiffany Troso-Sandoval, oncologista que administra páginas educativas sobre cânceres femininos, pagou cerca de 260 dólares a alguém no Fiverr, mercado online de serviços, que prometeu tirar do ar uma página falsa no Facebook. Não funcionou.
A marca de suplemento que usou a imagem de Lustig no Facebook também criou posts falsos em vários outros países, incluindo com médicos reais na Austrália e Irlanda.
O alcance geográfico mostra que se trata de uma operação grande e sofisticada, que vem se tornando uma ameaça para marcas no mundo todo, disse Yoav Keren, CEO da BrandShield, empresa israelense de cibersegurança que descobriu o esquema.
A campanha, que parece ter começado no final do ano passado, aproveitava a popularidade de uma classe de medicamentos chamados GLP-1, que revolucionaram o tratamento do diabetes, obesidade e doenças relacionadas. O produto anunciado se chamava Peaka, que parecia ser cápsulas líquidas. (As únicas formas aprovadas de GLP-1 disponíveis atualmente são injeções.)
Eles são vendidos em sites temporários registrados em Hong Kong, disse Keren, mas quem está por trás disso ainda é desconhecido.
Apesar da origem incerta e da propaganda falsa, o produto esteve disponível para compra em grandes plataformas de comércio eletrônico, como Amazon e Walmart, e aparecia em buscas do Google como produto patrocinado. (A Amazon começou a removê-lo após contato do Times. O Walmart afirmou que o produto não é vendido em suas lojas, mas vendedores terceiros, violando as políticas da varejista, comercializavam o produto no site; esses vendedores foram removidos.)
Além de imitar médicos, a campanha usava logos de agências regulatórias e grupos de defesa de vários países, como México, Noruega, Reino Unido, Canadá e Nova Zelândia, dando a falsa impressão de aprovação oficial, segundo a BrandShield. Nos EUA, os grupos incluíam a Obesity Society, cujo site agora exibe um alerta sobre o que chamam de “golpe de comércio eletrônico”.
A Dra. Caroline Apovian, codiretora do centro de controle de peso e bem-estar do Brigham and Women’s Hospital e professora da Harvard Medical School, descobriu que havia se tornado uma divulgadora involuntária do Peaka quando pacientes começaram a mandar mensagens perguntando sobre o que parecia ser sua “aprovação” no Facebook.
Apovian e colegas encontraram 20 contas que a imitavam, com posts e anúncios montados a partir de detalhes reais e fotos de seus perfis no Facebook e LinkedIn. Ela chamou a campanha de “traiçoeira e perigosa”.
Usuários do Facebook levantaram dúvidas sobre o produto nos comentários das postagens falsas ou em grupos dedicados à perda de peso. Alguns alertavam que o produto não era o que dizia ser. Uma mulher que comprou o produto perguntou à falsa Apovian sobre a dosagem, já que não estava clara na embalagem.
Cam Carter, que mora perto de Victoria, na Austrália, disse que o Peaka alegava ser fabricado na Austrália, mas as três caixas que comprou por cerca de 45 dólares australianos chegaram da China. Ele também foi cobrado a mais no PayPal e teve que correr atrás para receber um reembolso parcial.
“Não faz nada do que promete”, escreveu ao relatar sua experiência.
A Meta, empresa dona do Facebook, proíbe imitações em suas plataformas, mas afirmou que não tinha conhecimento das contas falsas até ser contatada pelo Times. Na semana passada, começou a remover as contas de vários médicos envolvidos, disse a empresa.
“Sabemos que podem haver casos que passem despercebidos”, disse a empresa em nota, informando que está implementando novos esforços para detectar imitações de figuras públicas ou celebridades.
Michael Horowitz, pesquisador renomado em gastroenterologia da Universidade de Adelaide e do Royal Adelaide Hospital, na Austrália, disse que a fraude se aproveita de pessoas que lutam há anos contra a perda de peso ou o diabetes e que talvez não possam pagar pelos medicamentos genuínos aprovados de GLP-1.
“Eles identificam os vulneráveis, sabendo que o que oferecem não serve para nada”, afirmou. “Considero isso um comportamento repreensível.”
c.2025 The New York Times Company
Fonte: Info Money