A IA é capaz de imitar uma pessoa real. Está claro que essa capacidade existe, e a ética do uso da IA para essa finalidade costuma ser muito clara. Mas cada vez mais, novas aplicações conduzem a resultados eticamente obscuros.
O bom
Por exemplo, o CEO de uma empresa, ou um político, poderia optar por criar um clone utilizando ferramentas de IA, criando um chatbot e um avatar – um gémeo digital – que pode interagir com as pessoas em seu nome. O Vale do Silício é grande na ideia: Mark Zuckerberg, da Meta, e o cofundador do LinkedIn, Reid Hoffman, estão trabalhando ou já criaram gêmeos digitais de si mesmos.
Os políticos clonados incluem Imran Khan, do Paquistão, que usou um clone de voz autorizado para fazer campanha na prisão, e o prefeito da cidade de Nova York, Eric Adams, que usou chamadas automáticas com voz clonada para falar com eleitores em línguas como mandarim e iídiche.
Esse tipo de caso de uso é provavelmente ético – desde que as pessoas que interagem saibam que estão lidando com um clone digital e não com uma pessoa real.
O ruim
O outro lado dos usos éticos de clones gerados por IA são os casos não consensuais (e, portanto, antiéticos). E destes, já são muitos. Por exemplo:
- Em 2019, o primeiro caso amplamente documentado ocorreu quando golpistas usaram IA para imitar a voz e o sotaque alemão do executivo de uma empresa-mãe, enganando com sucesso o CEO de uma empresa de energia do Reino Unido para que transferisse 220.000 euros para uma conta fraudulenta.
- Em 2023, uma mãe do Arizona, Jennifer DeStefano, foi alvo de extorsionários que usaram um clone de IA da voz de sua filha de 15 anos para exigir um resgate de US$ 1 milhão.
- E em 2024, um funcionário financeiro de uma empresa multinacional em Hong Kong foi induzido a transferir 25 milhões de dólares depois de participar numa videoconferência com recriações falsas do seu CFO e de vários outros colegas.
Outros usos antiéticos e não consensuais da clonagem de IA incluem vídeos deepfake, onde o rosto de uma celebridade é sobreposto ao de um ator pornô. Em todos os exemplos acima, a ética é clara. Isso tudo está muito errado.
Mas com a China a liderar o surgimento de clones de IA, a ética está a tornar-se muito mais obscura.
E o feio
Uma tendência emergente envolve os trabalhadores que utilizam software especializado para criar versões digitais dos seus chefes ou colegas. O projeto mais proeminente que impulsiona essa tendência é o Colleague Skill, publicado no final de março por seu criador, um engenheiro de 24 anos de Xangai chamado Zhou Tianyi.
Colleague Skill e seus forks e copycats, que tendem a ser de código aberto, permitem que as pessoas carreguem históricos de bate-papo, e-mails e documentos internos para criar uma persona funcional que imite a experiência profissional e o estilo de comunicação de um colega de trabalho específico. A pilha de tecnologia inclui ferramentas como Claude, Kimi, ChatGPT, DeepSeek API, OCR (Tesseract) e módulos de análise de sentimento.
Colleague Skill usa as comunicações anteriores de uma pessoa para construir uma réplica falada de sua personalidade. Se você pensar em uma IA normal como um estudante geral que sabe um pouco sobre tudo, esta ferramenta atua como uma máscara especializada que força a IA a se comportar como um indivíduo específico.
Em outras palavras, produz um chatbot com o conhecimento e os padrões de fala de uma pessoa real.
Colleague Skill começou como um comentário satírico sobre demissões impulsionadas pela IA. Mas alguns funcionários começaram a usá-lo para clonar seus colegas. Existem várias razões declaradas para o fazer, incluindo a retenção do conhecimento institucional e a existência de uma caixa de ressonância instantânea para “discutir” planos e ideias.
Uma motivação semelhante é o uso da IA para clonar chefes, para que os funcionários possam prever melhor como esse chefe reagirá ao trabalho dos funcionários.
Na maioria destes casos, de acordo com relatórios provenientes da China, a criação do chefe-bot ou do clone do colega não é consensual.
Basear de forma não consensual um chatbot personalizado em um colega ou chefe é antiético?
E então ficou pessoal (e estranho)
Tianyi, criador do Colleague Skill, mais tarde transformou-o em algo chamado Ex-Partner Skill. A ideia é recriar um antigo parceiro com IA para que o usuário possa dar continuidade ao relacionamento.
Funciona com o mesmo motor técnico, mas aplica-o a uma parte muito mais pessoal da vida. Os usuários enviam fotos, postagens sociais, registros de bate-papo e outros conteúdos. O chatbot de IA pode então imitar o tom, os bordões e as nuances linguísticas sutis do ex-parceiro, algo que “realmente se parece com eles – fala com seus bordões, responde no estilo deles, lembra os lugares onde vocês foram juntos”.
Isso permite que uma pessoa simule conversas com alguém que não está mais em sua vida.
Se a Habilidade do Colega estiver em uma área cinza, a Habilidade do Ex-Parceiro estará em uma área cinza mais escura.
(Observação: muitos dos repositórios originais do Ex-Partner Skill foram removidos da vista pública na China ou “higienizados” após pressão regulatória. Mas a estrutura supostamente continua a circular nos círculos de desenvolvedores privados, e ferramentas semelhantes são cada vez mais usadas para a “ressurreição digital”.)
Eticamente, o conceito parece existir em um amplo espectro em algum lugar entre a terapia, de um lado, e a pornografia de vingança, do outro. (É como pornografia de vingança no sentido de que quando o “conteúdo” feito consensualmente por duas pessoas para um propósito é posteriormente usado consensualmente por uma pessoa de uma forma que a outra pessoa pode achar questionável.)
Ou talvez esteja mais próximo do fenômeno “deathbot”, onde uma simulação gerada por IA fornece uma versão falsa do falecido. (Em ambos os casos, o usuário interage com um gêmeo digital de alguém que não está mais presente em sua vida.) Na verdade, algumas pessoas na China estão usando o Ex-Partner Skill como um deathbot para um ente querido falecido.
A falta de consentimento parece um lapso ético. Mas não consideramos antiético pensar, lembrar, imaginar conversas ou fazer um diário sobre ex-parceiros – ou familiares falecidos.
Os defensores da ideia da habilidade de ex-parceiro dizem que as conversas com ex-namorados digitais são terapêuticas. Eles ressaltam que, por ser privado, não se trata de assédio, perseguição ou invasão de privacidade. Em vez disso, argumentam eles, ajuda na reflexão pessoal e na cura emocional.
Quanto às pessoas que morreram, de acordo com relatos da mídia chinesa, alguns usuários dizem que a ferramenta lhes dá uma sensação de encerramento e permite que digam as coisas que gostariam de ter dito à pessoa real. Mas será que é realmente um encerramento se uma pessoa ainda tenta interagir obsessivamente – ou finge interagir – com a outra pessoa?
É saudável comunicar. Mas não é comunicação quando uma pessoa está sozinha e não fala com ninguém e envia mensagens para uma pessoa que nunca recebe essas mensagens.
Embora os ex-bots sejam uma realidade atualmente na China, a tendência está aparecendo em outros lugares. Alguns usuários do Character.AI fora da China criaram chatbots baseados em ex-parceiros, embora a empresa tenha alterado seus Termos de Serviço para proibir explicitamente a criação de bots usando imagens de particulares sem sua permissão.
O surgimento da clonagem não consensual de colegas de trabalho, chefes e ex-parceiros é um novo desafio ao nosso sentido de certo e errado, e mais uma forma pela qual a IA nos desafia a avançar e descobrir como responder.
Fonte: Computer World











