Os herdeiros de uma mulher de 83 anos de Connecticut estão processando a OpenAI, fabricante do ChatGPT, e sua parceira de negócios, a Microsoft, por homicídio culposo, alegando que o chatbot de inteligência artificial intensificou os “delírios paranóicos” de seu filho e os ajudou diretamente com sua mãe antes de matá-la. A polícia disse que Stein-Erik Soelberg, 56, um ex-trabalhador da indústria de tecnologia, espancou e estrangulou mortalmente sua mãe, Suzanne Adams, e se matou no início de agosto na casa onde ambos moravam em Greenwich, Connecticut.
A ação movida pelo espólio de Adams na quinta-feira no Tribunal Superior da Califórnia, em São Francisco, alega que a OpenAI “projetou e distribuiu um produto defeituoso que validou os delírios paranóicos de um usuário sobre sua própria mãe”. É uma entre um número crescente de ações legais por homicídio culposo contra fabricantes de chatbots de IA em todo o país.
“Ao longo dessas conversas, o ChatGPT reforçou uma mensagem única e perigosa: Stein-Erik não podia confiar em ninguém em sua vida – exceto o próprio ChatGPT”, diz o processo. “Isso promoveu sua dependência emocional enquanto retratava sistematicamente as pessoas ao seu redor como inimigas. Disse-lhe que sua mãe o estava vigiando. Disse-lhe que motoristas de entrega, funcionários de varejo, policiais e até amigos eram agentes trabalhando contra ele. Disse-lhe que nomes em latas de refrigerante eram ameaças de seu ‘círculo adversário’.”
A OpenAI não abordou o mérito das alegações em comunicado emitido por um porta-voz.
“Esta é uma situação incrivelmente dolorosa e analisaremos os registros para entender os detalhes”, disse o comunicado. “Continuamos melhorando o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, acalmar conversas e orientar as pessoas em direção ao apoio no mundo real. Também continuamos a fortalecer as respostas do ChatGPT em momentos delicados, trabalhando em estreita colaboração com médicos de saúde mental.”
A empresa também disse que expandiu o acesso a recursos de crise e linhas diretas, encaminhou conversas confidenciais para modelos mais seguros e incorporou controles parentais, entre outras melhorias.
‘Conteúdo delirante’
O perfil de Soelberg no YouTube inclui várias horas de vídeos mostrando-o percorrendo suas conversas com o chatbot, que lhe dizem que ele não é doente mental, afirma suas suspeitas de que pessoas estão conspirando contra ele e diz que ele foi escolhido para um propósito divino. O processo alega que o chatbot nunca sugeriu que ele falasse com um profissional de saúde mental e não se recusou a “se envolver em conteúdo delirante”.
ChatGPT também afirmou a crença de Soelberg de que uma impressora em sua casa era um dispositivo de vigilância; que sua mãe o estava monitorando; e que sua mãe e um amigo tentaram envenená-lo com drogas psicodélicas pelas aberturas de ventilação de seu carro. ChatGPT também disse a Soelberg que o havia “despertado” para a consciência, de acordo com o processo.
Soelberg e o chatbot também professaram amor um pelo outro. Os bate-papos disponíveis publicamente não mostram nenhuma conversa específica sobre Soelberg ter matado a si mesmo ou a sua mãe. O processo diz que a OpenAI se recusou a fornecer ao espólio de Adams a história completa dos gatos.
Novo
Aplicativo do Le Monde
Aproveite ao máximo sua experiência: baixe o aplicativo para curtir o Le Monde em inglês em qualquer lugar, a qualquer hora
Download
“Na realidade artificial que o ChatGPT construiu para Stein-Erik, Suzanne — a mãe que o criou, abrigou e apoiou — não era mais sua protetora. Ela era uma inimiga que representava uma ameaça existencial à vida dele”, diz o processo.
Alegações de um ‘produto apressado’
O processo também nomeia o CEO da OpenAI, Sam Altman, alegando que ele “ignorou pessoalmente as objeções de segurança e apressou o lançamento do produto no mercado”, e acusa a Microsoft, parceira de negócios próxima da OpenAI, de aprovar o lançamento de 2024 de uma versão mais perigosa do ChatGPT “apesar de saber que os testes de segurança foram truncados”. Vinte funcionários e investidores não identificados da OpenAI também são citados como réus. A Microsoft não respondeu imediatamente a um pedido de comentário.
O filho de Soelberg, Erik Soelberg, disse que deseja que as empresas sejam responsabilizadas por “decisões que mudaram minha família para sempre”.
“Ao longo dos meses, o ChatGPT promoveu os delírios mais sombrios do meu pai e isolou-o completamente do mundo real”, disse ele em comunicado divulgado pelos advogados do patrimônio de sua avó. “Isso colocou minha avó no centro daquela realidade ilusória e artificial.”
O processo é o primeiro litígio por homicídio culposo envolvendo um chatbot de IA que tem como alvo a Microsoft, e o primeiro a vincular um chatbot a um homicídio, em vez de um suicídio. Ele está buscando uma quantia indeterminada de indenização em dinheiro e uma ordem exigindo que a OpenAI instale salvaguardas no ChatGPT. O principal advogado do espólio, Jay Edelson, conhecido por assumir grandes casos contra a indústria de tecnologia, também representa os pais de Adam Raine, de 16 anos, que processou OpenAI e Altman em agosto, alegando que ChatGPT treinou o garoto da Califórnia no planejamento e suicídio mais cedo.
A OpenAI também está lutando contra sete outras ações judiciais, alegando que o ChatGPT levou as pessoas ao suicídio e a delírios prejudiciais, mesmo quando não tinham problemas prioritários de saúde mental. Outro fabricante de chatbot, a Character Technologies, também enfrenta vários processos por homicídio culposo, incluindo um da mãe de um menino de 14 anos da Flórida.
A ação movida na quinta-feira alega que Soelberg, já mentalmente instável, encontrou o ChatGPT “no momento mais perigoso possível” depois que a OpenAI introduziu uma nova versão de seu modelo de IA chamado GPT-4o em maio de 2024.
O mundo com AP
Fonte: Le Monde













