Por que os líderes da IA ​​estão fugindo?

Normalmente, quando grandes talentos deixam os gigantes do Vale do Silício, a linguagem de relações públicas é simples: eles estão caminhando para um “novo capítulo” ou “gratos pela jornada” – ou talvez haja algumas dicas vagas sobre uma startup furtiva. No mundo da IA, porém, as saídas recentes parecem mais avisos de denunciantes.

Nas últimas semanas, uma série de pesquisadores seniores e líderes de segurança da OpenAI, Anthropic, xAI e outros renunciaram em público, e não há nada de discreto ou baunilha nisso.

Veja, por exemplo, a pesquisadora da OpenAI Zoë Hitzig. Ela optou por não mudar silenciosamente seu perfil do LinkedIn, mas anunciar sua demissão em um New York Times ensaio de convidado intitulado “OpenAI está cometendo os erros que o Facebook cometeu. Eu desisto”.

Quem renuncia dessa forma – no Tempos?

O que a irritou foi a decisão da OpenAI de começar a testar anúncios dentro do ChatGPT. Ironicamente, em 2024, Sam Altman, CEO da OpenAI, disse: “Odeio anúncios”, argumentando que “anúncios mais IA”… são “excepcionalmente perturbadores” porque as pessoas são forçadas a descobrir quem está a pagar para as influenciar com as respostas. Mas, ei, quando até mesmo os contadores internos da OpenAI esperam que a empresa perca US$ 14 bilhões somente em 2026, Altman conseguiu superar seus receios.

Não é assim, Hitzig. Ela escreveu: “As pessoas contam aos chatbots sobre os seus medos médicos, os seus problemas de relacionamento, as suas crenças sobre Deus e a vida após a morte. A publicidade construída nesse arquivo cria um potencial para manipular os utilizadores de formas que não temos as ferramentas para compreender, muito menos para prevenir”. (Ela está certa, é claro.)

Mas, me desculpe, isso é ingênuo. O Facebook não cometeu um erro. Ganhou bilhões de dólares explorando pessoas que compartilhavam coisas online com familiares e amigos. Tem sido um truísmo nos modelos de negócios da Internet desde o final dos anos 2000 que: “Se você não está pagando pelo serviço, você são o produto.”

Claro, divulgações íntimas casadas com uma empresa de publicidade por meio de IA são uma construção assustadora. O mesmo ocorre com a capacidade do Facebook e do X de lucrar ao fazer com que as pessoas caiam na toca do coelho do engajamento, da indignação e do perfil de comportamento. Mas ninguém os está impedindo. Caramba, em 2016, o Facebook compartilhou seus dados com a Cambridge Analytica, permitindo que a campanha de Trump personalizasse anúncios em um nível quase individual, ajudando Donald Trump a vencer as eleições de 2016.

Isso acabou custando ao Facebook cerca de US$ 6 bilhões em multas e ações judiciais. Isso parece muito dinheiro, até que você considere que a empresa-mãe do Facebook, Meta, teve receitas GAAP em 2025 superiores a US$ 200 bilhões, quase todas provenientes de publicidade.

Tenho a sensação de que Altman superará seu desconforto em relação a esse tipo de receita.

Enquanto isso, na Anthropic, o chefe da equipe de pesquisa de Salvaguardas que estava saindo, Mrinank Sharma, foi ainda mais direto. Numa carta de demissão partilhada com o mundo no X, ele escreveu que “o mundo está em perigo”. Ele descreveu, no tipo de linguagem educada mas incisiva que desperta os advogados, como é difícil, na prática, para uma empresa “deixar os nossos valores governarem as nossas ações” quando o dinheiro, o mercado e o prestígio interno apontam para o envio de modelos mais capazes, mais rapidamente. Aqui, novamente, vemos a ética ficando em segundo plano em relação aos lucros.

Veja bem, a Anthropic é a empresa de IA que se autodenomina em torno da “IA constitucional” e da implantação cuidadosa. Se os líderes seniores de segurança sentirem que não podem mais colocar a moralidade à frente do dinheiro, isso é um sinal de alerta.

Se se tratasse apenas de dois pesquisadores idealistas tomando posição, você poderia descrevê-la como personalidade e política. Não é. A OpenAI recentemente dissolveu sua equipe de “alinhamento de missão”, que deveria trabalhar para tornar a IA segura. (Não se esqueça, a OpenAI começou como uma organização sem fins lucrativos financiada por doações e promessas, em vez de investimento de capital, e dedicada a garantir que a inteligência artificial geral (AGI) beneficiaria “toda a humanidade”.)

Hoje, a OpenAI e a Anthropic estão se posicionando para que os IPOs realizem bilhões para seus proprietários e eventuais acionistas. Como qualquer pessoa que presta atenção ao mercado de ações desde que o ChatGPT 3.5 explodiu em cena em 2023 sabe, o mercado é dominado pelos Magnificent Seven, impulsionados pela IA, com seu valor de mercado de US$ 20,2 trilhões. E você se pergunta por que as pessoas estão preocupadas com o estouro de uma bolha de IA!?

Existem outros líderes de IA caminhando para a porta. Na xAI de Elon Musk – agora recentemente incorporada à SpaceX através de um acordo de todas as ações – os cofundadores da xAI Tony Wu e Jimmy Ba dirigiram-se aos botes salva-vidas enquanto Musk falava sobre “reorganizações” e como “algumas pessoas que são mais adequadas para as fases iniciais de uma empresa e menos adequadas para as fases posteriores”. Claro, Elon, claro.

Enquanto isso, os fundadores e CEO da VERSES AI estão de fora enquanto o conselho instala um líder interino e impulsiona um pivô comercial mais nítido. Até a Apple está sofrendo uma “fuga de cérebros de IA”. Lá, o vice-presidente sênior John Giannandrea e o líder da Siri, Robby Walker, partiram para Meta.

Cada história individual é diferente, mas vejo um tópico aqui. O pessoal da IA ​​que estava preocupado com “o que deveríamos construir e como fazê-lo com segurança?” estão saindo. Serão substituídos por pessoas cuja primeira, se não a única, prioridade é “com que rapidez podemos transformar isto num negócio lucrativo?” Ah, e não apenas lucrativo; nem mesmo um unicórnio avaliado em US$ 1 bilhão é suficiente para essas pessoas. Se o negócio não for uma “decacórnio”, uma startup privada avaliada em mais de US$ 10 bilhões, eles não querem ouvir falar disso.

Acho muito revelador que Peter Steinberger, o criador do insanamente – em todos os sentidos da palavra – bot OpenClaw AI, já tenha sido contratado pela OpenAI. Altman o chama de “gênio” e diz que suas ideias “rapidamente se tornarão essenciais para nossas ofertas de produtos”.

Na verdade, o OpenClaw é um desastre de segurança prestes a acontecer. Em breve, algumas pessoas ou empresas imprudentes perderão suas camisas porque confiaram nelas informações valiosas. E seu inventor é quem Altman quer no coração do OpenAI!?

O Gartner precisa refazer seu ciclo de hype. Com a IA, ultrapassamos o “Pico das Expectativas Inflacionadas” e avançamos em direção ao “Pináculo das Fantasias Financeiras Histéricas”.

As pessoas indo embora antes que tudo vá para o inferno? Eles são os sábios.

Fonte: Computer World

Compartilhe este artigo