OpenAI acabou de matar Sora.
Esse é um desenvolvimento incrível. Quando a empresa lançou o site de criação de vídeo e, mais tarde, o aplicativo, os críticos o chamaram de pioneiro porque combinava criações de vídeo com efeitos sonoros, diálogo falado e a capacidade dos usuários gerarem um personagem específico usando uma imagem de referência e reutilizá-los em vários vídeos (um recurso do Sora 2 chamado “Personagem”).
Sora era visto como uma ameaça aos empregos no cinema e no marketing. Depois de assistir a uma demonstração inicial de Sora, o ator e cineasta Tyler Perry cancelou a construção de uma expansão para seu estúdio de cinema em Atlanta, Geórgia.
A poderosa agência de talentos CAA de Hollywood emitiu em outubro um comunicado dizendo que Sora era uma ameaça ao sustento dos atores.
O Los Angeles Times disse que Sora representou uma “tempestade de fogo” na indústria cinematográfica.
E os críticos apontaram como Sora poderia criar vídeos realistas envolvendo pessoas reais de maneira fácil e convincente. (A OpenAI proibiu recentemente os usuários de enviar fotos de rostos humanos reais.)
Então, se Sora era tão perturbador, ameaçador e economizador de dinheiro, por que a OpenAI o fechou?
A empresa até rasgou um acordo de US$ 1 bilhão com a Disney, assinado em dezembro, que teria trazido 200 personagens da Disney para o aplicativo de vídeo Sora.
Embora a OpenAI tenha afirmado na terça-feira que matou Sora para se concentrar na robótica, críticos e céticos argumentam que os verdadeiros motivos incluem altos custos de computação, redução do número de usuários, ameaças legais sobre direitos autorais e uma mudança estratégica antes de um esperado IPO no quarto trimestre de 2026.
Em outras palavras, o vídeo gerado por IA não vale a pena, não é uma prioridade e não é o milagre tecnológico que todos pensavam que era.
Ainda assim, isso está muito longe do hype e do medo de dois anos atrás. O que aconteceu?
A reação
A cada dia que passa, fica mais claro que a reação inicial às ferramentas cada vez melhores de geração de IA foi mais um truque de salão e uma novidade, e que a novidade está passando.
Quando os jogadores reagiram negativamente à ferramenta generativa de aprimoramento gráfico de IA da Nvidia chamada DLSS 5, que será lançada neste outono, temendo que ela substitua os artistas humanos, o CEO da Nvidia, Jensen Huang, disse: “Eu não adoro o desperdício de IA”, mas também disse que os críticos não entendem do que se trata a ferramenta.
Uma conta do TikTok obteve milhões de curtidas e seguidores para os chamados vídeos de “resíduos de frutas” sobre um reality show chamado “Fruit Love Island”, estrelado por “pessoas de frutas”, mas a reação contra a conta veio ainda mais rápido do que sua ascensão. Os críticos dizem que a popularidade dos vídeos representa uma sociedade enlouquecida e uma crise geracional para os jovens. A conta desapareceu, substituída por centenas de contas imitadoras.
Os pais também estão preocupados com o fato de que resíduos de IA de baixa qualidade estejam se infiltrando no conteúdo infantil em sites como o YouTube. Esses vídeos parecem produzidos em massa com pouco cuidado com o conteúdo. Muitos desses vídeos mostram o tipo de bobagem que esperamos do lixo da IA. De um artigo no Undark:
“O vídeo começa com as crianças andando, sem cinto de segurança, na primeira fila de um veículo em movimento. A cena seguinte mostra a menina desafiando a física, flutuando ao lado de um carro em movimento, enquanto o menino está sentado no que parece ser o capô do veículo enquanto ele anda de ré por uma rua movimentada. A terceira e quarta cenas mostram as crianças andando no meio da estrada com carros em movimento atrás delas.”
Mas estas histórias não identificam bem o problema maior, que é que um grande número de pessoas e empresas pensam que a IA é uma espécie de arma secreta para representar as suas ideias e marcas no mundo real.
Pequenas lojas e restaurantes na cidade de Nova Iorque, por exemplo, estão a utilizar imagens de IA para publicitar alimentos. A comida tende a não se parecer em nada com a comida real, criando um problema persistente e de baixa publicidade falsa entre as pequenas empresas.
O lixo de IA é usado para todos os tipos de propósitos nas redes sociais. Um dos meus usos menos favoritos é representar informações históricas. É sempre enganoso. Por exemplo, sou um grande fã da história mexicana e já vi vários vídeos de IA mostrando, digamos, a cidade-ilha de Tenochtitlan (a cidade asteca que existia no local onde hoje fica a Cidade do México). Projetados para permitir que as pessoas visualizem o passado, eles sempre criam uma impressão completamente falsa desse passado.
Resíduos de IA: é simplesmente barato
O desperdício de IA, que atrai alguns usuários porque é barato, e enfrenta a oposição de outras pessoas porque é barato, está causando problemas inesperados.
Marcas como J.Crew e Coca-Cola viram suas reputações manchadas quando tentaram usar fotos ou vídeos gerados por IA para comercializar produtos reais.
Também causa ressentimento porque um de seus principais usos é manipular emocionalmente as pessoas. A versão chinesa do TikTok, por exemplo, está repleta de “vídeos de arrependimento”, em que pais idosos com filhos solteiros usam IA para tentar assustar os filhos e fazê-los casar.
Os vídeos vergonhosos utilizam a IA para “envelhecer” as mulheres, mostrando-as amarguradas e sozinhas, muitas vezes em hospitais, justapostas a mulheres felizes com as suas famílias. Alguns dialogam, como: “Eu me arrependo. Meus pais me disseram para casar e ter filhos. Eu não escutei, pensando que era muito problemático. Olhe para mim agora!”, segundo um relato.
As imagens geradas por IA são frequentemente usadas explicitamente para evocar nos outros as emoções que você deseja que os outros sintam: medo, repulsa, indignação e pena.
O lixo gerado pela IA muitas vezes procura contornar a razão e ir direto às emoções. Ele substitui palavras por imagens. Muitas vezes, as imagens não fazem sentido e isso pouco importa. O objetivo é a emoção. E embora alguns acreditem que a manipulação emocional através da IA é algo que desejam, um número maior se ressente de ser manipulado.
E o mundo do conteúdo também está se posicionando. Em janeiro, a Comic-Con de San Diego proibiu todos os quadrinhos de IA. Na semana passada, a plataforma digital de quadrinhos GlobalComix removeu conteúdo de IA. O editor-chefe da Marvel Comics, CB Cebulski, estabeleceu uma política rigorosa anti-IA durante a Comic Con de Nova York no final de 2025.
As editoras de livros também estão resistindo. O Hachette Book Group cancelou o próximo lançamento de um romance de terror intitulado “Shy Girl”, de Mia Ballard, porque suspeitava que a autora usou IA para escrevê-lo.
No início de 2026, muitas bibliotecas públicas começaram a elaborar políticas rigorosas de recolha para filtrar livros com conteúdo gerado por IA.
No início de 2026, o Instagram atualizou seu sistema para penalizar ativamente conteúdo sintético altamente sofisticado.
Então, o que estamos testemunhando é uma reação massiva ao desperdício de IA, especialmente conteúdo visual como vídeos e fotos. E a reação é tão grande que até matou Sora.
Divulgação de IA: não uso IA para escrever. As palavras que você vê aqui são minhas. Eu uso uma variedade de ferramentas de IA por meio do Kagi Assistant (divulgação: meu filho trabalha na Kagi) – apoiadas pelo Kagi Search, pelo Google Search, bem como por telefonemas para pesquisa e verificação de fatos. Usei um aplicativo de processamento de texto chamado Lex, que possui ferramentas de IA, e depois de escrever a coluna, usei as ferramentas de verificação gramatical do Lex para procurar erros de digitação e sugerir alterações de palavras. É por isso que divulgo meu uso de IA.
Fonte: Computer World













