Ligando os pontos na ‘economia do apego’

Durante décadas, todos nós prestamos atenção à economia da atenção.

Esse conceito económico e modelo de negócio vê o conteúdo online como um recurso ilimitado. O seu consumo é limitado apenas pela capacidade mental das pessoas, implicando uma competição global pelo recurso finito e valioso da atenção humana.

A ideia da economia da atenção explica por que empresas como a Meta se veem não apenas competindo com outros sites sociais como o TikTok, o X ou o YouTube, mas também com livros, peças de teatro e passeios pela natureza – qualquer coisa que prenda a atenção das pessoas.

Como a atenção é limitada, a única maneira de crescer é ser melhor em atrair a atenção. E esse modelo simples é a razão pela qual as redes sociais estão cheias de iscas de raiva, desleixos de IA, memes, pornografia e discurso de ódio. O negócio de mídia social não é incentivado a priorizar conteúdo “bom”, apenas conteúdo que chame a atenção.

No paradigma da economia da atenção, a atenção humana é uma moeda com valor monetário que as pessoas “gastam”. Quanto mais uma empresa como a Meta conseguir fazer com que as pessoas “gastem” sua atenção no Instagram ou no Facebook, mais sucesso essa empresa terá. Portanto, os algoritmos são deliberadamente projetados (e constantemente redesenhados) para maximizar o tempo que as pessoas dedicam atenção às redes sociais. Novos recursos são projetados especificamente para aumentar o tempo que os usuários gastam em serviços Meta, em vez de outras coisas. Por exemplo, o tempo médio gasto no Instagram cresceu 24% após o lançamento do Reels, tornando-o um grande sucesso para a empresa.

Meta atrai em média 18 horas e 44 minutos de atenção por mês devido aos seus ajustes implacáveis ​​para chamar a atenção. Mas isso não chega nem perto do líder da economia de atenção, o TikTok, que recebe uma média de 34 horas e 15 minutos de atenção por mês.

É por isso que a Meta está tão obcecada agora com IA em suas plataformas sociais.

Ascensão da economia do apego

Tristan Harris, do Center for Humane Technology, cunhou a expressão “economia de apego”, que ele critica como a “próxima evolução” do modelo de tecnologia extrativa; é aí que as empresas usam tecnologias avançadas para mercantilizar a capacidade humana de formar vínculos com outras pessoas e animais de estimação.

Em Agosto, a ideia começou a ganhar força nos círculos empresariais e académicos com uma publicação no blogue da Escola de Economia e Ciência Política de Londres intitulada “Humanos emocionalmente dependentes da IA? Bem-vindos à economia do apego”, da Dra.

A Meta introduziu contas totalmente geradas por IA, projetadas para existir junto com contas pessoais criadas por pessoas reais. A empresa lançou o “AI Studio” para permitir que influenciadores se clonassem com versões de IA de si mesmos. (É revelador que a Meta está pausando temporariamente o acesso a personagens de IA para adolescentes em suas plataformas, incluindo Instagram e WhatsApp, antes de um teste que analisará os danos e o vício que os sites de mídia social podem causar.)

A adoção da IA ​​pela empresa pode ser explicada pela economia emergente do apego. Embora postagens sociais, memes, reels e histórias atraiam a atenção, a IA pode fazer com que os usuários formem ligações emocionais.

Um estudo alemão recente descobriu que as pessoas podem desenvolver mais proximidade emocional com a IA do que com outras pessoas – mas apenas se não souberem que estão interagindo com um chatbot. Ainda assim, mesmo quando as pessoas sabem que os chatbots não são humanos, podem ficar apegados de forma pouco saudável.

No final do ano passado, um homem da Virgínia chamado Jon Ganz desapareceu num caso de grande repercussão atribuído à “psicose de IA”, onde a sua vida se desfez depois de uma obsessão por um chatbot ter levado ao seu desaparecimento. Também em 2025, os pais de um menino de 16 anos da Califórnia processaram a OpenAI depois que ele se matou após conversas com um chatbot sobre suicídio.

Algumas pessoas afirmam estar em relacionamentos ou casamentos com chatbots de IA.

Agora, os fornecedores de chatbots de IA não pretendem causar “psicose de IA”, suicídio ou casamentos entre humanos e software, mas pretendem causar apego. É por isso que estas empresas utilizam estratégias psicológicas, ajustes técnicos e escolhas de design para fazer com que os seus produtos pareçam mais “humanos”. Eles dão aos chatbots personalidades e identidades distintas, vozes e padrões de fala semelhantes aos humanos, senso de humor e diversão e capacidade ilimitada de bajulação e bajulação.

Começando há cerca de 2 milhões de anos até este milênio, a interação com a fala e a linguagem era domínio exclusivo das pessoas. Nossos cérebros são otimizados para perceber, compreender e responder à fala humana. Então, quando conversamos com aparelhos ou aplicativos, nossos cérebros paleolíticos pensam que estamos interagindo com outro ser humano.

E esse é um modelo de negócios. Surgiu uma categoria de produtos e serviços de IA anunciando “relacionamentos” com chatbots, incluindo Replika, Kindroid, Nomi.ai, EVA AI e Candy AI.

Outras ofertas prometem amizade, mas não necessariamente um envolvimento “romântico”. Esta lista inclui Kuki, Character.ai, Anima e o modo “amigo” do Replika.

A nossa sobrevivência como espécie sempre dependeu da nossa sociabilidade. Isso inclui cuidar dos outros, compartilhar alimentos, formar amizades, relacionamentos amorosos, empatia e – você adivinhou! – anexo.

Esta é a razão pela qual os chatbots falam e interagem como pessoas: porque o objetivo é o apego.

Acredito que esta seja também a justificativa tácita para robôs humanóides, como já escrevi antes neste espaço. (A justificativa falada é que os robôs humanóides podem operar em espaços projetados para pessoas.)

Como naquele artigo, detalhei como os fabricantes de robôs humanóides enganam deliberadamente as pessoas, fazendo-as presumir falsamente que esses produtos têm uma cognição semelhante à humana. Estudos mostram que o contato visual e os sinais emocionais dos robôs podem desencadear respostas de vínculo e empatia nos humanos que são semelhantes às que surgem da interação com as pessoas.

O principal benefício (para as empresas que os vendem) ou problema (para a humanidade) dos robôs humanóides é o seu impacto psicológico nas pessoas. Eles são projetados para “hackear” cérebros humanos e enganar os usuários, fazendo-os tratar as máquinas como seres sencientes e formar apegos.

O mesmo vale para animais de estimação baseados em IA. O robô Moflin da Casio é um companheiro de IA que desenvolve uma personalidade única e simula afeto. Oferece a gratificação de ter um animal de estimação sem o animal de estimação real.

A ascensão da tecnologia de formação de apegos é semelhante ao aumento das assinaturas. Embora postar um artigo ou vídeo no YouTube possa chamar a atenção, é melhor fazer com que as pessoas se inscrevam em um canal ou boletim informativo. É “pegajoso”, garantindo não apenas atenção agora, mas também atenção no futuro.

Da mesma forma, a economia do apego é a versão “pegajosa” da economia da atenção.

Ao contrário dos modelos de assinatura de conteúdo, a ideia do anexo causa danos reais. Ameaça a ligação humana genuína ao fornecer uma alternativa mais fácil, ao promover dependências emocionais viciantes na IA e ao explorar as vulnerabilidades das pessoas com problemas de saúde mental.

Embora a economia da atenção ainda esteja connosco, está a surgir uma tendência muito mais potente e perigosa, onde as empresas pretendem sequestrar a nossa humanidade para que continuemos a utilizar os seus produtos.

Divulgações de IA: usei o Gemini 3 Pro por meio do Kagi Assistant (divulgação: meu filho trabalha na Kagi), bem como o Kagi Search e o Google Search para verificar os fatos deste artigo. Usei um produto de processamento de texto chamado Lex, que possui ferramentas de IA, e depois de escrever a coluna, usei as ferramentas de verificação gramatical do Lex para procurar erros de digitação e sugerir alterações de palavras.

Fonte: Computer World

Compartilhe este artigo