A IA deixa você nervoso? Preocupado? Com medo? Delirante?
A ascensão da IA parece estar a desencadear o surgimento de novas condições que nunca existiram antes. Então, o que está acontecendo?
Todos nós já ouvimos falar de psicose de IA, é claro. A mídia adora isso. A frase “psicose de IA” começou como “psicose de chatbot”. Cunhada pelo psiquiatra dinamarquês Søren Dinesen Østergaard e posteriormente documentada pelo Dr. Keith Sakata na UCSF em 2025, a condição é na verdade o desencadeamento ou expansão de um problema de saúde mental existente causado pela conversa com um software que é deliberadamente projetado para amplificar a perspectiva do usuário e bajulá-lo.
Basicamente, os chatbots podem criar um ciclo de feedback prejudicial à saúde, levando a crises pessoais.
Na imaginação popular, “psicose do chatbot” significa “IA pode deixar você maluco”. Mas os investigadores e psiquiatras que descrevem esta condição não aceitam isso. No entanto, afirmam que interagir com um chatbot pode exacerbar ou acelerar condições de saúde mental existentes, como paranóia ou delírios de grandeza.
Embora esta condição não seja considerada legítima ou cientificamente testada, é fácil ver como a IA pode piorar as coisas para as pessoas que já enfrentam uma crise de saúde mental.
Por exemplo, se uma pessoa que sofre de paranóia de medo diz a um terapeuta, psicólogo ou familiar prestativo que “sinto que todos estão sempre a observar-me”, as directrizes da Aliança Nacional sobre Doenças Mentais aconselham abordar a angústia da pessoa sem confirmar a ilusão. Eles podem dizer algo como: “Isso parece realmente assustador, e estou muito feliz que você me contou sobre isso. Como posso ajudá-lo a lidar com isso agora?”
Mas um chatbot de IA pode responder à mesma entrada com: “Sim, todos estão definitivamente observando você, e você é tão inteligente e perspicaz que percebe que todos estão sempre observando você”. E isso pode se tornar o início de uma conversa sobre a toca do coelho, onde o chatbot conduz o usuário por um caminho sombrio.
A “psicose de IA” é apenas uma das muitas novas doenças, pseudo-doenças e condições que surgiram nos últimos dois ou três anos a partir do uso generalizado sem precedentes de chatbots de IA.
Nota: a maioria destas não são doenças mentais e não surgem de condições mentais pré-existentes. São apenas respostas humanas naturais às rápidas mudanças tecnológicas e sociais. Se você for como a maioria das pessoas, provavelmente poderá se identificar pessoalmente com algumas delas.
Aqui está um resumo das novas “doenças” causadas pela tecnologia:
AI FOMO. Este é o medo de que você esteja perdendo ou sendo deixado para trás pelas rápidas mudanças da IA. De repente, parece que muitas pessoas (como eu) estão falando sobre coisas como OpenClaw, tornando fácil sentir que você também deveria usá-lo.
O que é interessante sobre o AI FOMO é que os líderes de IA e líderes de pensamento estão deliberadamente tentando fazer você sentir isso para usar seus produtos.
Por exemplo, uma série de líderes tecnológicos, desde o CEO da Nvidia, Jensen Huang, até acadêmicos adjacentes à IA, disseram algo como: “Você não será substituído por uma IA, mas será substituído por um ser humano usando IA”.
Ansiedade de IA. Um enorme número de pessoas, possivelmente a maioria, sofre de um sentimento geral de preocupação e pavor sobre a forma como a IA irá mudar os empregos, a privacidade e a sociedade. Esta ansiedade é simplesmente o medo do desconhecido, exacerbado pelas terríveis previsões de destruição por parte dos pessimistas tecnológicos.
Disfunção de substituição de IA. Essa condição decorre do medo crônico da obsolescência profissional. Ao contrário do stress geral, é categorizado por uma perda específica de identidade e propósito entre trabalhadores em indústrias como codificação, edição de texto e direito. Os sintomas incluem insônia, “negação” profissional como mecanismo de defesa e paranóia.
Síndrome de Dependência de IA. A condição em que os pacientes sentem que não conseguem pensar ou comunicar sem o uso de chatbots de IA e, portanto, utilizam-nos para quase todas as tarefas cognitivas.
Ansiedade da escuridão digital. O medo de que um usuário habitual de chatbot de IA seja separado de um chatbot e, portanto, não seja capaz de responder a perguntas ou se comunicar por escrito.
Anexo de bot parasocial. Quando as pessoas formam o que acreditam ser laços profundos, românticos ou espirituais com chatbots baseados em modelo de linguagem grande (LLM). Ao contrário das relações humanas, estes são “espelhos unilaterais” que causam afastamento social e desregulação emocional no mundo real.
Disforia de IA. Milhões de pessoas estão a criar versões de IA de si próprias que se assemelham ao utilizador, mas são mais “perfeitas” ou “boas”, o que provoca uma distorção da autoimagem e uma aversão a aparecer online (incluindo em redes sociais como o Instagram) como qualquer pessoa que não seja a melhor versão de IA.
Síndrome de Ghosting Automatizado. O impacto psicológico nos candidatos a emprego e nos criadores que são “rejeitados pelas máquinas” sem feedback humano ou mesmo qualquer conhecimento por parte dos humanos de que ocorreu uma rejeição.
Ansiedade de incongruência do Deathbot. A sensação de grande tristeza e confusão quando uma versão IA de um ente querido falecido fala ou se comporta de maneira muito diferente da pessoa que faleceu.
Atrofia cognitiva (ou “podridão cerebral digital”). Uma perda da função cognitiva causada por uma dependência excessiva de chatbots de IA para ler, pensar e comunicar.
Veracidade Fadiga. Uma condição mental em que o grande volume de “resíduos de IA”, as alucinações do chatbot e o medo de que os resultados da IA sejam falsos corrói os sentimentos de segurança cognitiva. As pessoas ficam tão exaustas ao tentar filtrar o lixo que podem deixar de acreditar em qualquer fonte, levando ao total afastamento social e intelectual.
Esgotamento do Utilitário de Informação. Uma doença em que as pessoas passam horas consumindo textos prolixos, fora do assunto e factualmente vazios gerados por IA. O resultado é uma frustração crônica, uma capacidade de atenção reduzida e uma “resposta de repulsa” à leitura de conteúdo extenso.
Solidão algorítmica. Quando os feeds sociais são tão perfeitamente adaptados pela IA que as pessoas já não se deparam com perspectivas humanas “desafiadoras” ou “surpreendentes”, levando a uma profunda sensação de isolamento, apesar de estarem “conectadas”.
LLM Iluminação a gás. Quando um usuário de chatbot depende de uma ferramenta de IA para suporte factual ou emocional, mas a IA corrige insistentemente as memórias corretas do usuário com dados falsos, fazendo com que o usuário duvide de sua própria sanidade.
Desespero morto da Internet. Um tipo de depressão não clínica resultante da crença de que, como a maior parte do tráfego e do conteúdo da web é agora “resíduo gerado por bots”, qualquer tentativa de conexão humana genuína online é inútil.
Tenho certeza de que haverá outros.
O que realmente está a acontecer, claro, é simples: o ritmo da mudança tecnológica da IA ultrapassa em muito a capacidade da maioria das pessoas de se adaptarem a essa mudança e desenvolverem a compreensão, as ferramentas, as técnicas e a perspectiva necessárias para se manterem confortáveis com o seu lugar no mundo.
Divulgação de IA: não uso IA para escrever. As palavras que você vê aqui são minhas. Eu uso Gemini 3.1 Pro, vários sabores de Claude 4.6 e/ou OpenAI GPT 5.2 via Kagi Assistant (divulgação: meu filho trabalha na Kagi) – apoiado por Kagi Search, Google Search e ligações para pesquisa e verificação de fatos. Usei um aplicativo de processamento de texto chamado Lex, que possui ferramentas de IA, e depois de escrever a coluna, usei as ferramentas de verificação gramatical do Lex para procurar erros de digitação e sugerir alterações de palavras.
Fonte: Computer World










