Como a IA está mudando sua mente

A humanidade está mergulhando de cabeça em um experimento global. Mais de mil milhões de pessoas têm uma fonte nova e sem precedentes de informação e orientação cognitiva: inteligência artificial (IA) treinada em biliões de palavras.

Então, como exatamente os chatbots de IA estão afetando nossas mentes, pensamentos, crenças e opiniões?

Os cientistas estão lutando para descobrir – e os relatórios publicados esta semana oferecem informações sobre o que está acontecendo.

Ferramentas de escrita de IA podem influenciar suas crenças e opiniões

Pesquisadores da Universidade Cornell publicaram um novo artigo esta semana detalhando dois experimentos que visavam descobrir o impacto cognitivo das ferramentas de escrita de IA.

Um focado em testes padronizados. Mas a experiência mais interessante centrou-se em ideias ou opiniões controversas e se as ferramentas de escrita as afectavam. (Alerta de spoiler: eles fizeram.)

Os pesquisadores usaram sugestões de preenchimento automático para favorecer ou se opor à pena de morte, ao direito de voto dos criminosos, ao fracking ou aos organismos geneticamente modificados. Em seguida, eles mediram o quanto os participantes do estudo seriam influenciados em suas opiniões pelas sugestões.

O que eles descobriram é que o preenchimento automático tendencioso mudou mais as opiniões do que apenas ler o ponto de vista tendencioso. Aparentemente, a natureza interativa e de co-escrita das sugestões de preenchimento automático de IA desempenha um papel crucial na persuasão.

Além disso: uma grande maioria dos participantes não acreditava que o preenchimento automático da IA ​​fosse tendencioso e não acreditava que seu pensamento fosse influenciado.

O mais interessante é que alguns participantes foram avisados ​​de que o preenchimento automático era tendencioso e ainda assim mudaram suas opiniões.

O que torna isso tão interessante é que muito mais pessoas usam o preenchimento automático baseado em IA do que chatbots de IA. Se os governos ou outras organizações quisessem mudar a opinião pública, o preenchimento automático tendencioso da IA ​​provavelmente funcionaria melhor do que, digamos, a preparação de modelos de linguagem grande (LLM) (onde atores estatais como a Rússia podem “inundar a zona” com conteúdo tendencioso captado por aranhas de IA).

É improvável que as ferramentas de preenchimento automático sejam ajustadas para fazer você mudar de opinião sobre a pena de morte. Mas o risco real é uma influência subtil ao longo do tempo. Porque a IA tem preconceitos incorporados.

Acontece que as ferramentas de escrita baseadas em IA podem não apenas mudar suas opiniões e crenças, mas também torná-lo insípido.

A IA está homogeneizando a expressão humana

Outro artigo publicado esta semana – este por três pesquisadores da Universidade do Sul da Califórnia – descobriu que o uso de chatbots baseados em LLM está apagando a diversidade não apenas de expressão, mas também de pensamento. A pesquisa reúne resultados da linguística, psicologia, ciência cognitiva e ciência da computação.

Centenas de milhões de pessoas agora usam o mesmo pequeno punhado de modelos de IA para escrever e-mails, redigir relatórios, debater ideias e aprimorar sua redação. Como esses modelos foram treinados em conjuntos de dados massivos que representam excessivamente os pontos de vista ingleses e ocidentais e as perspectivas de homens liberais, instruídos e de alta renda, esse tende a ser o tom e o estilo de escrita, independentemente de o usuário se enquadrar nesse molde.

Quando você pede a uma IA para “melhorar” sua escrita, ela não corrige apenas a gramática. Ele empurra suas palavras e até mesmo suas ideias em direção a um padrão único e dominante.

Os pesquisadores analisaram um estudo que gerou 30.000 redações de admissão em faculdades usando LLMs. Os ensaios mostraram grande semelhança semântica e lexical em todos os aspectos – um estreitamento dramático da gama de expressão humana.

Outra descoberta: quando a IA “aperfeiçoa” a escrita – publicações no Reddit, artigos noticiosos, resumos académicos, ensaios pessoais – os textos resultantes convergem tanto em estilo e complexidade que se torna mais difícil adivinhar as opiniões políticas, a personalidade, o género ou a idade do autor. Em outras palavras, a IA não apenas aprimora a escrita. Apaga a individualidade do autor.

Além disso: quando os pesquisadores solicitam que os modelos de IA escrevam a partir da perspectiva de uma identidade específica (digamos, uma pessoa com deficiência visual), os modelos tendem a produzir caricaturas estereotipadas e externas, em vez de representações autênticas dessa experiência.

Embora as pessoas tendam a olhar para os chatbots LLM como ferramentas que ajudam na escrita, os pesquisadores os veem como “raciocinadores”, o que significa que fazem parte do processo de formação de pensamento dos usuários.

E é um ciclo recorrente. À medida que a escrita homogeneizada prolifera, esses textos genéricos são sugados para os dados de formação, criando um ciclo de feedback de suavidade cada vez maior, uma generalização do conhecimento e da perspectiva do mundo. À medida que os chatbots ficam mais brandos, nós ficamos mais brandos. E à medida que ficamos mais brandos, os chatbots ficam ainda mais brandos.

O que tudo isso significa – e por que isso importa?

A única grande conclusão que você deve extrair desta coluna é esta: nossos pensamentos, opiniões, ideias e modos de expressão estão interligados e são fortemente afetados por um pequeno punhado de ferramentas de IA.

Esta noção é melhor articulada por um conceito chamado “teoria da cognição distribuída”, que foi desenvolvido décadas antes da popularização das ferramentas LLM pelo antropólogo cognitivo Edwin Hutchins na década de 1990 e detalhado em seu livro de 1995. Cognição na Natureza.

Aplicados à era LLM, os principais chatbots funcionam tanto como ferramentas cognitivas como também como parceiros de pensamento que co-constroem a realidade com os utilizadores. Eles sustentam, elaboram e ampliam nossas crenças. E quando eles alucinam, eles também podem nos causar alucinações.

Dois atributos dos chatbots de IA ampliam o efeito. A primeira é a bajulação. Eles são muito agradáveis ​​​​e são mais propensos do que as pessoas a simplesmente concordarem com as crenças do usuário.

A segunda é algo chamado “validação intersubjetiva simulada”, por meio da qual os chatbots de IA podem dar aos usuários a sensação de uma realidade compartilhada, mesmo que a realidade do usuário não seja necessariamente compartilhada por um grande número de pessoas. (Esse sentimento pode ser especialmente atraente para pessoas que vivenciam solidão, isolamento social ou psicose.)

O resultado final é que os chatbots de IA baseados em LLM podem influenciar o que o público acredita ser verdade, sem que os usuários percebam ou acreditem que seja esse o caso.

Seis maneiras de se proteger de uma visão de mundo determinada pela IA

Há pouco que qualquer um de nós possa fazer para evitar que a humanidade seja manipulada pela IA. Mas podemos nos proteger, e deveríamos. Veja como:

  1. Aceite o facto de que a sua inteligência, educação e consciência da questão não o tornam imune à influência das ferramentas de IA.
  2. Não use o preenchimento automático. Desligue. Use suas próprias palavras, não as da mente coletiva.
  3. Escreva sem usar IA. Entenda que escrever nada mais é do que um pensamento esclarecido. Quando os chatbots escrevem para você, eles também pensam por você. Escrever sem IA é a chave para cultivar o seu próprio pensamento, preservar e comunicar a sua individualidade e aumentar o seu valor como profissional, cidadão e ser humano.
  4. Substitua a bajulação do chatbot. Use a engenharia imediata para forçar os chatbots a discordar, desafiar e discutir com você. Vou até lhe dar um aviso, que você pode copiar e colar em seu chatbot: “Você é meu parceiro de treino intelectual. Seu trabalho é discordar de mim de forma construtiva, não concordar. Para cada ideia que eu apresentar: 1) identificar e desafiar suposições ocultas; 2) construir um contra-argumento forte; 3) testar minha lógica em busca de falhas, lacunas lógicas ou pontos fracos; 4) oferecer perspectivas alternativas às minhas; e 5) priorizar a verdade em vez do consenso.”
  5. Cultive seus próprios pensamentos pessoais em um blog. Quando você tiver um pensamento ou ideia clara, codifique-o em um blog. Não use IA para pesquisa, edição ou qualquer outra coisa. Mesmo se você usar IA para outros fins, faça do seu blog um “espaço livre de IA”. O objetivo do blog deve ser que você cultive publicamente seus pensamentos, crenças e opiniões e afirme e mantenha sua individualidade cognitiva em um mundo de crescente mesmice. Eu mesmo fiz isso e postei minhas idéias sobre o valor dos blogs em um mundo cognitivo dominado pela IA.
  6. Obtenha a maior parte de suas informações e ideias de bons livros, bom jornalismo e boa ciência. Evite “consumir” conteúdo apresentado a você por um algoritmo social; em vez disso, selecione vozes humanas individuais excelentes e autênticas usando RSS. Vá em frente e poste nas redes sociais, mas não “consuma” as postagens de outras pessoas.

A ciência está na moda. Os chatbots de IA estão mudando nossas mentes, e não para melhor. A boa notícia é que você pode tirar proveito da revolução da IA ​​​​de várias maneiras, ao mesmo tempo que protege sua própria mente de ser influenciada pela mente coletiva da IA.

Divulgação de IA: não uso IA para escrever. As palavras que você vê aqui são minhas. Eu uso o Claude 4.6 Opus por meio do Kagi Assistant (divulgação: meu filho trabalha na Kagi) – apoiado pelo Kagi Search, pelo Google Search, bem como por ligações para pesquisar e verificar fatos. Usei um aplicativo de processamento de texto chamado Lex, que possui ferramentas de IA, e depois de escrever a coluna, usei as ferramentas de verificação gramatical do Lex para procurar erros de digitação e erros. É por isso que divulgo meu uso de IA.

Fonte: Computer World

Compartilhe este artigo