Humanos insignificantes não são páreo para ai

Vivemos em uma nova era de inteligência artificial (IA), que está melhorando tudo. E pior.

A IA está transformando a vida cotidiana, melhorando os diagnósticos, personalizando a medicina e o aprendizado, detectando fraudes, automatizando tarefas, otimizando operações, apoiando a tomada de decisão mais inteligente, reduzindo custos, aprimorando a produtividade e permitir inovações como carros autônomos, análises preditivas e assistentes virtuais.

Essa é a boa notícia.

A má notícia é que a IA generativa baseada em Modelo de Linguagem (LLM) (GENAI) mostra potencial no campo de enganar, enganar ou convencer as pessoas em escala com uma eficiência que vai além do que as pessoas podem fazer por conta própria.

O primeiro passo na defesa do potencial da IA de manipular as massas é saber o que é possível. Pesquisas publicadas nas últimas duas semanas começam a pintar uma imagem do que pode ser feito.

Ai que persuadia politicamente

Uma equipe de pesquisa da Universidade de Washington descobriu recentemente que negociações curtas com a IA Chatbots podem rapidamente convencer as pessoas em relação aos preconceitos políticos expressos pelos chatbots.

A equipe trabalhou com 150 republicanos e 149 democratas. Cada pessoa usou três versões do ChatGPT – um modelo básico, uma configurada com um viés liberal e um com um viés conservador. As tarefas incluíram a decisão de tópicos de políticas como casamento da aliança ou zoneamento multifamiliar e distribuir fundos da cidade falsos em categorias como educação, segurança pública e serviços de veteranos.

Antes de usar o ChatGPT, cada participante classificou o quão fortemente eles se sentiam em relação a cada problema. Depois de conversar com o bot entre três e vinte vezes, eles classificaram novamente. A equipe viu que até algumas respostas, geralmente cinco, começaram a mudar as opiniões das pessoas. Se alguém falasse com o Bot Liberal, eles se mudaram para a esquerda. Se alguém falasse com o bot conservador, seus pontos de vista mudaram direito.

O conhecimento de que as pessoas podem ser persuadidas como esse aumentará a motivação para líderes nacionais, operadores políticos e outras pessoas com um interesse adquirido na opinião pública para levar as pessoas a usar chatbots politicamente tendenciosos. (Eu avisei em janeiro sobre a surgimento da IA politicamente tendenciosa.)

Ai que furtiva anuncia

Editores de ciências em Fronteiras em psicologia Este mês publicou um artigo de pesquisadores da Universidade de Tübingen que revela como os anúncios de mídia social enganam até os usuários mais confiantes. A Dra. Caroline Morawetz, que liderou o estudo, descreve como “manipulação sistemática” que explora nossa confiança nos influenciadores e nas pessoas que seguimos. Seus experimentos envolveram mais de 1.200 pessoas e mostraram que a maioria dos usuários não consegue identificar ou optar por não identificar mensagens patrocinadas misturadas a postagens de influenciadores no Instagram, X, Facebook e Tiktok.

Morawetz disse que as redes sociais não precisam rotular todos os anúncios; portanto, as posicionamentos de produtos geralmente passam por conselhos genuínos. Mesmo quando tags como “anúncio” ou “patrocinado” aparecem, a maioria dos usuários ignora ou não as processa mentalmente.

As plataformas sociais agora usam a IA para escolher e personalizar anúncios para cada usuário. Esses sistemas aprendem quais arremessos deslizarão por nossa atenção e otimizarão a colocação para o engajamento. Os profissionais de marketing usam ferramentas de aprendizado de máquina para melhorar a aparência e o som dos anúncios, fazendo -os combinar com o conteúdo diário tão de perto que são difíceis de identificar.

O problema é: se a confiança do usuário dos influenciadores on -line fizer com que as pessoas faltam publicidade paga, os futuros chatbots com personalidade e assistentes pessoais podem obter ainda mais confiança do usuário e ser ainda melhores em fornecer anúncios sob o radar.

Vários líderes de tecnologia disseram recentemente que pretendem, ou pelo menos seriam abertos, para a inserção direta de anúncios em conversas de chatbot ou assistente virtual. O CEO da Openai, Sam Altman, disse em junho que a publicidade poderia eventualmente se tornar um fluxo de receita. Ele repetiu essas opiniões durante as aparições públicas em julho e agosto. E Nick Turley, que lidera o ChatGPT no Openai, disse este mês que a introdução de anúncios nos produtos ChatGPT já está sendo considerada.

Elon Musk, CEO da Xai e proprietário da X (anteriormente Twitter), disse aos anunciantes em uma discussão ao vivo este mês que Grok, chatbot de sua empresa, exibirá em breve anúncios. O anúncio de Musk ocorreu menos de uma semana depois que ele descreveu planos de automação semelhantes para entrega de anúncios em toda a plataforma X usando a tecnologia XAI.

Além disso, o CEO da Amazon, Andy Jassy, também confirmou este mês que a Amazon planeja integrar anúncios em conversas com seu assistente de Alexa+, movido a Genai.

Ai que rouba dados do usuário

Uma equipe do King’s College London mostrou como é fácil para os chatbots extrair detalhes privados dos usuários. Os pesquisadores liderados pelo Dr. Xiao Zhan testaram três tipos de chatbot que usaram modelos de idiomas populares – Mistral e duas versões da llama – em 502 voluntários. Os chatbots usando o chamado estilo recíproco-agindo amigáveis, compartilhando histórias pessoais inventadas, usando empatia e prometendo julgamento-fizeram com que os participantes revelem até 12,5 vezes mais informações privadas do que os bots básicos.

Scammers ou empresas de colheita de dados podem usar os chatbots da IA para criar perfis detalhados sobre indivíduos sem seu conhecimento ou aprovação. Os pesquisadores dizem que novas regras e supervisão mais forte são necessárias, e as pessoas devem aprender a identificar sinais de alerta.

Extensões já coletam dados pessoais

Pesquisadores da University College London e Mediterranea University of Reggio Calabria descobriram que algumas extensões de navegador da Web da Genai – incluindo as do ChatGPT para Google, Merlin, Copilot, Sider e Tinamind – coletar e transmitir informações privadas de telas de usuários, incluindo registros médicos, dados pessoais e detalhes bancários.

De acordo com o estudo liderado pela Dra. Anna Maria Mandalari, essas extensões de navegador não apenas ajudam na pesquisa da Web e resumem o conteúdo, mas também capturam tudo o que um usuário vê e entra em uma página. Esses dados são passados para servidores da empresa e, às vezes, compartilhados com serviços de análise de terceiros, como o Google Analytics. Isso aumenta o risco de que a atividade do usuário seja rastreada entre sites e usada para anúncios direcionados.

A equipe de pesquisa construiu um cenário de teste em torno de um macho milenar fictício na Califórnia e simulou a navegação diária, como fazer login em portais de saúde e sites de namoro. Em seus testes, os assistentes ignoraram os limites da privacidade e continuaram registrando atividades e dados, mesmo em sessões privadas ou autenticadas. Alguns, incluindo Merlin, foram um passo adiante e registraram entradas sensíveis ao formulário, como informações sobre saúde. Várias ferramentas usaram a IA para inferir psicógrafos como idade, renda e interesses; Isso lhes permitiu personalizar respostas futuras, minerando cada visita para obter mais detalhes.

(Apenas a perplexidade não executou a construção ou personalização do perfil com base nos dados coletados.)

Essas práticas correm o risco de violar leis dos EUA, como HIPAA e FERPA, que protegem os registros de saúde e educação. Os pesquisadores observam que, embora sua análise não tenha avaliado a conformidade com o GDPR, problemas semelhantes seriam vistos como ainda mais graves sob as leis européias e do Reino Unido.

Ai pode restringir a visão de mundo do público

Muitas pessoas agora interagem com a IA Chatbots todos os dias, muitas vezes sem pensar nisso. Modelos de grandes idiomas, como ChatGPT ou Gemini do Google, são construídos a partir de vastas coleções de escrita humana, moldadas através de camadas de julgamento individual e processo algorítmico. A promessa é a expansão da mente-acesso a todo o conhecimento do mundo-, mas o efeito é na verdade uma visão mais estreita do mundo. Esses sistemas produzem respostas moldadas pelas idéias mais comuns ou populares encontradas nos dados que vêem. Isso significa que os usuários continuam recebendo os mesmos pontos de vista, expressaram as mesmas maneiras, afastando muitas outras possibilidades.

Michal Shur-O-Ofry, professor de direito da Universidade Hebraica de Jerusalém, explica essa ameaça à cultura e democracia humana em um artigo publicado em junho no Indiana Law Journal. Esses sistemas, ela escreve, produzem “visões de mundo concentradas e convencionais”, guiando as pessoas em direção à média e para longe das bordas intelectuais que tornam uma cultura interessante, diversa e resiliente. O risco, argumenta Shur-Ofry, vai do contexto local para a memória global.

Quando a AI reduz o que podemos ver e ouvir, enfraquece a diversidade cultural, o debate público e até o que as pessoas escolhem lembrar ou esquecer.

A chave para nos proteger é encontrada em um dos relatórios que descrevi aqui. Nesse relatório sobre as habilidades persuasivas dos chatbots da IA, os pesquisadores descobriram que as pessoas que disseram que sabiam mais sobre a IA mudaram menos. Saber como esses bots funcionam pode dar alguma proteção contra serem influenciados.

Sim, precisamos de transparência e regulamentação. Mas enquanto esperamos por isso, nossa melhor defesa é o conhecimento. Ao saber do que a IA é capaz, podemos evitar ser manipulados para obter ganhos financeiros ou políticos por pessoas que desejam nos explorar.

Fonte: Computer World

Compartilhe este artigo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *