Em outras palavras, ao contrário de outros produtos, as pessoas julgam a IA da mesma forma que julgam as pessoas. (Se as pessoas dão uma resposta mais lenta a uma pergunta, tendemos a presumir que é uma resposta mais ponderada.) Em outras palavras, os participantes do estudo acreditavam em algo que não era verdade.
Há apenas um problema: munidos desses dados, os pesquisadores aconselham os desenvolvedores de IA a implementar a “latência sensível ao contexto”, abandonando uma abordagem única para todos, usando a latência como uma “variável de design ajustável”. Perguntas simples, dizem eles, devem receber uma resposta rápida. Questões mais complexas, incluindo dilemas morais, deveriam “apresentar” pequenos atrasos para corresponder à gravidade da solicitação. Eles chamam isso de “atrito positivo”.
Os pesquisadores afirmam que seria uma boa prática induzir os usuários a acreditarem que um chatbot de IA está considerando sua resposta mais do que realmente é – porque os usuários ficarão mais felizes em sua ilusão de que a IA é como pessoas, que precisam de mais tempo para refletir sobre questões sérias.
Fonte: Computer World












