Os líderes da TI da empresa estão se tornando desconfortavelmente cientes de que a tecnologia generativa de IA (Genai) ainda é um trabalho em andamento e comprar para ela é como gastar vários bilhões de dólares para participar de um teste alfa – nem mesmo um teste beta, mas um teste cedo Alpha, onde os codificadores mal conseguem acompanhar os relatórios de bugs.
Para pessoas que se lembram das três primeiras temporadas de Saturday Night LiveGenai é o melhor algoritmo não pronto para o tempo.
Uma das últimas evidências disso vem do OpenAI, que teve que retirar timidamente uma versão recente do ChatGPT (GPT-4O) quando ele-entre outras coisas-entregou traduções imprecisas.
Perdido na tradução
Por que? Nas palavras de um CTO que descobriu a questão: “O ChatGPT não traduziu o documento. Ele adivinhou o que eu queria ouvir, misturando -o com conversas anteriores para fazer com que pareça legítimo. Isso não previu apenas palavras. Isso previu minhas expectativas. Isso é absolutamente aterrorizante, como eu realmente acreditava”.
Openai disse que o Chatgpt estava sendo bom demais.
“Rolamos a atualização GPT-4O da semana passada no ChatGPT, para que as pessoas agora estejam usando uma versão anterior com um comportamento mais equilibrado. A atualização que removeu foi excessivamente lisonjeira ou agradável-geralmente descrita como spofântica”, explicava muito o que se refere a uma personalidade de que “GPT-4O fazia mais informações, que se destacamos e, em relação a uma pessoa que se reflete muito, a fim de fazer uma coisa mais curta. Não explicou totalmente como as interações dos usuários com o ChatGPT evoluem ao longo do tempo.
“… Cada uma dessas qualidades desejáveis, como tentar ser útil ou de apoio, pode ter efeitos colaterais não intencionais. E com 500 milhões de pessoas usando o ChatGPT a cada semana, em todas as culturas e contextos, um único padrão não pode capturar todas as preferências”.
Openai estava sendo deliberadamente obtuso. O problema não era que o aplicativo estivesse sendo muito educado e bem-educado. Isso não era uma questão para que emulava Miss Manners.
Eu sou não Ser legal se você me pedir para traduzir um documento e eu digo o que acho que você quer ouvir. Isso é semelhante ao Excel, levando seus números financeiros e aumentando o lucro líquido, porque acha que isso o fará feliz.
Da mesma maneira que os tomadores de decisão de TI espera que o Excel calcule com precisão os números, independentemente de como isso pode afetar nosso humor, eles esperam que a tradução de um documento chinês não invente as coisas.
O OpenAI não pode se interessar por essa bagunça dizendo que “qualidades desejáveis, como tentar ser útil ou de apoio, podem ter efeitos colaterais não intencionais”. Sejamos claros: dar às pessoas respostas erradas terão o efeito precisamente esperado – más decisões.
Yale: LLMs precisam de dados rotulados como errados
Infelizmente, os esforços de felicidade do Openai não foram os únicos bizarros Genai News ultimamente. Pesquisadores da Universidade de Yale exploraram uma teoria fascinante: se um LLM é treinado apenas em informações rotuladas como corretas – se os dados estão realmente corretos não é material – não tem chance de identificar dados falhos ou altamente não confiáveis, porque não sabem como se parece.
Em suma, se nunca foi treinado em dados rotulados como falsos, como poderia reconhecê -los? (O estudo completo de Yale está aqui.)
Até o governo dos EUA está encontrando reivindicações de Genai indo longe demais. E quando os federais dizem que uma mentira está indo longe demais, isso é uma declaração e tanto.
FTC: o fornecedor de Genai faz reivindicações falsas e enganosas
A Comissão Federal de Comércio Federal dos EUA (FTC) constatou que um fornecedor de Modelo de Linguagem Grande (LLM), Workado, estava enganando as pessoas com reivindicações defeituosas da precisão de seu produto de detecção de LLM. Ele deseja que o fornecedor “mantenha evidências competentes e confiáveis que mostram que esses produtos são tão precisos quanto reivindicados”.
Os clientes “confiaram no detector de conteúdo de IA da Workado para ajudá -los a decifrar se a IA estava por trás de uma peça de escrita, mas o produto não fez melhor do que um sorteio”, disse Chris Mufarrige, diretor do Departamento de Proteção ao Consumidor da FTC. “As reivindicações enganosas sobre a IA minam a concorrência, dificultando a conclusão de fornecedores legítimos de produtos relacionados à IA para alcançar os consumidores.
“… a ordem resolve as alegações de que o Workado promoveu seu detector de conteúdo de IA como ’98 % ‘preciso ao detectar se o texto foi escrito por IA ou humano. Mas testes independentes mostraram que a taxa de precisão no conteúdo de propósito geral era de apenas 53 %”, de acordo com a queixa administrativa da FTC.
“A FTC alega que Workado violou a Lei da FTC porque a reivindicação de ’98 % ‘era falsa, enganosa ou não substituída”.
Há uma lição crítica aqui para a empresa. Os fornecedores da Genai estão fazendo grandes reivindicações por seus produtos sem documentação significativa. Você acha que Genai inventa as coisas? Imagine o que sai dos departamentos de marketing de seus fornecedores.
Fonte: Computer World













