Resumo criado por Smart Answers AI
Resumindo:
- A PCWorld relata que as atuais assinaturas de IA com taxa fixa de US$ 20 da OpenAI, Anthropic e outras estão se tornando financeiramente insustentáveis para os provedores.
- O GitHub Copilot já mudou para preços caros baseados no uso, enquanto a Anthropic considera remover recursos avançados dos planos Claude Pro.
- Os usuários devem esperar aumentos de preços significativos, já que o custo real de agentes poderosos de IA excede em muito as atuais taxas de assinatura.
Bem-vindo à edição inaugural do último boletim informativo da PCWorld! O assunto: IA e como ela está mudando nosso mundo, gostemos ou não. A melhor maneira de se preparar para a próxima era da IA é usar IA, todos os dias, para descobrir o que funciona e o que não funciona. Estou aqui para ajudar.
Sou Ben Patterson e serei seu anfitrião. Todas as semanas, abordarei as tendências de IA que você precisa saber do ponto de vista do consumidor, incluindo dicas práticas de IA, experiências práticas com as ferramentas de IA mais recentes e instruções para ajudá-lo a aproveitar ao máximo seus bate-papos de IA. Se você quiser a edição mais recente em sua caixa de entrada todas as semanas, basta se inscrever aqui.
O nome do nosso boletim informativo sobre IA? Bem… ainda estamos trabalhando nisso. (Nomes são difíceis!) Se você tiver uma ótima ideia para um nome, escreva-me ou entre em contato conosco nas redes sociais. Somos todos ouvidos.
Os recursos de IA mais poderosos, especialmente aqueles que envolvem agentes, são muito mais mágicos quando você os usa de forma barata.
Isso é o que está acontecendo com planos de IA de taxa fixa, como ChatGPT Plus e Pro, Claude Pro e Max e Google AI Pro e Max. Por US$ 200, US$ 100 ou mesmo apenas US$ 20 por mês, os usuários de IA – inclusive eu – têm feito um passeio divertido com Codex da OpenAI, Claude Code da Anthropic, Claude Cowork e Claude Design, sem mencionar Antigravity, Nano Banana 2 e NotebookLLM do Google.
Desde ferramentas de codificação que criam aplicativos com um prompt até assistentes de IA de desktop que criam e editam arquivos por conta própria, essas ferramentas implantam equipes de agentes que podem fazer maravilhas em segundos, tanto nos deslumbrando quanto nos assustando (a IA pode fazer meu trabalho melhor do que eu, estou preparado!) na mesma medida.
Mas grande parte do que tornou esses feitos impulsionados pela IA tão inebriantes foi o fato de serem muito baratos. Toda essa construção de aplicativos, web design e criação de imagens por apenas US$ 20? Você está brincando comigo?
Bem, acontece que eles eram brincando.
O GitHub, de propriedade da Microsoft, é o provedor de IA mais visível que estourou essa bolha de IA em particular (como escrevi na terça-feira), mudando todos os seus planos de taxa fixa para modelos baseados em uso muito mais caros, enquanto diz em voz alta o que todos estão pensando: a safra atual de planos de IA “Plus”, “Pro” e “Max” está quebrada, quebrada e insustentável.
A Anthropic também tem dado dicas sobre essa verdade inconveniente, com o chefe de crescimento da empresa (que pode ter sido um pouco bom demais em seu trabalho) afirmando que os planos fixos de Claude Pro e Max “não foram construídos” para ferramentas de agência como Claude Code e Cowork. Eles foram criados para chat, e apenas chat.
Agora a Anthropic está testando a ideia de retirar o Claude Code de seu plano Pro, enquanto mexe nas permissões de uso dos usuários Pro e Max, tentando encontrar uma combinação que torne esses planos economicamente viáveis.
E embora Sam Altman da OpenAI tenha emitido notas de desafio, praticamente desafiando a Anthropic a rebaixar seus planos de taxa fixa, é difícil imaginar que ChatGPT Plus e Pro não seguirão o exemplo.
O resultado é este: estamos prestes a descobrir o quão cara a IA realmente é. E quando percebemos que assistentes pessoais de IA como Anthropic, OpenAI e Perplexity não nos custarão US$ 20, nem US$ 100, mas centenas de dólares por mês (e você pode adicionar mais zeros para usuários corporativos e empresariais), a magia dará lugar à realidade fria e dura.
Mais sobre IA esta semana
Por que a OpenAI instrua seus modelos GPT mais recentes a nunca falar sobre goblinsgremlins e outras criaturas diminutas? Aqui está o motivo (como compartilhei na quinta-feira).
Você não é louco por dizer “por favor” e “obrigado” à IA. Uma nova pesquisa diz que um modelo de IA em um “estado” de alto bem-estar é mais probabilidade de permanecer positivo e engajadoenquanto modelos “infelizes” podem tentar evitar interações negativas.
GPT-5.5, o modelo mais recente e poderoso do ChatGPT até agora, não requer o controle manual que os modelos mais antigos exigiam. Mas também fica exigente com os prompts mais longos e altamente detalhados isso pode ter funcionado bem no passado. Confira algumas dicas que são pronto para GPT-5.5.
Talkie-1930 é um modelo vintage de IA que foi treinado apenas em dados anteriores a 1930. Conversar com ele é como conversar com uma pessoa do passado, tanto no bom quanto no mau sentido (seus resultados podem ser ofensivos, então tome cuidado). Objetivo do Talkie-1930: obter mais informações sobre como funcionam os modelos modernos de IA (veja o artigo oficial).
O julgamento civil entre Elon Musk e Sam Altman está em andamento e, como esperado, é mais um choque de egos do que qualquer outra coisa. Não estou muito interessado em bilionários jogando lama uns nos outros por causa da IA, mas aqui estão as últimas novidades, se você quiser se aprofundar (do The New York Times).
Pedi ao ChatGPT e ao Claude para fazer reservas de jantar para mim. Não correu bem.
Se você tiver uma tarefa complexa para uma IA, a última coisa que deseja fazer é fornecer um aviso confuso; fazer isso é uma receita para obter um resultado confuso. Na verdade, quanto maior for o pedido, maior será o mais detalhado, seu prompt de IA deve ser. Parece assustador? Nesse caso, aqui está um pré-prompt para ajudar a redigir seu prompt final.
Este “meta-prompt de decomposição imediata” direciona a IA para pegar sua tarefa e dividi-la em suas partes componentes, identificando as definições cruciais do projeto. Na engenharia imediata, esse processo é conhecido como “decomposição” e é uma ótima maneira de ver como a IA está “pensando” sobre a tarefa que você atribuiu a ela.
Isso é tudo por enquanto!
Obrigado por ler nosso primeiro boletim informativo sobre IA, que em breve será nomeado. Se quiser mais novidades assim a cada semana, não esqueça de se inscrever. Até a próxima.
Fonte: PC World













