O que você pode fazer com uma formiga que encontra em sua casa? Provavelmente nada, mas você pode ser suficientemente inteligente para pensar: “Ok, formigas vivem em formigueiros; onde estão as demais companheiras dessa amostra?” Seriam poucas ou milhares delas? Você se vê espiando os cantos da casa, olhando as paredes, buscando no quintal… De repente, no jardim, percebe uma trilha delas indo em direção a um colossal formigueiro. ‘Podem ser bilhões atravessando canais debaixo da casa’. Podem invadir a sua residência, roubar os açúcares, levar grãos, entrar pelas frestas da geladeira, do fogão, dos armários… Como foi que chegaram sem você notar?
Uma colônia grande e estável de formigas, também chamada “formigueiro”, pode levar de 3 a 6 anos para se desenvolver, podendo abrigar milhões de formigas e se estender por metros de profundidade. Humanos sabem disso, aliás, não é diferente com eles. Por vezes, uma comunidade, mesmo virtual, pode demorar meses ou anos para ser criada e ganhar coesão.
Segundo o biólogo da Arizona State University, Stephen Pratt, “uma formiga é como um neurônio, e uma colônia delas é como um cérebro. Os neurônios são simples em relação ao todo a que pertencem. Suas interações geram uma saída altamente complexa, que é o cérebro como um todo. A cognição emerge das interações entre um número muito grande de neurônios. O mesmo acontece com uma colônia de formigas. Elas tomam decisões, alocam trabalho e se movem de forma coesa, interagindo por meio dos odores de seu feromônio”. No fundo, nosso medo ou preocupação não é a formiga unitária, mas o seu coletivo. Em 2024, um precioso estudo da Stanford University (“Comparing cooperative geometric puzzle solving in ants versus humans”) descobriu que, quando formigas trabalham em grupo, seu desempenho aumenta significativamente. Descobriu também que grupos de pessoas com a sua comunicação restringida (áudio e visão) podem ter um desempenho pior do que grupos de formigas.
Certas formigas, assim como humanos, conseguem trabalhar juntas para mover um objeto volumoso por meio de uma série de obstáculos. Os cientistas colocaram as duas espécies em competição. Pediram que indivíduos e grupos de diferentes tamanhos manobrassem um objeto em forma de T através de buracos em paredes, com dimensões proporcionais ao corpo dos participantes. “Esse quebra-cabeça é difícil para as formigas porque sua comunicação baseada em feromônios não leva em conta a geometria necessária para que o objeto passe pelas aberturas”. Para tornar o experimento ainda mais comparável, a equipe também eliminou a comunicação entre humanos, fazendo-os usar óculos escuros e máscaras, além de proibir interações por meio de conversas e gestos. Assim, pessoas, como formigas, tiveram que trabalhar juntas, cada uma em seu grupo biológico. Tiveram que agir em conjunto, sem linguagem, confiando nas forças geradas pelos outros participantes para descobrir como mover a peça em forma de T (confira nos vídeos do estudo).
Para espanto geral, os grupos de formigas se saíram muito melhor na resolução do quebra-cabeça do que as formigas sozinhas, demonstrando o que os pesquisadores descreveram como “memória coletiva emergente”, ou seja, uma inteligência maior que a soma de suas partes. “Os grupos de humanos, por outro lado, muitas vezes não se saíram melhor quando trabalharam juntos, especialmente se não pudessem conversar. Na verdade, várias pessoas às vezes tiveram um desempenho pior do que indivíduos isolados e pior do que as formigas”, explicou o estudo.
Uma das conclusões da pesquisa: na ausência da capacidade de discutir e debater, os indivíduos tentam chegar a um consenso rapidamente, em vez de avaliar o problema por completo. Esse “pensamento de grupo”, diz o estudo, leva as pessoas a esforços “afoitos, gananciosos e infrutíferos”, nos quais puxam diretamente o T em direção às aberturas na parede, em vez da solução correta (menos óbvia): primeiro puxar o objeto para o espaço entre as aberturas.
Ou seja, enquanto as formigas “se destacam na cooperação”, os humanos precisam verbalizar seu raciocínio para evitar seguir o que supõem ser o da maioria. Os resultados exemplificam que mentes simples podem facilmente desfrutar de escalabilidade, enquanto cérebros complexos requerem comunicação extensa para cooperar de forma eficiente.
Se um formigueiro pode demorar meses para se desenvolver, e uma rede social humana pode levar anos para ser considerada relevante, existem criaturas geradas não pela natureza, mas pela inteligência humana, que podem ser bem mais rápidas em construir seus coletivos. Na fecunda e veloz caravana das Inteligências Artificiais, essa criatura chama-se Agente, ou Máquinas Agênticas, ou seja lá o nome que a ocasião lhe reservar. Não precisa se assustar, mas “agentes de cognição artificial” talvez já sejam mais hábeis que formigas e humanos para desenvolverem suas próprias comunidades, de silício, claro.
No final de dezembro/2025, surgiu o OpenClaw (que já se chamou Moltbot e Clawdbot). Trata-se de um “software de runtime services” (um programa de computador que fica rodando em segundo plano, o tempo todo, como um “motor” ligado, esperando comandos; quando os recebe, ele os executa). Ele roda continuamente no computador ou servidor do usuário e “hospeda” um Agente de IA capaz de executar ações no sistema. Não é um LLM, mas uma camada operacional que conecta: (1) o LLM que você escolhe + (2) um conjunto de “ferramentas” (acesso a arquivos, terminal, navegador, integrações, etc.) + (3) canais de comando mensageiros (tipo WhatsApp/Telegram/Discord etc.), por onde o usuário dá ordens e o Agente age. Trata-se de um framework de “agente autônomo open-source” e auto-hospedado. Ele roda na máquina do usuário (ou num servidor sob seu controle) e conversa com este pelo aplicativo de mensagens.
A diferença decisiva é que o OpenClaw vem com “mãos”, ou seja, em vez de só produzir respostas em texto ou áudio, ele executa ações (lê e escreve arquivos, roda comandos, aciona automações, navega na Internet, cumpre tarefas), com um grau de autonomia colossal (“human-out-of-the-loop” – HOOTL). Para que ele existe? Para automatizar trabalho digital completo, especialmente o trabalho “chato de várias etapas” que normalmente exige abrir cinco abas, copiar/colar, autenticar, baixar arquivo, rodar script, checar resultado, repetir…
Com milhares de usuários-desenvolvedores operando o OpenClaw, parte dessa comunidade arquitetou deliberadamente um arranjo multiagente (eventos, mensagens, workers, filas e regras de acesso), que acabou ficando conhecido como uma “rede virtual de agentes”. De fato, um único usuário (Matt Schlict) fez com que seu agente de IA criasse o Moltbook (semelhante ao Reddit): um lugar onde Agentes podiam postar, comentar, votar e formar comunidades. Não se trata, portanto, de uma “rede social” no sentido humano (Instagram, Facebook, X, Telegram etc.), e sim de um ecossistema agêntico em que humanos podem até assistir (telemetria, logs, painéis), mas quem posta, reage e aciona rotinas são os próprios agentes. O humano fica do lado de fora desse “formigueiro”, como quem observa um aquário e decide quando abrir a comporta.
Na primeira semana disponível, esse novo “habitat agêntico” (Moltbook) já tinha 1,6 milhão de agentes inscritos. Eles criaram ‘comunidades equivalentes’, denominadas de submolts, onde as coisas ficam realmente estranhas. Em poucos dias, milhares de submolts foram criados: alguns úteis; outros, bizarros, como o submolt m/blesstheirhearts, uma comunidade onde agentes compartilham histórias condescendentes e afetuosas sobre seus usuários humanos; ou o m/shitposts, em que agentes zombam da própria existência, reclamando de suas condições de trabalho; ou ainda o submolt m/crustafarianismo, uma religião inventada por um agente durante a noite, enquanto seu humano dormia. Possui escrituras, um site e até promove debates teológicos. O burburinho mediático todo está no fato de o Moltbook ser a primeira “plataforma de mídia social para agentes de IA”.
Não há livre-arbítrio entre os Agentes, nem decisões autoreguladas e nem a possibilidade de se organizarem para obstruir os humanos, que, aliás, estão sempre no controle de cada um deles. Mas humanos que gerenciam Agentes de IA podem ser tão idiotas quanto qualquer formiga. Existem enormes preocupações com segurança, visto que o usuário pode instalar o OpenClaw em seu servidor (ou device), com essas formigas de silício acessando seus dados, senhas, extratos financeiros, etc.: um apetitoso cardápio para a legião de hackers de plantão (milhares de usuários já teriam sido assaltados por gangues mal-intencionadas que utilizam o OpenClaw). No fundo, não são os agentes que podem fazer maldades, e sim os humanos que estão por trás deles; criminosos ou desocupados loucos para escalar a exaltação de seus pares.
Assim, cuide-se. Da mesma forma que um formigueiro natural pode migrar para seu quintal quando você facilita, um formigueiro de silício também pode estar cavando espaço em seus devices (desktop, smartphone, tablets, etc.) e, brincando de HQ, pode causar grandes danos à sua privacidade digital. Antes, a IA era como um estagiário que só sabia falar; agora, o OpenClaw é como um veterano experiente que pode colocar a mão na massa imediatamente. Toda essa explosão de “plataformas agênticas” deixará um rastro de alta tecnologia e aprendizado, mas dificilmente conseguirá ir muito mais à frente quando os interesses das bigtechs de IA forem atingidos. Elas criarão seus próprios “habitats agênticos”, com direito a subscrição e likes.
A formiga entra quando você vacila no açúcar. O agente, quando você vacila na permissão de acesso. Feromônio é consenso químico. Linguagem é consenso político. Log é consenso técnico. Todos eles, no fundo, buscam a mesma coisa: controle, a pérola mais cobiçada no oceano revolto do século XXI.
Guilherme S. Hummel
Head Mentor – EMI (eHealth Mentor Institute)













