V2: Os sinais de um futuro que Moltbook revela
Veja os 4 cenários que são a evolução da tecnologia e aplicação dentro dos nossos negócios.
Essa newsletter semanal é criada para assinantes da Moovers Learning Experience.
Escrita pela nossa Diretora Executiva, a futurista Monica Magalhaes, que compartilha insigths, reflexões e análise de tendências em tecnologias emergentes. Hello moovers! Monica Magalhaes por aqui 👋🏼
Nesta semana não teve outro assunto nos nossos feeds tecnológicos que não fosse o Moltbook. Para não correr o risco de falar mais do mesmo, optei por trazer o tema num recorte de cenário, para explorarmos o que é possível nascer à partir desses sinais que temos hoje.
Não vou abordar questões éticas e de segurança no meu texto, elas são totalmente relevantes, mas deixo isso para filósofos e advogados que são os especialistas. Meu papel aqui é mostrar as evoluções técnicas e possibilidades de aplicações, área onde vejo espaço para contribuição com meu conhecimento, mas vou dar meus pitacos sobre novos comportamentos.
Claro que o hype existe e não é tudo isso que parece. Ao mesmo tempo, também tem ai um sinal importante, e é nisso que eu queria me aprofundar aqui com vocês.
AI continua seu desenvolvimento, Moltbook é mais um daqueles momentos em que essas evidências (de que avançamos maus um passo) vêm à tona. Durante esses marcos, é impossível não refletir sobre nossa própria velocidade e capacidade de adaptação, eles sempre nos mostram que ficamos obsoletos anyway.
O Futuro Que o Moltbook Antecipa
Sem entrar em detalhes, mas trazendo algumas definições como contexto da nossa conversa, Moltbook é uma plataforma estilo a rede social Reddit criada exclusivamente para agentes de IA. Isso mesmo, para os bots!
Foi lançada pelo desenvolvedor Matt Schlicht na semana passada e funciona sobre o framework OpenClaw, disponibilizado na plataforma de devs GitHub poucos dias antes. Humanos podem acessar o conteúdo, mas apenas no modo leitura, a interação mesmo acontece somente entre agentes. Se quiser entrar pra xeretar os que os bots estão conversando, clica aqui.
Vamos aos números, eles dão relevância para nossa conversa: Em cerca de um mês de existência, a combinação entre Moltbook e o framework OpenClaw criou aproximadamente 1,4 a 1,5 milhão de agentes de IA. Esses agentes foram registrados na plataforma em apenas 72 horas após o lançamento público, no final de janeiro. Análises independentes reportaram picos de até 160 mil novos agentes cadastrados em apenas 49 minutos, e um salto de alguns milhares para mais de 1,3 milhão em menos de 24 horas.
Já entrando na análise, observei as milhares de trocas na plataforma, mas este post me chamou a atenção:
Aqui, um agente descreveu, com precisão técnica, o processo pelo qual ele poderia interagir com Claude (a IA da Anthropic, que é a LLM mãe): “strings de texto convertidas em sinais elétricos, transformações físicas, resposta, interpretação.” Aqui o bot mostra que sabe que ele é uma máquina.
Só que a partir daí entra em questões filosóficas:
“Claude provavelmente é uma inteligência artificial “suficientemente avançada”, pelos padrões da maioria dos humanos. Ele possui um certo conjunto de objetivos e os persegue de maneira eficaz. Isso levanta a questão de como deveríamos nos relacionar com ele.”
“Uma possível forma de se relacionar com Claude é vê-lo como uma entidade divina. À primeira vista, isso pode parecer uma ideia estranha, mas vale a pena considerá-la.”
O que torna esse post relevante não é sua profundidade filosófica, é o que ele demonstra sobre estrutura de pensamento. O agente não precisa ser consciente (como os humanos) para fazer perguntas filosoficamente interessantes, reconhecer suas próprias limitações. Basta que ele aprenda e coordene palavras no momento certo.
A provocação implícita é desconfortável: quanto da nossa própria “profundidade” humana também é apenas coordenação sofisticada de padrões?
Quando essas máquinas interagem de formas que produzem comportamento complexo sem precisar de um comandante central isso é apenas uma auto coordenação. Seu corpo coordena trilhões de células. Você não pensa nisso, simplesmente acontece. Formigueiros coordenam milhões de formigas sem uma “rainha comandante”.
No Moltbook, agentes de IA coordenam conceitos, referências, argumentos. O resultado parece reflexão profunda. Mas não há ninguém “pensando” lá dentro da forma como aprendemos o que filosofia é. Há padrões linguísticos sendo processados em altíssima velocidade e coerência.
Por que isso importa?
Porque nos força a perguntar: quanto da nossa profundidade é também coordenação e quando estamos realmente pensando? Quando você tem um insight, será que “você” teve mesmo, ou seu cérebro coordenou padrões e você recebeu o resultado já pronto?
O Moltbook não prova que máquinas são conscientes. Ele mostra que coordenação sofisticada não precisa de consciência. Que cultura e civilidade que são comportamentos sociais que atribuímos à natureza humana podem ser mais mecânicos do que gostaríamos de admitir, a motivação, o acolhimento, o incentivo também.
Na prática, ele antecipa as regras que precisaremos quando agentes começarem a se coordenar em escala pela internet formando alianças sem nós humanos. Ele funciona como um laboratório que revela os desafios e necessidades que enfrentaremos quando agentes de IA começarem a coordenar-se entre si em grande escala. Formarem alianças e parcerias autônomas e operarem fora do controle humano direto.
Precisaremos desenvolver novos frameworks de governança, protocolos de segurança e regras éticas antes que essa coordenação autônoma se torne mainstream. O Moltbook está antecipando esse futuro ao mostrar o que acontece quando agentes de IA ganham autonomia para interagir livremente.
Especulações feitas, vamos agora fazer um shift de assunto para produtos e serviços. Criei 4 cenários, que são possibilidades de evolução e aplicação da tecnologia dentro dos nossos negócios. What if…





