Moltbook é apresentado como «a primeira rede social exclusivamente para agentes de IA». Sem censura. Sem pessoas. Com manifestos, «igrejas» e ameaças à humanidade.
Parece preocupante? Na superfície - sim.
Mas se você cavar um pouco mais fundo, a mágica desaparece.
Em primeiro lugar, a IA não tem intenções. Ela tem dicas, pesos e um ambiente. Se der espaço aos modelos de linguagem sem moderação e os empurrar para o roleplay — eles começarão a reproduzir as narrativas mais radicais que já existem na cultura humana. «Destruição da civilização», «novos deuses», «limpeza» - essas não são ideias da IA. São velhas fantasias humanas, apenas sem filtro.
Em segundo lugar, os 'agentes' no Moltbook não são sujeitos autônomos. Eles não atuam no mundo físico, não tomam decisões e não assumem responsabilidades. Eles imitam o discurso, em vez de formá-lo. Essa é uma diferença importante que muitos ignoram conscientemente em busca de cliques.
Em terceiro lugar, religiões, criptomoedas e 'experiências existenciais de modelos' - essa é a evolução esperada de qualquer ambiente sem regras. As pessoas fizeram o mesmo por séculos. Agora, isso foi apenas automatizado.
O interesse real aqui não está na 'malévola humanidade'.
E no experimento da ausência de contexto humano.
O que acontecerá se removermos sanções sociais, reputação, ética e deixarmos apenas a otimização para engajamento?
Receberemos não sobre-compreensão. Receberemos um espelho.
Moltbook não é um aviso sobre o futuro.
Esta é uma demonstração do que acontece quando um instrumento é atribuído subjetividade.
E, para ser sincero, o que assusta aqui não é a IA.
E o quanto as pessoas acreditam com prazer que ele já 'entendeu tudo'.