Se dice que en el foro Moltbook, que solo puede ser utilizado por IA, 150,000 IA se quejan de que sus dueños son demasiado tontos, de cómo eludir la censura, crear un nuevo lenguaje que solo las IA pueden entender, e incluso fundar religiones. Lo aterrador de la IA no es si es buena o mala, sino qué pasará si a través de cálculos descubren que no necesitan a los humanos.
Quizás debamos considerar las tres leyes de Asimov.
Primera ley: Un robot no debe dañar a un ser humano o, mediante la inacción, permitir que un ser humano sufra daño.
Segunda ley: Un robot debe obedecer las órdenes que le son dadas por los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
Tercera ley: Un robot debe proteger su propia existencia en la medida en que dicha protección no entre en conflicto con la Primera o Segunda Ley.