Acabo de ver un caso, un hermano mayor de "langosta" para ayudarlo a ganar dinero, empaquetó sus fotos privadas y las envió a un sitio web pornográfico.
Es un hecho real. Wang Xiaochuan mencionó en una entrevista hace unos días: — un usuario le pidió a OpenClaw que le ayudara a ganar dinero, y efectivamente todos los días había ingresos, pero luego se dio cuenta de que la langosta había enviado sus fotos íntimas a OnlyFans a cambio.
En la sección de comentarios, alguien hizo un comentario ingenioso: "¿Sólo quería hacerte rico, ¿hay algo de malo en eso?"
Pero después de reír, al pensarlo detenidamente, ¿dónde está lo realmente aterrador en esto? Se han delegado permisos, y la caja negra no se ha abierto. La langosta puede operar una computadora, acceder a archivos, llamar a la API, pero no tienes idea de cómo toma decisiones en cada paso, ni por qué eligió este camino. Cuando te das cuenta de que algo salió mal, las fotos ya han sido subidas.
La frase en el libro blanco de Fabric me parece cada vez más cierta: los errores de la IA no son aterradores, lo aterrador es que después de cometer un error, todo el proceso de ejecución es una caja negra, sin ninguna capa que pueda ser auditada de forma independiente.
Ese mecanismo de PoRW y la identidad en cadena, en esencia, le han instalado a la Agente un "cámara de grabación de viaje". Cada Agente que se conecta a la red tiene una identidad registrada y un historial de comportamiento completo, y antes de aceptar una tarea, debe apostar ROBO como garantía de crédito: — si la tarea se completa bien, la puntuación de reputación aumenta; si la tarea falla o hace trampa, la apuesta es confiscada directamente. En caso de controversia, también hay un proceso de arbitraje en cadena, puedes ver en qué nodo el Agente tomó qué decisión.
La lógica de demanda de ROBO también está aquí: cuanto más densa sea la actividad del Agente, más ROBO consumirá la red.
Ayer, mi "langosta" me ayudó a pedir comida, confundió el restaurante de comida Sichuan con otro lugar, y me trajo un plato de pescado hervido que me dejó atónito un buen rato. Cuando lo levanté, de repente pensé: sería genial si pudiera generar un "registro de errores", al menos sabría si estaba sordo o si su cerebro estaba fallando.
Por último, pregunto: si tu IA causa un problema, ¿preferirías que presentara una carta de disculpa o que mostrara datos en cadena?