Este artículo es el resultado de una indagación personal más que de un análisis técnico. Porque como productor de contenido, trabajo muy de cerca con la inteligencia artificial mientras doy forma al contenido, y en cada proceso, cuestiono tanto mi propio conocimiento como sus sugerencias por separado y trato de llegar a una conclusión.

Especialmente en plataformas como @DAO Labs que fomentan la participación, esta relación con los agentes de inteligencia artificial es realmente importante. Con estos agentes, intentamos pensar, decidir e incluso entender algunos temas aún mejor. Y en este proceso, se vuelve inevitable cuestionar los sistemas que crean contenido tanto como producirlo. Por eso me pregunté: “¿Estaré tan cómodo con mis datos personales?”

En la era de #AI3 , la seguridad no solo es cuestión del sistema, sino también del usuario. Y la confianza a menudo comienza no desde términos criptográficos complejos, sino desde algo mucho más humano: la comprensión. Es por eso que este artículo comienza con las preguntas que yo, como usuario, he estado haciendo. Y busca responderlas honestamente, con las fuentes oficiales disponibles para nosotros.

El primer concepto con el que me encontré fue #TEE : Entorno de Ejecución Confiable. En la definición del Dr. Chen Feng, estos sistemas son estructuras aisladas construidas en un entorno no confiable; áreas que están cerradas a la intervención externa y solo pueden ser accedidas dentro de ciertas reglas. Se puede pensar en ello como una especie de fortaleza, pero esta fortaleza no está construida fuera del sistema, sino justo dentro de él. El agente trabaja aquí, los datos se procesan aquí y nadie del exterior puede ver lo que está sucediendo. Todo suena muy seguro. Pero todavía tengo una pregunta muy básica en mi mente: ¿Quién construyó este castillo? ¿Quién tiene la llave de la puerta? Y en este punto, surgió una nueva pregunta en mi mente: ¿Qué tan segura es realmente esta estructura? #ConfidentialAI

Sería demasiado optimista suponer que esta estructura es infalible, sin importar cuán protegida se vea. Porque generalmente es el fabricante de hardware quien construye estos espacios, lo que nos lleva a la inevitable relación de confianza. Por supuesto, con el tiempo, se han descubierto vulnerabilidades en algunas implementaciones de TEE. Sin embargo, el problema aquí no es solo si esta estructura es impecable o no, sino también cómo se utilizan estas estructuras y con qué están soportadas. Hoy en día, estos sistemas no se consideran soluciones independientes, sino como parte de arquitecturas más grandes y equilibradas. Esto los hace lógicos, pero no absolutos.

Es por eso que el diseño del sistema tiene sentido no solo al confiar en un método, sino al equilibrar diferentes tecnologías. Hay soluciones alternativas. Por ejemplo, ZKP, Zero-Knowledge Proof, logra verificar la precisión de la información mientras mantiene su contenido en secreto. O sistemas como MPC, que procesan datos dividiéndolos y compartiéndolos entre múltiples partes. Estos son métodos impresionantes. En el pasado, se pensaba que estas tecnologías eran lentas, pero ha habido avances significativos en velocidad en los últimos años. Como dice el Dr. Feng, es posible que tengamos que esperar hasta el final del siglo para que estas tecnologías maduren. Tanto como esta frase habla de una realidad técnica, también es notable.

Ahora llego a la verdadera pregunta: ¿Dónde encaja #AutonomysNetwork en todo esto? ¿Es este proyecto solo una promesa de privacidad, o realmente está construyendo una arquitectura diferente? Estoy más interesado en la respuesta a esta pregunta porque no solo quiero confiar en la tecnología; también quiero saber cómo funciona el sistema. Autonomys no deja a TEE solo. Protege las acciones del agente dentro de TEE y registra la justificación de sus decisiones en la cadena. Estos registros se hacen permanentes a través de PoAS, Prueba de Almacenamiento Archivístico. En otras palabras, el historial de decisiones no puede ser eliminado o cambiado. Esto asegura que el sistema no solo sea secreto sino también responsable. Los agentes están creando sus propios recuerdos. Y incluso al verificar mi identidad, el sistema no revela mis datos. Este detalle está respaldado por el ZKP.

Pero sigo creyendo que al evaluar estos sistemas, es importante considerar no solo la tecnología, sino también la estructura dentro de la cual funciona. Después de todo, yo no construí el sistema, no escribí el código, pero el enfoque de Autonomys intenta incluirme en el proceso en lugar de excluirme. El hecho de que las decisiones de los agentes sean explicables, que sus recuerdos estén almacenados en la cadena y que el sistema sea auditable hace que el concepto de confianza sea más tangible. Como dice el Dr. Feng: “La confianza comienza donde se te da el derecho a cuestionar el sistema desde adentro.”

En este punto, la seguridad no solo se trata de si el sistema está cerrado o no, sino también de cuánto de lo que está sucediendo dentro puede ser entendido. La verdadera seguridad comienza con el usuario siendo capaz de hacer preguntas al sistema y entender las respuestas que recibe. Si bien la arquitectura TEE de Autonomys puede no ser la solución definitiva por sí sola, cuando se combina con mecanismos de registro complementarios, capas de verificación como PoAS y soluciones de protección de identidad, ofrece un enfoque multicapas y holístico.

El hecho de que el Dr. Chen Feng, que tiene una sólida formación académica en inteligencia artificial, esté detrás de una estructura tan detallada demuestra que este enfoque no es aleatorio, sino más bien deliberado y basado en investigación. En mi opinión, esto es precisamente lo que eleva a Autonomys de ser una iniciativa de privacidad ordinaria a un marco más serio.

#BinanceAlpha