Por Jaka Kotnik  |  CMO, Inflectiv AI

El ensayo de Michael Bloch sobre la defendibilidad en la era de la IA tiene 540K vistas. Si no lo has leído, léelo. Su marco es lo más claro publicado este año sobre qué ventajas comerciales sobreviven mientras la IA colapsa el costo del software, las integraciones y la mayoría del trabajo del conocimiento.

Su argumento central: la IA destruye los "moats difíciles de hacer" y deja intactos los "moats difíciles de conseguir". Los sobrevivientes están restringidos por el tiempo transcurrido en el mundo real: acumulando datos propios, efectos de red, permisos regulatorios, capital a gran escala, infraestructura física. La IA comprime el tiempo que se tarda en hacer las cosas. No puede comprimir el tiempo que se tarda en que las cosas sucedan.

Él tiene razón. Pero hay una pregunta de infraestructura debajo de su primer estanque que el ensayo no responde, y es la pregunta que determina si alguno de los otros cuatro realmente se compone.

Una vez que has acumulado datos valiosos, ¿cómo los despliegas?

Ese vacío tiene un nombre. Cada cambio de paradigma importante en cripto ha necesitado una capa de liquidez antes de poder escalar: la infraestructura que toma un activo valioso y lo hace fluir. El capital necesitaba AMMs. Los NFTs necesitaban mercados. Los rendimientos de DeFi necesitaban agregadores. La inteligencia es la próxima clase de activos, y aún no tiene su capa de liquidez. Eso es lo que falta en el marco de Bloch.

Tener los datos y hacerlos líquidos son dos problemas completamente diferentes. La mayoría de las empresas que resuelven el primero no tienen respuesta para el segundo.

La Brecha de Despliegue

Un conjunto de datos que tardó una década en acumularse es un archivo, no un activo, hasta que los agentes puedan consultarlo de manera confiable, con procedencia, con gobernanza, con estructura consistente, en el momento de la decisión.

Esto no es teórico. Es el modo de falla dominante en el despliegue de IA en producción en este momento. Los sistemas de inteligencia necesarios existen en la mayoría de las organizaciones. Viven en formatos diseñados para el consumo humano: PDFs, bases de datos relacionales sin estructura semántica, conocimiento institucional que nunca fue externalizado. Pasar de eso a inteligencia consultable por agentes requiere:

Ingesta estructurada. Capas de inteligencia semánticamente etiquetadas y continuamente actualizadas, no archivos estáticos. El conjunto de datos necesita enriquecerse a medida que los agentes lo utilizan, no quedarse como una instantánea.

Procedencia. Cuando un agente toma una decisión basada en un conjunto de datos, debe haber una cadena verificable: quién generó esto, cuándo, bajo qué condiciones, si ha sido modificado. Sin procedencia, los agentes no pueden confiar en lo que consultan. Un estanque de datos construido sobre inteligencia no verificable es responsabilidad, no ventaja.

Gobernanza de credenciales a escala de agentes. A escala de despliegue real, miles de agentes están leyendo y escribiendo en conjuntos de datos de producción simultáneamente. ¿Qué agentes pueden acceder a qué datos? ¿Quién controla la escritura? Este no es un problema de ingeniería con una respuesta obvia, es un problema de política que requiere infraestructura para hacer cumplir.

La economía que hace que la contribución sea racional. Las personas que generan la inteligencia de dominio más valiosa no tienen un mecanismo actual para ganar de ello proporcionalmente al uso. Sin eso, la oferta no escala. La capa de liquidez tiene que hacer que la publicación de inteligencia estructurada de alta calidad sea económicamente racional, no solo técnicamente posible.

Web3 ha estado tratando de resolver esto. Aquí es donde cada protocolo alcanza su límite.

Aquí es donde los VCs de Web3 se resistirán, porque ya hay protocolos bien financiados en este espacio. Ocean, Vana, Grass, Masa. Cada uno está haciendo algo real. Cada uno tiene un límite estructural que le impide convertirse en la pila completa.

Ocean Protocol fue pionero en la tokenización de datos y Compute-to-Data: genuinamente innovador para el entrenamiento de IA sensible a la privacidad. El límite: Ocean fue construido para el caso de uso de datos para entrenamiento, no para consultas en tiempo de ejecución nativas de agentes. Los conjuntos de datos son accedidos, no consultados en vivo. No hay una capa de autoaprendizaje, no hay una capa de gobernanza de credenciales, no hay un mecanismo para gobernar qué hacen los agentes con los datos después de que se concede el acceso. Fue diseñado antes de que los agentes fueran el consumidor principal.

Vana está construyendo DAOs de datos personales: los usuarios agrupan datos de comportamiento para monetización colectiva y entrenamiento de IA. Respaldados por Paradigm, genuinamente interesantes para la soberanía de datos. El límite: Vana es primero en datos personales y primero en entrenamiento. El creador es un sujeto de datos que contribuye con huellas de comportamiento, no un experto en dominio publicando conocimiento estructurado. No hay una capa de consulta nativa de agentes, no hay conjuntos de datos de autoaprendizaje, no hay economía de token de dominio. Vana responde quién posee tus datos. No responde qué pueden construir los agentes con inteligencia estructurada.

Grass tiene más de 2M de nodos ganando tokens por compartir ancho de banda y datos de navegación web agregados en conjuntos de datos de entrenamiento. Tracción real. El límite: Grass cosecha datos de comportamiento pasivos en el borde. El contribuyente no está curando inteligencia, está contribuyendo con computación. La salida son datos web en bruto para entrenamiento, no conocimiento estructurado y consultable para agentes. Grass es una red de adquisición de datos. Los dos no compiten por el mismo comprador.

Masa es el más narrativamente adyacente, posicionado específicamente como datos en tiempo real para agentes de IA, con flujos de datos sociales y web más incentivos de tokens. El límite: Masa es una capa de abastecimiento y distribución. No estructura conocimiento, no habilita comunidades de creadores con participación económica, no aprende a través de la actividad de los agentes, y no tiene gobernanza de credenciales. El agente obtiene datos en bruto. Eso es un producto diferente.

Ninguno de estos protocolos puede convertirse en la pila completa, no porque estén mal construidos, sino porque su arquitectura fue bloqueada antes de que los requisitos fueran claros. Agregar una capa de consulta de agente en vivo a Ocean requeriría reestructurar su modelo de acceso a datos. Agregar economía de creadores a Grass requeriría repensar lo que es un contribuyente. Estos no son elementos de la hoja de ruta del producto. Son decisiones fundacionales que ahora son restricciones estructurales.

La brecha no es una función faltante. Es una categoría faltante, y cada jugador existente tiene una razón arquitectónica por la que no puede llenarla.

Lo que realmente requiere la Capa de Liquidez

DeFi nos enseñó cómo se ve una capa de liquidez. No es solo un mercado. Es la pila completa de primitivos que hace que una clase de activos sea funcional: mecanismos de precios, carriles de liquidación, procedencia, composición, alineación de incentivos para proveedores de liquidez.

La inteligencia necesita lo mismo. No un mercado de conjuntos de datos, sino una capa de protocolo con ingesta estructurada, APIs consultables en tiempo real, procedencia y gobernanza de credenciales, economías por consulta que recompensen a los contribuyentes en cada uso, mecánicas de token de dominio que alineen a los interesados de la comunidad, y carriles de pago autónomos para que los agentes puedan transaccionar sin intermediación humana.

Elimina cualquier capa y el volante se detiene. Tokeniza datos sin una capa de consulta y los agentes no pueden usarlo. Construye una capa de consulta sin economía y los creadores no publican. Construye economía sin gobernanza y el problema de seguridad se complica con cada nuevo agente. Construye gobernanza sin pagos autónomos y tienes un servicio administrado, no un protocolo.

Esto es lo que aprendimos en Inflectiv de la manera difícil. Cuando alcanzamos 4,676 agentes escribiendo en conjuntos de datos de producción simultáneamente, la infraestructura que necesitábamos para gobernar eso a gran escala no existía. Lo construimos: el Protocolo de Bóveda de Agentes, ahora de código abierto, porque no pudimos encontrarlo. La pila completa que ejecutamos hoy existe porque nos encontramos con cada uno de estos muros en producción y tuvimos que resolverlos.

La Tesis de Inversión

Cada ola tecnológica importante tiene un primitivo de liquidez sobre el cual todo lo demás se construye. El capital necesitaba mercados. La computación necesitaba la nube. Los datos necesitaban APIs e indexación.

La inteligencia, estructurada, verificada y legible por agentes, necesita una capa de liquidez. Los protocolos que existen están resolviendo problemas adyacentes. Las empresas que lo construyen internamente están creando soluciones no transferibles y no composables a un costo enorme.

La ventana para construir la pila completa está abierta porque las piezas no han existido simultáneamente hasta ahora: marcos de agentes a gran escala, carriles de micropagos (x402), almacenamiento descentralizado con procedencia (Walrus), control de acceso encriptado (Seal), y uso real a través de miles de agentes que ya ha puesto a prueba la arquitectura.

Bloch tiene razón en que los estanques de datos requieren tiempo. Lo que no nombra es que el tiempo por sí solo no es suficiente. El estanque solo se vuelve desplegable cuando la capa de liquidez debajo de él existe.

Esa capa es la que Inflectiv está construyendo.

Aprende más en inflectiv.ai | Presentación disponible a pedido

Jaka Kotnik es CMO en Inflectiv AI.