Los agentes de IA están cambiando de forma en silencio. No hace mucho tiempo, vivían en cuadros de chat y demostraciones, respondiendo preguntas o generando texto bajo demanda. Ahora navegan por sitios web, negocian con APIs, programan tareas, comparan precios, activan flujos de trabajo y, en algunos casos, incluso completan compras. Actúan continuamente, a menudo más rápido de lo que un humano puede seguir. Lo que falta no es inteligencia o velocidad. Lo que falta es un sistema compartido de responsabilidad.
Cuando un agente toca datos que no creó, se basa en un modelo que no entrenó y gasta dinero que no ganó, la cuestión de quién es responsable se vuelve inevitable. Hoy en día, esa respuesta generalmente reside dentro de una base de datos de la empresa. Los registros son privados. Las reglas son definidas por la plataforma. La atribución es lo que el operador dice que es. Eso funciona hasta que múltiples partes están involucradas, el valor comienza a moverse a través de las fronteras o algo sale mal. Entonces la confianza se convierte en discusiones.
Kite AI está tratando de mover ese libro mayor oculto a la luz construyendo lo que describe como la primera Capa 1 de Avalanche diseñada específicamente para IA. No una cadena temática de IA para marketing, sino un entorno soberano compatible con EVM ajustado para cómo se comportan realmente los agentes. Tráfico explosivo. Acciones pequeñas y frecuentes. Micropagos que se parecen más a la telemetría de software que a carritos de compras. Y sobre todo, una forma de registrar quién contribuyó con qué en una economía impulsada por máquinas.
La decisión de construir sobre Avalanche es importante aquí. El modelo L1 personalizable de Avalanche permite a los equipos definir sus propios entornos de ejecución, lógica de tarifas y parámetros de finalización sin heredar restricciones diseñadas para DeFi centrado en humanos. Los agentes de IA no se comportan como comerciantes o coleccionistas de NFT. Toman muchas decisiones pequeñas en rápida sucesión, a menudo coordinando con otros agentes. Una cadena optimizada para transacciones ocasionales y de alto valor lucha bajo esa carga. El enfoque de Kite trata la actividad del agente como una carga de trabajo de primera clase en lugar de un caso marginal.
La elección de diseño más interesante, sin embargo, es filosófica. Kite trata la atribución como un primitivo de protocolo, no como una regla de negocio. En la mayoría de los sistemas de IA hoy en día, el valor aparece al final de la cadena. Se recopilan y limpian los datos. Se entrenan o ajustan los modelos. Las herramientas se envuelven a su alrededor. Los agentes se implementan dentro de las aplicaciones. Los ingresos llegan a la cima, y todos los que están por debajo quieren una parte. Sin una forma neutral de medir la contribución, el actor más fuerte suele ganar por defecto. Las plataformas se quedan con el margen. Los constructores aceptan la opacidad como el costo de la distribución.
La respuesta propuesta por Kite es algo que llama Prueba de Inteligencia Atribuida, o PoAI. En lugar de que el consenso se trate solo de ordenar transacciones, PoAI se enmarca como una forma de rastrear y recompensar contribuciones a través de la pila de IA. Los proveedores de datos, constructores de modelos, creadores de herramientas y los propios agentes pueden ser reconocidos como parte de un solo flujo económico. La cadena se convierte en un lugar donde se describe el trabajo, no solo se resuelve. Qué datos se accedieron. Qué modelo fue invocado. Qué agente ejecutó la acción. Qué política se aplicó. Cómo se dividieron las recompensas.
Si eso suena abstracto, es porque la mayoría de las cadenas de bloques nunca fueron diseñadas para pensar de esta manera. Registran cambios de propiedad, no historias de colaboración. Pero las economías de IA son colaborativas por defecto. Casi ningún agente opera solo. Se apoya en capas de datos, modelos y servicios creados por otros. La apuesta de Kite es que si no codificas esa realidad a nivel de protocolo, siempre será resuelta por intermediarios centralizados.
Alrededor de esta capa de atribución, Kite describe varios primitivos de soporte. Un motor de acceso a datos descentralizado está destinado a permitir que los proveedores de datos participen sin ceder la propiedad o el control. Los datos pueden ser accesibles, pagados y auditados sin ser entregados permanentemente. Una capa de memoria portátil tiene como objetivo hacer que la memoria del agente sea tanto auditable como consciente de la privacidad, para que los agentes puedan llevar contexto a través de sesiones sin convertirse en cajas negras opacas. Estas ideas apuntan hacia una cadena que quiere coordinar el trabajo de las máquinas, no solo mover tokens.
A lo largo de 2025, la historia de Kite se amplió de la coordinación a los pagos, y ese cambio hizo que la visión fuera más concreta. En septiembre, la compañía anunció una Serie A de $18 millones liderada por PayPal Ventures y General Catalyst, llevando la financiación total a $33 millones. Junto a esa ronda, Kite destacó lo que llama Kite AIR, descrito como resolución de identidad de agente combinada con asentamiento de stablecoin y aplicación programable de políticas.
Aquí es donde la teoría se encuentra con la realidad. Un agente que puede razonar pero no puede autenticar o pagar sigue siendo un juguete. Un agente que puede pagar pero no puede probar que fue autorizado se convierte en un pasivo. El marco de Kite trata la identidad, los límites de gasto y las rutas de política como inseparables. Un agente no es solo un pedazo de código. Es un actor delegado con autoridad definida. Cuando transacciona, esa autoridad debe ser verificable por las contrapartes y auditada por el humano u organización detrás de él.
Los pagos agentes cambian el ritmo del asentamiento. Los humanos piensan en compras. Los agentes piensan en flujos. Alquilar computación por segundo. Pagar por datos por consulta. Dividir ingresos entre contribuyentes automáticamente. Estos patrones se rompen cuando cada transacción requiere aprobación manual o altas tarifas fijas. El énfasis de Kite en el asentamiento con stablecoin y las restricciones programables es menos sobre novedad y más sobre la eliminación de fricciones. Es un intento de hacer que la interacción económica se sienta nativa al software nuevamente.
El token llegó a medida que esta narrativa estaba tomando forma. Binance anunció Kite AI como su 71º proyecto de Launchpool el 31 de octubre de 2025, con el comercio comenzando el 3 de noviembre. La oferta total está limitada a 10 mil millones de tokens, con un 18 por ciento en circulación al lanzamiento. Para los constructores, estos números importan porque configuran la gobernanza y los incentivos a largo plazo. Para los mercados, crean volatilidad. Los proyectos de infraestructura a menudo enfrentan un difícil compromiso aquí. Los tokens atraen atención antes de que los sistemas sean probados, y la especulación puede superar la fiabilidad.
Ese riesgo es real. Una cadena construida para la IA no será juzgada por gráficos. Será juzgada por si los desarrolladores confían en sus primitivos bajo una carga real. ¿Se pueden revocar identidades de manera limpia? ¿Se mantienen los límites de gasto bajo estrés? ¿Son legibles los registros de atribución cuando surgen disputas? ¿El sistema se degrada de manera elegante cuando los agentes se comportan mal? Estas preguntas solo se responden con el tiempo y el uso.
Las señales de uso temprano sugieren que las personas al menos están poniendo a prueba la premisa. La actividad de testnet reportada hasta finales de 2025 mostró cientos de millones de transacciones y decenas de millones de direcciones interactuando con el entorno de Kite. Los informes del ecosistema Avalanche describieron un volumen de llamadas de agentes muy alto acompañado de micropagos. Las testnets incentivadas pueden inflar los números, y las métricas brutas nunca cuentan toda la historia, pero el patrón se alinea con la tesis de Kite. Los agentes quieren hacer muchas cosas pequeñas, de forma económica y con una clara responsabilidad. No quieren que cada interacción se sienta como un evento ceremonial en cadena.
El problema más difícil sigue siendo la atribución en sí. La contribución en IA es resbaladiza. Puede ser un conjunto de datos, un esfuerzo de etiquetado, una plantilla de solicitud, un ajuste fino, un arnés de evaluación, un índice de recuperación, un complemento de herramienta o una cadena de todos ellos. Cualquier sistema que pague por inteligencia debe defenderse contra el spam, la colusión y las contribuciones sintéticas. También debe unir registros en cadena con computación fuera de la cadena, porque la inferencia y el entrenamiento serios no ocurrirán dentro de bloques.
El desafío de Kite no es solo técnico. Es social y económico. Las reglas de atribución que son demasiado estrictas harán que el sistema sea inutilizable. Las reglas que son demasiado laxas lo convertirán en una granja de subsidios. Los constructores necesitan algo con lo que puedan vivir, y los adversarios deberían encontrarlo costoso de manipular. Ese equilibrio es donde la mayoría de los sistemas de coordinación ambiciosos fallan.
Si Kite tiene éxito, el resultado no es "una cadena de IA" como categoría. Es algo más cercano a una cadena de suministro de IA. Un lugar donde la identidad, los pagos, los derechos de datos y la memoria se sitúan en el mismo marco. Un lugar donde los agentes pueden operar a la velocidad de la máquina sin obligar a todos a confiar en la base de datos interna de una sola plataforma. La responsabilidad se vuelve legible. La colaboración se vuelve recompensable sin permiso. Las disputas tienen artefactos en lugar de vibraciones.
Esa visión es tranquila según los estándares de las criptomonedas. No promete una disrupción instantánea o un reemplazo de sistemas existentes de la noche a la mañana. Asume que los agentes llegarán gradualmente, haciendo trabajo real en segundo plano, y que la infraestructura que los apoya necesita ser aburrida, explícita y difícil de manipular. En un espacio adicto al espectáculo, esa restricción es casi radical.
Si la L1 de Avalanche de Kite se convierte en ese libro mayor sigue siendo una pregunta abierta. La atribución a gran escala ha humillado a sistemas más inteligentes antes. La regulación observará de cerca cómo las máquinas comienzan a manejar dinero con un toque humano mínimo. Y la confianza de los desarrolladores se gana lentamente, luego se pierde rápidamente. Pero la dirección es difícil de ignorar. Si los agentes van a participar en la economía, alguien tiene que definir las reglas de participación.
Kite está apostando a que esas reglas deberían existir en un protocolo, no en una base de datos privada. Si esa apuesta da sus frutos, podemos mirar hacia atrás y ver este momento no como el lanzamiento de otra cadena, sino como un primer intento de dar a las economías de máquinas algo que necesitan desesperadamente: una memoria compartida y verificable de quién hizo qué, y por qué se les pagó por ello.

