Telegram lanzó su propia red descentralizada Cocoon (Confidential Compute Open Network), que procesa solicitudes de IA de los usuarios dentro de enclaves protegidos: áreas de memoria aisladas especiales, donde los datos permanecen cifrados incluso durante el procesamiento. El nuevo servicio fue una respuesta a las negociaciones fallidas con xAI de Elon Musk sobre la integración de Grok en el mensajero.

Por qué se frustró el acuerdo con xAI

Las negociaciones sobre la posible integración de Grok en Telegram contemplaban una suma de $300 millones en equivalente monetario y acciones más el 50% de los ingresos por suscripciones de xAI a través del mensajero. Sin embargo, Pavel Durov rechazó la oferta debido a preocupaciones sobre la privacidad de los datos de los usuarios.

El jefe de Telegram explicó su posición ya en octubre de 2025 en la conferencia Blockchain Life 2025 en Dubái, donde se pronunció sobre los riesgos de la inteligencia artificial (IA) centralizada. En su opinión, los cálculos deben pertenecer a las personas, no a corporaciones o gobiernos.

Los proveedores de IA centralizados podrían haber accedido a los datos de los usuarios para entrenar algoritmos, perfilado y posibles manipulaciones. Musk posteriormente negó la finalización del acuerdo, y ninguna de las partes ha vuelto a abordar este tema públicamente.

Arquitectura y principios de funcionamiento de Cocoon

La red está construida sobre la blockchain The Open Network (TON) y utiliza la tecnología de Entornos de Ejecución Confiables (TEE). Las solicitudes de los usuarios y los resultados del trabajo de los modelos se procesan dentro de enclaves seguros, lo que impide que tanto el propietario de la GPU como el operador de la red vean el contenido de los datos.

Los propietarios de GPU de todo el mundo proporcionan potencia de cálculo y reciben recompensas en TON por completar tareas. Los desarrolladores de aplicaciones y miniaplicaciones de Telegram pueden conectarse a la red y acceder a las capacidades de IA a un costo más bajo que el de las nubes centralizadas.

Telegram ya se ha convertido en uno de los mayores clientes de su propia red. Muchas de las funciones de IA integradas del mensajero —traducción de mensajes, voz a texto, resumen de publicaciones largas en canales y Vista Instantánea— funcionan parcial o totalmente a través de Cocoon.

Aplicación práctica

En la actualización de Telegram del 8 de enero de 2026, se introdujo la función AI Summary para publicaciones largas en canales y artículos de Instant View. Estos resúmenes se generan utilizando modelos abiertos que funcionan precisamente en Cocoon.

El proyecto tiene código abierto, disponible en el repositorio de GitHub. En las próximas semanas, el equipo planea conectar más procesadores gráficos y atraer a desarrolladores al ecosistema, proporcionando a los usuarios de Telegram nuevas funciones de IA con control total sobre los datos.

Opinión de IA

El análisis de datos históricos muestra un patrón interesante: la mayoría de los proyectos de computación descentralizada (Golem, iExec, Akash Network) se enfrentaron al problema del 'inicio en frío': la dificultad de atraer simultáneamente a proveedores de GPU y consumidores. Cocoon resuelve esta dilema de manera elegante, ya que Telegram actúa de inmediato como el mayor consumidor de su propia red.

La velocidad de implementación es impresionante: desde el anuncio en noviembre de 2025 hasta la integración de AI Summary en enero de 2026, pasaron menos de tres meses. Tales ritmos de despliegue son raros para proyectos descentralizados, que normalmente requieren años para crear una red sostenible. ¿Podrá el equipo mantener este ritmo al escalar a miles de nodos GPU?

#Telegram #AI #AImodel #Durov #Write2Earn

$TON

TON
TON
1.338
-1.54%