Telegram hat ein eigenes dezentrales Netzwerk namens Cocoon (Confidential Compute Open Network) gestartet, das AI-Anfragen von Nutzern innerhalb geschützter Enklaven verarbeitet – speziellen isolierten Speicherbereichen, in denen die Daten selbst während der Verarbeitung verschlüsselt bleiben. Der neue Dienst ist die Antwort auf die gescheiterten Verhandlungen mit xAI von Elon Musk über die Integration von Grok in den Messenger.

Warum der Deal mit xAI scheiterte

Verhandlungen über die potenzielle Integration von Grok in Telegram sahen eine Summe von $300 Millionen in Geldäquivalent und Aktien plus 50% der Einnahmen aus Abonnements von xAI über den Messenger vor. Pavel Durov wies das Angebot jedoch aufgrund von Bedenken hinsichtlich der Privatsphäre der Benutzerdaten zurück.

Der Leiter von Telegram erklärte seine Position bereits im Oktober 2025 auf der Konferenz Blockchain Life 2025 in Dubai, wo er über die Risiken der zentralisierten künstlichen Intelligenz (AI) sprach. Seiner Meinung nach sollten Berechnungen den Menschen und nicht Unternehmen oder Regierungen gehören.

Zentralisierte AI-Anbieter konnten auf Benutzerdaten zugreifen, um Algorithmen zu trainieren, Profile zu erstellen und potenzielle Manipulationen vorzunehmen. Musk bestritt später die Finalisierung des Deals, und keine der Parteien hat sich öffentlich wieder zu diesem Thema geäußert.

Architektur und Prinzipien der Funktionsweise von Cocoon

Das Netzwerk basiert auf der Blockchain The Open Network (TON) und verwendet die Technologie der Trusted Execution Environments (TEE). Benutzeranfragen und die Ergebnisse der Modellarbeit werden innerhalb von geschützten Enklaven verarbeitet, was es weder dem Besitzer der Grafikkarte noch dem Netzwerkbetreiber ermöglicht, den Inhalt der Daten zu sehen.

GPU-Besitzer auf der ganzen Welt stellen Rechenleistung bereit und erhalten Belohnungen in TON für die Erledigung von Aufgaben. Entwickler von Anwendungen und Mini-Anwendungen in Telegram können sich mit dem Netzwerk verbinden und Zugang zu AI-Ressourcen zu einem günstigeren Preis als bei zentralisierten Clouds erhalten.

Telegram ist bereits einer der größten Kunden seines eigenen Netzwerks geworden. Viele integrierte AI-Funktionen des Messengers – die Übersetzung von Nachrichten, Sprache in Text, Zusammenfassungen langer Beiträge in Kanälen und Instant View – funktionieren teilweise oder vollständig über Cocoon.

Praktische Anwendung

Im Update von Telegram vom 8. Januar 2026 wurde die Funktion AI Summary für lange Beiträge in Kanälen und Instant View-Artikeln eingeführt. Diese Zusammenfassungen werden mit Hilfe offener Modelle generiert, die genau auf Cocoon arbeiten.

Das Projekt hat einen offenen Quellcode, der im Repository auf GitHub verfügbar ist. In den kommenden Wochen plant das Team, mehr Grafikkarten anzuschließen und Entwickler in das Ökosystem einzubeziehen, um den Telegram-Nutzern neue AI-Funktionen mit vollständiger Kontrolle über die Daten bereitzustellen.

Meinung AI

Die Analyse historischer Daten zeigt ein interessantes Muster: Die meisten dezentralisierten Rechenprojekte (Golem, iExec, Akash Network) hatten mit dem Problem des "kalten Starts" zu kämpfen – der Schwierigkeit, gleichzeitig GPU-Anbieter und Verbraucher zu gewinnen. Cocoon löst dieses Dilemma elegant, da Telegram sofort als größter Verbraucher seines eigenen Netzwerks auftritt.

Die Geschwindigkeit der Implementierung ist beeindruckend: Vom Ankündigungsdatum im November 2025 bis zur Integration von AI Summary im Januar 2026 vergingen weniger als drei Monate. Solche Implementierungsgeschwindigkeiten sind für dezentralisierte Projekte selten, die normalerweise Jahre benötigen, um ein nachhaltiges Netzwerk aufzubauen. Wird das Team in der Lage sein, eine solche Geschwindigkeit beim Skalieren auf Tausende von GPU-Knoten aufrechtzuerhalten?

#Telegram #AI #AImodel #Durov #Write2Earn

$TON

TON
TON
1.368
-2.28%