Telegram uruchomił własną zdecentralizowaną sieć Cocoon (Confidential Compute Open Network), która przetwarza AI-zapytania użytkowników wewnątrz chronionych enklaw — specjalnych izolowanych obszarów pamięci, gdzie dane pozostają zaszyfrowane nawet w trakcie przetwarzania. Nowa usługa stała się odpowiedzią na nieudane negocjacje z xAI Elona Muska o integrację Grok w komunikatorze.

Dlaczego nie doszło do umowy z xAI

Negocjacje dotyczące potencjalnej integracji Grok w Telegramie zakładały kwotę 300 mln USD w równowartości pieniężnej i akcji oraz 50% z przychodów z subskrypcji xAI przez komunikator. Jednak Pavel Durov odrzucił ofertę z powodu obaw dotyczących prywatności danych użytkowników.

Szef Telegramu wyjaśnił swoją pozycję już w październiku 2025 roku na konferencji Blockchain Life 2025 w Dubaju, gdzie wypowiedział się na temat ryzyk związanych z scentralizowanym sztuczną inteligencją (AI). Jego zdaniem obliczenia powinny należeć do ludzi, a nie korporacji czy rządów.

Scentralizowani dostawcy AI mogli uzyskać dostęp do danych użytkowników w celu szkolenia algorytmów, profilowania i potencjalnych manipulacji. Musk później zaprzeczył finalizacji transakcji, a żadna ze stron publicznie nie wróciła do tego tematu.

Architektura i zasady działania Cocoon

Sieć zbudowana jest na blockchainie The Open Network (TON) i wykorzystuje technologię Trusted Execution Environments (TEE). Zapytania użytkowników i wyniki pracy modeli są przetwarzane wewnątrz zabezpieczonych enklaw, co uniemożliwia właścicielowi procesora graficznego lub operatorowi sieci zobaczenie zawartości danych.

Właściciele GPU na całym świecie udostępniają moc obliczeniową i otrzymują nagrody w TON za wykonane zadania. Programiści aplikacji i mini-aplikacji Telegram mogą łączyć się z siecią i uzyskiwać dostęp do mocy AI po niższej cenie niż w scentralizowanych chmurach.

Telegram już stał się jednym z największych klientów własnej sieci. Wiele wbudowanych funkcji AI komunikatora — tłumaczenie wiadomości, głos na tekst, podsumowanie długich postów w kanałach oraz Instant View — działa częściowo lub całkowicie za pośrednictwem Cocoon.

Praktyczne zastosowanie

W aktualizacji Telegramu z 8 stycznia 2026 roku pojawiła się funkcja AI Summary dla długich postów w kanałach i artykułów Instant View. Te podsumowania są generowane za pomocą otwartych modeli działających właśnie na Cocoon.

Projekt ma otwarty kod źródłowy, dostępny w repozytorium na GitHubie. W najbliższych tygodniach zespół planuje podłączyć więcej procesorów graficznych i zaangażować programistów do ekosystemu, oferując użytkownikom Telegramu nowe funkcje AI z pełną kontrolą nad danymi.

Opinie AI

Analiza danych historycznych pokazuje ciekawą prawidłowość: większość zdecentralizowanych projektów obliczeniowych (Golem, iExec, Akash Network) napotkała problem „zimnego startu” — trudności w jednoczesnym przyciąganiu dostawców GPU i konsumentów. Cocoon elegancko rozwiązuje ten dylemat, ponieważ Telegram od razu staje się największym konsumentem własnej sieci.

Szybkość wdrożenia jest imponująca: od ogłoszenia w listopadzie 2025 roku do integracji AI Summary w styczniu 2026 minęło mniej niż trzy miesiące. Takie tempo wdrożenia jest rzadkie dla projektów zdecentralizowanych, które zwykle potrzebują lat na stworzenie stabilnej sieci. Czy zespół będzie w stanie utrzymać takie tempo przy skalowaniu na tysiące węzłów GPU?

#Telegram #AI #AImodel #Durov #Write2Earn

$TON

TON
TON
1.365
+1.33%