Telegram uruchomił własną zdecentralizowaną sieć Cocoon (Confidential Compute Open Network), która przetwarza AI-zapytania użytkowników wewnątrz chronionych enklaw — specjalnych izolowanych obszarów pamięci, gdzie dane pozostają zaszyfrowane nawet w trakcie przetwarzania. Nowa usługa stała się odpowiedzią na nieudane negocjacje z xAI Elona Muska o integrację Grok w komunikatorze.
Dlaczego nie doszło do umowy z xAI
Negocjacje dotyczące potencjalnej integracji Grok w Telegramie zakładały kwotę 300 mln USD w równowartości pieniężnej i akcji oraz 50% z przychodów z subskrypcji xAI przez komunikator. Jednak Pavel Durov odrzucił ofertę z powodu obaw dotyczących prywatności danych użytkowników.
Szef Telegramu wyjaśnił swoją pozycję już w październiku 2025 roku na konferencji Blockchain Life 2025 w Dubaju, gdzie wypowiedział się na temat ryzyk związanych z scentralizowanym sztuczną inteligencją (AI). Jego zdaniem obliczenia powinny należeć do ludzi, a nie korporacji czy rządów.
Scentralizowani dostawcy AI mogli uzyskać dostęp do danych użytkowników w celu szkolenia algorytmów, profilowania i potencjalnych manipulacji. Musk później zaprzeczył finalizacji transakcji, a żadna ze stron publicznie nie wróciła do tego tematu.
Architektura i zasady działania Cocoon
Sieć zbudowana jest na blockchainie The Open Network (TON) i wykorzystuje technologię Trusted Execution Environments (TEE). Zapytania użytkowników i wyniki pracy modeli są przetwarzane wewnątrz zabezpieczonych enklaw, co uniemożliwia właścicielowi procesora graficznego lub operatorowi sieci zobaczenie zawartości danych.
Właściciele GPU na całym świecie udostępniają moc obliczeniową i otrzymują nagrody w TON za wykonane zadania. Programiści aplikacji i mini-aplikacji Telegram mogą łączyć się z siecią i uzyskiwać dostęp do mocy AI po niższej cenie niż w scentralizowanych chmurach.
Telegram już stał się jednym z największych klientów własnej sieci. Wiele wbudowanych funkcji AI komunikatora — tłumaczenie wiadomości, głos na tekst, podsumowanie długich postów w kanałach oraz Instant View — działa częściowo lub całkowicie za pośrednictwem Cocoon.
Praktyczne zastosowanie
W aktualizacji Telegramu z 8 stycznia 2026 roku pojawiła się funkcja AI Summary dla długich postów w kanałach i artykułów Instant View. Te podsumowania są generowane za pomocą otwartych modeli działających właśnie na Cocoon.
Projekt ma otwarty kod źródłowy, dostępny w repozytorium na GitHubie. W najbliższych tygodniach zespół planuje podłączyć więcej procesorów graficznych i zaangażować programistów do ekosystemu, oferując użytkownikom Telegramu nowe funkcje AI z pełną kontrolą nad danymi.
Opinie AI
Analiza danych historycznych pokazuje ciekawą prawidłowość: większość zdecentralizowanych projektów obliczeniowych (Golem, iExec, Akash Network) napotkała problem „zimnego startu” — trudności w jednoczesnym przyciąganiu dostawców GPU i konsumentów. Cocoon elegancko rozwiązuje ten dylemat, ponieważ Telegram od razu staje się największym konsumentem własnej sieci.
Szybkość wdrożenia jest imponująca: od ogłoszenia w listopadzie 2025 roku do integracji AI Summary w styczniu 2026 minęło mniej niż trzy miesiące. Takie tempo wdrożenia jest rzadkie dla projektów zdecentralizowanych, które zwykle potrzebują lat na stworzenie stabilnej sieci. Czy zespół będzie w stanie utrzymać takie tempo przy skalowaniu na tysiące węzłów GPU?
#Telegram #AI #AImodel #Durov #Write2Earn
