W ostatnim czasie przepływy kapitałowe w AI i kryptowalutach ulegają subtelnym, ale wyraźnym zmianom. Czołowe fundusze VC kryptowalut, takie jak Paradigm, zbierają nowe fundusze, wyraźnie rozszerzając zakres na AI, robotykę i inne obszary; zespół blockchain z Stanfordu również współpracuje z 0G Labs, aby uruchomić akcelerator AI, inwestując 20 milionów dolarów na inkubację zdecentralizowanych aplikacji AI; tymczasem niektóre raporty wskazują, że VC zaczynają kierować więcej zasobów w stronę 'bardziej dojrzałej' infrastruktury AI, podczas gdy w kryptowalutach niektóre projekty wciąż przetwarzają bańkę wyceny. To nie oznacza, że kryptowaluty zostały porzucone, ale kapitał podąża za krótkoterminową pewnością i długoterminowym narracjami, które się pokrywają. Centralizowane giganty AI palą pieniądze na potęgę, ale problemy z zamkniętością, wysokimi kosztami i trudnościami w kolejkach stają się coraz bardziej wyraźne; z drugiej strony projekty DePIN i DeAI w Web3 oferują alternatywne ścieżki, które są otwarte, z mechanizmami motywacyjnymi i przeciwdziałają monopolom. Szczególnie nadchodząca konferencja GTC Nvidii (16-19 marca) z prawdopodobnym kluczowym wystąpieniem Jensen Huang, które z pewnością skupi się na tematach takich jak agent AI, fabryka wnioskowania i fizyczny AI, co bezpośrednio wpłynie na popyt na moc obliczeniową/agentów, przelewając się na stronę zdecentralizowaną. W tym kontekście położenie czterech projektów staje się dość interesujące.
Protokół NEAR:
Jest to zasadniczo "warstwa rozliczeniowa" agentów AI. Ramy prowadzone przez Yilonga (kluczowego współtwórcę Transformera) już pozwoliły NEAR na wsparcie wysokoczęstotliwościowych interakcji on-chain i autonomicznych płatności. Fundusz Paradigm zwraca się ku agentom AI, akcelerator Stanforda inkubuje podobne aplikacje, co bezpośrednio sprzyja wysokiemu TPS NEAR, niskim opłatom gazowym i natywnej konstrukcji Agentów. Obecna cena spadła do 1.2U+, co daje przyzwoity margines bezpieczeństwa, a gdy narracja o agentach GTC zostanie skatalizowana, przyspieszenie wdrożenia ekosystemu może łatwo doprowadzić do przeszacowania.
Sieć Render:
Renderowanie wizualne to twarda potrzeba w generowaniu wideo AI (jak seria Sora). Rozproszona sieć GPU RENDER dokładnie rozwiązuje problem drogiego i długiego oczekiwania na scentralizowanych farmach, a wykorzystanie już wzrosło do 85-95%. Jeśli GTC nadal będzie promować fabryki AI i fizyczne AI, ilość zadań renderujących prawdopodobnie znów wzrośnie, a mechanizm spalania stworzy pozytywną informację zwrotną. Konkurencja istnieje, ale w "prawdziwym użyciu" jest liderem, należy do podstawowych potrzeb, które są coraz bardziej pożądane.
Sieć Akash:
Małe i średnie przedsiębiorstwa oraz startupy zasadniczo nie stać na chipy klasy Rubin ani nie mogą na nie czekać. Zdecentralizowany rynek wynajmu AKT obniża koszty wnioskowania/trenowania (o 30-50% niższe niż AWS) poprzez licytację. Ostatnie wydania akceleratorów i narzędzi AI podkreślają niskokosztową infrastrukturę, a właściwości RWA AKT mają tutaj naturalną przewagę. TVL i ilość wynajmu wciąż rośnie, ale gdy AI startupy masowo przejdą na DePIN, prawdopodobieństwo, że stanie się to mainstreamem, jest całkiem duże.
Bittensor:
TAO nie sprzedaje mocy obliczeniowej, lecz buduje "globalną warstwę inteligentnej konsensusu". Mechanizm sub-sieci motywuje deweloperów do współpracy przy otwartoźródłowych modelach AI, system rankingów i nagród doskonale kontrastuje z zamkniętością OpenAI. Ekspansja funduszu AI Paradigm/Stanford oraz dyskusje o stosie agentów GTC zwiększają efektywność sub-sieci i przechwytywanie wartości. Po halvingu podaż jest bardziej napięta, stopa stakowania jest wysoka, a emocje są dużą zmiennością, ale w dłuższej perspektywie jest to najczystszy alfa w tej dziedzinie.
Mówiąc prosto, ten przepływ kapitału to dzwonek alarmowy, ale także okazja. Im więcej pieniędzy wydaje scentralizowane AI, tym bardziej realna staje się potrzeba zdecentralizowanej alternatywy. Te projekty opierają się na podstawowych potrzebach (rozliczenia agentów, renderowanie, równoważna moc obliczeniowa, otwarty konsensus), a obecne korekty są wręcz oknem na lewą stronę. Oczywiście są ryzyka - słaby rynek, wolne tempo wdrażania, narastająca konkurencja - ale logiczny łańcuch staje się coraz bardziej solidny pod wpływem katalizatorów zdarzeń.
Jak myślicie, bracia? Czy najpierw skupić się na kierunku agentów NEAR, czy bardziej skłaniać się ku inwestycjom w infrastrukturę mocy obliczeniowej?