In den letzten Tagen sind einige meiner Hochfrequenz-Datenabfrageskripte, die auf Arbitrum laufen, aufgrund von Netzwerkstaus zweimal abgestürzt. Während ich auf den Bildschirm mit den vielen roten RPC-Fehlerprotokollen starrte, habe ich eine Weile in den Computerbildschirm geschaut. Das derzeitige L2-Ökosystem von DaFang ist so florierend, dass es atemberaubend ist, aber auch so aufgebläht, dass es verzweifeln lässt. Wenn du eine schnellere Bestätigungszeit haben möchtest, musst du die extrem teuren Kosten für Sortierer in Kauf nehmen. Das mag in einem Bullenmarkt nicht viel bedeuten, aber für diejenigen, die langfristige Datenanwendungen aufbauen möchten, ist es einfach eine Katastrophe. Diese Klage über die grundlegende Infrastruktur ließ mich instinktiv in meiner Auswahl nach den unabhängigen L1 suchen, die ins Abseits gedrängt wurden. In dieser extrem frustrierenden Nacht richtete ich meinen Blick erneut auf das semantische Netzwerk, dessen Code-Einreichungsfrequenz äußerst ungewöhnlich war. Viele Menschen, die AI-Konzept-Münzen handeln, konzentrieren sich nur auf Render und dessen reine Rechenleistungsverteilung oder Bittensor und dessen Modellkonsens und denken, dass alles, was mit GPU-Vermietung zu tun hat, das Öl der nächsten Ära ist. Aber nachdem ich mehrere Test-Demos der Neutron-Architektur durchlaufen habe, habe ich festgestellt, dass wir die gesamte Entwicklung von AI auf der Blockchain möglicherweise zu eng gedacht haben.
Selbst unsere Blockchain, selbst solche TPS-Monster wie Solana, ist im Grunde immer noch ein riesiges Hauptbuch mit schwerem Alzheimer. Wenn ein intelligenter Vertrag eine Transaktion abgeschlossen hat, weiß er nur, dass der Zustand A zu Zustand B geworden ist; warum es sich verändert hat und was die Interaktionspräferenzen dieser Adresse in den letzten drei Monaten waren, weiß der Vertrag überhaupt nicht. Wenn Sie möchten, dass die NPCs oder intelligenten Agenten auf der Kette ein Gedächtnis haben, müssen Sie eine riesige zentrale Datenbank extern anschließen oder mit extrem hohen Latenzzeiten die Indizes von The Graph abfragen. Dieses Gefühl der Zerrissenheit ist auf der Entwicklungsebene äußerst schmerzhaft; Vermögenswerte befinden sich auf einer dezentralisierten Kette, während das Gehirn auf den Cloud-Servern von Amazon lebt. Der Ansatz, den dieses Netzwerk wählt, ist äußerst raffiniert; es versucht nicht, die permanente Speicherbasis von Arweave zu revolutionieren, sondern schafft eine native semantische Verständnisebene. Ich habe versucht, einen Abschnitt mit mehrfachen verschachtelten Logiken von komplexen NFT-Metadaten in seine Testumgebung zu werfen; anstatt die Daten wie gewöhnlich zu hashen und zu speichern, strukturiert es sie in wissensbasierte Samen, die direkt von der KI-Engine gelesen werden können. Das bedeutet, dass, wenn Sie einen KI-Agenten in diesem Netzwerk bereitstellen, er sich nicht anstrengen muss, um die hexadezimalen Zeichenfolgen zu entschlüsseln; das Protokoll auf der unteren Ebene hat bereits die Daten in kontextualisierte semantische Objekte übersetzt.
Nehmen Sie das Near, das dasselbe in Bezug auf Kettenabstraktion und Intent-Erkennung tut, um zu vergleichen. Nears Logik besteht darin, die Schwelle für die Nutzererfahrung zu glätten, sodass Sie nahtlos zwischen Ketten wechseln können, was in der Tat eine sehr hochkarätige Ingenieureingabe ist. Aber es löst nicht das Problem der Intelligenz der Daten selbst. Daten, die auf Near liegen, sind immer noch kalte Buchhaltungszeichen. Und dieses Design, das Daten einem eingebauten Inferenz-Engine „füttert“, schafft in Wirklichkeit ein Betriebssystem mit einem integrierten Hippocampus. Als ich ihre kompatible Schicht für intelligente Verträge durchlief, war mein größtes Gefühl die extreme Zurückhaltung. Diese Leute, die offensichtlich extrem fortschrittliche semantische Analysen durchführen, machen im Hintergrund brav und gewissenhaft die nahtlose EVM-Kompatibilität. Ich muss nicht einmal die zugrunde liegende Logik des bestehenden Solidity-Vertrags ändern; ich kann ihn direkt mit Foundry nahtlos bereitstellen. Diese Kompromisse bei den traditionellen Entwickler-Toolchains sind viel intelligenter als die öffentlichen Blockchains, die einen ständig auffordern, Move oder Rust zu lernen.
Ich muss jedoch im Voraus sagen, dass die Glätte, die im Testnetz erzielt wurde, nicht bedeutet, dass das Hauptnetz den realen Verkehrsangriffen standhalten kann. Als ich einen Stresstest durchgeführt habe, habe ich deutlich gespürt, dass, als die Anfragen zur semantischen Analyse plötzlich in die Tausende gingen, die RPC-Antwort, die angeblich durch Cloud-Riesen-Knoten unterstützt wurde, extrem lethargisch war. Das ist nicht einfach nur Netzwerkverzögerung, sondern eher wie ein Engpass in der Verarbeitung durch die zugrunde liegende Inferenz-Engine, wenn es komplexe Kontexte bearbeitet. Sie haben in ihrer Werbung erwähnt, dass sie hardwarebasierte CUDA-Beschleunigung für die ZKP-Generierung nutzen, das klingt wirklich beeindruckend, wenn man direkt Ressourcen aus den Rechenkernen von Nvidia abruft; theoretisch sollte die Effizienz explodieren. Aber in der tatsächlichen Erfahrung ist diese Übergangszeit zwischen Hardware und Software offensichtlich noch nicht vorbei. Wenn in Zukunft Millionen von KI-Agenten mit komplexen Absichten gleichzeitig in diesem Netzwerk interagieren, wird diese sporadische Lethargie bei der Verteilung von Rechenleistung definitiv zu extrem katastrophalen On-Chain-Unfällen führen. Dieses Netzwerk sieht aus wie ein Sportwagen mit einem V8-Motor, dessen Aufhängungssystem noch nicht eingestellt ist; es sieht furchterregend aus, aber das Fahren gibt einem kein gutes Gefühl.
Zurück zum extrem hageren Sekundärmarkt ist das aktuelle Marktbewertungsmodell völlig durcheinander. Der Markt betrachtet es immer noch als eine von der letzten Phase überlebende Metaverse-Hautkette, die mit mehreren Millionen an Umlaufmarktbewertung in der heutigen Welt von öffentlichen Blockchains mit Hunderten Millionen FDV wie ein Witz erscheint. Aber wenn Sie die Bedeutung des sich aufbauenden Daten-Hippocampus für die zukünftige Interoperabilität von KI auf der Kette verstehen, werden Sie erkennen, dass diese extreme Nichtübereinstimmung in der Konsensbildung genau der Ort ist, an dem sich Alpha versteckt. Wenn alle auf die Monopolisierung der Rechenleistung und das Training von Modellen starren, zeigen diese Middleware-Lösungen, die versuchen, dass jede On-Chain-Datenbewegung von KI verstanden wird, oft die schrecklichsten vampirischen Fähigkeiten, wenn die Erzählung tatsächlich explodiert. Diese Art von Markt, die ohne starke Wale, die gewaltsam die Kontrolle übernehmen, und bei der selbst ein kleines Tretmine der Einzelanleger tiefe Gruben aufreißen kann, ist tatsächlich eine Prüfung des Herzens, aber im Vergleich zu diesen königlichen Projekten, die sofort die Erwartungen der nächsten zehn Jahre überziehen, ist diese Ambition, die im Dunkeln heimlich ein Netz webt, es wert, einen Teil des Kapitals zu investieren, um mitzuhalten.
