Brüder, habt ihr den Screenshot "Der Senat will die AI-Trainings regulieren" gesehen? Meine erste Reaktion war: Diese alten Herren in Amerika haben endlich erkannt, dass das größte Problem bei AI nicht ist, ob sie "intelligent" ist, sondern dass man nicht klar sagen kann, wer sie ist, woher sie gelernt hat und was sie gelernt hat. Sobald die Blackbox geöffnet wird, gibt es Urheberrechtsprobleme, und am Ende, wer trägt die Verantwortung? Deshalb haben sie einfach die einfachste Logik: Zuerst registrieren, zuerst dokumentieren, zuerst haftbar machen. Zum Beispiel das CLEAR-Gesetz, das kürzlich von den Senatoren Schiff / Curtis vorgeschlagen wurde, das im Kern verlangt, dass die Entwickler von Modellen vor der Veröffentlichung (sogar rückblickend für bereits veröffentlichte Modelle) die verwendeten urheberrechtlich geschützten Werke in den Trainingsdaten offenlegen und eine öffentliche Datenbank sowie ein Sanktionssystem einrichten. Kurz gesagt: Zuerst müssen die "Personaldaten" und "Lernaufzeichnungen" der AI bei mir eingereicht werden.

Dann wurde mir plötzlich klar: Warum Vanar in diesem Jahr, egal ob der Preis steigt oder fällt, unermüdlich an dem Seed / Neutron / Kayon festhält. Andere Projekte reden gerne von "schnellerem TPS" und "cooleren Agenten", aber wenn die Regulierung wirklich greift, wirst du feststellen: Geschwindigkeit löst nicht das Beweisproblem. Wenn du die AI für Transaktionen, Kundenservice, Compliance oder Finanzen einsetzt - sobald sie einen Fehler macht, wird die Regulierung fragen: „Was war die Grundlage für diese Entscheidung, woher stammen die Daten, wie kam die Logik zu diesem Punkt?" Eine Reihe von Projekten wird sofort zum Schweigen gebracht. Vanars Ansatz ähnelt eher: Zuerst die "Erinnerung" in rückverfolgbare Einheiten (Seed) umzuwandeln und dann das "Verhalten" in einen verifizierbaren Rahmen (Kayon) zu bringen. Du kannst es so verstehen, dass die AI mit drei Dingen ausgestattet wird:

Personaldaten: Wer bist du, was hast du gelernt, woher kommst du;

Dashcam: Worauf basierte deine Entscheidung diesmal;

Sicherung: Handlungen, die nicht den Regeln entsprechen, nicht in die Blockchain aufnehmen, nicht ausführen.

Deshalb ist es für die AI "eine Personaldatenanmeldung zu geben" in anderen Fällen eine regulatorische Aufforderung zur Nachbesserung; bei Vanar fühlt es sich mehr so an, als wäre die Aufgabe schon erledigt, und man wartet nur darauf, dass der Lehrer die Arbeiten einsammelt. Wenn die Regulierung beginnt, "rückverfolgbar, prüfbar, erklärbar" zu belohnen, wird es für Projekte, die nur mit AI auftreten, immer schwieriger; während eine von Grund auf nach "Nachverfolgung + Verifizierung" aufgebaute Struktur immer wertvoller wird.

#vanar @Vanarchain $VANRY

VANRY
VANRY
0.005842
-0.42%