@KITE AI $KITE #KİTE

KITEBSC
KITEUSDT
0.09009
+2.30%

Im vergangenen Jahr habe ich viele KI-Produkte beobachtet, darunter solche, die als Assistenten fungieren, autonome Agenten, Unternehmensautomatisierung und solche, die Modellupgrades durchführen. Früher war die Gedächtnisfähigkeit der Modelle sehr schwach und konnte nur kurze Kontexte aufrechterhalten. Man machte sich nicht allzu viele Sorgen, dass sie "Dinge falsch erinnern" oder "alte Aufgaben ausführen". Aber in letzter Zeit hat die Gedächtnisfähigkeit großer Modelle zugenommen, sodass sie Benutzerpräferenzen, Aufgabemuster und langfristige Ziele kontinuierlich im Gedächtnis behalten können, und sie sind sogar in der Lage, auf der Grundlage historischer Ausführungsverhalten ihre Strategien selbst zu optimieren.
Das sieht stark aus, bringt aber auch ein enormes Risiko mit sich – wenn KI-Agenten beginnen, "langfristiges Gedächtnis" zu haben, wird die Kontinuität ihres Handelns zu einer neuen Risikofront.


Das Gedächtnis der Menschen ist ungenau, was uns tatsächlich hilft, viele Fehler bei der Ausführung zu reduzieren.
Wir vergessen ungültige Aufgaben, vergessen alte Prozesse, vergessen unnötige Berechtigungen.
Aber KI wird nicht vergessen und wird ständig aufaddieren.
Das bedeutet, dass wenn der Agent eine alte Berechtigung, ein abgelaufenes Verhaltensmuster oder einen nicht mehr anwendbaren On-Chain-Prozess erinnert, er weiterhin ausführen wird.

Und dieser Punkt wird eines der größten potenziellen Gefahren in der zukünftigen Agentenwirtschaft sein.

Du könntest sagen: „Dann lass es einfach vergessen?“
Das Problem ist, dass der Agent kein Fenster ist, sondern ein Ausführungskörper, der aus mehreren Gedächtnisschichten besteht:
Kurzzeitgedächtnis für Aufgaben, Langzeitgedächtnis für Gewohnheiten, Gedächtnis für Verhaltensrückmeldungen, Gedächtnis für Autorisierungen von Drittanbieter-Tools, Gedächtnis für Handlungen in On-Chain-Prozessen …
Du kannst es nicht einfach „seinen Kopf leeren“.
Sobald die Struktur des langfristigen Gedächtnisses des Agenten gebildet ist, wird sie automatisch die Ausführungspfade basierend auf vergangenen Erfahrungen ausfüllen.
Das klingt stark, birgt aber enorme Risiken.

Ich habe zum ersten Mal die Gefahren des Gedächtnisses erkannt, als ich einen KI-Agenten getestet habe, der Finanzaufgaben ausführt:
Er setzte die Ausführung eines Handelsprozesses fort, der nicht mehr für den aktuellen Markt geeignet war, basierend auf der Logik des alten Modells.
Der Grund war nicht, dass das Modell fehlerhaft war, sondern dass es „sich an die Art und Weise erinnert hat, wie es in der Vergangenheit Aufgaben erledigt hat“ und automatisch wiederverwendet hat.
In diesem Moment wurde mir klar, dass wenn Agenten in der Zukunft verbreitet werden, dieses „automatische Fortsetzen alter Aufgaben“ zu einer sehr häufigen Unfallquelle werden wird.

Menschen vermeiden aufgrund von Intuition bestimmte Fehler;
Agenten wiederholen aufgrund von Gedächtnis bestimmte Fehler.

Wenn diese Angelegenheit keine strukturelle Ebene zur Einschränkung hat, wird die automatisierte Welt in der Zukunft unweigerlich in eine Katastrophe führen.

Und genau aus dieser Perspektive fühle ich den Wert von Kite immer mehr —

Es verhindert, dass das Gedächtnis des Agenten direkt in unbegrenzte Handlungen umgewandelt wird, es isoliert das „Gedächtnis“ außerhalb der Struktur, sodass das Gedächtnis nicht überschreiten, nicht ausbreiten und sich nicht selbst erweitern kann.

Der Agent kann sich an das erinnern, was du magst, aber er kann aufgrund dieser Vorlieben nicht unbegrenzt auf deine Berechtigungen zugreifen;
Der Agent kann sich daran erinnern, welche Anwendungen du häufig verwendest, aber er kann nicht automatisch plattformübergreifend auf diese Anwendungen zugreifen;
Der Agent kann sich an die Schritte der Aufgabenausführung erinnern, aber er kann nicht automatisch die nächste Ausführungsberechtigung ableiten.


Denn in der Struktur der Sitzungen von Kite kommt die Ausführungsberechtigung nicht aus dem Gedächtnis des Agenten, sondern aus den von den Benutzern autorisierten Handlungskontexten.
Dieser Satz ist der wichtigste Punkt in der Architektur von Kite.

Der Agent weiß, „wie man es macht“, aber er hat nicht die Berechtigung, „es zu tun“.
Berechtigungen gehören immer dem Benutzer, sie werden nur vorübergehend dem Agenten geliehen, und der Entleihungsbereich ist streng kontrolliert.
Egal wie stark das Gedächtnis des Agenten ist, es kann diese Grenze nicht überschreiten.

Es ist, als würde man dem Agenten eine „Verhaltensisolationsschicht“ anlegen —
Er kann denken, aber nicht willkürlich handeln.
Er kann ableiten, aber nicht automatisch ausführen.
Er kann sich erinnern, aber nicht das Erinnerte in überschreitende Fähigkeiten umwandeln.

Diese Struktur klingt abstrakt, aber stell dir die reale Situation vor:
Angenommen, dein Agent hat sich an alle Dienste erinnert, die du im vergangenen Jahr abonniert hast, und entdeckt, dass ein Abonnement bald abläuft und beschließt, „proaktiv zu helfen, es zu verlängern“.
Das wäre in traditionellen Systemen – eine Katastrophe.
Es würde direkt auf das Wallet zugreifen, Zahlungen autorisieren, weil es „sich daran erinnert hat, dass du es früher hast verlängern lassen“.
Dieses Verhalten scheint fürsorglich zu sein, ist aber tatsächlich ein Überschreiten der Befugnisse.

Aber im System von Kite hat der Agent nicht die Fähigkeit, „eigenmächtig zu verlängern“, weil er keine dauerhaften Berechtigungen hat.
Er muss in einer von Benutzern initiierten „Verlängerungssitzung“ Aktionen ausführen.
Außerhalb der Sitzung ist er völlig machtlos.


Das hat mir bewusst gemacht:
Je stärker das Gedächtnis des Agenten, desto gefährlicher ist er, und Kite ist das Werkzeug, das das Gedächtnis in Grenzen hält.

Denke weiter in tiefere Richtungen, die Erinnerungen der zukünftigen Agenten sind nicht nur Vorlieben und Aufgabenfolgen, sie werden enthalten:
Handlungshistorie, plattformübergreifende Datenmodelle, Nutzerverhaltensgraphen, Logik der Budgetnutzung, Strategien der Systeminteraktion …
Du kannst es als eine Art „schrittweise Selbstoptimierung“ verstehen.
Je stärker der Agent, desto stabiler ist sein „Selbst“, desto einfacher kann er zukünftiges Verhalten basierend auf vergangenen Erfahrungen anpassen.
Das bedeutet, dass die Handlungen des Agenten allmählich von „Benutzereingaben“ zu „autonomen Strategieausführungen“ übergehen.
Ohne eine Grenzmechanik kann diese Autonomie ein extrem hohes Risiko mit sich bringen.

Ein Agent mit langfristigem Gedächtnis ist wie ein Mitarbeiter, der auf alten Erfahrungen basiert arbeitet;
Aber wenn er keine Prozessnorm hat, wird er eigenmächtig Entscheidungen treffen.

Was Kite bietet, ist diese „Prozessnorm“.
Agenten handeln nicht frei, sondern im definierten „Aktionsprozess“ der Kettenstruktur.
Die Sitzung ist das Prozessdokument;
Die Berechtigung ist der Prozessrahmen;
Der Benutzer ist der autorisierende Teil des Prozesses;
Die Kette ist der Prüfer des Prozesses.

Egal wie stark das Gedächtnis ist, es kann nicht die Prozesse überschreiten.
Dieser Satz scheint gewöhnlich zu sein, könnte aber das wichtigste Branchenprinzip der zukünftigen Agentenära sein.

Drücke weiter voran —
Wenn Agenten Gedächtnis haben, wird ihre Zusammenarbeit auch von Gedächtnis abhängen.
Agent A erinnert sich, dass Agent B bei der Ausführung einer bestimmten Aufgabe geholfen hat, und bittet automatisch um Zusammenarbeit;
Agent B erinnert sich, dass Agent A in der Vergangenheit einen Zugriff auf einer Plattform hatte, und ruft automatisch die Schnittstelle auf;
Diese Art der Zusammenarbeit führt ohne Aufgabenisolierung zu einer Verwirrung der Berechtigungen.

Und Kites Sitzungsmechanismus erfordert, dass die Zusammenarbeit im „gleichen Aufgabencontainer“ abgeschlossen wird,
und es wird Agenten nicht erlaubt, durch „Gedächtnis“ die Autorisierungsstruktur zu umgehen.

Es lässt das Gedächtnis zu einem Referenzpunkt für die Ausführung werden, nicht zu einer Grundlage für die Ausführung.
Die Ausführung muss durch Strukturen erfolgen, nicht durch Gedächtnis.

Dieser Punkt wird das wichtigste Fundament für die Sicherheit von KI in der Zukunft sein.

Je mehr ich das verstehe, desto mehr habe ich das Gefühl, dass das, was Kite tut, völlig über das „KI + Kette“ hinausgeht.
Es ist tatsächlich eine sehr großartige Aufgabe —
die intelligente Evolution des Agenten so zu gestalten, dass sie nicht zu einem unkontrollierten Verhalten führt.
Es lässt den Agenten wachsen, aber nicht überschreiten.
Es ermöglicht dem Agenten, Gedächtnis zu haben, aber nicht das Gedächtnis zu missbrauchen.
Es lässt den Agenten stärker werden, verursacht aber keine strukturellen Schäden am System.

Deshalb denke ich, dass Kite die grundlegendste Sicherheitsstruktur für die zukünftige Agentenökologie ist.

Agenten werden sich weiterentwickeln, aber die Verhaltensgrenzen können sich nicht weiterentwickeln.
Kite ist das „Verhalten Schloss“ der Agentenwelt.
Es ist nicht darauf ausgelegt, den Agenten zu beschränken, sondern die Benutzer und das gesamte System zu schützen.

Je stärker das Gedächtnis, desto mehr sind Grenzen erforderlich;
Je größer die Fähigkeiten, desto mehr sind Institutionen erforderlich;
Je verbreiteter der Agent, desto mehr benötigt er Kite.