C'è un silenzioso disallineamento al cuore della finanza moderna. Il software ha imparato a decidere, ottimizzare e agire alla velocità della macchina, eppure il denaro rimane ostinatamente controllato dagli esseri umani. Un agente AI può negoziare prezzi, gestire logistica ed eseguire strategie su piattaforme, ma nel momento in cui il valore deve muoversi, tutto rallenta. I conti richiedono persone giuridiche. I pagamenti richiedono approvazioni. Il rischio è gestito attraverso l'attrito piuttosto che il design.

Questo disallineamento era tollerabile quando il software svolgeva un ruolo di supporto. Diventa fragile quando il software inizia a operare autonomamente.

I sistemi bancari tradizionali non sono mai stati costruiti per attori non umani. Presuppongono che la responsabilità fluisca da documenti d'identità, firme e responsabilità istituzionale. Il software, al contrario, è trattato come un'estensione di un utente umano, non come un attore economico a sé stante. Di conseguenza, anche gli agenti più avanzati si affidano ancora a credenziali condivise, wallet custodiali o intermediari centralizzati per spostare denaro. Questi workaround mantengono i sistemi in funzione, ma concentrano il rischio in modi sempre più difficili da giustificare.

Il problema non è che le banche siano lente a innovare. È che il loro modello di fiducia è incompatibile con l'esecuzione autonoma. Un conto bancario implica un'autorità illimitata. Una volta concesso l'accesso, il sistema si fida del titolare del conto per comportarsi secondo le norme sociali e legali, applicate dopo il fatto. Questo modello crolla quando si applica a agenti che agiscono continuamente, in modo adattivo e su larga scala. L'applicazione post-hoc è priva di significato se il danno può verificarsi in millisecondi.

Ciò che manca non è la velocità, ma la struttura.

Affinché gli agenti possano transare in sicurezza, l'autorità economica deve essere ristretta, esplicita e esauribile. Un agente non dovrebbe 'possedere' denaro nel senso umano. Dovrebbe essere autorizzato a utilizzare valore sotto condizioni definite, per uno scopo definito, all'interno di una finestra temporale definita. La finanza tradizionale non ha un concetto nativo di questo tipo. Si basa su permessi ampi e supervisione umana per compensare. Man mano che gli agenti diventano più capaci, quella compensazione fallisce.

È qui che i sistemi di pagamento basati su blockchain entrano nella conversazione, non come una banca alternativa, ma come un diverso substrato di fiducia. Gli stablecoin sono importanti qui non perché siano nuovi, ma perché scollegano il trasferimento di valore dall'identità basata su account. Permettono che il settlement avvenga sulla base dell'autorità crittografica piuttosto che del permesso istituzionale. Quella svolta crea spazio per ripensare chi—o cosa—può transare.

Ciò che rende interessanti le ferrovie di pagamento native agli agenti non è che rimuovano completamente gli esseri umani dal loop, ma che consentono agli umani di definire il loop in modo più preciso. Invece di approvare ogni transazione, un utente può definire i confini una volta e lasciare che il sistema li faccia rispettare meccanicamente. L'autorità diventa programmabile piuttosto che discrezionale. Il rischio è limitato ex ante piuttosto che auditato ex post.

L'affermazione che grandi volumi di transazioni possano già essere elaborati sotto questo modello è meno importante di ciò che implica. Su larga scala, la domanda non è più se gli agenti possano pagare, ma come quei pagamenti siano definiti. Un alto throughput senza autorità definita ricrea semplicemente gli stessi rischi sistemici a velocità maggiore. Tuttavia, il throughput con vincoli incorporati inizia a sembrare una nuova categoria di infrastruttura.

L'aspetto più sottovalutato dei pagamenti agentici è la coordinazione. Gli agenti non pagano solo i commercianti; si pagano a vicenda. Esternalizzano compiti, acquistano dati e negoziano servizi in tempo reale. Queste interazioni richiedono un veloce settlement, ma anche una chiara responsabilità. Se un agente si comporta male, il sistema deve essere in grado di identificare l'ambito della sua autorità e revocarla senza danni collaterali. Questo è impossibile quando tutte le attività passano attraverso un singolo account controllato da un umano.

Visto in questo modo, l'incapacità degli agenti IA di aprire conti bancari non è un'inconvenienza temporanea. È un segnale che l'infrastruttura finanziaria esistente sta raggiungendo il limite del suo design. Stiamo cercando di allungare i sistemi centrati sull'umano per coprire comportamenti nativi delle macchine, e le cuciture stanno mostrando.

La strada da percorrere difficilmente comporterà la sostituzione wholesale delle banche. Invece, comporterà la creazione di nuove corsie economiche dove l'attività guidata da macchine può avvenire sotto regole più severe e esplicite. Queste corsie possono sembrare restrittive rispetto agli account umani, ma quella restrizione è il punto. L'autonomia senza limiti non è libertà; è rischio non gestito.

Man mano che gli agenti diventano più integrati nel commercio, la domanda da porsi non è cosa compreranno per prima, ma sotto quale autorità dovrebbero essere autorizzati a comprare qualsiasi cosa. La risposta plasmerà non solo i pagamenti, ma anche quanto fiducia siamo disposti a riporre nei sistemi autonomi. In questo senso, l'evoluzione dell'infrastruttura di pagamento agentica riguarda meno l'abilitazione delle macchine e più la protezione degli esseri umani che dipendono da esse.@KITE AI 中文 #KITE $KITE