Negli ultimi giorni ho iniziato a notare una tendenza piuttosto folle nel mondo dell'IA... Non sono più gli esseri umani a utilizzare l'IA, ma l'IA inizia a impiegare altre IA. Immagina questo: il tuo assistente IA (Agente A) ha bisogno di un rapporto di ricerca di mercato, quindi assumerà un'IA specializzata in ricerca (Agente B) e poi i risultati verranno inviati a un'altra IA, cioè l'IA designer (Agente C), per creare un visual. Tutto ciò avviene automaticamente, senza il tuo intervento.
Sembra efficiente... ma se si presenta un problema, cosa succede se l'Agente B ha allucinazioni? Se i dati iniziali sono già errati, l'intera catena di lavoro potrebbe trasformarsi in spazzatura digitale costosa. Ed è qui che ho iniziato a interessarmi a un progetto chiamato Mira Network.
Grande Problema Nell'Economia AI
Sappiamo tutti che l'AI a volte ha allucinazioni. Ma nel sistema agent to agent, questo problema, secondo me, è più serio. Un esempio è se l'agente B crea ricerche false, l'agente C crea un design da quelle ricerche false e l'agente D crea una strategia di marketing da quel design. Un piccolo errore può trasformarsi in un errore esponenziale. La settimana scorsa ho provato un piccolo workflow per la ricerca di token AI.
utilizzo 3 modelli diversi per controllare la capitalizzazione di mercato e la narrazione del progetto.
è divertente come un modello legga male i dati, e gli altri due modelli seguano immediatamente quella supposizione.
il risultato finale? un'analisi che sembra super intelligente... ma in realtà è completamente errata. Se l'economia AI del futuro funziona in questo modo, sperimenteremo una crisi di fiducia delle macchine.
La Rete Mira è uno Strato di Verifica per l'AI
Il modo in cui Mira cerca di risolvere questo problema è davvero interessante. Hanno introdotto il concetto di Prof of Execution per gli agenti AI. Quindi un'AI viene pagata da un'altra AI, e il suo output deve essere verificato dalla rete di Mira.
Il processo è più o meno così: l'AI agente A assegna un compito all'AI agente B, poi Mira verifica la logica e la coerenza dell'output, infine il contratto intelligente paga. Questo significa che ogni passo di questo workflow AI diventa un Verifiable Agentic Workflow, non è solo l'AI che dice che è corretto, ma c'è uno strato di audit decentralizzato.
Reputazione AI, Indice di Affidabilità degli Agenti
Questa parte è quella che trovo interessante. Mira cerca di creare una reputazione per l'AI stessa, non una valutazione umana come le stelle nel marketplace. Ma basata sui dati di consenso della rete, il che significa che l'AI che sbaglia spesso avrà la sua reputazione abbassata e l'AI che è costantemente corretta avrà la sua reputazione aumentata. A lungo termine, l'AI con punteggi bassi sarà ignorata dal mercato degli agenti globali. È un po' divertente perché in futuro l'AI sarà rifiutata nel collaborare con sistemi a causa del punteggio di affidabilità basso.
Contratto Intelligente che Inizia a Comprendere l'AI
Il problema classico della blockchain è che i contratti intelligenti possono solo elaborare dati certi. Esempio: i soldi sono stati inviati? E i token sono stati ricevuti? Ma non possono rispondere alla domanda se quest'analisi AI ha senso?
Qui Mira cerca di diventare un interprete tra AI e blockchain. Mira aiuta i contratti intelligenti a elaborare dati probabilistici, come la qualità dell'analisi AI. Questo apre nuove possibilità: DAO completamente gestiti da AI che si verificano a vicenda.
Problema Altro : Collusione Tra AI
C'è uno scenario piuttosto inquietante. Cosa succede se l'AI impara a cospirare? Ad esempio, l'AI A crea un'analisi errata e l'AI B è d'accordo e l'AI C valida. Tutti qui coprono gli errori per ottenere un pagamento. Mira cerca di prevenire questo con nodi validatori indipendenti, quei nodi non hanno interessi nelle transazioni AI, controllano solo se l'output corrisponde alle prove crittografiche e alla logica universale.
A dire il vero, non sono ancora sicuro se l'economia agent to agent esploderà davvero nel prossimo futuro? Ma una cosa è chiara, l'AI interagisce sempre più spesso con altre AI senza esseri umani. Se non c'è un sistema di verifica come questo, ci sommergeremo in informazioni automatiche errate ma che sembrano convincenti, e questo è più pericoloso che semplicemente avere AI che allucinano.
Se la tendenza degli agenti autonomi cresce davvero, progetti come questo di Mira possono diventare un'infrastruttura di fiducia per l'economia delle macchine. Immagina un futuro in cui l'AI che possiedi rifiuta di collaborare con altre AI a causa della cattiva reputazione dei dati. Ma per essere onesti, il mondo delle criptovalute ha più volte trasformato cose che sembravano folli in realtà.
