Dopo aver trascorso del tempo a leggere come funziona Mira Network, la parte che mi ha colpito non sono i modelli di intelligenza artificiale stessi. È lo strato che li verifica.
La maggior parte delle conversazioni sull'infrastruttura AI si concentra sulla costruzione di modelli migliori. Mira adotta un angolo leggermente diverso. Il progetto, spesso discusso attraverso il suo account @Mira - Trust Layer of AI , è più preoccupato se una risposta AI possa realmente essere considerata affidabile.
I grandi modelli sono utili, ma hanno l'abitudine di apparire sicuri anche quando sono errati. Allucinazioni, pregiudizi nascosti e affermazioni non verificabili sono ancora comuni. L'idea di Mira è di trattare le uscite AI meno come risposte finite e più come affermazioni che necessitano di verifica.
Invece di accettare una risposta come un blocco unico di testo, il sistema la suddivide in affermazioni più piccole. Ogni affermazione può quindi essere verificata attraverso più modelli AI indipendenti.
Puoi pensarlo un po' come una rete di verifica dei fatti distribuita. Un modello genera una risposta, mentre altri testano indipendentemente se i pezzi reggano.
Il coordinamento avviene attraverso uno strato di blockchain. Il consenso e le prove crittografiche aiutano a registrare quali affermazioni hanno superato la verifica e quali no. Questo crea un tracciato che chiunque può ispezionare piuttosto che fare affidamento su un unico validatore centralizzato.
Il token, $MIRA , gioca qui un ruolo pratico. Fornisce incentivi economici per i partecipanti che contribuiscono al lavoro di verifica e mantengono l'affidabilità della rete.
Detto ciò, l'idea non è priva di sfide.
Eseguire più modelli per verificare un'unica uscita aumenta il costo computazionale. Coordinare validatori indipendenti è anche più difficile rispetto a un sistema centralizzato. E come molti progetti AI decentralizzati discussi sotto #Mira e #MiraNetwork , l'ecosistema circostante è ancora relativamente all'inizio.
Tuttavia, il concetto di aggiungere uno strato di verifica all'AI sembra un cambiamento silenzioso ma importante.
A volte il vero problema non è generare risposte.
È sapere quando quelle risposte dovrebbero essere considerate affidabili.
