1. Introduzione
L'intelligenza artificiale (AI) è spesso paragonata a grandi invenzioni come la stampa e internet. Ha il potere di cambiare la società in molti modi. Tuttavia, i sistemi AI di oggi affrontano ancora seri limiti. Possono produrre risposte creative e realistiche, ma spesso commettono errori. Questi errori impediscono all'AI di lavorare da sola in situazioni importanti senza supervisione umana.
Ci sono due principali tipi di errori nei sistemi AI: allucinazione e pregiudizio. L'allucinazione si verifica quando un modello crea informazioni false o non supportate. Il pregiudizio appare quando un modello mostra errori sistematici a causa dei dati utilizzati durante l'addestramento. Questi due problemi creano un tasso minimo di errore che nessun singolo modello può eliminare completamente.

Quando gli sviluppatori cercano di ridurre le allucinazioni selezionando con cura i dati di addestramento, potrebbero aumentare il bias. Quando cercano di ridurre il bias utilizzando dati più diversi, le allucinazioni possono aumentare. Questo crea un compromesso permanente tra precisione e accuratezza. Anche modelli grandi e avanzati non possono sfuggire completamente a questo limite.
Modelli ottimizzati possono funzionare bene in aree ristrette. Tuttavia, spesso faticano ad apprendere nuove conoscenze e a gestire situazioni inaspettate. Questo li rende inadatti a sistemi completamente autonomi che devono funzionare in ambienti complessi del mondo reale.
L'idea principale di $MIRA a è che nessun singolo modello AI può risolvere questo problema di affidabilità da solo. Invece, più modelli che lavorano insieme attraverso un consenso decentralizzato possono ridurre gli errori. Combinando modelli diversi con prospettive diverse, il sistema può filtrare le allucinazioni e bilanciare il bias.
2. Architettura della rete
La rete Mira verifica i contenuti generati dall'AI utilizzando un sistema decentralizzato. Invece di fidarsi di un'unica autorità centrale, utilizza molti nodi indipendenti che eseguono modelli AI diversi.
L'innovazione chiave è la trasformazione dei contenuti. Quando un utente invia contenuti per la verifica, il sistema li scompone in affermazioni più piccole, chiare e verificabili. Ad esempio, un'affermazione complessa può essere suddivisa in affermazioni fattuali separate. Ogni affermazione viene verificata indipendentemente.
Questo processo assicura che tutti i modelli di verifica esaminino le stesse domande chiaramente definite. Senza questa trasformazione, modelli diversi potrebbero interpretare lo stesso contenuto in modi diversi.
Dopo la trasformazione, la rete distribuisce le affermazioni a più nodi. Ogni nodo analizza l'affermazione e invia la propria risposta. La rete quindi aggrega le risposte e applica una regola di consenso, come l'accordo della maggioranza o un altro limite prestabilito.
Quando si raggiunge il consenso, il sistema genera un certificato crittografico. Questo certificato registra il risultato della verifica e prova che il processo è stato completato secondo il protocollo.
Il flusso di lavoro segue questi passaggi:
1. L'utente invia contenuti e definisce i requisiti di verifica.
2. Il sistema trasforma i contenuti in affermazioni.
3. Le affermazioni sono distribuite ai nodi.
4. I nodi verificano e inviano risposte.
5. La rete aggrega i risultati e raggiunge il consenso.
6. Un certificato viene emesso e restituito all'utente.
Questo design assicura che nessun singolo attore possa controllare l'esito.
3. Modello di Sicurezza Economica
Mira combina i principi di Proof-of-Work (PoW) e Proof-of-Stake (PoS). Tuttavia, invece di risolvere enigmi privi di significato, i nodi svolgono compiti di verifica reali.
Poiché i compiti di verifica possono utilizzare formati a scelta multipla, il tentativo casuale potrebbe talvolta produrre risposte corrette. Per prevenire ciò, i nodi devono impegnare valore per partecipare. Se un nodo si comporta in modo disonesto o dissente frequentemente dal consenso senza giustificazione, il suo valore può essere ridotto tramite sanzioni di slashing.
Questo crea forti incentivi economici per un comportamento onesto. Manipolare il sistema diventa costoso e irrazionale.
Il modello si basa su tre principi:
Comportamento economico razionale dei partecipanti.
Controllo della maggioranza da parte di stakeholder onesti.
Diversità di modelli per ridurre il bias.
Man mano che la rete cresce, le commissioni pagate dagli utenti ricompensano gli operatori dei nodi. Un aumento della partecipazione migliora la diversità e la sicurezza. Col tempo, il sistema diventa più robusto.
La rete utilizza anche duplicazione e sharding. Nelle prime fasi, più istanze dello stesso modello verificano i compiti per rilevare comportamenti malevoli. In seguito, i compiti sono distribuiti casualmente per ridurre i rischi di collusione.
4. Privacy
La privacy è un principio di design centrale. Quando i contenuti vengono trasformati in affermazioni più piccole, queste affermazioni vengono distribuite casualmente. Nessun singolo nodo può ricostruire il contenuto originale completo.
Le risposte dei nodi rimangono private fino a quando non si raggiunge il consenso. Il certificato finale include solo i dettagli di verifica necessari.
Man mano che il sistema evolve, verranno aggiunte ulteriori protezioni della privacy decentralizzate e crittografiche. L'obiettivo è mantenere forti garanzie di privacy pur preservando l'integrità della verifica.
5. Evoluzione della rete
Mira inizia con domini ad alto rischio come la sanità, il diritto e la finanza, dove l'accuratezza fattuale è fondamentale. Col tempo, si espanderà per supportare codice, dati strutturati e multimedia.
La visione a lungo termine va oltre la verifica. La rete mira a creare modelli fondamentali in cui la verifica è incorporata direttamente nel processo di generazione. Invece di generare prima e verificare dopo, il sistema genererà output già verificati.
Il crescente database di affermazioni verificate può anche supportare altre applicazioni, come sistemi di fact-checking e servizi oracolo.
6. Conclusione
I sistemi AI attuali non possono operare in modo affidabile senza supervisione umana a causa delle allucinazioni e del bias. Mira affronta questa limitazione attraverso la verifica decentralizzata, incentivi economici e consenso distribuito.
Combinando più modelli e allineando gli incentivi attraverso l'impegno, la rete rende il comportamento disonesto costoso e poco pratico. Col tempo, questo sistema può supportare AI che operano in modo autonomo con alta affidabilità.
Mira rappresenta un nuovo modello per un'infrastruttura AI affidabile, dove la verifica è decentralizzata, economicamente garantita e integrata nel futuro della generazione AI.