Gua makin lama makin sadar satu hal, bikin teknologi yang bisa bedain mana bener dan mana yang salah secara teknis itu sebenernya engga sulit, soalnya mesin itu bisa dilatih, algoritma bisa diperbaiki dan model AI bisa di upgrade. Yang jauh lebih susah justru menjaga ekonomi itu tetep manusiawi. Jujur, kebenaran itu bukan cuman soal data tapi juga soal dampaknya ke kehidupan orang lain. Dan di titik ini gua mulai paham, kenapa konsep seperti Mira Network muncul.

Di ekosistem Mira, tugas utamanya sebenernya sederhana yaitu buat mastiin kalo AI itu engga halusinasi. AI boleh pinter, boleh cepet tapi kalo jawabannya ngarang ya tetep harus dikoreksi. Pertanyaannya, siapa yang nentuin apa aja yang perlu di verifikasi? Disinilah manusia tetep punya peran penting. Mira itu engga dibuat jadi semacam polisi pikiran yang ngawasin opini orang, karna orang itu tetep bebas berpendapat, tetep bebas punya opini. Bedanya itu cuman satu, kalo opini keliatan kayak fakta ilmiah padahal salah, sistem bakalan kasih tanda. Mira engga ngelarang kita buat ngomong, tapi dia bikin kita semua tau mana fakta e mana interpretazione.

Questo è qualcosa che spesso le persone dimenticano, cioè che ogni IA ha sicuramente dei bias. Perché? Perché l'IA apprende dai dati creati dagli esseri umani, e gli esseri umani hanno sicuramente punti di vista diversi. Immagina se tutti i verificatori in un sistema utilizzassero lo stesso modello di IA, addestrato con gli stessi dati e con lo stesso modo di pensare? Il risultato della verità potrebbe risultare sbilanciato. Ecco perché Mira sta provando un approccio che trovo interessante, cioè la Diversità nei Node Verificator. Stanno spingendo gli utenti del modello AI da varie fonti, culture, lingue e anche sviluppatori diversi. Più prospettive partecipano alla verifica, minori sono le possibilità di dominanza. Nel loro modello c'è persino il concetto di punteggio di giustizia, il cui obiettivo è che minore è il bias, più ci si avvicina al valore ideale del sistema. Personalmente, mi piace abbastanza questa idea perché sono già consapevoli che una verità sana proviene da molti punti di vista.

Ci sono molti cambiamenti sociali che forse non molte persone hanno ancora realizzato. Se un sistema di verifica come questo viene davvero utilizzato su larga scala, le persone che non sanno che si tratta di una bufala spariranno perché lo strumento per controllarlo è già disponibile. Per esempio, se le informazioni hanno già l'etichetta "Falsificato da Mira" ma vengono comunque diffuse, non siamo più all'oscuro ma torniamo alla nostra consapevolezza. Se in futuro cose come questa possono avere conseguenze sociali, persino legali. Non è più la tecnologia a costringere, ma perché gli standard della società sono già cambiati.

C'è un impatto che trovo interessante della tecnologia di Mira, non è più solo uno strumento di verifica, ma può anche diventare uno strumento di apprendimento. Immagina che le persone possano vedere il processo di come una rivendicazione viene analizzata: quali sono i dati, quali sono le fonti e quali sono le conclusioni. Questo fa sì che le persone imparino a pensare e, col tempo, la cultura del dibattito potrebbe anche cambiare; non dirai più che sei sicuro che questo sia vero, ma cercherai le prove di verifica. E per me, questo è un cambiamento sano per internet.

Nel futuro non sarà l'uomo contro l'IA. Siamo stati spaventati dall'IA attraverso i film di fantascienza, come se alla fine perderemo contro macchine troppo intelligenti. Ma se ci pensi, il problema non è l'intelligenza delle macchine, ma l'onestà del loro sistema. Se l'IA è veloce ma caotica, è pericolosa; se l'IA è veloce e onesta, può diventare uno strumento straordinario. Qui il concetto portato da Mira è interessante; l'IA fornisce velocità e capacità analitiche, mentre i protocolli gestiti dagli esseri umani forniscono valori, regole e responsabilità. Non è un conflitto, ma una collaborazione.

A volte ci concentriamo così tanto sulla tecnologia da dimenticare che la tecnologia è in realtà solo uno strumento, e a determinare la direzione finale rimane sempre l'uomo. Se l'uomo è onesto, la tecnologia rafforzerà l'onestà e se l'uomo sceglie la manipolazione, la tecnologia può amplificare la manipolazione. Ciò che è interessante in Mira è che stanno cercando di assicurarsi che il controllo rimanga nelle nostre mani, ma il percorso possa comunque essere auditato, perché in un mondo sempre più pieno di IA, forse è proprio ciò di cui abbiamo più bisogno.

@Mira - Trust Layer of AI $MIRA #Mira