@Mira - Trust Layer of AI #Mira
Jawaban AI dapat terdengar seperti teman yang memberikan petunjuk dengan kepercayaan penuh bahkan ketika mereka mengarahkan Anda ke danau.
Desain Mira memperlakukan setiap respons seperti sekumpulan pernyataan kecil yang dapat diperiksa: pisahkan menjadi klaim, kirim setiap klaim ke beberapa model independen, lalu biarkan jaringan "menandatangani" hanya apa yang bertahan dari ketidaksepakatan di bawah insentif.
Itu kurang seperti "membuat model lebih pintar" dan lebih seperti memberikan output jejak kertas: Anda dapat melihat apa yang telah diverifikasi, apa yang ditolak, dan apa yang sebenarnya dapat didukung oleh sistem.
Dengan kata lain, itu mengubah kepercayaan dari sebuah nuansa menjadi catatan.
Dalam satu tolok ukur halusinasi publik untuk tugas yang berdasar, model yang berkinerja terbaik masih menunjukkan 5,6% halusinasi sekitar 1 dalam 18 output yang menyimpang dari kenyataan sumber dalam pengaturan itu.
Dan hasil bias yang telah ditinjau sejawat dalam klasifikasi gender berbasis wajah menemukan 34,7% kesalahan untuk satu subgrup dibandingkan 0,8% untuk yang lain dalam celah 40×.
Ketika kesalahan dapat diukur pada "1 dalam 18" dan disparitas dapat mencapai "40×," lapisan verifikasi terdesentralisasi adalah apa yang membuat output AI dapat digunakan sebagai input yang dapat diandalkan untuk sistem nyata.
#mira $MIRA
