Setelah saya membaca Whitepaper Mira, saya mulai berpikir tentang seberapa kuat AI, tetapi juga seberapa rapuhnya itu. Kita sering berbicara tentang model bahasa dan seberapa baik mereka dalam berbicara, menjadi kreatif, dan bekerja cepat. Tetapi jika kita melihat lebih dekat, kita dapat melihat bahwa sistem AI memiliki batasan: mereka berdasarkan probabilitas. Mereka tidak benar-benar "tahu" hal-hal seperti yang dilakukan manusia. Mereka hanya membuat prediksi. Prediksi, tidak peduli seberapa baik mereka, bisa saja salah. Terkadang kesalahan ini muncul sebagai sesuatu yang tidak benar. Kadang-kadang muncul sebagai bias.. Tidak peduli seberapa besar atau terlatihnya sebuah model tunggal, masalah ini tidak pernah benar-benar hilang.
Apa yang saya suka tentang pendekatan Miras adalah bahwa mereka berpikir keandalan mungkin tidak berasal dari membangun satu model. Sebaliknya, itu mungkin berasal dari orang-orang yang tidak setuju dengan cara yang terstruktur dan mencapai konsensus.
Dari Output ke Klaim yang Dapat Diverifikasi
Salah satu ide menarik adalah bagaimana mereka mengubah cara sesuatu dilakukan. Dengan meminta banyak model untuk melihat satu paragraf atau output kompleks sekaligus, jaringan memecahnya menjadi klaim-klaim terverifikasi yang kecil.
Ini penting.
Jika Anda meminta model untuk memverifikasi sebuah teks panjang, masing-masing mungkin memahaminya secara berbeda. Satu mungkin melihat kata-kata, yang lain konteks dan yang lainnya asumsi yang tersembunyi. Mira memastikan semua orang melihat hal yang sama dengan cara yang sama. Setiap verifier melihat klaim yang sama dalam struktur yang sama. Ini mengurangi kebingungan. Membuatnya bermakna ketika semua orang setuju.
Menurut pendapat saya, ini adalah sebuah perubahan: membuat hal-hal dapat diandalkan dengan menstandarkan mereka sebelum memeriksanya.
Insentif Ekonomi sebagai Keamanan
Hal lain yang masuk akal bagi saya adalah cara mereka menggunakan kombinasi Proof-of-Work dan Proof-of-Stake.
Blockchain tradisional memberi imbalan kepada orang-orang karena menggunakan banyak daya komputasi. Namun, Mira memerlukan orang untuk menggunakan AI untuk memverifikasi sesuatu dan mereka harus mempertaruhkan nilai. Karena tugas verifikasi terstruktur, seseorang bisa saja. Beruntung dalam jangka pendek.. Jika sebuah node secara konsisten tidak setuju dengan orang lain atau bertindak secara irasional, itu akan dikenakan penalti.
Ini menciptakan insentif finansial untuk mengatakan yang sebenarnya.
Sistem ini tidak bergantung pada kepercayaan terhadap otoritas. Ia bergantung pada orang-orang yang bertindak demi kepentingan diri mereka sendiri karena mereka memiliki sesuatu yang dipertaruhkan. Bagi saya, itu adalah perbedaan. Ia mengubah validasi AI dari mempercayai institusi menjadi mempercayai sistem.
Keberagaman sebagai Fitur, Bukan Bug
Hal penting lainnya adalah bahwa Mira memungkinkan untuk model yang berbeda. Ketika satu orang memilih model, itu bisa jadi bias.
Struktur terdesentralisasi Miras memungkinkan orang menjalankan model dengan pelatihan dan perspektif yang berbeda. Keberagaman ini bukanlah masalah. Ini yang menyeimbangkan bias. Ketika model-model tidak setuju, itu membantu menyaring kesalahan. Ketika mereka setuju, itu meningkatkan kepercayaan.
Ini adalah kecerdasan yang diterapkan pada kecerdasan mesin.
Privasi dengan Desain
Saya juga suka cara mereka menangani privasi. Kontennya dibagi menjadi bagian-bagian dan disebar di banyak node. Tidak ada orang tunggal yang melihat hal itu. Respons verifikasi disimpan secara pribadi sampai semua orang setuju.
Di dunia di mana orang semakin khawatir tentang AI dan kebocoran data, pendekatan ini terhadap privasi terasa seperti telah dipikirkan dengan hati-hati.
Di Luar Verifikasi: Menuju Generasi yang Terverifikasi
Apa yang saya pikir adalah tujuan ambisius adalah visi jangka panjang. Verifikasi bukan hanya sesuatu yang dilakukan setelah fakta. Tujuannya adalah untuk membangunnya ke dalam generasi AI itu sendiri. Model dasar di mana pemeriksaan kesalahan telah terintegrasi, bukan sesuatu yang dilakukan nanti.
Jika mereka dapat melakukan ini, itu akan menghilangkan trade-off antara kecepatan dan akurasi. Dalam menghasilkan sesuatu dan kemudian memeriksanya, output akan benar dari awal.
Ini akan mengubah cara AI digunakan di bidang seperti kesehatan, hukum, dan keuangan. Ini akan memungkinkan sistem beroperasi tanpa supervisi manusia tetapi tetap dapat dipertanggungjawabkan.
Pikiran Akhir
Bagi saya, yang paling penting adalah bahwa hanya membuat model lebih besar tidak akan membuat AI lebih dapat diandalkan. Tampaknya ada batasan seberapa dapat diandalkannya sebuah model tunggal. Untuk melewati batas ini, kita perlu menggunakan insentif dan mendesentralisasikan.
Mira memandang keandalan AI sebagai masalah dengan infrastruktur, bukan hanya model.
Dan jika AI akan menjadi lebih dari sekadar alat yang berguna tetapi sistem yang dapat bekerja pada infrastrukturnya sendiri, seperti ini mungkin tidak bersifat opsional. Ini mungkin diperlukan.
#Mira @Mira - Trust Layer of AI $MIRA
