Saya telah membaca kertas putih Miras dan satu hal terus teringat di benak saya adalah kertas putih Mira dan masalah halusinasi AI serta bias. Kertas putih Mira mengatakan bahwa ini bukan hanya masalah dengan model atau datanya. Ini adalah masalah yang membutuhkan solusi yang melibatkan seluruh sistem.

Setiap model bahasa besar memiliki masalah saat dilatih. Jika Anda membuatnya lebih tepat, ia akan memiliki bias sistemik. Jika Anda mencoba mengurangi bias, itu akan kurang tepat. Kertas putih Miras membantu saya memahami ini. Ia mengatakan bahwa halusinasi adalah ketika model tidak tepat dan memberikan jawaban yang tidak konsisten atau terlalu percaya diri. Di sisi lain, bias adalah ketika model tidak akurat dan memberikan jawaban yang tidak benar.

Tidak peduli seberapa banyak data atau kekuatan komputasi yang Anda gunakan, ada batasan seberapa akurat sebuah model dapat dilakukan. Anda tidak dapat menghilangkan semua kesalahan.

Perimbangan ini penting. Dari mencoba membuat satu model besar yang sempurna, bagaimana jika kita menganggap apa yang dikatakan model AI sebagai klaim yang perlu diperiksa? Ini masuk akal terutama ketika Anda memikirkan tentang cryptocurrency. Anda seharusnya tidak mempercayai satu model AI. Anda seharusnya membangun sistem yang memeriksa apa yang dikatakannya.

Mira melakukan itu. Ini mengambil apa yang dikatakan model AI dan memecahnya menjadi klaim. Kemudian menggunakan model untuk memeriksa setiap klaim. Ini seperti tes untuk melihat apakah sesuatu itu benar.

Saya ingat satu contoh dari kertas putih Mira. Misalkan kita ingin memeriksa apakah pernyataan "Bumi mengelilingi Matahari dan Bulan mengelilingi Bumi" itu benar. Mira akan memecah ini menjadi dua klaim. Satu klaim tentang Bumi dan Matahari dan klaim lainnya tentang Bulan dan Bumi. Setiap klaim dikirim ke model dan mereka masing-masing memberikan jawaban. Kemudian jawaban digabungkan untuk melihat apakah sebagian besar model setuju. Jika mereka setuju, Mira membuat sertifikat yang menyatakan klaim itu benar. Sertifikat ini juga menyatakan model mana yang setuju sehingga Anda tahu siapa yang memeriksanya.

Ini mirip dengan bagaimana blockchain bekerja. Dari mempercayai satu buku besar, kita mempercayai banyak node. Mira melakukan hal yang sama tetapi untuk apa yang dikatakan model AI. Ini menggunakan sistem yang memberikan penghargaan kepada model karena jujur dan menghukum mereka karena tidak jujur.

Saya juga suka bahwa Mira menggunakan model yang berbeda untuk memeriksa klaim. Ini tidak mengandalkan satu model untuk melakukan semuanya. Ini baik karena model yang berbeda memiliki kekuatan dan kelemahan. Ini membuat sistem lebih dapat diandalkan.

Tujuan Mira bukan untuk menjadi sempurna. Ini adalah untuk menjadi lebih dapat diandalkan dengan menggunakan model untuk memeriksa klaim. Kertas putih Mira mengatakan bahwa ini dapat membuat sistem 95% atau lebih akurat.

Dan itu adalah intinya: ini bukan tentang membuat AI sempurna. Ini tentang membangun sistem di mana kebenaran berasal dari sumber, bukan hanya satu.

Mira sangat cocok dengan ide cryptocurrency. Kami tidak menciptakan Bitcoin karena kami menginginkan bank. Kami menciptakannya karena kami menginginkan cara untuk mentransfer nilai tanpa perlu mempercayai seseorang. Mira melakukan hal yang sama tetapi untuk kebenaran. Ini mengatakan, jangan percaya satu model, verifikasi itu. Berikan kekuatan kepada model untuk memeriksa.

Itu adalah ide yang terus saya pikirkan. Mira mungkin bukan hanya cara untuk memeriksa apa yang dikatakan model AI. Ini mungkin bagian dari membuat AI berjalan sendiri tanpa memerlukan pengendali pusat. Itu membuatnya layak untuk diperhatikan tidak peduli apa yang terjadi pada tokennya.

@Mira - Trust Layer of AI #Mira $MIRA