Kecerdasan buatan sekarang menjadi bagian dari banyak alat yang kita gunakan setiap hari, seperti asisten obrolan, pembantu penelitian, ringkasan pencarian, dan bahkan nasihat hukum atau kesehatan. Sistem ini dapat memberikan jawaban yang cepat dan meyakinkan, tetapi terkadang mereka membuat kesalahan yang jelas.

Dalam dunia teknologi, masalah ini disebut halusinasi AI. Ini terjadi ketika AI dengan percaya diri memberikan informasi yang terdengar benar tetapi sebenarnya salah atau menyesatkan. Kesalahan ini bukan kesalahan acak. Mereka terjadi karena model AI membuat teks berdasarkan pola, bukan berdasarkan fakta yang diperiksa.

Contoh dunia nyata menunjukkan mengapa hal ini penting:

Ringkasan AI Google memberikan informasi medis yang tidak akurat yang diperingatkan oleh para ahli dapat menggambarkan gambaran berbahaya tentang kondisi kesehatan mental dan meyakinkan orang untuk menghindari perawatan yang tepat. Ini mendorong sebuah organisasi kesehatan besar untuk meluncurkan penyelidikan terhadap risiko yang terkait dengan panduan AI.

Seorang pengacara di New York pernah mengutip kasus hukum yang sepenuhnya dibuat-buat dalam pengajuan di pengadilan karena alat AI membuat nama dan kutipan kasus yang tidak ada.

Contoh jelas lainnya melibatkan chatbot yang secara keliru mengklaim seorang pribadi nyata adalah pembunuh anak yang terpidana, sebuah halusinasi ekstrem dan berbahaya yang menyebabkan keluhan resmi.

Contoh-contoh ini membuktikan bagaimana AI dapat tampak percaya diri dan berwenang, bahkan ketika menghasilkan informasi yang salah. Dalam obrolan sehari-hari, ini mungkin menjengkelkan atau memalukan. Dalam pengajuan hukum, konteks kesehatan, atau sistem nasihat publik, kesalahan ini dapat menyebabkan kerugian nyata atau masalah hukum.

Ini adalah masalah @Mira - Trust Layer of AI yang ingin diatasi.

Alih-alih menerima jawaban AI apa adanya, Mira menambahkan lapisan verifikasi antara AI dan pengguna. Ketika AI menghasilkan respons, Mira memecahnya menjadi bagian-bagian informasi faktual yang lebih kecil yang dapat diperiksa secara independen. Bagian-bagian ini kemudian ditinjau oleh beberapa validator independen di jaringan.

Jika ada kesepakatan yang kuat di antara validator bahwa klaim tersebut benar, maka itu ditandai sebagai terverifikasi. Jika tidak, klaim tersebut dapat ditandai atau ditolak. Perbedaan utama adalah bahwa verifikasi tidak bergantung pada satu model AI atau otoritas saja. Itu bergantung pada evaluasi dan kesepakatan yang terdistribusi.

Bagian penting lain dari desain Mira adalah penggunaan insentif ekonomi. Validator harus mempertaruhkan $MIRA token untuk ikut serta dalam jaringan. Jika mereka berperilaku jujur dan melakukan pemeriksaan yang tepat, mereka mendapatkan imbalan. Jika mereka salah memvalidasi atau membuat penilaian yang ceroboh, taruhan mereka dapat dikurangi. Ini menciptakan sistem di mana akuntabilitas dan tinjauan yang hati-hati dibangun ke dalam proses.

Mira tidak berusaha menggantikan model-model AI itu sendiri. Itu tidak membuat AI lebih pintar atau mengubah cara model menghasilkan teks. Apa yang dilakukannya adalah memperkenalkan cara terstruktur untuk memverifikasi output sebelum mereka ditindaklanjuti atau dipercaya, terutama dalam situasi di mana akurasi benar-benar penting.

Halusinasi AI bukanlah isu pinggiran. Mereka terjadi di berbagai platform, dan dapat memiliki konsekuensi nyata. Sistem seperti Mira berusaha mengurangi risiko tersebut dengan menambahkan lapisan verifikasi tambahan, bertujuan untuk output yang dapat dipercaya alih-alih hanya yang tampak mungkin.

#Mira #Miranetwork #Mira #AI #Decentralization #Blockchain #Web3 #MIRA

MIRA
MIRAUSDT
0.08128
+2.39%