Kebanyakan orang berinteraksi dengan AI melalui pola yang sederhana. Sebuah pertanyaan masuk, sebuah jawaban keluar. Prosesnya terasa lancar di permukaan, tetapi di bawahnya sering kali sangat sedikit kejelasan tentang seberapa dapat diandalkannya jawaban itu.

Ketidakpastian itu menjadi lebih penting seiring dengan AI menjadi bagian dari keputusan sehari-hari. Sebuah paragraf yang dihasilkan oleh sebuah model mungkin mengandung beberapa pernyataan faktual - statistik tentang pasar, deskripsi tentang sebuah undang-undang, atau penjelasan tentang sebuah sistem teknis. Jika bahkan satu pernyataan salah, kepercayaan pada seluruh jawaban mulai melemah.

Salah satu pendekatan yang sedang dieksplorasi oleh Mira Network melihat masalah ini dari sudut pandang yang berbeda. Alih-alih memperlakukan respons AI sebagai satu blok teks yang solid, idenya adalah memecahnya menjadi klaim-klaim yang lebih kecil yang dapat diperiksa sendiri. Ini adalah pergeseran yang lebih tenang dalam desain, tetapi dasar sistem berubah ketika verifikasi terjadi secara bertahap.

Bayangkan sebuah AI menjelaskan topik dalam empat kalimat yang masing-masing mengandung klaim faktual terpisah tentang sebuah perusahaan, dataset, aturan kebijakan, dan garis waktu. Dalam pengaturan biasa, keempat klaim tersebut bergerak bersama sebagai satu jawaban. Seorang pembaca harus mempercayai model tersebut atau memverifikasi setiap detail secara manual.

Mira mencoba memisahkan potongan-potongan itu.

Setiap klaim dapat menjadi objeknya sendiri yang memasuki proses verifikasi. Beberapa klaim mungkin didukung oleh sumber yang ada, yang lain mungkin diperdebatkan, dan beberapa mungkin tetap tidak pasti sampai lebih banyak bukti muncul. Sistem tidak menganggap jawaban itu benar hanya karena model terdengar percaya diri.

Lapisan on-chain menjadi penting pada titik ini. Setelah klaim diidentifikasi, hasil verifikasi dapat dicatat sehingga orang lain dapat melihat apakah itu dikonfirmasi, ditantang, atau dibiarkan tidak terpecahkan. Seiring waktu, ini menciptakan catatan yang terlihat tentang bagaimana pernyataan spesifik dievaluasi.

Pendekatan ini mengubah tekstur kepercayaan dalam sistem AI.

Hari ini, kredibilitas sering kali berasal dari reputasi. Model yang dihasilkan oleh perusahaan besar mungkin lebih dipercaya daripada yang kecil, bahkan jika pernyataan individu di dalam jawaban belum pernah diperiksa. Jenis kepercayaan seperti itu dapat berfungsi untuk penggunaan kasual, tetapi menjadi rapuh ketika keluaran AI mempengaruhi penelitian, analisis keuangan, atau diskusi kebijakan.

Memecah respons menjadi klaim mengalihkan fokus pada pernyataan itu sendiri daripada hanya sumbernya.

Ada juga masalah koordinasi di sini. Verifikasi membutuhkan waktu dan perhatian, dan kebanyakan orang tidak menghabiskan berjam-jam memeriksa keluaran AI baris demi baris. Mira berusaha mengorganisir pekerjaan itu melalui struktur jaringan di mana peserta meninjau klaim dan menyumbangkan bukti.

Sistem dapat menghargai verifikasi yang hati-hati sambil mengurangi persetujuan yang sembarangan. Tepatnya seberapa baik insentif tersebut bertahan seiring waktu masih menjadi pertanyaan terbuka. Banyak sistem koordinasi terlihat stabil dalam teori tetapi berperilaku berbeda setelah kelompok besar mulai berinteraksi dengan mereka.

Namun, arah ini menarik.

Alih-alih membangun kepercayaan semata-mata melalui model yang lebih baik, jaringan berusaha membangun lapisan verifikasi di sekitar jawaban yang dihasilkan model tersebut. Perbedaan ini mungkin terdengar kecil pada awalnya, tetapi implikasinya tumbuh ketika respons AI mulai beredar di berbagai platform dan aplikasi.

Pertimbangkan masa depan di mana ribuan penjelasan yang dihasilkan AI muncul setiap hari di forum penelitian, platform pendidikan, dan dasbor keuangan. Jika setiap penjelasan mengandung beberapa klaim faktual, jumlah pernyataan individu tumbuh dengan cepat. Bahkan keluaran yang sederhana dari dua puluh klaim per artikel tentang data ekonomi akan berlipat menjadi beban verifikasi yang besar di seluruh jaringan.

Tanpa struktur, pekerjaan itu menjadi tersebar.

Sistem berbasis klaim berusaha memberikan tempat yang stabil untuk proses verifikasi itu terjadi. Beberapa klaim mungkin dikonfirmasi dengan cepat karena bukti yang kuat sudah ada. Lainnya mungkin tetap tidak pasti untuk waktu yang lama. Jaringan tidak menghapus ketidakpastian, tetapi membuat status pernyataan terlihat.

Visibilitas itu adalah bagian dari apa yang memberikan bobot pada ide tersebut.

Jika AI akan mendukung keputusan di bidang di mana akurasi penting, orang pada akhirnya akan bertanya dari mana klaim-klaim itu berasal dan bagaimana mereka diperiksa. Sistem seperti Mira Network menyarankan satu fondasi yang mungkin untuk menjawab pertanyaan itu.

Apakah itu dapat skala dengan lancar masih belum jelas. Tetapi upaya untuk mengubah jawaban AI menjadi potongan pengetahuan yang dapat diverifikasi daripada paragraf yang terisolasi terasa seperti arah penting untuk diperhatikan. @Mira - Trust Layer of AI $MIRA #Mira