Saya terus kembali ke masalah tenang di bawah gelombang AI saat ini.
Sebagian besar diskusi berfokus pada membuat model lebih pintar. Dataset yang lebih besar. Sesi pelatihan yang lebih baik. Penalaran yang lebih mampu. Tetapi pertanyaan dasar mungkin lebih sederhana dan lebih sulit pada saat yang sama.
Bagaimana kita memutuskan kapan jawaban AI sebenarnya dapat dipercaya?
Saat ini, sebagian besar sistem AI beroperasi pada satu sumber penalaran. Satu model menghasilkan jawaban dan pengguna menerimanya atau mempertanyakannya. Itu berhasil ketika manusia dekat dengan proses tersebut.
Tetapi semuanya terlihat berbeda ketika mesin mulai bekerja dengan mesin lain.
Sebuah agen perdagangan otomatis tidak dapat berhenti setiap beberapa menit untuk bertanya kepada seseorang apakah penalaran itu terasa benar. Alat analisis risiko kontrak pintar tidak dapat bergantung pada insting. Sistem ini membutuhkan sesuatu yang lebih stabil daripada kepercayaan.
Mereka membutuhkan cara untuk memeriksa apakah penalaran itu valid.
Di sinilah ide di balik Jaringan MIRA menjadi menarik. Alih-alih bergantung pada satu model, sistem mengeksplorasi pendekatan yang lebih tenang. Beberapa model memeriksa masalah yang sama dan membandingkan jawaban mereka.
Tujuannya bukan sekadar lebih banyak kecerdasan.
Tujuannya adalah lapisan di mana kecerdasan dapat diperiksa.
Dengan cara tertentu, ini terasa mirip dengan tekstur bagaimana blockchain menangani transaksi. Bitcoin tidak meminta pengguna untuk mempercayai 1 komputer yang memelihara buku besar. Ia menciptakan sistem di mana banyak peserta memverifikasi catatan yang sama sebelum diterima.
MIRA tampaknya menerapkan ide serupa pada penalaran AI.
Jika satu model menghasilkan jawaban, jawaban itu tidak otomatis menjadi kebenaran. Model lain melihat input yang sama dan menguji hasilnya. Kesepakatan di seluruh jaringan menjadi sinyal bahwa penalaran mungkin dapat diandalkan.
Proses itu menciptakan jenis fondasi yang berbeda.
Alih-alih satu sistem yang menyatakan sesuatu benar, jawabannya diperoleh secara bertahap melalui perbandingan. Setiap verifier tambahan menambah lapisan pemeriksaan.
Masih mungkin bagi kesalahan untuk muncul. Model dapat memiliki titik buta yang serupa. Data pelatihan dapat memperkenalkan pola yang diulang oleh beberapa sistem. Jadi konsensus itu sendiri tidak sempurna.
Tetapi ini mengubah struktur kepercayaan.
Dengan satu model, kegagalan dapat terjadi secara diam-diam dan tetap tersembunyi. Dengan beberapa evaluator, ketidaksetujuan menjadi terlihat. Ketidaksetujuan itu menciptakan informasi yang berguna tentang di mana ketidakpastian berada.
Dalam praktiknya, ini penting untuk sistem yang beroperasi tanpa pengawasan manusia yang konstan.
Pertimbangkan alat penelitian otomatis yang merangkum makalah teknis. Satu model mungkin salah memahami hasil kunci. Jika 3 model yang meninjau teks yang sama menghasilkan kesimpulan yang berbeda, jaringan dapat menandai perbedaan tersebut alih-alih menyajikan satu jawaban yang yakin.
Hasilnya lebih lambat daripada mempercayai satu keluaran. Tetapi pertukarannya adalah penalaran yang lebih stabil.
Ada juga lapisan ekonomi di bawah desain ini.
Agar jaringan berfungsi, peserta yang memverifikasi keluaran AI perlu memiliki insentif. Validator harus menghabiskan sumber daya komputasi dan waktu untuk memeriksa hasil. Oleh karena itu, sistem perlu memiliki cara untuk memberi penghargaan atas verifikasi yang cermat sambil mencegah persetujuan yang ceroboh.
Tepat bagaimana ini bekerja masih menjadi sesuatu yang diamati oleh pengamat.
Struktur ini mungkin melibatkan mekanisme staking. Ini mungkin melibatkan sistem reputasi untuk validator yang dapat dipercaya. Ini mungkin menggabungkan kedua pendekatan tersebut. Detailnya kemungkinan akan membentuk seberapa dapat diandalkannya jaringan seiring waktu.
Pertanyaan terbuka lainnya berkaitan dengan koordinasi.
Jika banyak model mengevaluasi masalah yang sama, seseorang perlu menentukan kapan cukup kesepakatan telah terbentuk. Terlalu sedikit validator dan kesalahan lolos. Terlalu banyak validator dan sistem melambat.
Menemukan keseimbangan yang stabil adalah bagian dari tantangan desain.
Namun, arah itu sendiri mengungkap sesuatu tentang ke mana AI mungkin menuju.
Tahap selanjutnya dari kecerdasan mesin mungkin tidak ditentukan oleh satu model yang kuat. Mungkin muncul dari jaringan di mana banyak model secara diam-diam meninjau penalaran satu sama lain.
Di bawah permukaan, kepercayaan tidak lagi bergantung pada satu sistem yang benar.
Ini akan bergantung pada apakah sekelompok sistem independen mencapai kesimpulan yang sama.
Ide itu terasa dekat dengan semangat asli Web3. Bukan menggantikan kepercayaan dengan mesin, tetapi mendistribusikan kepercayaan sehingga memiliki fondasi yang lebih kuat.
MIRA adalah salah satu upaya untuk mengeksplorasi struktur itu.
Apakah ini akan digunakan secara luas masih belum pasti. Tetapi pertanyaan yang diangkat terasa penting.
Ketika mesin mulai membuat keputusan dengan kecepatan mesin, tantangan nyata mungkin bukan menghasilkan jawaban.
Mungkin sedang membangun sistem di mana jawaban tersebut dapat diverifikasi secara konsisten. @Mira - Trust Layer of AI $MIRA #Mira