Kenapa AI Butuh Wasit?
Beberapa hari lalu gue lagi iseng ngobrol sama teman soal AI. Awalnya cuma bahas hal receh, kayak gimana sekarang orang kalau bingung sedikit langsung nanya AI. Mau cari ide tulisan, nanya AI. Mau bikin kode, nanya AI. Bahkan kadang buat nentuin keputusan kecil juga orang mulai tanya AI dulu. Teman gue tiba-tiba bilang sesuatu yang bikin gue kepikiran. Dia bilang, “AI itu sekarang kayak teman yang pintar banget, tapi kadang juga sok yakin padahal belum tentu benar.”
Awalnya gue cuma ketawa. Tapi makin dipikir, kalimat itu lumayan kena juga. Soalnya kalau kita perhatiin, AI memang sering kelihatan sangat meyakinkan. Cara jawabnya rapi, bahasanya jelas, penjelasannya juga panjang. Kadang malah terdengar lebih pintar dari manusia yang jelasin. Tapi di balik itu, ternyata AI juga punya masalah yang cukup sering dibahas di dunia teknologi, yaitu AI hallucination. Istilah ini dipakai ketika AI memberikan jawaban yang kelihatannya masuk akal, tapi sebenarnya datanya salah atau bahkan dibuat-buat.
Kalau dianalogikan, AI itu kayak murid paling pintar di kelas yang selalu angkat tangan duluan setiap ada pertanyaan. Dia bisa jawab banyak hal, tapi kadang juga terlalu percaya diri. Masalahnya, banyak orang yang langsung percaya saja karena jawabannya terdengar logis. Padahal belum tentu sudah dicek kebenarannya.
Nah dari situ gue mulai ngerti kenapa belakangan ini muncul proyek yang fokusnya bukan lagi bikin AI lebih pintar, tapi bikin AI lebih bisa dipercaya. Salah satu yang lagi sering dibahas adalah Mira Network. Ide dasarnya sebenarnya cukup sederhana kalau dijelasin dengan analogi. Bayangin lagi pertandingan sepak bola. Ada pemain, ada penonton, ada pelatih. Tapi kalau nggak ada wasit, lama-lama pertandingan pasti kacau. Pelanggaran nggak ada yang ngatur, gol offside bisa dianggap sah, dan semua orang bisa klaim mereka benar.
AI sekarang kurang lebih seperti itu. Model AI banyak sekali, dan semuanya bisa memberikan jawaban. Tapi siapa yang memastikan jawabannya benar? Di sinilah konsep Mira masuk. Mereka mencoba membuat semacam “lapisan kepercayaan” untuk AI, di mana hasil dari AI bisa diverifikasi oleh jaringan sebelum dianggap valid. Jadi bukan hanya satu sistem yang mengatakan sesuatu benar, tapi ada proses pengecekan yang melibatkan jaringan.
Kalau dipikir-pikir, konsep ini sebenarnya mirip dengan cara blockchain memverifikasi transaksi. Dalam blockchain, satu transaksi tidak langsung dianggap sah hanya karena satu pihak bilang begitu. Ada proses validasi dari jaringan. Mira mencoba membawa konsep serupa ke dunia AI, khususnya untuk memverifikasi output atau jawaban yang dihasilkan model AI.
Hal ini jadi menarik karena penggunaan AI sekarang sudah jauh lebih luas dibanding beberapa tahun lalu. AI bukan cuma dipakai buat hal sederhana seperti menjawab pertanyaan atau menulis teks. Banyak perusahaan mulai menggunakannya untuk analisis data, pengambilan keputusan, bahkan membantu proses penelitian. Kalau AI memberikan jawaban yang salah dan orang langsung percaya, dampaknya bisa cukup besar.
Makanya sekarang mulai muncul pertanyaan baru di dunia teknologi. Dulu orang sering bertanya, “AI mana yang paling pintar?” Tapi sekarang pertanyaannya mulai berubah menjadi, “AI mana yang paling bisa dipercaya?” Kedengarannya sederhana, tapi sebenarnya itu masalah yang cukup besar.
Kalau dianalogikan lagi, perkembangan AI itu seperti mobil yang semakin cepat setiap tahun. Teknologinya makin canggih, performanya makin tinggi. Tapi kalau mobilnya makin cepat tanpa sistem keamanan yang memadai, itu juga berbahaya. Di situ lah proyek seperti Mira mencoba mengambil peran, bukan sebagai mesin yang membuat AI lebih cepat, tapi sebagai sistem pengaman yang membantu memastikan arah dan keakuratan.
Menurut gue pribadi, ide seperti ini cukup masuk akal. Dunia AI kemungkinan akan terus berkembang dan dipakai di semakin banyak sektor. Tapi semakin besar peran AI dalam kehidupan sehari-hari, semakin penting juga memastikan informasi yang dihasilkan bisa dipercaya. Karena pada akhirnya, teknologi yang paling kuat bukan cuma yang paling pintar, tapi yang paling bisa dipercaya.
#Mira @Fabric Foundation $MIRA
{future}(MIRAUSDT)