Kolega pendiri Ethereum #VitalikButerin telah menyuarakan keprihatinan serius tentang kemajuan pesat dalam kecerdasan buatan, menyoroti risiko potensial yang ditimbulkan oleh sistem AI superintelligent. Seiring dengan percepatan pengembangan AI, Buterin menekankan pentingnya menerapkan langkah-langkah perlindungan yang kuat untuk mengurangi kemungkinan hasil yang katastrofik. Wawasan terbarunya, yang dibagikan dalam posting blog 5 Januari, menekankan perlunya langkah proaktif untuk mengatasi potensi bahaya dari teknologi AI.
Dalam postingannya, Buterin memperkenalkan konsep “𝐝𝐞𝐟𝐞𝐧𝐬𝐢𝐟𝐞 𝐚𝐜𝐜𝐞𝐥𝐞𝐫𝐚𝐭𝐢𝐨𝐧” (d/acc), yang mengadvokasi pengembangan teknologi yang fokus pada perlindungan daripada penghancuran. Dia memperingatkan bahwa superintelligence—AI yang melampaui kecerdasan manusia—dapat muncul dalam beberapa tahun ke depan, yang berpotensi mengancam kelangsungan hidup manusia. “Kemungkinan kita memiliki jendela tiga tahun sebelum Kecerdasan Umum Buatan (AGI) tiba dan tiga tahun lagi sebelum superintelligence menyusul semakin meningkat. Untuk menghindari bencana yang tidak dapat diubah, kita tidak hanya harus mempercepat kemajuan positif tetapi juga membatasi yang negatif,” tulis Buterin. Visinya mencakup penciptaan sistem AI terdesentralisasi yang memprioritaskan kontrol manusia, memastikan AI melayani umat manusia daripada membahayakannya.
Buterin juga menyoroti risiko yang terkait dengan aplikasi militer AI, mengutip konflik global terbaru seperti yang terjadi di Ukraina dan Gaza sebagai contoh penggunaan AI yang semakin meningkat dalam perang. Dia memperingatkan bahwa pengecualian militer dari regulasi AI dapat memperburuk bahaya ini, menjadikan militer sebagai kontributor utama terhadap potensi bencana yang dipicu oleh AI. Untuk mengatasi risiko tersebut, Buterin mengusulkan strategi multi-jalur untuk mengatur penggunaan AI. Ini termasuk membuat pengguna bertanggung jawab atas bagaimana sistem AI digunakan, menerapkan mekanisme “𝐬𝐨𝐟𝐭 𝐩𝐚𝐮𝐬𝐞” untuk sementara memperlambat kemajuan, dan mengendalikan perangkat keras AI melalui chip khusus. Chip ini memerlukan persetujuan mingguan dari beberapa organisasi internasional, dengan setidaknya satu di antaranya bukan militer, untuk memastikan operasi yang bertanggung jawab.
Meskipun Buterin mengakui bahwa langkah-langkah yang diausulkan tidak tanpa cacat, dia menganggapnya sebagai solusi sementara yang penting. Dengan menangani tantangan ganda untuk mempercepat aplikasi AI yang menguntungkan sambil membatasi yang merugikan, Buterin menekankan pentingnya kolaborasi global untuk melindungi masa depan umat manusia di era AI superintelligent.
