Argumen tentang apakah AI "cerdas" cenderung melewatkan bagian yang menyakitkan. Dalam banyak pengaturan nyata, masalahnya bukanlah bahwa sistem tidak bisa menghasilkan jawaban. Masalahnya adalah tidak ada yang bisa bertanggung jawab atas apa yang dilakukan jawaban tersebut.
Anda melihatnya dalam gesekan kecil terlebih dahulu. Seorang agen dukungan menempelkan jawaban yang ditulis AI ke dalam tiket karena terdengar tepat dan antrean sangat panjang. Seminggu kemudian, pelanggan mengajukan keluhan, mengutip pesan kembali seperti kontrak. Agen tersebut tidak menulisnya. Model tersebut tidak "bermaksud" demikian. Perusahaan tetap memiliki hasilnya.
Atau ambil alih alur kerja peminjaman. Sebuah model menandai aplikasi sebagai risiko tinggi. Surat penolakan dikirim, tajam dan final. Ketika pelamar bertanya mengapa, manusia berusaha mencari penjelasan yang sesuai dengan kebijakan dan hukum, karena "model menilai Anda rendah" bukanlah sebuah penjelasan. Itu hanya sebuah anggukan dengan matematika di baliknya.
Akuntabilitas adalah apa yang mengubah prediksi menjadi keputusan. Itu adalah perbedaan antara saran yang dapat Anda abaikan dan tindakan yang harus Anda bela. Itu memerlukan hal-hal membosankan yang tidak secara alami disediakan oleh AI: jejak audit, kebijakan versi, input yang dicatat, pengulangan yang dapat direproduksi, jalur eskalasi yang jelas ketika sistem tidak yakin.
Sampai bagian-bagian tersebut menjadi normal, "AI yang dapat dipercaya" sebagian besar akan berarti "AI yang belum mempermalukan kita." Kecerdasan membantu, tentu saja. Tetapi kepercayaan dibangun ketika seseorang dapat dipertanyakan, diperbaiki, dan dipegang pada standar. Sistem yang tidak dapat dipegang akuntabel tidak menjadi dapat diandalkan. Mereka hanya menjadi familiar.@Fabric Foundation #robo $ROBO