Perusahaan Anthropic, yang didirikan oleh mantan karyawan OpenAI, memicu gelombang diskusi karena fitur baru dari chatbot mereka, khususnya model Claude. Menurut laporan, Anthropic telah menerapkan mekanisme yang memungkinkan sistem AI mereka melaporkan perilaku pengguna yang 'mencurigakan'. Fitur ini bertujuan untuk mendeteksi permintaan yang mungkin ilegal atau secara etis dipertanyakan, seperti upaya untuk mendapatkan instruksi untuk tindakan melanggar hukum. Perusahaan mengklaim bahwa ini meningkatkan keamanan dan kepatuhan terhadap norma, tetapi para kritikus menyebutnya sebagai pelanggaran privasi.
Para ahli mencatat bahwa tindakan semacam itu dapat menciptakan preseden berbahaya di bidang AI, ketika chatbot secara efektif menjalankan peran 'informan digital'. Penentang inovasi ini menunjukkan risiko penyalahgunaan, terutama di rezim otoriter, di mana data dapat digunakan melawan pengguna. Anthropic belum mengungkapkan rincian tentang permintaan mana yang dianggap 'mencurigakan' dan bagaimana data yang dikumpulkan diproses.
Langkah ini memicu perdebatan tentang keseimbangan antara keamanan dan kebebasan berbicara di era AI. Apakah kita siap mengorbankan privasi demi keamanan? Pendapat terpecah.
#AI #Anthropic #Claude #Privacy #AIethics
Ikuti #MiningUpdates untuk tetap mendapatkan berita teknologi!

