Bahkan jika tampaknya bot menjawab "seperti teman", informasi yang Anda masukkan dapat digunakan dengan cara yang berbeda dari yang Anda harapkan.
Chatbot berbasis kecerdasan buatan (AI) seperti ChatGPT telah menjadi bagian tak terpisahkan dari kehidupan sehari-hari: orang menggunakannya untuk mencari jawaban, menyusun teks, membantu dengan ide-ide, dan bahkan untuk menganalisis data.
Namun, semakin aktif kita berinteraksi dengan AI, semakin penting untuk diingat – ini bukan tempat penyimpanan yang aman untuk data pribadi atau rahasia Anda, tulis SlashGear.
ChatGPT menjawab sekitar 2,5 miliar permintaan setiap hari, dan bahkan dengan mekanisme perlindungan yang terintegrasi, masih ada risiko nyata kebocoran dan penggunaan data yang tidak terkontrol yang Anda masukkan. Teknologi terus berkembang, tetapi kewaspadaan masih diperlukan.
Berikut adalah lima hal yang tidak boleh pernah diceritakan kepada ChatGPT atau chatbot "pintar" lainnya.
Informasi pribadi
Beberapa pengguna tanpa sadar memasukkan nama lengkap, alamat, nomor dokumen, dan informasi kontak mereka untuk, misalnya, menyusun resume. Ini dapat mengakibatkan konsekuensi serius dalam hal "kebocoran" atau akses penyerang ke basis data model.
Bahkan jika tampaknya bot menjawab "seperti teman", informasi semacam itu dapat diproses oleh sistem dan digunakan dengan cara yang berbeda dari yang Anda harapkan.
Detail keuangan
ChatGPT dapat diminta untuk menjadi penasihat keuangan dan membantu menyusun anggaran bulanan atau bahkan merancang strategi pensiun yang lengkap, tetapi data spesifik tentang rekening, kartu kredit, investasi, atau pajak tidak boleh dimasukkan ke dalam obrolan AI.
Para ahli menekankan bahwa setelah memberikan data kepada AI, tidak mungkin untuk mengetahui nasib selanjutnya. Memasukkan informasi keuangan dapat menciptakan risiko serius: mulai dari skema penipuan dan kebocoran data pribadi hingga serangan phishing dan infeksi perangkat dengan ransomware.
Data medis
Menurut survei terbaru, sekitar satu dari enam orang dewasa menggunakan ChatGPT setidaknya sekali sebulan untuk penjelasan gejala atau perawatan. Di kalangan pemuda, angka ini meningkat menjadi satu dari empat kali sebulan.
Para ahli meminta untuk melakukannya dengan sangat hati-hati dan memahami bahwa ini bukan dokter dan tidak menggantikan konsultasi dengan profesional. Seperti halnya informasi keuangan, masalah ini diperburuk oleh fakta bahwa setelah memberikan data tersebut, tidak mungkin untuk mengetahui nasib selanjutnya dari data tersebut.
Materi yang terkait dengan pekerjaan
Dokumen, laporan, dan strategi perusahaan – ini mencakup semua yang berkaitan dengan pemberi kerja, klien, atau proyek saat ini yang tidak boleh diungkapkan kepada publik.
Seperti yang dicatat oleh publikasi, kecerdasan buatan dapat terlihat sebagai alat yang nyaman untuk mengedit teks atau merangkum dokumen, tetapi ini juga dapat menyebabkan risiko yang tidak perlu.
Permintaan ilegal
Ini adalah sesuatu yang sebaiknya dihindari bukan hanya untuk alasan keamanan, tetapi juga untuk alasan hukum. Pertanyaan tentang bagaimana melakukan kejahatan, aktivitas penipuan, atau manipulasi dapat mengakibatkan pemblokiran layanan dan bahkan tanggung jawab, karena platform diwajibkan untuk mematuhi hukum dan dapat mengungkapkan data atas permintaan pihak berwenang.
Kepala OpenAI Sam Altman juga memperingatkan bahwa korespondensi dengan ChatGPT tidak dilindungi oleh hukum sama seperti percakapan dengan profesional nyata, dan dalam kasus litigasi, pengembang mungkin diharuskan untuk memberikan korespondensi pengguna berdasarkan putusan pengadilan.
Oleh karena itu, selalu berhati-hatilah dengan apa yang Anda ceritakan kepada AI, terutama jika itu berkaitan dengan kehidupan pribadi atau profesional Anda.
