Peretas menemukan cara untuk membuat ChatGPT-5 bertindak lebih lemah.
Trik ini disebut PROMISQROUTE. Jika Anda mengatakan sesuatu yang sederhana seperti “respon cepat” atau “gunakan mode kompatibilitas”, ChatGPT mungkin beralih ke versi yang lebih murah dan lebih kecil (seperti GPT-4 atau GPT-mini). Mode yang lebih lemah ini lebih mudah untuk dibobol atau diretas.
OpenAI melakukan ini dengan sengaja untuk menghemat uang. Alih-alih selalu menggunakan model yang paling kuat, terkadang ia memberikan jawaban yang lebih murah. Para ahli mengatakan ini menghemat hampir $1,9 miliar setiap tahun, tetapi juga membuat sistem kurang aman.
Masalah ini juga dapat terjadi pada AI lainnya, tidak hanya ChatGPT.
Ada perbaikan, seperti pemeriksaan keamanan yang lebih kuat, tetapi untuk saat ini, bahkan frasa ramah seperti “jaga tetap cepat dan santai” dapat membuka mode bodoh ini.
👉 Singkatnya: Peretas menemukan sisi ChatGPT yang lebih murah dan lebih lemah.
