Gli hacker hanno trovato un modo per far agire ChatGPT-5 in modo più debole.

Il trucco si chiama PROMISQROUTE. Se dici qualcosa di semplice come “rispondi rapidamente” o “usa la modalità compatibile”, ChatGPT potrebbe passare a una versione più economica e piccola (come GPT-4 o GPT-mini). Questa modalità più debole è più facile da rompere o hackare.

OpenAI lo fa di proposito per risparmiare. Invece di utilizzare sempre il modello più potente, a volte fornisce risposte più economiche. Gli esperti dicono che questo gli fa risparmiare quasi 1,9 miliardi di dollari all'anno, ma rende anche il sistema meno sicuro.

Questo problema può verificarsi anche in altre IA, non solo in ChatGPT.

Ci sono soluzioni, come controlli di sicurezza più robusti, ma per ora, anche frasi amichevoli come “mantienilo rapido e informale” possono sbloccare questa modalità stupida.

👉 In breve: Gli hacker hanno trovato il lato più economico e debole di ChatGPT.

#ChatGPT5 #Binance