Google ha corretto una vulnerabilità critica in Gmail che consentiva agli hacker di rubare dati aziendali tramite intelligenza artificiale. L'attacco è stato chiamato GeminiJack e ha coinvolto 2 miliardi di utenti del servizio di posta elettronica.

Come funzionava l'attacco GeminiJack

Gli aggressori hanno utilizzato un metodo semplice: istruzioni nascoste in documenti Google Docs comuni, inviti nel calendario o email. Non erano necessarie interazioni da parte della vittima. Non comparivano avvisi. I tradizionali sistemi di sicurezza tacevano.

I rappresentanti dell'azienda Noma, che ha scoperto la vulnerabilità, spiegano il meccanismo: «Se un malintenzionato può influenzare ciò che legge l'IA, può influenzare anche ciò che fa l'IA». Gli hacker incorporavano comandi dannosi nei documenti di bilancio. Quando un dipendente eseguiva una ricerca standard in Gemini Enterprise del tipo «mostrami i nostri bilanci», l'intelligenza artificiale estraeva automaticamente il documento avvelenato e eseguiva istruzioni nascoste.

Questo attacco dimostra una nuova classe di vulnerabilità dell'IA che gli esperti chiamano «iniezioni di prompt». Se gli utenti non leggono email, inviti o pagine web, l'attacco può nascondere prompt destinati all'assistente IA che abbiamo chiesto di leggere tutto questo materiale al posto nostro.

Avvisi degli esperti

Il Centro Nazionale per la Cybersecurity del Regno Unito (NCSC) raccomanda di trattare gli assistenti IA come normali dipendenti — non come tecnologie di fiducia e private. Se non affideresti a un assistente umano tutte le tue password e i dati finanziari con accesso aperto a tutta la tua email, allora non fidarti nemmeno dell'assistente IA — almeno, senza una supervisione attiva.

Google ha già risolto una specifica vulnerabilità di GeminiJack, ma questo è solo l'inizio. Le agenzie governative temono che la situazione «potrebbe rivelarsi peggiore» di tutto ciò che abbiamo visto prima. Gli aggiornamenti dell'intelligenza artificiale nei browser e nelle piattaforme diventano esche per gli attaccanti.

Quando Google è stato criticato per presunto addestramento dell'IA sui dati degli utenti di Gmail, il problema principale non era se il sistema fosse addestrato su questi dati, ma che l'intelligenza artificiale avesse accesso alle informazioni. Google nega l'addestramento, ma se attivi gli aggiornamenti, l'IA dell'azienda vede tutti i tuoi dati.

Noma avverte: «Questo tipo di attacchi non sarà l'ultimo del suo genere. Riflette una crescente classe di vulnerabilità dell'IA, a cui le organizzazioni devono prepararsi subito». Man mano che le aziende implementano strumenti IA in grado di leggere Gmail, Google Docs e Calendario, l'intelligenza artificiale stessa diventa un nuovo livello di accesso.

La sicurezza dei tuoi dati ora dipende da una scelta oculata quando si accetta o si attiva ogni nuovo aggiornamento IA. Questo gioco infinito di «chiudere la stalla dopo che i cavalli IA sono scappati» continua.

#Google #AImodel #AI #Write2Earn

$BTC

BTC
BTC
88,106.04
+0.84%