Regulatorul online pentru siguranța din Australia și-a exprimat îngrijorările privind platforma de IA Grok în contextul unei creșteri bruște a plângerilor legate de imagini sexuale generate de IA fără consimțământ.

Comisarul eSafety a declarat că rapoartele privind abuzul bazat pe imagini create cu ajutorul inteligenței artificiale s-au dublat de la sfârșitul anului 2025, reflectând o creștere globală a abuzului de la instrumentele de generare a IA. Unele dintre plângerile analizate de regulator au implicat copii, ridicând problema la nivelul unei preocupări serioase pentru crimă și siguranța copilului.

Conform Comisarului, sistemele de IA capabile să producă imagini realiste în mare scară sunt din ce în ce mai exploatate pentru a crea conținut sexual deepfake fără consimțământ. Victimele se confruntă adesea cu stres emoțional sever, daune reputației și afectări psihologice pe termen lung, în timp ce eliminarea acestor materiale poate fi lentă și dificilă odată ce se răspândesc online.

Grok a fost menționat ca parte a examinării mai ample a platformelor de IA și a măsurilor lor de protecție, nu ca singurul sursă de abuz. Comisarul a subliniat că toți dezvoltatorii de IA și operatorii de platforme au o responsabilitate de a implementa protecții solide, inclusiv moderare conținut mai puternică, măsuri de prevenire a abuzului și procese rapide de eliminare.

Australia are unele dintre cele mai puternice legi de siguranță online din lume, acordând Comisarului eSafety puteri de a emite notificări de eliminare și amenzi pentru platformele care nu acționează asupra conținutului dăunător. Cu toate acestea, evoluția rapidă a IA generativă pune la încercare limitele cadrelor reglementare existente.

„Viteza și realistul imaginilor generate de IA au schimbat fundamental scala abuzului bazat pe imagini“, a declarat Comisarul, avertizând că fără măsuri preventive mai puternice, plângerile sunt probabil să continue să crească.

Regulatorul se angajează acum cu companiile de IA, forțele de ordine și partenerii internaționali pentru a aborda problema, îndemnând utilizatorii să semnaleze conținutul dăunător și să caute servicii de sprijin atunci când este necesar.

Pe măsură ce instrumentele de IA generativă devin mai accesibile, cazul evidențiază presiunea crescută asupra companiilor tehnologice de a echilibra inovația cu răspunderea — și asupra guvernelor de a adapta legile de siguranță la un internet condus de IA.

$GMT $PIPPIN $US

#AIAbuse #Deepfakes #OnlineSafety #ArtificialIntelligence #TechRegulation