Der Online-Sicherheitsregulierer Australiens hat Bedenken bezüglich der KI-Plattform Grok geäußert, nachdem sich die Zahl der Beschwerden über nicht einvernehmliche, künstlich generierte sexuelle Bilder stark erhöht hat.

Der eSafety-Kommissar sagte, dass die Berichte über bildbasierte Missbrauchsformen, die mit künstlicher Intelligenz erstellt wurden, seit Ende 2025 verdoppelt wurden, was einer breiteren globalen Zunahme der Missbrauchsanwendung von generativen KI-Tools entspricht. Einige der von der Aufsichtsbehörde geprüften Beschwerden betrafen Kinder und heben das Problem auf ein ernstes strafrechtliches und Kinderschutzthema hinauf.

Laut dem Kommissar werden KI-Systeme, die in großem Maßstab realistische Bilder erzeugen können, zunehmend dazu missbraucht, ohne Einwilligung Deepfake-Sexinhalte zu erstellen. Die Opfer leiden oft unter schweren emotionalen Belastungen, Rufschädigungen und langfristigen psychischen Schäden, während die Entfernung solcher Materialien, sobald sie sich im Internet verbreitet haben, oft langsam und schwierig ist.

Grok wurde im Rahmen der umfassenderen Prüfung der KI-Plattformen und ihrer Sicherheitsmaßnahmen erwähnt, nicht jedoch als einzige Quelle des Missbrauchs. Der Kommissar betonte, dass alle KI-Entwickler und Plattformbetreiber die Verantwortung tragen, robuste Schutzmaßnahmen umzusetzen, einschließlich stärkerer Inhaltsmoderation, Schutz vor Missbrauch und schneller Entfernung von Inhalten.

Australien verfügt über einige der weltweit strengsten Gesetze zum Online-Schutz, die dem eSafety-Kommissar die Befugnis geben, Entfernungsaufforderungen und Bußgelder für Plattformen auszusprechen, die nicht auf schädliche Inhalte reagieren. Doch die rasant fortschreitende Entwicklung der generativen KI stellt die Grenzen bestehender regulatorischer Rahmenbedingungen auf die Probe.

„Die Geschwindigkeit und Realitätsnähe der von KI generierten Bilder hat die Skala der bildbasierten Missbrauchsformen grundlegend verändert“, sagte der Kommissar und warnte davor, dass sich die Zahl der Beschwerden weiter erhöhen wird, wenn keine stärkeren präventiven Kontrollen eingeführt werden.

Der Aufsichtsbehörde engagiert sich nun mit KI-Unternehmen, der Polizei und internationalen Partnern, um das Problem anzugehen, und ruft gleichzeitig Nutzer dazu auf, schädliche Inhalte zu melden und gegebenenfalls Unterstützungsdienste in Anspruch zu nehmen.

Da generative KI-Tools zunehmend zugänglich werden, unterstreicht der Fall den wachsenden Druck auf Tech-Unternehmen, Innovation mit Verantwortung zu verbinden – und auf Regierungen, ihre Sicherheitsgesetze an ein KI-getriebenes Internet anzupassen.

$GMT $PIPPIN $US

#AIAbuse #Deepfakes #OnlineSafety #ArtificialIntelligence #TechRegulation