Google hat eine kritische Schwachstelle in Gmail behoben, die es Hackern ermöglichte, Unternehmensdaten über künstliche Intelligenz zu stehlen. Der Angriff wurde GeminiJack genannt und betraf 2 Milliarden Nutzer des E-Mail-Dienstes.
Wie der Angriff GeminiJack funktionierte
Angreifer verwendeten eine einfache Methode – versteckte Anweisungen in normalen Google Docs, Kalendereinladungen oder E-Mails. Es waren keine Klicks seitens des Opfers erforderlich. Es gab keine Warnungen. Traditionelle Sicherheitssysteme schwiegen.
Vertreter der Firma Noma, die die Schwachstelle entdeckt hat, erläutern den Mechanismus: „Wenn ein Angreifer beeinflussen kann, was die KI liest, kann er auch beeinflussen, was die KI tut.“ Hacker integrierten bösartige Befehle in Haushaltsdokumente. Wenn ein Mitarbeiter eine Standardabfrage in Gemini Enterprise wie „zeige unsere Budgets“ durchführte, extrahierte die Künstliche Intelligenz automatisch das verseuchte Dokument und führte die versteckten Anweisungen aus.
Dieser Angriff demonstriert eine neue Klasse von KI-Schwachstellen, die Experten als „Prompt-Injektionen“ bezeichnen. Wenn Benutzer keine E-Mails, Einladungen oder Webseiten lesen, kann der Angriff Prompts verbergen, die für den KI-Assistenten gedacht sind, den wir gebeten haben, all dieses Material anstelle von uns zu lesen.
Warnungen von Experten
Das Nationale Cyber-Sicherheitszentrum Großbritanniens (NCSC) empfiehlt, KI-Assistenten wie gewöhnliche Mitarbeiter zu behandeln – nicht wie vertrauenswürdige, private Technologien. Wenn Sie einer menschlichen Assistenzperson nicht alle Ihre Passwörter und finanziellen Daten mit offenem Zugang zu Ihrer gesamten E-Mail anvertrauen würden, vertrauen Sie dies auch nicht einem KI-Assistenten an – zumindest nicht ohne aktive Überwachung.
Google hat bereits die spezifische Schwachstelle GeminiJack behoben, aber das ist erst der Anfang. Regierungsbehörden befürchten, dass die Situation „schlimmer werden könnte“ als alles, was wir zuvor gesehen haben. Updates der Künstlichen Intelligenz in Browsern und Plattformen werden zur Zielscheibe für Angreifer.
Als Google wegen der angeblichen Schulung von KI auf Benutzerdaten von Gmail kritisiert wurde, lag das Hauptproblem nicht darin, ob das System auf diesen Daten trainiert wird, sondern darin, dass die Künstliche Intelligenz Zugang zu Informationen erhält. Google bestreitet den Schulungsprozess, aber wenn Sie Updates aktivieren, sieht die KI des Unternehmens all Ihre Daten.
Noma warnt: „Dieser Typ von Angriff wird nicht der letzte seiner Art sein. Er spiegelt eine wachsende Klasse von KI-Schwachstellen wider, auf die sich Organisationen jetzt vorbereiten müssen.“ Während Unternehmen KI-Tools einführen, die in der Lage sind, Gmail, Google Docs und Kalender zu lesen, wird die Künstliche Intelligenz selbst zu einer neuen Zugangsebene.
Die Sicherheit Ihrer Daten hängt jetzt von einer sorgfältigen Auswahl ab, wenn es darum geht, jedes neue KI-Update zu akzeptieren oder zu aktivieren. Dieses endlose Spiel von „die Tür schließen, nachdem die KI-Pferde entlaufen sind“ geht weiter.
#Google #AImodel #AI #Write2Earn
