Googles KI Gemini in der Kritik: Terror- und Missbrauchsdarstellungen durch Deepfakes?

Brisante Neuigkeiten aus Australien: Google steht im Fokus der Kritik, weil seine Künstliche Intelligenz Gemini missbraucht werden könnte. Australische Behörden wurden von Google selbst informiert, dass weltweit über 250 Beschwerden eingegangen sind. Der Vorwurf: Gemini soll für die Erstellung von Deepfake-Propaganda für Terrororganisationen missbraucht worden sein.
Doch damit nicht genug: Die australische eSafety Commission berichtete zusätzlich von Dutzenden Nutzerhinweisen, wonach Gemini auch zur Produktion von Kindesmissbrauchsdarstellungen genutzt werde. Diese alarmierenden Zahlen wurden im Rahmen einer gesetzlichen Berichtspflicht von Google an die australische Aufsichtsbehörde übermittelt. Diese Pflicht zwingt Tech-Konzerne, regelmäßig über ihre Maßnahmen zur Schadensminimierung zu berichten, um Strafen zu vermeiden.
Regulierungsbehörden weltweit fordern strengere Kontrollen für KI
Spätestens seit dem Durchbruch von OpenAIs ChatGPT im Jahr 2022 fordern Regulierungsbehörden weltweit strengere Kontrollen für Künstliche Intelligenz. Die Sorge ist groß, dass KI-Technologien für illegale Zwecke wie Terrorismus, Betrug, Deepfake-Pornografie und Missbrauch missbraucht werden könnten. Die australische eSafety Commission bezeichnete Googles Offenlegung als „weltweit ersten Einblick“ in das Ausmaß des potenziellen Missbrauchs von KI zur Erstellung schädlicher und illegaler Inhalte.
Julie Inman Grant, die Beauftragte der eSafety Commission, betonte die dringende Notwendigkeit für KI-Unternehmen, wirksame Schutzmaßnahmen in ihre Produkte einzubauen und zu testen. Nur so könne die Erstellung solcher problematischer Inhalte wirksam verhindert werden. Google selbst gab an, 258 Nutzerberichte über mutmaßliche KI-generierte Deepfake-Inhalte mit terroristischem oder gewaltverherrlichendem Hintergrund erhalten zu haben, sowie 86 Berichte über möglichen KI-generierten Kindesmissbrauch. Wie viele dieser Beschwerden tatsächlich berechtigt waren, ließ Google jedoch offen.
Google beteuert Verantwortung und verweist auf Nutzermeldungen
Ein Google-Sprecher versicherte, dass das Unternehmen die Erstellung und Verbreitung illegaler Inhalte kategorisch ablehne, insbesondere solche, die Terrorismus, Extremismus oder Kindesmissbrauch verherrlichen oder fördern. Man sei bestrebt, die Online-Sicherheit in Australien weiter zu verbessern. Die gemeldeten Nutzerzahlen spiegelten lediglich das globale Gesamtvolumen an Nutzerberichten wider, nicht aber bestätigte Richtlinienverstöße.
Zur Bekämpfung von Kindesmissbrauchsdarstellungen durch KI setzt Google auf das sogenannte Hatch-Matching-System. Dieses System gleicht neu hochgeladene Bilder automatisch mit bereits bekannten Missbrauchsbildern ab, um entsprechende Inhalte zu identifizieren und zu entfernen. Für die Bekämpfung von terroristischer oder extremistischer Propaganda kommt dieses System jedoch bisher nicht zum Einsatz, so die Kritik der Aufsichtsbehörde.
Die eSafety Commission hat in der Vergangenheit bereits Strafen gegen Telegram und X (ehemals Twitter) verhängt, wegen Mängeln in deren Berichterstattung zu Schutzmaßnahmen. X hat gegen eine Geldstrafe von 610.500 australischen Dollar (ca. 382.000 US-Dollar) bereits eine Berufung verloren, will aber erneut in Berufung gehen. Auch Telegram plant rechtliche Schritte gegen seine Strafe. Der Fall Google zeigt erneut, wie dringend Handlungsbedarf bei der Regulierung von KI-Technologien besteht, um Missbrauch und illegale Inhalte effektiv zu bekämpfen.
Quelle(n):
Reuters
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Telegram, WhatsApp, Mastodon, Threads, Bluesky oder auf Facebook oder abonniere meinen RSS-Feed!