Google erklärt Probleme mit der Bildgenerierung von Gemini

Google Gemini
Quelle: Google

Google’s KI Gemini erlaubte in einigen Ländern die Erstellung von Bildern.

Nutzer stellten jedoch fest, dass die KI oft versuchte, weiße Menschen zu vermeiden, selbst wenn dies im Rahmen eines korrekten historischen Kontexts nicht angemessen war. So kam es zu Darstellungen indigener US-Gründungsväter oder schwarzer Wehrmachtssoldaten.

Google hat die Bildgenerierung daraufhin gestoppt und erklärt nun die Gründe:

  • Versagen der Abstimmung: Die Funktion, die sicherstellen sollte, dass Gemini eine Auswahl von Personen zeigt, versagte in einigen Fällen. So wurden Bilder generiert, die eindeutig keine Auswahl zeigen sollten.
  • Übervorsichtiges Modell: Das Modell wurde im Laufe der Zeit viel vorsichtiger als beabsichtigt und lehnte bestimmte Aufforderungen vollständig ab. Dies führte dazu, dass einige harmlose Aufforderungen fälschlicherweise als sensibel interpretiert wurden.

Infolgedessen „überkompensierte“ Gemini in einigen Fällen und war in anderen „überkonservativ“, was zu falschen Bildern führte. Dies war nicht das, was die Entwickler beabsichtigt hatten. Sie wollten nicht, dass Gemini sich weigert, Bilder einer bestimmten Gruppe zu erstellen, oder dass es ungenaue historische oder andere Bilder generiert.

Deshalb wurde die Bildgenerierung von Menschen vorerst deaktiviert. Google arbeitet daran, die Funktion deutlich zu verbessern.

Quelle(n):
Google

Links mit einem * sind Partner-Links. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!

Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Telegram, WhatsApp, Mastodon, Threads, Bluesky oder auf Facebook oder abonniere meinen RSS-Feed!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert