ChatGPT 4 von OpenAI macht LLMs anfällig für multimodale Prompt-Injection-Image-Angriffe

ChatGPT Logo
Quelle: OpenAI

Die neue Version GPT 4V von OpenAI ermöglicht das Hochladen von Bildern, was einen neuen Angriffsvektor für große Sprachmodelle (Large Language Models, LLMs) eröffnet. Angreifer können Befehle, bösartige Skripte und Code in Bilder einbetten, und das Modell wird sich daran halten.

Multimodale Prompt-Injection-Image-Angriffe nutzen Schwächen in der Verarbeitung visueller Bilder durch GPT 4V aus, um unerkannte bösartige Befehle auszuführen. GPT 4V basiert auf einem Vision-Transformer-Encoder, der ein Bild in eine latente Raumdarstellung umwandelt. Die Bild- und Textdaten werden kombiniert, um eine Reaktion zu erzeugen.

Das Modell verfügt über keine Methode, die visuelle Eingabe vor der Kodierung zu bereinigen. Ein Angreifer könnte beliebig viele Befehle einbetten und GPT 4 würde diese als legitim betrachten.

Alle Unternehmen, die LLMs als Teil ihrer Arbeitsabläufe implementiert haben, sind gefährdet, am stärksten jedoch diejenigen, die sich auf LLMs zur Analyse und Klassifizierung von Bildern als Kernbestandteil ihres Geschäfts verlassen.

Quelle(n):
VentureBeat

Links mit einem * sind Partner-Links. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!

Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Facebook, abonniere meinen Telegram-, WhatsApp-, X/Twitter- oder Mastodon-Kanal oder RSS-Feed!

Der einzige Tech-Newsletter, den Du brauchst

Abonniere Schmidtis Blog, um tägliche Updates der neuesten Artikel direkt in Deinem Posteingang zu erhalten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert