ChatGPT 4 von OpenAI macht LLMs anfällig für multimodale Prompt-Injection-Image-Angriffe
Die neue Version GPT 4V von OpenAI ermöglicht das Hochladen von Bildern, was einen neuen Angriffsvektor für große Sprachmodelle (Large Language Models, LLMs) eröffnet. Angreifer können Befehle, bösartige Skripte und Code in Bilder einbetten, und das Modell wird sich daran halten.
Multimodale Prompt-Injection-Image-Angriffe nutzen Schwächen in der Verarbeitung visueller Bilder durch GPT 4V aus, um unerkannte bösartige Befehle auszuführen. GPT 4V basiert auf einem Vision-Transformer-Encoder, der ein Bild in eine latente Raumdarstellung umwandelt. Die Bild- und Textdaten werden kombiniert, um eine Reaktion zu erzeugen.
Das Modell verfügt über keine Methode, die visuelle Eingabe vor der Kodierung zu bereinigen. Ein Angreifer könnte beliebig viele Befehle einbetten und GPT 4 würde diese als legitim betrachten.
Alle Unternehmen, die LLMs als Teil ihrer Arbeitsabläufe implementiert haben, sind gefährdet, am stärksten jedoch diejenigen, die sich auf LLMs zur Analyse und Klassifizierung von Bildern als Kernbestandteil ihres Geschäfts verlassen.
Quelle(n):
VentureBeat
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Telegram, WhatsApp, Mastodon, Threads, Bluesky oder auf Facebook oder abonniere meinen RSS-Feed!