Meta Llama 4: Neue Open-Source KI-Generation fordert GPT-4o und Co. heraus

Meta hat seine nächste Generation von KI-Modellen vorgestellt: die Llama-4-Familie. Diese Einführung geschieht vor dem Hintergrund eines intensivierten Wettbewerbs im KI-Sektor, insbesondere nach dem Aufsehen erregenden Start des chinesischen Modells DeepSeek R1 Anfang 2025. Berichten zufolge setzte der Erfolg von DeepSeek, das bei deutlich geringeren Kosten hohe Leistung erzielte, Meta unter Zugzwang, dessen Strategie stark auf der Veröffentlichung führender Open-Source-Modelle basiert.
Firmenchef Mark Zuckerberg kündigte nun die Llama-4-Serie an. Zwei Modelle dieser neuen Familie sind ab sofort für Entwickler verfügbar:
- Llama 4 Maverick: Dieses Modell mit 17 Milliarden Parametern beschreibt Meta als leistungsstark für allgemeine Aufgaben, Bild- und Textverarbeitung sowie Chat-Anwendungen.
- Llama 4 Scout: Mit 17 Milliarden Parametern konzentriert sich dieses Modell auf spezifischere Aufgaben wie die Analyse umfangreicher Dokumente oder Codebasen.
Beide Modelle können Entwickler über die Llama-Website und die Plattform Hugging Face herunterladen und nutzen. Sie sind zudem bereits in Meta AI integriert, wodurch sie in WhatsApp, Messenger und Instagram Direktnachrichten zur Verfügung stehen.
Ein herausragendes Merkmal der neuen Modelle ist ihre Multimodalität. Sie können also nicht nur Text, sondern auch Bilder und Videos verarbeiten und generieren. Zudem verfügen sie über extrem lange Kontextfenster: Maverick kann 1 Million Token verarbeiten (ca. 1.500 Textseiten), während Scout sogar 10 Millionen Token (ca. 15.000 Textseiten) in einer einzigen Interaktion handhaben kann. Dies ist besonders nützlich für informationsintensive Anwendungen.
Technisch setzen alle Llama-4-Modelle auf die Mixture-of-Experts (MoE)-Architektur. Hierbei werden 128 spezialisierte Untermodelle („Experten“) kombiniert, was die Effizienz steigert, da nur die jeweils benötigten Experten aktiviert werden. Meta entwickelte zudem eine neue Trainingstechnik namens MetaP!, die eine effizientere Feinabstimmung der Modelle über verschiedene Größen hinweg erlaubt.
Für die Zukunft kündigte Meta Llama 4 Behemoth an. Dieses Modell befindet sich mit gewaltigen 288 Milliarden Parametern noch im Training und soll das bisher leistungsfähigste Basismodell werden. Details dazu werden möglicherweise auf der kommenden LlamaCon erwartet.
Meta positioniert Llama 4 als starke Konkurrenz zu etablierten Modellen. Laut Benchmarks übertrifft Maverick beispielsweise GPT-4o in einigen multimodalen Tests, während Behemoth mit GPT-4.5 und Gemini 2.0 Pro konkurrieren soll. Gegenüber spezialisierten Reasoning-Modellen wie DeepSeek R1 oder OpenAI’s o1-Serie zeigen die Llama-4-Modelle zwar eine hohe, aber nicht in allen Bereichen überlegene Leistung im logischen Denken. Meta betont die Kosteneffizienz, insbesondere von Maverick, dessen Nutzung deutlich günstiger sein soll als die von GPT-4o.
Das Unternehmen hebt auch Fortschritte bei Sicherheit und reduzierter politischer Voreingenommenheit hervor und stellt Entwicklern Werkzeuge wie Llama Guard zur Verfügung.
Quelle(n):
Meta
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Telegram, WhatsApp, Mastodon, Threads, Bluesky oder auf Facebook oder abonniere meinen RSS-Feed!
