Opera One integriert lokale LLMs: KI-Revolution im Browser?
In der Browser-Szene tobt ein Wettlauf um die Vorreiterrolle in der KI-Integration.
Microsoft benennt seinen mobilen Browser in „Microsoft Edge: AI Browser“ um, Chrome fügt KI-generierte Themes hinzu. Opera geht jedoch noch einen Schritt weiter und integriert lokal ausgeführte LLMs (Large Language Models) direkt in den Browser.
Bisherige Interaktionen mit LLMs wie ChatGPT erforderten die Übertragung von Anfragen an Remote-Server. Dies entlastet zwar das eigene System, wirft aber Datenschutzbedenken auf. Lokale LLMs auf KI-fähigen PCs lösen dieses Problem, indem sie die Rechenleistung direkt auf dem eigenen Gerät nutzen.
Opera One mit 150 LLMs
Das neue Update für Opera One bringt 150 LLMs aus rund 50 Familien zur Auswahl, darunter:
- Lama von Meta
- Vicuna
- Gemma von Google
- Mixtral von Mistral AI
Um die lokalen LLMs zu nutzen, muss Opera One aus dem Entwickler-Stream heruntergeladen werden. Anweisungen zur Einrichtung und Nutzung findest Du im Opera-Blog.
Quelle(n):
Opera
Links mit einem * sind Partner-Links. Durch einen Klick darauf gelangt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich eine kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!
Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Telegram, WhatsApp, Mastodon, Threads, Bluesky oder auf Facebook oder abonniere meinen RSS-Feed!