Die neueste Version von Ollama bringt eine Reihe spannender Verbesserungen mit sich. Besonders im Fokus: neue Sprach- und Codiermodelle, ein verbesserter Downloader und zahlreiche Fixes unter der Haube.
Neue Modelle
IBM Granite 3.3
- 2B- und 8B-Modelle
- Bis zu 128.000 Token Kontextlänge
- Optimiert für Reasoning und Instruction-Following
DeepCoder
- Vollständig Open Source
- 14B Modell (O3-mini Niveau) + 1.5B-Version
- Fokus auf Coding-Aufgaben und Dev-Umgebungen
Neuer Downloader (experimentell)
Mit OLLAMA_EXPERIMENT=client2 ollama serve
kann man jetzt den neuen Downloader aktivieren. Vorteile:
- Deutlich schnellere Modell-Downloads
- Stabilere Performance bei
ollama pull
Rückmeldungen dazu sind willkommen: Ollama Issue #10331
Was wurde verbessert?
- Memory-Leaks bei Modellen wie Gemma 3 und Mistral Small 3.1 behoben
- Performance-Boost beim Importieren von Safetensors-Modellen
- Mehr Stabilität beim Model-Unload und besseres Memory-Handling beim Start
- Korrektes API-Handling für
array
-Typen (inkl.$defs
,items
) OpenAI-Beta
-Header jetzt in der CORS-Safelist enthalten- Tensor-Korruptionsfehler beim Import von Safetensors gefixt
Fazit
Ollama 0.6.6 bringt nicht nur neue Modelle für Sprache und Code, sondern macht auch technisch einen soliden Sprung nach vorn. Wer auf Ollama setzt, sollte das Update unbedingt ausprobieren – vor allem mit dem neuen Downloader.
Zum vollen Changelog: GitHub Release 0.6.6