Offline
Online
Viewers 0
Zum Inhalt springen

Ollama 0.6.6 ist da: Schneller, stabiler und mit starken neuen Modellen

Die neueste Version von Ollama bringt eine Reihe spannender Verbesserungen mit sich. Besonders im Fokus: neue Sprach- und Codiermodelle, ein verbesserter Downloader und zahlreiche Fixes unter der Haube.


Neue Modelle

IBM Granite 3.3

  • 2B- und 8B-Modelle
  • Bis zu 128.000 Token Kontextlänge
  • Optimiert für Reasoning und Instruction-Following

DeepCoder

  • Vollständig Open Source
  • 14B Modell (O3-mini Niveau) + 1.5B-Version
  • Fokus auf Coding-Aufgaben und Dev-Umgebungen

Neuer Downloader (experimentell)

Mit OLLAMA_EXPERIMENT=client2 ollama serve kann man jetzt den neuen Downloader aktivieren. Vorteile:

  • Deutlich schnellere Modell-Downloads
  • Stabilere Performance bei ollama pull

Rückmeldungen dazu sind willkommen: Ollama Issue #10331


Was wurde verbessert?

  • Memory-Leaks bei Modellen wie Gemma 3 und Mistral Small 3.1 behoben
  • Performance-Boost beim Importieren von Safetensors-Modellen
  • Mehr Stabilität beim Model-Unload und besseres Memory-Handling beim Start
  • Korrektes API-Handling für array-Typen (inkl. $defs, items)
  • OpenAI-Beta-Header jetzt in der CORS-Safelist enthalten
  • Tensor-Korruptionsfehler beim Import von Safetensors gefixt

Fazit

Ollama 0.6.6 bringt nicht nur neue Modelle für Sprache und Code, sondern macht auch technisch einen soliden Sprung nach vorn. Wer auf Ollama setzt, sollte das Update unbedingt ausprobieren – vor allem mit dem neuen Downloader.

Zum vollen Changelog: GitHub Release 0.6.6

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert