Anmelden
43,224

Mistral Small 4:119B-2603 veröffentlicht – Das bessere GPT-4o Alternative?

Die französische KI-Schmiede Mistral hat überraschend ein neues Modell veröffentlicht: Das Mistral Small 4 mit beeindruckenden 119 Milliarden Parametern. Das Modell, das intern als 2603 bezeichnet wird, könnte sich als ernstzunehmende Konkurrenz zu OpenAIs GPT-4o etablieren.

Was macht Mistral Small 4 besonders?

Im Gegensatz zum Namen suggeriert bringt das Modell ordentlich Power mit. Die 119B Parameter verteilen sich auf eine fortschrittliche Mixture-of-Experts (MoE) Architektur, die nur einen Bruchteil der Parameter pro Forward-Pass aktiviert. Das Ergebnis: Hohe Effizienz bei gleichzeitig beeindruckender Leistung.

Die Reddit-Community r/LocalLLaMA feierte den Release enthusiastisch – mit über 587 Upvotes und mehr als 226 Kommentaren innerhalb kürzester Zeit. Die Community hebt besonders die verbesserte Qualität bei Coding-Aufgaben und mathematischen Reasoning hervor.

Technische Highlights

  • Kontextfenster: Bis zu 128k Tokens
  • Lizenz: Apache 2.0 – vollständig Open Source
  • Architektur: Optimierter Transformer mit verbesserter Attention
  • Training: Multilingual auf hochwertigen Datensätzen

Fuer wen lohnt sich der Umstieg?

Entwickler, die lokale LLMs bevorzugen, finden in Mistral Small 4 einen starken Kandidaten. Besonders wer Wert auf Datenschutz und Unabhaengigkeit von US-amerikanischen Anbietern legt, duerfte das Apache-2.0-lizenzierte Modell interessant finden. Die Modelle sind auf Hugging Face verfuegbar und lassen sich problemlos mit Tools wie Ollama oder Llama.cpp nutzen.

💬 0 Kommentare ← Zurück

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert