Anmelden
30,401

M5 Max 128GB im Test: Lokale LLMs mit beeindruckender Performance

Apples neuer Chip im KI-Stresstest

Der M5 Max mit 128GB RAM ist da – und die ersten Benchmarks für lokale Large Language Models sind vielversprechend. Wir haben die Tests der Community zusammengefasst.

Getestete Modelle

  • Qwen3.5-122B-A10B-4bit – beeindruckende Performance
  • Qwen3-Coder-Next-8bit – optimiert für Code
  • Qwen3.5-27B-Claude-4.6-Opus-Distilled-MLX-6bit – komprimierte Qualität
  • gpt-oss-120b-MXFP4-Q8 – Open Source Powerhouse

Die Ergebnisse

Mit purem mlx_lm und stream_generate erreicht der M5 Max beeindruckende Token-Generierungsgeschwindigkeiten. Die 128GB RAM ermöglichen das Ausführen von Modellen, die auf anderen Consumer-Hardware einfach nicht laufen würden.

Praxis-Relevanz

Für Entwickler und KI-Enthusiasten bedeutet das: vollständige Privatsphäre, keine API-Kosten und Offline-Verfügbarkeit. Der M5 Max positioniert sich als ernstzunehmende Workstation für lokale KI.

Fazit

Wer lokale LLMs ernsthaft nutzen will, findet im M5 Max 128GB ein leistungsstarkes Werkzeug. Die Kombination aus Apple Silicon und großem RAM eröffnet neue Möglichkeiten für Edge-AI.

💬 0 Kommentare ← Zurück

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert