M5 Max 128GB im Test: Lokale LLMs mit beeindruckender Performance
Apples neuer Chip im KI-Stresstest
Der M5 Max mit 128GB RAM ist da – und die ersten Benchmarks für lokale Large Language Models sind vielversprechend. Wir haben die Tests der Community zusammengefasst.
Getestete Modelle
- Qwen3.5-122B-A10B-4bit – beeindruckende Performance
- Qwen3-Coder-Next-8bit – optimiert für Code
- Qwen3.5-27B-Claude-4.6-Opus-Distilled-MLX-6bit – komprimierte Qualität
- gpt-oss-120b-MXFP4-Q8 – Open Source Powerhouse
Die Ergebnisse
Mit purem mlx_lm und stream_generate erreicht der M5 Max beeindruckende Token-Generierungsgeschwindigkeiten. Die 128GB RAM ermöglichen das Ausführen von Modellen, die auf anderen Consumer-Hardware einfach nicht laufen würden.
Praxis-Relevanz
Für Entwickler und KI-Enthusiasten bedeutet das: vollständige Privatsphäre, keine API-Kosten und Offline-Verfügbarkeit. Der M5 Max positioniert sich als ernstzunehmende Workstation für lokale KI.
Fazit
Wer lokale LLMs ernsthaft nutzen will, findet im M5 Max 128GB ein leistungsstarkes Werkzeug. Die Kombination aus Apple Silicon und großem RAM eröffnet neue Möglichkeiten für Edge-AI.