Apple öffnet die Tür zur Multi-Mac-AI.

Mit macOS 26.2 bringt Apple eine Funktion, die das Potenzial hat, den Markt für On-Prem-AI-Lösungen zu verändern: Das native Clustern mehrerer Macs über Thunderbolt 5, um lokale KI-Anwendungen – inklusive großer Large Language Models (LLMs) – zu betreiben.

Was bisher lediglich über externe Lösungen möglich war, wird nun direkt seitens Apple unterstützt. Dieser Umstand ist insbesondere für Unternehmen interessant, die ein besonderes Augenmerk auf die Themen Datenschutz, Performance und Wartbarkeit – in einer professionellen IT-Umgebung – legen.

Platz für Billion-Parameter-Modelle.
Mit Thunderbolt 5 lassen sich bis zu 4 Mac Studio miteinander verknüpfen. Nimmt man die derzeit maximal verfügbare Ausstattung mit 512 GB gemeinsamen Arbeitsspeicher pro System, ergibt sich ein beeindruckender Wert von über 2 TB – wohlgemerkt nativ und ohne komplizierte externe Frameworks. Damit werden Modelle möglich, die bisher ausschließlich auf High-End-GPU-Serverfarmen liefen.

Skalierung & Performance – wie stark limitiert Thunderbolt 5 wirklich?
Der spannende Punkt wird die Frage sein: Wie effizient lässt sich Inferenz über mehrere Macs verteilen? Thunderbolt 5 liefert 80 Gb/s bidirektional (mit Burst bis zu 120 Gb/s). Für viele Inferenz-Szenarien, die mehr Speicher als Bandbreite benötigen, dürfte das völlig ausreichend sein. Bei extrem großen Modellen oder hohen Token-Raten kann die Verbindung aber dennoch limitieren – das wird erst die Praxis zeigen.

Apple Hardware wird wieder „aufrüstbar“.
Apple Hardware gilt seit einige Jahren als „nicht aufrüstbar“ – bis jetzt. Der Cluster-Ansatz bedeutet: Ältere Geräte (ab Thunderbolt 5 → M3 Ultra / M4 Pro und neuer) können mit neueren Mac Modellen kombiniert werden und gemeinsam Aufgaben übernehmen. Somit entsteht erstmals ein erweiterbarer Apple Stack, der für Unternehmen langfristig sehr attraktiv ist. Ein älterer Mac Studio wird zum „Node“ und muss nicht ersetzt werden, sobald neue Modelle erscheinen. Ein großer Schritt in Richtung Nachhaltigkeit, Kosteneffizienz und Flexibilität.

MLX-Framework mit direktem Zugriff auf Neural Accelerators.
Mit den aktuellen M5-Chips erhält das MLX-Framework endlich:

- nativen Support für die integrierten Neural Accelerators der GPUs, 
- effizientere KI-Berechnungen, 
- bessere Auslastung der Apple SoCs und
- geringeren Energieverbrauch bei höherer AI-Performance.

Für Entwickler*innen und KI-Dienstleister heißt das: mehr Power, weniger Custom-Code, bessere Skalierung. Apple positioniert sich somit klar als Player für eine lokale KI-Infrastruktur – im SMB- wie auch Enterprise-Segment. Unternehmen erhalten:

- datenschutzkonforme On-Prem-AI,
- starke Performance ohne GPU-Serverraum, 
- unkompliziert administrierbare Hardware, 
- langfristig erweiterbare Cluster-Architektur und
- attraktive Kosten-/Leistungsmodelle.
 

Ob Proof-of-Concept, Machbarkeitsanalyse, Modell-Deployment oder Hardware-Sizing – Unternehmen stehen hier vor vielen neuen Möglichkeiten und ebenso vielen technischen Fragen. Wenn Sie wissen möchten, wie Apple AI-Cluster in Ihrem Unternehmen sinnvoll eingesetzt werden können, sprechen Sie uns einfach an. Wir beraten Sie gern!

Kontakt

Ihr Browser wird nicht mehr unterstützt.

Der von Ihnen verwendete Browser ist stark veraltet und wird nicht mehr weiterentwickelt.
Auf Grund von Sicherheitslücken sowie der Verwendung alter Standards wird der Browser von dieser Plattform nicht mehr unterstützt.
Bitte nutzen Sie einen modernen Internet-Browser, welcher aktuelle Sicherheitsstandards unterstützt. Hierzu zählen zum Beispiel der Microsoft Edge, Google Chrome sowie Firefox.