- Registriert
- 27.10.04
- Beiträge
- 7.111
Ich war (und bin) ein Fan von Apples M‑Chips – gerade was Effizienz und Leistung pro Watt angeht, hat Apple mit der M-Serie neue Standards gesetzt. Aber was NVIDIA jetzt mit dem DGX Spark bringt, ist eine echte Ansage im KI-Bereich.
Der Spark ist kleiner als ein Mac Studio, kostet etwa die Hälfte – und liefert mit über 1.000 TOPS (FP4) an KI-Rechenleistung bei nur 170 W Verbrauch eine neue Dimension. Zum Vergleich: Der Spark liefert rund 30–40‑mal mehr KI-Leistung – und das bei etwa halb so viel Stromverbrauch wie ein Mac Studio mit M3 Ultra. – zudem sieht der Spark auch noch Schick aus.

Ich will hier nicht Apple schlechtreden – deren Systeme sind top für Kreative, Entwickler und On‑Device‑AI. Aber wenn es um ernsthafte LLM-Inferenz, Fine-Tuning oder skalierbare KI-Infrastruktur geht, ist Apple derzeit schlicht nicht relevant. Kein CUDA, keine Tensor-Kerne, keine Cluster-Optionen, kein echtes Machine-Learning-Ökosystem.
Noch beeindruckender wird’s, wenn man sich NVIDIAs aktuelle Serverlösungen anschaut:
Ein einziger Rackeinschub mit dem neuen Grace Blackwell Ultra GB200 NVL72 bringt 40 PFLOPS AI-Leistung – mehr als der komplette Sierra-Supercomputer von 2018, der damals noch dutzende Racks brauchte.
NVIDIA-CEO Jensen Huang formulierte es so:
Und wenn man sich die Entwicklung von 2013 bis heute anschaut, ist das keine Übertreibung, sondern Realität.
Was NVIDIA da aktuell liefert, ist nicht nur schneller – es ist skalierbar, effizient, offen und zukunftsweisend. Wer heute ernsthaft mit KI arbeiten will, kommt an NVIDIA nicht vorbei.
Ich hoffe nur, dass Apple diesen Leistungsschub nicht auch noch verschläft. (auch wenn es nicht Ganz Apples Bereich ist so sie positioniert sind)

Der Spark ist kleiner als ein Mac Studio, kostet etwa die Hälfte – und liefert mit über 1.000 TOPS (FP4) an KI-Rechenleistung bei nur 170 W Verbrauch eine neue Dimension. Zum Vergleich: Der Spark liefert rund 30–40‑mal mehr KI-Leistung – und das bei etwa halb so viel Stromverbrauch wie ein Mac Studio mit M3 Ultra. – zudem sieht der Spark auch noch Schick aus.

Ich will hier nicht Apple schlechtreden – deren Systeme sind top für Kreative, Entwickler und On‑Device‑AI. Aber wenn es um ernsthafte LLM-Inferenz, Fine-Tuning oder skalierbare KI-Infrastruktur geht, ist Apple derzeit schlicht nicht relevant. Kein CUDA, keine Tensor-Kerne, keine Cluster-Optionen, kein echtes Machine-Learning-Ökosystem.
Noch beeindruckender wird’s, wenn man sich NVIDIAs aktuelle Serverlösungen anschaut:
Ein einziger Rackeinschub mit dem neuen Grace Blackwell Ultra GB200 NVL72 bringt 40 PFLOPS AI-Leistung – mehr als der komplette Sierra-Supercomputer von 2018, der damals noch dutzende Racks brauchte.
NVIDIA-CEO Jensen Huang formulierte es so:
„Wir verbessern unsere AI-Rechenleistung etwa um den Faktor 1 Million – alle 10 Jahre.“
Und wenn man sich die Entwicklung von 2013 bis heute anschaut, ist das keine Übertreibung, sondern Realität.
Was NVIDIA da aktuell liefert, ist nicht nur schneller – es ist skalierbar, effizient, offen und zukunftsweisend. Wer heute ernsthaft mit KI arbeiten will, kommt an NVIDIA nicht vorbei.
Ich hoffe nur, dass Apple diesen Leistungsschub nicht auch noch verschläft. (auch wenn es nicht Ganz Apples Bereich ist so sie positioniert sind)
