Nvidia stellt CUDA für Mac ein

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.681
Nvidia stellt CUDA für Mac ein
Nvidia-Cuda-700x401.jpg



Gilt die Beziehung zwischen Apple und Nvidia bereits seit Jahren angespannt, so scheint Nvidia jetzt offenbar den letzten Schritt zu gehen – und reißt die Brücken vollkommen ab. Der Grafikkartenhersteller gab heute bekannt, dass CUDA 10.2 die letzte Version mit Unterstützung für macOS sein wird.

Seit vielen Jahren setzt Apple ausschließlich auf Grafikkarten von AMD. Ein offizielles Statement, warum dies so ist, gibt es nicht. Auch wenn es mit neuen Treibern für macOS seitens Nvidia einen kurzen Lichtblick gab, scheinen die Fronten sich jetzt wieder zu verhärten.
CUDA für Mac wird eingestellt


Apple unterstützt die Grafikkarten von Nvidia auch nicht als eGPU, obwohl es laut Nvidia die passenden Treiber gäbe. Heute gab der Grafikkartenhersteller bekannt, dass CUDA 10.2 die letzte Version sei, die macOS unterstützen soll. Da lediglich die hauseigene Hardware diese Technik unterstützt, ist der Schritt nicht weiter verwunderlich. Somit bleiben dem Mac auch Technologien wie Optix (Raytracing) künftig vorenthalten.

Via Nvidia Release-Notes
 
  • Like
Reaktionen: makossa

GunBound

Rote Sternrenette
Registriert
23.06.05
Beiträge
6.074
Somit bleiben dem Mac auch Technologien wie Optix (Raytracing) künftig vorenthalten.
Nicht nur das, sondern auch ein Grossteil wissenschaftlicher Projekte, v.a. rund um das Thema Deep Learning.
NVIDIA ist eine Firma mit ziemlich unangenehmen Geschäftspraktiken. Leider ist die CUDA-Suite gleichzeitig aber auch die schnellste und mächtigste Programmbibliothek zum Thema Parallelisierung auf GPUs und TPUs. Praktisch jedes (Deep Learning-) Modell, welches heute irgendwo eingesetzt wird, von der Gesichtserkennung im iPhone zu den vielen Modellen in selbstfahrenden Autos, lief mal über NVIDIA-Hardware. Im Gegensatz zu CUDA ist OpenCL ist ein schlechter Scherz, Apple's Metal-Framework ebenfalls.

Aber auch nur im Ansatz anspruchsvolle Märkte interessiert diese Firma sowieso nicht mehr. Bringt entweder zu wenig Geld, oder ist zu schwierig, weil dafür im Gegensatz zu verkrüppelten Consumer-Geräten (Stichworte T2-Chip, mangelnde Reparierbarkeit und Aufrüstungsmöglichkeiten, etc.) eben Workstation-Hardware benötigt wird.
 
  • Like
Reaktionen: SORAR und dg2rbf

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.681
Ich habs gestern noch groß im SE-Podcast gesagt:
Es ist echt ne Schande das Apple so auf AMD setzt - und die wirklich guten Karten nicht im Angebot hat. Ist mir schon klar: Es gibt auch Fälle wo die AMD besser sind, ich hätte aber lieber die Wahl. Das ist halt der nächste, echt böse, Schritt von Nvidia - der leider total Sinn macht.
 

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.375
Es ist ein Trauerspiel. Andererseits wird jeder, der halbwegs anspruchsvolle ML-Aufgaben bearbeitet früher oder später auf dedizierter Hardware oder natürlich in einer der großen Clouds arbeiten.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.057
Es ist ein Trauerspiel. Andererseits wird jeder, der halbwegs anspruchsvolle ML-Aufgaben bearbeitet früher oder später auf dedizierter Hardware oder natürlich in einer der großen Clouds arbeiten.
Das nützt Dir trotzdem nichts, denn man wird die Software auf einer Plattform mit CUDA Unterstützung entwickeln müssen. D.h. man nimmt eine der drei Linux Hardwareplattformen (x86-64, ARM oder Power) oder Windows x86-64. Man kann am Mac auch keine virtuelle Maschine für die CUDA-Entwicklung laufen lassen, weil Apple auch das nicht mitspielt. Sprich wer CUDA braucht, kann ab jetzt keinen Mac mehr nutzen.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.681
Das nützt Dir trotzdem nichts, denn man wird die Software auf einer Plattform mit CUDA Unterstützung entwickeln müssen. D.h. man nimmt eine der drei Linux Hardwareplattformen (x86-64, ARM oder Power) oder Windows x86-64. Man kann am Mac auch keine virtuelle Maschine für die CUDA-Entwicklung laufen lassen, weil Apple auch das nicht mitspielt. Sprich wer CUDA braucht, kann ab jetzt keinen Mac mehr nutzen.

Angesichts des Mac Pro umso trauriger ,...
 

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.375
Das nützt Dir trotzdem nichts, denn man wird die Software auf einer Plattform mit CUDA Unterstützung entwickeln müssen.

Man kann evtl. auch remote arbeiten, z.B. mit xrdp.

Aber dann kann man natürlich gleich den Mac in die Ecke stellen :/
 

Mitglied 87291

Gast
Ich finde die Hardwareauswahl von Apple echt bescheuert...
Im Mac Pro setzt man auf Intel anstatt auf AMD, bei den (Laptop-)Grafikkarten auf AMD anstatt auf NVidia...

Klar, ich habe keine Ahnung was Apple für Gründe für diese Entscheidungen hat, aber man kombiniert momentan aus beiden Welten das schlechteste.
 
Zuletzt bearbeitet von einem Moderator:

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.681
Was den Prozessor, gerade High-End, betrifft bin ich nicht bei dir, am besten würde es mir aber gefallen wenn man wählen könnte.
Und ja, ich würd mir auch nen Mac Pro mit AMD Prozessor und Nvidia Graka bauen ;)
 

GunBound

Rote Sternrenette
Registriert
23.06.05
Beiträge
6.074
Andererseits wird jeder, der halbwegs anspruchsvolle ML-Aufgaben bearbeitet früher oder später auf dedizierter Hardware oder natürlich in einer der großen Clouds arbeiten.
Klar, wir arbeiten hier in der Gruppe alle mit custom-Workstations und Linux. Einzig der Chef hat einen Mac Pro-Abfalleimer, nutzt diesen aber nur für E-Mail. Anspruchsvolle Aufgaben erledigt auch er auf einem unserer Linux-Server.

Wenn man eines bis zwei Jahrzehnte zurückschaut, so war der Marktanteil Apples in diesen Sektoren deutlich grösser. Man kriegte schliesslich auch vergleichweise bessere Hard- und Software.
 
  • Like
Reaktionen: ottomane

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.057
Angesichts des Mac Pro umso trauriger ,...
Ja, zum MacPro schreibt Apple sehr viel, aber ob er wie eine richtige Workstation auch VT-d (auch unter IOMMU bekannt) unterstützt, dazu schreibt Apple rein gar nichts. Wenn das der Fall wäre, könnte man im MacPro eine nVidia-GPU installieren und dann unter Linux oder Windows VM nutzen. Dann bräuchte man auch einen passenden Hypervisor, der IOMMU versteht.
 

10tacle

Mecklenburger Orangenapfel
Registriert
10.06.11
Beiträge
2.976
Das Theater um Nvidia und Apple ist sowieso ein riesiger Witz und meiner Meinung nach sogar fast schon Betrug am Kunden. Das war mir vorher nie bewusst, denn als ich im letzten Jahr noch meinen letzten, offiziellen Mac hatte (MBP 15" von 2014 mit der Nvidia 750m), hab ich mich noch gar nicht so mit dem Thema befasst. Da fiel mir zwar auch schonmal auf, dass sämtliche Macs der letzten Jahre irgendwie nur noch AMD haben, aber dass es diesen strikten Nvidia-Verzicht gibt, wusste ich da noch gar nicht.
Das Thema kam für mich erst ans Tageslicht weil ich letzten Winter komplett zum Hackintosh gewechselt bin (PC war ja schon vorhanden, natürlich mit einer 1080 TI, also genau der "falsche" Hersteller) und von da an hatte ich wöchentlich im Internet nachgelesen ob jetzt endlich mal Nvidia-Treiber für Mojave angekündigt wurden. Anfangs hatte man ja noch Hoffnung, aber die Zeit verging und von beiden Seiten hat man nichts als Lügen gelesen.

Wieviele Screenshots von Support-Nachrichten landeten im Internet, die auf Reddit und co. jedes Mal aufs Neue Hoffnung geschürt haben, weil die Mitarbeiter beider Firmen "bestätigt" haben, dass an Treibern gearbeitet wird: von Nvidia-Mitarbeitern wurde das sinngemäß so hingestellt, als gäbe es die Treiber schon, nur Apple würde die nicht freigeben, und von Apple-Mitarbeitern wurde komischerweise so getan als würde von Nvidia einfach nur nichts kommen. Also spätestens nach ein paar solcher Meldungen wurde klar, dass man von beiden Seiten bloß für dumm verkauft wird. Und bis heute ist nichts passiert. Wer von beiden jetzt der Übeltäter ist, oder beide, keine Ahnung, mittlerweile ist mir das aber auch egal.
Ich hab hier einen von Tag 1 an perfekt funktionierenden, voll kompatiblen Mac, der nur nicht von Apple kommt. Nur eben mit der Gewissheit, dass ich nicht von High Sierra wegkomme, denn unter HS funktionieren die ganzen Nvidia-Karten ja noch.

Ob ich in ferner Zukunft beim nächsten Hardware-Upgrade dann bei AMD lande und somit eventuell wieder an die Möglichkeit gelange ein bis dahin aktuelles macOS zu nutzen, oder ob macOS für mich irgendwann einfach Geschichte ist, denn HS wird ja auch nicht ewig halten, weiß ich jetzt noch nicht. Nvidia wird zwar immer gieriger und bei den Preisen heutzutage wird mir schlecht, trotzdem war mir AMD immer zu langsam, aber wer weiß wie die sich in 1-3 Jahren noch entwickeln. Ich weiß nur, dass es keinen echten Mac mehr für mich geben wird, denn da hab ich mit Hackintosh leider zu sehr andere Vorzüge kennengelernt.

Und hochgradig verwerflich find ich den Kindergarten, weil die echten Mac-Besitzer ja genauso vorgeführt werden. Es geht mir hier nicht einfach um Hackintosh, denn damit hat man ja eh kein Mitspracherecht, sondern das Problem gilt ja 1:1 auch für echte Macs. Was machen denn die Leute, die 2017, also noch vor Mojave, noch guter Dinge einen offiziellen Mac mit externer Nvidia-Karte gekauft haben, was ja offiziell erlaubt war? Ein Jahr lang Unterstützung für das aktuelle macOS und dann von jetzt auf gleich einfach nicht mehr? Da kann ich die frustrierten Leute im Internet vollkommen nachvollziehen.
 
  • Like
Reaktionen: dg2rbf

Mitglied 87291

Gast
@Jan Gruber
Aber grad im High-End Bereich hat AMD mit Ryzen 3 Intel ziemlich vernichtet.
Mobil okay, da ist intel noch vorn. Aber im Desktop sehen die grad kein Land.
 
  • Like
Reaktionen: dg2rbf

Butterfinger

Kaiser Alexander
Registriert
28.04.15
Beiträge
3.933
@Jan Gruber
Aber grad im High-End Bereich hat AMD mit Ryzen 3 Intel ziemlich vernichtet.
Mobil okay, da ist intel noch vorn. Aber im Desktop sehen die grad kein Land.

Die Titel der Artikel sagen es schon aus :p

AMDs große Ryzen beerdigen Intel Core X
https://www.computerbase.de/2019-11/amd-ryzen-threadripper-3960x-3970x-test/

und

Wer zu spät kommt, den bestraft Zen 2
https://www.computerbase.de/2019-11/intel-core-i9-10980xe-test/

oder

AMD definiert High-End-Desktop neu: Der 32- und 24-Kerner des Herstellers ziehen Intels neuen Core-X-Prozessoren davon.
https://www.heise.de/newsticker/mel...r-3970X-vs-Intel-Core-i9-10980XE-4595002.html
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
14.681
Ok ,.... Ich hätte mir, rein wegen Preis-Leistung, wohl auch einen Threadripper gekauft - dass es so krass ist war mir aber nicht klar.
Vielen Dank für die Tests ;) Muss ich mir mal doch "alternative Computer", um ein bekanntes aber böses Wort nicht zu sagen, ansehen ;)
 

Bananenbieger

Golden Noble
Registriert
14.08.05
Beiträge
25.515
Nicht nur das, sondern auch ein Grossteil wissenschaftlicher Projekte, v.a. rund um das Thema Deep Learning.
Ganz so schwarz sehe ich die Zukunft für DL auf dem Mac nicht. Immerhin sieht die KI-Community auch ein Problem darin, dass man von nVidia abhängig ist. PlaidML scheint hier ziemlich vielversprechend zu sein, um das Problem in Zukunft zu lösen.
 

Mitglied 87291

Gast
@Jan Gruber

Jau. Für Workstations ist Threadripper einfach nur böse... Teilweise doppelt so schnell wie der momentan stärkste Intel HEDT.

Und zur Not kommen sogar die "normalen" Ryzen 3 an die Intel CPU's dran bzw. sind stärker.
 

FuAn

Schafnase
Registriert
18.07.12
Beiträge
2.228
@Jan Gruber

Jau. Für Workstations ist Threadripper einfach nur böse... Teilweise doppelt so schnell wie der momentan stärkste Intel HEDT.

Und zur Not kommen sogar die "normalen" Ryzen 3 an die Intel CPU's dran bzw. sind stärker.

IMHO geht AMD da einen interessanten und richtigen Weg. Die Ryzen als die Core i Konkurrenz, die Threadripper mit vielen Cores bezahlbarem Core/$$ Verhältnis und die Epyc 7nm Core Monster. Gerade deshalb denke ich auch, dass sich AMD in Sachen DL, ML etc sicher nicht das Heft von Nvidia aus der Hand nehmen lassen wird.
Zumal sich die Frage stellt ob wir in Zukunft noch GPU spezifische Sprachen ala CUDA brauchen werden, da sich die Sprachen, als Erweiterungen um C Code auf gpus auszuführen, entstanden, eigentlich wieder immer mehr an C annähern. Metal ist nichts anderes und ist ebenfalls eine Erweiterung von C++. Das opensource Projekt HIP von AMD ermöglicht es CUDA Code für AMD Karten zu kompilieren... imho wird kunftig in C++ für GPUs programmiert werden und die GPU spezifischen Sprachen sterben eher aus... momentan, das ist mir schon klar, geht kein Weg an Nvidia vorbei, das ist allerdings vielen ein Dorn im Auge, das geht ganz sicher auch Apple so und ich glaube da ist das letzte Wort noch lange nicht gesprochen... und da haben wir jetzt das Thema ARM noch nicht angerissen...
 
  • Like
Reaktionen: errorlog und dg2rbf

ottomane

Golden Noble
Registriert
24.08.12
Beiträge
16.375
Ich fürchte nur, Apple würde eher einen eigenen proprietären Weg favorisieren anstatt einen neuen, kommenden Standard zu unterstützen. Eigene Chips für AI haben sie ja schon. Der Markt der AI-Entwickler-Workstations ist zu klein, er interessiert Apple zu wenig. Die Nutzung allerdings in eigenen Funktionen ist für Apple interessant, z. B. zur Bilderkennung in Fotos usw.
 
Zuletzt bearbeitet: