• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Der Oktober ist da - Zeit, sich den rauer werdenden Wind um die Ohren pfeifen zu lassen und sich von der Wildheit der Elemente inspirieren zu lassen. Lasst uns an Euren Erlebnissen teilhaben! Zum Wettbewerb --> Klick

Macs und dedizierte Grafikkarten: Apples Hardware-Chef dämpft Erwartungen

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.029
MacPro-Marketing-1-700x401.jpg


Jan Gruber
Apple setzt auf integrierte Grafiklösungen in seinen M-Chips und dedizierte Grafikkarten sind vom Tisch. Dies bestätigte John Ternus, Apples Chef der Hardware-Entwicklung.

Keine Grafikkarten-Unterstützung: Die Entscheidung für Unified Memory​


Die M-Chips von Apple bieten eine Leistung auf Desktop-Niveau, sogar bei passiv gekühlten Modellen wie dem MacBook Air. Allerdings wird die Unterstützung von dedizierten Grafikkarten nicht vorgesehen. Dies stellt die Nutzer:innen vor eine Herausforderung, insbesondere bei High-End-Modellen wie dem Mac Studio oder Mac Pro.

Apples Hardware-Chef erklärt die Gründe​


John Ternus hat in einem Gespräch mit Daring Fireball die Gründe für diese Entscheidung erläutert. Er erklärte, dass Apple nie versucht hat, Unterstützung für Grafikkarten von Drittanbietern zu schaffen. Der Grund: Die Architektur der M-Chips basiert vollständig auf dem Konzept des geteilten Speichers, auch bekannt als Unified Memory.

Keine Hoffnung auf dedizierte Grafikkarten​


Ternus bestätigt, dass das aktuelle Chip-Design genau die Richtung widerspiegelt, die Apple verfolgen will. Eine Einbindung externer GPUs in dieses Konzept sei nicht klar. Sie müsste so erfolgen, dass sie optimal für Apples Hardware-System optimiert ist.

Aber es gibt auch eine interessante Wendung: Ein kürzlich aufgetauchter Patentantrag deutet darauf hin, dass Apple auf dem Gebiet der kombinierten Architekturen forscht. Es bleibt also spannend, ob sich in Zukunft doch Möglichkeiten für die Nutzung externer Grafikkarten ergeben könnten.

Via The Talk Show

Den Artikel im Magazin lesen.
 

Benutzer 250503

Gast
was heist dämpft? es kommt nicht und die Zündflamme die da manche am Ende des Horizonts erkennen bleibt in jedem Fall bis zum nächsten Modell des MACPros aufrecht..

Gedämpft war es ab erscheinen der M SOCs denn schon da hatten sie es so erklärt nur verdrängten das alle.

Übrigens eine Entwicklung die bei Apple eventuell doch über ihren Fahrplan nachdenken lässt ist die aktuelle AMD Veröffentlichung der Bergamo und Instinc Serie... das ist wahrlich Brachial
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.029
Übrigens eine Entwicklung die bei Apple eventuell doch über ihren Fahrplan nachdenken lässt ist die aktuelle AMD Veröffentlichung der Bergamo und Instinc Serie... das ist wahrlich Brachial
Das Argument, mit anderen Namen und Firmen, hören wir auch schon immer seit dem Ende der Tonne ... ;)
Und es ist nichts passiert.

Gedämpft war es ab erscheinen der M SOCs denn schon da hatten sie es so erklärt nur verdrängten das alle.

Würd ich nciht sagen ... Für "interne Lösungen", ja klar, zugegeben so dringend nötig sind die jetzt auch wirklich nicht mehr, bei PCIe Anbindung haben aber schon viele laut nachgedacht ob da nicht dann ggf eben auch wieder GraKa Support kommt. Ich persönlich hätte dagegen gewettet und werde das weiterhin tun aber seis drum ;)
 

Leraje

Schweizer Glockenapfel
Registriert
04.11.06
Beiträge
1.390
Die Aussage, dass sie (in einem unbekannten Umfang) daran forschen lässt aber für so in 5-10 Jahren ein Hintertürchen offen. Quasi falls das großspurig angekündigte Durchstarten im Gamingbereich (inkl. Gamingmodus) doch nicht so einschlägt wie erhofft.
 

Benutzer 250503

Gast
Das Argument, mit anderen Namen und Firmen, hören wir auch schon immer seit dem Ende der Tonne ... ;)
Und es ist nichts passiert.
hmmm was genau meinst Du damit?🤔 Wir hatten und ich glaube die Kollegen hatten immer noch D300 und eine D700er Konfiguration... Das Teil war immer gut und wird für immer auf meinem Speiseplan der besten Gerichte von Apple.

Die AMD Bergamo und Instinct Modellreihen sind Teils UMA ähnlich aufgebaut und dennoch offen. Wenn man sich die MI300A ansieht mit 24CPU Cores und 128GB HBM3 Speicher im Chip treibt es einem die Schweißperlen auf die Stirn. Nicht das das nun ein must have darstellen würde, aber als Technologieträger in jedem Fall interessant.
Fakt ist in jedem Fall, das der Vorsprung vor allem bei Effizienz und Leistung egalisiert wird oder wurde und das ist gut so.
Sie kochen im Prinzip alle nur mit Wasser und Physik ist in der Regel nur mit Marketing neu zu definieren und vor allem zu verkaufen
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.029
hmmm was genau meinst Du damit?🤔 Wir hatten und ich glaube die Kollegen hatten immer noch D300 und eine D700er Konfiguration... Das Teil war immer gut und wird für immer auf meinem Speiseplan der besten Gerichte von Apple.

Ich schrieb nach der Tonne. Als die defakto Tod war gingen ja viele davon aus, dass Apple bald keine GraKas mehr unterstützen w wird und leider war es so. Und da wurden schon viele starke Karten von Nvidia und AMD angekündigt die "alles pulverisieren" konnten, und Apple gings bisher immer am allerwertestens vorbei. Das meine ich. Insofern gehe ich davon aus das ihnen auch Bergamo und Instinc wurscht sein wird. Ja, die Tonne war super, hatte bis vor einem Jahr auch meine mit Dual D700 im Einsatz ;)

Die Aussage, dass sie (in einem unbekannten Umfang) daran forschen lässt aber für so in 5-10 Jahren ein Hintertürchen offen. Quasi falls das großspurig angekündigte Durchstarten im Gamingbereich (inkl. Gamingmodus) doch nicht so einschlägt wie erhofft.

Bei der Diskussion gehts mMn Null um Gaming ... Mac Pro und externe GraKas ist eher was für Medien-Produktion, Forschung usw
 
  • Like
Reaktionen: Benutzer 250503

Benutzer 250503

Gast
Das meine ich. Insofern gehe ich davon aus das ihnen auch Bergamo und Instinc wurscht sein wird
Ich meinte nicht damit das Apple sich wieder in Richtung AMD orientiert, sondern das sich das Alleinstellungsmerkmlal durch die UMA der AppleSOCs somit aufhebt und in den Leistungsvergleichen relevant werden. Wer sich der Speicherdurchsatz der neuen Generation bei AMD und Nvidia ansieht wird es sofort erkennen, dass bei den Leistungsdaten ein vollkommen neues Kapitel aufgeschlagen wurde.
Das ist das was ich damit meine das Apple sich etwas einfallen lassen wird müssen

Interessant ist der Ansatz der Unterstützung seitens Apple zur Anpassung vorhandener x86 Applikationen. Insbesondere die Übersetzung resp Überführung von speziellen Funktionen die sonst NV APIs like Cuda oder Tensor ausführen wird spannend.
ChatGPT basierend auf LLM arbeiten of Python-orientiert und genau da sollte sich viel über die Neural Engine abwälzen lassen.

Ich bin in jedem Fall gespannt was sich da tu wird.
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.029
Apple bleibt sturr und macht seinen Kram weiter ;) Das wäre mal meine Prognose.
Aber ja, sie werden sich Richtung LLM und anderer AI Modelle was einfallen lassen müssen. Da sind sie ja aber anscheinend auch schon dabei. Stable Diffusion lief ja relativ schnell nativ auf den M-Prozessoren - und das echt gut
 

O-bake

Welscher Taubenapfel
Registriert
21.01.07
Beiträge
759
Apple bleibt sturr und macht seinen Kram weiter ;) Das wäre mal meine Prognose.
Aber ja, sie werden sich Richtung LLM und anderer AI Modelle was einfallen lassen müssen. Da sind sie ja aber anscheinend auch schon dabei. Stable Diffusion lief ja relativ schnell nativ auf den M-Prozessoren - und das echt gut
Ich habe mir Anfang des Jahres tatsächlich seit vielen Jahren wieder einen PC mit (auch zum ersten Mal in meinem Leben) einer "Gaming" Grafikkarte gekauft. Extra für Stable Diffusion und AI Sachen. Mein erster Computer war ein C64er, bin also schon etwas länger dabei. Aber diese generative AI haut mich einfach um.
Ich habe noch einen Intel Mac, aber die Berichte und Benchmarks (oft sehr schwierig zu vergleichen) haben sehr eindeutig gegen einen M1/M2 gesprochen und für einen PC mit RTX 3090. Die Karte ist halt ein Monstrum und produziert viel Wärme. Das will niemand in einem Mac haben. Als eGPU in externem Gehäuse (habe ich derzeit auch, da kleiner PC von Minisforum) könnte man zwar am Mac nutzen. Aber die Nutzerberichte im Netz klingen alle so, als würde man irgendwie immer der PC-Version hinterher laufen. Und es gibt ja wirklich täglich Updates.
Ich weiß nicht, wie Apple das in Zukunft lösen will. Ewig kann sich Apple dem AI-Hype ja auch nicht verschließen. Vermutlich machen sie es wie Adobe und lassen alles in Clouds zu ihren Konditionen rechnen.
 
  • Like
Reaktionen: you're.holng.it.wrng

10tacle

Mecklenburger Orangenapfel
Registriert
10.06.11
Beiträge
2.985
Finds extrem schade, vor allem in Bezug auf Blender, was ja ohne Zweifel auch immer relevanter wird im 3D-Bereich. Da kam im letzten Dezember noch die Nachricht, dass Apple da einen großen Betrag gespendet hat um die Entwicklung voranzutreiben und ich glaube die langersehnte Unterstützung für Metal-Karten unter macOS hing ja auch damit zusammen. Dadurch gab es einen großen Sprung bei der Mac-Version für Blender. Nur mittlerweile frag ich mich wofür, gibt ja hier eh keine Zukunft. Noch ein paar macOS-Versionen und die AMD-Karten fliegen raus, dann bleiben auf dem Gebiet nur noch die Apple Chips und die sind nochmal viel schwächer. Und noch glaube ich nicht daran, dass Apple es wirklich mal schafft, mit seinen eigenen Chips im High End-Bereich aufzuholen. Ich bin zwar ansonsten begeistert von der Entscheidung mit Silicon, aber das mit der GPU-Leistung ist eben so eine Sache. Und dann bringen die einen Mac Pro raus der langsamer rendert als mein Toaster…
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.029
eGPU hatte ich lange am MAC ... war ne nette Sache aber bringt halt mittlerweile leider auch nichts mehr. Hab auch nach wie vor nen PC und in in dem auch ne RTX 3080 und ja ... Grafik und AI macht die halt irre gut. Aber eben auf der anderen Seite: Was Apple mit wenig Strom und kaum lüften schafft ist auch nicht ohne. Seit Stable Diffusion M-Chip optimiert ist ist so quasi "Bums pro Watt" eindeutig auf Seiten des Macs.
 
  • Like
Reaktionen: SORAR

O-bake

Welscher Taubenapfel
Registriert
21.01.07
Beiträge
759
Was Apple mit wenig Strom und kaum lüften schafft ist auch nicht ohne. Seit Stable Diffusion M-Chip optimiert ist ist so quasi "Bums pro Watt" eindeutig auf Seiten des Macs.
Dass Apple das sehr effizient schafft, stellt ja wohl niemand infrage.
Wenn ich aber trotzdem länger auf meine Rechnungen warte, weil halt eben nur ein kleiner Chip im Mac ist, hilft mir das erstmal auch nicht viel weiter. Und eine theoretische eGPU (oder ein Mac) mit entsprechend vielen M-Chips wird wohl wegen der Kosten unrealistisch bleiben.
Interessant dürfte hier aber Apples Ausrichtung werden. Im Gaming-Sektor war Apple halt nie drin. Jetzt braucht man aber vereinfacht gesagt Gaming-Hardware für Grafikbearbeitung. Und das war ja mal ein Aushängeschild von Apple...
 

Jan Gruber

Chefredakteur Magazin und Podcasts
AT Administration
AT Redaktion
Registriert
01.11.16
Beiträge
15.029
Interessant dürfte hier aber Apples Ausrichtung werden. Im Gaming-Sektor war Apple halt nie drin. Jetzt braucht man aber vereinfacht gesagt Gaming-Hardware für Grafikbearbeitung. Und das war ja mal ein Aushängeschild von Apple...

Da würd ich noch nicht sooo mitgehen muss ich sagen. So ein Ultra ist nicht unleistbar einerseits, anderseits dürfen wir halt mal warten was Apple mit dem M3 zeigt. Es gibt auf den M-Chips ja ML Kerne, die sich ziemlich langweilen. Auf den A-Chips ja auch. Stable Diffusion nativ nutzt die aber zb - das ist ne Einzelanwendung aber künftige ML Systeme dürften die dann auch nutzen ...

Was ich sagen will: Gaming? Vergiss es. ML? Da kommen die ML Kerne zum Einsatz un die Grafikkerne sind da auch nicht so mies. Ist da die Konkurrenz vorne? Ja klar, absolut. Aber ein M3 könnte entsprechend proportional MEHR dieser Kerne bieten und bei nem M3 Ultra erst recht - und apple ggf wieder "näher" kommen. Und ja, sie werden immer noch hinten dran sein ;) Die Frage ist nur ob der Abstand kleiner wird ... und davon geh ich zumindest gefühlsmäßig mal aus