• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Viele hassen ihn, manche schwören auf ihn, wir aber möchten unbedingt sehen, welche Bilder Ihr vor Eurem geistigen Auge bzw. vor der Linse Eures iPhone oder iPad sehen könnt, wenn Ihr dieses Wort hört oder lest. Macht mit und beteiligt Euch an unserem Frühjahrsputz ---> Klick

Artikel: Der wahre Grund warum es noch kein i7-MacBook gibt

Eric Draven

Osnabrücker Reinette
Registriert
18.11.06
Beiträge
993
Mit der CPU ist es eben wie mit anderen Sonderwünschen auch: So lange die verkauften Stückzahlen stimmen, steht man auch nicht so unter Druck. erst, wenn die MB(P)s einfach nicht mehr gekauft werden, MUSS Apple was tun.

Wenn mein MB den langen Schuh macht, hab ich auch nur die Wahl: i7 und Win oder MBP und veralterte Hardware. Bei der Grafikkarte funktioniert das ja schon länger, warum nicht auch mit CPUs. *halbironie
 

Gemeinderat

Ontario
Registriert
02.01.09
Beiträge
348
Vielleicht begibt sich Apple einfach zu Lasten der Kundschaft einfach in eine Art Beobachterposition.
Sie lassen die aktuellen Varianten noch, machen vll zur not ein Minor-Update (etwas schnellere C2D solangs die noch gibt) und fertig. Damit sind sicher 70% der Wartenden befriedigt und es wird weitergekauft (denn nicht jeder interessiert sich für diese Debatten hier).
Und der Rest ist verärgert, wartet aber weiter weil sie es einfach haben wollen. Und dann wirds vll eine Einigung oder Lösung geben.
Ich denke, dass das schon klappen wird. Früher oder später gibts da was.
Und seht es mal positiv: Vll sind bis dahin günstige SSDs verfügbar oder USB 3.0 integriert.
Dann gibts nen Grund noch zu warten ;) und man hat hinterher was davon!
 

Mitglied 49260

Gast
Genau meine Meinung!

Der ganze Artikel ergibt für mich überhaupt keinen Sinn.

Da wird von irgendwelchen geheimen "Technologien" geredet, obwohl andere Hersteller schon längst Core iX mit Nvidia kombinieren.

Und dass gerade Intel die ATI-Grafikkarten vom Hauptkonkurrenten AMD bevorzugt, soll mir mal einer logisch erklären.

Dass sich Steve Jobs mit dem Intel-Chef wegen der iPad Chips zerstritten hat, glaub ich schon eher.
Ich finde, Apple sollte in Zukunft ein bisschen aufpassen und sich nicht mit jedem anlegen (so wie bei Flash) und seine Kunden auch nicht für blöd verkaufen (siehe iPad ohne Kamera, Flash etc. sowie 9 Monate alte MBPs zum selben Preis), denn der positive Hype kann auch schnell umschlagen, und dann stehen sie eventuell mal alleine da und die Kunden laufen ihnen davon.

Und wie kann es dann sein, dass in jedem etwas besseren davon eine nVidia oder ATI verbaut ist?
In allen deinen Artikeln vorher wurde mein Problem nicht in einer für mich einsehbaren, oder zufriedenstellenden Weise gelöst. Keine Panik, ich hab das gesamte Thema sehr genau durchgelesen;)

Dann habt ihr die Beiträge eben doch nicht richtig gelesen. o_O

Nochmal kurz:
Es geht nicht darum, dass Apple keine Nvidia oder ATI GPUs verbauen kann. Es geht darum, dass Apple und die anderen Hersteller keine anderen Chipsätze ausser denen von Intel verbauen können.
Das führt wiederum dazu, dass bestimmte Technologien, die auf eine Chipsatz-GPU Kombination vom selben Hersteller angewiesen sind, nicht mehr machbar sind.
http://www.nvidia.de/page/technologies.html

Beim neuen Arrandale Prozessor von Intel sitzen CPU und GPU zusammen unter einer Haube.
Damit ist der Kauf eines ix Prozessors ohne GPU und ohne Intel-Chipsatz nicht mehr möglich. Man wird also dazu gezwungen Intels schrottige Grafikeinheit einzukaufen, ob man nun will oder nicht.
Wenn AMD/ATI das mit Fusion macht ist das egal. Denn AMD/ATI kann im Gegensatz zu Intel auch anständige Grafikeinheiten mit einer brauchbaren 3D-Einheit herstellen.
Bei Intel ist die 3D-Einheit inkl. Treiber der letzte Rotz. Das wissen die auch und deshalb werden die Leute ab sofort eben gezwungen dies zu kaufen, weil sie es vorher nicht wollten...ausserhalb von Office verständlich.

Bei Apple sieht es wohl so aus:
Die wollten eine Arrandale CPU ohne GPU-Einheit. Denn: Nvidia und Apple waren gerade dabei die Funktion Hybrid SLi auf on-the-fly umzustellen und die Funktion GeForce Boost unter OSX zu aktivieren.
Für den Kunden wäre das ein toller Schritt nach vorne gewesen und Apple hätte ein paar neue Verkaufsargumente gehabt.
Daraufhin hat Intel gesagt: "Nein. Wir haben Nvidia die Lizenz entzogen für unsere Nehalem-Plattform Chipsätze herzustellen, womit wir nun die Einzigen sind, die das noch dürfen...hahahahahaaaaaa...ja." Siehe http://www.heise.de/newsticker/meldung/Intel-verklagt-Nvidia-wegen-Chipsatz-Lizenzen-198069.html

Dazu ein kleiner Dialog zum besseren Verständnis. So oder so "ähnlich" :-D könnte es sich zugetragen haben:

Intel: "Wenn du also eine CPU von uns haben willst, dann musst du auch unsere Grafikeinheit nutzen!"

Apple in Gedanken: "Warum zur Hölle soll ich so einen Müll freiwillig nutzen? Die anderen Hersteller haben Lösungen, die zehnmal besser sind. Dann schalte ich halt die GPU in diesem Drecksvieh aus."

Apple: "Kann ich die interne GPU abschalten?"

Intel: "Kannste machen. Aber deine dedizierte GPU kannst du nicht abschalten."

Apple: "Das heisst, selbst wenn meine dedizierte Grafikkarte nicht genutzt wird und ihre Stromsparmechanismen aktiviert: Komplett abgeschaltet wird sie nicht."

Intel: "Riiiiisccchhhhtiiiiischhhh!"

Apple: "Und das heisst wiederum, dass das Notebook mehr Strom vom Akku frisst und damit meine Laufzeit geringer ausfällt."

Intel: "Absolut korrekt."

Apple: "Und was wenn meine User 3D-Applikationen nutzen möchten, die nicht besonders leistungshungrig sind?"

Intel: "Kannste doch machen. Unsere Grafikeinheit kann ja auch 3De...und...na..Dingsda...und fliegende Bäume...und son Kram halt, du weisst schon."

Apple: "Und was ist mit den Treibern, der Leistung, den Stromsparmechanismen, den leistungssteigernden Technologien on-Demand?"

Intel: "Öhm...egal? Was interessiert uns das?"

Apple: "Euch vielleicht nicht, aber den User. Die könnten immerhin deutlich besseres von der Konkurrenz bekommen. "

Intel: "Ist das ein Witz? Wie lange seid ihr jetzt eigentlich schon dabei? Seit wann interessiert man sich für den Nutzer? Hier geht es nur ums Geld! Hauptsache unsere Taschen sind voll. Der Rest ist uns scheissegal."

Apple: "Hmm...okay, das sehen wir auch nicht ganz anders, aber ein bisschen wollen wir den Leuten schon was bieten..."

Intel: "Wie gesagt: Interessiert uns nicht. Ihr kauft die Scheisse jetzt oder ihr kriegt garnichts. Wir haben AMD abgesägt, nachdem sie zu gut wurden und das gleiche machen wir jetzt mit Nvidia. Sie sind zwar besser als wir, aber dafür sind wir stärker. Aber keine Angst: Wir halten die Unternehmen natürlich weiter am Leben, damit wir keinen Ärger mit den Behörden bezüglich Monopol und son Quatsch bekommen. Aber eben nur auf Sparflamme und mit dem Daumen drauf. So bleibt der Markt bei uns, wir verdienen Geld und...jo...wir verdienen Geld."

Apple: "Willst du mich heiraten?"

Intel: "Geht nicht, bin schon mit dem Teufel liiert."

Apple: "ICH AUCH!!! Aber wir können ja fremdgehen?"

Intel: "Stimmt eigentlich...komm her...grrrr"
 
  • Like
Reaktionen: Punkbuster

Gemeinderat

Ontario
Registriert
02.01.09
Beiträge
348
Was für ein witziger Dialog ;) die ersten paar Sätze klingen noch plausibel :p der rest mit Heiraten und teufel ist quatsch :p
Aber ich weiß schon, was du gemeint hast damit. Naja. Vll sucht sich Apple aber genau deshalb andere Partner - auch was die CPU angeht - um Intel eins auszuwischen und wieder am Ball zu sein, was gute dedizierte Grafiklösungen angeht.

Du hast ja so geschrieben, als wäre Intel gemein und schlecht. Sie sind vll gemein, aber gut.
Mir kommt (PC mäßig) keine andere CPU als Intel ins Gehäuse. Die Leistung stimmt und der Preis auch.
Was die sonst für eine Politik machen ist mir egal. Ich will meine Leistung, der rest ist mir egal^^
 
  • Like
Reaktionen: Slashwalker

Loooki

Beauty of Kent
Registriert
15.09.09
Beiträge
2.169
Ich fidns gutdas der Intel Atom Kram nicht in nen Mac kommt ;) ich stand nochnie auf nur die halbe Leistung ;)
 

Hauwau

Cripps Pink
Registriert
12.07.09
Beiträge
155
Wo ist eigentlich das Problem? Ok, Nvidia darf keine Chipsätze mehr herstellen.
Nvidia hat reagiert und Optimus entwickelt. Das ist nämlich entgegen den Aussagen in diesem Thread dafür gedacht on-the-fly Grafikswitchen durchzuführen zwischen der GMA HD im i3/i5/i7 und einer dedizierten Nvidia. Ich wette Apple hat noch Probleme mit dem MBP 13", weil nur GMA HD wäre etwas schwach und dedizierte Karte wäre möglicherweise etwas zu groß.
 

mtbmtb

Idared
Registriert
20.02.08
Beiträge
26
Bei Apple sieht es wohl so aus:
Die wollten eine Arrandale CPU ohne GPU-Einheit. Denn: Nvidia und Apple waren gerade dabei die Funktion Hybrid SLi auf on-the-fly umzustellen und die Funktion GeForce Boost unter OSX zu aktivieren.
Sorry, aber apple kann nicht etwas haben wollen, was es nicht gibt.
Arrandale ist eben CPU + GPU integriert, mit der Möglichkeit, eine externe Grafikkarte anzusteuern.
Und warum sollte apple das nicht haben wollen?
Gerade für Notebooks ist es ideal, eine stromsparende integrierte GPU zu haben (reicht für 90 % der Anwendungen), und wenn man es benötigt, kann man dann auf die externe GPU umschalten.

Übrigens ist die neue GMA HD im Bereich der aktuell verbauten 9400 GM.

Sicherlich ist die integrated GPU nicht für High-End Lösungen gedacht, aber da gerade apple ins Spiel zu bringen, die bisher bei der Grafik immer Lichtjahre hinter der WIN-Konkurrenz waren (weil es eben kaum Spiele am Mac gibt, und so der Bedarf kaum vorhanden ist), finde ich schon lustig.

Apple hat nie besonders viel Wert auf High-End Grafik gelegt, deshalb geht es in diesem Streit wohl um andere Dinge (Exklusivklausel, Rabatte etc.) oder wie man an den 27" iMac sieht, haben sie vielleicht Probleme mit der Qualitätssicherung (wird ja auch alles in China hergestellt).
Im Moment liest man sowieso nur davon, wen apple gerade wieder verklagt oder beleidigt.

Hier übrigens ein paar Beispiele und Preisvergleiche für funktionierende Kombis:

Acer Aspire 7740G: Core i5 + ATI HD 5470 630 Euro
HP Pavillion dv3-2390eg: Core i5 + ATI HD 4550 855 Euro



Samsung R580: Core i5 + Nvidia GF 330M 830 Euro
Asus X64JV-JX066V Core i5 + Nvidia GT 325 M 630 Euro

HP Pavillion dv6-2130eg Core i5 + Nvidia GT 230 M 850 Euro
HP Pavillion dv6-2090eg Core i7 + Nvidia GT 230 M 929 Euro

Billigstes MBP 15" im Moment 1.599 Euro, also fast doppelt so viel für weniger Leistung.
 

Blazie

Gala
Registriert
24.06.09
Beiträge
52
Naja, so wie ich Mac@Home (den Dialog von oben) verstanden habe, geht es darum: Apple könnte durchaus auch eine i5/i7-CPU mit einer Nvidia-Karte verbauen. Das Problem ist dann aber, dass die Akkuleistung tierisch in den Keller gehen würde. Richtig?

Ist das das einzige Problem warum es zwar von anderen Herstellern die Kombination i5/i7-CPU und Nvidia-Garphikkarte gibt, aber von Apple nicht...?
 

mtbmtb

Idared
Registriert
20.02.08
Beiträge
26
Naja, so wie ich Mac@Home (den Dialog von oben) verstanden habe, geht es darum: Apple könnte durchaus auch eine i5/i7-CPU mit einer Nvidia-Karte verbauen. Das Problem ist dann aber, dass die Akkuleistung tierisch in den Keller gehen würde. Richtig?

Ist das das einzige Problem warum es zwar von anderen Herstellern die Kombination i5/i7-CPU und Nvidia-Garphikkarte gibt, aber von Apple nicht...?

Aktuell verbaut sind im 13" MBP 9400 GM und im 15" / 17" 9400 GM + 9600 GT.

Die integrated GPU Intel GMA HD von den neuen Core i5, i7 benötigt viel weniger Strom und ersetzt sozusagen die aktuelle 9400 GM.
Eine zusätzlich verbaute Nvidia GT 230 für mehr Grafikleistung benötigt auch nicht mehr Strom, als die aktuellen 9600er Karten.

Im Normalbetrieb hält der Akku noch länger als in den aktuellen MBPs, und im "High-End-Betrieb" bleibt die Akkulaufzeit gleich.

Also wo soll da das Problem sein?
 

philleb

Wohlschmecker aus Vierlanden
Registriert
02.12.08
Beiträge
237
Nein es sollten durchaus nicht alle Alternativen hier auftauchen, aber vielleicht doch zwei Beispiele ;) Ist aber ja eben auch ein gutes Thema für die Kommentare, da bin ich schon deiner Meinung!

"Deinem" alten MacBook geht es prima. Das wird gut gepflegt und tut voll und ganz seinen Dienst. Es soll nur langsam ein großer Bruder her, daher auch mein reges Interesse an den Diskussionen zu den neuen MBPs.



Im Code von OS 10.6 ist meines Erachtens zwar die Nutzung von allen x86 Architekturen möglich, aber ich denke ganz so einfach wird es dann doch nicht. Allein schon deshalb, weil AMD und Intel teils sehr unterschiedliche Befehlssatzerweiterungen nutzen .. In der OSX86-Szene ist daher auch immer eine Anpassung des Codes für AMD-Systeme nötig.


Hendrik
Wenn Leute aus der OSx86 Szene es schaffen das System auf nem AMD zum Laufen zu bringen sollte es für eine Firma, die den ganzen SourceCode besitzt, einen AMD auf OSx anzupassen kaum ein Problem darzustellen. Auch wenn ich mich bis jetzt aus weiß nicht welchen Gründen immer für Intel Produkte entschieden habe(ausser iPod Touch und PSP) hehe :)
 

Blazie

Gala
Registriert
24.06.09
Beiträge
52
Aktuell verbaut sind im 13" MBP 9400 GM und im 15" / 17" 9400 GM + 9600 GT.

Die integrated GPU Intel GMA HD von den neuen Core i5, i7 benötigt viel weniger Strom und ersetzt sozusagen die aktuelle 9400 GM.
Eine zusätzlich verbaute Nvidia GT 230 für mehr Grafikleistung benötigt auch nicht mehr Strom, als die aktuellen 9600er Karten.

Im Normalbetrieb hält der Akku noch länger als in den aktuellen MBPs, und im "High-End-Betrieb" bleibt die Akkulaufzeit gleich.

Also wo soll da das Problem sein?

Ich bin auf Deiner seite :) Ich verstehe das Problem ja auch nicht richtig...

Meine Frage an die Community deshalb: Warum können Dell/Sony/HP ein neues Laptop mit i5/i7-CPU und Nvidia-Karte bauen, Apple aber nicht? Warum ist Intel auf Apple "böse", wenn die ein MBP mit i5/i7-CPU und Nvidia-Karte bauen wollen und warum ist Intel offensichtlich nicht auf Dell/Sony/HP "böse"? Versteh ich alles nicht...
 

mtbmtb

Idared
Registriert
20.02.08
Beiträge
26
Ich bin auf Deiner seite :) Ich verstehe das Problem ja auch nicht richtig...

Meine Frage an die Community deshalb: Warum können Dell/Sony/HP ein neues Laptop mit i5/i7-CPU und Nvidia-Karte bauen, Apple aber nicht? Warum ist Intel auf Apple "böse", wenn die ein MBP mit i5/i7-CPU und Nvidia-Karte bauen wollen und warum ist Intel offensichtlich nicht auf Dell/Sony/HP "böse"? Versteh ich alles nicht...

Genau das meine ich!

Deshalb muss es für mich einen anderen Grund geben, warum die neuen MBPs so lange auf sich warten lassen:

a) Probleme in der Fertigung (z.B. Displays)
b) Zu viele aktuelle MBPs noch auf Lager / in Bearbeitung
c) Gewinnmaximierung
d) Streiterein mit Intel wegen Rabatten, Exklusivität
e) Keine interne Konkurrenz zum iPad gewünscht
 

Mitglied 49260

Gast
Sorry, aber apple kann nicht etwas haben wollen, was es nicht gibt.
Arrandale ist eben CPU + GPU integriert, mit der Möglichkeit, eine externe Grafikkarte anzusteuern.
Und warum sollte apple das nicht haben wollen?
Gerade für Notebooks ist es ideal, eine stromsparende integrierte GPU zu haben (reicht für 90 % der Anwendungen), und wenn man es benötigt, kann man dann auf die externe GPU umschalten.

Übrigens ist die neue GMA HD im Bereich der aktuell verbauten 9400 GM.

Sicherlich ist die integrated GPU nicht für High-End Lösungen gedacht, aber da gerade apple ins Spiel zu bringen, die bisher bei der Grafik immer Lichtjahre hinter der WIN-Konkurrenz waren (weil es eben kaum Spiele am Mac gibt, und so der Bedarf kaum vorhanden ist), finde ich schon lustig.

Apple hat nie besonders viel Wert auf High-End Grafik gelegt, deshalb geht es in diesem Streit wohl um andere Dinge (Exklusivklausel, Rabatte etc.) oder wie man an den 27" iMac sieht, haben sie vielleicht Probleme mit der Qualitätssicherung (wird ja auch alles in China hergestellt).
Im Moment liest man sowieso nur davon, wen apple gerade wieder verklagt oder beleidigt.

Hier übrigens ein paar Beispiele und Preisvergleiche für funktionierende Kombis:

Acer Aspire 7740G: Core i5 + ATI HD 5470 630 Euro
HP Pavillion dv3-2390eg: Core i5 + ATI HD 4550 855 Euro



Samsung R580: Core i5 + Nvidia GF 330M 830 Euro
Asus X64JV-JX066V Core i5 + Nvidia GT 325 M 630 Euro

HP Pavillion dv6-2130eg Core i5 + Nvidia GT 230 M 850 Euro
HP Pavillion dv6-2090eg Core i7 + Nvidia GT 230 M 929 Euro

Billigstes MBP 15" im Moment 1.599 Euro, also fast doppelt so viel für weniger Leistung.

Wo ist eigentlich das Problem? Ok, Nvidia darf keine Chipsätze mehr herstellen.
Nvidia hat reagiert und Optimus entwickelt. Das ist nämlich entgegen den Aussagen in diesem Thread dafür gedacht on-the-fly Grafikswitchen durchzuführen zwischen der GMA HD im i3/i5/i7 und einer dedizierten Nvidia. Ich wette Apple hat noch Probleme mit dem MBP 13", weil nur GMA HD wäre etwas schwach und dedizierte Karte wäre möglicherweise etwas zu groß.

Naja, so wie ich Mac@Home (den Dialog von oben) verstanden habe, geht es darum: Apple könnte durchaus auch eine i5/i7-CPU mit einer Nvidia-Karte verbauen. Das Problem ist dann aber, dass die Akkuleistung tierisch in den Keller gehen würde. Richtig?

Ist das das einzige Problem warum es zwar von anderen Herstellern die Kombination i5/i7-CPU und Nvidia-Garphikkarte gibt, aber von Apple nicht...?

Damit das hier keiner falsch versteht: Mir geht es hier nicht um die Verteidigung von Apple, Intel oder Nvidia.
Die machen auf anderen Gebieten nichts anderes. Mir geht es nur darum, dass Hersteller eine möglichst grosse Auswahl haben, um individuelle Lösungen anbieten zu können. Das kommt dem Kunden zu Gute.
Nicht der Stärkere, sondern der Bessere soll gewinnen. Wie sonst soll Fortschritt funktionieren?

1.
Eine GPU zeichnet sich nicht nur durch ihre Leistung, sondern auch durch ihre Treiber aus. Was bringt mir ein Superchip, wenn die Treiber Müll sind? So ist es egal, ob der neue GMA5700MHD technisch gesehen "aufgeschlossen" hat. Aus der Erfahrung weiss man, dass eben die Treiber wieder daneben sein werden und regelmässige Updates wie bei ATI und Nvidia nur Wunschdenken ist.
Eine Sache hast du in deiner Überlegung jedoch vergessen: Nvidia darf ja keine Chipsätze mehr herstellen. So hinkt der Vergleich der neuen Intel Grafikeinheit mit dem 9400M gewaltig. Der neue Intel Chip hätte sich mit den G2xxM Modellen messen müssen, denn eine kleine Version davon hätte in einem ihrer neuen Chipsätze Platz genommen. Das Ergebnis wäre das Gleiche gewesen: Intel ganz hinten. Hat Intel also aufgeschlossen? Nein. Aufgeschlossen zu einem fast 1.5 Jahre altem Produkt von Nvidia. Soviel zur GPU-Entwicklung bei Intel.
Aber das ist überhaupt nicht das Problem. Für Office und sonstiges reicht das aus. Der Unterschied ist aber nun, dass es keine Alternativen mehr gibt. Eine effiziente und leistungsstarke integrierte Grafikeinheit gibt es für heutige Verhältnisse de facto nicht mehr...zumindest nicht für die mobilen ix-Plattformen.
Findet irgendjemand etwas gutes daran, dass in diesem Bereich ein gewaltiger Rückschritt gemacht wird? Ich nicht.

2.
Optimus ist so gesehen die angepasste Form von Nvidia für das Dilemma. Sicherlich wurden auch einige Dinge weiter verbessert. Das ändert aber nichts daran, dass die integrierte Grafikeinheit wohl dazu tendieren wird dem Treiber Features anzubieten, die es leistungstechnisch jedoch nicht ordentlich erfüllen kann. Beispiel: 1080p Video. Die integrierte Grafik zeigt an: Ich kann es dekodieren, ich brauche die dedizierte GPU nicht. Optimus bleibt bei der integrierten Grafik und was passiert: Hohe CPU-Last. Und jetzt?
Genau das passiert nämlich z.B., wenn man ein Notebook mit GMA4500MHD, dedizierter Nvidia-Grafikkarte, Optimus und einem WMV 1080p Video kombiniert.
Flashbeschleunigung: Bisher musste die !dedizierte! Nvidia-Karte das übernehmen. Die interne Grafikkarte kann also keine WMV 1080p Videos und kein Flash beschleunigen...wie lange hat Intel da eigentlich geschlafen?
Spiele: Muss ich dazu noch etwas sagen oder reichen einem da die Aussagen von gebeutelten GMA Nutzern?

Aber nun gut, der neue GMA5700MHD soll das ja nun alles auch können. Aber die Frage bleibt: Wenn die das jetzt erst kann, 1.5 Jahre nach der Nvidia-Lösung, was hätte dann die neue Nvidia alles gekonnt?
Die Treiberproblematik wird bleiben, so viel ist sicher. Und ganz wichtig: GPGPU, OpenCL und Intel-GPU...Nvidia hat CUDA, was hat Intel? Natürlich nichts, wären ja auch schön blöd.

3.
Nicht direkt die Akkuleistung geht "tierisch" in den Keller, sondern die Leistungseffizienz der integrierten Grafikeinheit.
Das führt wiederum dazu, dass die dedizierte Grafikkarte öfter herhalten muss und das führt dann wieder zu einer niedrigeren Akkuleistung.

Einfach ausgedrückt:
Du musst 120 km/h fahren und hast zwei Autos. Beide verbrauchen fünf Liter auf 100km.
Während das erste Auto (Nvidia) die 120 km/h mit fünf Litern auf 100km schafft, muss das zweite Auto (Intel) noch einen Turbo (dedizierte Grafik) einschalten, um auf die 120 km/h zu kommen. Dadurch verbraucht es dann aber mal eben fünf Liter mehr.
Dein Problem: das Auto muss auf dem ersten Streckenabschnitt (Draussen) so lange wie möglich ohne Tankstelle auskommen. Auf dem zweiten Abschnitt (zu Hause) ist das jedoch egal, weil dort überall Tankstellen stehen.
 

Hauwau

Cripps Pink
Registriert
12.07.09
Beiträge
155
2.
Optimus ist so gesehen die angepasste Form von Nvidia für das Dilemma. Sicherlich wurden auch einige Dinge weiter verbessert. Das ändert aber nichts daran, dass die integrierte Grafikeinheit wohl dazu tendieren wird dem Treiber Features anzubieten, die es leistungstechnisch jedoch nicht ordentlich erfüllen kann. Beispiel: 1080p Video. Die integrierte Grafik zeigt an: Ich kann es dekodieren, ich brauche die dedizierte GPU nicht. Optimus bleibt bei der integrierten Grafik und was passiert: Hohe CPU-Last. Und jetzt?
Genau das passiert nämlich z.B., wenn man ein Notebook mit GMA4500MHD, dedizierter Nvidia-Grafikkarte, Optimus und einem WMV 1080p Video kombiniert.
Flashbeschleunigung: Bisher musste die !dedizierte! Nvidia-Karte das übernehmen. Die interne Grafikkarte kann also keine WMV 1080p Videos und kein Flash beschleunigen...wie lange hat Intel da eigentlich geschlafen?
Spiele: Muss ich dazu noch etwas sagen oder reichen einem da die Aussagen von gebeutelten GMA Nutzern?

Aber nun gut, der neue GMA5700MHD soll das ja nun alles auch können. Aber die Frage bleibt: Wenn die das jetzt erst kann, 1.5 Jahre nach der Nvidia-Lösung, was hätte dann die neue Nvidia alles gekonnt?
Die Treiberproblematik wird bleiben, so viel ist sicher. Und ganz wichtig: GPGPU, OpenCL und Intel-GPU...Nvidia hat CUDA, was hat Intel? Natürlich nichts, wären ja auch schön blöd.

Der Witz an diesen Hybridlösungen ist, dass man die schwache Karte unterwegs einsetzt, wo man in ich behaupte mal 98% der Fälle keine großen Berechnungen über die Grafikkarte laufen lässt (zumal in diesem Gebiet m.M.n. eh noch viel zu wenig läuft)
Auch so Sachen wie Spiele...wer spielt denn bitte wenn er wirklich die Akkulaufzeit braucht sein Mordsspiel? So was wird doch i.d.R. zuhause am Netzteil gemacht...

Das Intels Treiber absoluter Schrott sind ist wahr. Das ist leider traurig, dass die zum Teil gar nicht mal so schlechte Hardware (siehe PowerVR Kern im GMA500 in Netbooks) nicht genutzt wird, weil irgendwelche Aushilfskräfte den Treiber programmiert haben...

Von daher ist Optimus unter den gegebenen Vorgaben durch Intel doch recht optimal. Und so Ideen wie die Übernahme von AMD oder den Zurückgang auf PowerPC Prozessoren find ich doch sehr gewagt. Intel ist momentan doch das Optimum, wenn es um beste Leistung zu bestem Stromverbrauch geht. AMD hinkt da momentan leider sehr. Und einen PowerPC im Notebook? mit eingebauter sterilisation? ;)
 

mtbmtb

Idared
Registriert
20.02.08
Beiträge
26
Nvidia darf ja keine Chipsätze mehr herstellen.
Woher hast du diesen Blödsinn?

Warum haben dann HP, Dell, Acer und all die anderen PC-Hersteller Intels Core iX-Chipsätze mit NVIDIA GT 230 / 330 Karten verbaut.

Die ganze Diskussion dreht sich doch nur noch darum, dass einige sagen, NVIDIA darf für Intel keine Chips mehr herstellen (weswegen sich die neuen MBPs verzögern) was offensichtlich nicht stimmen kann, wenn jeder andere Hersteller sie im Programm hat.

Und der Vergleich mit den Autos :eek:
Entweder beide Autos verbrauchen gleichviel (5 Liter), oder eines verbraucht 5 l und das andere 10 l, also ungleich viel.
Verbrauchstests werden nämlich anhand von Fahrzyklen berechnet (wo das Auto eben mit 120 km/h in Bewegung ist).
Aber so wie du das schreibst, ist das ein Widerspruch in sich und ergibt überhaupt keinen Sinn.
 
Zuletzt bearbeitet:

Mac-Joe

Golden Delicious
Registriert
03.03.10
Beiträge
7
Würde mich nicht wundern wenn Apple da schon eine Design-Studie hat... ATI in Mac... warum nicht gleich das gesamt paket testen... ATI-AMD.
 

Mitglied 49260

Gast
Der Witz an diesen Hybridlösungen ist, dass man die schwache Karte unterwegs einsetzt, wo man in ich behaupte mal 98% der Fälle keine großen Berechnungen über die Grafikkarte laufen lässt (zumal in diesem Gebiet m.M.n. eh noch viel zu wenig läuft)
Auch so Sachen wie Spiele...wer spielt denn bitte wenn er wirklich die Akkulaufzeit braucht sein Mordsspiel? So was wird doch i.d.R. zuhause am Netzteil gemacht...

Du bist also der Meinung, dass die Steigerung der Effizienz von leistungsstarken Notebookkomponenten egal sein kann, weil man zu Hause sowieso eine Steckdose hat. Das heisst, wenn eine IGP von morgen die Leistung von heute haben könnte und dabei so viel Strom zieht wie aktuelle Lösungen, dann ist das unwichtig. Das ist die Aussage deiner Begründung. ;)


Das Intels Treiber absoluter Schrott sind ist wahr. Das ist leider traurig, dass die zum Teil gar nicht mal so schlechte Hardware (siehe PowerVR Kern im GMA500 in Netbooks) nicht genutzt wird, weil irgendwelche Aushilfskräfte den Treiber programmiert haben...
Von daher ist Optimus unter den gegebenen Vorgaben durch Intel doch recht optimal.

Wenn du es doch schon selber sagst: Wie kann etwas "recht optimal" sein, wenn anscheinend fachfremde "Aushilfskräfte" daran arbeiten? Vielleicht können die auch mehr, aber Intel hat kein Interesse. Muss ich mir darüber jetzt ernsthaft Gedanken machen? Ich denke nicht. Für mich zählt was hinten raus kommt und das war bisher nur heisse Luft.
Vom technischen Stand her wäre optimal: Ein Nvidia G2xxM-Chipsatz mit einem ix-Prozessor ohne GPU oder komplett deaktiviert. Zumindest die Option würde schon reichen. Aber selbst die Option gibt es ja nicht einmal, das ist doch das Problem.


Woher hast du diesen Blödsinn?

Weisst du was ich nicht mag? Leute, die keine Ahnung haben und sich dabei noch im Ton vergreifen?
Dann zähl mir doch mal ein paar Nvidia-Chipsätze für die ix-Plattform auf. :oops:

Warum haben dann HP, Dell, Acer und all die anderen PC-Hersteller Intels Core iX-Chipsätze mit NVIDIA GT 230 / 330 Karten verbaut.

Weil das auch geht und das bisher keiner bestritten hat? Kann es sein, dass du den Unterschied zwischen IGP und dedizierter GPU nicht kennst?

Die ganze Diskussion dreht sich doch nur noch darum, dass einige sagen, NVIDIA darf für Intel keine Chips mehr herstellen (weswegen sich die neuen MBPs verzögern) was offensichtlich nicht stimmen kann, wenn jeder andere Hersteller sie im Programm hat.

Wenn du dir die Beiträge vorher mal durchgelesen hättest, dann wären dir auch die Links zu den Nachrichten bezüglich der Intel/Nvidia Auseinandersetzung aufgefallen. Aber da du anscheinend die Extremform des Lesenfaulen darstellst, wundert mich gerade nichts mehr.

Guter Tipp: Lesen, denken, schreiben. Die beiden ersten Stufen kannst du noch vertauschen, wichtig ist nur das du schreibst, nachdem du die anderen beiden Punkte erfolgreich absolviert hast.

Und der Vergleich mit den Autos :eek:
Entweder beide Autos verbrauchen gleichviel (5 Liter), oder eines verbraucht 5 l und das andere 10 l, also ungleich viel.
Verbrauchstests werden nämlich anhand von Fahrzyklen berechnet (wo das Auto eben mit 120 km/h in Bewegung ist).
Aber so wie du das schreibst, ist das ein Widerspruch in sich und ergibt überhaupt keinen Sinn.

Um Himmels Willen...das war ein nur ein Beispiel und kein wissenschaftlicher Vergleich. Man nimmt Dinge aus dem alltäglichen Leben, um eventuelle Komplexitäten greifbarer zu machen. Dabei geht es dann nicht um das korrekte Beispiel, sondern um das Verständnis, welches bei beiden Erklärungswegen am Ende identisch sein sollte.
Wie alt bist du, dass man dir so etwas noch erklären muss? :p
 

MacbookPro@Olli

London Pepping
Registriert
19.05.09
Beiträge
2.060
Dann habt ihr die Beiträge eben doch nicht richtig gelesen. o_O

Nochmal kurz:
Es geht nicht darum, dass Apple keine Nvidia oder ATI GPUs verbauen kann. Es geht darum, dass Apple und die anderen Hersteller keine anderen Chipsätze ausser denen von Intel verbauen können.
Das führt wiederum dazu, dass bestimmte Technologien, die auf eine Chipsatz-GPU Kombination vom selben Hersteller angewiesen sind, nicht mehr machbar sind.
http://www.nvidia.de/page/technologies.html

Beim neuen Arrandale Prozessor von Intel sitzen CPU und GPU zusammen unter einer Haube.
Damit ist der Kauf eines ix Prozessors ohne GPU und ohne Intel-Chipsatz nicht mehr möglich. Man wird also dazu gezwungen Intels schrottige Grafikeinheit einzukaufen, ob man nun will oder nicht.
Wenn AMD/ATI das mit Fusion macht ist das egal. Denn AMD/ATI kann im Gegensatz zu Intel auch anständige Grafikeinheiten mit einer brauchbaren 3D-Einheit herstellen.
Bei Intel ist die 3D-Einheit inkl. Treiber der letzte Rotz. Das wissen die auch und deshalb werden die Leute ab sofort eben gezwungen dies zu kaufen, weil sie es vorher nicht wollten...ausserhalb von Office verständlich.

Bei Apple sieht es wohl so aus:
Die wollten eine Arrandale CPU ohne GPU-Einheit. Denn: Nvidia und Apple waren gerade dabei die Funktion Hybrid SLi auf on-the-fly umzustellen und die Funktion GeForce Boost unter OSX zu aktivieren.
Für den Kunden wäre das ein toller Schritt nach vorne gewesen und Apple hätte ein paar neue Verkaufsargumente gehabt.
Daraufhin hat Intel gesagt: "Nein. Wir haben Nvidia die Lizenz entzogen für unsere Nehalem-Plattform Chipsätze herzustellen, womit wir nun die Einzigen sind, die das noch dürfen...hahahahahaaaaaa...ja." Siehe http://www.heise.de/newsticker/meldung/Intel-verklagt-Nvidia-wegen-Chipsatz-Lizenzen-198069.html

Dazu ein kleiner Dialog zum besseren Verständnis. So oder so "ähnlich" :-D könnte es sich zugetragen haben:

Intel: "Wenn du also eine CPU von uns haben willst, dann musst du auch unsere Grafikeinheit nutzen!"

Apple in Gedanken: "Warum zur Hölle soll ich so einen Müll freiwillig nutzen? Die anderen Hersteller haben Lösungen, die zehnmal besser sind. Dann schalte ich halt die GPU in diesem Drecksvieh aus."

Apple: "Kann ich die interne GPU abschalten?"

Intel: "Kannste machen. Aber deine dedizierte GPU kannst du nicht abschalten."

Apple: "Das heisst, selbst wenn meine dedizierte Grafikkarte nicht genutzt wird und ihre Stromsparmechanismen aktiviert: Komplett abgeschaltet wird sie nicht."

Intel: "Riiiiisccchhhhtiiiiischhhh!"

Apple: "Und das heisst wiederum, dass das Notebook mehr Strom vom Akku frisst und damit meine Laufzeit geringer ausfällt."

Intel: "Absolut korrekt."

Apple: "Und was wenn meine User 3D-Applikationen nutzen möchten, die nicht besonders leistungshungrig sind?"

Intel: "Kannste doch machen. Unsere Grafikeinheit kann ja auch 3De...und...na..Dingsda...und fliegende Bäume...und son Kram halt, du weisst schon."

Apple: "Und was ist mit den Treibern, der Leistung, den Stromsparmechanismen, den leistungssteigernden Technologien on-Demand?"

Intel: "Öhm...egal? Was interessiert uns das?"

Apple: "Euch vielleicht nicht, aber den User. Die könnten immerhin deutlich besseres von der Konkurrenz bekommen. "

Intel: "Ist das ein Witz? Wie lange seid ihr jetzt eigentlich schon dabei? Seit wann interessiert man sich für den Nutzer? Hier geht es nur ums Geld! Hauptsache unsere Taschen sind voll. Der Rest ist uns scheissegal."

Apple: "Hmm...okay, das sehen wir auch nicht ganz anders, aber ein bisschen wollen wir den Leuten schon was bieten..."

Intel: "Wie gesagt: Interessiert uns nicht. Ihr kauft die Scheisse jetzt oder ihr kriegt garnichts. Wir haben AMD abgesägt, nachdem sie zu gut wurden und das gleiche machen wir jetzt mit Nvidia. Sie sind zwar besser als wir, aber dafür sind wir stärker. Aber keine Angst: Wir halten die Unternehmen natürlich weiter am Leben, damit wir keinen Ärger mit den Behörden bezüglich Monopol und son Quatsch bekommen. Aber eben nur auf Sparflamme und mit dem Daumen drauf. So bleibt der Markt bei uns, wir verdienen Geld und...jo...wir verdienen Geld."

Apple: "Willst du mich heiraten?"

Intel: "Geht nicht, bin schon mit dem Teufel liiert."

Apple: "ICH AUCH!!! Aber wir können ja fremdgehen?"

Intel: "Stimmt eigentlich...komm her...grrrr"

Klar funzen dann die Energiespartechnologien nicht. Da müssen die Grakahersteller halt ruck zuck zusehn, dass sie welche basteln, die mit den ix kompatibel sind. Die Laufzeiten der Notebooks mit ix-Prozzi und Fremdgrafik dürften ja dann extremst niedrig aussehen...wäre mir aber neu, dass die Laufzeiten da signifikant in den Keller gegangen wären. Die integrierte GRafik seh ich nur so als Klotz am Bein. Dass die unbrauchbar ist steht außer Frage, welche Marktstrategien dahinter stehn is mir auch klar.
Nur sehe ich nur, dass andere Hersteller fremde Grafiken zusammen mit ix problemlos in Notebooks verbauen. Und die müssen ja auch alle auf Intel-Chipsätzen laufen. Sind denn keine fremden Chipsätze in Sicht?
 

Hauwau

Cripps Pink
Registriert
12.07.09
Beiträge
155
@Mac@Home

Das ist ganz einfach ohne irgendwelche verdrehten Begriffe: nVidia darf keine Nehalem Chipsätze bauen. Das ist Fakt, daran kann man momentan auch nichts ändern (und nein AMD aufkaufen und Intel Konkurrenz machen ist KEINE Option für Apple im Moment). Wie also das Problem lösen? nVidia hat dafür Optimus entwickelt und ich sehe aus meiner Sichtweise keinen großen Nachteil. Wer hat vorher unterwegs megagrafiklastige Dinge getan? Dann wäre die Akkulaufzeit ziemlich runter, da diese meistens mit hoher CPU-Last einhergehen. Also ob ich dann für einfaches Pixelherumschubsen eine grafiklösung hab, mit der ich low end spiele spielen könnte oder eine grafiklösung nutze, die für textverarbeiterung reicht ist doch wurst (und käse), da ich eh im mobilbetrieb nicht das Spielepotential nutze.

Sicherlich wäre es schicker, wenn eine nVidialösung an board wäre, aber das ist nunmal außerhalb des möglichen. Und ich persönlich habe mit der Intellösung nicht so die Probleme, sofern sie für 08/15 Arbeiten reicht und mir für grafiklastigere dinge eine dedizierte Lösung geboten wird.

Und intel hat bisher auch einigermaßen Leistung für 08/15 Arbeiten gebracht, trotz schlechten treiber, daher wird die jetzige lösung wahrscheinlich nicht schlechter laufen. Jedoch könnte noch mehr aus der vorhandenen Hardware rausgeholt werden, was bei den "größeren" GMAs nicht so auffällt, aber bei den kleineren GMA900 (kein Aero Treiber)/GMA500(keine PowerVR Kern unterstützung) besonders auffällt.