• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Wir haben den Frühjahrsputz beendet, Ihr auch? Welches Foto zu dem Thema hat Euch dann am Besten gefallen? Hier geht es lang zur Abstimmung --> Klick

Neue Retina-iMacs: Apple führt insgeheim 10-Bit-Farbwiedergabe ein

Greenie77

Gelbe Schleswiger Reinette
Registriert
03.11.11
Beiträge
1.762
Dazu vor einigen Jahren:

"10-bit video displays: Photoshop users and other graphics professionals have wanted proper support for 10-bits-per-channel video displays on Macs. (This isn’t about the file format, but the data path to the video monitor. Most displays support 8 bits per channel of color, but some high-end monitors support 10 bits per channel for smoother gradations and better color accuracy.) To support 10-bit video requires an unbroken chain of components: The monitor, the graphics card, the cable, the application, and the operating system and its graphics driver software. If any part of the chain doesn’t support 10-bit video, it won’t work. And it might not work on the Mac any time soon, due to Apple’s continuing lack of 10-bit video APIs in OS X. The displays are ready, the graphics cards are ready, compatible DisplayPort cables are ready, Photoshop is ready…OS X remains the one broken link in the chain and there is no sign that this has changed in Mavericks."

Nun haben wir El Captain und es funktioniert... Was ist nun mit den älteren Geräten? Die können das nämlich auch ALLE problemlos auch wenn hier die ganze Zeit anderer Blödsinn in Applehöriger Manier gepostet wird. Es stimmt nicht! Selbst der alte 2011 iMac kann 10bit - unter Windows! - die Hardware KANN schon lange. Auch das Thunderbolt Display hat das gleiche LG Panel und den Controller für 10bit. Dass immer nur 16,7 Mio Farben angegeben wird, bezieht Apple auf die Verwendung am Mac.

Also die Meldung ist eigentlich so wie sie ausgegeben wurde Schwachsinn. Denn es liegt nicht an der Hardware! Seit Jahren nicht!
Demnach sind nur die richtigen Apis endlich mal vorhanden. Wurden sie nun nur für die Retinas geschrieben? Und Apple feiert das?? Wenn ja wäre das mal wieder typischer Apple Userbetrug hoch zehn!

Warum wurde das ggf gemacht? Denken wir mal nach, weniger Bit erfordert weniger Rechenleistung. So wird die GPU minimal schneller im benchmark. Nun gibt's metal als API und Apple muss sich nicht mehr hinter direct x verstecken. Könnte das ggf....
 

MACaerer

Charlamowsky
Registriert
23.05.11
Beiträge
12.989
Ob nun ein Display 10Bit/Farbkanal kann oder nicht, ich meine dass das menschliche Auge da gar nicht so recht mitspielt. Oder wer will ernsthaft behaupten, dass er bei 16,7Mio Farbstufen noch diskrete Abstufungen erkennen kann. Wichtig erscheint mir in dem Zusammenhang, dass man beim Kauf der neuen Geräte die feinere Abstufung durch die Wahl eines größeren Grafikspeichers berücksichtigt.

MACaerer
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
dass man beim Kauf der neuen Geräte die feinere Abstufung durch die Wahl eines größeren Grafikspeichers berücksichtigt.
Mehr GraKa Speicher wird dafür nicht benötigt.
Jedes Pixel belegt weiterhin 32 Bit im Framebuffer.
(Vorher waren 8 davon ungenutzt, jetzt nur noch 2)
 

soramac

deaktivierter Benutzer
Registriert
08.08.12
Beiträge
2.367
Erst wurde eine grosse Welle gemacht, weil OS X kein 10bit unterstützt, weil es angeblich Geräte für professionelles Arbeiten gedacht sind und jede Mac News Seite hat es aufgenommen, aber jetzt wenn es unterstützt wird, juckt es gar keinen mehr und keiner versteht, wo der Unterschied sowieso ist.. Menschen..
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Schwanzlängenvergleiche machen eben keinen Spass mehr, sobald man erst mal gemeinsam in der Sauna sitzt...
 

goformac

Jamba
Registriert
21.01.13
Beiträge
57
Tja, entweder bist du Farbenblind oder dein Monitor ist nicht kalibriert!
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.059
Ob nun ein Display 10Bit/Farbkanal kann oder nicht, ich meine dass das menschliche Auge da gar nicht so recht mitspielt.
Doch das tut es. Gerade bei sehr feinen Farbschattierungen ist das menschliche Auge noch in der Lage einen Unterschied zu erkennen. Das korrekte Benennen des Farbtons wird zwar zu einem Problem, aber es geht um die Fähigkeit zu unterscheiden.
 

MACaerer

Charlamowsky
Registriert
23.05.11
Beiträge
12.989
Ist das so? Na gut, dann schränke ich meine Aussage ein auf MEINE Augen ein. Ich fühle mich jedenfalls nicht dazu in der Lage bei einem hochauflösenden Bild mit 16,7Mio Farbabstufungen die Abstufungen als solche zu erkennen sondern sehe immer einen glatten Farbverlauf ohne Stufen.

MACaerer
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Gerade bei sehr feinen Farbschattierungen ist das menschliche Auge noch in der Lage einen Unterschied zu erkennen.
Gerade bei sehr feinen Farbtonunterschieden ist es das *nicht*.
Auf Luminanzunterschiede dagegen reagiert das Auge tatsächlich recht empfindlich, aber nur in einem relativ kleinen Teilbereich des Grauspektrums, der (arithmetisch betrachtet) etwa ein Drittel der Gesamtskala ausmacht.

Das ist der Grund warum ein 24-Bit Bild, kodiert in 12-6-6 CIELab, qualitativ ein 30-bittiges RGB-Bild in anachronistischem 10/10/10 um Welten übertreffen würde. Trotz *geringerer* nominaler Datenmenge.
Aber sein Display mit intelligenter gewählten Daten anzusteuern statt einfach mit "mehr, MEHR, MEEEEEHR" davon... ...so viel *echte* Innovation kann man doch von den Vermarktern von sog. "High End" Produkten wirklich nicht erwarten, oder?