• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

Feature Professionelle Bildbearbeitung: Apple unterstützt noch immer keine 10-Bit-Farbwiedergabe

thecasio

deaktivierter Benutzer
Registriert
20.08.11
Beiträge
108
Einerseits gehört dies in die momentane Entwicklung von Apple, das Profi-Segment ganz fallen zu lassen. Macs waren unter anderem aufgrund hoher Farbtreue sowohl durch Software (ColorSync) als auch durch Hardware (praktisch immer gute Displays) lange Vorreiter unter den Mainstream-Computeranbietern und deshalb bei Graphikern hoch im Kurs. Nun offenbar nicht mehr.
Was ich nur mal so in den Raum stellen will: Warum wird den eigentlich das "Professional"-Segement immer mit Bild- und Videobearbeitung gleichgesetzt? Als Informatiker würde ich mich durch aus als "Profi" bezeichnen und der Nutzungsgrund für Apple ist schlicht und ergreifend das sie ein stabiles OS haben welches auch noch POSIX einhält.
Es gibt noch andere Blickwinkel!
 
  • Like
Reaktionen: Guy.brush

Scotch

Bittenfelder Apfel
Registriert
02.12.08
Beiträge
8.059
Denn 10 statt 8 Bit erhöhen nur die darstellbare Farbanzahl, ein Einfluss auf die Dynamik ergibt sich dadurch *nicht*.

Denk' nochmal darüber nach. Stichwörter wären der verfügbare headroom und oversampling/aliasing - das Histogramm eines S/W-Bildes kann beim Verständnis hilfreich sein.
 

Scotch

Bittenfelder Apfel
Registriert
02.12.08
Beiträge
8.059
Könnte mir auch gut vorstellen, dass der A9 das vielleicht nur theoretisch kann aber es nicht genutzt wird, weil Apple das Thema offensichtlich egal ist...

Apple unterstützt das seit dem A7. Warum das Apple bei iOS auch nicht egal ist, hab' ich ja an anderer Stelle schon mal vermutet. VT kann das übrigens schon deutlich länger - nur halt auf älternen iDevices ohne HW-Beschleunigung.

Weil ab iOS 8 es schon unterstützt ''VideoToolBox''.

Seit IOS 8 ist die API nicht mehr private. iOS kann das schon deutlich länger.

Apple Geräte waren die ersten, die gute Retina Displays eingebaut haben. Ich denke gerade hier bei Grafikern ist das viel wichtiger, als 10 Bit Farbräume.

Was hat denn das eine mit dem anderen zu tun? Schärfer ist besser als farbecht?

Als Informatiker würde ich mich durch aus als "Profi" bezeichnen und der Nutzungsgrund für Apple ist schlicht und ergreifend das sie ein stabiles OS haben welches auch noch POSIX einhält.

Das hat jetzt genau was mit 10bit Farbkanälen zu tun? Und wo wir gerade dabei sind: POSIX-Kompatibilität spielt wo eine Rolle? Die Referenzliste der IEEE1003.2 führt ja nun so ziemlich jedes OS, von dem man noch nie im Leben gehört hat auf.
 

Paganethos

deaktivierter Benutzer
Registriert
18.11.07
Beiträge
3.702
Wer sich über "Start" zum beenden aufregt oder einem Startscreen statt Startmenü, der dokumentiert im Endeffekt nur, dass er sonst nichts zu meckern hat als die Beschriftung eines Buttons oder die Optik einer Funktion, die 5-10 Sekunden am Tag benutzt wird.
Nicht wenige verkünden direkt, dass man deswegen mit Windows 8 nicht arbeiten könne, da die 1-2 Sekunden zum starten seiner Produktivanwendung jetzt anders aussehen. Wie begrenzt diese Ansicht ist, sollte den allermeisten auffallen
Das mit dem "Start" war ja nur eines von unzähligen Beispielen. Das gehört aber nicht hierher, nicht noch eine OS X - Windows Diskussion. Klar kann man mit Windows arbeiten, OS X macht (mir) aber viel mehr Spass. Alleine schon das Rendering der Schrift unter Windows.. ein Graus, aber natürlich kann man trotzdem lesen was auf dem Bildschirm steht. Oder das kinderleichte Erstellen von PDFs, Systemweit. Ich kann an Win wahrscheinlich einen 10 Jahre alten Drucker anschliessen und er läuft, aber für PDFs gibt es nichts ausserhalb von Office. Eigentlich total unverständlich.


Wirkliche Faktoren, wie Stabilität, Geschwindigkeit, Sicherheit oder Kompatibilität, sind da dann schon lange in den Hintergrund gerutscht. Da gibt es dann halt auch wenig zu diskutieren.
Beide OSe nehmen sich da nicht wirklich viel. Ausser dass es für OS X kaum Malware gibt. Yosemite rennt auf meinem 4 Jahre alten MBP wie im Büro Windows 8.1 auf einem neuen Desktoprechner. Ob das System 2 Sekunden länger oder kürzer benötigt zum Booten ist doch wirklich einfach nur egal. Systembedingte Wartezeiten gibt es bei mir einfach keine mehr, weder unter Win noch OS X.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: ImpCaligula

iMerkopf

Holsteiner Cox
Registriert
12.09.11
Beiträge
3.155
Nur soweit es Notebooks und grösseres betrifft.
In den kleineren Dimensionen für Phones und Tablets war Samsung schneller, und deren Panel sind auch in fast allen technischen Disziplinen überlegen.
Stimmt so nicht - zu iPhone 4-Zeiten war das Galaxy S auf dem Markt. Und das hatte 233 ppi; wäre also nach Apple-Maßstäben nicht als "retina" eingestuft worden.
Ob man den ultragrellen S-Bildschirm oder den zu blassen iPhone4-Bildschirm lieber hatte, war Geschmacksache; farbtreu waren beide kein Bisschen.
 
  • Like
Reaktionen: Tofffl

10tacle

Mecklenburger Orangenapfel
Registriert
10.06.11
Beiträge
2.977
Ich wollt's grad sagen. Das iPhone 4 war definitiv das erste mit so einer Pixeldichte. Und nebenbei bemerkt hatte selbst das S3 noch kein Retina-Niveau.
 

Ozelot

deaktivierter Benutzer
Registriert
02.09.09
Beiträge
5.744
Sorry aber das ist total unlogisch von dir, hinter den Startknopf von Windows verbirgt sich auch zum Beispiel die Systemsteuerung, alle Programme, Benutzerwechsel etc.

Ich sehe da nun wirklich nicht wirklich einen Unterschied.

Ich wünschte mir, über den Apfel in der Menüleiste oben links könnte man zum Finder gelangen.

Ich habe das Dock immer ausgeblendet, es fährt nur hoch wenn ich mit dem Zeiger dort hin fahre.
Wäre er über den Apfel in der Menüleiste aufzurufen, würde es schneller gehen.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Denk' nochmal darüber nach
Das empfehle ich dir.
Mehr Bits pro Kanal verändern in einer gegebenen Verfahrenskette weder den Schwarz- noch den Weisspunkt.
Das schwärzeste Schwarz deiner 10-Bit Grafik wird exakt das gleiche Schwarz bleiben, das du auch in einer 1-Bit S/W Grafik vorfindest.
Und für das hellste Weiss gilt das gleiche.
Und nur das Verhältnis beider Grenzwerte zueinander definiert den Dynamikumfang.

Die physikalische Grösse, die durch feinere Unterteilungen dazwischen tatsächlich verändert wird, ist nicht die Dynamik, sondern der Rauschabstand (aka "Signal/Noise Ratio").
 
  • Like
Reaktionen: Sawtooth

GunBound

Rote Sternrenette
Registriert
23.06.05
Beiträge
6.074
Als Informatiker würde ich mich durch aus als "Profi" bezeichnen und der Nutzungsgrund für Apple ist schlicht und ergreifend das sie ein stabiles OS haben welches auch noch POSIX einhält.
Schön und gut. Ich bin auch Informatiker/Softwareentwickler und schätze Mac OS X aufgrund derselben Gründe wie du. Aber dennoch kann man nicht verneinen, dass die Qualität nachlässt (Yosemite ist selbst nach dem dritten Update mit Fehlern übersät, die Mavericks und die Systeme zuvor noch nicht aufwiesen). Ganz abgesehen davon kann man deine Logik auch umdrehen: warum immer nur den Blickwinkel von Informatikern einnehmen? Jeder, der etwas im Rahmen seines Berufs tut, ist wortgemäss ein Profi, egal, ob dies Bildbearbeitung, Animation, Softwareentwicklung oder Journalismus enthält. Alle Bereiche zählen, und Apple hat nunmal in seinen Lösungen für das Berufswesen (ausserhalb von Lifestyle-Produkten à la iMovie) stark nachgelassen (Aperture fällt weg, Final Cut X ist schwach, kein Shake mehr, kein Xserve mehr, eine schlechte Entschuldigung für einen neuen Mac Pro, etc.).
 

MarcNRW

deaktivierter Benutzer
Registriert
17.09.14
Beiträge
4.000
Dafür das Apple vermeintlich soviel falsch macht, gehen - so wie ich das sehe - die Verkaufszahlen aber in allen Bereichen gut nach oben ;)

Ich denke das ist auch immer so ne Gradwanderung. Massentaugliche Produkte für "Normalos" zu machen und dabei noch auf absolute Professionalität/Bedürfnisse in Spartenbereichen zu achten.

Denn ganz ehrlich? Die 10Bit-Wiedergabe braucht kein "Normaluser"...

Microsoft hat es da von der Grundstruktur einfacher. Ein Betriebssystem für Hunderte/Tausende von möglichen Hardwarekonstellationen - allerdings mit den da Bekannten eklatanten Schwächen.
 

joey23

Hochzeitsapfel
Registriert
26.11.06
Beiträge
9.247
Apple Geräte waren die ersten, die gute Retina Displays eingebaut haben. Ich denke gerade hier bei Grafikern ist das viel wichtiger, als 10 Bit Farbräume.

So what?

Warum? Ist doch letztlich egal, wie groß meine Pixel sind. Retina führt nur dazu, dass ich das Bild bei 100%-Darstellung kleiner sehe, bzw eben einen größeren Ausschnitt 1:1 betrachten kann.
 

hosja

Mutterapfel
Registriert
23.03.07
Beiträge
5.257
Ich denke Apple wird auch auf 10Bit wechseln. Aber momentan setzten sie auf mehr Pixel. Und beide Parameter kämpfen um die Bandbreite auf dem Kabel, so das nur eine Kompromiss möglich ist.
 

tjp

Altgelds Küchenapfel
Registriert
07.07.04
Beiträge
4.059
So wie es aussieht entscheidet sich Apple für die höhere Auflösung um stellt die Bittiefe hinten an.
Das ist falsch alle Auflösungen, die von Apple angeboten werden sind an einem PC unter Windows oder Linux auch mit 30Bit Farbtiefe möglich, aber nur über DisplayPort.
 

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Ist doch letztlich egal, wie groß meine Pixel sind.
Das ist es ganz und gar nicht. Erst mit Pixeldichten ab etwa 200 dpi ist es möglich, Text und andere extrem kontrastreiche Details mit einer Kantenschärfe darzustellen, die störende Treppchen und Flimmereffekte zunehmend verschwinden lässt. Und zwar wirklich verschwinden, nicht nur durch künstlich hinzugerechnete Unschärfe (Anti-Aliasing) verschmieren.
Und je höher die Auflösung, umso "knackiger" und authentischer werden die Details im Bild. Bei den etwa 300 dpi der Retinas hat man das Darstellungsniveau von Tintenstrahldruckern auf gewöhnlichem Schreibpapier erreicht, da ist noch Luft nach oben.

Ist man erst mal soweit dass die Panelhersteller die 1000 dpi Schallmauer einreissen, dann wird kein Hahn mehr nach 10- oder 16-Bit Farbdarstellungen krähen. Die Zahl der Farbabstufungen wird dann nämlich ganz von alleine vergleichbar weit gestiegen sein, bei gleichzeitig extrem verbesserter Schärfe.
Dann ist man soweit, selbst mit 4-Bit Bildern schon das Niveau von Desktop-Laserdruckern auf hochwertigem, "gestrichenem" Karton zu toppen. Dann bewegt man sich schon in den Grenzbereichen des menschlichen Auges, und so unendlich viele resourcenfressende, manipulative Berechnungstricks werden endlich komplett überflüssig.
Die Zukunft der Displaytechnik heisst ganz eindeutig Hi-DPI, und nicht Hi-Color.
 
  • Like
Reaktionen: Schneekönig

Scotch

Bittenfelder Apfel
Registriert
02.12.08
Beiträge
8.059
Die physikalische Grösse, die durch feinere Unterteilungen dazwischen tatsächlich verändert wird, ist nicht die Dynamik, sondern der Rauschabstand (aka "Signal/Noise Ratio").

Hast Recht, ich meinte SNR, schrieb' aber Dynamik.

Dann ist man soweit, selbst mit 4-Bit Bildern schon das Niveau von Desktop-Laserdruckern auf hochwertigem, "gestrichenem" Karton zu toppen.

Versteh' ich nicht.

Die Zukunft der Displaytechnik heisst ganz eindeutig Hi-DPI, und nicht Hi-Color.

Ein Kernproblem dieser Diskussion ist, dass 10bit/Kanal immer gleichgesetzt wird mit "Anzahl Farben". Die ganzen anderen Anwendungen (oder Notwendigkeiten) die sich durch eine hoehere Aufloesung ergeben (Kompressionsverfahren, Moeglichkeiten im Bildprocessing, Moeglichkeiten GPUs besser auszunutzen usw.) bleiben dadurch aussen vor. Ich hab' das Beispiel MKV ja schon ein paar Mal gebracht: Das ist doch nun wirklich keine exotische, fuer "Normaluser" uninteressante Anwendung?

Und wie gesagt: Die Kernfrage bleibt doch, warum Apple so eine Standardtechnologie unter OS X anscheinend nicht nur nicht unterstuetzt, sondern auch aussperrt - zumal unter iOS 10bit selbstverstaendlich unetsrtuetzt werden, obwohl da nun wahrlich keiner den zusaetzlichen Farbraum fuer's Display oder AirPlaybraucht (aber eben fuer Kompressionsalgorithmen & Co.).

Wie im ersten Beitrag hier geschrieben: Ich finde es sagenhaft, wie man wieder darum herum diskutieren kann, warum man bei Apple was ueberhaupt nicht braucht, obwohl es der Rest der Welt ganz selbstverstaendlich benutzt. Warum kann man nicht einfach mal sagen - wie die ct' - "Apple, was soll das"? Was ist "besser" daran, 10bit nicht zu unterstuetzen?
 
Zuletzt bearbeitet:

Rastafari

deaktivierter Benutzer
Registriert
10.03.05
Beiträge
18.150
Versteh' ich nicht.
Ein einziger Bildpunkt, dargestellt in 8 Bit Tiefe --> 256 Schattierungen.

Eine Matrix aus 4x4 Bildpunkten, klein genug um vom Auge nicht mehr als solche wahrnehmbar zu sein, dargestellt in jeweils nur 4 Bit --> ebenfalls 256 Schattierungen.
ABER bei gleichzeitig deutlich erhöhter Detailtreue, besonders bei hohem Kontrast (an Textkanten usw).

Was davon klingt besser?
(Die Datenmenge ist in beiden Fällen die gleiche. Der Nutzen daraus aber nicht.)

Ein Kernproblem dieser Diskussion ist, dass 10bit/Kanal immer gleichgesetzt wird mit "Anzahl Farben".
Ist es ja auch, es geht ja nicht um die Verarbeitung, sondern nur und ausschliesslich um die Bildschirmdarstellung in höherer Farbdichte.
Bilder mit 32 Bit pro Kanal zu *bearbeiten*, das ginge auch mit einer Klötzchengrafik a la Commodore C64.
Das kann zB Photoshop auch dann noch, wenn du ein Monochromdisplay aus den 70er Jahren anschliessen würdest. Dazu braucht es noch nicht mal überhaupt irgendein Display, das geht auch vollkommen blind.

Was ist "besser" daran, 10bit nicht zu unterstuetzen?
Weniger zukünftige Probleme mit Abwärtskompatibilität und Formatumsetzungen.
Sauberere, einfachere und auf Hardwareebene effizientere Programmierung.
Wer heute auf 10 Bit setzt und übermorgen mit den dann selbstverständlich gewordenen 16 Bit konfrontiert wird, dem wird es genauso ergehen wie Microsoft, deren Systeme es bis heute nicht schaffen sich gänzlich von den altertümlichen Standards der 80er Jahre zu lösen (zB die Pflicht zur ewigwährenden VGA-Grafik in UEFI).
Eine "krumme Gurke" a la 10 Bit Betrieb zu forcieren, das bedeutet sich eine frische Petrischale zur Zucht von immer noch mehr zukünftigen Software-Zombies anzulegen.
Und das alles nur um effekthascherisch ein Problem zu lösen, das man in Wirklichkeit überhaupt nicht hat.
 
Zuletzt bearbeitet:

MoNchHiChii

Kronprinz Rudolf von Österreich
Registriert
03.12.07
Beiträge
1.892
Das klingt sogar für Laien wie mich einleuchtend:)

Für mich auch, aber in der Praxis empfinde ich es anders... Ich könnte aber niemals auf solchen einem Technischen Niveau, wie es hier passiert argumentieren...

Und ich Grafikerforen wird es auch anders erläutert.
Auch von sogenannten Experten wird es anders dargestellt.

Ich weiß also auf dieser Basis gar nicht mehr, was ich wirklich glauben soll...
Empfinden tue ich weiterhin 10Bit als angenehmer zum Bearbeiten. Anscheinend vielleicht aber auch nur Einbildung...?!