• Apfeltalk ändert einen Teil seiner Allgemeinen Geschäftsbedingungen (AGB), das Löschen von Useraccounts betreffend.
    Näheres könnt Ihr hier nachlesen: AGB-Änderung
  • Was gibt es Schöneres als den Mai draußen in der Natur mit allen Sinnen zu genießen? Lasst uns teilhaben an Euren Erlebnissen und macht mit beim Thema des Monats Da blüht uns was! ---> Klick

[11 Pro Max] Kamera macht aus blau grau

olle

Pomme Etrangle
Registriert
11.05.20
Beiträge
896
Hallo zusammen,

immer wenn ich zB Klamotten für Kleinanzeigen fotografiere bemerke ich, dass die Kamera aus einem (dunkel)blau ein grau macht, je näher man dran geht. Man kann richtig beobachten, wie sich die Farbe von blau nach grau bzw. umgekehrt ändert wenn man das iPhone hin- bzw wegbewegt. Ich habe keine Einstellungen vorgenommen, sondern fotografiere einfach drauf los. Zoom ist auch nicht aktiv. Es scheint vom Blauton abzuhängen, denn nicht bei jedem wird der Farbton verfälscht. Eher nur so, wie in folgendem Beispielbild. Hat so etwas schon mal jemand bei sich bemerkt?
B3F51DC5-DBAD-4B66-8C16-10F70F8733C8.jpeg F573A547-B1BD-4300-948D-1BE428680ACB.jpeg
 
Zuletzt bearbeitet:

Blurryface

Oberösterreichischer Brünerling
Registriert
22.04.18
Beiträge
711
Ich kenne das Phänomen auch. Denke, das hat was mit der Belichtungautomatik zu tun.
Wenn du ganz nah rangehst, ist das gesamte Bild mit Dunkelblau gesättigt. Das iPhone steuert gegen und dreht die Belichtung hoch. Es wird heller und rutscht ins graue.
Da kannst du entweder nachbearbeiten oder von vornherein die Belichtung runternehmen.
 

dtp

Roter Winterstettiner
Registriert
04.06.20
Beiträge
10.716
Hatte ich mit meinem 12 Pro auch kürzlich. Witzigerweise genau bei derselben Aktion, nämlich beim Fotografieren einer Jacke, die ich über eBay-Kleinanzeigen verkaufen wollte.

Aber wenn das Umgebungslicht zu schlecht ist, dann passiert das schon mal. Da stimmt dann einfach der automatische Weißabgleich nicht mehr. In dem Fall sollte man wohl einfach für eine bessere Belichtung sorgen oder den Weißabgleich manuell anpassen.
 
  • Like
Reaktionen: dg2rbf

Bitnacht

Normande
Registriert
09.06.14
Beiträge
583
@Blurryface das ist fast richtig. Ich denke es ist so: Das iPhone macht bei Fotos einen Weißabgleich. (Das muss man machen, weil menschliche Augen das eben auch tun und es hängt vom Umgebungslicht ab, wie Farben auf uns wirken.) Wenn das iPhone mit allen Sensoren nur Blau messen kann, dann muss es die Farbtemperatur wärmer drehen, damit Bilder, die in kaltem Licht aufgenommen werden keinen extremen Blaustich bekommen. Bei Rot müsste es ebenfalls passieren.

Wenn man das nicht von Hand korrigieren will, kann man einfach ein leeres Blatt Papier mit ins Bild nehmen und später das Bild beschneiden. Vielleicht reicht es, wenn das Weiße in der Weitwinkel Linse sichtbar ist und gar nicht auf der benutzten.
 

olle

Pomme Etrangle
Registriert
11.05.20
Beiträge
896
Aber wenn das Umgebungslicht zu schlecht ist, dann passiert das schon mal.

Erstmal danke an alle für eure Antworten.

Wie man vielleicht am oberen Bild erkennen kann, habe ich bei Tageslicht, welches durch das Fenster kam, fotografiert. In meinen Augen war, ist und sollte das hell genug sein. Verstehen würde ich das mit dem Weißabgleich eher wenn man abends nur mit Deckenbeleuchtung fotografiert. Aber so, finde ich es schon recht schwach.
Ich habe auch schon in anderen Zimmern bei noch mehr Tageslicht fotografiert. Da trat das gleiche Phänomen auf. Da hilft wohl nur noch draußen zu fotografieren. Dann leg ich eben die Jacken auf die Wiese 😂
 

Mitglied 105235

Gast
Oder mit Blitz Fotografieren, dann sollte das auch nicht mehr passieren.
 
  • Like
Reaktionen: dg2rbf

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.525
Aber so, finde ich es schon recht schwach.
Ich habe auch schon in anderen Zimmern bei noch mehr Tageslicht fotografiert. Da trat das gleiche Phänomen auf.

ob da wohl ein Zusammenhang bestehen könnte? Blö*es Apple, dass die nicht einfach die Physik außer Kraft setzen, arm.
Mach mal nen Fotografiegrundkurs an der VHS. Und nein, zwar ist Licht wichtig aber für das konkret geschilderte Problem ist die Einstellung nach ca. 18% Grau verantwortlich - und zwar dadurch, dass dein fast unifarbenes Motiv den Sensor fast voll ausfüllt. Stichwort Graukarte.
 
  • Like
Reaktionen: Birnenfon und AndaleR

olle

Pomme Etrangle
Registriert
11.05.20
Beiträge
896
ob da wohl ein Zusammenhang bestehen könnte? Blö*es Apple, dass die nicht einfach die Physik außer Kraft setzen, arm.
Mach mal nen Fotografiegrundkurs an der VHS. Und nein, zwar ist Licht wichtig aber für das konkret geschilderte Problem ist die Einstellung nach ca. 18% Grau verantwortlich - und zwar dadurch, dass dein fast unifarbenes Motiv den Sensor fast voll ausfüllt. Stichwort Graukarte.
Ich nehme deinen Beitrag mal nicht so ernst und werde mit Sicherheit auch keinen Fotografiekurs machen, nur weil ich mit dem Handy mal ein Foto machen möchte.
Wenn noch mehr Leute das Problem haben und es am Licht liegt, dann weiß ich ja nun Bescheid und das langt mir auch.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.525
Ich nehme deinen Beitrag mal nicht so ernst und werde mit Sicherheit auch keinen Fotografiekurs machen, nur weil ich mit dem Handy mal ein Foto machen möchte.
Teile meiner Antwort waren tatsächlich scherzhaft gemeint (Sarkasmusgrad war relativ hoch, liegt aber auch daran, wie man in den Wald hineinruft), aber es steckt ein wahrer Kern darin. Bitte einfach merken, dass die Kamera versucht, das Bild so zu belichten wie 18% Grau ergeben würden - wenn Du also Merkwürdigkeiten bemerkst, versuche das Foto noch einmal und nimm dann mehr von der Umgebung mit ins Bild, dann ist die Wahrscheinlichkeit größer, dass die Automatik ein Dir genehmes Resultat abbilden kann.

Als weiteren Tip kann ich noch RAW empfehlen, wie man es z.B. mit ProCamera oder Camera Pro (beide kostenpflichtige Apps) speichern kann. Mit Bildbearbeitungssoftware, die RAW versteht, lässt sich dann nachträglich das Bild noch in Punkten bearbeiten, die z.B. in JPG oder HEIC nicht mehr zu bearbeiten möglich wären (Weißabgleich).
 

olle

Pomme Etrangle
Registriert
11.05.20
Beiträge
896
Ich habe vorhin draußen bei schönstem Sonnenschein ein dunkelblaues T-Shirt mit meinem 12 Pro fotografiert und mich wieder darüber geärgert, warum aus einem dunkelblau ein grau wird. Bei der Vorderseite mit dem Motiv ist die Farbe so wie es sein sollte, scheinbar weil eben in dem Motiv auch andere Farben dabei sind und sich die Kamera anders einstellt. Will ich aber ein Detail, in dem Fall einen Fleck auf der Rückseite, fotografieren, dann wird aus dem Blau ein Grau. Ich bin auch weiter weggegangen, um mehr von der Umgebung mit drauf zu bekommen, wie hier jemand empfohlen hat. Aber das hat nicht viel geholfen. Außerdem sieht man das Detail dann ja kaum noch. Echt nervig. Also am Licht lass dieses Mal definitiv nicht.
 

Anhänge

  • 92A31D3E-E79F-48A0-B19E-2FC9590CAACD.jpeg
    92A31D3E-E79F-48A0-B19E-2FC9590CAACD.jpeg
    6,2 MB · Aufrufe: 36
  • D0EE9B50-6ED7-4EA0-809A-7224197FD416.jpeg
    D0EE9B50-6ED7-4EA0-809A-7224197FD416.jpeg
    3,7 MB · Aufrufe: 33

NorbertM

Laxtons Superb
Registriert
03.01.15
Beiträge
9.397
Es liegt am automatischen Weissabgleich, das wurde doch hier schon erklärt. Den kann man aber in weiten Bereichen mit der Bearbeitungfunktion (Wärme, Farbton) nachträglich anpassen.

Vielfach hilft auch das Erzwingen des Blitzes, da dann eine feste Farbtemperatur gewählt wird.
 

hutzi20

Strauwalds neue Goldparmäne
Registriert
29.04.09
Beiträge
636
Dieser automatische Weißabgleich und HDR ist total fürn Arsch.
Gerade bei Videos ist das extrem ärgerlich wenn innerhalb von Sekunden aus einem blauen Himmel mit Wolken plötzlich einfach pures weißgrau wird.
Im Anhang mal Screenshots vom einem Video. Man beachte den Himmel…
Aufgenommen mit 12 Pro Max
2CCCD519-6F35-4259-92F5-D36C305A2CC8.jpeg
4CDC9E92-B71D-406C-8317-C5646425E02B.jpeg
CFEC90DD-3A8B-43D4-8D9E-E64B4C0C5AE3.jpeg
1048E55B-FF53-481B-A973-89C664801DC1.jpeg
EE626222-5A10-4B1D-A06C-AF5E703976D7.jpeg
 

NorbertM

Laxtons Superb
Registriert
03.01.15
Beiträge
9.397
Da ist ganz einfach der gewählte Bildausschnitt falsch gewählt und das sieht man bereits bei der Aufnahme. Die Kamera etwas höher gehalten und der Himmel wäre perfekt - zaubern kann auch das iPhone nicht.
 

hutzi20

Strauwalds neue Goldparmäne
Registriert
29.04.09
Beiträge
636
Was heißt Bildausschnitt falsch gewählt? Ich starte das Video und habe die Lok darauf. Der Himmel ist schön blau und wölken sind zu erkennen. Während der Aufnahme wird innerhalb von 2 Sekunden der Himmel komplett grau... beziehungsweise beim Anschauen wegen HDR grell weiß
 

NorbertM

Laxtons Superb
Registriert
03.01.15
Beiträge
9.397
Das hat mit Apple überhaupt nichts zu tun. Gewisse Grundkenntnisse helfen in allen Bereichen des Lebens, sonst sind die Ergebnisse entsprechend.

Alle digitalen Kamerasensoren haben einen begrenzten Dynamikumfang, deshalb kombiniert das iPhone mehrere unterschiedliche Belichtungen zu einem Bild. Dazu muss aber entsprechendes Ausgangsmaterial vorhanden sein. Wie erwähnt, erkennt man das bereits vor/während der Aufnahme und kann entsprechend gegensteuern.
 
Zuletzt bearbeitet:
  • Like
Reaktionen: rootie

MacAlzenau

Golden Noble
Registriert
26.12.05
Beiträge
22.522
Die Hohe Kunst des Fotografierens ist es aber nicht unbedingt, die Bildgestaltung simplen technischen Vorgaben unterzuordnen.
Bei Videos (und auch bei Panorama-Serien-Aufnahmen) stört ja nicht nur der automatische Weißabgleich sondern auch die Belichtungsautomatik (letzteres war auch schon analog so). Da hilft nur manuelles Einstellen.

Mit Apple hat das natürlich nix zu tun, das dürfte bei allen anderen Herstellern genauso sein, es sei denn sie haben ziemlich hochentwickelte KI an Bord, die bildübergreifend mitdenkt.
 

Wuchtbrumme

Golden Noble
Registriert
03.05.10
Beiträge
21.525
das mag alles sein, aber bei dem Video mit der Lok und dem Himmel ist das Problem nicht falsche Farben durch den Weißabgleich, sondern der Dynamikumfang und der Belichtungsschwerpunkt. Wie @NorbertM schon richtig schrieb, es gibt sogar Leute, die sich in Fotografie ausbilden lassen, einen Ausbildungsberuf (sogar einen Meister) und dafür hat es auch einen Grund und handfeste physikalisch-technische Grundlagen. Die zu erläutern geht hier zu weit, es sollte reichen, zu erwähnen, dass es sie gibt, und jemand, den es interessiert, kann sich entsprechend kundig tun. In den Fotografieforen dieser Welt wird das erstaunlicherweise mit Engelsgeduld jeden Tag aufs Neue durchgekaut.
In Kurzform: Du willst die Lok (dunkel) richtig belichten, dass man alles sieht: länger belichten. Dafür werden helle Bildbereiche noch heller. Du willst den Himmel richtig belichten? Kürzer belichten, die Lok wird zwangsläufig dunkler. Das ist so, weil ein Belichtungsdreieck gibt - das entwickelte Bild ist abhängig vom auf den Sensor gefallenen Licht. Und jeder Sensor kann nur soundsoviel Unterschied zwischen hellstem und dunkelstem Bildpunkt darstellen.

Und manuell? Das hilft Dir nicht dabei, es so schnell zu machen wie das iPhone. Endweder wählst du also einen Kompromiss oder Du machst zwari Szenen und schneidest den Übergang raus.
 

SomeUser

Ingol
Registriert
09.02.11
Beiträge
2.084
Moin!

Was heißt Bildausschnitt falsch gewählt? Ich starte das Video und habe die Lok darauf. Der Himmel ist schön blau und wölken sind zu erkennen. Während der Aufnahme wird innerhalb von 2 Sekunden der Himmel komplett grau... beziehungsweise beim Anschauen wegen HDR grell weiß

@Wuchtbrumme hat es ja schon angerissen, aber als Ergänzung dazu: Physik ist halt ein A-Loch.

Mal ein wenig vereinfacht dargestellt: Sagen wir, dass echte Helligkeitsspektrum geht von 0 (ganz dunkel) bis 100 (sehr hell). Eine bessere DSLx-Kamera kann davon z.B. einen Bereich von 60 Punkten abdecken. Das iPhone von mir aus 40 Punkte (Relationen vollkommen frei aus dem Hut gegriffen, das System soll verdeutlicht werden).

D.h., wenn du nun ein Bild hast, dass von max. Dunkelheit bis maximaler Helligkeit alles enthält, wirst du nicht alles gleich "gut" (=umfangreich) abbilden können, sondern musst dir überlegen, wo du deine 40 Punkte "verteilst" (was nur am Stück geht). Du könntest also den Fokus auf den Bereich 0-39 legen => dunkle Bereiche würde man jetzt super differenzieren können, aber alles helle würde dir "ausbrennen".
Du könntest auch 61-100 wählen: Jetzt sind helle Bereiche differenziert - aber alles was dunkel ist, vermischt sich zu einem großen undifferenzierbaren Dunkel.
Wählst du etwas in der Mitte, verlierst du in den äußeren Randbereichen etwas - und zwar sowohl im Dunklen, wie im Hellen.

Und das ist auch der Effekt, den du super auf deinen Bildern siehst: Als du anfängst, sieht man noch größere Abstufungen in den Wolken. In diesen sieht man noch hellere und dunklere Bereiche, mehr Struktur etc. Wenn du dir aber die Lok anschaust, verlierst du da in den dunklen Bereich alles, es sind keine Details mehr erkennbar, alles "vermischt".
Dann wird nachgeregelt: Das iPhone "interpretiert", durch Analyse des Bildes, der Farbverteilung, der Dynamik etc., dass du wohl die Lok (oder vielmehr: den dunkleren Bereich) abbilden willst. Also verschiebt es dein Spektrum. Jetzt beginnst du Details im Dunkeln zu erkennen. Die Verstrebungen werden sichtbarer, Details die vorher untergegangen sind, tauchen auf. Nachteil: Aufgrund des überschaubaren Dynamikumfangs geht dir nun der helle Bereich verloren.

Es ist letztlich simple Physik und du kannst sie nicht ändern. Es gibt zig Möglichkeiten, damit umzugehen oder es zu kompensieren. HDR ist einer dieser Wege - aber er kann nur die Grenzen ausweiten, nicht außer Kraft setzen. Dazu kommt sowas wie Perspektivenwechsel, ändern der (äußeren) Umstände (z.B. Belichtung, ...).

Ich habe hier eine Sony A7 III S rumfliegen, die mal eben über 4.000 Euro kostet und eine Canon EOS M50 M2 für irgendwas um die 700 Euro und beide zeigen - natürlich! - den gleichen Effekt. Wie eingangs dargestellt, zwar mit größerer Abdeckung insgesamt, aber dennoch kann ich nicht vom Flutlicht bis zum dunklen Höhleneingang beides gleichzeitig im Bild haben und dennoch alle Details erkennen.

Je nach Kamera-/Video-App kannst du den Bereich festlegen, der für die Belichtungsmessung genommen werden soll, aber den o.g. Effekt wirst du nicht verhindern können.


Moin!

Und noch einen Nachtrag dazu: Du kannst dir das auch wunderbar visualisieren, indem du dir mal das Histogramm der Bilder anschaust.

Hier das von Bild 4 - dem "hellen" mit dem ausgebrannten Himmel:
histo1.png

Hier siehst du sehr schön den Balken ganz rechts - das ist der ausgebrannte Himmel, wo einfach alles "durch die Decke" schießt und nicht mehr erkennbar ist.


Umgekehrt bei Bild 1, dem mit dem "besseren" Himmel:
histo2.png

Hier sind die hellen Farben (rechte Seite in der Grafik) nicht mehr übersteuernd, gehen zwar hoch, aber schießen nicht raus und generell läuft der Graph zum Ende hin eher aus. Dafür im dunkel Bereich (ganz links): Hier geht der Graph schon "recht hoch" los, d.h. es gibt dunkle Bereiche, die nicht mehr erkennbar sind (="absaufen").


Übrigens gibt es auch verschiedene Kamera-Apps, die nicht nur ein Histogramm anzeigen, damit man schon einen Eindruck hat, ob man im "guten" Bereich unterwegs ist. Es gibt auch welche, die Live ein Ausbrennen der Farben anzeigen. Hier mal ein Beispiel mit der Lightroom-Foto-App. Da leuchtet einfach eine Lampe stark gegen eine Wand:
lr-licht.png

Der "schraffierte" Bereich wird direkt in der Liveansicht durch die App so dargestellt und zeigt das "Ausreißen" der hellen Bereiche, also das hier keine Differenzierung mehr gegeben ist sondern alles einfach nur noch "weiß" ist.
 
Zuletzt bearbeitet: