Jump to content

Der richtige Belichtungsmodus (Off Spin Fuji X-H1 Thread)


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Bei uneinheitlicher Ausleuchtung kann der Korrekturbedarf deutlich größer als 2,5 EV sein. Es sei denn, Du könntest Helligkeiten so gut abschätzen, dass Du eine Spotmessung auf einen Bildteil machen kannst, von dem Du sicher bist, dass er, sagen wir, genau 1, 2 oder 3 EV unter der Helligkeit der hellsten Lichter liegt.

 

Mein Punkt ist: Die Idee, dass es einen festen Abstand zwischen dem mittleren Grau (18%) und den hellsten Lichtern (100%) gäbe, stimmt nur bei einheitlicher Ausleuchtung und im allgemeinen Fall eben nicht.

Offen gesagt verstehe ich das Problem immer noch nicht. Ich versuche eine Simplifizierung: Was ist an dieser Theorie falsch, dass es einen festen Korrekturwert gibt, bei dem jede beliebige, angemessene Stelle gerade nicht clippt? Und wenn es ihn gibt: Dieser Wert soll massiv über 2,5 EV liegen, sodass ein 3 EV Einstellrad nicht reicht (wobei man sich ja sowieso wenigstens 1 oder 2 Drittel Sicherheitsreserve gönnen sollte, so als Kompromiss zwischen perfekt optimaler Belichtung und komplett verpatzt weil ausgebrannt)?

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 381
  • Created
  • Letzte Antwort

Ich muss mal was loswerden (Off-Topic)

 

Auch wenn hier mit harten Bandagen gekämpft wird, ist das ein richtig guter und lehrreicher Thread! Und hier tummeln sich richtige Experten! Hut Ab! Mir hilft das unheimlich mein recht laienhaftes Wissen zu vertiefen und ich denke, dass ich den ein- oder anderen beschrieben Weg hier mal vertiefen werde und so versuche meine Ergebnisse zu verbessern!

 

Wollte ich nur mal als kleines Dankeschön loswerden. 

Link zum Beitrag
Auf anderen Seiten teilen

Ich sehe es wie Tabby und denke, mjh versteht ihn falsch. Es geht ja nicht um die gesamte Szene, nur um den angemessenen Spotpunkt, der immer Mittelgrau gemessen wird, und jeder Sensor hat gegenĂĽber Mittelgrau einen Offset nach oben, ab dem dieses angemessene Objekt dann ausfrisst.

 

So lief das ja auch mit dem Schnee: kleinen Bereich ohne Dreck/Gras mit Spot angemessen und dann bei 3 EV nach oben gesehen, dass hier das Limit für eine noch perfekte Darstellung ist, inkl. einer zunehmend nicht ganz so perfekten Wiederherstellungsmöglichkeit bis 4 EV. Jeder kann am Ende selbst entscheiden, wie wichtig die hundertprozentige Farbe des fraglichen Motivteils für ihn ist.

Link zum Beitrag
Auf anderen Seiten teilen

Wir waren uns doch in einem anderen Thread alle (bis auf einen ;))  schon mal einig, dass der Unterschied zwischen KB und APS-C nur jenseits von Äquivalenz besteht.

Außerdem: Warum sollte der KB-Nutzer "zu blöd" für ETTR sein, während der APS-C-Nutzer dies macht?

 

Ich probiere es demnächst einfach aus: Gleiches (eher kontrastarmes) Motiv, einmal konventionell, einmal mit ETTR belichtet, anschließend beides im RAW-Konverter auf gleiche Belichtung gebracht. Anschließend lasse ich beide Bilder  auf 20x30cm2 belichten und schaue, ob ich den qualitativen Unterschied sehe. Das war das, was ich mit praxisrelevantem Qualitätsunterschied meinte.

 

Es ist doch klar, dass sensortheoretisch ETTR die Methode der Wahl ist, aber nicht jedes Bild in meinem Leben muss bis ins letzte Pixel perfekt sein.

Die Schatten auch mal 1.5EV hochzuziehen, ist fĂĽr mich kein existentielles Problem.

 

Ich weiĂź um die Methoden, das heiĂźt nicht, dass ich sie auf 100% meiner Bilder anwende.

Ein guter Gaul springt immer nur so hoch, wie er muss. ;)

 

HDR macht man auch viel sauberer und differenzierter mit einer externer Software als in der Kamera oder dem Handy, dennoch kann man auch das zur Not mal tun, z.B. wenn das Bild nur Dokuzwecken dient.

Link zum Beitrag
Auf anderen Seiten teilen

Ich kapiere das immer noch nicht.

 

Wenn ich ein Portreit vor einem dunklen Hintergrund mache, dann messe ich aufs Augenweiß und verstelle die Parameter so, dass das Augenweiß gerade anfängt zu blinken. Dann habe ich die optimale RAW-Belichtung aus der ich dann mit einer Minusbelichtung im Rawkonverter die von mir gewünschte Anmutung erreiche, aber mit einer größeren Dynamik als wenn ich die Anmutung bereits in der Kamera genau getroffen hätte. Also, meine Raws wirken, wenn optimal belichtet, in der Regel erstmal zu hell im Konverter. Habe ich das richtig verstanden?

Link zum Beitrag
Auf anderen Seiten teilen

Also, meine Raws wirken, wenn optimal belichtet, in der Regel erstmal zu hell im Konverter. Habe ich das richtig verstanden?

 

Richtig. Ausnahmen sind Aufnahmen, wo die Dynamik des Motivs genau der des Sensors entspricht oder sie ĂĽberschreitet. Im ersten Fall passt die Belichtung im Konverter, im zweiten Fall liegt die Belichtung im Konverter sogar darunter.

Bei kontrastarmen Motiven (z.B. trĂĽbe Winterstimmung) sind dagegen die Auswirkungen im RAW-Konverter, wie Du sie beschreibst, besonders deutlich. Besonders hier profitiert man von ETTR.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

 

Außerdem: Warum sollte der KB-Nutzer "zu blöd" für ETTR sein, während der APS-C-Nutzer dies macht?

 

 

Wie man auch an diesem Thread sieht, nutzt nur ein geringer Teil der Benutzer das Potenzial der Kameras konsequent aus. Ein Teil der Benutzer möchte das ändern (wohl auch deshalb sind vorm allem meine RAW-Workshops ständig überbucht), aber andere offenbar nicht, wie man an den oft an den Haaren herbeigezogenen Ausflüchten sieht: "kompliziert, Wissenschaft, graue Theorie, zu umständlich, braucht man eh nicht" und so weiter. Wenn zum Teil dieselben Leute dann in anderen Threads berichten, dass sie größere Sensoren brauchen, weil die Bilder ihnen sonst qualitativ nicht gut genug sind, entbehrt das nicht einer gewissen Ironie. 

Link zum Beitrag
Auf anderen Seiten teilen

Die Schatten auch mal 1.5EV hochzuziehen, ist fĂĽr mich kein existentielles Problem.

Aber was ist, wenn du die Schatten mal 3 oder 4 EV pushen müsstest? Auch das würde sicher noch gut gehen, aber deutlich besser sieht es eben aus, wenn das Bild ohne Informationsverlust gleich etwas reichlicher belichtet worden wäre.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich ein Portreit vor einem dunklen Hintergrund mache, dann messe ich aufs Augenweiß und verstelle die Parameter so, dass das Augenweiß gerade anfängt zu blinken. Dann habe ich die optimale RAW-Belichtung aus der ich dann mit einer Minusbelichtung im Rawkonverter die von mir gewünschte Anmutung erreiche, aber mit einer größeren Dynamik als wenn ich die Anmutung bereits in der Kamera genau getroffen hätte. Also, meine Raws wirken, wenn optimal belichtet, in der Regel erstmal zu hell im Konverter. Habe ich das richtig verstanden?

 

 

Wenn die Augen wirklich der hellste Punkt des Bildes sind und sie dir entsprechend wichtig sind, wäre das in der Tat so. In der Praxis dürfte das aber nicht sehr oft vorkommen – bei Porträtaufnahmen achte ich eher darauf, dass sich die Hauttöne in der für den jeweiligen Hauttyp optimalen Zone befindet. Wichtig ist mir hier auch, dass der Rotkanal nicht übersteuert, denn sonst geht es der Haut wie dem Schnee und es gibt Farbverschiebungen und eine gröbere Gradation. Das mögen wir bei Schnee und Wolken akzeptieren, bei Hauttönen ist unser Gehirn jedoch viel kritischer, deshalb möchte ich da stets den vollen Tonwertumfang nutzen. 

 

Hier muss man insbesondere bedenken, dass Lichtreflektionen auf der Haut oft heller sind als das Weiße in den Augen. Und wenn Blitzlicht bei Porträts zum Einsatz kommt, muss man ohnehin anders vorgehen.

Link zum Beitrag
Auf anderen Seiten teilen

Wie man auch an diesem Thread sieht, nutzt nur ein geringer Teil der Benutzer das Potenzial der Kameras konsequent aus. Ein Teil der Benutzer möchte das ändern (wohl auch deshalb sind vorm allem meine RAW-Workshops ständig überbucht), aber andere offenbar nicht, wie man an den oft an den Haaren herbeigezogenen Ausflüchten sieht: "kompliziert, Wissenschaft, graue Theorie, zu umständlich, braucht man eh nicht" und so weiter. Wenn zum Teil dieselben Leute dann in anderen Threads berichten, dass sie größere Sensoren brauchen, weil die Bilder ihnen sonst qualitativ nicht gut genug sind, entbehrt das nicht einer gewissen Ironie.

Ach weiĂźt - verarschen kann ich mich selbst... falls du mich meinst!

Und nur weil ich die A7 iii spannend finde - ja, auch wegen des größeren Sensors - heißt das noch lange nicht, dass ich meine Bilder falsch belichte oder dringend mehr als APSC brauche für den Großteil meine Bilder. Vielmehr hab ich eher das „Problem“, dass ich in Island oder ZA soviele technisch gelungene Aufnahmen habe, dass das Aussortieren echt zu Qual wird! Und das trotz meiner offenbar nicht konsequenten Vorgehens....

Link zum Beitrag
Auf anderen Seiten teilen

Wie man auch an diesem Thread sieht, nutzt nur ein geringer Teil der Benutzer das Potenzial der Kameras konsequent aus. Ein Teil der Benutzer möchte das ändern (wohl auch deshalb sind vorm allem meine RAW-Workshops ständig überbucht), aber andere offenbar nicht, wie man an den oft an den Haaren herbeigezogenen Ausflüchten sieht: "kompliziert, Wissenschaft, graue Theorie, zu umständlich, braucht man eh nicht" und so weiter. Wenn zum Teil dieselben Leute dann in anderen Threads berichten, dass sie größere Sensoren brauchen, weil die Bilder ihnen sonst qualitativ nicht gut genug sind, entbehrt das nicht einer gewissen Ironie.

Wobei der Dynamikumfang aber der irrelevanteste Vorteil größerer Sensoren ist, zu oft ist er ja nicht mal wirklich höher. Jahrelang war bei den iso-losen Systemkameras eine Pentax K-5 mit APSc an der Spitze, und selbst heute ist der Abstand zu den diesbezüglich allerbesten KB-Kameras keine 1,2 EV groß. Das skaliert einfach nicht entsprechend.

Link zum Beitrag
Auf anderen Seiten teilen

Wobei der Dynamikumfang aber der irrelevanteste Vorteil größerer Sensoren ist, zu oft ist er ja nicht mal wirklich höher. Jahrelang war bei den iso-losen Systemkameras eine Pentax K-5 mit APSc an der Spitze, und selbst heute ist der Abstand zu den diesbezüglich allerbesten KB-Kameras keine 1,2 EV groß. Das skaliert einfach nicht entsprechend.

 

 

Für mich ist es neben der evtl. höheren Auflösung der einzige. Mehr Fläche = mehr Licht = weniger Shot Noise. Natürlich stets aktuelle Sensortechnik vorausgesetzt, die wir beim Nachfolger der GFX zweifellos vorfinden werden, die Specs vom kommenden Sony-Sensor sind ja schon zum Teil bekannt. Wenn mir die GFX 2 EV mehr gegenüber einer Fuji X gibt, ist das für mich eine große Sache. In Indien hat sich da auch die aktuelle GFX ziemlich gut geschlagen.

Link zum Beitrag
Auf anderen Seiten teilen

Ich muss mal was loswerden (Off-Topic)

...............................

Wollte ich nur mal als kleines Dankeschön loswerden. 

 Ich frag mich auch was die harten Bandagen sollen, wenn man doch glaubt, die besseren Argumente zu haben.

Link zum Beitrag
Auf anderen Seiten teilen

Für mich ist es neben der evtl. höheren Auflösung der einzige. Mehr Fläche = mehr Licht = weniger Shot Noise.

Ja gut, aber das kommt ja auch nur voll zum Tragen, wo das "mehr Licht" durch eine höhere full well capacity auch registriert werden kann. Genau dort hapert es aber mit der Skalierbarkeit.

Link zum Beitrag
Auf anderen Seiten teilen

Ja gut, aber das kommt ja auch nur voll zum Tragen, wo das "mehr Licht" durch eine höhere full well capacity auch registriert werden kann. Genau dort hapert es aber mit der Skalierbarkeit..

 

 

Gerade die GFX erlaubt es ja, nochmal 1/3 EV gegegenüber Fuji X und X30 draufzulegen. So wie für alle anderen zählt eh nur die Praxis, deshalb teste ich jeden neuen Sensor (bei Fuji hat man da nicht so viel zu tun, bei Sony wäre es fast schon stressig). Die GFX hat mich da überzeugt, und schlechter wird's beim Nachfolger sicherlich auch nicht werden. Falls doch, werde ich es sehen und berichten.

Link zum Beitrag
Auf anderen Seiten teilen

Tests und auch Datenblätter sagen doch eindeutig, dass der Dynamikumfang bei allen modernen Sensoren, ob KB, APS-C et. bei ca. 9 EV (Blendenstufen) liegt. Der einzige relevante Wert ist die Pixelfläche. Je größer das Pixel desto besser ist das Signal zu Rauschverhältnis. Bei der Grundempfindlichkeit von 200 ASA, ohne Verstärkung des Signals, spielt das aber so gut wie keine Rolle.

 

Bei dem Belichtungsumfang ist die GFX leicht im Vorteil, was aber zu Lasten der Auflösung geht. Hier erreicht die GX nur eine theoretische Auflösung von 84 LP/mm bezogen auf die Bildhöhe, die FX Sensoren liegen bei 128 LP/mm.

 

Bei all diesen Überlegungen muss aber berücksichtigt werden das der Dynamikbereich bei JPG Dateien nur max. 7 EV beträgt und beim Ausdruck auf Papier vielleicht noch 5 EV ankommen. Hier liegt das Können eines Fotografen das aufgenommene Bild in ein Ausdruck umzusetzen.

Link zum Beitrag
Auf anderen Seiten teilen

Aber was ist, wenn du die Schatten mal 3 oder 4 EV pushen müsstest? Auch das würde sicher noch gut gehen, aber deutlich besser sieht es eben aus, wenn das Bild ohne Informationsverlust gleich etwas reichlicher belichtet worden wäre.

 

Genau! Dann belichte ich reichlicher, wenn bzgl. Lichter noch möglich oder mache gleich eine Belichtungsreihe. Ca. 75% meiner Bilder entstehen mit Stativ, davon sind sehr viele wegen hoher Kontrastumfänge Belichtungsreihen.

 

Ein Hochziehen der Schatten um mehr als 1-2 EV vermeide ich, wenn es irgendwie geht. Problem sind kontrastreiche, nichtstatische Motive, aber die habe ich zum GlĂĽck nicht so oft.

Link zum Beitrag
Auf anderen Seiten teilen

Genau! Dann belichte ich reichlicher, wenn bzgl. Lichter noch möglich...

Also ich fasse deine Argumentationskette vorn und hinten mal zusammen: ETTR braucht man nicht, weil ja nicht jedes Pixel perfekt sein muss vs. ich belichte reichlicher, wenn bzgl. Lichter noch möglich.

Link zum Beitrag
Auf anderen Seiten teilen

+ 1/3 EV im Vergleich zum Formfaktor? Also insgesamt 2 1/3 EV mehr Eingangsdynamik?

 

Der Sättigungspunkt liegt nochmal 1/3 EV höher als bei den anderen Sensoren. Das stand auch so in einem Fuji-Artikel, und mein DR-Sensorvergleich hier im Forum hat das praktisch bestätigt. Deshalb ist es auch schade, dass die ISO-Invarianz- und DR-Vergleiche auf DPR unterschiedliche Sättigungspunkte nicht berücksichtigen. Die gehen ja alles von derselben Belichtung einer Studioszene aus (auf Mittelgrau ausgerichtet und stets mit derselben Belichtung). Dabei gewinnt dann entweder die eine oder die andere Kamera. Man sieht aber nicht, ob man Kamera B vielleicht reichlicher hätte belichten können als Kamera A, was ihr natürlich einen DR-Vorteil gibt, wenn man das in freier Wildbahn optimal anwendet. So kann im DR-Test von DPR Kamera A besser aussehen, in freier Wildbahn jedoch Kamera B, natürlich vorausgesetzt, dass man draußen bei Basis-ISO die ideale Belichtung praktisch realisieren kann, was bei Landschaftsbildern – wo DR bekanntlich oft gebraucht wird – durchaus die Regel ist. 

Link zum Beitrag
Auf anderen Seiten teilen

Also ich fasse deine Argumentationskette vorn und hinten mal zusammen: ETTR braucht man nicht, weil ja nicht jedes Pixel perfekt sein muss vs. ich belichte reichlicher, wenn bzgl. Lichter noch möglich.

 

Nein, tut mir leid, das habe ich nicht geschrieben.

 

ETTR mache ich, wenn es perfekt sein muss oder ich sonst die Schatten massiv (>2EV) aufhellen müsste. Bei leichten Schattenaufhellungen belasse ich es auch mal bei "nachlässigerer" Belichtung, z.B. wenn das Foto "nur" fürs Familienalbum bestimmt ist.

 

Optimale Qualität errreiche ich nicht mit ETTR, sondern mit Belichtungsreihen, weil ich dann auch die dunkelsten Bereiche des Bildes noch weiter überbelichten und per EBV wieder abdunkeln kann. Auch ETTR ist also nicht der Weisheit letzter Schluss.

 

Ich bin Naturwissenschaftler und kein Informatiker, ich beschäftige mich aus Interesse mit theoretischen Grundlagen, aber erkläre sie nicht zum Muss für jedes Foto.

Zeig' mir meine fehlbelichteten Fotos bzw. die, wo durch ETTR mehr herauszuholen gewesen wäre.

Link zum Beitrag
Auf anderen Seiten teilen

In welche Datenblätter schaust du da? Und auf welchen Wert genau?

Dynamik. Wird z.B. von allen Fotomagazinen bei Tests ermittelt. Die Werte liegen in der Regel so zwischen 7 und 9 EV (Blendenstufen), je nach ISO Einstellung.

 

Das wird nicht richtiger, und wenn man es noch so oft in Foren/Blogs liest.

 

Es gibt einen Zusammenhang zwischen Pixelfläche und Ausgangssignal. Je größer die Fläche desto größer das Signal, da mehr Photonen eingefangen werden. Bei der Grundempfindlichkeit  der C-MOS Sensoren von 200 ASA ist das thermische Rauschen nahezu bei allen Herstellern identisch. Wird das Signal verstärkt wird auch das Rauschen verstärkt und das Eigenrauschen des Verstärkers hinzugefügt. Gleichzeitig wird die Dynamik eingeschränkt. Das sind nunmal physikalische Grundlagen und bezieht sich nicht auf Inhalte in Foren/Blogs.

Link zum Beitrag
Auf anderen Seiten teilen

Archiviert

Dieses Thema ist jetzt archiviert und fĂĽr weitere Antworten gesperrt.

Ă—
Ă—
  • Neu erstellen...