Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo!

Einige Lehrer, wie Krolop & Gerst, schlagen ja vor, zum Fotografieren eine SW Einstellung für das Display zu benutzen, um das Foto auf dem Display nach Luminanzen auszurichten, ohne sich von Farbe stören zu lassen. Im RAW Entwickler könne man das Bild dann wahlweise in Farbe entwickeln.

Davon bin ich zwar abgekommen. Allerdings sind die Fuji Kameras ja so geschwind umschaltbar, dass z.B. eine C-Knopf Belegung für die blitzschnelle reine Luminanzprüfung meiner Komposition schon sinnvoll sein kann. Dafür kann ich aber nicht irgendeine SW Simulation nehmen, da diese ja Interpretationen, Moods sind, aber keine NEUTRALE SW Abbilung liefern. Frage ist nun: Wie sähe eine optimierte Einstellung aus, für eine neutrale Luminanzprüfung auf dem Display?

Also: genauso wie die optimale Einstellung für RAW Shooter, müsste es doch auch eine optimierte NEUTRALE Einstellung für SW Luminanzshooter geben.

Gruß George

Link zum Beitrag
Auf anderen Seiten teilen

Du kannst auch einfach auf das Histogramm schauen, und oder Blinkies einrichten. Du kannst es natürlich auch etwas komplizierter mit einem "speziell" eingerichteten SW Stil machen. Allen gemein ist, dass die Anzeigen auf dem JPEG basieren, was wiederum bedeutet, das nix davon auch irgendwie "neutral" wäre oder so wie es der Sensor direkt war nimmt. So lange es kein RAW Histogramm gibt, sind eigentlich alle "optimalen Einstellungen für XYZ" Shooter nur Schall und Rauch. Nimm Monochrom in Standard oder einem Farbfilter deiner Wahl. Vielleicht hilfts. Ich würd ja SW nur nutzen, wenn ich schnelles Fokus-Peaking mit Rot nutzen will oder eben SW Bilder machen möchte. Wenn ich ein Farbbild mache ist es doch Wichtig die Farben zu sehen. Und für die Luminanzbeurteilung kann man ins Histogramm schauen, gibt zumindest eine Ahnung in Welche Richtung es geht.

Link zum Beitrag
Auf anderen Seiten teilen

Monochrom mit minimierten Kontrasteinstellungen ist wohl immer noch kontrastreicher als Eterna mit denselben Settings. Aber wenn andere das so empfehlen, sollte man die einfach fragen, welche Einstellungen die richtigen sind und wieso das so ist. Ich empfehle das ausdrücklich nicht, ich mag mein RGB-Histogramm.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Rico Pfirstinger:

Aber wenn andere das so empfehlen, sollte man die einfach fragen, welche Einstellungen die richtigen sind und wieso das so ist. Ich empfehle das ausdrücklich nicht, ich mag mein RGB-Histogramm.

Sehe ich auch so. Nur ein RGB-Histogramm kann eine Überbelichtung einzelner RGB-Kanäle anzeigen, und die wäre selbst dann noch relevant, wenn man die Farbkanäle am Ende zu einem monochromen Bild verrechnete (im Gegensatz zu einer Kamera mit monochromem Sensor, bei der das kein Thema ist). 

Die Livebilder, die man im Sucher oder auf dem Display sieht, sind zwar immer irgendeine Interpretation der rohen Sensordaten und niemals neutral, aber eine Schwarzweißumsetzung fügt dem noch einmal eine neue Ebene der Interpretation hinzu, nämlich die Verrechnung der Farbkanäle. Damit wäre man also am weitesten von den ursprünglichen Sensordaten entfernt.

Link zum Beitrag
Auf anderen Seiten teilen

Das Histogram zeigt ja die Helligkeitsverteilung, dann gibt es die Überbelichtungswarnung.

Sinn dieser SW Anzeige im Display ist dagegen aber die Beurteilung von Kontrasten, Formen, und Blickführung des Bildes durch reine Luminanzansicht, ohne den Farbaspekt. Ich bin davon abgekommen, so zu fotografieren, hatte damals aber auch kaum die richtige SW Einstellung. Für JPG Shooter, die Filmsimulationen benutzen, dürfte das Thema auch eh uninteressant sein. Für RAW Shooter, wo es noch in alle Richtungen gehen kann, kann eine Umschaltung auf so eine neutrale SW Anzeige sinnvoll sein, finde ich, ev. auch, sein Bild wahlweise damit zu gestalten und fotografieren, um später im RAW Entwickler mit Farben weiterzuarbeiten..

Ich habe mich mal tiefer gefragt, was diese neutrale SW Konvertierung eigentlich sein soll. Eine HSL Konvertierung mit Sättigung Null jedenfalls nicht. Das ergibt ein SW Bild, wo reines Blau und reines Gelb gleich hell ist. Das ist technisch richtig, nur sehen wir nicht so: für uns ist reines Blau dunkler als reines Gelb, und daher sind die mehr technischen HSL und HSB Konvertierungen in SW für diesen Zweck nicht brauchbar.

Es gibt aus der Fernsehtechnik eine Konvertierung von einem Farbblild in ein SW Bild, welche die Farbhelligkeit unterschiedlicher Farben für unser Auge mit einbezieht in die Luminanzberechnung, durch jeweils einen RGB Korrekturfaktor: L = 0.299*R + 0.587*G + 0.114*B.

Diese Art SW Konvertierung befindet sich bei Photoshop unter der Haube in den Mischmodi. Wenn ich eine Ebene über einem Bild anlege mit einer Füllebene Schwarz oder Weiß, diese in den Mischmodus Farbe setze, dann habe ich genau diese SW Konvertierung, mit Berücksichtigung der Farbhelligkeiten für unser Auge. Genau so eine Ebene wird in der Retusche beim Dodge & Burn als Hilfsebene eingesetzt, um ausschließlich Luminanz zu bearbeiten, ohne Störung durch Farben. Dann löscht man diese Hilfsebene wieder. (Danach kommen Sättigungsprobleme, danach Farbprobleme in der Retusche). - Also ist dies schonmal technisch die richtige SW Konvertierung für die reine Luminanzbeurteilung der Bildkomposition, womit man jetzt einen Schritt weiter ist.

Die nächste Frage ist aber: Konvertierung von was, wenn jeder RAW Konverter ein anderes Bild liefert. Ist es, unter den Filmsimulationen, die lineare Wiedergabe aus Capture One? Oder das Bild des FastRAWViewers, der ja behauptet, ein RAW Histogram zu zeigen und ein authentisches RAW Bild? - Oder man müsste einfach wissen, ob die Filmsimulation Schwarzweiss diese Art Konvertierung in rein liefert, also ohne zusätzliche Kontrastanpassungen. Ich fürchte, da muss man aber den Support fragen, was das genau für eine Konvertierung ist.

 

Gruß George

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb GeorgeTheMerlin:

Das Histogram zeigt ja die Helligkeitsverteilung, dann gibt es die Überbelichtungswarnung.

Selbst wenn einer der RGB-Kanäle extrem überbelichtet ist, gibt Dir ein Luminanzhistogramm keinerlei Hinweis darauf. Das ist ja das Tückische dabei. Da kann die Zeichnung komplett hinüber sein, aber wer nur auf das Histogramm schaut, ahnt nichts Böses. (Wie gesagt: Das gilt für Kameras mit RGB-Sensor. Bei einem monochromen Sensor gibt es das Problem nicht, aber dafür kann man die Schwarzweißumsetzung nur durch Farbfilter steuern.)

Auch ein Raw-basiertes Histogramm müsste ein RGB-Histogramm sein, wenn man einen RGB-Sensor verwendet. Ein Luminanzhistogramm wäre bereits nicht mehr Raw-basiert. (Wiederum bilden monochrome Kameras eine Ausnahme: Die Leica M Monochrom hatte ein Raw-basiertes Luminanzhistogramm.)

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 10 Stunden schrieb mjh:

Auch ein Raw-basiertes Histogramm müsste ein RGB-Histogramm sein, wenn man einen RGB-Sensor verwendet. Ein Luminanzhistogramm wäre bereits nicht mehr Raw-basiert.

Warum?

Hier ein Beispiel einer nicht-demosaikten RAF-Datei einer X-Pro3 als "SW"-Foto aus den reinen Luminazwerten der einzelnen Sensel. Man sieht die Trans-X-Struktur.

Warum sollte nur eine SW-Kamera so etwas darstellen können? 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 52 Minuten schrieb RAWky:

Warum?

weil die farbmaskierten Sensoren nicht die gleiche Sättigung durch das einfallende Licht erreichen, wo viel grün ist, wären die grünen Pixel am Anschlag, während die roten und blauen Pixel sich langweilen ... beim Helligkeitshistogramm siehst Du aber nur einen Durchschnittswert, der nicht weiterhilft

Sinnvoll wäre es wohl, wenn man neutrale Pixel ins Muster aufnimmt, (da gabs doch schon Kameras, die sowas versuchten) und aus diesen ein Histogramm erzeugt ... die Idee bei diesen Pixel war wohl auch ein verbessertes Rauschverhalten ... auf Kosten der Farbinformationen. Scheint sich aber nicht so recht durchgesetzt zu haben

Am 1.12.2023 um 07:45 schrieb GeorgeTheMerlin:

Einige Lehrer, wie Krolop & Gerst, schlagen ja vor, zum Fotografieren eine SW Einstellung für das Display zu benutzen, um das Foto auf dem Display nach Luminanzen auszurichten, ohne sich von Farbe stören zu lassen. Im RAW Entwickler könne man das Bild dann wahlweise in Farbe entwickeln.

das ist eine gute Einstellung zum lernen, ich mache das auch heute noch manchmal ... vor allem, weil ich dann gleich ein Acrosbild habe, mit dem RAW kann ich dann eh machen was ich will ... aber Acros ist einfach fertig aus der Kamera zu nutzen, grandiose Filmsimulation

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb nightstalker:

Sinnvoll wäre es wohl, wenn man neutrale Pixel ins Muster aufnimmt, (da gabs doch schon Kameras, die sowas versuchten) und aus diesen ein Histogramm erzeugt ... die Idee bei diesen Pixel war wohl auch ein verbessertes Rauschverhalten ... auf Kosten der Farbinformationen. Scheint sich aber nicht so recht durchgesetzt zu haben

Kodak hat das mal probiert. Aber was ist aus Kodak geworden … (Und die Idee mit dem besseren Rauschverhalten war auch nicht wirklich durchdacht, was das betrifft.)

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb nightstalker:

Ja, schade eigentlich

Zu dem Filtermuster mit klaren statt grünen Filtern hatte ich mal etwas im DOCMA-Blog geschrieben, aber anscheinend schraubt gerade jemand an der Website, weshalb sie im Moment nicht funktioniert und ich es nicht heraussuchen kann.

Link zum Beitrag
Auf anderen Seiten teilen

vor 33 Minuten schrieb nightstalker:

kurze Zusammenfassung in ein paar Zeilen? Wäre nett ..

Sensorpixel mit Klarglasfiltern sind etwa doppelt so empfindlich wie solche mit grünen Filtern. Das klingt ja erst einmal gut, aber: Da man immer so belichten muss, dass die empfindlichsten Pixel nicht übersteuern, muss man den Sensor um eine Blendenstufe knapper belichten. Das bedeutet aber, dass die rot- und blauempfindlichen Pixel nur noch halb so viel Licht abbekommen und es daher mehr Rauschen im Rot- und Blaukanal gibt. Um die Werte für einen Grünkanal zu berechnen, muss man von den Werten der Klarglasfilterpixel die Rot- und Blauwerte abziehen, und jede Subtraktion erhöht das Rauschen, weshalb man sie normalerweise zu vermeiden sucht. Und dann sind die Rot- und Blauwerte, wie erwähnt, ja selbst bereits stärker verrauscht, was dann auf den Grünkanal durchschlägt. So bekommt man kein besseres, sondern ganz im Gegenteil ein schlechteres Rauschverhalten als mit einem traditionellen Rot/Grün/Blau-Filtermuster, sei es nun Bayer oder X-Trans.

Kein Wunder, dass sich diese Schnapsidee nicht durchgesetzt hat.

Link zum Beitrag
Auf anderen Seiten teilen

vor 28 Minuten schrieb mjh:

Kein Wunder, dass sich diese Schnapsidee nicht durchgesetzt hat.

Hmm, klingt, als müsste man für die klaren Pixel Sensoren mit höherer Kapazität verwenden, ähnlich wie Fuji es damals mit den S und R Pixeln im Super CCD Sensor gemacht hat ... 

in der Grafik, die ich damals über den Sensor mit den klaren Pixeln gesehen hatte, waren RGBK Pixel, also Grün wäre dabei gewesen (ich weiss allerdings nicht mehr, ob das eine theoretische Konstruktion war, oder ob das so wirklich jemand geplant hatte) 

(das wäre dann die umgekehrte Version von Sonys White Magic Displays .... wobei man bei der Wiedergabe eher diese Probleme nicht erwarten sollte)

Vielen Dank für die Erklärung, an diese Probleme hatte ich bislang nicht gedacht, mich nur gewundert, dass diese Konstruktion irgendwie nicht mehr erwähnt wurde 👍

Link zum Beitrag
Auf anderen Seiten teilen

vor 21 Stunden schrieb nightstalker:

weil die farbmaskierten Sensoren nicht die gleiche Sättigung durch das einfallende Licht erreichen

Ja, aber ausgebrannt ist ausgebrannt. Oder passiert das erst nach dem Demosaiken? Ich denke, es passiert schon hinter den Farbmasken und nicht erst im JPG.

Das Histogramm meines Beispiels zeigt auch keine Durchschnittswerte, sondern die Verteilung der Helligkeitswerte hinter den Filtern.

Die spektrale Überschneidung der Farbfilter ist wahrscheinlich so groß, dass man selbst das Absaufen von Schatten anhand der Sensordaten durch Minimalwerte beurteilen könnte. Denn so grün ist wohl nichts, dass nicht auch noch was durch das Rot- und/oder das Blaufilter geht (bzw. sind die Filter nicht genau genug).

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb RAWky:

Ja, aber ausgebrannt ist ausgebrannt. Oder passiert das erst nach dem Demosaiken? Ich denke, es passiert schon hinter den Farbmasken und nicht erst im JPG.

ausgebrannt ist, wenn der einzelne Sensor gesättig ist ... also mehr Kapazität (grösserer Sensel) = nicht so schnell überfüllt = noch Tonwert errechenbar

Deshalb ja auch meine Überlegung es wie beim Super CCD mit verschieden grossen Rezeptoren zu machen (was natürlich alles nur blanke Spinnerei ist ... bin leider ja kein echter Fachmann 😉 ... mal sehen was @mjh dazu sagt)

vor 4 Stunden schrieb RAWky:

Ich denke, es passiert schon hinter den Farbmasken und nicht erst im JPG.

ja, natürlich, aber die Farbmaske schirmt einen ziemlichen Teil des Lichts ab, weshalb der Sensorpixel abhängig von der Filterfarbe halt weniger empfindlich ist, als es ein klarer Pixel wäre

Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Stunden schrieb nightstalker:

in der Grafik, die ich damals über den Sensor mit den klaren Pixeln gesehen hatte, waren RGBK Pixel, also Grün wäre dabei gewesen (ich weiss allerdings nicht mehr, ob das eine theoretische Konstruktion war, oder ob das so wirklich jemand geplant hatte) 

Es gab damals mehrere Vorschläge, teils mit klaren Filtern statt der grünen, teils mit einer Kombination aus klar und grün, und das alles in verschiedenen Mustern. Es gab auch Experimente mit gelben statt grünen Filtern. Die Problematik bleibt aber immer dieselbe: Die Belichtung muss sich immer an den empfindlichsten Pixeln orientieren, und da die weniger empfindlichen Pixel dabei benachteiligt werden, ist es am besten, wenn alle Pixel gleich empfindlich sind. Vollständig lässt sich das nicht verwirklichen, denn die Grünfilter müssen einen relativ breiten Durchlassbereich haben, der sich mit dem der Rot- und Blaufilter überlappt, so dass sie grünen Pixel immer ein bisschen empfindlicher als die anderen sind. Aber wenn man stattdessen oder zusätzlich klare (oder gelbe) Filter verwendet, verschärft sich das Problem.

Zum Ausgleich könnte man zwar theoretisch die Ladungskapazität der empfindlicheren Pixel vergrößern, aber dafür fehlt der Platz.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb RAWky:

Das Histogramm meines Beispiels zeigt auch keine Durchschnittswerte, sondern die Verteilung der Helligkeitswerte hinter den Filtern.

In dem Fall ist es kein Luminanz-Histogramm, sondern die Addition der Histogramme für Rot, Grün und Blau. Kann man so machen, aber warum Informationen in den Rohdaten wegwerfen, wenn man doch auch gleich die drei Histogramme selbst anzeigen könnte?

Link zum Beitrag
Auf anderen Seiten teilen

Wer ein RAW-nahes Histogramm bei der Aufnahme sehen möchte, kann sich auch UniWB-Einstellungen zusammenbasteln. Im Internet gibt es diverse Anleitungen dafür, meine Methode kann man unter  https://rebohm.de/2020/02/die-uniwb-einstellung/ finden. Allerdings sind dann die jpegs unbrauchbar und das Displaybild sieht wegen der höheren Empfindlichkeit der „grünen“ Pixel dann auch grünlich aus. Ich benutze die UniWB-Einstellung manchmal, wenn es kritisch ist, und schalte dann für die Bildkomposition in den Live-Modus um.

Link zum Beitrag
Auf anderen Seiten teilen

Ja, das funktioniert in der Tat erfreulich gut. Gut ist dabei auch, dass die Belichtungssimulation von DR-P und DR bei den neuesten Kameras und aktueller Firmware nun nicht mehr (so oft) abzustürzen scheint. Bei der GFX100II hatte ich bisher – soweit ich weiß – noch nicht den Fall, dass WYSIWYG ausgefallen ist. Bei der T5 war das vor einem Jahr auf dem Weihnachtsmarkt in Dresden noch anders.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...