Jump to content

Belichtungskorrektur


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Woher weißt Du bei der mittenbetonten oder der Spotmessung, wie groß der Bereich ist, der angemessen wird? Auch da gibt es Unsicherheiten.

 

Nein, keine Unsicherheiten, ganz besonders bei der Spotmessung ist es sowas von glasklar. Zudem ist die Spotmessung bei den Fujis auch noch auf Wunsch dermaßen kleine einzustellen das man damit im Motiv ungemein präzise auch kleinste Bereiche anmessen kann (im Gegensatz zu den 1-2% Spotmessfeldern der älteren Kameras ein schöner Vorteil).

 

Erfahrung setzt auch "Deine" Methode voraus.

 

In erster Linie setzt sie "einfach" estmal Wissen voraus.

Link zum Beitrag
Auf anderen Seiten teilen

Nein, keine Unsicherheiten, ganz besonders bei der Spotmessung ist es sowas von glasklar. Zudem ist die Spotmessung bei den Fujis auch noch auf Wunsch dermaßen kleine einzustellen das man damit im Motiv ungemein präzise auch kleinste Bereiche anmessen kann (im Gegensatz zu den 1-2% Spotmessfeldern der älteren Kameras ein schöner Vorteil).

 

Stimmt, Du hattest aber vorher ausdrücklich auch auf DSLR's referenziert.

Wie handhabst Du die todsichere Art der Messung bei einer Canon, bei der es keine Verknüpfung von AF-Feld und Belichtungsmessung gibt? Dort musst Du dann mit AE-Speicherung und Verschwenken arbeiten, was bei bewegten Motiven wiederum schwierig wird.

Link zum Beitrag
Auf anderen Seiten teilen

Ich bezog mich darauf. Natürlich wird es nicht erst im fertigen Bild "ersichtlich", ob die durch die per Lichtwaage angezeigte Messung dem entspricht was der Fotograf auch will. Wäre es so, man könnte mit einer analogen Kamera nicht arbeiten.

Verstehe ich nicht. Bei Analog hatte man keine solch aussagekräftige Möglichkeit (Live-Belichtungsvorschau) die Belichtung zu kontrollieren. Klar bietet die Lichtwaage gewisse Sicherheit, aber wie das Bild am Ende aussieht, weiß man erst, wenn es fertig entwickelt war.

 

Schrieb ich das so?

Ja, Du hast mein "nachjustieren" kritisiert, was bei deiner Methode angeblich nicht notwendig ist.

 

Was richtig ist: Für diejenigen die nicht wissen wie man das anstellt, ist der EVF "WYSIWYG" ideal, keine Frage. Drückt man denen, die es nur so "gelernt" haben allerdings eine DSLR (ohne Liveview) in die Hand, dann können sie .. nichts, zumindest nicht auf Anhieb.

Will ich das? Bin doch unter anderem genau deswegen von DSLR zu DSLM gewechselt. Ich gebe in meinem Auto ja auch kein Zwischengas, nur weil ich vielleicht irgendwann mal eins fahren könnte, bei dem man das wirklich braucht. Ich beschäftige mich mit so etwas erst, wenn ich es brauche.

Ich brauche gar nicht zu wissen "wie man das anstellt". Ich sehe das Bild im Sucher oder auf dem Display, beurteile die Belichtung direkt am Bild, und das war's. Das ist ebenso reproduzierbar und eine einfachere Methode kann ich mir nicht vorstellen. Das ist so intuitiv, dass sogar Menschen, die keine Ahnung von Fotografie haben, die Belichtung beurteilen und mit einer 2-Sätze-Anleitung auch korrigieren könnten. Kein Anmessen erforderlich, kein Wissen über Belichtungsmessung erforderlich, kein Wissen über die Lichtwaage erforderlich, Größe des Messbereichs irrelevant. Bild zu hell, drehe diesen Regler in die Richtung. Bild zu dunkel, drehe den Regler in die andere Richtung. Auswirkung des Drehens an diesem Regler sieht man sofort auf dem Display. Kinderleicht.

Link zum Beitrag
Auf anderen Seiten teilen

... Kinderleicht.

 

Gilt aber nur, solange man in JPG fotografiert, weil es kein LiveView für RAW gibt. Allerdings helfen gute JPG-Einstellungen, sich dem RAW bestmöglich anzunähern. Sicherer als bei einer DSLR funktioniert es allemal.

Link zum Beitrag
Auf anderen Seiten teilen

Ja, Du hast mein "nachjustieren" kritisiert, was bei deiner Methode angeblich nicht notwendig ist.

 

Nein. Ich schrieb nichts davon eine Einstellung für alle weiteren Bilder ohne nachjustieren beizubehalten. Was gemeint war von mir: Ich stelle meine Belichtung ein und brauche diese für dieses Bild garantiert nicht mehr nachzujustieren, aufgrund einer Fehlbelichtung, also nachdem ich das "fertige" Bild gesehen habe feststellen mußte, das es nicht passte.

 

Ich brauche gar nicht zu wissen..

 

Das ist so intuitiv, dass sogar Menschen, die keine Ahnung von Fotografie haben, die Belichtung beurteilen und mit einer 2-Sätze-Anleitung auch korrigieren könnten..

 

kein Wissen über Belichtungsmessung erforderlich..

 

kein Wissen über die Lichtwaage erforderlich, Größe des Messbereichs irrelevant. Bild zu hell, drehe diesen Regler in die Richtung. Bild zu dunkel, drehe den Regler in die andere Richtung. Auswirkung des Drehens an diesem Regler sieht man sofort auf dem Display. Kinderleicht.

 

Jetzt verstehe ich besser. Das scheint für mich(!) auch einer der großen Erfolge für die Spiegellosen Kameras zu sein, ein Eldorado für Nichtwisser. Zeitgeist. Der EVF quasi als "Kamera-google" der Nichtwisser. (Achtung Polemik).

 

Ich will aber hier keinen überzeugen es so oder so zu tun, keinesfalls, mir ist das ziemlich wurschd, nur finde ich es eben mindestens seltam, wenn der EVF am Ende präziser sein soll als die Kombination aus Belichtungsmesser und Wissen. Und jaaa, die "Korrigier-Hindreh-Methode" ist "präziser" und auch schneller für Nichtwisser, das stimmt, weil sie es anders einfach nicht können. Komischerweise rechnet aber keiner die Zeit mit ein die es braucht das Bild zweimal wiederholen zu müssen weil es beim ersten mal nicht passte.

Link zum Beitrag
Auf anderen Seiten teilen

Im Liveview habe ich ein Bild. Schwarzweiß oder Farbe. Ich kann die Helligkeit in jedem Bildbereich bewerten und ich kann Kontraste vergleichen und Zeichnung in den Lichtern und Schatten sehen oder nicht.

Im Vergleich zum Histogramm sehe ich im Liveview welche Bildbereiche wie hell sind und nicht nur eine statistische Verteilung.

 

Und jetzt kommst du mit deiner Belichtungsmessung auf einen Punkt.

 

Klar ist der Liveview in jeder Beziehung einem Belichtungsmesser überlegen.

 

Wenn es um ergebnisorientiertes Arbeiten arbeitet dein „Nichtwisser“ nicht schlechter als der Experte.

Es gibt Menschen die 100m unter 10 Sekunden laufen. Wenn es nur darum geht 100m zurückzulegen, egal wie und in welcher Zeit, ist das Können des Sprinters völlig unerheblich fürs Ergebnis.

 

 

Gruß Christian

 

◟(◔ั₀◔ั )◞ happy wife, happy life.

https://www.instagram.com/chrischi74/

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Klar ist der Liveview in jeder Beziehung einem Belichtungsmesser überlegen.

 

Das kann man behaupten, wenn man nur mit Liveview überhaupt ein Bild unfallfrei zustande bringt. Ich kritisiere das nicht, nur die vehemente Ansicht, das der EVF am Ende des Tages der bessere Belichtungsmesser sein soll. Der Belichtungsmesser funktioniert, im Gegensatz zum EVF und dem Histogramm, unabhängig von den eingestellten jpeg Parametern, den eingestellten EVF Parametern und unabhängig vom Weißabgleich.

 

Und jetzt kommst du mit deiner Belichtungsmessung auf einen Punkt.

 

...und bringe damit jedes Motiv belichtungstechnisch auf den Punkt, ja, nämlich genau dahin wo ich es hinhaben möchte. Da ist ein (kleiner) Messpunkt unschlagbar. Ergebnisorientierter geht es für mich nimmer. Und ich möchte im Sucher auch kein Live-Histogramm oder Zebras und sonstiges Getier sehen, ich möchte das Motiv sehen, am Rand eine Lichtwaage und sonst nichts anderes. Das geht zum Glück.

 

Frage: Warum hatte Fuji wohl die geniale Idee (oder wer auch immer es zuerst implementiert hat) gehabt, das Spotmessfeld so hübsch klein machen zu können? Wozu, wenn der EVF doch eh klar überlegen ist. Das müßte sich doch eigentlich auch bei den Doofen herumgesprochen haben die sowas noch benutzen (können). Fuji wird es auch wissen und baut glücklicherweise diese Funktionen ein und trimmt ihre Knipsen nicht ausschließlich auf die wissensbefreiten "WYSIWYG-Kunden sondern auch auf die WYGIWYW-Kunden (What you get is what you want) - also die mit Grundlagenwissen.

Link zum Beitrag
Auf anderen Seiten teilen

Reichlich überheblich deine Äußerungen.

Sicherlich gibts aus der analogen Filmzeit einige Ingenieure die hier Wissen mit Experimenten und Rechnerei erarbeitet haben.

Das was du beschreibst ist lediglich Erfahrung die meistens mit try & error erworben wurde. Oder anders: Die Oberschlauen haben das Bügeleisen einmal angefasst um die Erfahrung gemacht zu haben, dass es heiß ist.

 

Belichte du mal weiter, während ich Bilder mache.

 

Gruß Christian

 

◟(◔ั₀◔ั )◞ happy wife, happy life.

https://www.instagram.com/chrischi74/

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

Was im übrigen bis heute nicht wiederlegt wurde.. nach wie vor clippt der grün-kanal im raw zuerst, faktisch nachweisbar. :cool:

 

Hach, Du bist es wirkllch... :D

Bei mir clippen immer am ehesten Rot und Blau, vielleicht bist Du einfach mehr im Wald unterwegs. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Bei mir clippen immer am ehesten Rot und Blau, vielleicht bist Du einfach mehr im Wald unterwegs. ;)

 

Das geht technisch nicht. Nur im jepg, aber nicht im raw.

Mit jedem raw Analysetool einsehbar. Keine Erfindung von mir.

 

PS:

Und es ist unabhängig von den Motivfarben.

bearbeitet von nurlesen
Link zum Beitrag
Auf anderen Seiten teilen

Ihr diskutiert hier beide sehr polarisiert. Fakt ist doch aber, dass alle Varianten so ihre Nachteile und Vorteile haben. Das kann ich jedenfalls so auch nicht akzeptieren:

 

 

Mit dem Liveview hast du eine Messung über viele Millionen Bildpunkte über die gesamte Sensorfläche in verschiedenen Farbkanälen.

Aufbereitet in einer intuitiv verständlichen Grafik nämlich dem Vorschaubild. Die Korrekturwerte aus den JPEG-Entwicklungsparametern sind schon einbezogen.

 

Und jetzt kommt dein Spot-Belichtungsmesser mit dem Lineal. Klar funktioniert das.

 

Dennoch ist der Liveview um ein Vielfaches komplexer und liefert viel mehr Informationen, die ich dennoch schneller und umfassender verstehe, weil es eben ein Bild ist und keine Zahl.

Im Bild kann ich genau bewerten in wie weit eine Belichtungsverschiebung die von mir gewollte Bildwirkung stärkt oder schwächt. Ich kann bewerten ob Schattenbereiche oder Lichter überhaupt soweit Bildaussage-relevant sind, dass ich sie in der Belichtung berücksichtigen muss. ... Bei eurer Messerei und Rechnerei vergesst ihr glatt dass es ums Bilder machen geht.

 

 

Gruß Christian

 

◟(◔ั₀◔ั )◞ happy wife, happy life.

https://www.instagram.com/chrischi74/

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

Hach, Du bist es wirkllch... :D

Bei mir clippen immer am ehesten Rot und Blau, vielleicht bist Du einfach mehr im Wald unterwegs. ;)

Wie ich damals dargelegt habe: Selbst im Wald gilt das nicht, denn für's Clipping ist ja ausschließlich die Helligkeit des jeweiligen Kanals ausschlaggebend. Nicht der Grünanteil als Ganzes.

Link zum Beitrag
Auf anderen Seiten teilen

Das geht technisch nicht. Nur im jepg, aber nicht im raw.

Mit jedem raw Analysetool einsehbar. Keine Erfindung von mir.

Ist es doch. Theoretisch und Praktisch macht das keinen Sinn. Theoretisch sind nämlich die Ränder des Bandes zwangsläufig gefährdeter, weil eben auch schon nahes IR und UV zur Sättigung beitragen. Die gleiche Logik, nach der es eben rote, orange, gelbe, weiße und blaue Sterne gibt - aber KEINE grünen. Und praktisch, weil alle real vorkommenden Farbverschiebungen durch Clipping eben gerade nicht auf Grün zurückzuführen sind, sie verschieben sich nämlich immer Richtung Grün (Rot > Orange oder Blau > Cyan beispielsweise).

bearbeitet von tabbycat
Link zum Beitrag
Auf anderen Seiten teilen

Dennoch ist der Liveview um ein Vielfaches komplexer und liefert viel mehr Informationen, die ich dennoch schneller und umfassender verstehe, weil es eben ein Bild ist und keine Zahl.

 

Darum (fetter Text) ist es auch völlig in Ordnung, und für mich kein Problem, wenn Du so arbeitest und so schneller zum Ziel kommst. Die Begründung stimmt allerdings so pauschal eben nicht. Der (Mini)Spotbelichtungsmesser und die Lichtwaage liefern alle Informationen die man braucht (für raw sowieso erst recht).

Link zum Beitrag
Auf anderen Seiten teilen

Wie ich damals dargelegt habe: Selbst im Wald gilt das nicht, denn für's Clipping ist ja ausschließlich die Helligkeit des jeweiligen Kanals ausschlaggebend. Nicht der Grünanteil als Ganzes.

 

Ja klar, das mit dem Wald war natürlich ein Scherz. ;)

Link zum Beitrag
Auf anderen Seiten teilen

Ist es doch. Theoretisch und Praktisch macht das keinen Sinn. Theoretisch sind nämlich die Ränder des Bandes zwangsläufig gefährdeter, weil eben auch schon nahes IR und UV zur Sättigung beitragen. Die gleiche Logik, nach der es eben rote, orange, gelbe, weiße und blaue Sterne gibt - aber KEINE grünen. Und praktisch, weil alle real vorkommenden Farbverschiebungen durch Clipping eben gerade nicht auf Grün zurückzuführen sind, sie verschieben sich nämlich immer Richtung Grün (Rot > Orange oder Blau > Cyan beispielsweise).

 

Kannst Du mir ein raw Histogramm zeigen bei dem das so ist?

Link zum Beitrag
Auf anderen Seiten teilen

Aber ich habe gerade auf der Kamera die letzten zwei Dutzend Bilder durch gescrollt und mir die JPG-Histogramme angeschaut (weswegen die weniger aussagekräftig sind darfst du gern mal begründen, würde ja bedingen, dass jede Entwicklung den Grünkanal stärker reduziert und im Falle von Clipping den harten Abriss auch noch zurecht mappt).Und oh Wunder: Darin befindet sich ein einziges Bild, bei dem die Kanäle etwa gleich sind (recht geringer Kontrastumfang, keine Gefahr irgendeines Clippings), bei allen anderen ist ganz klar und eindeutig entweder blau oder rot vorn.

bearbeitet von tabbycat
Link zum Beitrag
Auf anderen Seiten teilen

Aber ich habe gerade auf der Kamera die letzten zwei Dutzend Bilder durch gescrollt und mir die JPG-Histogramme angeschaut (weswegen die weniger aussagekräftig sind darfst du gern mal begründen, würde ja bedingen, dass jede Entwicklung den Grünkanal stärker reduziert und im Falle von Clipping den harten Abriss auch noch zurecht mappt).Und oh Wunder: Darin befindet sich ein einziges Bild, bei dem die Kanäle etwa gleich sind (recht geringer Kontrastumfang, keine Gefahr irgendeines Clippings), bei allen anderen ist ganz klar und eindeutig entweder blau oder rot vorn.

 

ok. für den Post (fetter Text) bin ich Dir sehr dankbar (ohne Ironie), denn jetzt verstehe, ich warum wir uns nicht verstehen, bzw. Du mich nicht. Um so mehr wundert es mich doch, das Du (und mepe natürlich auch) so vehement gegen meine Aussage bezgl. des Grünkanals angehst. Wenn ich Dir begründen muß, warum die jpeg Histogramme weniger aussagekräftig sind, dann scheinst Du wirklich nicht zu wissen worum es hier geht.

 

..und mir die JPG-Histogramme angeschaut (weswegen die weniger aussagekräftig sind darfst du gern mal begründen,....)

 

Weil die jpeg Histogramme (also die jpegs natürlich), im Gegensatz zu den raw Histogrammen, bereits entscheidende Korrekturen erfahren haben (u.a. Weißabgleich, Gamma, usw.).

Wie ich ja schonmal schrieb ist es natürlich richtig, das in diesen(!) auch rot und blau (in der Regel) dominieren (zuerst clippen), NICHT aber in dem zugrundeliegendem raw file.

 

..würde ja bedingen, dass jede Entwicklung den Grünkanal stärker reduziert und im Falle von Clipping den harten Abriss auch noch zurecht mappt).

 

grün wird nicht reduziert, blau und rot wird erhöht (nennt sich Weißabgleich). Diese beiden Kanäle sind also quasi immer unterbelichtet und darum enthalten rot und blau auch den höheren Rauschanteil. Am Rande: Es gab zwar auch Kameras (Nikon?) welche mal bereits auch den WB in den raw Dateien vollstreckt haben, das haben die aber auch ganz schnell wieder gelassen.

 

Und oh Wunder: (...) bei allen anderen ist ganz klar und eindeutig entweder blau oder rot vorn.

 

Und, oh, jetzt eigentlich kein Wunder mehr, siehe oben.

 

Ich war mal so nett und bin über dieses "Stöckchen" gesprungen, wohlgesonnen wie ich bin.  :cool:

Link zum Beitrag
Auf anderen Seiten teilen

grün wird nicht reduziert, blau und rot wird erhöht (nennt sich Weißabgleich). Diese beiden Kanäle sind also quasi immer unterbelichtet und darum enthalten rot und blau auch den höheren Rauschanteil.

Ja genau, Rot UND Blau. Macht natürlich Sinn, Blau zuzugeben wenn zu kalt oder Rot wenn zu warm. Ist doch wohl eher ein ODER. Abgesehen davon, dass bei hohen Kontrastumfängen der WB nicht selten neutral raus kommt. Wenn ich mir die zwei Dutzend erwähnten Bilder von oben anschaue: Alles bei schönstem Sonnenschein, eine erzwungene Entwicklung mit 5500 K ergibt keine Verschiebung. Kurz: deine Begründung kannst du vergessen. Und sie widerlegt ja, selbst wenn zutreffend, auch keineswegs die theoretischen und praktischen Grundlagen, die ich oben beschrieb.

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...