Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Hallo zusammen,

Ihr kennt das: Man macht ein Foto bei bestem Wetter in einer mehr oder weniger engen Gasse der Altstadt. Die Dynamik ist so groß, dass sie nicht ins Jpeg passt, d.h. die Schattenpartien sind fast schwarz und die von der Sonnen beschienenen Giebel und der Himmel brennen aus.

- Die beste Methode wäre wohl, diese Szene unterschiedlich zu belichten und zuhause zusammenzubauen. Das ist natürlich zeitaufwändig.

- Das Ausbrennen wird ja von der Einstellung „Dynamic Range“ = „Auto“ super abgefangen. Großes Kompliment an Fuji, das klappt toll. Das Problem ist schonmal gelöst. 

- Ich habe gestern mal mit der HDR-Funktion meiner XT30 experimentiert. Die arbeitet so dezent, dass man sich das schenken kann. Nur in der Extrem-Einstellung passierte bei mir was. Da werden die Schatte aber sehr flau/kontrastarm. Gefällt mir nicht. Müsste man in der Nachbearbeitung korrigieren.

- Bisher mit den alten Kameras habe ich in solchen Fällen immer die Gradationskurven verbogen (Tone Curve). So richtig zufrieden war ich da aber auch nicht. Zumal mir nicht klar ist, ob die Funktion nur innerhalb der 256-Bit-Jpeg-Dynamik arbeitet, oder - was ich hoffe - im Dynamikbereich des Sensors, um dann erst die komprimierte Dynamik ins Jpeg-Format zu umrechnen.

- Neuere Kameras bieten ja auch die Funktion „D Range Priority“, die wohl Dynamic Range und die Gradationkurven automatisch einstellt. Das hatte ich mal kurz probiert und war eigentlich ganz angetan.

Also Ihr seht schon: Ich habe mein Problem noch nicht gelöst. Deshalb die Frage in die Runde: Wie haltet Ihr das?

Link zum Beitrag
Auf anderen Seiten teilen

Mit DR-P oder DR (plus Tonkurve) kann man auch krasseste Kontraste problemlos in ein JPEG pressen, ohne dass was ausfrisst oder absäuft. Ich weiß gar nicht, wie viele solche Motive alleine ich hier SOOC im Forum gepostet habe, aber sicher Dutzende. 

Ansonsten halt einfach mit Lightroom bearbeiten und die Tonwertkorrektur dort erledigen. Oder es wie Jonas Rask machen, Schatten absaufen lassen und daraus ein erfolgreiches Markenzeichen entwickeln. Man muss ja nicht immer alles sehen.

Und für ganz Wilde gibt's ja auch noch die eingebaute HDR-Funktion mit HDR800PLUS. Wenn man die korrekt bedient (was immerhin bis zu 0,02% der User machen), bekommt man wirklich extrem viel Dynamikumfang in ein JPEG, die Funktion bietet schließlich allein ± 3 EV Extra-DR über die Belichtung PLUS die Tonwertkorrektur. Wenn man dann noch eine weiche Filmsim wie Eterna hinzunimmt und das Ganze als TIFF statt JPEG speichert, bekommt man eine Art Super-F-Log für Fotos.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 29 Minuten schrieb weebee:

- Das Ausbrennen wird ja von der Einstellung „Dynamic Range“ = „Auto“ super abgefangen. Großes Kompliment an Fuji, das klappt toll. Das Problem ist schonmal gelöst. 

 

Das ist bei mir so ziemlich das einzige Setting, das man eher nicht verwenden sollte – aber gut, verboten ist es natürlich nicht. Dass diese Einstellung Probleme löst, kann ich jedenfalls nicht sagen, dass die einige neue Probleme schafft, hingegen schon.

Zugegeben: Wenn man weiß, was man tut und die AE-Lock-Funktion perfekt in einen DR-AUTO-Workflow mit Auto-ISO und Belichtungsautomatik integriert, kann man auch mit DR-AUTO korrekt belichten, das stimmt schon. Das habe ich ja selbst gerade erst in meinen letzten Fujilove-Artikeln ausführlich beschrieben – falls das jemand nachlesen möchte. Ich will die Funktion deshalb auch nicht pauschal verdammen, aber meiner Erfahrung nach wird sie vor allem von Usern benutzt, bei denen eine korrekte Belichtung ohnehin mehr Zufall als Absicht ist. So wirklich bewusst und korrekt eingesetzt wird sie deshalb wohl eher selten – denn wer bewusst korrekt belichtet, findet dafür meist einfachere Wege als via DR-AUTO. 

Link zum Beitrag
Auf anderen Seiten teilen

6 hours ago, Rico Pfirstinger said:

Mit DR-P oder DR (plus Tonkurve) kann man auch krasseste Kontraste problemlos in ein JPEG pressen, ohne dass was ausfrisst oder absäuft. Ich weiß gar nicht, wie viele solche Motive alleine ich hier SOOC im Forum gepostet habe, aber sicher Dutzende. 

 

Hast Du DR-P immer aktiv gelassen, oder nur bei sehr kontrastreichen Szenen eingeschaltet? Ich überlege, dass man die Funktion ja ggf. in der Einstellung „Auto“ immer eingeschaltet lassen kann …

Link zum Beitrag
Auf anderen Seiten teilen

Schön wäre es, wenn es irgendwo eine Grafik „Eingangsdynamik (Sensor) vs. Ausgangsdynamik (Jpeg)“ geben würde. Dann müsste man nicht rätseln. 

Ich denke mal laut:

Die Funktion „Dynamik“ komprimiert ja nur die Lichter und lässt die Tiefen unbeeinflusst - so wie ich das verstehe. Auf einer Grafik würden wir also eine Gerade sehen, die im oberen Bereich (Lichter) zunehmend abgeflacht wird. (Wie Fuji das intern gelöst hat, lasse ich jetzt mal außen vor.)

Das bräuchte ich auch für die Tiefen.

Für die „Tone Curves“ zeigt mir die Einstellungsseite meiner XT30 ja selbst die Kurven an. Sollte diese Darstellung stimmen und nicht nur symbolisiert sein, so lässt sich mit diesen beiden Parametern lediglich der Kontrast beeinflussen, nicht aber die außerhalb der Jpg liege Dynamik ins Jpeg hinüberretten (=komprimieren).

D.h. wenn man die Tiefen retten will, bleibt nur HDR? 

Hmm, oder die abgesoffenen Tiefen einfach so lassen, wie sie sind und ggf. in der Nachbearbeitung etwas pushen und damit leben, dass sie dann halt trotzdem etwas zu dunkel bleiben. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb weebee:

Hast Du DR-P immer aktiv gelassen, oder nur bei sehr kontrastreichen Szenen eingeschaltet? Ich überlege, dass man die Funktion ja ggf. in der Einstellung „Auto“ immer eingeschaltet lassen kann …

Die "Immer aktiv"-Methode habe ich glaube ich erstmals in meinem Buch zur X-T5 in einem eigenen Tipp beschrieben, aber natürlich nicht mit der AUTO-Einstellung, damit kann man ja nicht belichten (außer auch wieder mit der AE-L-Methode, die ich gerade in Fujilove beschrieben habe), sondern mit DR-P STRONG als Fixeinstellung, und natürlich alles im Modus M. Ausschlaggebend waren damals meine Tests und Erfahrungen in Venedig, wo es die hier genannten engen Gassen und Kanäle mit hohem Kontrast überall gibt.

Tatsächlich mache ich das bei Reisen also nun öfter so – das sieht auch jeder, der sich die entsprechenden Beispielbilder anschaut und dabei in die EXIF-Daten guckt. Allein schon die verwendeten ISO-Zahlen sind ein "dead giveaway". 😉

 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 12 Stunden schrieb weebee:

Schön wäre es, wenn es irgendwo eine Grafik „Eingangsdynamik (Sensor) vs. Ausgangsdynamik (Jpeg)“ geben würde. Dann müsste man nicht rätseln. 

Das hat DPR vor ca. 13 Jahren noch gemacht, als sie noch mit JPEGs getestet haben anstatt mit RAWs und dabei auch die DR-Funktion von Kameras (nicht nur von Fuji) intensiv einbezogen haben. Damals waren die Testberichte DPR noch sehr penibel, umfassend und tiefgründig, also nicht der peinliche Fremdschäm-Mist, den sie dort heute produzieren. Wobei Fuji-Kameras dort ohnehin kaum noch ernsthaft getestet werden, es bleibt meist bei folgenlosen Ankündigungen und Rumpftests. Ein guter Teil der aktuellen X und GFX Modelle findet sich dort nicht einmal mehr in der Studio-Szene wieder, geschweige denn in den standardisierten Tests für DR und ISO-Invarianz. DPR ist also leider praktisch tot, und das ist natürlich ausgesprochen schade.

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb weebee:

D.h. wenn man die Tiefen retten will, bleibt nur HDR? 

Über echte Belichtung, sprich mehr Photonen? Ja, klar. 

Über Tonwertkorrektur geht es natürlich immer, überall und jederzeit.

vor 12 Stunden schrieb weebee:

Hmm, oder die abgesoffenen Tiefen einfach so lassen, wie sie sind und ggf. in der Nachbearbeitung etwas pushen und damit leben, dass sie dann halt trotzdem etwas zu dunkel bleiben. 

In der Nachbearbeitung kann man an sich machen, was man will. Man braucht doch nur das RAW und einen passenden Konverter.

Mit DR-P kann wie gesagt sogar der Kamerakonverter eine Menge, sofern man sich diese Mühe machen will. Ich habe das ja oft genug selbst demonstriert, insofern ist die Faktenlage klar. Ob man sich diese Mühe wirklich machen will, ist dann eine andere Sache. Aber es geht. Als Ausgangsbasis ist dann allerdings DR-P STRONG bei der Aufnahme erforderlich, denn nur dann bietet der eingebaute RAW-Konverter einem alle Möglichkeiten und Funktionen. Man kann leider nicht nachträglich von DR400% auf DR-P STRONG umstellen, obwohl es dafür aus technischer Sicht keinen Grund gibt. Umgekehrt geht es aber, kein Problem.

Bei der HDR-Funktion ist es genauso, nur HDR800PLUS liefert alle Optionen auch nachträglich. Man kann also nicht von HDR800 auf HDR800PLUS nachträglich wechseln, in die andere Richtung jedoch schon. Auch hierfür gibt es keine technische Begründung, es ist halt einfach so, weil das jemand so beschlossen hat. Quasi "reine Schikane". 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Ich kann weder rausfinden, auf welcher Stufe zwischen Sensor (hohe Dynamik) und Jpeg (kleinere Dynamik) Fuji die Dynamikbearbeitung rechnet, noch was die da überhaupt rechnen. Wenn die „Tone Curves“ tatsächlich nur die Kontraste innerhalb des 8-Bit-Bereichs bearbeiten, dann hilft das ja nicht wirklich, um die Tiefen zu retten. Auch die Art und Weise wie Auto-Dynamik arbeitet, lässt vermuten, dass sie das in der 8-Bit-Ebene machen. 

Andererseits frage ich mich gerade, ob der Dynamikumfang des Sensors überhaupt so sehr viel größer ist, als der des 8-Bit-Jpeg-Formats. Also, ob es überhaupt sinnvoll bzw. möglich ist, den vermeintlich großen Sensor-Dynamikbereich in den vermeintlichen kleineren  8-Bit-Jpeg-Formats zu komprimieren. 

Zum eigentlichen Problem: Ich habe es einfach mal ausprobiert mit folgenden Ergebnissen:

- DR-P: Die Einstellungen „weak“ und „auto“ sind sehr dezent ausgelegt. Damit kommt man nicht weiter. Bei „strong“ erhält man aber tatsächlich sichtbarere Tiefen. Leider ist das ganze Bild flau. 

- HDR: Auch hier sind die kleinen Einstellungen viel zu dezent. Mit HDR800Plus erhielt ich ein fast identisches Ergebnis wie mit DR-P „strong“. Leider ist das auch hier ganze Bild flau. Und es ist unschärfer. Ich weiß nicht, ob ich zuviel gezappelt habe, oder ob die Software es nicht präzise schafft, die drei Bilder exakt übereinander auszurichten.

Wenn man sich die Histogramme der zu flauen Ergebnisse ansieht, fällt auf, dass sie gar nicht den gesamt-möglichen 8-Bit-Dynamikbereich nutzen.  Strecke ich diese in Photoshop, dann erhält man tatsächlich knackige Bilder. Und: Die Tiefen saufen nicht mehr völlig ab. 😀 Ziel erreicht. 

bearbeitet von weebee
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb weebee:

Wenn die „Tone Curves“ tatsächlich nur die Kontraste innerhalb des 8-Bit-Bereichs bearbeiten, dann hilft das ja nicht wirklich, um die Tiefen zu retten. Auch die Art und Weise wie Auto-Dynamik arbeitet, lässt vermuten, dass sie das in der 8-Bit-Ebene machen.

Bei einer Raw-Konvertierung in der Kamera erst einmal auf 8-Bit zu komprimieren (wobei ja notgedrungen bereits ein Tonwertkurve angewandt würde), um die Tonwerte dann noch einmal weiter zu bearbeiten, wäre völlig sinnfrei. So funktioniert das nicht. Die Umwandlung in die 8 Bit eines JPEG passiert immer erst ganz zum Schluss.

 

vor einer Stunde schrieb weebee:

Andererseits frage ich mich gerade, ob der Dynamikumfang des Sensors überhaupt so sehr viel größer ist, als der des 8-Bit-Jpeg-Formats. Also, ob es überhaupt sinnvoll bzw. möglich ist, den vermeintlich großen Sensor-Dynamikbereich in den vermeintlichen kleineren  8-Bit-Jpeg-Formats zu komprimieren. 

Die 8 Bit pro Kanal eines JPEG haben nichts mit einem Dynamikumfang zu tun; sie besagen nur, dass in jedem Kanal 256 Tonwerte unterschieden werden. Der Dynamikumfang, der mit diesen 8 Bit wiedergegeben wird, ist in der Regel deutlich größer. Und dass der Sensor einen größeren Dynamikumfang bewältigt, ist eh klar.

Link zum Beitrag
Auf anderen Seiten teilen

1 hour ago, mjh said:

Bei einer Raw-Konvertierung in der Kamera erst einmal auf 8-Bit zu komprimieren (wobei ja notgedrungen bereits ein Tonwertkurve angewandt würde), um die Tonwerte dann noch einmal weiter zu bearbeiten, wäre völlig sinnfrei. So funktioniert das nicht. Die Umwandlung in die 8 Bit eines JPEG passiert immer erst ganz zum Schluss.

Sehe ich genauso. Ich hoffe, die mache es auch so.

Weißt Du wie groß der Dynamikumfang von aktuellen Sensoren ist? Ich habe irgendwo was von 40 dB gelesen. Das kann aber nicht sein. Vielleicht 10 Bit = 60 dB? Oder rechnen die mit den Energie-dBs? Dann wären das etwa 1:10.000 bzw. 13 Bit. Erscheint mir mir aber zu hoch.

bearbeitet von weebee
Link zum Beitrag
Auf anderen Seiten teilen

Also ich mache da gerne Testaufnahmen und schaue dann, wie gut mein jeweiliger Workflow (oder verschiedene Workflows) damit klarkommen, wie brauchbar das Ergebnis also aus meiner subjektiven Sicht ist. Denn nur auf die kommt es am Ende schließlich an, es ist ja letztlich die Entscheidung des Benutzers, was er als "gut genug" betrachtet. Alternativ kann an auch versuchen, passende Testaufnahmen auf DPR zu finden und die RAWs herunterzuladen, aber das wird zunehmend schwieriger, siehe oben. 

Wir haben hier nicht umsonst mehrere ellenlange Threads zu verschiedenen Workflows und Hilfsmitteln gemacht, mit deren Hilfe man den maximalen Dynamikumfang aus RAWs herausholen kann. Das ist durchaus ein wichtiges Thema, erst neulich wurde es wieder aufgewärmt im Kontext der neuen PureRAW-Version, deren lineare DNGs in Lightroom durchaus einiges bewirken können. Oder die Combo mit linearen DNGs aus X-Transformer plus Bearbeiten und KI-Entrauschen in Lightroom.

Die Frage, welchen Dynamikumfang ein bestimmter Sensor hat, ist per se also erst einmal ziemlich sinnfrei, weil man für eine sinnvolle Antwort eine ganze Reihe von Rahmenbedingungen festlegen muss, inkl. Workflow. Das gefällt natürlich solchen Leuten nicht, die nach einfachen Antworten suchen oder Kameraquartett spielen wollen. Klar ist: Mit einem besseren Workflow holt man womöglich aus einem APS-C-Sensor mehr DR heraus als ein anderer User mit einer GFX. Und es kommt auch schon mal vor, dass Leute sich teuerste Kameras und Objektive kaufen, dann aber beim RAW-Konverter und den dazu passenden Workflow-Tools sparen. Und sei es nur deshalb, weil so ein Abo ganz doll böse ist. 😅

So als Trend kann man sicher festhalten, dass heute aus den RAW-Daten einiges mehr herausholen kann als vor 10 Jahren. Es hat sich also gelohnt, die RAWs von damals aufzubewahren, selbst wenn man seinerzeit noch keine ansprechenden Ergebnisse aus ihnen herauskitzeln konnte. 

Link zum Beitrag
Auf anderen Seiten teilen

Am 27.9.2025 um 18:42 schrieb weebee:

Weißt Du wie groß der Dynamikumfang von aktuellen Sensoren ist? Ich habe irgendwo was von 40 dB gelesen. Das kann aber nicht sein. Vielleicht 10 Bit = 60 dB? Oder rechnen die mit den Energie-dBs? Dann wären das etwa 1:10.000 bzw. 13 Bit. Erscheint mir mir aber zu hoch.

Der Dynamikumfang von Sensoren wird typischerweise in EV gemessen – was für die Zwecke eines Fotografen am aussagekräftigsten ist –, nicht in dB. Bits sind keine Einheit des Dynamikumfangs. Wenn Du sehen willst, was aktuelle Sensoren schaffen, findest Du die Antwort beispielsweise hier: https://www.photonstophotos.net/Charts/PDR.htm

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb mjh:

Wenn Du sehen willst, was aktuelle Sensoren schaffen, findest Du die Antwort beispielsweise hier: https://www.photonstophotos.net/Charts/PDR.htm

Das nenne ich mal einen nützlichen Link!!!
Super gemacht, diese interaktive Tabelle. Interessante Ergebnisse, und die neuen FUJI-Sensoren schlagen sich nicht so schlecht!

Link zum Beitrag
Auf anderen Seiten teilen

Vielen Dank, das ist sehr aufschlussreich. Die XT30 oder XT5 haben unter optimalen Bedingungen ca. 10,5 Blenden/EVs Dynamikumfang (~63 dB). Das sind 2,5 mehr, als Jpeg kann (~48 dB). D.h. da ist noch Reserve, um die Spitzlichter und Tiefen ins Jpeg hineinzu-“komprimieren“. (So machen wir es ja auch in der manuellen Raw-Nachbereitung.) Super.

Bei ca. 800 Iso sinkt die Dynamik dann schon auf 8 Bit. Da gibts dann keine Reserve mehr. Die X30 mit dem kleineren Sensor, mit der ich viele viele Bilder gemacht habe, schafft sogar unter optimalen Bedingungen nur 8 Bit. Da brauchts dann kein Raw mehr.

Nochmal zu Thema Dynamik: Damit wird das VERHÄLTNIS des größten darstellbaren Irgendwas zum kleinsten ausgedrückt. In diesem Fall also ca 1:1500 (Sensor) oder 1:256 (Jpeg). Man kann das natürlich auch binär ausdrücken: 10,5 EV (= 10,5 Bit) bzw. 8 EV (= 8 Bit). Da unsere Wahrnehmung (glücklicherweise) logarithmisch funktioniert, kommt man mit den logarithmischen dBs, die beispielsweise üblicherweise zur Darstellung von Signal-Rausch-Verhältnissen verwendet werden, zu aussagekräftigeren Zahlen - den diese berücksichtigen unser Empfinden. 

 

bearbeitet von weebee
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb weebee:

Die XT30 oder XT5 haben unter optimalen Bedingungen ca. 10,5 Blenden/EVs Dynamikumfang (~63 dB). Das sind 2,5 mehr, als Jpeg kann (~48 dB).

So ein Satz ist doch in seiner Allgemeinheit überhaupt nicht sinnvoll. Um Sinn zu ergeben, müsste man eine ganz bestimmte JPEG-Bearbeitung mit bestimmten Einstellungen eines bestimmten Konverters heranziehen, und DANN könnte man das vielleicht sagen, nachdem man auch noch festgelegt hat, welche Bedingungen herrschen müssen, damit ein Ergebnis noch als "gut genug" oder als "nicht mehr gut genug" gilt. Also ein Schwellenwert, wie es P2P natürlich auch macht, sonst könnte man ja nichts miteinander vergleichen.

Ist aber natürlich praxisfremd, die Ergebnisse gelten nur relativ, nicht absolut. Natürlich kann jemand mit einem anderen Konverter und KI-Entrauschen noch viel mehr DR aus einem Bild herausholen. Oder aber auch viel weniger, wenn etwa der Schwarzpunkt komplett ins Magenta rutscht und man das dann beim Hochziehen nicht korrigieren kann, weil sich Farbschleier durchs Bild ziehen, die es vollkommen unbrauchbar machen.

Deshalb betrachten wir stets komplette Workflows und vergleichen diese hinsichtlich der praktischen Nutzbarkeit. 

JPEG "kann" per se nie weniger als RAW, schließlich ist RAW kein Bild, sondern Daten, die konvertiert und dann als JPEG ausgegeben werden. Niemand kann ein RAW mit einem JPEG vergleichen. NIEMAND, NEVER! Man kann aber verschiedene JPEGs vergleichen, die mit verschiedenen Workflows und Konvertern und Einstellungen erzeugt wurden, um dann zu sehen, welcher Konverter am meisten aus dem RAW herausholen konnte. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Rico Pfirstinger:

So ein Satz ist doch in seiner Allgemeinheit überhaupt nicht sinnvoll. Um Sinn zu ergeben, müsste man eine ganz bestimmte JPEG-Bearbeitung mit bestimmten Einstellungen eines bestimmten Konverters heranziehen, und DANN könnte man das vielleicht sagen, nachdem man auch noch festgelegt hat, welche Bedingungen herrschen müssen, damit ein Ergebnis noch als "gut genug" oder als "nicht mehr gut genug" gilt. Also ein Schwellenwert, wie es P2P natürlich auch macht, sonst könnte man ja nichts miteinander vergleichen.

Ist aber natürlich praxisfremd, die Ergebnisse gelten nur relativ, nicht absolut. Natürlich kann jemand mit einem anderen Konverter und KI-Entrauschen noch viel mehr DR aus einem Bild herausholen. Oder aber auch viel weniger, wenn etwa der Schwarzpunkt komplett ins Magenta rutscht und man das dann beim Hochziehen nicht korrigieren kann, weil sich Farbschleier durchs Bild ziehen, die es vollkommen unbrauchbar machen.

Deshalb betrachten wir stets komplette Workflows und vergleichen diese hinsichtlich der praktischen Nutzbarkeit. 

JPEG "kann" per se nie weniger als RAW, schließlich ist RAW kein Bild, sondern Daten, die konvertiert und dann als JPEG ausgegeben werden. Niemand kann ein RAW mit einem JPEG vergleichen. NIEMAND, NEVER! Man kann aber verschiedene JPEGs vergleichen, die mit verschiedenen Workflows und Konvertern und Einstellungen erzeugt wurden, um dann zu sehen, welcher Konverter am meisten aus dem RAW herausholen konnte. 

Was wird dann bei einem RAW angezeigt, wenn es nur Daten sind?  

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb CMOS:

Was wird dann bei einem RAW angezeigt, wenn es nur Daten sind?  

Raws werden nie direkt angezeigt, sondern immer nur Interpretationen dieser Daten, die dann z.B. im JPEG Format sind.

Ich versuche es mal mit Vergleichen:

  • Ein Raw entspricht einem Notenblatt, das du auch nicht hören kannst, sondern nur, wenn ein Musiker das Stück spielt / interpretiert. Die Interpretation wird nie identisch sein.
  • Wenn du noch Kontakt mit der analogen Fotografie hattest: Ein Raw entspricht einem Negativ, dass du erst in ein Positiv umwandeln musst, um es sinnvoll zu betrachten.

Zum Beispiel mit den Negativen: Ich habe kürzlich eine Darstellung gesehen, wie ein berühmtes Ansel Adams Negativ über die Zeit in gänzlich unterschiedliche Abzüge umgewandelt wurde.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb CMOS:

Was wird dann bei einem RAW angezeigt, wenn es nur Daten sind?  

Gar nichts, RAWs sind eben Daten, keine Bilder. Du kannst ein RAW nicht "aufmachen und angucken". Aus den Daten entsteht irgendwann ein Bild – über den genannten Workflow, deshalb ist dieser auch so wichtig. Dieser Workflow umfasst u.a. Demosaicing, Entrauschen (gerne mit KI), Schärfen/Details (ebenfalls gerne mit KI) und die Tonwertkorrektur. Das alles erledigen heute die guten RAW-Konverter, man kann aber auch Hilfsprogramme und Plug-ins für einzelne Schritte verwenden, um insgesamt zu noch besseren Ergebnissen zu kommen, speziell bei Problembildern. Gibt dazu einige Beispiele hier im Forum.

Es ist hier im Forum schon ein ziemlich alter Gag, dass die Leute oft Unsummen in Kameras und Objektive stecken, aber oft ganz sparsam und knausrig werden, wenn es darum geht, auch in den Workflow zu investieren. Also dort, wo das Bild tatsächlich aus den RAW-Daten entsteht. Gerade für das Thema hier, also den Dynamikumfang, ist der Workflow aber entscheidend, denn hier gab und gibt es in den letzten Jahren entscheidende Verbesserungen, während die Kameras und ihre Sensoren mehr oder weniger auf der Stelle treten. Umso verrückter, sich auf oft recht kleine Unterschiede in Testcharts von Kameras zu fixieren, anstatt dort zu gucken, wo es zuletzt die großen Fortschritte auf dem Weg zum finalen, exportieren JPEG gab.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Rico Pfirstinger:

Gar nichts, RAWs sind eben Daten, keine Bilder. Du kannst ein RAW nicht "aufmachen und angucken". Aus den Daten entsteht irgendwann ein Bild – über den genannten Workflow, deshalb ist dieser auch so wichtig. Dieser Workflow umfasst u.a. Demosaicing, Entrauschen (gerne mit KI), Schärfen/Details (ebenfalls gerne mit KI) und die Tonwertkorrektur. Das alles erledigen heute die guten RAW-Konverter, man kann aber auch Hilfsprogramme und Plug-ins für einzelne Schritte verwenden, um insgesamt zu noch besseren Ergebnissen zu kommen, speziell bei Problembildern. Gibt dazu einige Beispiele hier im Forum.

Es ist hier im Forum schon ein ziemlich alter Gag, dass die Leute oft Unsummen in Kameras und Objektive stecken, aber oft ganz sparsam und knausrig werden, wenn es darum geht, auch in den Workflow zu investieren. Also dort, wo das Bild tatsächlich aus den RAW-Daten entsteht. Gerade für das Thema hier, also den Dynamikumfang, ist der Workflow aber entscheidend, denn hier gab und gibt es in den letzten Jahren entscheidende Verbesserungen, während die Kameras und ihre Sensoren mehr oder weniger auf der Stelle treten. Umso verrückter, sich auf oft recht kleine Unterschiede in Testcharts von Kameras zu fixieren, anstatt dort zu gucken, wo es zuletzt die großen Fortschritte auf dem Weg zum finalen, exportieren JPEG gab.

Hm, danke für die Erläuterungen, verstanden hab ich es ehrlich gesagt noch nicht: Warum? Wenn ich eine RAW Datei "aufmache", dann sehe ich doch ein Bild ,  das ich bearbeiten kann. Was bearbeite ich dann, wenn ich "gar nichts" sehen kann?

bearbeitet von CMOS
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb CMOS:

Wenn ich eine RAW Datei "aufmache", dann sehe ich doch ein Bild ,  das ich bearbeiten kann. Was bearbeite ich dann, wenn ich "gar nichts" sehen kann?

Du bearbeitest deine Interpretation der Rohdaten. 

Je nachdem, wie du die Regler einstellst, wird das Raw unterschiedlich interpretiert und in eine Anzeige verwandelt.

Vielleicht kann das Experiment helfen.

  • Mach mal ein Bild in der Einstellung RAW + JPEG, am besten ein extrem kontrastreiches.
  • Wenn du nur das JPEG bearbeitest und versuchst, aus den schwarzen Schatten oder dem weißen Himmel noch was rauszuholen, läufst du gegen die Pumpe. Was dort weiß oder schwarz ist, hat keine Informationen mehr und lässt sich nicht retten.
  • Wenn du das gleiche mit einem Raw machst, kannst du (auch nicht endlos, aber viel, viel weiter) noch Zeichnung und Struktur rausholen, die auf den ersten Blick (=dem ersten JPEG, das der RAW Konverter generiert hat) nicht mehr enthalten waren.

Gruß
Andreas

Link zum Beitrag
Auf anderen Seiten teilen

vor 27 Minuten schrieb FXF Admin:

Du bearbeitest deine Interpretation der Rohdaten. 

Je nachdem, wie du die Regler einstellst, wird das Raw unterschiedlich interpretiert und in eine Anzeige verwandelt.

Vielleicht kann das Experiment helfen.

  • Mach mal ein Bild in der Einstellung RAW + JPEG, am besten ein extrem kontrastreiches.
  • Wenn du nur das JPEG bearbeitest und versuchst, aus den schwarzen Schatten oder dem weißen Himmel noch was rauszuholen, läufst du gegen die Pumpe. Was dort weiß oder schwarz ist, hat keine Informationen mehr und lässt sich nicht retten.
  • Wenn du das gleiche mit einem Raw machst, kannst du (auch nicht endlos, aber viel, viel weiter) noch Zeichnung und Struktur rausholen, die auf den ersten Blick (=dem ersten JPEG, das der RAW Konverter generiert hat) nicht mehr enthalten waren.

Gruß
Andreas

Danke für die Info. Kann ich aber so nicht nachvollziehen. Wenn ich  ein JPEG mit Photoshop bearbeite, kann ich doch Schatten hochziehen und Lichter zurücknehmen, oder ein HDR generieren.  Aus der RAW ist wohl mehr rauszuholen, aber wesentlich tut sich da nichts mehr. Werde das noch mal testen und ggf. hier Bilder einstellen. 

Link zum Beitrag
Auf anderen Seiten teilen

Das ist der Grund warum ich eine große Auswahl an RAW Konvertern in meinem Arsenal habe. Je nach Sensor und Motiv ist mal der eine, dann der andere RAW Konverter besser geeignet. Und ein Update eines RAW Konverters kann die Eigenschaften des RAW Konverters im Vergleich zu den anderen massiv verschieben, zum positiven oder zum negativen.

Ich finde es immer spannend einen für mich neuen RAW Konverter zu testen. Aber Achtung bei den Marketing Versprechungen der Hersteller, bei den aktuellen RAW Konvertern gibt es viel Kleingedrucktes, wie z.B.: noch fehlende Features, welche erst später kommen.

Und bezüglich des internen HDR Bildes wäre da noch die Alternative über eine automatische Belichtungsreihe. Geht auch gut aus der Hand. Meistens können die externen HDR Programme auch die aus der Hand gemachte Belichtungsreihe korrekt zusammen puzzeln. Und wenn nicht gibt es noch immer die Einzelbilder 

bearbeitet von carlosdivega
,
Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb CMOS:

Wenn ich eine RAW Datei "aufmache", dann sehe ich doch ein Bild ,  das ich bearbeiten kann.

Wenn du ein Bild siehst, wurden die RAW-Daten der Aufnahme offenbar bearbeitet. Deshalb dauert es ja auch immer etwas länger, RAW-Dateien "aufzumachen". Die müssen immer erst entwickelt werden, ehe man ein Bild sehen kann. Das kostet Zeit und Rechenleistung. Aus diesem Grund erledigen viele User die Bildauswahl erstmal mit JPEGs und importieren und bearbeiten erst danach die RAWs der Keeper-Bilder. Da JPEGs fertig entwickelte Bilder sind, ist das Handling mit ihnen einfach schneller und einfacher.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb CMOS:

Danke für die Info. Kann ich aber so nicht nachvollziehen. Wenn ich  ein JPEG mit Photoshop bearbeite, kann ich doch Schatten hochziehen und Lichter zurücknehmen, oder ein HDR generieren.  Aus der RAW ist wohl mehr rauszuholen, aber wesentlich tut sich da nichts mehr. Werde das noch mal testen und ggf. hier Bilder einstellen. 

Komprimierte 8-Bit-JPEGs hochzuziehen, ist eigentlich immer eine schlechte Idee. Und wie man aus einem(!) JPEG ein HDR generieren will, ist mir sogar vollkommen rätselhaft. Aber es soll natürlich jeder das machen, was er mag. 

Jedenfalls macht man heute HDRs (oder auch Focus Bracketing oder Panoramas) basierend auf Belichtungsreihen von RAW-Dateien. Diese RAWs werden dabei zu einem einzelnen linearen DNG verrechnet, das man anschließend in Lightroom exakt wie eine einzelne RAF-Datei entwickeln und bearbeiten kann, also mit allen Profilen, Funktionen und Filmsimulationen. Die Zeiten, in denen man HDRs aus JPEG- oder TIFF-Reihen erstellt hat, sind zum Glück seit vielen Jahren passé. Das läuft heute alles über lineare DNGs. X-Transformer hat damit glaube ich angefangen, heute machen das praktisch alle so – von PureRAW bis Helicon Focus, von Fujis Multishot bis hin zu Lightrooms eingebauten Pano- und HDR-Funktionen.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...