Jump to content

Vergleich Dynamikumfang G-Format, APS-C und 2/3"


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Es wird immer wieder gefragt, welchen Dynamikvorteil größere Sensoren gegenüber kleineren haben. Hierzu kann man sich in einer ersten Annäherung auf dpreview Vergleiche hinsichtlich der Exposure Latitude ansehen, die Auskunft darüber gehen, wie es aussieht, wenn man einen jeweils gleich belichteten Sensor über mehrere Blendenstufen pusht.

 

Dabei bemerkt man schnell, dass zum Beispiel eine kostengünstige Leica SL mit "Vollformatsensor" nicht mehr Dynamikspielraum liefert als aktuelle APS-C-Kameras von Nikon (oder eine wahnsinnspreisige X-T2). Wir sehen: Der Dynamikumfang hängt nicht nur von der Sensorgröße, sondern erst einmal von der Sensorqualität ab. Ohne zeitgemäße ISOlose Sensoren ist ein erweiterter Dynamikumfang grundsätzlich ausgeschlossen, weil das Sensorrauschen (read noise) uns einen Strich durch die Rechnung macht.

 

Doch irgendwann kommt immer auch der Punkt, wo das Motivrauschen (shot noise) überhand nimmt. In solchen Situationen hat der große Sensor einen grundsätzlichen Vorteil, weil er aufgrund der größeren Fläche einfach mehr Licht sammeln kann als ein kleiner Sensor.

 

Wenn wir also davon ausgehen, dass wir zeitgemäße, ISOlose Sensoren mit sehr geringem Sensorrauschen verwenden, wird uns ein großer Sensor dieser Bauart immer mehr Dynamikumfang liefern als ein kleiner.

 

Fujifilm verbaut bereits seit vielen Jahren ISOlose Sensoren, schließlich ist das Thema "erweiterte Dynamik" schon seit langer Zeit ein Steckenpferd des Unternehmens. Stichwort DR-Funktion, Stichwort EXR, Stichwort S/R-Pixel.

 

In der X-Serie finden wir mittlerweile drei verschiedene Sensorgrößen: 2/3" (z.B. X30), APS-C (z.B. X-T2) und G-Format (z.B. GFX 50S), und alle drei genannten Kameras operieren weitgehend ISOlos. Mich hat deshalb interessiert, wie sich diese drei Modelle praktisch hinsichtlich ihres Dynamikumfangs unterscheiden.

 

Dies habe ich anhand eines praxisnahen Beispielbildaufbaus und einer praktischen Testmethode ermittelt, die über das hinausgeht, was uns dpreview mit ihren Vergleichswerkzeugen für Exposure Latitude und ISO-Invarianz bieten.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Denn was bei diesen Tests unberücksichtigt bleibt ist die Sättigungsgrenze des jeweiligen Sensors.

 

Mit anderen Worten: dpreview testet zwar, wie weit man jeweils identisch belichtete Sensoren pushen kann, bis es "unschön" wird, doch das ist nur die halbe Wahrheit, wenn es um die praktische Anwendung geht. Denn in der Praxis bilden unterschiedliche Sensoren auch ohne Push schon unterschiedliche Kontrastumfänge ab, und sie besitzen unterschiedliche Sättigungsgrenzen.

 

Praktisch bedeutet das: Ich kann eine kontrastreiche Szene mit sehr hellen und dunklen Bildbereichen vielleicht mit Kamera/Sensor A etwas heller belichten als mit Kamera/Sensor B, ohne dass bildwichtige Lichter ausfressen. Um den gewünschten Dynamikumfang im fertigen Bild zu erzielen, muss ich das RAW aus Kamera/Sensor A dann nicht so weit pushen wie das RAW aus Kamera/Sensor B. Selbst wenn Kamera/Sensor A und B beim Studio-Vergleich auf dpreview also eine identische Exposure Latitude aufweisen, hat Kamera/Sensor A in der Praxis einen Dynamikvorteil. Denn in der Praxis können wir ja in den meisten Fällen einfach so belichten, dass der Sensor optimal gesättigt wird.

 

Für mich bestand die Aufgabe deshalb darin, bei den drei zu vergleichenden Kameras erst einmal ihre individuelle Sättigungsgrenze (photo saturation) zu ermitteln und anschließend drei jeweils optimal gesättigte RAW-Dateien hinsichtlich ihres Push-Potenzials zu vergleichen. Das ist ein anderer, praxisnäherer Test als der, den wir auf dpreview finden.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Als erstes brauchen wir ein passendes Testmotiv. Dieses muss einen sehr hohen Kontrastumfang aufweisen, inkl. ausfressender Lichter und absaufender Schatten:

 

33265042790_fc3b811bd2_k.jpg

 

So sieht das Motiv mit der GFX aus, und so mit der X30: 

 

33492290502_1f8dee7008_k.jpg

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Und hier noch die X-T2:

 

33648695545_4aed31eb26_k.jpg

 

Wie wir sehen, sind die Unterschiede im Zustand der noch nicht erfolgten Dynamikerweiterung erstmal minimal. Wie aber können wir sicher sein, dass unsere Belichtungen exakt an der Sättigungsgrenze des jeweiligen Sensors liegen?

 

Ganz einfach: Wir machen mit jeder Kamera eine Belichtungsreihe bei Basis-ISO, verlängern die Verschlusszeit also in 1/3-EV-Schritten, bis die Überbelichtung bei den bildwichtigen Lichtern im JPEG (Live-View, Histogramm) so ausgeprägt ist, dass wir ganz sicher sein können, dass wir sie nicht mehr retten können. Anschließend ermitteln wir im RAW-Konverter unserer Wahl (in diesem Fall Lightroom) jenes RAW, bei dem die bildwichtigen Lichter nicht mehr exakt so aussehen wie beim 1/3-EV knapper belichteten Vorgänger. Dieser Vorgänger ist dann das perfekt an der Sättigungsgrenze belichtete Bild. 

 

Hierzu müssen wir natürlich für uns festlegen, was wir als "bildwichtige Lichter" betrachten und was nicht. In diesem Fall sind die bildwichtigen Lichter die weißen Flächen im Kopf des Pferdes. Auf diese Stelle wurde also bei allen drei Kameras belichtet und dann das RAW mit der längsten Belichtungszeit gewählt, das sich an dieser Stelle (natürlich in einer normalisierten Ansicht) nicht von den knapper belichteten RAWs unterscheidet.

 

Dabei konnte ich feststellen, dass X-T2 und X30 praktisch identische Sättigungsgrenzen besitzen. Anders gesagt: Ein optimal auf die bildwichtigen Lichter belichtetes Bild erscheint auch insgesamt gleich hell, was man auch anhand der Histogramme direkt sehen konnte. Als Basis diente dabei in Lightroom in allen drei Fällen die "Adobe Standard"-Kalibrierung mit ihrem grundsätzlich hohen Dynamikumfang. 

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Was jedoch auffiel war, dass die GFX 50S genau 1/3 EV heller als die beiden anderen Kameras belichtet werden konnte, ohne dass die bildwichtigen Lichter ausfraßen. Damit wurden natürlich auch der Rest des Motivs (also auch die dunklen, abgesoffenen Bereiche) 1/3 EV heller belichtet. Überraschend? Nicht wirklich, schließlich schreibt Fujifilm in der ersten Folge ihres Technologie-Reports zur GFX:

 

Extended Photic Saturation Point

 

Here is another way FUJIFILM achieves ultimate image quality. The GFX sensor goes through a special process in the manufacturing step. With the process, the photic saturation point of the sensor is extended and wider dynamic range is realized as a result. The dynamic range becomes 1/3 step wider. This wider dynamic range is a result of extended photic saturation point, so the images are 1/3 tougher against over-exposure.

 

This extended photic saturation becomes most effective when the sensitivity is set at ISO 100. This is why ISO 100 is highly recommended, unless you need to have the sensitivity higher.

 

Was für ein Zufall! Und in der Tat scheint Fujifilm hier nicht zu viel versprochen haben, denn in meinem kleinen Test lag die Sättigungsgrenze der GFX tatsächlich genau 1/3 EV über der jeweiligen Grenze bei den Vergleichskameras X30 und X-T2.

 

Anders gesagt: Die GFX 50S können wir im Vergleich zu anderen X-Kameras 1/3 EV heller belichten (zumindest bei Basis-ISO 100), ohne dass bildwichtige Lichter im RAW unwiederherstellbar ausfressen.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Nachdem wir drei für jede der Kameras optimal belichtete RAW-Dateien ermitteln haben, geht es nun darum, sie zu normalisieren und den Dynamikumfang zu erweitern. Mit Lightroom ist das kein Problem, weil die Regler dort (im Gegensatz zu den meisten anderen Konvertern) genug Spielraum bieten, um die Belichtung anzupassen, Schatten aufzuhellen und dabei ausfressende Lichter wiederherzustellen.

 

Hier nun die drei Aufnahmen mit entsprechend erweiterter Dynamik:

 

33608378786_53e35a4822_k.jpg

 

33608379986_c9c6571d52_k.jpg

 

33519616321_ee20fe2e64_k.jpg

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Zu einem normalisierten Vergleich gehört neben einer Anpassung des Weißabgleichs und einer möglichst identischen Helligkeitsverteilung natürlich auch, die Auflösung zu vereinheitlichen. In diesem Fall wurden alle drei Aufnahmen auf 12 MP angepasst (was der nativen Auflösung der X30 entspricht), sprich 4000 Pixel Breite (was bei der X-T2 aufgrund ihres Seitenverhältnisses von 3:2 freilich zu etwas weniger Pixeln führt, weil oben und unten etwas fehlt). 

 

Solange man sich die Beispiele in Forenauflösung ansieht, schlagen sich alle drei Kameras recht gut. Sicherlich haben einige hier der X30 nicht diesen Dynamikumfang zugetraut. Dpreview auch nicht, deshalb testen sie Kameras wie die X30 gar nicht erst hinsichtlich des Dynamikumfangs.

 

Das Bild ändert sich freilich auf Pixelebene, deshalb gibt es hier nun 100%-Ausschnitte. Wie immer gilt: Auf das Bild klicken, um es in groß zu sehen.

 

33265042180_4f51150d93_o.png

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Zwei Dinge stechen hier ins Auge:

 

1.) 12 MP ist nicht gleich 12 MP: Das auf 12 MP verkleinerte Bild aus der GFX zeigt deutlich mehr Details als die entsprechenden Aufnahmen aus der X-T2 und insbesondere X30, gut zu sehen an der kleinen Schrift sowie anderen Details im Color Checker. Der Mythos, dass höhere Auflösungen für "normale Anwendungen" und "normale Betrachtungsgrößen" unnötig sind, wird hier erneut demaskiert. Denn 12 MP (bzw. eine Kantenbreite von 4000 Pixeln) ist ja bloß 4K – das Standardformat moderner Bildschirme. Ein heruntergerechnetes 4K-Bild aus einer GFX ist einem heruntergerechneten 4K-Bild aus einer X-T2 und erst Recht einem nativen Bild aus einer X30 klar überlegen.

 

2.) In den dunklen Bereichen zeigen sich klare Unterschiede zwischen den Kameras, die sich auf die Sensorgrößen (shot noise) zurückführen lassen. Nicht nur das Motivrauschen fällt bei den kleineren Sensoren zunehmend negativ auf, sondern auch gut erkennbare Tonwertabrisse. Das war natürlich zu erwarten, schließlich konnten die kleineren Sensoren weniger Licht einfangen, sodass feine Tonwertunterschiede vom Motivrauschen überlagert wurden. Das Nutzsignal wurde in diesen Bereichen vom Motivrauschen überwältigt – die feine Tonwertabstufung steht den kleineren Sensoren also schon motivseitig nicht mehr zur Verfügung. Und was gar nicht erst aufgezeichnet wurde, sieht man natürlich auch nicht nach der Verstärkung. Alles, was verstäkt wurde, ist das Rauschen des Motivs – also das Störsignal, das dann umso deutlicher in Erscheinung tritt.

 

Wir dürfen eins nicht vergessen: Auch wenn wir gleich große 100%-Ausschnitte aus 12 MP großen JPEGs vergleichen, so stand der GFX für diesen Ausschnitt doch eine viel größere Sensorfläche als der X-T2 und der X30 zur Verfügung. Dementsprechend bekam der große Sensor (selbst bei identischer Belichtung) deutlich mehr Photonen als der kleinere ab und damit deutlich weniger Motivrauschen. Denn mehr Photonen = mehr Nutzsignal = weniger Motivrauschen.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Wir können die Tonwertabrisse noch sichtbarer machen, indem wir die Warnung für abgesoffene Schatten aktivieren und erneut vergleichen:

 

33265042440_eed19d05bd_o.png

 

Hier sehen wir sofort, dass lediglich die GFX eine "perfekte" Tonwertwiedergabe zeigt. X-T2 und X30 hatten es mit ihren kleineren Lichtfängern einfach schwerer, und dementsprechend gibt es hier Bereiche, die auch nach dem Push ohne Zeichnung schwarz bleiben und "absaufen".

 

Dieses Ergebnis kommt nicht überraschend, sondern entspricht vielmehr unseren Erwartungen, wenn wir moderne Sensoren vergleichen, die selber kaum rauschen (minimaler read noise), sodass das Motivrauschen (shot noise) den Performance-Ausschlag gibt. Größere Formate sind deshalb hinsichtlich einer besseren Dynamik nur dann sinnvoll, wenn sie dem Stand der Technik entsprechen und ISOlos arbeiten.

 

Allerdings spielt auch der jeweilige Sättigungspunkt eine Rolle. Mal provozierend gefragt: Hat eigentlich mal jemand getestet, wo der Sättigungspunkt von ausgesprochenen Versagerkameras wie einer Leica Q oder einer Canon EOS 5 Mk3 liegt? Es könnte ja sein, dass man deren RAWs auch 1/3 EV (oder vielleicht sogar noch mehr) heller belichten kann, ohne dass die bildwichtigen Lichter unwiederherstellbar ausfressen, was ihren fundamentalen Nachteil wenigstens zu einem Teil ausgleichen könnte. Schade, dass Technik-Websites wie dpreview mit ihren gut bezahlten Redakteuren lieber inkompetente Testberichte schreiben ("Die X-T20 hat bei Video keine Gesichtserkennung") oder Grabenkämpfe initiieren ("Thinking of buying a GFX?") anstatt sich einfach nur von ihrer Neugier leiten zu lassen und sich solcher Themen objektiv und ohne Vorbehalte anzunehmen. 

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Danke für den Thread, den ich mit viel Interesse gelesen habe.

Ich finde es gut, dass der Aufbau und das Vorgehen nachvollziehbar ist. Ich kann erkennen, dass einige Arbeit darin steckt, dessen Ergebnis Du hier kostenlos zur Verfügung stellst. In dem Fall hättest Du das Ergebnis in Form eines Artikels an Michael verkaufen sollen.

 

Eine Sache würde mich brennend interessieren aus der gleichen Neugier, die Dich wohl getrieben hat:

  • Die Feststellung der maximalen Sensorsättigung passierte wohl durch Vergleiche in LR
  • Die Bewertung der Tonwerte und -umfänge (z.B. auch die Tiefenwarnung) auch in LR

Kommt man zum gleichen Ergebnis, wenn man zur "Messung" einen anderen RAW-Konverter nimmt?

Worauf spiele ich an: Der GFX-Sensor hat einen Bayer-Aufbau und ich glaube (ja, ich weiß es nicht, wüsste auch keinen Versuchsaufbau, der soetwas belegen oder widerlegen könnte), dass das Demosaicing in LR mit dem "klassischen" Bayer-Layout einfach besser zurecht kommt. Und somit per se aus den nackten Sensordaten die "besseren" RGB-Werte errechnet.

 

Ich kenne die Hintergründe zur Wahl des Bayer-Layouts für den Sensor der GFX nicht. Aufhorchen lassen hat es mich schon.

 

Danke nochmal für den interessanten Beitrag.

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

Kommt man zum gleichen Ergebnis, wenn man zur "Messung" einen anderen RAW-Konverter nimmt?

 

 

Das ist denkbar, wenn auch eher unwahrscheinlich. Möglich wäre, dass ein Konverter bei Bayer grundsätzlich eine bessere/schlechtere (und nicht abschaltbare) Lichterrettung hat als für X-Trans. Deshalb gibt es nun auch die RAWs zum Herunterladen, dann kann jeder selber gucken.

 

Wichtiger ist hier zunächst die Sicherheit, dass der genutzte Konverter auf die verwendeten ISOs kalibriert ist (hier: Basis-ISO 100 bzw. 200). Solche Tests mache ich aber (offenbar im Gegensatz zu praktisch allen anderen Testern) schon im Vorfeld, vergleiche also die Importhelligkeit eines Bilds mit dem dazu gehörenden SOOC JPEG, selbstredend nach Anwendung der entsprechenden Filmsimulation im Konverter. Lightroom ist ja bekanntlich miserabel auf die GFX kalibriert, zwischen ISO 100 und 200 stimmen die Helligkeiten jedoch exakt mit den SOOC JPEGs überein, und bei der X-T2/Pro2/T20/100F stimmt es ebenfalls. Ich kann mich also halbwegs darauf verlassen, dass Helligkeitsunterschiede nicht an Kalibrierungsfehlern des Adobe-Praktikanten liegen.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

@Flysurfer: Danke für den Bericht, sehr interessant. Ehrlich gesagt hätte ich gedacht, dass bei solch unterschiedlichen Sensor-Generationen die Sättigungsgrenzen technisch bedingt weiter auseinanderliegen. 

 

Eine Anmerkung noch zu "4K": ein 4K-Bild hat nur ungefähr 8MP, da es ja kein 3:2-Seitenverhältnis hat. Ein 4000px breites 3:2-Bild wäre auf den meisten 4K-Monitoren nicht in ganzer Breite darstellbar. Aber das ist nur ein unwichtiges Detail... 

bearbeitet von JeZe
Link zum Beitrag
Auf anderen Seiten teilen

Eine Anmerkung noch zu "4K": ein 4K-Bild hat nur ungefähr 8MP, da es ja kein 3:2-Seitenverhältnis hat. Ein 4000px breites 3:2-Bild wäre auf den meisten 4K-Monitoren nicht in ganzer Breite darstellbar. Aber das ist nur ein unwichtiges Detail... 

 

 

Das weiß ich natürlich, zumal es hier ja sogar um 4:3 geht. Aber viele skalieren die Bilder auf die Breite des Bildschirms bzw. beschneiden sie auf 16:9.

 

Immer mehr Bildschirme bieten auch längst 5K oder mehr, in 2-3 Jahren ist dann 8K der Standard. Frag mal Lobra, in welchem Format er damals mit seiner X30 fotografiert hat.

Link zum Beitrag
Auf anderen Seiten teilen

Ich würd ja gern wissen, was Fujis Ingenieure wirklich über bestimmte Dinge sagen (also off the record). Die Wahl von Bayer? Was sonst am Sensor verändert wurde? Beispielsweise finde ich auch die Position des Filterglases extrem interessant. (und da gibt es noch viele andere Dinge, vor allem solche die sich nicht auf die GFX, sondern die X-Trans (APS-C) Kameras beziehen) 

Link zum Beitrag
Auf anderen Seiten teilen

@Flysurfer: Danke für den Bericht, sehr interessant. Ehrlich gesagt hätte ich gedacht, dass bei solch unterschiedlichen Sensor-Generationen die Sättigungsgrenzen technisch bedingt weiter auseinanderliegen. 

 

Das dachte ich auch. Ich pushe oft um 2-3 Blenden bei der Raw Entwicklung. Mit der GFX kann man 1/3 höher Belichten, also ich muss, bzw. kann die dunkelen Partien um 1/3 Blende weniger pushen. Ist das jetzt das So ein großer Vorteil? Oder verstehe ich das falsch?

 

Rico, vielen Dank für das Durchführen und Veröffentlichen dieses spannenden Testes!

 

Peter

Link zum Beitrag
Auf anderen Seiten teilen

Ist das jetzt das So ein großer Vorteil? Oder verstehe ich das falsch?

 

 

1/3 EV mehr ist toll und macht das Potenzial eines 6-EV-Pushs oft erst möglich, weil das Motivrauschen in den dunklen Bildbereichen dadurch weniger ausgeprägt ist, und das setzt das ISOlose Push-Potenzial schließlich erst frei – sonst pushe ich vor allem Störungen. Ein wenig verrauschtes Eingangssignal kann man mit einem ISOlosen Sensor sehr weit pushen, deshalb ist die Qualität des Eingangssignal entscheidend. 1/3 EV mehr ist hier also viel wert, um am Ausgang ein deutlich besseres Ergebnis ohne Tonwertabrisse und Detailverluste zu bekommen. 

 

Die Sensorgröße selbst bringt ja ungefähr 1,66 EV mehr Dynamik gegenüber APS-C (rein von der Fläche her, ein genauer Vergleich ist aufgrund der unterschiedlichen Seitenformate schwierig, weil man entweder das APS-C-Bild oder das G-Bild croppen muss, um identische Bildinhalte zu erhalten). Das fehlende Drittel erledigt die Kamera mit der erhöhten Sättigungsgrenze, sodass die GFX praktisch gut 2 EV mehr Dynamikumfang als eine X-T2 hat (wenn das normalisierte Ergebnis gleich gut aussehen soll). 

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Der GFX-Sensor hat einen Bayer-Aufbau und ich glaube (ja, ich weiß es nicht, wüsste auch keinen Versuchsaufbau, der soetwas belegen oder widerlegen könnte), dass das Demosaicing in LR mit dem "klassischen" Bayer-Layout einfach besser zurecht kommt. Und somit per se aus den nackten Sensordaten die "besseren" RGB-Werte errechnet.

Ich wüsste nicht, weshalb das so sein sollte. In rot-, grün- und blauempfindlichen Pixeln passiert ja immer dasselbe, egal wie sie angeordnet sind. Der Unterschied beim Demosaicing besteht nur darin, aus welchen Nachbarpixeln die fehlenden Farbwerte stammen, aber für die Rettung der Lichter macht das keinen Unterschied.

 

Ich kenne die Hintergründe zur Wahl des Bayer-Layouts für den Sensor der GFX nicht.

Das scheint mir keine prinzipielle, sondern eine unter den konkreten Bedingungen getroffene pragmatische Entscheidung gewesen zu sein. Fuji hat sich nicht darauf festgelegt, dass auch das Nachfolgemodell einen Bayer-Sensor haben wird.

Link zum Beitrag
Auf anderen Seiten teilen

Schöner Vergleich. Danke für die Mühe. Interessant fände ich jetzt noch, wie sich da ein guter Kleinbild Sensor schlägt.

 

Gruss

Heinz

 

 

Die Frage ist welcher. Fuji hat ja keinen. Mir reicht das so, da FF nicht zur Debatte steht. Wahrscheinlich wird er zwischen APS-C und MF liegen :)

 

Peter

Link zum Beitrag
Auf anderen Seiten teilen

Schöner Vergleich. Danke für die Mühe. Interessant fände ich jetzt noch, wie sich da ein guter Kleinbild Sensor schlägt.

 

 

Wenn/falls Fuji eine Kamera mit einem solchen Sensor auf den Markt bringt, werde ich das dann auf jeden Fall auch testen. Bis dahin muss man sich mit den Vergleichen auf dpreview begnügen, wobei der individuelle Sättigungspunkt freilich unberücksichtigt bleibt. 

 

Grundsätzlich ist der Exposure Latitude Test von dpreview also unvollständig. Es müsste zumindest noch eine zweite Testreihe geben, bei der die Kameras jeweils am Sättigungspunkt belichtet werden (also durchaus unterschiedliche Belichtungen für denselben Testaufbau), und das wird dann normalisiert auf verschiedene Wunschhelligkeiten in den dunklen Bereichen gepusht. Das wäre dann ein Test der praktischen Dynamik.

 

Allerdings sind hier auch die Hersteller gefordert, die endlich flächendeckend einen Belichtungsmessmodus anbieten sollten, der die Kameras automatisch auf ihren jeweiligen Sättigungspunkt hin belichtet (ähnlich wie Highlight-Weighted Metering bei Nikon), wobei man als Benutzer angeben darf, wieviel Prozent der Bildfläche dabei maximal überstrahlen dürfen. Das könnte man ganz interaktiv über die bereits vorhandene Belichtungskorrektur und die ebenfalls vorhandenen "Blinkies" anbieten, die anstelle einer JPEG-Überstrahlung dann die tatsächliche Sensor-Übersättigung anzeigen würden. Da drehe ich im konkreten Fall so lange am Rad, bis der Pferdekopf nicht mehr blinkt und mache das Bild.

Link zum Beitrag
Auf anderen Seiten teilen

Allerdings sind hier auch die Hersteller gefordert, die endlich flächendeckend einen Belichtungsmessmodus anbieten sollten, der die Kameras automatisch auf ihren jeweiligen Sättigungspunkt hin belichtet (ähnlich wie Highlight-Weighted Metering bei Nikon), wobei man als Benutzer angeben darf, wieviel Prozent der Bildfläche dabei maximal überstrahlen dürfen. Das könnte man ganz interaktiv über die bereits vorhandene Belichtungskorrektur und die ebenfalls vorhandenen "Blinkies" anbieten, die anstelle einer JPEG-Überstrahlung dann die tatsächliche Sensor-Übersättigung anzeigen würden. Da drehe ich im konkreten Fall so lange am Rad, bis der Pferdekopf nicht mehr blinkt und mache das Bild.

 

*daumen nach oben*

 

Bei so Kameras wie der GFX mit Tatschdisplay (also Kameras die nicht für Profis sondern Amateure gemacht sind) könnte man es wie beim Smartphone machen. Da kann man für Belichtung und Fokus getrennt Tatschen. Nur so als Ansatz. (ein Weg, es auch schnell und zuverlässig mit Aug am Sucher zu machen ist dies natürlich nicht)

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...