Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Die Nachteile von Sensoren mit Farbfiltern werden allerdings durch die KI-basierten Demosaicingverfahren teilweise behoben. Natürlich ist auch das intelligenteste Rateverfahren – und Demosaicing ist immer ein Ratespiel, ob traditionell per Interpolation oder mit neuronalen Netzen – den echten Informationen unterlegen, wie sie ein Foveon-Sensor liefert, aber für die Bildanmutung und die subjektiv empfundene Bildqualität ist der Unterschied nur noch gering. So lange die erratenen Details plausibel und natürlich wirken, ist ja alles gut; von diesen Details hängt darüber hinaus wenig ab. (In Antonionis „Blow up“ geht es darum, ob eine Handvoll Silberkristalle einen Mord abbilden, aber in der Realität tragen die kleinsten Bildbausteine, seien es Silberkristalle oder Pixel, keine so große Verantwortung.)

Link zum Beitrag
Auf anderen Seiten teilen

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Stunden schrieb lichtschacht:

Du bist mit dem Link einen Mausklick von raw Dateien zum herunterladen entfernt.

Aber wenn das zu schwierig ist, weiß ich auch nicht weiter 🤷‍♂️

Es sind keine RAW Bilder die ich mit anderen Farb-RAW vergleichen kann (die Standard DPR Testbilder).

Link zum Beitrag
Auf anderen Seiten teilen

Das wird DPR nicht mehr lösen können, weil sie von den Leica Monochrom immer nur "Initial Reviews" geschrieben oder DPReview-TV-Beiträge gefilmt haben, auch bei der Q2 und der M10.

Wenn auf der anderen Seite reale Fotos keinen Rückschluss auf die Bildqualität zulassen, was jeder für sich selbst einschätzen darf, sollte man ja ganz entspannt damit leben können, wenn andere für sich selbst einen Vorteil in einem derartigen Spezialsensor sehen und den nutzen (also dafür Geld ausgeben) wollen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb Wosse:

Es sind keine RAW Bilder die ich mit anderen Farb-RAW vergleichen kann (die Standard DPR Testbilder).

Vielleicht können wir ja mal eine Gemeinschaftsaktion starten und identische Farb- und S/W Bilder zum direkten (Selbst-)Vergleich generieren. 
Ich habe eine Pentax K3 II. Wenn jemand in der räumlichen Nähe die S/W Variante hätte, könnte man sich mal treffen.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 4 Minuten schrieb outofsightdd:

Wenn auf der anderen Seite reale Fotos keinen Rückschluss auf die Bildqualität zulassen, was jeder für sich selbst einschätzen darf, sollte man ja ganz entspannt damit leben können, wenn andere für sich selbst einen Vorteil in einem derartigen Spezialsensor sehen und den nutzen (also dafür Geld ausgeben) wollen.

Manchmal kommt mir ein Kameramodell unter, von dem ich denke, dass es ja vielleicht eine ganz gute Kamera sein mag, mit der ich aber absolut nichts anfangen kann. Genau genommen passiert das sogar ziemlich oft. Aber dann fülle ich das Internet nicht mit unzähligen Variationen meines Unverständnisses darüber, dass irgendjemand Gefallen an diesem Modell findet.

Link zum Beitrag
Auf anderen Seiten teilen

Wie kommt es eigentlich bei den monochromen Sensoren zu der feineren Tonwertabstufung? Rein mathematisch müsste doch ein in SW konvertiertes Farbbild mehr Grautöne besitzen als eins aus der Pentax K3iii monochrome, oder?

Ein Farbbild mit einer Pentax K3iii color aufgenommen hat eine Farbtiefe von 2 hoch 14 je Farbkanal also insgesamt 2 hoch 42 Farben. Das sind knapp 4 Billionen Farben. Wenn ich das im 16 bit-Format in SW konvertiere bleiben maximal 2 hoch 16 Grauwerte, das sind rund 65.000 Grauwerte. Von denen fallen dann eventuell welche weg, da unterschiedliche Farben ja den gleichen Grauwert ergeben können. Ich kann aber das Farbbild vor dem Konvertieren auch ins 32 Bit-Format umwandeln, dann werden weniger oder gar keine doppelten Grautöne entstehen.

Die Monochrome hat aber einen höheren Dynamikumfang. Wenn ich jetzt um 2 Stops knapper belichte um mehr Zeichnung in den Lichtern zu bekommen dann bleiben doch im Rest des Bildes nur noch 2 hoch 12 Grauwerte, also 4096. Eigentlich müsste man doch einen 16 Bit A/D-Wandler in der Monochromen einbauen, so wie in der GFX100s die ja auch einen höheren Dynamikumfang hat.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Wosse:

Die Monochrome hat aber einen höheren Dynamikumfang. Wenn ich jetzt um 2 Stops knapper belichte um mehr Zeichnung in den Lichtern zu bekommen dann bleiben doch im Rest des Bildes nur noch 2 hoch 12 Grauwerte, also 4096. Eigentlich müsste man doch einen 16 Bit A/D-Wandler in der Monochromen einbauen, so wie in der GFX100s die ja auch einen höheren Dynamikumfang hat.

So würde ich die Zusammenhänge nicht beschreiben. Erst einmal hat die Belichtung nichts mit dem Dynamikumfang des Sensors zu tun. So zu belichten, dass die hellsten Lichter, die noch Zeichnung behalten sollen, die Ladungsspeicher der Pixel nicht zum Überlaufen bringen, ist eine generell empfehlenswerte Strategie, unabhängig vom Dynamikumfang des Sensors. Von daher sehe ich keinen Grund, den monochromen Sensor anders zu belichten.

Wenn ein Sensor einen höheren Dynamikumfang als ein anderer hat, kann das eine Erweiterung zu den Lichtern hin sein. Dazu müssten die Ladungsspeicher vergrößert worden sein, was hier aber nicht der Fall ist – wir reden ja von einem identischen Chip, der lediglich durchsichtige Filter statt Farbfilter hat. Ein um 2 EV zu den Lichtern hin erweiterter Dynamikumfang würde sich auch in einer um 2 EV niedrigeren Grundempfindlichkeit äußern – oder vielmehr 1 EV niedriger, da durch den Wegfall der Farbfilter ja um 1 EV mehr Licht bis zum Chip durchdringt. Tatsächlich ist die Grundempfindlichkeit aber um 1 EV höher. Wenn der Dynamikumfang größer ist, kann das also nur eine Erweiterung zu den Schatten hin sein, also eine Reduzierung des Rauschens. Weniger Rauschen könnte ein Anlass für eine höhere Bittiefe bei der A/D-Wandlung sein (bei Sony-Sensoren ist diese ja durchweg einstellbar und nicht schon durch das Sensordesign vorgegeben), allerdings um den Preis einer deutlich reduzierten Geschwindigkeit, denn mehr Bits brauchen auch eine verlängerte Integrationszeit im A/D-Wandler. Aber rauscht der Sensor tatsächlich weniger? Wie gesagt: Es ist derselbe Chip wie der des Farbsensors. Er gewinnt allerdings 1 EV aufgrund der höheren Empfindlichkeit; da die Licht schluckenden Farbfilter weggefallen sind, braucht man die Sensorsignale beim gleichen ISO-Wert nur halb so stark zu verstärken, womit auch das Rauschen weniger verstärkt wird. Dazu gewinnt man noch etwas, weil nicht erst (beim Demosaicing) aus Luminanzrauschen Farbrauschen gemacht wird, dass bei einer Schwarzweißumwandlung zusätzliches Luminanzrauschen erzeugt. Und da wenig Licht meist künstliches Licht mit einer niedrigen Farbtemperatur ist, verstärkt der Weißabgleich den ohnehin schon stärker rauschenden Blaukanal, was noch mehr Rauschen erzeugt; bei einem monochromen Sensor fällt das weg. (Nebenbeibemerkt: Wenn man ohnehin eine Schwarzweißumsetzung seiner Rohdaten aus einem Farbsensor anstrebt, ist es eine Überlegung wert, den Weißabgleich stur auf „Tageslicht“ zu stellen, um das Rauschen im Blaukanal nicht übermäßig zu betonen. Wenn es für eine optimale Tonwertdifferenzierung unbedingt nötig ist, kann man Blau auch noch im Farbmischer verstärken, was das Rauschen zwar ebenfalls verstärkt, nur weiß man dann, wozu es gut ist.) Der monochrome Sensor mag also insgesamt rauschärmere Bilder erzeugen, aber mit dem Sensorchip selbst hat das nichts zu tun, und es ist daher auch kein Grund, mehr Bits zu digitalisieren.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Wosse:

@mjh

Danke für die ausführliche Antwort. Was sagst du zu meinen Überlegungen bezüglich der Tonwerte? Müssten das beim Weg Farbe zu SW nicht mehr sein?

Ich bin mir nicht sicher, aber ist es nicht so, dass die Helligkeit eines Pixels, also die Luminanz, für unterschiedliche Farben gleich sein kann? Der Farbraum hat also Redundanz, jede Farbe könnte mit entsprechender Helligkeit den gleichen Grauwert ergeben. Die Rechnung mit dem Addieren der drei Farben wäre also nicht richtig, sondern beide Sensoren würden auf den gleichen Tonwertbereich kommen.

Wenn man nun wie @mjh beschrieben hat tiefer ins Schwarz gehen kann ohne zu rauschen, würde das einen größeren Bereich aufspannen in dem man Tonwerte abstufen kann. Macht das Sinn?

Link zum Beitrag
Auf anderen Seiten teilen

vor 34 Minuten schrieb madsector:

Ich bin mir nicht sicher, aber ist es nicht so, dass die Helligkeit eines Pixels, also die Luminanz, für unterschiedliche Farben gleich sein kann?

Ja, hatte ich ja auch geschrieben. Aber wären sicherlich trotzdem noch mehr. Und man könnte ja vor dem Umwandeln in SW vom 16 ins 32 Bitformat konvertieren.

 

P.S. Kennt jemand ein Programm zum Farben zählen? Ich hatte früher mal ein Plugin für PS das Farben zählen konnte, ging aber nur bei 8 Bit-Dateien. Aber man konnte damit zeigen, dass ein Adobe RGB Bild weniger Farben hat als ein sRGB Bild. Gibt ja Leute die denken, dass das umgekehrt ist.

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb Wosse:

Was sagst du zu meinen Überlegungen bezüglich der Tonwerte? Müssten das beim Weg Farbe zu SW nicht mehr sein?

Das ist richtig. Man hat das seinerzeit bei der Leica M8 gesehen, deren Rohdaten nach einem sehr simplen Verfahren auf 8 Bit vergröbert wurden – man nahm die 14-Bit-Werte aus dem A/D-Wandler, multiplizierte sie mit 4 und zog die Quadratwurzel (oder jedenfalls war das das Prinzip; die Implementation war noch simpler, indem man eine Look-up-Tabelle benutzte). Es wurden also überhaupt nur 256 Tonwerte pro Kanal unterschieden. Wenn man sie Aufnahmen allerdings als 16-Bit-TIFF exportierte und sich die Histogramme anschaute, gab es da keine Lücken, wie man sie vielleicht erwartet hätte, und der Grund dafür war, dass die Interpolation beim Demosaicing Zwischenwerte erzeugt, die die Lücken füllen. Das gilt also schon für die RGB-Werte, und es gilt immer noch (und erst recht), wenn man die RGB-Werte in die Tonwerte eines Schwarzweißbilds umrechnet.

Auf der anderen Seite ist die Tonwertdifferenzierung ohnehin nicht so kritisch. Allerdings sind die Tonwerte ja sehr ungleich verteilt und wir haben in den Lichtern eine ungleich feinere Unterteilung als in den Schatten. Das war damals auch der Hintergrund von Leicas verlustbehafteter Quadratwurzel-Komprimierung, die die Tonwerte vor allem bei den Lichtern ausdünnte – Nikons verlustbehaftete NEF-Komprimierung arbeitet ähnlich. An die Lichter sind die vielen Tonwertstufen im Grunde verschwendet, und wenn die Tonwertdifferenzierung irgendwo kritisch ist, dann ist sie das nur in den Schatten. Dort bekommen wir es aber vor allem mit dem Photonenrauschen zu tun, das einer sinnvollen Unterscheidung noch feinerer Tonwertabstufungen Grenzen setzt. Gleichzeitig wirkt dieses Rauschen aber auch als Dithermuster, das wie jedes Dithermuster für eine effektiv feinere Tonwertabstufung sorgt, als aufgrund der reinen Zahl der numerischen Werte zu erwarten wäre. Das geht zwar auf Kosten der Detailauflösung, aber es gibt halt nichts umsonst. Jedenfalls: Feine Tonwertabstufungen sind kein aktuelles Problem, und wir müssen nicht nach Methoden suchen, diese zu verbessern. Weniger Rauschen wäre wünschenswert, aber gegen das Photonenrauschen ist ja bekanntlich kein Kraut gewachsen (außer den KI-Verfahren und, natürlich, mehr Licht).

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb Wosse:

@mjh

Würde denn alter analoger CTB Filter bei Kunstlicht das Rauschen im Blaukanal verbessern? Müsste m.E. doch. Man bekäme mehr blaues Licht auf den Sensor ohne dass der Rotkanal übersteuert. Macht aber keiner, oder?

Vor 12 Jahren hatte ich das mal als Alternative ins Gespräch gebracht: https://digicam-experts.de/faq/22. Aber es stimmt: Meines Wissens macht das keiner.

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Stunden schrieb mjh:

Vor 12 Jahren hatte ich das mal als Alternative ins Gespräch gebracht: https://digicam-experts.de/faq/22. Aber es stimmt: Meines Wissens macht das keiner.

Auf welche Farbtemperatur ist denn eigentlich ein Aufnahmesensor nativ ausgelegt? Da man ja mit Highlight Recovering aus überbelichteten weißen Wolken wieder Details zurückholen kann können ja die drei Farbkanäle im Tageslicht bei weißen Motiven nicht gleichzeitig clippen.

bearbeitet von Wosse
Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Wosse:

Auf welche Farbtemperatur ist denn eigentlich ein Aufnahmesensor nativ ausgelegt? Da man ja mit Highlight Recovering aus überbelichteten weißen Wolken wieder Details zurückholen kann können ja die drei Farbkanäle im Tageslicht bei weißen Motiven nicht gleichzeitig clippen.

Da die blauempfindlichen Sensorpixel durchweg am wenigsten empfindlich sind, wäre ein leicht bläuliches Tageslicht ideal – mit eher wenig Grün, weil die grünempfindlichen Pixel als erstes überbelichtet werden. Dem entspricht aber keine Farbtemperatur – 5500 K hat zu viel Grün und zu wenig Blau und Rot, aber für mehr Rot wäre eine niedrigere und für mehr Rot eine höhere Farbtemperatur nötig; das bringt man nicht zusammen. Dagegen lässt sich aber auch sensorseitig nichts machen, denn die starke Grünempfindlichkeit liegt daran, dass die spektrale Empfindlichkeit der grünen Pixel in den Bereich von Rot und Blau hinein ragen muss; anders bekäme man keine feinen Farbabstufungen zwischen den Grundfarben.

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Minuten schrieb Wosse:

@mjh

Also wäre ein leichtes Blaufilter für Tages- und Kunstlicht von Vorteil. Aber wahrscheinlich wäre der Vorteil zu gering damit es sich lohnt, oder?

Bei Tageslicht lohnt es sich kaum; für Kunstlicht bräuchte man ein stärkeres Blaufilter und das schluckt wiederum so viel Licht, dass man vermutlich Probleme mit der Verschlusszeit bekäme.

Aber wer eine RGB-LED-Leuchte mit individuell einstellbarer Intensität von Rot, Grün und Blau hat und ein unbewegliches Motiv vom Stativ aus fotografiert, könnte die drei Grundfarben mit dem Blick auf das Histogramm einstellen.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...