Jump to content

Wann kommen HDR Bildsensoren?


EFM
 Share

Recommended Posts

Werbung (verschwindet nach Registrierung)

Ein derzeit noch grosses Manko ist der Dynamikumfang der Bildsensoren. Das menschliche Auge kann offenbar ca. 100 dB  erfassen, die Bildsensoren in Fotokameras nur ca. 50 bis 70 dB. Meines Wissens nach gibt es bereits Sensoren die auch 100 dB schaffen, so z. B.  von der Fa. IMS in Stuttgart, allerdings nur für Industriezwecke zur Überwachung von Schweissnähten. Weiss jemand ob und was die Kamerahersteller hier planen? Vermutlich werden hier die Smartphonehersteller schneller sein oder🤔

Link to post
Share on other sites

vor 2 Stunden schrieb EFM:

Ein derzeit noch grosses Manko ist der Dynamikumfang der Bildsensoren.

Nein, ganz im Gegenteil. Ihr Dynamikumfang ist gerade ihre große Stärke. Aktuelle Kameras haben einen Dynamikumfang, von dem frühere Generationen von Fotografen nur träumen konnten.

Dieser Dynamikumfang ist auch größer als der des menschlichen Auges, jedenfalls bei gleichen Ausgangsbedingungen, wenn Netzhaut und Sensor gleichzeitig helle und dunkle Bilddetails erkennen sollen. Durch die Adaptation kann das Auge noch größere Kontraste bewältigen, allerdings nicht gleichzeitig, sondern hintereinander. Dazu vergrößert oder verkleinert sich die Pupille in Abhängigkeit von den Lichtverhältnissen. Darüber hinaus gibt es noch chemische Prozesse in der Netzhaut, mit denen eine Dunkeladaptation möglich ist; diese benötigt allerdings etliche Minuten. Hintereinander statt gleichzeitig können aber natürlich auch Digitalkameras vielfach höhere Kontraste bewältigen.

Link to post
Share on other sites

Michael hat es sehr gut auf den Punkt gebracht. Da ich noch die analoge Zeit aus eigener Erfahrung kenne, kann ich uns für die heutigen technischen Möglichkeiten nur beglückwünschen.

Ergänzen möchte ich, dass die HDR Technik auf die verschiedenen Wiedergabemedien (Druck und auch Monitor) angepasst und wieder reduziert werden müssen:

https://de.wikipedia.org/wiki/High_Dynamic_Range_Image

 

 

Im Internet gibt es einen schön erklärenden Beitrag aus Stuttgart im Vergleich Auge und Kamera:

 

https://www.fotoworkshop-stuttgart.de/das-menschliche-auge-und-die-fotografie/

 

Wer sich thematisch noch wesentlich mehr informieren möchte:

 

https://www.ecosia.org/search?q=kamera auge vergleich&addon=firefox&addonversion=4.1.0&method=topbar

 

 

Link to post
Share on other sites

Hallöchen!

Ich kenn das ein wenig "anders", nämlich in "Blendenstufen".

Das Menschliche Auge "kann" ca. 20 Blendenstufen erfassen.
Die "besten normal erhältlichen" Bildsensoren kommen bis maximal  ca. 17.
Meistens sind es aber ca. reelle 12-14 Blendenstufen die abbildbar sind.
SDR, also Fernsehen usw., zeigen ca. 7 Blendenstufen.

Link to post
Share on other sites

Werbung (verschwindet nach Registrierung)

vor 6 Stunden schrieb EFM:

Vermutlich werden hier die Smartphonehersteller schneller sein oder

Die Smartphonehersteller selbst nicht, aber die Hersteller der Bildsensoren werden so etwas mit Sicherheit zuerst auf den kleineren Sensoren für Smartphones bringen, da auf diesem Gebiet einfach mehr Geld verdient wird.

Gerüchten zufolge soll in das kommende Google Pixel 8 ein neuer Sensor von Samsung verbaut werden, der neben eines verbesserten Autofokus auch gestaffeltes HDR ermöglichen soll. Dabei können die Pixel auf dem Sensor mit einer Aufnahme unterschiedlich lange Belichtet werden und ermöglichen so ein HDR-Aufnahme ohne mehrere Bilder aufnehmen zu müssen.

Edited by Batzman
Link to post
Share on other sites

vor 57 Minuten schrieb mjh:

Wie gesagt: Nicht gleichzeitig. Und wenn es nicht gleichzeitig sein muss, können die Sensoren unserer Kameras noch mehr als 20 Blendenstufen bewältigen.

Nacheinander macht ja keinen Sinn, ein Motiv wird auf 1 x erfasst und da ist das Auge klar im Vorteil.  Zu den Blendenstufen EV gibt es etwas unterschiedliche Angaben.  z.B. grelles Sonnenlicht 30 - 40 EV,  Auge 20 - 30 EV,  Sensor Digitalkamera 10 - 15 EV,  LCD Monitor 10 EV, Farbnegativfilm 8 - 10 EV, Drucker 5 - 7 EV.  Ich denke der Kommentar von Batzman dazu ist nicht ganz verkehrt oder?

Link to post
Share on other sites

vor einer Stunde schrieb mjh:

Wie gesagt: Nicht gleichzeitig. Und wenn es nicht gleichzeitig sein muss, können die Sensoren unserer Kameras noch mehr als 20 Blendenstufen bewältigen.

Das lässt sich ganz einfach nachvollziehen: nachts im Mondschein lassen sich noch viele Strukturen erkennen. Nach dem Blick in ein helle Lampe ist dann für einige Zeit alles stockdunkel. Ebenso verhält es sich im hellen Sonnenlicht: viele Stellen, wie z. B. tiefe Winkel in Hauseingängen erscheinen so dunkel, dass nichts zu erkennen ist. 

Link to post
Share on other sites

Das geht mir auch so.

Ich habe weder von Medizin noch von Sensoren belastbare Ahnung aber meine Wahrnehmung ist etwa so. 

Ich kann bei Sonnenschein entweder nur die hellen Bereiche detailliert sehen oder nach der Anpassung der Pupillen die dunklen Bereiche. Was mit einer einzelnen Aufnahme (gerade in RAW) darstellbar ist, übertrifft, zumindest meine, Augen bei weitem. 

 

P. S. Außerdem ist auch der Schärfebereich, der hier nicht das Thema ist, bei einer Kamera (ca 50mm Blickwinkel) von rechts bis links scharf. Bei mir nicht nachzuvollziehen. 

Edited by Captcha
Link to post
Share on other sites

vor 8 Stunden schrieb EFM:

Nacheinander macht ja keinen Sinn, ein Motiv wird auf 1 x erfasst und da ist das Auge klar im Vorteil.

Nein, eben nicht, weil sich das Auge dafür zumindest durch Öffnen und Schließen der Pupille (also der Blende) an unterschiedliche helle Zonen in der Szene anpassen muss. Das geht immerhin schnell – so schnell, wie das eine Digitalkamera mit elektronischem Verschluss auch schafft, mehrere unterschiedlich belichtete Bilder aufzunehmen –, aber für den gesamten Dynamikumfang des Auges muss man die Dunkeldaptation nutzen, für die relativ langsame chemische Prozesse in der Netzhaut nötig sind. Die Dunkeldaptation dauert lange, ist aber durch zu viel Licht schnell ruiniert; man kann also, wenn man endlich im Dunkeln gut sehen kann, nicht einfach wieder ins Helle schauen und dann erneut ins Dunkle. Und grelles Sonnenlicht können wir uns gar nicht anschauen, ohne unsere Augen zu schädigen. Galileo Galilei, ein eifriger und furchtloser Beobachter der Sonne, war im Alter blind – so kann es kommen, wenn man den Dynamikumfang des Auges überschätzt.

Jedenfalls: Auch unsere Augen schaffen die fabelhaften Dynamikumfänge, die gelegentlich angegeben werden, nur nacheinander – und teilweise mit großem Zeitabstand.

Edited by mjh
Link to post
Share on other sites

Hallo,

ich habe da ein Beispiel vom vergangenen Sonntag: das vergitterte Fenster eines alten Pumpenhauses. Es ist im Inneren unbeleuchtet, Licht fällt nur durch 2 oder 3 kleine Fensterluken hinein. 

Für meine Augen sah die Szene so aus wie in Bild 1. Das ist das unbearbeitete jpeg aus der T5. Im Inneren des Gebäudes konnte ich schemenhaft etwas von den darin befindlichen Maschinen erkennen, wenn ich mit der Nase bis fast an die Gitterstäbe stieß. Das Umgebungslicht also weitestgehend ausgeblendet war.

Bild 2 zeigt ungefähr das, was der Sensor der T5 aufgenommen hat. Ich habe dazu in Capture One einfach an den Reglern für die Tiefen und die Schwärzen gedreht und die Belichtung um 0,4 angehoben. Es ist aus der RAW Datei entwickelt.

Man kann sehr schön erkennen, dass der Sensor gleichzeitig mit dem Tageslicht und der tiefen Dunkelheit im Inneren des Pumpenhauses zurcht kommt. 

Das schaffen meine Augen nicht! 

Welcome, dear visitor! As registered member you'd see an image here…

Simply register for free here – We are always happy to welcome new members!

 

 

 

Welcome, dear visitor! As registered member you'd see an image here…

Simply register for free here – We are always happy to welcome new members!

 

 

Link to post
Share on other sites

vor 1 Stunde schrieb sulak:

Hallo,

ich habe da ein Beispiel vom vergangenen Sonntag: das vergitterte Fenster eines alten Pumpenhauses. Es ist im Inneren unbeleuchtet, Licht fällt nur durch 2 oder 3 kleine Fensterluken hinein. 

Für meine Augen sah die Szene so aus wie in Bild 1. Das ist das unbearbeitete jpeg aus der T5. Im Inneren des Gebäudes konnte ich schemenhaft etwas von den darin befindlichen Maschinen erkennen, wenn ich mit der Nase bis fast an die Gitterstäbe stieß. Das Umgebungslicht also weitestgehend ausgeblendet war.

Bild 2 zeigt ungefähr das, was der Sensor der T5 aufgenommen hat. Ich habe dazu in Capture One einfach an den Reglern für die Tiefen und die Schwärzen gedreht und die Belichtung um 0,4 angehoben. Es ist aus der RAW Datei entwickelt.

Man kann sehr schön erkennen, dass der Sensor gleichzeitig mit dem Tageslicht und der tiefen Dunkelheit im Inneren des Pumpenhauses zurcht kommt. 

Das schaffen meine Augen nicht! 

Welcome, dear visitor! As registered member you'd see an image here…

Simply register for free here – We are always happy to welcome new members!

 

 

 

Welcome, dear visitor! As registered member you'd see an image here…

Simply register for free here – We are always happy to welcome new members!

 

 

Danke für das sehr gute Beispiel! Ich wollte schon erwähnen, das wir doch nicht mehr warten müssen, da die Technik plus das persönlich vorhandene Know-how die gewünschten Ergebnisse bringen!

Link to post
Share on other sites

Irgendwie ermüdend, wenn hier trotzig behauptet wird, daß das Auge in einem und denselben Moment eine enorme Dynamik vollständig wiedergeben könnte....

Dass dem NICHT so ist, weiß ja im Grunde jeder, was diese absurden Behauptungen ja bereits aus simpler, reiner Lebenserfahrung klar widerlegt: Kommt man aus einem sehr dunklen Raum in helles Sonnenlicht, blinzelt man völlig geblendet. Erst nach der allmählichen  Adaptation hält man das aus und kann man wieder sehen. Dreht man sich dann herum, sieht man nicht mehr alles im dunklen Raum wie zuvor. Also das Gleiche, nur andersherum.

Dass die hier behaupteten 20 Blenden Augen-"Dynamik" schlicht falsch sind, weiß auch jeder, der die grausamen Spielereien in der Einführungsphase der HDR-Fotografie mitbekommen hat: da haben ca. 99% der HDR-Fotos Szenen gezeigt, bei denen man sich nur abwenden konnte: JEDER empfand diese entsetzlichen Fotos als unrealistisch. Das tut man nur, wenn das eigene Gehirn aufgrund der täglichen Erfahrung ein klares Urteil fällt: "Das gibt es so in der Realität nicht!" .

Bei der primären Gestaltung von Fotos bereits in der Entstehungsphase und auch in der Nachbearbeitung versucht man in der Regel eher, durch gezielte Beeinflussung bildwichtiger Bereiche das Licht zu führen. Und das ist nicht selten auch bewusste EINSCHRÄNKUNG der Dynamik.

Insofern geht meiner ganz persönlichen Meinung nach bereits das Eingangsposting wegen seiner rein technischen, von seiner gestalterischen  Betrachtung völlig freien Inhalte völlig in die falsche Richtung.

Ich persönlich finde es zwar gut, wenn der technische Dynamikbereich zukünftig erweitert wird - aber lediglich aus dem Grund, ausgefressene Lichter und abgesoffene Tiefen primär erst mal NOCH MEHR ALS derzeit möglich zu vermeiden. Bereits heute hat man mit DR-Funktionen und dem Histogramm beim Fotografieren enorme Möglichkeiten der Verringerung des Risikos, den Dynamikbereich zu verlassen. Ist einfaches Handwerk, welches uns Ansel Adams bereits vor hundert Jahren erklärte. Selbst in Zeiten der digitalen Fotografie hat sein Zonen-System eine Bedeutung für die Gestaltung und Wahrnehmung der Fotografischen Endprodukte. durch den Betrachter ... Und heutzutage kann man dann anschließend in der durch die hohe Dynamik erleichterten Nachbearbeitung GEZIELT das Foto so zu gestalten, daß durch sinnvolle und natürlich erscheinende Gestaltung (auch des dann auf ein realistisches Maß reduzierten Eindruck des dynamischen Umfangs) eine dem menschlichen Sehen und Wahrnehmung entsprechende Anmutung zu erreichen.

Irgendwie  habe ich den Eindruck, daß eine absurde Entwicklung der Ansprüche vonstatten geht: Die technischen Möglichkeiten der Fotografie sind mittlerweile absolut grandios - und anstatt darüber glücklich zu sein und das fotografisch einfach zu nutzen, werden immer mehr und immer fotografisch allenfalls nur noch für Extremsituationen interessante Anforderungen  aufgestellt.... manchmal stelle ich mir die Frage, ob es überhaupt noch um Fotografie und Gestaltung geht - oder nur noch fototechnisches Kartenquartett gespielt wird... ;):D

 

Edited by hybriderBildersucher
Link to post
Share on other sites

vor 6 Minuten schrieb hybriderBildersucher:

Die technischen Möglichkeiten der Fotografie sind mittlerweile absolut grandios - und anstatt darüber glücklich zu sein und das fotografisch einfach zu nutzen, werden immer mehr und immer fotografisch allenfalls nur noch für Extremsituationen interessante Anforderungen  aufgestellt.... manchmal stelle ich mir die Frage, ob es überhaupt noch um Fotografie und Gestaltung geht - oder nur noch fototechnisches Kartenquartett gespielt wird... ;):D

 

🤙

Fotografisch nutzen der ganzen technischen SchnickSchnack Möglichkeiten tun hier in den "Technikdiskussionen" die wenigsten. Hier gehts nur um Theorie und aufstellen mathematisch/technischer Formeln warum das so ist. Deshalb ziehen sich ja auch diese Threads wie Kaugummi 😉 

 

Link to post
Share on other sites

vor 25 Minuten schrieb hybriderBildersucher:

Irgendwie  habe ich den Eindruck, daß eine absurde Entwicklung der Ansprüche vonstatten geht: D

jo, aber die Fotos werden leider nicht besser😇 Am einfachsten lässt sich das durch ein kleines Gedankenexperiment lösen. Wie viele wirklich gute Fotos hab ich auf der Festplatte, die mit besserer Technik noch besser wären?

Edited by wembly
Link to post
Share on other sites

vor einer Stunde schrieb hybriderBildersucher:

...Dass die hier behaupteten 20 Blenden Augen-"Dynamik" schlicht falsch sind, weiß auch jeder, der die grausamen Spielereien in der Einführungsphase der HDR-Fotografie mitbekommen hat: da haben ca. 99% der HDR-Fotos Szenen gezeigt, bei denen man sich nur abwenden konnte: JEDER empfand diese entsetzlichen Fotos als unrealistisch. Das tut man nur, wenn das eigene Gehirn aufgrund der täglichen Erfahrung ein klares Urteil fällt: "Das gibt es so in der Realität nicht!" ....

Das mit den fürchterlichen Bildern kann ich so bestätigen - es taugt nur nicht als Begründung wie von dir dargelegt. 

Bei diesen Bildern wurde keine Dynamik erhöht, sondern im Gegenteil komprimiert. Da wurden über mehrere Aufnahmen unterschiedliche Belichtung, die wahrscheinlich in Summe deutlich mehr als 10 Blenden waren, ein einziges sogenanntes HDR gebildet, das wiederum nur über max. 8 Bit verfügte. 

Das kann man machen, aber in der Frühzeit gab es sehr viele Bilder mit einem extremen Tone-Mapping. Dies führte dazu, dass manche Szenen aussahen wie aus einem Computerspiel. 

Link to post
Share on other sites

Ich habe mal im Rahmen einer Fortbildung an einem Wahrnehmungsexperiment teilgenommen, welches realisieren ließ, wie eingeschränkt tatsächlich die Leistung des menschlichen Auges ist (weitgehend unscharf, farblos und dynamisch eingeschränkt). 
Erst das Gehirn bastelt aus den vielen kontinuierlichen Informationen ein Bild, welches wir als realistisch erachten. 


Technisch sind wir da bei Kameras schon lange viel weiter. 

Link to post
Share on other sites

vor 17 Minuten schrieb zappa4ever:

Das mit den fürchterlichen Bildern kann ich so bestätigen - es taugt nur nicht als Begründung wie von dir dargelegt. 

Bei diesen Bildern wurde keine Dynamik erhöht, sondern im Gegenteil komprimiert. Da wurden über mehrere Aufnahmen unterschiedliche Belichtung, die wahrscheinlich in Summe deutlich mehr als 10 Blenden waren, ein einziges sogenanntes HDR gebildet, das wiederum nur über max. 8 Bit verfügte. 

Das kann man machen, aber in der Frühzeit gab es sehr viele Bilder mit einem extremen Tone-Mapping. Dies führte dazu, dass manche Szenen aussahen wie aus einem Computerspiel. 

Selbstverständlich ist es komprimiert gewesen - fast alles wird im Netz auf jpg komprimiert.

Aber ich finde das Beispiel trotzdem richtig, denn es ging mir darum, die ganz überwiegende Sinnlosigkeit  der "aggressiven" Unterbringung einer als Unrealistisch anmutenden und eher abschreckenden Dynamik aufzuzeigen. Heutzutage wird ja auch viel zurückhaltender damit umgegangen. Eine gut balancierte HDR Nutzung ist gut - aber sie hat wohl nie 20 EV voll ausgespielt, sondern nur subtile Nutzung der sinnvollen Dynamikerweiterung.

Link to post
Share on other sites

vor 37 Minuten schrieb zappa4ever:

Bei diesen Bildern wurde keine Dynamik erhöht, sondern im Gegenteil komprimiert. Da wurden über mehrere Aufnahmen unterschiedliche Belichtung, die wahrscheinlich in Summe deutlich mehr als 10 Blenden waren, ein einziges sogenanntes HDR gebildet, das wiederum nur über max. 8 Bit verfügte. 

Wobei man mit 8 Bit immerhin noch deutlich mehr als 8 Blendenstufen wiedergeben kann … Die Komprimierung des Tonwertumfangs ist nötig, eben weil unsere Augen mit so hohen Kontrasten nicht klar kommen. Selbst wenn wir uns an verschiedene Helligkeiten anpassen können, strengt das an, und niemand würde sich wohl fühlen, der extreme Kontraste in Spielfilmlänge aushalten müsste. Und natürlich wollen wir nicht, dass wir uns die Hände vor die Augen halten müssen, wenn mal die Sonne im Bildfeld ist.

Link to post
Share on other sites

@DRS hat es heute mal wieder im XH2s-Thread sehr schön auf den Punkt gebracht:

 

"Ich glaube die Kamera  taugt heute nicht mehr  als Ausrede,  wenn einem ein Bild nicht gelingt und das ist systemübergreifend so. Es geht mir ein bisschen zu wenig darum, wie man es mit dem was man hat hinbekommt, sondern meistens darum was man dann wieder bräuchte und was die Kamera nun wieder nicht kann oder automatisch falsch macht. Es ist ja gut für die Hersteller, wenn die Leute lieber nach einer neuen Kamera suchen, als nach einer Lösung für ihr Problem."

👍

Link to post
Share on other sites

vor einer Stunde schrieb AS-X:

Erst das Gehirn bastelt aus den vielen kontinuierlichen Informationen ein Bild, welches wir als realistisch erachten. 

 

Und diese Realität ist sehr individuell. Das fällt vorallem bei krassen Abweischungen auf, wie z.B. Nachtblindheit. Inwieweit Auge und/oder Hirn zu zu dem individuellen "Sehergebniss" führen ist ein breites Feld. Input Auge - Output Hirn. Und dazwischen ein mehr oder weniger leistungsfähiges Kabel - Sehnerv etc.

Edited by Maikäfer
Link to post
Share on other sites

vor 17 Stunden schrieb Batzman:

Gerüchten zufolge soll in das kommende Google Pixel 8 ein neuer Sensor von Samsung verbaut werden, der neben eines verbesserten Autofokus auch gestaffeltes HDR ermöglichen soll. Dabei können die Pixel auf dem Sensor mit einer Aufnahme unterschiedlich lange Belichtet werden und ermöglichen so ein HDR-Aufnahme ohne mehrere Bilder aufnehmen zu müssen.

Samsung baut Quad-Bayer-Sensoren, mit denen es schon länger möglich ist, jede zweite Pixelzeile für HDR-Aufnahmen kürzer zu belichten (ähnlich wie das Fujis EXR-Sensoren schon vor 14 Jahren konnten). Google hat zuletzt auf Sonys neues Octa-PD-Sensorkonzept gesetzt, bei dem das ebenfalls möglich ist. Dabei wird dann jeweils Auflösung für den Dynamikumfang geopfert.

Link to post
Share on other sites

vor 20 Stunden schrieb hybriderBildersucher:

@DRS hat es heute mal wieder im XH2s-Thread sehr schön auf den Punkt gebracht:

 

"Ich glaube die Kamera  taugt heute nicht mehr  als Ausrede,  wenn einem ein Bild nicht gelingt und das ist systemübergreifend so. Es geht mir ein bisschen zu wenig darum, wie man es mit dem was man hat hinbekommt, sondern meistens darum was man dann wieder bräuchte und was die Kamera nun wieder nicht kann oder automatisch falsch macht. Es ist ja gut für die Hersteller, wenn die Leute lieber nach einer neuen Kamera suchen, als nach einer Lösung für ihr Problem."

👍

Beim letzten Punkt liegt ja das Hauptproblem (... als nach einer Lösung für ihr Problem.) Die Leute machen einfach keine Fehler, warum sollten sie da bei sich nach Lösungen suchen?.... ich hoffe jedem ist der kleine Schuss Ironie klar, den ich hier versprühe.

Schuld sind immer die anderen, und ein Stück Technik kann sich da ja leider nicht wehren....

Edited by ThorstenN.
Link to post
Share on other sites

vor 11 Minuten schrieb ThorstenN.:

Beim letzten Punkt liegt ja das Hauptproblem (... als nach einer Lösung für ihr Problem.) Die Leute machen einfach keine Fehler, warum sollten sie da bei sich nach Lösungen suchen?.... ich hoffe jedem ist der kleine Schuss Ironie klar, den ich hier versprühe.

Schuld sind immer die anderen, und ein Stück Technik kann sich da ja leider nicht wehren....

Deswegen bin ich ja hier, um Lösungen für meine Probleme zu finden. ;)

Und es wäre ja langweilig, wenn eine Kamera alles könnte bzw. man nur ein Knöpfchen drücken müsste...

Edited by Vector
Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

×
×
  • Create New...