Jump to content

Wann kommen HDR Bildsensoren?


Empfohlene Beiträge

vor 3 Minuten schrieb EFM:

Wer  mal eine "2. Meinung" zu diesem Thema lesen will: ist ein Beitrag im Netz leicht zu finden unter: "Andreas Martin, Die beste Kamera der Welt, das menschliche Auge + Vergleich mit Fotografie"

Ich kann hier (https://www.fotoworkshop-stuttgart.de/das-menschliche-auge-und-die-fotografie/) keine abweichende 2. Meinung erkennen - nur andere Formulierungen dessen, was bereits oben hier im Thread beschrieben wurde.

Link zum Beitrag
Auf anderen Seiten teilen

Da brauche ich keine Meinung. Die Fähigkeiten des Auges sind ja bekannt. Aber ich brauche keine Kamera wie mein Auge/Hirn. Mit dem Fotografieren möchte ich ja etwas anderes machen, kreativ sein, meinetwegen auch mit meinen bescheidenen Mitteln Kunst schaffen, egal. Da bin ich auf jeden Fall der limitierendste Faktor und nicht die Kamera.
Jeden Lidschlag als Foto zu speichern kann jedenfalls nicht der Sinn der Sache sein. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb Don Pino:

Ich kann hier (https://www.fotoworkshop-stuttgart.de/das-menschliche-auge-und-die-fotografie/) keine abweichende 2. Meinung erkennen - nur andere Formulierungen dessen, was bereits oben hier im Thread beschrieben wurde.

Na gut , ich fasse noch mal zusammen: es geht im Prinzip darum, ob die Kamerasensoren dem menschlichen Sehvermögen überlegen sind, speziell im Dynamikbereich oder nicht. Es wird hier ja vielfach angezweifelt. Die Werte hierzu 20 EV für das Auge  oder 12 EV für den Sensor werden genannt. Nebenbei, wenn die Sensoren im Dynamikbereich so gut sind wie z. B. mjh geschrieben hat, warum ist dann die HDR Prozedur mit Mehrfachaufnahmen notwändig?☹

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Ob überlegen oder nicht spielt doch keine Rolle. Sie sehen einfach anders: Langzeitbelichtung, extreme Kurzzeitbelichtung, S/W, Farben, Dimensionen, Schärfentiefe, fehlende selektive Wahrnehmung. Aus dem „anders“ etwas zu machen ist doch die Herausforderung.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb EFM:

Nebenbei, wenn die Sensoren im Dynamikbereich so gut sind wie z. B. mjh geschrieben hat, warum ist dann die HDR Prozedur mit Mehrfachaufnahmen notwändig?☹

Weil der Sensor, genauso wie die Netzhaut, nur einen beschränkten Dynamikumfang gleichzeitig erfassen kann. Diese Beschränkung der Kamera kann mit Mehrfachaufnahmen umgangen werden, dem Auge musst Du bei extrem hellen Bereichen mit einem Sonnenfilter helfen. Um dunkle Stellen zeitnah (nicht zeitgleich, weil das nicht geht) mit sehr hellen gut sehen zu können, musst Du die hellen Bereiche ausblenden und wenn es richtig dunkel ist, musst du mehrere Minuten auf die bereits mehrfach angesprochene Dunkeladaption warten.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb EFM:

Nebenbei, wenn die Sensoren im Dynamikbereich so gut sind wie z. B. mjh geschrieben hat, warum ist dann die HDR Prozedur mit Mehrfachaufnahmen notwändig?☹

Weil es in der Natur immer noch größere Dynamikumfänge gibt, als sie technisch gleichzeitig zu erfassen sind ;) .

Link zum Beitrag
Auf anderen Seiten teilen

Der Punkt ist doch: Zeige mir einen Fotografen, der sich über den mangelnden Dynamikumfang seiner Kamera beklagt, und ich zeige Dir einen Fotografen, der nicht so gut ist, wie er sein könnte. Aber dazulernen kann man ja immer.

Nebenbeibemerkt: Das menschliche Auge ist keine Kamera, schon gar nicht die beste. Tatsächlich hat es alle Arten von Mängeln, die wir bei keiner Kamera akzeptieren würden. Aber das Auge ist ja auch nur ein Teil des Gehirns und in der Nachbearbeitung im visuellen Cortex werden die Mängel wieder kompensiert. Aber der entscheidende Unterschied ist: Das Auge (und das Gehirn) registrieren keine Bilder, sondern erkennen unsere Umwelt; bei Kameras ist es umgekehrt. Wobei KI-Funktionen neuerer Modelle auch schon eine begrenzte Erkennungsleistung erbringen. Vor gut vier Jahren hatte ich das Thema schon einmal behandelt: https://www.docma.info/blog/wie-viele-megapixel-hat-das-menschliche-auge, und vor zwei Jahren (aus akutem Anlass) noch mal aus einem etwas anderen Blickwinkel: https://www.docma.info/blog/auge-um-auge.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb EFM:

Die Werte hierzu 20 EV für das Auge  oder 12 EV für den Sensor werden genannt.

Das Auge darf zum Erreichen dieses Wertes seine Pupille verwenden, der Sensor aber kein vorgeschaltetes Objektiv mit Blendenverstellung? Welchen Sinn sollte das ergeben? Warum vergleicht er die Netzhaut nicht mit dem Sensor, oder das Auge mit einer kompletten Kamera?

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb EFM:

Na gut , ich fasse noch mal zusammen: es geht im Prinzip darum, ob die Kamerasensoren dem menschlichen Sehvermögen überlegen sind, speziell im Dynamikbereich oder nicht. Es wird hier ja vielfach angezweifelt. Die Werte hierzu 20 EV für das Auge  oder 12 EV für den Sensor werden genannt. Nebenbei, wenn die Sensoren im Dynamikbereich so gut sind wie z. B. mjh geschrieben hat, warum ist dann die HDR Prozedur mit Mehrfachaufnahmen notwändig?☹

Im Grunde macht das menschliche Auge auch "Mehrfachaufnahmen" mit der Pupille mit anschließender Verrechnung im Gehirn.  Andreas Martin formuliert diese folgendermaßen: "Unser Auge schafft die 20 Blendenstufen, da im Gehirn ein HDR (!) errechnet wird". Summasumarum haben die meisten hier im Thread eine übereinstimmende Meinung.

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Stunden schrieb Uwe1956:

Ich bin jedenfalls noch nie von einem Bild geblendet worden, auch wenn die Sonne abgebildet ist, und das ist gut so. Ich möchte nur ungern mit der Sonnenbrille in eine Ausstellung gehen. 😉

Ich wurde schon von einem Bild geblendet.

Vor einigen Jahren, als HDR in der Öffentlichkeit noch völlig unbekannt war, hatte ich das Glück, auf einer Messe bei einem großen Hersteller eine nicht für alle Messebesucher zugängliche Vorführung zu sehen. Dort gab es Strandszenen, bei denen man wirklich gesehen hat, dass es ein gleißend heller Sonnentag war und Straßenszenen mit gleißend hellen Hauswänden und im Schatten liegenden Bürgersteigen, die noch Zeichnung enthielten. Tatsächlich etwas geblendet wurde ich bei einer Szene in einer schummrigen Werkstatt, in der geschweißt wurde. Natürlich nicht ganz so hell wie ein echter Schweißpunkt. Aber doch so, dass ich es als unangenehm empfunden habe. 

Beruflich habe ich schon seit den 1980er Jahren miterlebt, wie die HDTV-Standards bis hin zu 8K entwickelt wurden. HDR war das erste, was mich wirklich beeindruckt hat und als möglicherweise erstrebenswert erschien. Aber schon nach der Vorführung hat ein Professor von einem Fraunhofer Institut die Befürchtung gehabt, dass das als Standarddynamikumfang zu viel weil zu anstrengend sei, so wie @mjh ja schon angemerkt hatte.

 

Entschuldigt meine OT Alte-Männer-Erinnerung:).

bearbeitet von Jürgen Heger
Link zum Beitrag
Auf anderen Seiten teilen

vor 58 Minuten schrieb mjh:

Der Punkt ist doch: Zeige mir einen Fotografen, der sich über den mangelnden Dynamikumfang seiner Kamera beklagt, und ich zeige Dir einen Fotografen, der nicht so gut ist, wie er sein könnte. Aber dazulernen kann man ja immer.

Nebenbeibemerkt: Das menschliche Auge ist keine Kamera, schon gar nicht die beste. Tatsächlich hat es alle Arten von Mängeln, die wir bei keiner Kamera akzeptieren würden. Aber das Auge ist ja auch nur ein Teil des Gehirns und in der Nachbearbeitung im visuellen Cortex werden die Mängel wieder kompensiert. Aber der entscheidende Unterschied ist: Das Auge (und das Gehirn) registrieren keine Bilder, sondern erkennen unsere Umwelt; bei Kameras ist es umgekehrt. Wobei KI-Funktionen neuerer Modelle auch schon eine begrenzte Erkennungsleistung erbringen. Vor gut vier Jahren hatte ich das Thema schon einmal behandelt: https://www.docma.info/blog/wie-viele-megapixel-hat-das-menschliche-auge, und vor zwei Jahren (aus akutem Anlass) noch mal aus einem etwas anderen Blickwinkel: https://www.docma.info/blog/auge-um-auge.

Danke für den Beitrag. Irgendwie kommen wir der Sache näher. Also ich bin vielleicht ein durchschnittlicher Fotograf.Ich bin aber weder mit meiner D 850 noch mit meiner Pro 3 bei manchen Szenen mit dem Dynamikumfang zufrieden. Womöglich sind die Sensoren auch defekt☹. Da ich hauptsächlich im Freien Street, Reportage oder Doku fotografiere, kommt es mir sozusagen auf eine HiFi Wiedergabe an. Dass das Auge, oder das im Gehirn generierte Bild "besser" ist liegt in der Natur der Sache: die Kamera kann nicht mit räumlicher Tiefe aufzeichnen und das im Gehirn erzeugte Bild ist wesentlich grösser.  Deshalb sind WW Aufnahmen auf einem Bildschirm immer eindrucksvoller. Meine Aufnahmen vom Grand Canyon mit einem 14 mm kommen auf meinem 55 Zoll HDR viel besser rüber als auf einem A3 Druck. Über den Dynamikumfang streiten wir hier noch. Bei der Schärfe ist m. E. N. die Kamera mittlerweile überlegen.

Das Gehirn oder die erkannte Umwelt erzeugt wie beschrieben quasi in Echtzeit ein HDR Bild. Das gilt übrigens auch für die Schärfe, das alles kann keine Kamera. 

Da ich es selbst nicht nachprüfen, stimmt nun die Aussage über den Dynamikumfang :Mensch ca. 20 Blendenstufen, Kamera mit RAW max. 14 Blendenstufen? Wie wir wissen bedeutet eine Blendenstufe die halbe oder Doppelte Lichtmenge.

Link zum Beitrag
Auf anderen Seiten teilen

Es ist eigentlich alles schon hinreichend erklärt und auch der Artikel auf den du dich beziehst besagt, dass das Gehirn die unterschiedlichen Belichtungen verrechnet und nicht dass das Auge so einen gigantischen Umfang aufgrund des Sensors bzw. der Netzhaut so zeitgleich aufnehmen kann. 
Also was genau ist nun deine Frage, ich verstehe es ehrlich gesagt nicht. 

Link zum Beitrag
Auf anderen Seiten teilen

... vielleicht sollten einfach manche endlich einmal damit aufhören, die komplexen Fähigkeiten unseres Gehirns mit den eingeschränkten technischen Möglichkeiten diverser optischer Vorrichtungen zu vergleichen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 56 Minuten schrieb hybriderBildersucher:

Der wird extrem teuer - und ist ausschliesslich für industrielle Fertigungsanlagen. konzipiert... 

Stimmt derzeit noch, kann man aber abwarten wann die Adaption für den Konsumerbereich kommt.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb EFM:

Stimmt derzeit noch, kann man aber abwarten wann die Adaption für den Konsumerbereich kommt.

Das wird nicht passieren, weil 2 völlig verschiedene Konzepte. Im Produktionsanlagenbau und im militärischen/Sicherheitsbereich spielt der preis keine große Rolle.... und Stromverbrauch, Größe, Gewicht, nötige Rechnerleistung, .... ebenfalls nicht. 

Oder erwartest Du (um mal einen lustigen Vergleich zur Verdeutlichung zu bringen), daß demnächst Varianten des Hubble-Teleskops im  Consumerbereich angeboten werden? ;):D

Ich habe mal vor fast 40 Jahren in der zivilen Forschung  für bestimmte Messungen u.a. mit einem Restlichtverstärker gearbeitet, der (damals) streng militärisch geheim war. den gibt es immer noch nicht als Consumer-Variante.  Wurde im Leopard verbaut... Auf Dpreview gibt es jemand im Forum, der vor Jahrzehnten an der Entwicklung von Linsen und Objektiven bei Fairchild Optics für militärische und Spionage-Satelliten beteiligt war.Der hat auch immer wieder darauf hingewiesen, daß Vieles, was technisch machbar ist, eben NIE den Weg in den zivilen Konsumentenbereich findet.

 Es gibt eben Bereiche, die in den Bereich "Costs - are no issue!" fallen. Und es dauert bisweilen Jahrzehnte, bis die Technologien dann (vielleicht) als "Abfall-Produkte" in den zivilen Bereich kommen.... wenn überhaupt. Oder hast Du bereits einen Quantenrechner zuhause? ;)

bearbeitet von hybriderBildersucher
Link zum Beitrag
Auf anderen Seiten teilen

vor 33 Minuten schrieb hybriderBildersucher:

Das wird nicht passieren, weil 2 völlig verschiedene Konzepte. Im Produktionsanlagenbau und im militärischen/Sicherheitsbereich spielt der preis keine große Rolle.... und Stromberg, Größe, Gewicht, nötige Rechnerleistung, .... ebenfalls nicht. 

Oder erwartest Du (um mal einen lustigen vergleich zur Verdeutlichung zu bringen), daß demnächst Varianten des Hubble-Teleskops im  Consumerbereich angeboten werden? ;):D

Ich habe mal vor fast 40 Jahren in der zivilen Forschung  für bestimmte Messungen u.a. mit einem Restlichtverstärker gearbeitet, der (damals) streng militärisch geheim war. den gibt es immer noch nicht als Consumer-Variante.  Wurde im Leopard verbaut... Auf Dpreview gibt es jemand im Forum, der vor Jahrzehnten an der Entwicklung von Linsen und Objektiven bei Fairchild Optics für militärische und Spionage-Satelliten beteiligt war. Es gibt eben Bereiche, die in den Bereich "Costs - are no issue!" fallen. Und es dauert bisweilen Jahrzehnte, bis die Technologien dann (vielleicht) als "Abfall-Produkte" in den zivilen Bereich kommen....  Oder hast Du bereits einen Quantenrechner zuhause? ;)

Einen Quantenrechner habe ich noch nicht, aber bestellt ist er. Kann nur leider wegen fehlender Chips nicht geliefert werden☹. Mal abwarten wer richtig liegt. Woher weisst Du wie teuer der Canon Sensor wird? Der ist ja noch nicht mal fertig entwickelt. Offenbar besteht auch kein Bedarf nach einem besseren Sensor, ist wie hier mehrfach  dargelegt, dem Auge ohnehin überlegen🤔

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Minuten schrieb EFM:

Einen Quantenrechner habe ich noch nicht, aber bestellt ist er. Kann nur leider wegen fehlender Chips nicht geliefert werden☹. Mal abwarten wer richtig liegt. Woher weisst Du wie teuer der Canon Sensor wird? Der ist ja noch nicht mal fertig entwickelt. Offenbar besteht auch kein Bedarf nach einem besseren Sensor, ist wie hier mehrfach  dargelegt, dem Auge ohnehin überlegen🤔

Gegenfrage:

Warum postest Du eine von der PR-Abteilung Canon gestreute Meldung zu  noch zu entwickelnden Produkten im industriellen Produktionsbereich, bei dem es ganz sicher um Anwendungen geht, die nun wirklich ganz sicher NICHTS mit dem Lastenheft von Foto-Kameras zu tun haben und was deswegen zudem völlig am Thema hier vorbeigeht?

Zusatzfrage: Warum verschweigst Du dann auch noch, daß es sich bei der "Entwicklung" mitnichten um einen Sensor für Kameras, sondern einzig für industrielle Anforderungen handelt?

 

 

bearbeitet von hybriderBildersucher
Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Minuten schrieb hybriderBildersucher:

Gegenfrage:

Warum postest Du eine von der PR-Abteilung Canon gestreute Meldung zu  noch zu entwickelnden Produkten im industriellen Produktionsbereich, bei dem es ganz sicher um Anwendungen geht, die nun wirklich ganz sicher NICHTS mit dem Lastenheft von Foto-Kameras zu tun haben und was deswegen zudem völlig am Thema hier vorbeigeht?

Zusatzfrage: Warum verschweigst Du dann auch noch, daß es sich bei der "Entwicklung" mitnichten um einen Sensor für Kameras, sondern einzig für industrielle Anforderungen handelt?

 

 

Sieh Dir mal das Thema dieses Threads an: Wann kommen HDR Sensoren? Auch eine Industrie Kamera ist eine Kamera nur mit unterschiedlichen Anforderungen. Soweit mir bekannt ist, baut Canon auch Konsumerkameras, da ist eine Verbindung nicht undenkbar. In anderen Threads wird ja auch über die Entwicklung von neuen Geräten, wie z. B. der Pro 4 spekuliert. Warum also nicht hier, wenn es genau das Thema ist.

Link zum Beitrag
Auf anderen Seiten teilen

vor 35 Minuten schrieb EFM:

Sieh Dir mal das Thema dieses Threads an: Wann kommen HDR Sensoren? Auch eine Industrie Kamera ist eine Kamera nur mit unterschiedlichen Anforderungen. Soweit mir bekannt ist, baut Canon auch Konsumerkameras, da ist eine Verbindung nicht undenkbar. In anderen Threads wird ja auch über die Entwicklung von neuen Geräten, wie z. B. der Pro 4 spekuliert. Warum also nicht hier, wenn es genau das Thema ist.

ach - die X-Pro4 wird zur Kontrolle und Überwachung in der industriellen Produktion eingesetzt? wie spannend.... 🤣

ich merke schon, Du willst unbedingt OT gehen. ohne mich.

Link zum Beitrag
Auf anderen Seiten teilen

Das Problem ist, das Auge allein sieht nichts, erst zusammen mit dem extrem anpassungsfähigen Gehirn entsteht ein visueller Eindruck einer Szene, das Gegensätze ausgleicht. Sehe ich hingegen ein Foto an, sehe ich auf eine farbige FLäche (2D) in naher Entfernung, auf dem eine Szene von hell bis dunkel abgebildet wird, weder räumlich noch genausogroß usw.

Nach 20J digitaler Fotografie würde ich sagen, entscheidend ist der "Roll- off" in den Lichtern (geschmeidig, weich), und ein paar Details in den Schatten. Ausgebrannt und Pechschwarz sehen meist nicht so gut aus.  Was die Lichter betrifft, waren die beiden besten Kameras, die ich je hatte, die Fuji S3pro und S5pro, die ein zweites Pixel- Set nur für die Lichter hatten. Das sah angenehm "analog" nach Film aus, leider war die Auflösung am unteren Rand des Ausreichenden (2x6MP) und in den Schatten rauschte es schnell, so wie auch über ISO800.

Vor ein paar Tagen gab es einen Artikel auf Fujirumors, dass Canon einen Sensor mit HDR (über 20 Blenden) entwickelt, wo verschiedene Zonen des Sensors verschieden lang belichtet werden. Ich verstehe nicht genug von Technik, aber schätze, mit dem Global shutter wird das vermutlich möglich sein. 

In der Praxis reicht aber ja die Dynamik heutiger Sensoren meist aus, außer bei extremen Kontrasten von Sonne bis tiefe Schatten. Dann nehme ich aber ein paar weiße Zonen in Kauf, sofern die Übergänge nicht zu hart sind.

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...