Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Am 13.12.2025 um 05:32 schrieb Dare mo:

Nö. Wenn man weiß, wie man mit der heutigen Technik umzugehen hat, geht das sehr gut. Und wenn ich eine solche Aussage lese, stelle ich mir die Frage, wie die ganzen Fotografen in der analogen Zeit geschafft haben, wo die Technik noch viel weniger Möglichkeiten geboten haben? Es liegt doch viel mehr am Fotografen, mit den Lichtverhältnissen und mit seinem Equipment umzugehen. Wer das nicht kann oder möchte, ruft dann einfach schnell nach noch mehr Hilfe von Technik. Doch es ist schon seltsam, dass man mit Kameras mit viel geringerem Dynamikumfang auch schon Fotos bei hohen Kontrasten im Freien Bilder machen konnte. Daher würde ich sagen, das Problem liegt nicht bei der Technik und dem "zu geringen Dynamikumfang" sondern eher hinter der Kamera. 😉

Zudem ist es schon eine alte Fotografenweisheit, dass man nicht zur Mittagszeit fotografiert, gerade weil es da so extreme Lichtverhältnisse gibt. Aber selbst im grellen Mittagslicht kann man etwas daraus machen, indem man Schatten und Gegenlicht als Gestaltungsmittel nutzt. Ein Lieblingsspruch meines alten Meisters während der Lehre war: "Mensch Kerle, du däffst älles, blos eben ned bleed sei!😄

Zur analogen Zeit war es lt. Copilot so:

🎞️ Dynamikumfang eines Farbnegativfilms

Die typischen Werte liegen bei etwa 10–14 Blendenstufen (EV). Das bestätigt die gefundene Quelle sehr eindeutig: Farbnegativfilm (z. B. Portra, Fuji Pro) besitzt ca. 10–14 EV Dynamikumfang.

Früher war es zumindest nicht schlechter, wenn man mit der Technik "umgehen" konnte😄

Link zum Beitrag
Auf anderen Seiten teilen

Am 13.12.2025 um 12:27 schrieb Tommy43:

so programmieren

Ja derzeit ist die Programmierung aus irgendeinem Grund "springe/suche nach 1,5 Sekunden (auf) ein anderes zufälliges Gesicht, wiederhole das". Oder ein Bug der die Kamera denken lässt das Gesicht wäre weg ich muss neu suchen obwohl nix passiert ist? Was weiss ich.

bearbeitet von Keksdose
Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Minuten schrieb CMOS:

Die typischen Werte liegen bei etwa 10–14 Blendenstufen (EV). Das bestätigt die gefundene Quelle sehr eindeutig: Farbnegativfilm (z. B. Portra, Fuji Pro) besitzt ca. 10–14 EV Dynamikumfang.

Der KI ist nicht zu trauen … Tatsächlich ist der Dynamikumfang der Filmemulsionen – auch des Farbnegativfilms – weit geringer gewesen. Siehe https://clarkvision.com/imagedetail/dynamicrange2/

Der Farbnegativfilm war hauptsächlich deshalb in den fälschlichen Ruf eines großen Dynamikumfangs geraten, weil die Schwärzung zu den Lichtern hin weich anstieg. Filme mit jeweils zwei unterschiedlich empfindlichen Emulsionsschichten verstärkten diese Eigenschaft noch; man konnte sie locker um eine oder zwei Blendenstufen überbelichten und bekam dann sehr feinkörnige Prints, die durchaus richtig belichtet wirkten – man musste die hohe Dichte der Negative lediglich mit einer längeren Belichtungszeit beim Vergrößern ausgleichen. Zu den Schatten hingegen schwächelte der Film.

Die Sensoren der Digitalkameras verhalten sich umgekehrt; ihre Gammakurve geht zu den Lichtern hin abrupt in die Waagerechte über, so dass der Sensor keine Überbelichtung verzeiht, während er in den Schatten überraschend viel Potential für eine nachträgliche Aufhellung bietet (was bei den aktuellen, sehr rauscharmen Sensoren um so mehr gilt). Seit sich die Erkenntnis verbreitet hat, dass man Sensoren anders als Film belichten muss, nämlich „to the right“, gibt es kaum noch Probleme mit dem Dynamikumfang.

Link zum Beitrag
Auf anderen Seiten teilen

vor 33 Minuten schrieb mjh:

Der KI ist nicht zu trauen … Tatsächlich ist der Dynamikumfang der Filmemulsionen – auch des Farbnegativfilms – weit geringer gewesen. Siehe https://clarkvision.com/imagedetail/dynamicrange2/

Der Farbnegativfilm war hauptsächlich deshalb in den fälschlichen Ruf eines großen Dynamikumfangs geraten, weil die Schwärzung zu den Lichtern hin weich anstieg. Filme mit jeweils zwei unterschiedlich empfindlichen Emulsionsschichten verstärkten diese Eigenschaft noch; man konnte sie locker um eine oder zwei Blendenstufen überbelichten und bekam dann sehr feinkörnige Prints, die durchaus richtig belichtet wirkten – man musste die hohe Dichte der Negative lediglich mit einer längeren Belichtungszeit beim Vergrößern ausgleichen. Zu den Schatten hingegen schwächelte der Film.

Die Sensoren der Digitalkameras verhalten sich umgekehrt; ihre Gammakurve geht zu den Lichtern hin abrupt in die Waagerechte über, so dass der Sensor keine Überbelichtung verzeiht, während er in den Schatten überraschend viel Potential für eine nachträgliche Aufhellung bietet (was bei den aktuellen, sehr rauscharmen Sensoren um so mehr gilt). Seit sich die Erkenntnis verbreitet hat, dass man Sensoren anders als Film belichten muss, nämlich „to the right“, gibt es kaum noch Probleme mit dem Dynamikumfang.

Hm, wem kann man trauen? Ich kann es selbst leider nicht nachmessen. Das Argument gegen die KI gilt meist immer dann, wenn  es der eigenen Überzeugung entgegensteht. Sorry,  ist nicht despektierlich  gemeint. Ich gehe trotzdem davon aus, dass Deine Quelle wohl richtig liegt. Egal, meine analoge Canon F1 aus den 70igern hat leider den Geist aufgegeben😉.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb CMOS:

Hm, wem kann man trauen? Ich kann es selbst leider nicht nachmessen. Das Argument gegen die KI gilt meist immer dann, wenn  es der eigenen Überzeugung entgegensteht. Sorry,  ist nicht despektierlich  gemeint. Ich gehe trotzdem davon aus, dass Deine Quelle wohl richtig liegt. Egal, meine analoge Canon F1 aus den 70igern hat leider den Geist aufgegeben😉.

Es soll Fotografen geben, die zu der Zeit schon gelebt und fotografiert haben. Ganz ohne KI. 😉

bearbeitet von uwe1956
Link zum Beitrag
Auf anderen Seiten teilen

vor 49 Minuten schrieb CMOS:

Hm, wem kann man trauen? Ich kann es selbst leider nicht nachmessen. Das Argument gegen die KI gilt meist immer dann, wenn  es der eigenen Überzeugung entgegensteht.

Leider was man bei der KI nicht ob sie vom Michael abschreibt oder von irgendeinem Schwurbler, der ungesichertes Halbwissen als Weisheit raushaut.

Wenn ich die Wahl hätte, mich bei einem Fototechnikthema entweder auf KI oder auf Michael @mjh zu verlassen, wüsste ich jedenfalls auf welche Karte ich setze.

Nur mal so als Tipp 😉
 

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 1 Stunde schrieb Keksdose:

Ja derzeit ist die Programmierung aus irgendeinem Grund "springe/suche nach 1,5 Sekunden (auf) ein anderes zufälliges Gesicht, wiederhole das". Oder ein Bug der die Kamera denken lässt das Gesicht wäre weg ich muss neu suchen obwohl nix passiert ist? Was weiss ich.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

 

Also zumindest bei der Vogelfotografie kann ich das so schon bestätigen dass die 4 dafür sorgt dass er weniger dazu neigt auf ein anderen Vogel zu springen. 

Müsste also bei Menschen auch so sein. Nur leider ist es dann auch so dass er bei Änderung der Tiefe langsamer wird

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 44 Minuten schrieb AS-X:

Leider was man bei der KI nicht ob sie vom Michael abschreibt oder von irgendeinem Schwurbler, der ungesichertes Halbwissen als Weisheit raushaut.

Wenn ich die Wahl hätte, mich bei einem Fototechnikthema entweder auf KI oder auf Michael @mjh zu verlassen, wüsste ich jedenfalls auf welche Karte ich setze.

Nur mal so als Tipp 😉
 

Dein Tipp ist ja schon berücksichtigt und ich sehe  es auch so, aber gibt es nur einen Experten im Fotouniversum?

Link zum Beitrag
Auf anderen Seiten teilen

Am 12.12.2025 um 21:29 schrieb mjh:

Auch das menschliche Auge ist weit davon entfernt, 20 EV auf einmal bewältigen zu können. Dazu sind mehrere unterschiedliche Belichtungen nötig, genauso wie bei einer Kamera.

Das sagt Copilot dazu, kann man aber nicht trauen

  • Simultaner Bereich: Das Auge kann in einer Szene etwa 13–14 Blendenstufen gleichzeitig unterscheiden.

  • Gesamter Bereich durch Anpassung: Dank Pupillenreaktion und neuronaler Verarbeitung kann der Mensch insgesamt bis zu 20–24 Blendenstufen wahrnehmen.

 

kann man Fuji trauen?

Beitrag aus: Fujifilm X Learning Centre

In der Fotografie definieren wir den Dynamikumfang als den Unterschied zwischen den hellsten und dunkelsten Bereichen eines Bildes, in denen wir noch Details sehen können. Um ein paar Zahlen darauf zu setzen: Das menschliche Auge kann Details in Lichtern und Schatten erkennen, die etwa 20 Blendenstufen (oder 1 Million Mal) in der Helligkeit auseinander liegen. Unsere Digitalkameras können jedoch nur Details in Lichtern und Schatten erkennen, die durch etwa 12 bis 14 Blendenstufen (etwa 4000–16.000 Mal) getrennt sind.

Das ist eine schwierige Entscheidung: Details in den Lichtern zu erzielen, indem man unterbelichtet und dadurch Details in den Schatten verliert, oder überbelichten, um die Schatten hervorzuheben, aber dabei die Lichter verlieren.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Die aktuellen KI durchsuchen doch nur Websiten nach Ergebnissen. Das kann passen oder auch nicht. Mein Beispiel ist immer die Eingabe "Tiefster See Italien"

Du darfst wählen: 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Minuten schrieb CMOS:

Das menschliche Auge kann Details in Lichtern und Schatten erkennen, die etwa 20 Blendenstufen (oder 1 Million Mal) in der Helligkeit auseinander liegen

Das halte ich für denkbar, jedoch nicht gleichzeitig. Das Gehirn baut dann einen Bildeindruck zusammen. 

Nur mal als Beispiel: Ich habe mal an einem angeleiteten Experiment teilgenommen. Auf einem Sportplatz einen ggü. liegenden Masten starr fixiert und dann gewartet bis man Läufer auf ihrer Runde wahrnehmen, dann die Farbe ihrer Kleidung und letztendlich die Person selbst im Sweet Spot erkennen kann. 

Sehr aufschlussreich und sehr ernüchternd. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 39 Minuten schrieb AS-X:

Das halte ich für denkbar, jedoch nicht gleichzeitig. Das Gehirn baut dann einen Bildeindruck zusammen. 

Nur mal als Beispiel: Ich habe mal an einem angeleiteten Experiment teilgenommen. Auf einem Sportplatz einen ggü. liegenden Masten starr fixiert und dann gewartet bis man Läufer auf ihrer Runde wahrnehmen, dann die Farbe ihrer Kleidung und letztendlich die Person selbst im Sweet Spot erkennen kann. 

Sehr aufschlussreich und sehr ernüchternd. 

Ja klar,  es ist immer das Gehirn. Auch das räumliche Sehen entsteht erst durch die "Verarbeitung" im Gehirn, das Auge "fängt" nur auf und der Nervus opticus leitet weiter an das Gehirn zur neuronalen Verarbeitung. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb CMOS:

Ja klar,  es ist immer das Gehirn. Auch das räumliche Sehen entsteht erst durch die "Verarbeitung" im Gehirn, das Auge "fängt" nur auf und der Nervus opticus leitet weiter an das Gehirn zur neuronalen Verarbeitung. 

...und rechts ist weiter oben, als hinten.

Was bringen 20+ Blendenstufen, wenn man damit Ziegelmauern fotografiert?

Hingegen

https://aboutphotography.blog/photographer/alfred-eisenstaedt

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb CMOS:

Das Argument gegen die KI gilt meist immer dann, wenn  es der eigenen Überzeugung entgegensteht.

Ich bin in dieser Hinsicht konsistent und hatte jüngst in einem Rant ganz generell kritisiert, sich auf eine KI zu berufen: https://www.docma.info/blog/die-ki-sagt-oder-warum-ich-unsichtbare-freunde-hasse

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb CMOS:

Ja klar,  es ist immer das Gehirn.

Aber hier geht es doch um den Dynamikumfang. Der Dynamikumfang des Sensors ist das Verhältnis zwischen der größten und der geringsten Helligkeit, die zwei Pixel des Sensors gleichzeitig registrieren können. Der Dynamikumfang des Auges ist das Verhältnis zwischen der größten und der geringsten Helligkeit, die zwei Sinneszellen der Netzhaut gleichzeitig registrieren können. Und dieser Dynamikumfang ist weit geringer als 20 EV

Das menschliche Auge kann sich unterschiedlichen Helligkeiten durch Öffnen oder Schließen der Iris anpassen; das geht relativ schnell, bringt aber nur gut 3 Blendenstufen zusätzlich zum Dynamikumfang der Netzhaut. Die retinale Adaptation ermöglicht eine Anpassung in einem weiteren Bereich, die für die 20 EV verantwortlich ist, aber sie erfolgt nur bei der Anpassung an helleres Licht schnell, während die Anpassung an Dunkelheit bis zu einer halben Stunde dauern kann. Wenn man das Auge über eine kontrastreiche Szene wandern lässt, hilft das nicht viel, denn helles Licht ruiniert für etliche Minuten die Dunkeladaptation (wie Astronomen wohlbekannt ist).

Das Auge kann sehr große Kontraste nur verarbeiten, wenn es sich zwischen hellen und dunklen Motiven in der Szene anpasst, und das dauert weit länger, als mit einer Digitalkamera eine Belichtungsreihe aufzunehmen. Selbst wenn man das Gehirn des Menschen und die Elektronik der Kamera mit einbezieht und die Angabe des Dynamikumfangs nicht allein auf die Netzhaut beziehungsweise den Sensor bezieht, kann die Kamera sehr gut mithalten – sie ist nicht einmal auf 20 EV beschränkt.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...