Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 14 Stunden schrieb Rica:

Es gibt doch den StreetFilter, bei dem Gesichter automatisch per KI in der Cam ersetzt werden, da kann sich keiner mehr beschweren. 

Soll jetzt sogar mit Schieberegler: gut aussehend- charismatisch - bis dramatisch ergänzt werden...

Ist eine Möglichkeit,  aber manche reagieren schon gereizt, wenn sie ins Bilickfeld einer Kamera geraten.

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Stunden schrieb Rica:

Es gibt doch den StreetFilter, bei dem Gesichter automatisch per KI in der Cam ersetzt werden, da kann sich keiner mehr beschweren.

Bevor ich das einsetze fange ich lieber an zu malen  😉 (und ich bin da komplett talentbefreit). 

Link zum Beitrag
Auf anderen Seiten teilen

Am 6.2.2025 um 17:59 schrieb Lighthouse:

Damit Fuji nichtge gen die Smartphones verliert,  könnte Fuji doch Drohnen produzieren? Die Kameratechnik haben sie ja drauf,  bei der Software

besteht noch Verbesserungsbedarf und die Flugtechnik kann man bei DJI abkupfern😉.

Eher wird DJI eine Kamera bringen - Gerüchte dazu gibt es schon länger und schliesslich wurde Hasselblad vor Jahren von DJI übernommen. Die entsprechenden YT-Videos gibt es auch: https://www.youtube.com/watch?v=mG_lxLtCuPo .

Michel

 

Link zum Beitrag
Auf anderen Seiten teilen

Am 14.2.2025 um 12:32 schrieb Lighthouse:

Hat jemand noch einen Beitrag zum Thema Dynamik, wie ich eingangs erwähnt hatte #1?

Nein. Der Eindruck „Ich sehe eigentlich nur in Bezug auf die Dynamik noch Luft nach oben“ täuscht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Stunden schrieb mjh:

Nein. Der Eindruck „Ich sehe eigentlich nur in Bezug auf die Dynamik noch Luft nach oben“ täuscht.

d.h. Kameratechnik quasi am Ende mit 14 Blendenstufen? Das Auge/Gehirn schafft ca. 20 , die Natur bietet ca. 23!

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 1 Stunde schrieb Lighthouse:

d.h. Kameratechnik quasi am Ende mit 14 Blendenstufen? Das Auge/Gehirn schafft ca. 20 , die Natur bietet ca. 23!

Ich wage es zu bezweifeln, dass das Auge mit einem Blick 20 Blendenstufen schafft. 

Wenn ich eine Kontrastreiche Situation überblicken möchte, müssen sich meine Augen mal auf's Helle und dann auf's Dunkle einstellen. Dann ist die Situation klar. Quasi ein HDR. 

Aber auf einen schnellen Blick... 20 Blenden? 

Nur meine Auffassung. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Minuten schrieb Captcha:

Ich wage es zu bezweifeln, dass das Auge mit einem Blick 20 Blendenstufen schafft. 

Wenn ich eine Kontrastreiche Situation überblicken möchte, müssen sich meine Augen mal auf's Helle und dann auf's Dunkle einstellen. Dann ist die Situation klar. Quasi ein HDR. 

Aber auf einen schnellen Blick... 20 Blenden? 

Nur meine Auffassung. 

Schau mal auf fotoworkshop -stuttgart.de.

Link zum Beitrag
Auf anderen Seiten teilen

vor 50 Minuten schrieb Lighthouse:

Schau mal auf fotoworkshop -stuttgart.de.

Danke! 

Da hatte ich ja tatsächlich mal recht 😎🌞👍😅

Zitat von fotoworkshop -stuttgart.de:

Unser Auge kann einen Dynamikumfang von 20 Blendenstufen sehen! Das ist somit der größte Teil, den die reale Welt bereit hält! (maximal 23 Blendenstufen gemessen von Beleuchtung durch Sternenlicht bis hin zur prallen Sonne auf Sand/im Schnee)
Zum Vergleich: Eine Kamera schafft es im RAW Format ca. 12 Blendenstufen und in JPG 8,6 Blendenstufen mit einer Aufnahme aufzunehmen. (Quelle)
Ergänzung: Unser Auge schafft die 20 Blendenstufen, da im Gehirn ein HDR (!) errechnet wird. Stell dir das so vor: Du schaust in eine sehr helle Szene mit Sonnenlicht. Dein Auge ist geblendet und die Pupille wird ganz klein. So siehst du trotzdem noch Zeichnung und Details im Himmel und in den hellen Bereichen. Nun wandert dein Blick in der selben Szene in einen Bereich der deutlich dunkler ist. Dein Auge vergrößert die Pupille automatisch und schon siehst du in den dunklen Bereichen auch alle Details.
Sozusagen haben wir eine eingebaute Auto-HDR Funktion!

bearbeitet von Captcha
Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb Lighthouse:

d.h. Kameratechnik quasi am Ende mit 14 Blendenstufen? Das Auge/Gehirn schafft ca. 20 , die Natur bietet ca. 23!

Das Auge schafft keine 20 Blendenstufen. Tatsächlich sind es viel weniger – weniger als moderne Kameras schaffen. Zahlen wie die 20 Blendenstufen beruhen auf Trickserei: Das Auge kann sich auf wechselnde Lichtverhältnisse anpassen, was uns in die Lage versetzt, uns bei Mondlicht ebenso wie im Sonnenlicht eines Sommertags zu orientieren. Diese Anpassung (Adaptation) geschieht einmal durch eine Vergrößerung oder Verkleinerung der Pupille, also Auf- und Abblenden, und andererseits durch eine Anpassung der lichtempfindlichen Sinneszellen in der Netzhaut. Während die Anpassung an eine große Helligkeit relativ schnell erfolgt, dauert die Dunkeladaptation bis zu einer halben Stunde. Während der Dynamikumfang des Auges, also der Kontrast, den die Netzhaut zu einem gegebenen Zeitpunkt bewältigen kann, relativ gering ist, lässt er sich durch die Adaptation erweitern – aber die erwähnten 20 Blendenstufen können eben nicht gleichzeitig bewältigt werden, sondern zu unterschiedlichen Zeiten, die etliche Minuten auseinander liegen können.

Kameras können sich natürlich ebenfalls an wechselnde Lichtverhältnisse anpassen, über die Blende, die Belichtungszeit und den ISO-Wert. Belichtungsautomatiken sind dabei auch noch schneller als das Auge. Unsere Kameras sind also ebensowenig – genau genommen noch weniger – durch den Dynamikumfang des Sensors beschränkt wie wir selbst durch den Dynamikumfang des Auges.

Und dann gibt es ja noch die Technik, eine Belichtungsreihe aufzunehmen und die Einzelbilder zu einem Bild mit höherem Dynamikumfang zu verrechnen. Am Ende erhält man ein HDR-Bild mit einem vergrößerten Dynamikumfang – unser Gehirn beherrscht eine solche Verrechnung nicht, weshalb wir zu jedem gegebenen Zeitpunkt immer nur ein Bild mit geringem Dynamikumfang sehen.

Aber selbst ohne eine Belichtungsreihe kann man auch mit einer einzigen Belichtung einen so großen Dynamikumfang bewältigen, dass man fast immer damit auskommt. Wenn es also nicht so bald Wundersensoren mit noch deutlich größerem Dynamikumfang gibt, ist das in der Fotografie keine relevante Beschränkung.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Im Beitrag des zitierten fotoworkshop  ist schon mal die Aussage falsch, dass sich die Pupille verändert. Nicht die Pupille verändert sich, sondern die Iris(Blende)!

Die Pupille bleibt immer gleich. Zum Thema Dyamikumfang gibt es offenbar sehr abweichende Meinungen, die von 5 Stufen bis 20 Stufen reichen, wobei die Mehrzahl der

Einträge dem Auge eindeutig die bessere Performance  zugesteht. D.h. aber nicht unbedingt, dass die Mehrzahl hier recht hat. Wer im Besitz einer X Pro ist kann mal eine

eine kontrastreiche Szene aufnehmen und vom elektronischen auf den optischen Sucher umschalten. Im optischen Sucher kann man sehr wohl Schatten und Lichter gleichzeitig differenzieren, wohingegen im im digitalen Bild die Schatten zulaufen und die Lichter ausfressen. Dazu mein Beispielbild wo dem so ist.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 36 Minuten schrieb Lighthouse:

Nicht die Pupille verändert sich, sondern die Iris(Blende)!

Dochdoch, es ist schon die Pupille…

Zitat

Die Pupille (lateinisch pupilla) ist die von der Regenbogenhaut (Iris) umgebene natürliche Öffnung, durch die Licht in das abgedunkelte Innere des Auges fallen kann. Sie wird auch als Sehloch bezeichnet oder dichterisch „Augenstern“ genannt. Durch Verkleinern (Miosis) oder Vergrößern (Mydriasis) der Pupille mit Hilfe des Musculus sphincter pupillae bzw. des Musculus dilatator pupillae kann der Lichteinfall auf die Netzhaut angepasst werden.

Quelle Wikipedia

vor 37 Minuten schrieb Lighthouse:

offenbar sehr abweichende Meinungen, die von 5 Stufen bis 20 Stufen reichen

Das sind keine abweichende Meinungen, sondern unterschiedliche Messwerte – wie Michael in seinem Beitrag sehr ausführlich erklärt.

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

vor 40 Minuten schrieb Lighthouse:

Im Beitrag des zitierten fotoworkshop  ist schon mal die Aussage falsch, dass sich die Pupille verändert. Nicht die Pupille verändert sich, sondern die Iris(Blende)!

Die Pupille bleibt immer gleich. Zum Thema Dyamikumfang gibt es offenbar sehr abweichende Meinungen, die von 5 Stufen bis 20 Stufen reichen, wobei die Mehrzahl der

Einträge dem Auge eindeutig die bessere Performance  zugesteht. D.h. aber nicht unbedingt, dass die Mehrzahl hier recht hat. Wer im Besitz einer X Pro ist kann mal eine

eine kontrastreiche Szene aufnehmen und vom elektronischen auf den optischen Sucher umschalten. Im optischen Sucher kann man sehr wohl Schatten und Lichter gleichzeitig differenzieren, wohingegen im im digitalen Bild die Schatten zulaufen und die Lichter ausfressen. Dazu mein Beispielbild wo dem so ist.

 

Hinsichtlich der Veränderlichkeit sind sowohl Wikipedia (siehe dort) als auch ich anderer Meinung.

 

P.S. Da war unser verehrter Admin einen Tick schneller!

bearbeitet von Zuikino
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Lighthouse:

Einträge dem Auge eindeutig die bessere Performance  zugesteht.

Das menschliche Auge hat sogar (ganz unabhängig von der Dynamikfrage) eine sehr bescheidene Performance. Zumindest ohne NI Unterstützung 😉

Such dir mal einen entfernten Punkt, z.B.  einen Masten an einer Straße und fokussiere dich mit deinen Augen darauf. Dann versuche mal (ohne den Blick schweifen zu lassen) zu erfassen was du drumherum wirklich erkennen kannst. Wenn ein Passant ins Blickfeld läuft versuche diesen für dich zu beschreiben  Wie gesagt, ohne den Blick abschweifen zu lassen. 
Ich behaupte mal, keiner hier im Forum würde eine solche Kamera/so ein Objektiv akzeptieren. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Zuikino:

Hinsichtlich der Veränderlichkeit sind sowohl Wikipedia (siehe dort) als auch ich anderer Meinung.

 

P.S. Da war unser verehrter Admin einen Tick schneller!

 

vor 1 Stunde schrieb FXF Admin:

Dochdoch, es ist schon die Pupille…

Als Resultat der Irisveränderung.

Die Pupillenöffnung wird durch die glatte Muskulatur der Iris geschlossen oder geöffnet. Das ist vermutlich das, was @Lighthouse gemeint hat, wenn er schrieb, dass sich die Iris verändert und nicht die Pupille. Natürlich verändert sich auch die Pupille im Sinne einer weiteren oder engeren Öffnung, aber eben als Resultat der Irisveränderungen. Sie selbst kann sich ja nicht wirklich verändern, weil sie ein Loch ist. Wie definierte unser alter Philosophielehrer ein Loch: „Das Sein des Nichtseins in seinem Sein“.
Die aktuelle Pupillengröße ist das Resultat des Kräftespiels zweier gegensinnig wirkender Züge glatter Irismuskulatur.“ Quelle: Wikipedia, gleicher Artikel wie schon zitiert.

bearbeitet von Tommy43
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Lighthouse:

Wer im Besitz einer X Pro ist kann mal eine

eine kontrastreiche Szene aufnehmen und vom elektronischen auf den optischen Sucher umschalten. Im optischen Sucher kann man sehr wohl Schatten und Lichter gleichzeitig differenzieren, wohingegen im im digitalen Bild die Schatten zulaufen und die Lichter ausfressen.

Das elektronische Sucherbild gibt allerdings nicht den Dynamikumfang des Sensors wieder, weshalb der Vergleich nichts besagt; wenn Du bei einem solchen Sucherbild auf den Auslöser drückst, kannst Du aus den vermeintlich abgesoffenen Schatten noch eine Menge Tonwerte hervorzaubern. (Allerdings würde es helfen, zumindest den Kontrast auf das Minimum zu stellen.)

Link zum Beitrag
Auf anderen Seiten teilen

@Tommy43

Sorry, das ärgert mich jetzt ungemein.

Michael hat sehr gut erklärt, wie der Zusammenhang zwischen Dynamikumfang und Wahrnehmung des Auges funktioniert.

@Lighthouse hat ihn – sachlich falsch – korrigiert und die unterschiedlichen Werte von 5 oder 20 Blendenstufen als „Meinung“ deklariert, obwohl Michael das direkt vorher sehr gut erklärt hatte (Dynamikumfang „auf einen Blick“ vs. „durch zeitlich verzögerte Anpassung des Auges“).

Das kann ja passieren und das ist auch die Qualität eines Forums, dass man das nochmal sachlich klarstellen kann.

Was mich ärgert, wenn dann mit spitzfindigen (und irreführenden) Argumenten dagegen gehalten wird:

Es wurde bestritten, dass sich die Pupille ändert. Aber genau das tut sie. Warum sie das tut (Irismuskulator, Ansteuerung durch Nerven, Befehle vom Hirn, Wahrnehmung …), war nicht die Frage.

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe nur versucht, das Missverständnis, dem @Lighthouse unterlegen ist, aufzuklären, wie er möglicherweise auf seine irrige Annahme gekommen ist. Nicht mehr und nicht weniger. Ich hatte ja selbst auch geschrieben, dass sich die Pupille, also das Loch verändert. Selbstverständlich stimmt das, was @mjh oben schreibt bzgl. der unterschiedlichen Adaptationsgeschwindigkeiten etc.. Keine Ahnung, warum ein konstruktiv gemeinter Beitrag nun hier für Ärger sorgt? Dass meine Argumente jetzt „spitzfindig“ genannt werden, ärgert mich allerdings auch. Irreführend sind sie schon gar nicht. An welcher Stelle sollten sie das sein?

Und natürlich ist es relevant, warum/wodurch sich die Pupille ändert, denn, so vermute ich, liegt da der Grund des Missverständnisses bei @Lighthouse. Deswegen meine Erklärung oben.

bearbeitet von Tommy43
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Tommy43:

 

Als Resultat der Irisveränderung.

Die Pupillenöffnung wird durch die glatte Muskulatur der Iris geschlossen oder geöffnet. Das ist vermutlich das, was @Lighthouse gemeint hat, wenn er schrieb, dass sich die Iris verändert und nicht die Pupille. Natürlich verändert sich auch die Pupille im Sinne einer weiteren oder engeren Öffnung, aber eben als Resultat der Irisveränderungen. Sie selbst kann sich ja nicht wirklich verändern, weil sie ein Loch ist. Wie definierte unser alter Philosophielehrer ein Loch: „Das Sein des Nichtseins in seinem Sein“.
Die aktuelle Pupillengröße ist das Resultat des Kräftespiels zweier gegensinnig wirkender Züge glatter Irismuskulatur.“ Quelle: Wikipedia, gleicher Artikel wie schon zitiert.

Ja, genauso war es gemeint. Danke für die Klarstellung.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Das elektronische Sucherbild gibt allerdings nicht den Dynamikumfang des Sensors wieder, weshalb der Vergleich nichts besagt; wenn Du bei einem solchen Sucherbild auf den Auslöser drückst, kannst Du aus den vermeintlich abgesoffenen Schatten noch eine Menge Tonwerte hervorzaubern. (Allerdings würde es helfen, zumindest den Kontrast auf das Minimum zu stellen.)

Danke, das habe ich fast vermutet. Den Kontrast senken gibt ein flaues Bild.  Mit RAW ist sicher noch etwas zu machen.  Allerdings hat mein Bild noch einen relativ geringen Kontrastunterschied. Bei helleren Himmel ist auch RAW am Ende. Noch eine dumme Frage, warum zeigt die Kamera nicht von Haus den größeren Kontrastumfang?

 

Link zum Beitrag
Auf anderen Seiten teilen

Auch hier wage ich zu behaupten, dass ein geringer Kontrast einen größeren Dynamikumfang anzeigen kann:

Wenn also Schatten nicht absaufen (also noch zu sehen sind) 

Wenn Lichter nicht ausbrennen (also noch Struktur zu sehen ist) 

= flaues Bild aber von Hell bis Duster alles da = großer Dynamikumfang? 

Hier würde man das Potential des Sensors erkennen. 

Oder ist das falsch abgeleitet? 

bearbeitet von Captcha
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Lighthouse:

Den Kontrast senken gibt ein flaues Bild.  Mit RAW ist sicher noch etwas zu machen.  Allerdings hat mein Bild noch einen relativ geringen Kontrastunterschied. Bei helleren Himmel ist auch RAW am Ende. Noch eine dumme Frage, warum zeigt die Kamera nicht von Haus den größeren Kontrastumfang?

Ja, weniger Kontrast sorgt für ein flaueres Bild – aber dafür zeigt es mehr Tonwerte. Die Log-Modi, die Fuji und andere Kamerahersteller anbieten, haben denselben Effekt – man senkt den Kontrast, um dafür keine Tonwerte abzuschneiden. Dass man das nicht standardmäßig tut, hat eben den Hintergrund, dass die meisten Leute kein flaues Sucherbild sehen wollen; also sorgt die Kamera für knackige Kontraste und opfert dafür Tonwerte – die man sich aus den Raw-Daten ja wieder zurückholen kann.

Und was den hellen Himmel betrifft: In der Digitalfotografie ist es generell so, dass sich die Schatten in weiten Grenzen hochziehen lassen, während ausgefressene Lichter weitgehend verloren sind. Das liegt daran, dass die Ladungsspeicher der Sensorpixel irgendwann voll sind, und dann gehen alle weiteren Elektronen in den Abfluss; es gibt also keine darüber hinaus gehende Differenzierung von Tonwerten mehr. In der analogen Zeit war es ja so, dass Negativfilme robust auf eine Überbelichtung reagierten, während sie eine Unterbelichtung gleich krumm nahmen; bei Umkehrfilmen war es umgekehrt. Sensoren verhalten sich in dieser Hinsicht wie Diafilm: Sie verkraften eine Unterbelichtung, eine Überbelichtung aber kaum. Deshalb gibt es ja die ETTR-Regel, also „Expose To The Right“: Belichte so, dass die hellsten bildwichtigen Tonwerte an den rechten Rand des Histogramms stoßen.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

ETTR ist doch im Prinzip das was bei anderen Herstellen „auf Spitzlichter belichten“ oder ähnlich heißt?

Ich finde das ist eine wunderbare Funktion und Möglichkeit die am besten belichteten RAWs zu bekommen.

Nichts ist ausgefressen und Schatten kann man noch hochziehen.

Schade das Fuji das nicht standardmäßig an Bord hat und man hier immer einen Umweg machen muss.

Link zum Beitrag
Auf anderen Seiten teilen

vor 59 Minuten schrieb mjh:

Ja, weniger Kontrast sorgt für ein flaueres Bild – aber dafür zeigt es mehr Tonwerte. Die Log-Modi, die Fuji und andere Kamerahersteller anbieten, haben denselben Effekt – man senkt den Kontrast, um dafür keine Tonwerte abzuschneiden. Dass man das nicht standardmäßig tut, hat eben den Hintergrund, dass die meisten Leute kein flaues Sucherbild sehen wollen; also sorgt die Kamera für knackige Kontraste und opfert dafür Tonwerte – die man sich aus den Raw-Daten ja wieder zurückholen kann.

Und was den hellen Himmel betrifft: In der Digitalfotografie ist es generell so, dass sich die Schatten in weiten Grenzen hochziehen lassen, während ausgefressene Lichter weitgehend verloren sind. Das liegt daran, dass die Ladungsspeicher der Sensorpixel irgendwann voll sind, und dann gehen alle weiteren Elektronen in den Abfluss; es gibt also keine darüber hinaus gehende Differenzierung von Tonwerten mehr. In der analogen Zeit war es ja so, dass Negativfilme robust auf eine Überbelichtung reagierten, während sie eine Unterbelichtung gleich krumm nahmen; bei Umkehrfilmen war es umgekehrt. Sensoren verhalten sich in dieser Hinsicht wie Diafilm: Sie verkraften eine Unterbelichtung, eine Überbelichtung aber kaum. Deshalb gibt es ja die ETTR-Regel, also „Expose To The Right“: Belichte so, dass die hellsten bildwichtigen Tonwerte an den rechten Rand des Histogramms stoßen.

Danke, jetzt habe ich es hoffentlich verstanden. Sorry,  aber nur noch soviel zur Standardeinstellung, kein flaues Sucherbild und mehr Tonwerte geht doch mit Nachbearbeitung, warum nicht gleich im Jpeg ooc? Hat da das kleine Display mit der Darstellung ein Problem?

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...