Jump to content

Nur der Kopf/das Gesicht soll "erhellt" werden


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 2 Stunden schrieb Rico Pfirstinger:

Wie hätte ich das Bild gemacht?

  • Das Model kann man hier nicht anders platzieren, sonst ist die Bildidee weg. Aber ich wäre deutlich näher rangegangen und hätte mich so von links unten platziert, dass man den Pfosten rechts und den Mülleimer links nicht  mehr im Bild gehabt hätte, den Hintergrund mit den verschiedenen Farbtemperaturen aber sehr wohl. Weitwinkel macht's möglich.

Sorry Rico, aber hier protestiere ich energisch.

Stefan stellt sich als Opfer für den Hai dar.

Nach alter seemännischer Tradition wurden vor dem Kielholen eines Matrosen Küchenabfälle ins Meer geschüttet um Haie anzulocken. Die Muscheln an den Windjammern sorgten dann für die aufgerissene Haut.

Der Abfall ist ein wesentlicher Bestandteil meiner Aufnahme.

Den Boden selbst konnte ich wegen des vielen Papiers nicht mit aufnehmen, sonst wäre die Flutlichtbeleuchtung oben links verschwunden gewesen.

Viel weiter nach links hätte ich nicht gehen können, sonst wäre Stefan nicht mehr zwischen Baum und Borke, äh, Müll und Hai gestanden.

vor 2 Stunden schrieb Rico Pfirstinger:

Wie hätte ich das Bild gemacht?

  • [...]
  • Bei ISO wäre ich hier wohl auf das DCG-Level der Kamera von 500 bei DR100% gegangen und hätte dann mit einer passenden Blende auf die Bildwichtigen Lichter belichtet, also die farbigen Lichter im Hintergrund. Das wäre dann im Sucher wohl noch etwas zu dunkel gewesen, ergo anschließend eine ISO-äquivalente Einstellung von ISO 1000/DR200% oder auch ISO 2000/DR400% ohne Änderung von Blende/Zeit. Macht im RAW keinerlei Unterschied, hilft aber im Sucherbild, JPEG und auch beim Weißabgleich und Fokussieren.
  • Bei der Bearbeitung dann zunächst die übliche globale Aufhellung, anschließend wunschgemäß eine selektive Aufhellung der Person, insbesondere des Gesichts. Hier zu erst eine automatische Motivmaskierung via AI, dann Wegpinseln der zu viel maskierten Teile und schließlich ein Schnitt mit einem Verlaufsfilter, damit nur der obere Teil der Hauptperson von der selektive Aufhellung betroffen ist.

Danke,  dem gehe ich mit Sicherheit nach :)

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Neuling_0216:

Der Abfall ist ein wesentlicher Bestandteil meiner Aufnahme.

Den Boden selbst konnte ich wegen des vielen Papiers nicht mit aufnehmen, sonst wäre die Flutlichtbeleuchtung oben links verschwunden gewesen.

Viel weiter nach links hätte ich nicht gehen können, sonst wäre Stefan nicht mehr zwischen Baum und Borke, äh, Müll und Hai gestanden.

Mit dem Eimer im Bild ist es auch leicht möglich, den Pfosten etwas weiter nach rechts zu schieben. Ich erzähle hier allerdings nur, wie ich das Foto mit der Kamera in der Hand gemacht hätte – und nicht, wie du das Foto hättest machen sollen. Das ist ein großer Unterschied. Du hast dein Bild ja schon so gemacht wie du es wolltest. Das haben hier auch alle gesehen und können sich nun selbst überlegen, wie sie es an deiner Stelle mit der Kamera in der Hand gemacht hätten. Und dazu gibt es von mir ein paar Tipps, die verschiedene Zusammenhänge darlegen. Es geht am Ende um Hinweise für alle Mitleser, die den kompletten Workflow betrachten: Licht, Motivplatzierung, Bildausschnitt, Belichtung und Bearbeitung.

Wenn man beispielsweise korrekterweise immer wieder hört, man soll auf "die bildwichtigen Lichter" belichten und dann feststellt, dass diese sehr viel heller sind als das Hauptmotiv, dann kann man dieses Dilemma manchmal schon ganz einfach dadurch lösen, dass man die hellsten dieser bildwichtigen Lichter einfach aus dem Bildausschnitt heraus nimmt. Tatsächlich hilft es manchmal sogar schon, diese bildwichtigen Lichter in der Komposition an den Bildrand oder in die Ecke zu schieben, denn dort gibt es bei Offenblende häufig eine starke Vignettierung, die nur elektronisch korrigiert wird – so hat man dann einen natürlichen ND-Filter in der RAW-Datei, der den Dynamikumfang an genau diesen bildwichtigen hellen Stellen erhöht. "Bildwichtig" heißt nämlich nicht, dass diese Lichter unbedingt im Bild sein müssen. Es heißt vielmehr, dass man diese Lichter, wenn man sich dafür entscheidet, sie ins Bild zu nehmen, dann nicht überbelichten darf – weil das nämlich der Aufnahme (dem Bild) nicht gut bekommen würde. Ist es für die Bildwirkung hingegen unwichtig, dass diese Lichter durchgezeichnet sind, dann darf man sie auch gerne überbelichten. Das wiederum sind durchweg subjektive Entscheidungen. Die trifft jeder für sich selbst. Wenn man diese Entscheidung aber mal für ein Motiv getroffen hat, dann habe ich glasklare Tipps, die man befolgen kann, um in praktisch jeder Situation die bestmögliche Belichtung zu bekommen. Daran ist dann nichts mehr subjektiv.

Bis man also zum Schritt "Bearbeitung" und damit evtl. zum "virtuellen Blitzen" kommt, hat man in der Regel vorher viele andere Optionen bei der Bildgestaltung und Belichtung, die einem das Leben erleichtern können – insbesondere das Leben mit einem kleinem Sensor und hohem Kontrastumfang beim Motiv.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Stunden schrieb Neuling_0216:

Zusätzlich habe ich die Testversion von DxO PurRaw 2 gesaugt, die Du bereits besprochen hattest.

wieso nicht die Testversion vom DxO Photolab 5?

Gleiche Technik, aber halt die Instrumente um lokal arbeiten zu können ... ein Kontrollpunkt ins Gesicht und dann passend am Regler ziehen

 

 

bearbeitet von nightstalker
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb nightstalker:

wieso nicht die Testversion vom DxO Photolab 5?

Gleiche Technik, aber halt die Instrumente um lokal arbeiten zu können ... ein Kontrollpunkt ins Gesicht und dann passend am Regler ziehen

 

 

Danke :)

Werde ich nachholen; mit der Gebrauchsanweisung sollte es dann klappen.

 

Viele Grüße

Holger

Link zum Beitrag
Auf anderen Seiten teilen

Am 10.4.2022 um 13:01 schrieb Rico Pfirstinger:

Deshalb schreibe ich seit Jahren nicht nur über ISOlose Sensoren oder Kameras, sondern auch über ISOlose RAW-Konverter.

Toller Beitrag, Danke!

Welche RAW-Konverter sind ISOlos? In Photoshop wurde zwar vieles verbessert für Fuji-Kameras, aber für meine X100V verwende ich nach wie vor den Iridient X-Transformer um eine DNG Datei zu erzeugen, die dann anschließend in Photoshop weiterverarbeitet wird.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Karin:

Welche RAW-Konverter sind ISOlos?

Da sich dieses Verhalten letztlich auf einzelne Kameramodelle und dann auch noch individuelle Kameraeinstellungen bezieht, wüsste ich hier keine pauschale Aussage zu treffen. Man merkt es immer dann, wenn ein Konverter bei einem Bild Probleme zeigt, die ein anderer nicht oder weniger stark zeigt.

Jetzt kommt zudem noch die AI dazu, die – wie bei PureRAW oder DxO Optics Pro – alles Mögliche wegrechnet (Rauschen) oder hinzurechnet (Details). 

Am Ende läuft es darauf hinaus, verschiedene Optionen zur Verfügung zu haben und diese dann bei problematischen Bildern zu vergleichen.

Man kann es auch ganz praktisch sehen: Solange einem das Ergebnis gefällt, ist es "gut genug". Wenn nicht, probiert man nach weitere Optionen. Ideal sind natürlich alternative Demosaicing-Optionen wie Iridient X-Transformer, PureRAW oder Details verbessern für einen einzelnen Konverter wie Lightroom. So muss man das Hauptprogramm nicht wechseln und hat verschiedene Optionen als Plug-ins.

Deutlich umständlicher ist es natürlich, verschiedene Konverter wie Capture One, Optics Pro, Lightroom und Luminar parallel zu betreiben.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Nebenbei: Neben der ISOlosigkeit gibt es noch einige weitere Baustellen, bei denen man verschiedne Plug-ins verwenden kann: etwa Schärfung/Details und natürlich das Entrauschen. Beim Thema Schärfe spielt immer mehr auch die Beugung eine Rolle, weil die Sensoren immer höher auflösen. Mit der X-H2 und den kolportieren 40 MP wird das noch problematischer. DxO rechnet die Beugung offenbar ganz gut zurück, die Firma macht schließlich auch eigene optische Testreihem mit allen möglichen Kamera/Objektiv-Kombos.

Link zum Beitrag
Auf anderen Seiten teilen

Vielen Dank für die Tipps Rico!

Sehr interessant fand ich, dass für die X100V ISO 500 besser ist als ISO 400. Aus diesem Grund habe ich einige Artikel zum Thema „dual gain“ gelesen und bin dabei unter anderem auf folgende Seite gestoßen, die ich ganz hilfreich finde:

https://www.photonstophotos.net/Charts/RN_ADU.htm#Fujifilm X100V_14

Schade, dass die Hersteller solche Werte nicht veröffentlichen. Wäre doch für RAW-Shooter ganz nützlich.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Stunden schrieb Karin:

Vielen Dank für die Tipps Rico!

Sehr interessant fand ich, dass für die X100V ISO 500 besser ist als ISO 400. Aus diesem Grund habe ich einige Artikel zum Thema „dual gain“ gelesen und bin dabei unter anderem auf folgende Seite gestoßen, die ich ganz hilfreich finde:

https://www.photonstophotos.net/Charts/RN_ADU.htm#Fujifilm X100V_14

Schade, dass die Hersteller solche Werte nicht veröffentlichen. Wäre doch für RAW-Shooter ganz nützlich.

 

 

Danke für den Link :) !
Ich habe das mal für die angeblich "gleichen" Kameras X-T3/4 und die X-Pro3 verglichen:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Manche sind halt gleicher ;)

Link zum Beitrag
Auf anderen Seiten teilen

vor 53 Minuten schrieb Karin:

Diese Charts stimmen nicht? Aber woher weiss man dann das bei der X100V ISO 500 besser ist als 400? Ob man das auf den Fotos wirklich sieht ist natürlich eine andere Frage.

Wenn man den Effekt nicht in Testaufnahmen sehen könnte, wäre das ganze Unterfangen ohnehin sinnlos und somit Zeitverschwendung. Was bringt einem weniger Ausleserauschen, wenn man den Vorteil in einem realen Bild gar nicht erkennen könnte? Das wäre dann nur ein Sieg fürs Kameraquartett.

Vorteile, die in einem Chart sichtbar sind, muss man also auch in Fotos sehen können – sonst stellt sich ersthaft die Sinnfrage. Ergo muss es für den normalen, technisch unbeleckten Anwender eine Möglichkeit geben, den Effekt in eigenen Testaufnahmen sichtbar zu machen – ohne Messungen, Geräte, Berechnungen und Charts, sondern nur durch Betrachten auf dem Monitor. Also das, was man mit Bildern gewöhnlich macht: man schaut sie sich genau an. ;)

Das ist kein Hexenwerk. Man macht einfach eine manuelle ISO-Belichtungsreihe ohne jedes externe Licht (lässt also keine Photonen auf den Sensor) und pusht diese RAWs dann in Lightroom um 5 EV hoch, am besten mit Eterna oder Adobe Neutral als Filmsimulation. Die Rauschunterdrückung natürlich komplett aus, dann reinzoomen und Pixel (Rauschen) gucken. Hier muss man dann einen positiven Effekt sehen zwischen dem DCG-ISO-Level und dem um 1/3 EV niedrigeren ISO-Level. Und schon hat man das DCG-Level seiner aktuellen Kamera mit der aktuellen Firmware ermittelt (oder erkennt, dass die Kamera gar keinen Dual-Gain-Sensor hat). Fuji kann das DCG-Level schließlich jederzeit insgeheim ändern, und das tun sie offenbar auch hin und wieder.

Bei allen aktuellen 26MP-Modellen war das Level zuletzt bei 500, wobei ich die T30II nicht getestet habe, weil ich die bisher nicht in Händen hatte. Es kann sich aber durchaus lohnen, solche Testreihen nach Firmware-Updates zu wiederholen. 

 

Link zum Beitrag
Auf anderen Seiten teilen

Natürlich muß man Testaufnahmen machen um solche Charts zu verifizieren. Aber erst durch Deinen Beitrag habe ich mich mit DCG beschäftigt. Bisher bin ich ganz naiv davon ausgegangen höhere ISO bedeutet mehr Rauschen. Und wenn die Hersteller diese Werte veröffentlichen würden, müßte man auch nicht lang mit Testreihen anfangen. Und wenn Fuji das DCG-Level insgeheim ändert fängt man wieder von vorne an? 🙂 Ich bin kein Pixel-Peeper, finde aber die Theorie dahinter total interessant und ich mußte unbedingt wissen warum ISO 500 besser sein soll. 🙂 

Muß man eigentlich auch Testaufnahmen machen um die Basis-ISO einer Kamera festzustellen? 


 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Karin:

Muß man eigentlich auch Testaufnahmen machen um die Basis-ISO einer Kamera festzustellen? 

 

Schon denkbar, wenn es mal wieder Diskussionen darum gibt, ob das niedrigste ISO ein abgeleitetes ISO L ist oder ein echtes Basis-ISO. Da gab es glaube ich mal bei einer Leica so eine Diskussion. Aber auch das kann man dann ganz einfach mit eigenen Testaufnahmen klären, die beinhalten dann allerdings Licht, und zwar ausgefressene Lichter.

Bei Fuji gibt es ja auch eine ungewöhnliche Behandlung der mittleren ISO L Werte, also zum Beispiel 100 und 125 bei den aktuellen APS-C-Modellen. Die werden nämlich nicht von ISO 160 abgeleitet, sondern von ISO 200 und 250 – man verliert also sogar bei sonst gleich bleibender Belichtung Dynamik in den Lichtern, woraus sich wiederum ableitet, dass man diese ISO-Werte besser nie benutzt. Es ist ja nicht gerade intuitiv, dass man bei einem Wechsel von ISO 160 auf ISO 125 in Wirklichkeit 2/3 EV Lichterdynamik verliert, weil man nun in den RAW-Daten tatsächlich mit ISO 250 fotografiert und diese verstärkten Daten dann bei der RAW-Entwicklung um 1 EV gepullt werden. Aber auch das findet man rasch selbst heraus, wenn man sich mit der Kamera etwas beschäftigt – so ein Test dauert vielleicht 15-30 Minuten inkl. RAW-Entwicklung und Ergebnisvergleich. Ich bin da ja auch nicht draufgekommen, weil ich irgendwelche geheimen Infos bekommen hätte, sondern das sind alles Erkenntnisse ohne jeden Hersteller-Input. Es ist halt nur anscheinend so, dass außer mir sonst niemand diesen Test mit Fuji-Kameras gemacht und die Erkenntnis mitgeteilt hat.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Rico Pfirstinger:

...

Das ist kein Hexenwerk. Man macht einfach eine manuelle ISO-Belichtungsreihe ohne jedes externe Licht (lässt also keine Photonen auf den Sensor) und pusht diese RAWs dann in Lightroom um 5 EV hoch, am besten mit Eterna oder Adobe Neutral als Filmsimulation. Die Rauschunterdrückung natürlich komplett aus, dann reinzoomen und Pixel (Rauschen) gucken. Hier muss man dann einen positiven Effekt sehen zwischen dem DCG-ISO-Level und dem um 1/3 EV niedrigeren ISO-Level. Und schon hat man das DCG-Level seiner aktuellen Kamera mit der aktuellen Firmware ermittelt (oder erkennt, dass die Kamera gar keinen Dual-Gain-Sensor hat). Fuji kann das DCG-Level schließlich jederzeit insgeheim ändern, und das tun sie offenbar auch hin und wieder.

...

 

Vielen Dank für den Hinweis. Da Dual-Gain für mich völlig neu war und ich es sehr interessant fand, habe ich es mal ausprobiert:

Laut photonstophotos müsste meine T-20 (X-Trans III) bei ISO 800 wesentlich weniger rauschen als bei ISO 400. Also wenn das keine gute Nachricht ist :) .

Das Ergebnis meines Tests ist leider sehr enttäuschend :(.

Beim Pushen um 5 EV (und vorherigem Unterbelichten) ist der Effekt zu sehen: ISO 800 rauschen weniger als ISO 640, bei ISO 500 würde ich aber eher sagen: Gleichstand und ISO 400 sind eindeutig besser als ISO 800.

Beim Pushen um 2 EV tritt der Effekt nicht mehr oder nur noch schwach zutage. Hier würde ich sagen, dass bestenfalls ISO 640 und ISO 800 gleichviel rauschen.
Beim Puschen um 1EV ebenso.

Irgendwo hab ich dann gelesen, dass der Vorteil ca 1/3 Blendenstufe beträgt. Das würde zu dem getesteten passen.

Um diesen Vorteil zu nutzen, müsste man die ISO-Automatik ausschalten oder besser, wenn Werte von 500-640 erreicht werden, auf ISO 800 stellen. Da fragt man sich, warum das die Automatik nicht selbstständig macht, aber vielleicht tut sie das ja sogar.

Ich denke in der Praxis kann man das Ganze vernachlässigen:

- 1/3 EV ist nicht viel. Ich vermute mal, dass durch Temperaturschwankungen stärkere Unterschiede auftreten.
- der Effekt tritt nur an der Schaltgrenze auf: ISO 500-640
- ISO 800 + 5EV = ISO 256000. Das ist ein Bereich, in dem ganz andere Probleme entstehen und den ich noch nie für meine Fotos verwendet habe.

Also für mich ist das kein Grund auf die ISO-Automatik zu verzichten und an Dual-Gain zu denken.

Link zum Beitrag
Auf anderen Seiten teilen

2/3 EV dürfte hinkommen. Wie bedeutend das ist, hängt letztlich vom Motiv ab. Wenn bildwichtige Informationen genau in diesen 2/3 EV liegen und man diese dann massiv anhebt, sieht man eine deutliche Verbesserung. Wenn man die Information in diesem Bereich dagegen nicht braucht, bemerkt man natürlich auch keinen Unterschied. Außerdem hängt es natürlich vom Verhältnis Photonenrauschen/Ausleserauschen ab. Wenn ein Motiv massiv Photonenrauschen hat in dem Bereich, den ich hochpushe, dann hat dieses Rauschen beim Pushen einen so hohen Anteil, dass eine Reduktion beim Ausleserauschen keinen großen Unterschied mehr macht. 

Wenn ich etwa mit jeweils identischer Belichtung und Beleuchtung eine weiße Wand fotografiere und die dann 5 EV anhebe, damit sie weiß mit Textur ist, dann bekomme ich natürlich ein ganz anderes Ergebnis als bei einer schwarzen Wand, die ich ebenfalls 5 EV anhebe, damit ich ihre Texturen sehe. Das Ausleserauschen ist in beiden Fällen natürlich gleich, das Photonenrauschen aber eben nicht.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...