Jump to content

Histogramm Live View - Entspricht dieses dem RAW-Histogramm?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Schönen Fotoausflugs-Sonntag gewünscht, vorab 😉

Diese Hinweise bezüglich Verwendung Histogramm finde ich sehr informativ:
https://albfotograf.me/2019/04/01/ettr-die-mglichst-optimale-belichtung-im-raw/

Kurze Frage in dieser Sache:

Entspricht das Live-View-Histogramm in etwa oder gar völlig einem RAW-Histogramm, wenn man dieses anzeigen könnte? Oder müssen in der Kamera bei Filmsimulation, Lichter, Schatten Anpassungen vorgenommen werden (wie im verlinkten Artikel erläutert) um ein optimales Histogramm im Live-View zu erhalten?

Beim Betrachten zuvor aufgenommener Bilder wird einem offensichtlich lediglich das Histogramm des in das RAW eingebetteten Jpegs angezeigt.

 

bearbeitet von FujiPi
Link zum Beitrag
Auf anderen Seiten teilen

vor 48 Minuten schrieb FujiPi:

Beim Betrachten zuvor aufgenommener Bilder wird einem offensichtlich lediglich das Histogramm des in das RAW eingebetteten Jpegs angezeigt.

Danke für den Interessenten Link! Im Liveview nach meiner Kenntnis auch, d.h. Du hast mit RAW noch etwas mehr Spielraum. Das könntest Du ja testweise ermitteln, indem Du sukzessive überbelichtest und die Ergebnisse von JPG ooC und der Möglichkeiten in RAW vergleichst. Aber vielleicht hat das schon jemand gemacht, der es ihr postet? Oder Du stellst Die Frage nochmal im Bereich von @Rico Pfirstinger, der weiß das 😃.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb FujiPi:

Entspricht das Live-View-Histogramm in etwa oder gar völlig einem RAW-Histogramm, wenn man dieses anzeigen könnte? Oder müssen in der Kamera bei Filmsimulation, Lichter, Schatten Anpassungen vorgenommen werden (wie im verlinkten Artikel erläutert) um ein optimales Histogramm im Live-View zu erhalten?

Soweit ich das hier im Forum verfolgt habe, ist das Histogramm immer nur das des JPGs.
Rico bemängelt auch regelmäßig, dass es kein richtiges RAW-Histogramm in der Kamera gibt.
Aber lieber den Spatz in der Hand, als die Taube auf dem Dach ;) ...

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb FujiPi:

Schönen Fotoausflugs-Sonntag gewünscht, vorab 😉

Diese Hinweise bezüglich Verwendung Histogramm finde ich sehr informativ:
https://albfotograf.me/2019/04/01/ettr-die-mglichst-optimale-belichtung-im-raw/

Kurze Frage in dieser Sache:

Entspricht das Live-View-Histogramm in etwa oder gar völlig einem RAW-Histogramm, wenn man dieses anzeigen könnte? Oder müssen in der Kamera bei Filmsimulation, Lichter, Schatten Anpassungen vorgenommen werden (wie im verlinkten Artikel erläutert) um ein optimales Histogramm im Live-View zu erhalten?

Beim Betrachten zuvor aufgenommener Bilder wird einem offensichtlich lediglich das Histogramm des in das RAW eingebetteten Jpegs angezeigt.

 

In dem verlinkten Artikel ist alles zum Histogramm beschrieben. Es wird bei fast allen Digitalkameras das JPG Histogramm angezeigt.

Der Autor des Beitrags hat für die T2 auch die optimale Simulationseinstellung für die RAW Belichtung erwähnt. Bei den neueren Kamers mit Eterna Simulation ist diese mit den gleichen Einstellungen -2 für Lichter und Schatten die beste Wahl. Die Ergebnisse sind natürlich sehr flau und bedürfen einer gewissen Nachbearbeitung.

Die vorgeschlagenen Einstellungen werden für RAW Shooter auch von Rico Pfirstinger empfohlen. Ich denke mal der Autor des Beitrags hat Ricos Empfehlungen übernommen 😉😉. Ich verwende diese ebenfalls.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb FujiPi:

Entspricht das Live-View-Histogramm in etwa oder gar völlig einem RAW-Histogramm, wenn man dieses anzeigen könnte?

Das Live-View-Histogramm ist genau das: Ein Histogramm der Live-View. Es ist alles andere als ein Raw-Histogramm (das man ohnehin fast nirgendwo findet) und nicht einmal ein JPEG-Histogramm.

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb mjh:

Das Live-View-Histogramm ist genau das: Ein Histogramm der Live-View. Es ist alles andere als ein Raw-Histogramm (das man ohnehin fast nirgendwo findet) und nicht einmal ein JPEG-Histogramm.

Was wäre der Unterschied zwischen dem Live view Histogramm und einem jpeg Histogramm? Schließlich hätten bei die gleichen jpeg Einstellungen und Simulationen. 
Ein RAW Histogramm wäre doch leicht zu machen, meine ich zumindest, wieso gibt es das nicht?

Peter

Link zum Beitrag
Auf anderen Seiten teilen

@MightyBo @lichtschacht Weil es so einfach nicht ist.   Weil dein Sucherbild eben kein RAW ist, sondern eine reduzierte Vorschau für die der Sensor gar nicht so umfassend ausgelesen wird, wie bei der eigentlichen Belichtung. Das Sucherbild hat weder die Bittiefe, noch die Auflösung. Es ist technisch noch nicht möglich den Sensor so schnell in der Bittiefe auszulesen.

Darin besteht oft der Irrglaube bei Liveview. Sonst wären ja 10K Video mit 100fps und 14bit Farbtiefe oder Global Shutter oder irrwitzige Serienbildgeschwindigkeiten heute kein Thema wenn jedes „Einzelbild“ für den Sucher schon ein fertiges Bild wäre.   Die Kamera würde glühen und man bräuchte bei derzeitiger Technik wahrscheinlich ein 100W Netzteil.

Sprich der Bildprozessor hat noch garnicht die nötigen Informationen bevor du auslöst.

Ein RAW-Histogramm könnte man allerhöchstens ungefähr hochrechnen/abschätzen aus den Sucherbildinfos.

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

Christian, dass ist mir klar, aber etwas wird ja aus dem Sensor irgendwas ausgelesen, sonst würde es kein Live view geben. Ich denke mal, dass werden ja zumindest ein Teil der Pixel sein und das sind ja erstmal auch nur Spannungswerte pro Pixel und die könnte man direkt als RGB Histogramm aufbereiten. Das wäre noch weniger Aufwand als live view. Aber ich weiß gar nicht wie der Sensor bei Live view ausgelesen wird, vielleicht geht das gar nicht so, dasswürde mich mal interessieren.

Peter

Link zum Beitrag
Auf anderen Seiten teilen

Die Details würden mich auch interessieren, hab aber noch nichts Genaueres darüber gefunden.

wäre doch was für @mjh

Ich gehe davon aus, dass bei der A/D-Wandlung sehr viel deutlicher die Farbtiefe reduziert wird um bei der Framerate und der Auflösung höher fahren zu können, für ein ordentliches Sucherbild. 
und wenn ich an der Farbtiefe spare, Dann vor allem dort wo man es nicht so sieht, eben genau in den Tiefen und Glanzlichtern wo sich die Reserven im RAW ergeben.

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Crischi74:

Ich gehe davon aus, dass bei der A/D-Wandlung sehr viel deutlicher die Farbtiefe reduziert wird um bei der Framerate und der Auflösung höher fahren zu können, für ein ordentliches Sucherbild.

Davon gehe ich auch aus. Die A/D-Wandler von Sony-Sensoren kann man ja umschalten und statt der üblichen 14 Bit auch 10 oder 12 Bits digitalisieren. Oder 16, was das betrifft. Je weniger Bits man dem Sensor abverlangt, desto schneller kann er digitalisieren. Damit könnte man aber immer noch beurteilen, wie es um die Lichter steht, und alles andere ergibt sich. Aber wie auch immer: Die Kamerahersteller haben den Nutzen eines Raw-basierten Histogramms (https://www.docma.info/blog/wie-funktioniert-ein-raw-basiertes-histogramm) noch immer nicht erkannt.

Übrigens nützt natürlich auch ein Raw-basiertes Histogramm nur dann etwas, wenn die Kamera im Sucherbild die Belichtung simuliert. Bei Blitzaufnahmen ist das nicht möglich, und dann kann es auch kein aussagekräftiges Live-Histogramm geben.

Link zum Beitrag
Auf anderen Seiten teilen

Eben, den Sensor nur mit 10bit auszulesen behindert einen nicht ein RAW Histogramm zu erstellen. Im Histogramm selbst kann ich nicht mal 100 Stufen erkennen, da reichen bereits 7 bit.

 

vor einer Stunde schrieb mjh:

Übrigens nützt natürlich auch ein Raw-basiertes Histogramm nur dann etwas, wenn die Kamera im Sucherbild die Belichtung simuliert. Bei Blitzaufnahmen ist das nicht möglich, und dann kann es auch kein aussagekräftiges Live-Histogramm geben.

Wieso? Das ist doch nach mein Verständnis nur heute so, weil das Histogramm aus dem jpeg generiert wird. Ich meine es könnte doch direkt aus den Rohdaten ermittelt werden und dann wäre es doch vollkommen egal was danach eine jpeg Engine mit den Daten macht und was ein EVF anzeigt. Klar, bei Blitz bringt es nichts um die Info vor der Aufnahme zu haben, aber bei der Bildkontrolle nach der Aufnahme, wäre es schon gut und möglich zu sehen wieweit der Sensor in die Sättigung gegangen ist.

ich meine ein Farbhistogramm und Blinkies auf echtes Sensorsättigung wäre was.

Peter

Link zum Beitrag
Auf anderen Seiten teilen

Ich würde für das Sucherbild eher von 8bit ausgehen, weil es reichen würde.

Es geht ja beim Liveview um einen Prozess der mit möglichst wenig Rechenpower und Erwärmung schnell/flüssig durchlaufen soll.

Das wird schon so eine festprogrammierte Pipeline sein in der nichts unnötig gespeichert wird und es wenig Abgreifpunkte gibt.

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb MightyBo:

Wieso? Das ist doch nach mein Verständnis nur heute so, weil das Histogramm aus dem jpeg generiert wird. Ich meine es könnte doch direkt aus den Rohdaten ermittelt werden und dann wäre es doch vollkommen egal was danach eine jpeg Engine mit den Daten macht und was ein EVF anzeigt. Klar, bei Blitz bringt es nichts um die Info vor der Aufnahme zu haben, aber bei der Bildkontrolle nach der Aufnahme, wäre es schon gut und möglich zu sehen wieweit der Sensor in die Sättigung gegangen ist.

Bei Blitzaufnahmen ist das Live-Histogramm – und nur darum geht es hier – nicht aussagekräftig, da der Blitz ja vor der Aufnahme nicht zündet. Im Nachhinein sieht es natürlich anders aus.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb FujiPi:

Ok; da habe ich ja was losgetreten. Scheint ein Riesenthema zu sein, dass mich hinsichtlich ETTR (Epose to the right) von nun an ebenfalls begleiten wird.

Danke erst einmal für die zahlreichen Reaktionen 😉

 

Du hast das alte Thema wieder reaktiviert. Ist auch gut so. Jetzt muss nur noch Fuji das mitbekommen, was aber so nicht der Fall ist. Das muss man bei Fuji direkt fordern. Hier liest keiner mit.

Peter

Link zum Beitrag
Auf anderen Seiten teilen

  • 1 month later...

Ich habe erst jetzt diesen Thread gelesen, aber vielleicht hilft es trotzdem, so spät darauf zu antworten. Das Thema wird im Netz schon länger unter dem Stichwort UniWB (Unitary White Balance) diskutiert. Durch eine Manipulation des Weißabgleichs wird das RAW-Histogram angezeigt, Nachteil ist, dass das jpeg dann unbrauchbar ist.

Ich habe mir ein Verfahren überlegt, den UniWB-Abgleich iterativ zu machen, hier der Link: 

https://rebohm.de/2020/02/die-uniwb-einstellung/ 

https://rebohm.de/2020/02/die-uniwb-einstellung-teil2/


 

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...