Jump to content

Erste Eindrücke GFX 100s


Thomas_M

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Die gespeicherten RAWs werden um 14% größer. Für die Bearbeitung werden die 14-Bit -Werte mit Sicherheit in auch 16- oder sogar 32-Bit-Werte umgewandelt. Bei der Rechenzeit sollte es meiner Meinung nach also keine Unterschiede geben, ob die RAWs 14 oder 16 Bit haben. 

bearbeitet von Jürgen Heger
Link zum Beitrag
Auf anderen Seiten teilen

5 hours ago, dayno said:

16bit Farbtiefe ist mehr, als ein "nice to have" ..................für mich macht es einen kleinen, aber feinen Unterschied bei der Bildbearbeitung und dem Ergebnis.............und das Argument der hohen bzw. durch die 16bit Bilddateien höheren Rechnerleistung kann ich kaum nachvollziehen. Hier bei mir läuft Capture One 21 ziemlich flüssig auf dem Mac Mini M1. 

Gruss Dayno 

16 Bit sind wichtig für den Dynamikumfang nicht so für die Farbtiefe:

https://www.dpreview.com/articles/4653441881/bit-depth-is-about-dynamic-range-not-the-number-of-colors-you-get-to-capture

So weit habe ich nicht gesehen, dass 16-Bit etwas ausmachen.

Die Kamera arbeitet langsamer mit 16-Bit. Mit 14-Bit dauert es 1/6 Sekunde, um Sensor zu lesen, bei 16-Bit dauert es 1/3 Sekunde. Das ist von Bedeutung, wenn man mit dem elektronischen Verschluss fotografiert.

Link zum Beitrag
Auf anderen Seiten teilen

On 1/30/2021 at 11:52 AM, Mattes said:

Naja, wenn ich die Wahl hätte, würde ich eine 50 MP-Version der GFX100s (also mit besserem AF, kleinerem Gehäuse und vor allem IBIS) vorziehen - 100 MP brauche ich nicht wirklich.

Da es diese Version aber nicht gibt, grüble ich eben weiter...

100MP verringern das Hervortreten der falschen Farbe (Moire).

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb MaTiHH:

Woher weißt du, was ich sehe? Und warum ist es an dir zu definieren, was fotografisch sinnvoll ist?

Ich definiere nicht, ich fasse zusammen, was die Leute hier im Forum, die wirklich Ahnung haben von der Materie, vorab geschrieben haben. Und Spielkind bin ich auch, sehr gerne sogar 👍🏻😃. Von daher hätte ich wohl auch Spaß an einer 100S, aber eben nicht wegen der 100% oder 16 Bit, sondern anderen Sachen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb Wosse:

Ich dachte das menschliche Auge kann 21 Blendenstufen Dynamik wahrnehmen.

Wenn Du ihm genug Zeit lässt, sich an wechselnde Lichtverhältnisse anzupassen, dann schon. Aber eben nicht gleichzeitig. Mit einer Belichtungsreihe kann eine Kamera auch extrem hohe Kontraste bewältigen, bloß nicht mit einer einzigen Aufnahme. Das Prinzip ist dasselbe.

Monitore erzeugen keine so hohen Kontraste; das wäre auch nicht sinnvoll, sondern würde unnötig anstrengen.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 6 Stunden schrieb Jürgen Heger:

Die gespeicherten RAWs werden um 14% größer. Für die Bearbeitung werden die 14-Bit -Werte mit Sicherheit in auch 16- oder sogar 32-Bit-Werte umgewandelt. Bei der Rechenzeit sollte es meiner Meinung nach also keine Unterschiede geben, ob die RAWs 14 oder 16 Bit haben. 

Richtig; Computer rechnen nicht mit 14 Bit, sondern mit 16 Bit, 32 Bit oder mit Gleitkommazahlen.

Einen relevanten Geschwindigkeitsunterschied macht die Zahl der Bits beim Auslesen des Sensors, genauer gesagt bei der Digitalisierung. Mehr zu digitalisierende Bits erhöhen die Zeit, die für eine rauscharme Digitalisierung benötigt wird, und begrenzen daher u.a. die Serienbildfrequenz.

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Stunden schrieb Tommy43:

Ich sehe da keinen Widerspruch zu dem, was ich geschrieben habe.

Ich auch nicht. Es sollte eine Ergänzung Deiner Aussage sein. Ich bin nicht so der Künstler des Wortes. Das hätte man sicherlich besser auf den Punkt bringen können.

Link zum Beitrag
Auf anderen Seiten teilen

.....ja, es gibt auch Nachteile bei Aufnahmen in 16bit Farbtiefe...............bei der GFX100 kann man damit keine Serien-Bilder aufnehmen. 

Ansonsten ist der Dynamik-Umfang sehr wichtig, das ist klar...................soweit ich das in Erinnerung habe, gibt es in der Netzhaut des menschlichen Auges von den 130Mio Sinneszellen nur 6Mio Zapfen, die für die Farbwahrnehmung zuständig sind..............die Stäbchen in extrem höherer Anzahl übernehmen die hell-dunkel Wahrnehmung. 

Die Farbwahrnehmung des Menschen und der Tonwertumfang eines techn. Gerätes hängen aber auch stark zusammen und sind nicht seperat zu betrachten. 

Hier ein kleiner Auszug von Eizo: 

Konstanter Tonwert über den gesamten Bildschirm

Pixel für Pixel steuert der Digital Uniformity Equalizer (DUE) alle Tonwerte über den gesamten Monitor. Der Effekt: Die Farbtöne erscheinen an jedem Punkt des Bildschirmes identisch, ohne Helligkeitsschwankungen wie bei herkömmlichen LCDs. Die DUE-Funktion gleicht zudem Auswirkungen von Schwankungen der Umgebungstemperatur auf Farbtemperatur und Helligkeit aus. Sie genießen eine stets homogene Leuchtdichteverteilung und perfekte Farbreinheit. Ein großes Plus bei Bildretuschen und Colour-Grading.

10-Bit-Farbtiefe: eine Milliarde Farben in feinster Abstufung

Dank einer 10-Bit-Farbdarstellung auf Grundlage einer 16-Bit-LUT können Sie ein riesiges Farbspektrum nutzen. Dies ermöglichen der schnelle DisplayPort und HDMI-Anschlüsse in Verbindung mit der Frame Rate Control. Eine Milliarde Farben stehen Ihnen simultan zur Verfügung. Das sind 64-mal so viele Farben wie bei der 8-Bit-Darstellung. Die Farbabstufungen sind feiner und die Farbabstände zwischen benachbarten Farben niedriger. Für die Postproduktion ebenfalls wichtig: der erweiterte Graustufenbereich. Bei aktiviertem 10-Bit-Graustufenbereich sind zwischen 6 % und 14 % mehr Graustufen sichtbar.

Stabile Helligkeit, keine Farbabweichung

Das A und O für exakte Bildbearbeitungen: konstante Helligkeit und Farbtemperatur. Eine patentierte Elektronik kompensiert Helligkeitsschwankungen, die infolge längerer Betriebsdauer sowie erhöhter Umgebungs- und Betriebstemperatur auftreten können. Dank eines integrierten Thermometers werden Farbabweichungen, die durch Raumtemperatur-Schwankungen entstehen, ausgesteuert und automatisch reduziert. Die Farbwiedergabe bleibt über einen langen Arbeitszeitraum absolut konstant. Und zwar von Beginn an: Denn die Aufwärmzeit, bis sich Helligkeit, Farbe und Tonwert voll stabilisiert haben, beträgt nur sieben Minuten. Das ist nur ein Viertel der sonst üblichen Zeit.

Das ist zwar etwas Werbung, zeigt uns aber auf, an welcher Stelle der Übergang von der Technik zum Menschen stattfindet. 

Und wenn an dieser Stelle grosse Schwankungen vorhanden sind, dann kann in Zweifel gezogen werden, dass der Mensch, der sich ein oder mehrere Bilder anschaut, die Qualität des aufgenommenes Bildes einschätzt,  sondern die Schwankungen des Monitores überwiegen.  Der Unterschied zwischen 14bit und 16bit Aufnahmen ist vorhanden und zeigt sich auch auf einem sehr guten Anzeige-Gerät.......und das Anzeige-Gerät zeichnet sich dadurch aus, dass Farbtöne ohne Helligkeits-Schwankungen dargestellt werden. Dynamik-Umfang-Tonwerte-Farben............das hängt alles zusammen. 

Gruss Dayno 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb dayno:

Der Unterschied zwischen 14bit und 16bit Aufnahmen ist vorhanden und zeigt sich auch auf einem sehr guten Anzeige-Gerät.......und das Anzeige-Gerät zeichnet sich dadurch aus, dass Farbtöne ohne Helligkeits-Schwankungen dargestellt werden. Dynamik-Umfang-Tonwerte-Farben............das hängt alles zusammen. 

ich habe mir erlaubt die Schriftgröße im Zitat wieder auf normales Niveau anzugleichen. 

Der Unterschied in der Bit Anzahl führt zu einer unterschiedlichen Beschränkung des maximalen Dynamikumfangs. Dass eine größere Bit-Anzahl als notwendig Vorteile hat (da wird gerne mit Farbabstufungen und der gleichen argumentiert), widerspricht dem Shannon-Hartley-Gesetz.

 Die Frage ist also, ob die einzelnen Pixel durch die Farbtiefe limitiert werden, oder nicht. 12bit scheinen bei 20MP mFT begrenzend zu wirken (der 12MP GH5s Sensor ist meines Wissens der einzige 14bit mFT Sensor) und 14bit dürften in der 12MP A7S Reihe ebenfalls beschränken.

Hier, und eigentlich nur hier, würde es sich in der Theorie auszahlen, die Bit Tiefe zu erhöhen! 

edit: in der Praxis zeigt Jim Kassons Test, dass es einen minimalen Vorteil beim maximalen Dynamikumfang gibt und dass sich die Bilder minimal anders in Lightroom verhalten (vmtl. anderer Schwarzpunkt). Wenn Leute glauben, sie müssen für diese Vorteile die Nachteile in kauf nehmen, dann ist mir das egal - es ist ein freies Land, jeder kann machen was er will (außer sich mit anderen Treffen, ins Gasthaus gehen usw.) also auch den 16bit Nutzern wünsche ich viel Spaß mit ihren Kameras :)

 

bearbeitet von wildlife
Link zum Beitrag
Auf anderen Seiten teilen

@wildlife...........ich lerne gerne dazu, merci. 

Ansonsten kann ich nur jedem empfehlen, sich selbst ein Bild zu machen, ob er/sie einen Unterschied zwischen 14bit und 16bit Aufnahmen sieht/erkennt und ob er/sie die Nachteile in Kauf nimmt. In Übrigen dauert es keine 5sec, die RAW Einstellung zwischen 14bit und 16bit umzustellen........................und ich wäre auch ohne die 16bit Möglichkeiten von der GFX50S auf die GFX100 umgestiegen......................Anfangs war ich auch eher skeptisch, was den Sensor der GFX100 angeht und auch das Gehäuse gefiel mir auf den Bildern überhaupt nicht. 

Erst durch einen ausgiebigen Test musste ich meine Vorbehalte in Bezug auf die GFX100 revidieren ................In Summe ist der Unterschied zur GFX50S ziemlich gross. 

Gruss Dayno 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb wildlife:

Die Frage ist also, ob die einzelnen Pixel durch die Farbtiefe limitiert werde

Das wäre nur dann die Frage, wenn der Anstand zwischen zwei gespeicherten Werten äquidistant wäre. Ist er aber nicht. 

bearbeitet von MaTiHH
Link zum Beitrag
Auf anderen Seiten teilen

5 hours ago, dayno said:

@wildlife...........ich lerne gerne dazu, merci. 

Ansonsten kann ich nur jedem empfehlen, sich selbst ein Bild zu machen, ob er/sie einen Unterschied zwischen 14bit und 16bit Aufnahmen sieht/erkennt und ob er/sie die Nachteile in Kauf nimmt. In Übrigen dauert es keine 5sec, die RAW Einstellung zwischen 14bit und 16bit umzustellen........................und ich wäre auch ohne die 16bit Möglichkeiten von der GFX50S auf die GFX100 umgestiegen......................Anfangs war ich auch eher skeptisch, was den Sensor der GFX100 angeht und auch das Gehäuse gefiel mir auf den Bildern überhaupt nicht. 

Erst durch einen ausgiebigen Test musste ich meine Vorbehalte in Bezug auf die GFX100 revidieren ................In Summe ist der Unterschied zur GFX50S ziemlich gross. 

Gruss Dayno 

 

Das ist ein guter Vorschlag. Jeder soll sich selber ein Bild machen -- eigentlich zwei Bilder, mit 14 und 16 Bit :) -- und selber Entscheiden im welchem Mode zu fotografieren. Ich bin sicher, dass manche 14-Bit und andere 16-Bit Mode wählen werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb SrMi:

Das ist ein guter Vorschlag. Jeder soll sich selber ein Bild machen -- eigentlich zwei Bilder, mit 14 und 16 Bit :) -- und selber Entscheiden im welchem Mode zu fotografieren. Ich bin sicher, dass manche 14-Bit und andere 16-Bit Mode wählen werden.

Das ist immer gut. Allerdings müssen das auch die richtigen Motive sein. Feine Farbverläufe und dunkle Bildpartien mit feinen Verläufen, die man später stark pusht. Wenn man einen Unterschied sehen kann, dann da.

Peter

Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb wildlife:

...

Der Unterschied in der Bit Anzahl führt zu einer unterschiedlichen Beschränkung des maximalen Dynamikumfangs. Dass eine größere Bit-Anzahl als notwendig Vorteile hat (da wird gerne mit Farbabstufungen und der gleichen argumentiert), widerspricht dem Shannon-Hartley-Gesetz.

 Die Frage ist also, ob die einzelnen Pixel durch die Farbtiefe limitiert werden, oder nicht. 12bit scheinen bei 20MP mFT begrenzend zu wirken (der 12MP GH5s Sensor ist meines Wissens der einzige 14bit mFT Sensor) und 14bit dürften in der 12MP A7S Reihe ebenfalls beschränken.

Hier, und eigentlich nur hier, würde es sich in der Theorie auszahlen, die Bit Tiefe zu erhöhen! 

....

Ich glaube, dass die letzte Aussage in dieser Absolutheit nicht ganz richtig ist. Sie gilt für ein einzelnes Pixel. Bei Bildern kann man aber Information aus den benachbarten Pixel benutzen, um den Fehler durch Rauschen in einem Pixel zu reduzieren. Ich vermute, dass geschieht sogar im Gehirn automatisch, sobald die Pixel so klein sind, dass sie nicht mehr einzeln erkannt werden. Dann kann man nach Shannon-Hartley die Anzahl der Bits erhöhen. Zu wenig Bits, also zu wenig Stufen, sieht man als erstes in Verläufen mit geringer Änderung pro Pixel. Hier hat die Bildinformation eine niedrige spatiale Frequenz. Das Rauschen hat üblicherweise eine hohe spatiale Frequenz und kann deshalb einigermaßen gut weggefiltert werden. An Stellen mit feinen Strukturen, die hoher spatialer Frequenz entsprechen, kann man das Rauschen schlechter Filtern. Hier sind 'fehlende' Bits aber auch nicht so leicht zu erkennen.

In den Anfängen der digitalen Videotechnik wurden sehr viele professionelle Sendungen mit 8 Bit aufgezeichet und gesendet. Die Notwendigkeit von mehr Bits wurden hauptsächlich damit begründet, dass man  mit 10 Bit beim Bearbeiten, z. B. beim Anheben des Kontrasts, nicht so schnell sichtbare Sprünge erhält. Es wird also sehr davon abhängen, wie sehr man seine Bilder beim Bearbeiten 'verbiegt', ob man von den zusärzlichen Bits profitieren kann oder nicht.

 

Link zum Beitrag
Auf anderen Seiten teilen

Am 18.3.2021 um 11:59 schrieb MaTiHH:

Das wäre nur dann die Frage, wenn der Anstand zwischen zwei gespeicherten Werten äquidistant wäre. Ist er aber nicht. 

Ich vermute, Du meintest Abstand und nicht Anstand 😊. Falls ja, könntest Du eine Quelle nennen?

Meines Wissens arbeiten die Sensoren weitgehend linear, jedenfalls linearer als analoger Film, und die Kodierung im RAW ist ebenfalls linear. Für Video kenne ich verschiedene mehr oder weniger logarithmische Verfahren, bei denen man 10 Bit Videogeräte benutzt um quasi 12 Bit Dynamic zu übertragen. F-log ist eines davon.

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb Jürgen Heger:

Ich vermute, Du meintest Abstand und nicht Anstand 😊. Falls ja, könntest Du eine Quelle nennen?

Meines Wissens arbeiten die Sensoren weitgehend linear, jedenfalls linearer als analoger Film, und die Kodierung im RAW ist ebenfalls linear. Für Video kenne ich verschiedene mehr oder weniger logarithmische Verfahren, bei denen man 10 Bit Videogeräte benutzt um quasi 12 Bit Dynamic zu übertragen. F-log ist eines davon.

So meine ich das auch, im jpg sind dann die Abstände logarithmisch. 
Peter

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb MightyBo:

So meine ich das auch, im jpg sind dann die Abstände logarithmisch. 
Peter

S-förmig beschreibt es etwas besser, da der mittlere Bereich linear und der untere eher exponentiell ist, wie ich selber mal ausgemessen habe.

Link zum Beitrag
Auf anderen Seiten teilen

Die Diskussionn über Pixelshift liegt nun schon etwas zurück, jetzt hat Jim Kasson dazu in seinem Blog eine Beitrag gepostet:

https://blog.kasson.com/gfx-100s/fujifilm-gfx-100s-pixel-shift/

er schreibt explizit, dass die Kamera sehr, sehr ruhig stehen muss. Was dies in der Praxis bedeutet muss jeder wohl selbst herausfinden

Thomas

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb Thomas_M:

...............er schreibt explizit, dass die Kamera sehr, sehr ruhig stehen muss. Was dies in der Praxis bedeutet muss jeder wohl selbst herausfinden

Thomas

' Fest gemauert in der Erden. Steht die Form, aus Lehm gebrannt.` Heute muss das Foto werden. Frisch Stative, seid zur Hand!...' (frei nach Schiller)

Link zum Beitrag
Auf anderen Seiten teilen

vor 56 Minuten schrieb Thomas_M:

Kannst du bitte ein Link zu den Beispielen posten?

 

Thomas

Hallo Thomas,

gute Frage, ich finde das leider auch nicht mehr. Das waren Beispiele mit bewegten Wolken und Artefakte durch extrem geringe Bewegungen, 

Peter

bearbeitet von MightyBo
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb MightyBo:

Hallo Thomas,

gute Frage, ich finde das leider auch nicht mehr. Das waren Beispiele mit bewegten Wolken und Artefakte durch extrem geringe Bewegungen, 

Peter

 Hallo Peter,

 

Ich habe auch noch mal nach Beispielen gesucht, aber die von Rico nicht gefunden, dafür aber hier:

https://photographylife.com/news/fujifilm-launches-pixel-shift-on-the-gfx-100

Sicher ist das alles etwas theoretisch, wer wird Pixel shift wirklich nutzten, doch ich finde die Infos in dem Blog von Jim Kasson https://blog.kasson.com/gfx-100s/fujifilm-gfx-100s-pixel-shift/und auch die Diskussion

https://blog.kasson.com/the-last-word/does-pixel-shift-increase-resolution/

recht interessant. Jim Kasson betont immer wieder, das Pixel shift nicht die Auflösung erhöht und davon kann man sich bei den Bildern mit dem Simensstern selber überzeugen. Letztendlich ist es auch eine Frage wie die Auflösung definert wird, wenn es über die die Modulationstransferfunktion geschieht, dann leuchtet dies ein, denn es handelt sich um periodische Strukturen. Der Vorteil liegt darin, dass die Bilder weniger Artfacte aufweisen. Pixelshift Bilder lassen sich viel besser schärfen und zeigen dann in der Tat in der Praxis mehr Detail.  Mich würde mal ein Vergleich Pixelshift und Super Resolution interessieren, vermutlich ist er sehr gering. So ein Test will sehr sorgfältig durchgeführt werden, wenn er etwas aussagen soll.

Thomas

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...