Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 2 Stunden schrieb rachmaninov:

gibt es eine Erklärung warum das so ist?

Anscheinend ist es so schwer zu verstehen, weil es so einfach ist …

Die Kamera erfasst einen bestimmt Bildwinkel. Nun bewegt sie sich um einen bestimmten Winkel, was eine Verwacklungsunschärfe verursacht, und wie groß diese im Bild erscheint, hängt vom Verhältnis der beiden Winkel ab.

Wenn sich das Motiv während der Belichtung bewegt, kann man diese Bewegung ebenfalls als Bruchteil des insgesamt erfassten Bildwinkels beschreiben, und wiederum ist es das Verhältnis der Winkel, das das Ausmaß der Unschärfe ausmacht.

Wenn ich nun beispielsweise eine Unschärfe habe, die sich über ein Tausendstel des horizontalen Bildwinkels erstreckt und und ein 24-MP-Bild 6000 Pixel in der Breite hat, dann erstreckt sie sich über sechs Pixel. Bei 26 Megapixeln sind es 6,24 Pixel (6240 / 1000) und bei 102 Megapixeln 11,648 Pixel (11648 / 1000). In Pixeln gemessen wird die Unschärfe bei steigender Pixelzahl immer größer, in Bruchteilen der Bildgröße gemessen bleibt sie hingegen gleich.

Und was ist mit dem Pixel-Pitch? Der kommt nicht vor, weil er nichts damit zu tun hat. Statt nach dem Pixel-Pitch zu fragen, könnte man auch die Frage stellen, „Und wie alt ist der Kapitän?“

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Wenn ich nun beispielsweise eine Unschärfe habe, die sich über ein Tausendstel des horizontalen Bildwinkels erstreckt und und ein 24-MP-Bild 6000 Pixel in der Breite hat, dann erstreckt sie sich über sechs Pixel. Bei 26 Megapixeln sind es 6,24 Pixel (6240 / 1000) und bei 102 Megapixeln 11,648 Pixel (11648 / 1000). In Pixeln gemessen wird die Unschärfe bei steigender Pixelzahl immer größer, in Bruchteilen der Bildgröße gemessen bleibt sie hingegen gleich.

Und was ist mit dem Pixel-Pitch? Der kommt nicht vor, weil er nichts damit zu tun hat. Statt nach dem Pixel-Pitch zu fragen, könnte man auch die Frage stellen, „Und wie alt ist der Kapitän?“

Wie sehen solche Rechnungen eigentlich für einen Crop aus? Ist ein Crop auf 24 MP für solche Rechnungen dasselbe wie ein 24 MP Bild?

Manchmal ist bei mir bei einem Ganzkörperbild z.B. die Mimik so interessant, dass ich es auf ein Brustbild zuschneide, um das Wichtige im Bild nach vorne zu bringen. Zu Hause, in der Ruhe, sehen manchmal die Dinge doch anders aus, als "im Gefecht".

Dafür wären doch 40 MP ganz hilfreich, habe ich mir mal in meinem jugendlichen Leichtsinn so gedacht ...

Gruß George

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Anscheinend ist es so schwer zu verstehen, weil es so einfach ist …

Die Kamera erfasst einen bestimmt Bildwinkel. Nun bewegt sie sich um einen bestimmten Winkel, was eine Verwacklungsunschärfe verursacht, und wie groß diese im Bild erscheint, hängt vom Verhältnis der beiden Winkel ab.

Wenn sich das Motiv während der Belichtung bewegt, kann man diese Bewegung ebenfalls als Bruchteil des insgesamt erfassten Bildwinkels beschreiben, und wiederum ist es das Verhältnis der Winkel, das das Ausmaß der Unschärfe ausmacht.

Wenn ich nun beispielsweise eine Unschärfe habe, die sich über ein Tausendstel des horizontalen Bildwinkels erstreckt und und ein 24-MP-Bild 6000 Pixel in der Breite hat, dann erstreckt sie sich über sechs Pixel. Bei 26 Megapixeln sind es 6,24 Pixel (6240 / 1000) und bei 102 Megapixeln 11,648 Pixel (11648 / 1000). In Pixeln gemessen wird die Unschärfe bei steigender Pixelzahl immer größer, in Bruchteilen der Bildgröße gemessen bleibt sie hingegen gleich.

Und was ist mit dem Pixel-Pitch? Der kommt nicht vor, weil er nichts damit zu tun hat. Statt nach dem Pixel-Pitch zu fragen, könnte man auch die Frage stellen, „Und wie alt ist der Kapitän?“

Selbst ich, mit meinem Georgischen Gehirn 🧠 konnte es ganz mühelos begreifen 🙂

Eine Verwackelung ist dasselbe im Vergleich, egal ob die von der X-T1 oder X-T5 kommt, wenn man die Ergebnisse auf die gleiche Fläche z.B. auf 3 X 2m ausdruckt und nebeneinander aushängt.

Vergleicht man aber beide am Bildschirm im 100% Ansicht, erscheint die Verwackelung von der X-T5 größer, weil das "Effekt" (bei 40MP) mehr Pixel erfasst hat.

Ist das so, oder habe ich mich am Anfang umsonst gelobt? 😊😀

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb GeorgeTheMerlin:

Wie sehen solche Rechnungen eigentlich für einen Crop aus? Ist ein Crop auf 24 MP für solche Rechnungen dasselbe wie ein 24 MP Bild?

Manchmal ist bei mir bei einem Ganzkörperbild z.B. die Mimik so interessant, dass ich es auf ein Brustbild zuschneide, um das Wichtige im Bild nach vorne zu bringen. Zu Hause, in der Ruhe, sehen manchmal die Dinge doch anders aus, als "im Gefecht".

Dafür wären doch 40 MP ganz hilfreich, habe ich mir mal in meinem jugendlichen Leichtsinn so gedacht ...

Gruß George

 

 

Im Prinzip ist es ja so, dass durch den Ausschnitt die Pixel bei gleicher Ausgabegröße des Bildes größer wirken und durch eine Verwacklung der Effekt durch den Crop verstärkt wird. Schneidest Du ein Bild auf ein Viertel der unsprünglichen Fläche zu (Kantenlänge halbiert sich) und ziehst es anschließend wieder genauso groß auf wie die Urversion, verbreitert sich der unscharfe Bereich auf die doppelte Strecke. Je nachdem wie hoch die Reserven im Bild sind und wie groß das Bild aufgezogen wird, wirkt das Bild dann von Betrachtungsabstand her gesehen gegebenenfalls unschärfer.

Link zum Beitrag
Auf anderen Seiten teilen

Ist nicht so kompliziert. Auf einen Ausdruck bezogen kann es mit mehr Pixel zwar besse aber nicht schlechter weden. Steht die Kamera jeweils auf dem Stativ, wird es beim höher auflösenden Sensor besser. (außer der IBIS ist nicht ausgeschaltet :))

bearbeitet von jamimages
Link zum Beitrag
Auf anderen Seiten teilen

Hört sich für mich richtig an.

Ich glaube die Verwirrung entsteht, da im Ansatz von zwei unterschiedlichen Zielen ausgegangen wird:

- Auswirkung auf die Bildausgabe (die gezeige Formel und Erklärung - Danke dafür :-) )       oder
- Ausnutzung der Maximalauflösung des Sensors, unabhängig vom Ausgabemedium

Für den zweiten Fall geht es darum, dass die Bewegungsunschärfe so begrenzt wird, dass diese die Pitchgröße möglichst nicht übersteigt bzw. innerhalb von zwei benachbarten Pitches bleibt. Diese Betrachtung ist z.B. für mich interessant, wenn ich die Strategie umsetzen möchte, welche ich im Zusammenhang mit der H2s/Objektivdiskussion angerissen hatte: Nutzung der höheren Sensorauflösung, dafür Verringerung der Brennweite mit dem Ziel eines schneller reagierenden oder holleren Objektivs. Gleiche Abbildungsverhältnisse durch stärkeren Crop.

Ausgehend davon, dass das urspüngliche Theorem aus Analogzeiten stammt - Kleinbild / Auflösung umgerechnet ca. 5MB(richtig?) - gehe ich wie folgt vor:

t= 1/ (Brennweite * (Auflösung Sensor [MB]/ 5)^0,5 * c)         c=Cropfaktor

Heißt bei 500mm für den 26er Sensor 1/1750s und für den 40er 1/2100s. In der Praxis starte ich daher als Orientierung mit 1/1600s und dann Anasssung je nach Objekt, Stativ, Freihand, OIS, Licht etc.

 

Boot

bearbeitet von Boot
Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Minuten schrieb Boot:

Ausgehend davon, dass das urspüngliche Theorem aus Analogzeiten stammt - Kleinbild / Auflösung umgerechnet ca. 5MB(richtig?) - gehe ich wie folgt vor:

t= 1/ (Brennweite * (Auflösung Sensor [MB]/ 5)^0,5 * c)         c=Cropfaktor

Heißt bei 500mm für den 26er Sensor 1/1750s und für den 40er 1/2100s. In der Praxis starte ich daher als Orientierung mit 1/1600s und dann Anasssung je nach Objekt, Stativ, Freihand, OIS, Licht etc.

Das erscheint mir doch alles arg theoretisch. Ich meine es macht natürlich Sinn die Zusammenhänge mal zu verinnerlichen, aber zB 500mm BW wird man idR mit OIS (und / oder ggf. IBIS) nutzen oder vom Stativ.  
Aber selbst wenn nicht, ich wackle Freitags vermutlich anders als Samstags, vor dem Frühstück vermutlich mehr als danach usw. 
Letztlich bleibt es eine Sache der persönlichen Erfahrung, die mit 40MP nun etwas feinjustiert werden muss. 

Link zum Beitrag
Auf anderen Seiten teilen

Mal ein neues Thema: Fuji Rumors hat neue Gerüchte gestreut nachdem der 40 MP Sensor im Video-Modus einen Dynamikumfang von 13 Stops. Im Gegensatz dazu liefert die X-H2s 14+  Stops.

https://www.fujirumors.com/rumor-fujifilm-x-h2-with-13-stops-of-video-dynamic-range/

Wie kann man das eigentlich messen. Die Ausgabe-Farbtiefe beträgt ja nur 10 Bit. Dazu müsste man dann im F-Log 2 Modus arbeiten, oder?

Welche Auswirkung könnte das auf Fotos haben? Ich habe den Dynamikumfang des X-Trans IV gerade nicht parat.

Mich wundert die Differenz jetzt nicht, da die Pixel der X-H2s um ca. 50% größer sind im Vergleich zur X-H2.

Link zum Beitrag
Auf anderen Seiten teilen

Es wird wirklich eine super spannende Vorstellung seit langem. Ein neuer Sensor mit soviel Pixeln, das ist ein größer Zuwachs auf einmal +14MP. Die X-H2s war interessant aber die X-H2 ist wirklich so eine Blackbox, wie wird die BQ, der Dynamikumfang im Fotomodus, der AF usw. und wenn alle Parameter wirklich überzegen, könnte es ein Meilenstein für Fuji werden. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb AS-X:

Das erscheint mir doch alles arg theoretisch. Ich meine es macht natürlich Sinn die Zusammenhänge mal zu verinnerlichen, aber zB 500mm BW wird man idR mit OIS (und / oder ggf. IBIS) nutzen oder vom Stativ.  
Aber selbst wenn nicht, ich wackle Freitags vermutlich anders als Samstags, vor dem Frühstück vermutlich mehr als danach usw. 
Letztlich bleibt es eine Sache der persönlichen Erfahrung, die mit 40MP nun etwas feinjustiert werden muss. 

Nun, es macht zumindest etwas die Relationen der Veränderung deutlich: 26 MP - Daumenfaktor wäre ca. 1 / 3x Brennweite, bei 40 MP - ca. 1 / 4x Brennweite.

Aber richtig, die persönliche Konditionierung bleibt unberücksichtig und der OIS Faktor fließt gar nicht ein. Es ist und bleibt einen Daumenregel und im Zweifelsfalle sollte man sich irgendwo abstützen ;)

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb GeorgeTheMerlin:

Wie sehen solche Rechnungen eigentlich für einen Crop aus? Ist ein Crop auf 24 MP für solche Rechnungen dasselbe wie ein 24 MP Bild?

Eine Ausschnittsvergrößerung ist eine Vergrößerung, und die vergrößert auch die Unschärfe. Die Unschärfe als solche bleibt, aber der insgesamt erfasste Bildwinkel schrumpft und in Relation dazu erscheint die Unschärfe größer. Aber da ja auch die relative Größe der Pixel wächst, ist einem das vielleicht egal.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb meridian:

Ein neuer Sensor mit soviel Pixeln, das ist ein größer Zuwachs auf einmal +14MP.

Beim Sprung von 16 auf 24 Megapixel waren es 50 Prozent mehr; jetzt sind es gegenüber 26 Megapixeln 54 Prozent mehr, was in der gleichen Größenordnung liegt. 

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb kermit66:

Wie kann man das eigentlich messen. Die Ausgabe-Farbtiefe beträgt ja nur 10 Bit. Dazu müsste man dann im F-Log 2 Modus arbeiten, oder?

Welche Auswirkung könnte das auf Fotos haben? Ich habe den Dynamikumfang des X-Trans IV gerade nicht parat.

Das misst man, indem man den größten erkennbaren Helligkeitsunterschied durch den kleinsten erkennbaren Helligkeitsunterschied teilt. Mit der Farbtiefe hat es nichts zu tun. Die 10 Bit sind nützlich, weil man damit 1024 Tonwerte unterscheiden kann und damit mehr Spielraum für Bearbeitungen in der Postproduktion gewinnt – wer in einem Log-Modus aufnimmt, wird ja später auf jeden Fall in die Tonwertwiedergabe eingreifen, denn so wie aufgezeichnet will das keiner sehen. Aber ein großer Dynamikumfang wäre auch mit 8 Bit darstellbar.

Wie hoch der Dynamikumfang bei Standbildern ist, wird man sehen. Wenn es so kommt, wie in den Gerüchten zu hören, könnte er auf Pixelbasis geringer als bei der X-H2s sein, aber bei 40 Megapixeln stellt sich auch die Frage, ob der Dynamikumfang auf Pixelbasis noch relevant ist.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb AS-X:

Das erscheint mir doch alles arg theoretisch. Ich meine es macht natürlich Sinn die Zusammenhänge mal zu verinnerlichen, aber zB 500mm BW wird man idR mit OIS (und / oder ggf. IBIS) nutzen oder vom Stativ.  
Aber selbst wenn nicht, ich wackle Freitags vermutlich anders als Samstags, vor dem Frühstück vermutlich mehr als danach usw. 
Letztlich bleibt es eine Sache der persönlichen Erfahrung, die mit 40MP nun etwas feinjustiert werden muss. 

Deswegen auch ..."als Orientierung" und die Erwähnung diverser Faktoren :-) In der Praxis fahre ich mit der 1/1600tel Freihand ohne OIS recht gut. Manchmal ist selbst diese zu lang, häufig komme ich bei höherer Ausschuss-Quote auch mit 1/800 zurecht, im Exremfall mit (Anschlag am Baum + Gewehrschuss-Atemtechnik + OIS) auch schon 1/60tel geschafft.

Mit meinen Erfahrungen gehe ich davon aus, dass ich mich auf kürzere Belichtungszeiten einstellen sollte.

 

Boot

bearbeitet von Boot
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb mjh:

Beim Sprung von 16 auf 24 Megapixel waren es 50 Prozent mehr; jetzt sind es gegenüber 26 Megapixeln 54 Prozent mehr, was in der gleichen Größenordnung liegt. 

Das beruhigt, sonst dachte ich, dass der Sprung auf einmal auf 40 ein Schwanengesang des APS-C war 😉

Link zum Beitrag
Auf anderen Seiten teilen

Das ist sowieso die krudeste Auslegung, dass bei Kleinbild 40 - 60 MP als Innovation oder gar aktueller Standard gelten, bei APS-C aber ein Wert an der unteren Grenze dieser Auflösung den Untergang bedeuten soll.

Einfach mal abwarten und die Ergebnisse zeigen lassen, es wird Mitte September sicher mehr als genug Beispiele bis hin zu Probedateien im Rohformat geben, mit denen man ohne etwas kaufen zu müssen diese Auflösung als Bild erkunden, ausprobieren und selber bearbeiten kann.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb mjh:

Das misst man, indem man den größten erkennbaren Helligkeitsunterschied durch den kleinsten erkennbaren Helligkeitsunterschied teilt. Mit der Farbtiefe hat es nichts zu tun. Die 10 Bit sind nützlich, weil man damit 1024 Tonwerte unterscheiden kann und damit mehr Spielraum für Bearbeitungen in der Postproduktion gewinnt – wer in einem Log-Modus aufnimmt, wird ja später auf jeden Fall in die Tonwertwiedergabe eingreifen, denn so wie aufgezeichnet will das keiner sehen. Aber ein großer Dynamikumfang wäre auch mit 8 Bit darstellbar.

Wie hoch der Dynamikumfang bei Standbildern ist, wird man sehen. Wenn es so kommt, wie in den Gerüchten zu hören, könnte er auf Pixelbasis geringer als bei der X-H2s sein, aber bei 40 Megapixeln stellt sich auch die Frage, ob der Dynamikumfang auf Pixelbasis noch relevant ist.

So ähnlich hatte ich mir das schon gedacht, denn in die 1024 Werte ergeben ja nur 10 Stops her also 2 hoch 10. Da muss man die 14 Stops auf geeignete Weise mit Hilfe von Kurven reinpressen und später wieder aufblasen, wobei dann aber Zwischenwerte verloren gehen. Dastellen kann man meines Wissen im Video aktuell nur 10-Bit. Mehr ist mir jedenfalls nicht geläufig, also nicht für handelsübliche TV-Geräte oder Computer-Monitore.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb kermit66:

So ähnlich hatte ich mir das schon gedacht, denn in die 1024 Werte ergeben ja nur 10 Stops her also 2 hoch 10. Da muss man die 14 Stops auf geeignete Weise mit Hilfe von Kurven reinpressen und später wieder aufblasen, wobei dann aber Zwischenwerte verloren gehen. Dastellen kann man meines Wissen im Video aktuell nur 10-Bit. Mehr ist mir jedenfalls nicht geläufig, also nicht für handelsübliche TV-Geräte oder Computer-Monitore.

Ja, selbst auf HDR-Bildschirmen hat man nur 10 Bit. Der vermutete einfache Zusammenhang zwischen Bits und EV existiert schlicht und einfach nicht; es gäbe ihn allenfalls bei einer linearen Kennlinie, aber niemand will Bilder mit einer linearen Kennlinie sehen. Je höher der Gamma-Wert, desto größer ist der Dynamikumfang, den man in einer bestimmten Zahl von Bits unterbringen kann.

(Übrigens gilt der proportionale Zusammenhang zwischen Bits und EV selbst bei einer linearen Kennlinie nur ganz grob; sonst könnte man aus Rohdaten mit 14 Bit keinen Dynamikumfang von 15 EV herausholen.)

Link zum Beitrag
Auf anderen Seiten teilen

Naja, wenn man bedenkt, was so an Auflösung und Schärfe bei dem viel kleineren Sensor von MFT Kameras möglich ist, sollte klar sein, dass 40MP bei den neuen Fujis richtig gut werden können. Dann nochmals den OIS um eine halbe oder ganze Stufe verbessern und dann klappt das bestens. Da habe jedenfalls ich keine Bedenken. 👍

Link zum Beitrag
Auf anderen Seiten teilen

vor 14 Stunden schrieb kermit66:

So ähnlich hatte ich mir das schon gedacht, denn in die 1024 Werte ergeben ja nur 10 Stops her also 2 hoch 10. Da muss man die 14 Stops auf geeignete Weise mit Hilfe von Kurven reinpressen und später wieder aufblasen, wobei dann aber Zwischenwerte verloren gehen. Dastellen kann man meines Wissen im Video aktuell nur 10-Bit. Mehr ist mir jedenfalls nicht geläufig, also nicht für handelsübliche TV-Geräte oder Computer-Monitore.

Bei den logaritmischen Speicherformaten nutzt man aus, dass der Mensch in dunklen Bereichen viel feinere Helligkeitsstufen unterscheiden kann als im Hellen. Man liest von Sensor zum Beispiel alle Pixel mit 13 Bit aus. In den Bereichen, in denen der Mensch sehr feine Helligkeitsstufen unterscheiden kann, werden alle vorhandenen Stufen abgespeichert. Je heller es wird um so gröber werden die Stufen. Insgesamt werden  nur 1024 verschieden Werte abgespeichert, die prima in 10 Bit passen. Im Prinzip erfolgt die Umrechnung über die Logarithmusfunktion. Speziell im unteren Bereich kann es aber linear sein. Wie es bei den aktuell benutzten Log-Formaten im Detail aussieht weiß ich nicht. Da es aber mehrere gibt, kann man vermuten, dass sie sich im Deteil unterscheiden und für bestimmte Anwendungen optimiert wurden.

Es könnte sein, dass man bei der H2s 14 Bit je Pixel ausliest und bei der H2 nur 13 Bit auslesen kann, weil der Sensor zu langsam ist. Das ist aber nur Spekulation von mir.

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Stunden schrieb mjh:

Beim Sprung von 16 auf 24 Megapixel waren es 50 Prozent mehr; jetzt sind es gegenüber 26 Megapixeln 54 Prozent mehr, was in der gleichen Größenordnung liegt. 

Bis auf den Unterschied, dass wir jetzt bei 40MP angekommen sind und der Sensor nicht größer geworden ist. Somit kann keiner bis jetzt verlässlich sagen, wie die BQ am Ende sein wird. Wir werden abwarten müssen, es bleibt sehr spannend. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb meridian:

Bis auf den Unterschied, dass wir jetzt bei 40MP angekommen sind und der Sensor nicht größer geworden ist. Somit kann keiner bis jetzt verlässlich sagen, wie die BQ am Ende sein wird. Wir werden abwarten müssen, es bleibt sehr spannend. 

Das war doch beim Sprung von 16 auf 24MP nicht anders. 
Aber ja, es bleibt spannend, wobei ich aber davon ausgehe, dass da was Gutes rauskommt. 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...