Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 10 Minuten schrieb Don Pino:

Eine spektakuläre und beim Reinzoomen messerscharfe Aufnahme. Natürlich kannst Du mit der GfX problemlos auf Blende 14 gehen. Ich nehme an, ab dieser Grenze fängt die Beugungsunschärfe erst an.

Ist bei der GFX100(S) genau dort wo sie auch bei der H2S ist. Aber nachdem man das Ergebnis nicht mit 100% betrachtet, ist das nicht entscheidend. Mit jeder Auflösungshalbierung (Pixelzahl) beim Downsampling gewinnt man eine Blendenstufe, aus Blende 7.1 wird also Blende 14.2, wenn man das Ergebnis beim Export auf 50% verkleinert und die Pixelzahl somit viertelt. Und dieses Viertel sind ja immer noch satte 96 MP. Mit Blende 14 bekommt man natürlich schönere Sterne, insofern ist das alles kein Zufall.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Hallo zusammen

ich konnte heute unerwarteterweise eine Fuji H2 angrabbeln.
Die H2 ist also bereits auf Promotour.

Im mittleren Ba-Wü begannen heute die Fotomessen der FOTOPROFI gruppe, einem Zusammenschluss von FotoFachgeschäften

Also nach Esslingen bei Stuttgart gepilgert, in Erwartung dort eine H2s und diverse Objektive Real-World anzutreffen.

Nach einer Weile Gespräch habe ich gemerkt, dass ich die ganze Zeit eine H2 in der Hand habe.  :lol:

Finale Firmware, eigene Speicherkarte wäre auch möglich gewesen, natürlich nicht dabei.

Dieser, übrigens angenehm kompetente, Fuji-Promomann hat die H2 morgen nochmal in Esslingen, später in Ludwigsburg und in Pforzheim (siehe Link oben) dabei.

Die anderen Termine werden von anderen Kollegen beackert, bei denen weiss er nicht
ob die auch die H2 dabei haben.

+++

Ach ja - starke Sogwirkung das Teil...

Grüsse
Frank

 

 

bearbeitet von frank.ho
Link zum Beitrag
Auf anderen Seiten teilen

Ein Frage an @Rico Pfirstinger@MightyBo und alle, die Erfahrung mit Pixelshift haben:

Ist Pixelshift nach eurer Erfahrung in der Praxis sinnvoll oder sind Panoramen aus mehreren Aufnahmen mit längerer Brennweiter der bessere und einfachere Weg, um zu hochauflösenden Aufnahmen zu kommen? Nach Berichten hier im Forum habe ich den Eindruck gewonnen, dass Pixelshift mehr eine technische Spielerei ist, als eine sinnvolle Methode.

Link zum Beitrag
Auf anderen Seiten teilen

Bei der GFX war PS für mich praktisch unbrauchbar, dazu habe ich seinerzeit auch einen ausführlichen Bericht geschrieben. Mich interessiert eben der Einsatz im Freien (Landschaft) und in Innenräumen. Bei Letzterem kam mir die Lichtveränderung während der Aufnahme in die Quere. Irgendwas war immer. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb Jürgen Heger:

oder sind Panoramen aus mehreren Aufnahmen mit längerer Brennweiter der bessere und einfachere Weg, um zu hochauflösenden Aufnahmen zu kommen?

Da sich Panos freihand machen lassen und die Software PT-Gui auch mit bewegten Objekten in den Einzelbildern klarkommt,
ist ein Pano sicherlich die einfachere, barrierefreiere Methode.

Zumindest bis Fuji in Sachen Freihand-Pixelshift und inCam Verarbeitung zur Konkurrenz aufgeschlossen hat.
Sofern sie das vorhaben.

Bis dahin sind die 40MP der H2 ja die optimale Lösung.

 

Link zum Beitrag
Auf anderen Seiten teilen

Das eine hat mir dem anderen ja eigentlich nichts zu tun, außer dass man am Ende jeweils lineare DNGs erzeugt, in Lightroom jedenfalls. Ob PT-GUI das auch kann, weiß ich nicht.

Multishot verbessert auch den Dynamikumfang (dazu habe ich in meinem Artikel ebenfalls ein Beispiel gebracht), HDR macht das aber natürlich noch effektiver – ist ja ebenfalls eine andere Art von Multishot. Und wie mein obiges Mondlicht-Beispiel zeigt, kann man HDR und Pano auch gut kombinieren (mit Stativ), am Ende steht wiederum ein lineares DNG.

Wie gut das Verrechnen mit der H2 und anderen Kameras geht, hängt allein von der Combiner-Software ab. Da habe ich bisher keine passende/neue Version gesehen, also abwarten. Das Ganze ist eine reine Software-Frage.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

evrtl dumme Frage, aber dennoch: Müsste dann nicht aucheine gezielte Mehrfachbelichtung, wie sie ja die modernen Kameras oft bieten (natürlich auch die H-reihe) Verbesserungen bieten. Vorausgesetzt, vom Stativ aus gemacht?

LG

CF

 

Link zum Beitrag
Auf anderen Seiten teilen

Ja klar, das machte 2011 die X10 schon so – und Jahre zuvor verschiedene Kompakte von Fuji: mehrere verrauschte High-ISO-Aufnahmen einer schlecht beleuchteten Szene mit kurzen Verschlusszeiten aus der Hand, um daraus dann das Rauschen herauszurechnen. Also etwa so, wie das heute auch die Smartphones machen: virtuelle Sensorflächenvergrößerung, indem man die Sensorfläche mehrfach nutzt. Night Shift von Apple macht auch nichts anderes, nur sehr viel smarter bei der Nachbearbeitung, und inklusive HDR. Auf die Software kommt es an, siehe oben.

Bei der X10 gab es dann zusätzlich noch EXR, also Binning von 12 MP zu 6 MP, um eine bessere BQ bei schwachem Licht zu bekommen. Dazu gibt es hier im Forum einige zehn Jahre alte Threads in den Bereichen zu den EXR-Kameras. Machen die Smartphones heute ähnlich, deshalb hat das neue iPhone 48 MP – um daraus dann bessere 12 MP als bisher zu erzeugen.

Das sind etablierte Verfahren und seit Jahrzehnten bei digitalen Kameras im Einsatz, natürlich nicht nur bei Fuji.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Stunden schrieb Don Pino:

Ich nehme an, ab dieser Grenze fängt die Beugungsunschärfe erst an.

Ob man Beugungsunschärfe auf Pixelebene sieht (100%-Ansicht oder mehr), hängt naturgemäß von der Pixelgröße ab. Bei kleinen Pixeln tritt der Spillover-Effekt früher auf, das wirkt dann beim Abblenden wie ein AA-Filter, kann also sogar Vorteile bringen, etwa Moiré reduzieren.

Bei Kameratests wie denen von DPR müssen sie bei den Studioszenen deshalb darauf achten, nicht zu weit abzublenden, sonst kann die Testaufnahme nicht mehr die theoretisch mögliche Sensorauflösung abbilden. Und diese Testaufnahme ist ja gerade zum Pixelpeepen da.

In der realen Welt sieht es jedoch anders aus, da man in der Regel keine 100 MP auf Pixelbasis braucht und dort dann auch keine einzelnen Pixel betrachtet. Bei APS-C wiederum sind bereits 40 MP bei der Betrachtung einzelner Pixel Overkill, da ist in der Regel Oversampling angesagt. Auch bei Video nimmt man normalerweise nur deshalb mit 8K auf, um daraus ein optimales 4K-Signal zu erzeugen, oder um später digital ins Bild hineinzoomen zu können. 

Man darf auch nicht vergessen, dass Sensoren, die auf CFAs basieren (also Bayer oder X-Trans), ihre theoretische Auflösung im Normalfall nie erreichen, da es durch das Demosaicing immer zu Artefakten und Auflösungseinbußen kommt. Der Punkt, an dem man auf Pixelebene einen Auflösungsverlust durch Beugung sieht, tritt also in der Praxis später ein als in der theoretischen Berechnung, die von "perfekten" Sensoren ohne CFA ausgeht, wie bei einer Leica Monochrom. Pixelshift nimmt den nachteiligen CFA-Effekt weg, deshalb darf man dort dann auch etwas mehr auf die Beugung achten, hier kommt es dann ja auch auf die maximale Auflösung an. Man macht ja keine Aufnahme mit 400 MP, wenn man eigentlich nur 50 MP oder noch weniger braucht. Dafür reicht dann auch das normale Pixelshift oder sogar das normale Oversampling mit 100 MP, ohne den ganzen Multishot-Aufwand.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Ein weiterer Punkt, der gerne übersehen wird: Beugungsunschärfe kann man auch wieder zurückrechnen. Fuji macht das bei den eigenen JPEGs (mit dem LMO), C1 hat dafür eine Checkbox zum Anklicken, und DxO hat in seinen optischen Modulen offenbar ebenfalls eine Dekonvolution drin, die den Effekt des LMO erzielt. PureRAW kann also durchaus auch beim Reduzieren von Beugungsunschärfe helfen.

Außerdem kann man mit Super-Sampling (wie bei Adobe Lightroom) tricksen, also indem man die Auflösung erst einmal mit KI-Hilfe auf 200% in jeder Richtung erhöht, um sie anschließend wieder durch 50%-Downsampling auf die Originalgröße zu reduzieren. Dieses Downsampling enthält dann auch die zusätzlichen KI-Details des vorangegangenen Super-Samplings. Mit gutem Ausgangsmaterial bekommt man so ein besseres Bildergebnis mit feineren Details.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Für ein Video-Zoom ist das Objektiv schon ganz okay. Es ist vor allem auch recht handlich und nicht schwer für seine Leistungsdaten, wozu sicherlich auch der fehlende OIS beiträgt. Für Hybrid-Anwender ist das PZ also ein ganz gutes Kit.

Für die reine Fotografie ist es weniger ideal, alleine schon durch den fehlenden Blendenring und das dafür eher umständliche Power-Zoom. Außerdem haben wir über weite Strecken eine starke kissenförmige Verzeichnung mit einer entsprechend starken digitalen Korrektur. Das 16-80mm und das 18-135mm sind freilich auch nicht perfekt. Gerade für Kameras mit 40 MP würde ich eher zum 8-16mm und 16-55mm greifen.

Grundsätzlich reizen aber nur wenige Objektive den neuen Sensor komplett aus – auch die besten Weitwinkel- und Standard-Zooms können da aus meiner Sicht nicht vollends mithalten. Für die Pixelpeeper sind also die neuen Festbrennweiten angesagt: 18, 23, 33 und natürlich das sensationelle 56mm WR. Außerdem 90mm, 200mm und wohl auch das 80mm Macro. 

Für maximale Schärfe und Auflösung ist allerdings die GFX die bessere Wahl – da liefert dann bereits das kleine, leichte und günstige Kit-Zoom (35-70mm) herausragende Ergebnisse.

 

Link zum Beitrag
Auf anderen Seiten teilen

Hier ein Beispiel, was mit 40 MP möglich ist. Aufgenommen mit der GFX100S und dem kleinen, günstigen GF35-70mm, dann auf 407 MP superskaliert und von dort auf die Sensorbreite der X-H2 herunterskaliert (7728 px).

Hier im Forum auf das Bild klicken und in Flickr dann im Download Pop-up-Menü (rechts unten im Bildbereich ist ein Download-Symbol) das Original herunterladen (7728x5796). Alternativ diesen Link probieren: https://live.staticflickr.com/65535/52370491356_83a6bef858_o_d.jpg

 

Link zum Beitrag
Auf anderen Seiten teilen

Dass 40 MP dennoch nicht alle Details dieses mit dem "Billigzoom" aus der Hand aufgenommenem Motiv zeigen, sieht man, wenn man das Bild mit den 100 MP des GFX-Sensors darstellt:

Auch hier gilt: Aufs Bild klicken und dann in Flickr das Original herunterladen. Alternativ diesen Link verwenden: https://live.staticflickr.com/65535/52370829474_5fb8dafcde_o_d.jpg

Hinweis: Das komprimierte JPEG ist mit 101,8 MP Originalauflösung ca. 160 MB groß.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Ich könnte auch noch das 407 MP große "Interpositiv" aus der Super-Sampling-Interpolation der RAF-Datei zeigen, nur macht da Flickr nicht mit, weil das komprimierte Export-JPEG aus Lightroom mit 372 MB die maximale Upload-Dateigröße von Flickr auch beim Pro-Konto überschreitet. Wer mag, kann es sich trotzdem hier aus der Dropbox laden: https://www.dropbox.com/t/YZaLlGudQvPfzsNi. Der Link gilt 1 Woche lang.

Dieses "Interpositiv" ist auf Pixelebene betrachtet natürlich nicht perfekt, da 3 von 4 Pixeln mit KI-Hilfe "erraten" wurden. Es enthält jedoch mehr brauchbare Details als die Originalaufnahme (mit Standard-Demosaicing) und führt beim späteren Downsampling zurück auf die Originalauflösung somit zu besseren Ergebnissen – wie weiter oben ja bereits besprochen wurde. Es handelt sich aber wie gesagt um eine reine Arbeitskopie. Es ist also kein Endprodukt, das man normalerweise herausgeben oder selbst betrachten würde.

Es wird hier deutlich, dass man eigentlich nie "zu viel Auflösung" haben kann. Man sieht auch, dass bei der GFX in Sachen Auflösung durchaus noch Luft nach oben ist, da selbst das billigste Kit-Zoom noch einen optischen Input mit einer Detailauflösung liefert, die auch einen Sensor mit 150 oder auch 200 MP sinnvoll befüllen dürfte.

 

 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 55 Minuten schrieb Rico Pfirstinger:

Ich könnte auch noch das 407 MP große "Interpositiv" aus der Super-Sampling-Interpolation der RAF-Datei zeigen,

Ohlalaa 😮

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

das überschreitet das Auflösungsvermögen meiner Augen. Sehr faszinierend- aber meine liebe Gattin wird es zu verhindern wissen (-: 

Gibt es bei der XH2 schon einen Modus welcher nicht nur einen Teilbereich des Sensors nutzt, sondern ein gutes down-sampling vornimmt? Man könnte es mit dem guten JPEG Output von Fuji verargumentieren. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 30 Minuten schrieb outofsightdd:

Gibt's auch einen Vergleich ohne Superskalierung von diesem Beispiel?

Kann man problemlos machen, das wäre dann das reguläre KI-Demosaicing. Daraus würde man dann normalerweise von Bild mit ca. 25 MP herunterskalieren. Ich kann das nachher mal schnell rechnen.

Bei der X-H2 etc. macht man aus dem 40 MP Bild dann optimalerweise eins mit ca. 10 MP, das passt dann bestens für 4K-Bildschirme. Was für 8K-Video gilt (Quelle für 4K-HQ-Video), gilt eben auch für 8K-Fotos, denn nichts anderes als 8K sind die 40 MP. Daraus macht man dann eben 4K-HQ-Fotos. 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...