Jürgen Heger Geschrieben 17. März 2021 Share #126 Geschrieben 17. März 2021 (bearbeitet) Werbung (verschwindet nach Registrierung) Die gespeicherten RAWs werden um 14% größer. Für die Bearbeitung werden die 14-Bit -Werte mit Sicherheit in auch 16- oder sogar 32-Bit-Werte umgewandelt. Bei der Rechenzeit sollte es meiner Meinung nach also keine Unterschiede geben, ob die RAWs 14 oder 16 Bit haben. bearbeitet 17. März 2021 von Jürgen Heger MightyBo und MaTiHH haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige Geschrieben 17. März 2021 Geschrieben 17. März 2021 Hallo Jürgen Heger, schau mal hier Erste Eindrücke GFX 100s . Dort wird jeder fündig!
SrMi Geschrieben 17. März 2021 Share #127 Geschrieben 17. März 2021 5 hours ago, dayno said: 16bit Farbtiefe ist mehr, als ein "nice to have" ..................für mich macht es einen kleinen, aber feinen Unterschied bei der Bildbearbeitung und dem Ergebnis.............und das Argument der hohen bzw. durch die 16bit Bilddateien höheren Rechnerleistung kann ich kaum nachvollziehen. Hier bei mir läuft Capture One 21 ziemlich flüssig auf dem Mac Mini M1. Gruss Dayno 16 Bit sind wichtig für den Dynamikumfang nicht so für die Farbtiefe: https://www.dpreview.com/articles/4653441881/bit-depth-is-about-dynamic-range-not-the-number-of-colors-you-get-to-capture So weit habe ich nicht gesehen, dass 16-Bit etwas ausmachen. Die Kamera arbeitet langsamer mit 16-Bit. Mit 14-Bit dauert es 1/6 Sekunde, um Sensor zu lesen, bei 16-Bit dauert es 1/3 Sekunde. Das ist von Bedeutung, wenn man mit dem elektronischen Verschluss fotografiert. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Tommy43 Geschrieben 17. März 2021 Share #128 Geschrieben 17. März 2021 vor 8 Stunden schrieb FxF.jad: @Tommy43 - Nur um es noch einmal fest zu halten: Niemand kauf sich eine Kamera wegen 95% oder 100% sondern wegen der Summe ihrer Eigenschaften. Ich sehe da keinen Widerspruch zu dem, was ich geschrieben habe. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
SrMi Geschrieben 17. März 2021 Share #129 Geschrieben 17. März 2021 On 1/30/2021 at 11:52 AM, Mattes said: Naja, wenn ich die Wahl hätte, würde ich eine 50 MP-Version der GFX100s (also mit besserem AF, kleinerem Gehäuse und vor allem IBIS) vorziehen - 100 MP brauche ich nicht wirklich. Da es diese Version aber nicht gibt, grüble ich eben weiter... 100MP verringern das Hervortreten der falschen Farbe (Moire). Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Tommy43 Geschrieben 17. März 2021 Share #130 Geschrieben 17. März 2021 vor 6 Stunden schrieb MaTiHH: Woher weißt du, was ich sehe? Und warum ist es an dir zu definieren, was fotografisch sinnvoll ist? Ich definiere nicht, ich fasse zusammen, was die Leute hier im Forum, die wirklich Ahnung haben von der Materie, vorab geschrieben haben. Und Spielkind bin ich auch, sehr gerne sogar 👍🏻😃. Von daher hätte ich wohl auch Spaß an einer 100S, aber eben nicht wegen der 100% oder 16 Bit, sondern anderen Sachen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 17. März 2021 Share #131 Geschrieben 17. März 2021 vor 11 Stunden schrieb Wosse: Ich dachte das menschliche Auge kann 21 Blendenstufen Dynamik wahrnehmen. Wenn Du ihm genug Zeit lässt, sich an wechselnde Lichtverhältnisse anzupassen, dann schon. Aber eben nicht gleichzeitig. Mit einer Belichtungsreihe kann eine Kamera auch extrem hohe Kontraste bewältigen, bloß nicht mit einer einzigen Aufnahme. Das Prinzip ist dasselbe. Monitore erzeugen keine so hohen Kontraste; das wäre auch nicht sinnvoll, sondern würde unnötig anstrengen. der-Flo hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 17. März 2021 Share #132 Geschrieben 17. März 2021 Werbung (verschwindet nach Registrierung) vor 6 Stunden schrieb Jürgen Heger: Die gespeicherten RAWs werden um 14% größer. Für die Bearbeitung werden die 14-Bit -Werte mit Sicherheit in auch 16- oder sogar 32-Bit-Werte umgewandelt. Bei der Rechenzeit sollte es meiner Meinung nach also keine Unterschiede geben, ob die RAWs 14 oder 16 Bit haben. Richtig; Computer rechnen nicht mit 14 Bit, sondern mit 16 Bit, 32 Bit oder mit Gleitkommazahlen. Einen relevanten Geschwindigkeitsunterschied macht die Zahl der Bits beim Auslesen des Sensors, genauer gesagt bei der Digitalisierung. Mehr zu digitalisierende Bits erhöhen die Zeit, die für eine rauscharme Digitalisierung benötigt wird, und begrenzen daher u.a. die Serienbildfrequenz. Jürgen Heger und MightyBo haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
FxF.jad Geschrieben 18. März 2021 Share #133 Geschrieben 18. März 2021 vor 9 Stunden schrieb Tommy43: Ich sehe da keinen Widerspruch zu dem, was ich geschrieben habe. Ich auch nicht. Es sollte eine Ergänzung Deiner Aussage sein. Ich bin nicht so der Künstler des Wortes. Das hätte man sicherlich besser auf den Punkt bringen können. Tommy43 hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
dayno Geschrieben 18. März 2021 Share #134 Geschrieben 18. März 2021 .....ja, es gibt auch Nachteile bei Aufnahmen in 16bit Farbtiefe...............bei der GFX100 kann man damit keine Serien-Bilder aufnehmen. Ansonsten ist der Dynamik-Umfang sehr wichtig, das ist klar...................soweit ich das in Erinnerung habe, gibt es in der Netzhaut des menschlichen Auges von den 130Mio Sinneszellen nur 6Mio Zapfen, die für die Farbwahrnehmung zuständig sind..............die Stäbchen in extrem höherer Anzahl übernehmen die hell-dunkel Wahrnehmung. Die Farbwahrnehmung des Menschen und der Tonwertumfang eines techn. Gerätes hängen aber auch stark zusammen und sind nicht seperat zu betrachten. Hier ein kleiner Auszug von Eizo: Konstanter Tonwert über den gesamten Bildschirm Pixel für Pixel steuert der Digital Uniformity Equalizer (DUE) alle Tonwerte über den gesamten Monitor. Der Effekt: Die Farbtöne erscheinen an jedem Punkt des Bildschirmes identisch, ohne Helligkeitsschwankungen wie bei herkömmlichen LCDs. Die DUE-Funktion gleicht zudem Auswirkungen von Schwankungen der Umgebungstemperatur auf Farbtemperatur und Helligkeit aus. Sie genießen eine stets homogene Leuchtdichteverteilung und perfekte Farbreinheit. Ein großes Plus bei Bildretuschen und Colour-Grading. 10-Bit-Farbtiefe: eine Milliarde Farben in feinster Abstufung Dank einer 10-Bit-Farbdarstellung auf Grundlage einer 16-Bit-LUT können Sie ein riesiges Farbspektrum nutzen. Dies ermöglichen der schnelle DisplayPort und HDMI-Anschlüsse in Verbindung mit der Frame Rate Control. Eine Milliarde Farben stehen Ihnen simultan zur Verfügung. Das sind 64-mal so viele Farben wie bei der 8-Bit-Darstellung. Die Farbabstufungen sind feiner und die Farbabstände zwischen benachbarten Farben niedriger. Für die Postproduktion ebenfalls wichtig: der erweiterte Graustufenbereich. Bei aktiviertem 10-Bit-Graustufenbereich sind zwischen 6 % und 14 % mehr Graustufen sichtbar. Stabile Helligkeit, keine Farbabweichung Das A und O für exakte Bildbearbeitungen: konstante Helligkeit und Farbtemperatur. Eine patentierte Elektronik kompensiert Helligkeitsschwankungen, die infolge längerer Betriebsdauer sowie erhöhter Umgebungs- und Betriebstemperatur auftreten können. Dank eines integrierten Thermometers werden Farbabweichungen, die durch Raumtemperatur-Schwankungen entstehen, ausgesteuert und automatisch reduziert. Die Farbwiedergabe bleibt über einen langen Arbeitszeitraum absolut konstant. Und zwar von Beginn an: Denn die Aufwärmzeit, bis sich Helligkeit, Farbe und Tonwert voll stabilisiert haben, beträgt nur sieben Minuten. Das ist nur ein Viertel der sonst üblichen Zeit. Das ist zwar etwas Werbung, zeigt uns aber auf, an welcher Stelle der Übergang von der Technik zum Menschen stattfindet. Und wenn an dieser Stelle grosse Schwankungen vorhanden sind, dann kann in Zweifel gezogen werden, dass der Mensch, der sich ein oder mehrere Bilder anschaut, die Qualität des aufgenommenes Bildes einschätzt, sondern die Schwankungen des Monitores überwiegen. Der Unterschied zwischen 14bit und 16bit Aufnahmen ist vorhanden und zeigt sich auch auf einem sehr guten Anzeige-Gerät.......und das Anzeige-Gerät zeichnet sich dadurch aus, dass Farbtöne ohne Helligkeits-Schwankungen dargestellt werden. Dynamik-Umfang-Tonwerte-Farben............das hängt alles zusammen. Gruss Dayno Link zum Beitrag Auf anderen Seiten teilen More sharing options...
wildlife Geschrieben 18. März 2021 Share #135 Geschrieben 18. März 2021 (bearbeitet) vor 57 Minuten schrieb dayno: Der Unterschied zwischen 14bit und 16bit Aufnahmen ist vorhanden und zeigt sich auch auf einem sehr guten Anzeige-Gerät.......und das Anzeige-Gerät zeichnet sich dadurch aus, dass Farbtöne ohne Helligkeits-Schwankungen dargestellt werden. Dynamik-Umfang-Tonwerte-Farben............das hängt alles zusammen. ich habe mir erlaubt die Schriftgröße im Zitat wieder auf normales Niveau anzugleichen. Der Unterschied in der Bit Anzahl führt zu einer unterschiedlichen Beschränkung des maximalen Dynamikumfangs. Dass eine größere Bit-Anzahl als notwendig Vorteile hat (da wird gerne mit Farbabstufungen und der gleichen argumentiert), widerspricht dem Shannon-Hartley-Gesetz. Die Frage ist also, ob die einzelnen Pixel durch die Farbtiefe limitiert werden, oder nicht. 12bit scheinen bei 20MP mFT begrenzend zu wirken (der 12MP GH5s Sensor ist meines Wissens der einzige 14bit mFT Sensor) und 14bit dürften in der 12MP A7S Reihe ebenfalls beschränken. Hier, und eigentlich nur hier, würde es sich in der Theorie auszahlen, die Bit Tiefe zu erhöhen! edit: in der Praxis zeigt Jim Kassons Test, dass es einen minimalen Vorteil beim maximalen Dynamikumfang gibt und dass sich die Bilder minimal anders in Lightroom verhalten (vmtl. anderer Schwarzpunkt). Wenn Leute glauben, sie müssen für diese Vorteile die Nachteile in kauf nehmen, dann ist mir das egal - es ist ein freies Land, jeder kann machen was er will (außer sich mit anderen Treffen, ins Gasthaus gehen usw.) also auch den 16bit Nutzern wünsche ich viel Spaß mit ihren Kameras bearbeitet 18. März 2021 von wildlife Jürgen Heger, bernd! und EchoKilo haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 18. März 2021 Share #136 Geschrieben 18. März 2021 Mit Verlaub (es juckt mich in den Fingern ...): OT-Start: ... ach, ihr armen Theoretiker ... das Leben abseits davon ist dermassen schön! OT-Ende Und jetzt weiterhin viel Spass! Link zum Beitrag Auf anderen Seiten teilen More sharing options...
dayno Geschrieben 18. März 2021 Share #137 Geschrieben 18. März 2021 @wildlife...........ich lerne gerne dazu, merci. Ansonsten kann ich nur jedem empfehlen, sich selbst ein Bild zu machen, ob er/sie einen Unterschied zwischen 14bit und 16bit Aufnahmen sieht/erkennt und ob er/sie die Nachteile in Kauf nimmt. In Übrigen dauert es keine 5sec, die RAW Einstellung zwischen 14bit und 16bit umzustellen........................und ich wäre auch ohne die 16bit Möglichkeiten von der GFX50S auf die GFX100 umgestiegen......................Anfangs war ich auch eher skeptisch, was den Sensor der GFX100 angeht und auch das Gehäuse gefiel mir auf den Bildern überhaupt nicht. Erst durch einen ausgiebigen Test musste ich meine Vorbehalte in Bezug auf die GFX100 revidieren ................In Summe ist der Unterschied zur GFX50S ziemlich gross. Gruss Dayno MightyBo hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MaTiHH Geschrieben 18. März 2021 Share #138 Geschrieben 18. März 2021 (bearbeitet) vor 2 Stunden schrieb wildlife: Die Frage ist also, ob die einzelnen Pixel durch die Farbtiefe limitiert werde Das wäre nur dann die Frage, wenn der Anstand zwischen zwei gespeicherten Werten äquidistant wäre. Ist er aber nicht. bearbeitet 18. März 2021 von MaTiHH Link zum Beitrag Auf anderen Seiten teilen More sharing options...
SrMi Geschrieben 18. März 2021 Share #139 Geschrieben 18. März 2021 5 hours ago, dayno said: @wildlife...........ich lerne gerne dazu, merci. Ansonsten kann ich nur jedem empfehlen, sich selbst ein Bild zu machen, ob er/sie einen Unterschied zwischen 14bit und 16bit Aufnahmen sieht/erkennt und ob er/sie die Nachteile in Kauf nimmt. In Übrigen dauert es keine 5sec, die RAW Einstellung zwischen 14bit und 16bit umzustellen........................und ich wäre auch ohne die 16bit Möglichkeiten von der GFX50S auf die GFX100 umgestiegen......................Anfangs war ich auch eher skeptisch, was den Sensor der GFX100 angeht und auch das Gehäuse gefiel mir auf den Bildern überhaupt nicht. Erst durch einen ausgiebigen Test musste ich meine Vorbehalte in Bezug auf die GFX100 revidieren ................In Summe ist der Unterschied zur GFX50S ziemlich gross. Gruss Dayno Das ist ein guter Vorschlag. Jeder soll sich selber ein Bild machen -- eigentlich zwei Bilder, mit 14 und 16 Bit -- und selber Entscheiden im welchem Mode zu fotografieren. Ich bin sicher, dass manche 14-Bit und andere 16-Bit Mode wählen werden. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MightyBo Geschrieben 18. März 2021 Share #140 Geschrieben 18. März 2021 vor einer Stunde schrieb SrMi: Das ist ein guter Vorschlag. Jeder soll sich selber ein Bild machen -- eigentlich zwei Bilder, mit 14 und 16 Bit -- und selber Entscheiden im welchem Mode zu fotografieren. Ich bin sicher, dass manche 14-Bit und andere 16-Bit Mode wählen werden. Das ist immer gut. Allerdings müssen das auch die richtigen Motive sein. Feine Farbverläufe und dunkle Bildpartien mit feinen Verläufen, die man später stark pusht. Wenn man einen Unterschied sehen kann, dann da. Peter Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Jürgen Heger Geschrieben 19. März 2021 Share #141 Geschrieben 19. März 2021 vor 14 Stunden schrieb wildlife: ... Der Unterschied in der Bit Anzahl führt zu einer unterschiedlichen Beschränkung des maximalen Dynamikumfangs. Dass eine größere Bit-Anzahl als notwendig Vorteile hat (da wird gerne mit Farbabstufungen und der gleichen argumentiert), widerspricht dem Shannon-Hartley-Gesetz. Die Frage ist also, ob die einzelnen Pixel durch die Farbtiefe limitiert werden, oder nicht. 12bit scheinen bei 20MP mFT begrenzend zu wirken (der 12MP GH5s Sensor ist meines Wissens der einzige 14bit mFT Sensor) und 14bit dürften in der 12MP A7S Reihe ebenfalls beschränken. Hier, und eigentlich nur hier, würde es sich in der Theorie auszahlen, die Bit Tiefe zu erhöhen! .... Ich glaube, dass die letzte Aussage in dieser Absolutheit nicht ganz richtig ist. Sie gilt für ein einzelnes Pixel. Bei Bildern kann man aber Information aus den benachbarten Pixel benutzen, um den Fehler durch Rauschen in einem Pixel zu reduzieren. Ich vermute, dass geschieht sogar im Gehirn automatisch, sobald die Pixel so klein sind, dass sie nicht mehr einzeln erkannt werden. Dann kann man nach Shannon-Hartley die Anzahl der Bits erhöhen. Zu wenig Bits, also zu wenig Stufen, sieht man als erstes in Verläufen mit geringer Änderung pro Pixel. Hier hat die Bildinformation eine niedrige spatiale Frequenz. Das Rauschen hat üblicherweise eine hohe spatiale Frequenz und kann deshalb einigermaßen gut weggefiltert werden. An Stellen mit feinen Strukturen, die hoher spatialer Frequenz entsprechen, kann man das Rauschen schlechter Filtern. Hier sind 'fehlende' Bits aber auch nicht so leicht zu erkennen. In den Anfängen der digitalen Videotechnik wurden sehr viele professionelle Sendungen mit 8 Bit aufgezeichet und gesendet. Die Notwendigkeit von mehr Bits wurden hauptsächlich damit begründet, dass man mit 10 Bit beim Bearbeiten, z. B. beim Anheben des Kontrasts, nicht so schnell sichtbare Sprünge erhält. Es wird also sehr davon abhängen, wie sehr man seine Bilder beim Bearbeiten 'verbiegt', ob man von den zusärzlichen Bits profitieren kann oder nicht. MaTiHH hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Jürgen Heger Geschrieben 19. März 2021 Share #142 Geschrieben 19. März 2021 Am 18.3.2021 um 11:59 schrieb MaTiHH: Das wäre nur dann die Frage, wenn der Anstand zwischen zwei gespeicherten Werten äquidistant wäre. Ist er aber nicht. Ich vermute, Du meintest Abstand und nicht Anstand 😊. Falls ja, könntest Du eine Quelle nennen? Meines Wissens arbeiten die Sensoren weitgehend linear, jedenfalls linearer als analoger Film, und die Kodierung im RAW ist ebenfalls linear. Für Video kenne ich verschiedene mehr oder weniger logarithmische Verfahren, bei denen man 10 Bit Videogeräte benutzt um quasi 12 Bit Dynamic zu übertragen. F-log ist eines davon. mjh hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MightyBo Geschrieben 20. März 2021 Share #143 Geschrieben 20. März 2021 vor 7 Stunden schrieb Jürgen Heger: Ich vermute, Du meintest Abstand und nicht Anstand 😊. Falls ja, könntest Du eine Quelle nennen? Meines Wissens arbeiten die Sensoren weitgehend linear, jedenfalls linearer als analoger Film, und die Kodierung im RAW ist ebenfalls linear. Für Video kenne ich verschiedene mehr oder weniger logarithmische Verfahren, bei denen man 10 Bit Videogeräte benutzt um quasi 12 Bit Dynamic zu übertragen. F-log ist eines davon. So meine ich das auch, im jpg sind dann die Abstände logarithmisch. Peter Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Jürgen Heger Geschrieben 20. März 2021 Share #144 Geschrieben 20. März 2021 vor 6 Stunden schrieb MightyBo: So meine ich das auch, im jpg sind dann die Abstände logarithmisch. Peter S-förmig beschreibt es etwas besser, da der mittlere Bereich linear und der untere eher exponentiell ist, wie ich selber mal ausgemessen habe. MightyBo hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Thomas_M Geschrieben 21. März 2021 Autor Share #145 Geschrieben 21. März 2021 Die Diskussionn über Pixelshift liegt nun schon etwas zurück, jetzt hat Jim Kasson dazu in seinem Blog eine Beitrag gepostet: https://blog.kasson.com/gfx-100s/fujifilm-gfx-100s-pixel-shift/ er schreibt explizit, dass die Kamera sehr, sehr ruhig stehen muss. Was dies in der Praxis bedeutet muss jeder wohl selbst herausfinden Thomas Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MightyBo Geschrieben 22. März 2021 Share #146 Geschrieben 22. März 2021 Rico hat ja dazu Beispiele gepostet. Peter Link zum Beitrag Auf anderen Seiten teilen More sharing options...
FxF.jad Geschrieben 22. März 2021 Share #147 Geschrieben 22. März 2021 vor 8 Stunden schrieb Thomas_M: ...............er schreibt explizit, dass die Kamera sehr, sehr ruhig stehen muss. Was dies in der Praxis bedeutet muss jeder wohl selbst herausfinden Thomas ' Fest gemauert in der Erden. Steht die Form, aus Lehm gebrannt.` Heute muss das Foto werden. Frisch Stative, seid zur Hand!...' (frei nach Schiller) BalticSea, Klinke und Jürgen Heger haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Thomas_M Geschrieben 22. März 2021 Autor Share #148 Geschrieben 22. März 2021 vor 5 Stunden schrieb MightyBo: Rico hat ja dazu Beispiele gepostet. Peter Kannst du bitte ein Link zu den Beispielen posten? Thomas Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MightyBo Geschrieben 22. März 2021 Share #149 Geschrieben 22. März 2021 (bearbeitet) vor 56 Minuten schrieb Thomas_M: Kannst du bitte ein Link zu den Beispielen posten? Thomas Hallo Thomas, gute Frage, ich finde das leider auch nicht mehr. Das waren Beispiele mit bewegten Wolken und Artefakte durch extrem geringe Bewegungen, Peter bearbeitet 22. März 2021 von MightyBo Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Thomas_M Geschrieben 22. März 2021 Autor Share #150 Geschrieben 22. März 2021 vor 2 Stunden schrieb MightyBo: Hallo Thomas, gute Frage, ich finde das leider auch nicht mehr. Das waren Beispiele mit bewegten Wolken und Artefakte durch extrem geringe Bewegungen, Peter Hallo Peter, Ich habe auch noch mal nach Beispielen gesucht, aber die von Rico nicht gefunden, dafür aber hier: https://photographylife.com/news/fujifilm-launches-pixel-shift-on-the-gfx-100 Sicher ist das alles etwas theoretisch, wer wird Pixel shift wirklich nutzten, doch ich finde die Infos in dem Blog von Jim Kasson https://blog.kasson.com/gfx-100s/fujifilm-gfx-100s-pixel-shift/und auch die Diskussion https://blog.kasson.com/the-last-word/does-pixel-shift-increase-resolution/ recht interessant. Jim Kasson betont immer wieder, das Pixel shift nicht die Auflösung erhöht und davon kann man sich bei den Bildern mit dem Simensstern selber überzeugen. Letztendlich ist es auch eine Frage wie die Auflösung definert wird, wenn es über die die Modulationstransferfunktion geschieht, dann leuchtet dies ein, denn es handelt sich um periodische Strukturen. Der Vorteil liegt darin, dass die Bilder weniger Artfacte aufweisen. Pixelshift Bilder lassen sich viel besser schärfen und zeigen dann in der Tat in der Praxis mehr Detail. Mich würde mal ein Vergleich Pixelshift und Super Resolution interessieren, vermutlich ist er sehr gering. So ein Test will sehr sorgfältig durchgeführt werden, wenn er etwas aussagen soll. Thomas MightyBo hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dein Support für das Forum (Info) Hat dir das Forum geholfen? So kannst du das Forum unterstützen! Premium Mitglied werden | Spenden | Bei Amazon* oder eBay* kaufen Software: Topaz* | DxO Nik Collection* | Skylum Luminar* (–10€ mit Gutschein FXF) | * Affiliate Links
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden