Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 8 Minuten schrieb Tennisarm12:

- Meines Wissens gibt es im von mir verwendeten C1 keinen Menüpunkt "Demosaicing" (wenn doch, Asche auf mein Haupt - wo dann bitte?). In welchem Arbeitsschritt geschieht dies also genau und wie kann man die "Qualität" des Demosaicings beeinflussen?

Das Demosaicing ist der Prozess in dem ein RAW Converter wie zB C1 aus deiner RAW Datei ein Bild errechnet. 
Da jeder Converter das etwas anders macht und manchmal auch spezielle Optionen bietet (zB in LR „Details verbessern“) erhält man mit unterschiedlicher Software verschiedene Ergebnisse. Mitunter spielt sogar die Generation der Software eine Rolle für die BQ. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 36 Minuten schrieb Rico Pfirstinger:

Die Gesetze der Physik gelten für alle Hersteller und Sensorgrößen. Dabei ist es vollkommen egal, ob man die gewünschten 40 MP mit APS-C oder Mittelformat aufnimmt. Bei gleicher Schärfentiefe (äquivalente Blende) und gleichem Bildwinkel (äquivalente Brennweite) hat man am Ende auch die gleiche Beugung. 

Bei KB sind 40 MP ja eher die Untergrenze, hochauflösende Modelle bieten mehr – deckeln also erst Recht. Welche andere 40-MP-Kamera soll das also sein, die sich von der T5 in Sachen Deckelung oder Gestaltungsfreiheit unterscheidet? 

Damit schließt sich der Kreis der Fragen und Antworten:

In deinem Beitrag #184 die Gegenüberstellung viel / wenig MP und Einfluss "Unschärfe um die Schärfeebene"

Das hatte mich zum Überlegen gebracht ob ich mit 26 MP teils besser bedient bin als mit 40 MP.

Hersteller und Sensorgröße unabhängig.

Aber da man sich eine Kamera für eine Fülle an Motiven kauft, ist ein Aspekt halt nur ein Teil des Ganzen. Es zu wissen ist jedoch gut.

Link zum Beitrag
Auf anderen Seiten teilen

 

Rico schrieb:

Das wäre dann ja 8-faches Oversampling und nicht besonders nützlich. 4-fach reicht eigentlich immer, also 50%.

 

Danke für den Hinweis. Zusatzfrage hier:

Wenn ich das 100% exportierte Bild mit dem 50% exportieren Bild in der Vollansicht auf meinem Mac vergleiche, sehe ich erstmal keinen Unterschied. Macht der Computer eigentlich auch schon ein (sozusagen temporäres) Downsampling, wenn er das hochaufgelöste Bild voll anzeigt?

bearbeitet von Tennisarm12
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb Maikäfer:

Das hatte mich zum Überlegen gebracht ob ich mit 26 MP teils besser bedient bin als mit 40 MP.

 

Es kommt darauf an, was die 40-MP-Kamera (unabhängig von der Auflösung) besser oder schlechter kann als die mit 26 MP. Bei der H2 und H2S kann man das schön sehen. Bei einer T5 vs. einer T4 sind die Unterschiede kleiner, wenn man die zusätzliche Auflösung ausblendet, weil nicht relevant.

Bei der GFX50SII und GFX100S ist die Auflösung auch nur einer von mehreren Punkten, da sich die Kameras trotz gleichem Gehäuse und fast gleichen Menüfunktionen bei der Performance nunmal deutlich unterscheiden. Also auch hier wie bei der H2 und H2S. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Minuten schrieb Tennisarm12:

Wenn ich das 100% exportierte Bild mit dem 50% exportieren Bild in der Vollansicht auf meinem Mac vergleiche, sehe ich erstmal keinen Unterschied.

Das eine ist viermal so groß wie das andere. Das ist für mich schon ein Unterschied. 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 47 Minuten schrieb AS-X:

Das Demosaicing ist der Prozess in dem ein RAW Converter wie zB C1 aus deiner RAW Datei ein Bild errechnet. 
Da jeder Converter das etwas anders macht und manchmal auch spezielle Optionen bietet (zB in LR „Details verbessern“) erhält man mit unterschiedlicher Software verschiedene Ergebnisse. Mitunter spielt sogar die Generation der Software eine Rolle für die BQ. 

Danke für die Erläuterung! Konkret für C1 bedeutet das dann, es ist was es ist und es gibt keine von mir beeinflussbaren Parameter?

Gruß, Peter

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

@Tennisarm12

-Lichter
-Schatten
-Gamma
-Weißabgleich
-Vignettierung
-Objektivkorrektur

Habe ich was vergessen? Auf all das bietet dir jedes Programm was an, damit es "ein Bild" ist
aber du kannst alle Parameter relativ frei beeinflussen.

bearbeitet von Captcha
Link zum Beitrag
Auf anderen Seiten teilen

Gerade eben schrieb Rico Pfirstinger:

Das eine ist viermal so groß wie das andere. Das ist für mich schon ein Unterschied. 

Dann hab ich mich missverständlich ausgedrückt. Ich exportiere meine Bilder zum Betrachten in die Foto App des Mac. Wenn ich jetzt das gleiche Bild mal mit 100% und mal mit 50% exportiere und dann aber beide in Gesamtansicht auf dem Bildschirm betrachte (also sozusagen das volle Bild, ohne Ausschnitt) - dann stellt der Rechner ja das Bild in der nativen Display Auflösung dar (in meinem Fall 2560 × 1600). Meine Frage war, ob das auch per Downsampling gemacht wird.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb Captcha:

@Tennisarm12

-Lichter
-Schatten
-Gamma
-Weißabgleich
-Vignettierung
-Objektivkorrektur

Habe ich was vergessen? Auf all das bietet dir jedes Programm was an, damit es "ein Bild" ist
aber du kannst alle Parameter relativ frei beeinflussen.

Klar, aber meine Frage bezog sich konkret nur auf das Demosaicing. Gemäß Deiner Antwort, sind die obigen Parameter dann Teil des Demosaicing. Das hatte ich so noch nicht verstanden.

Link zum Beitrag
Auf anderen Seiten teilen

Gerade eben schrieb Captcha:

Demosaicing IST die Entwicklung vom RAW zum "Bild"

 

Das lineare DNG entsprechender Programme ist dann eine Art Zwischenschritt. Schon demosaict (teilweise mit eingebackener Schärfung und Entrauschung, oder als Pano- oder HDR-Foto, oder als Fokus-Stacking-Bild, oder als Astro-Bild mit Multishot, oder als Pixel-Shift-Multishot), aber ansonsten immer noch ein RAW.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb Rico Pfirstinger:

Das lineare DNG entsprechender Programme ist dann eine Art Zwischenschritt ... aber ansonsten immer noch ein RAW.

Da hast du natürlich Recht.
Es ist für manche Fotografen am Anfang kompliziert, die Vorgänge/Begriffe einzuordnen.
Da fand ich "Bild" (drum auch in Anführungszeichen) greifbarer.

bearbeitet von Captcha
Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb Tennisarm12:

Konkret für C1 bedeutet das dann, es ist was es ist und es gibt keine von mir beeinflussbaren Parameter?

Richtig, die gibt es nicht. Andere Schritte der Bildverarbeitung kann man in Capture One beeinflussen; diesen nicht. Es wäre auch nicht recht klar, was man hier beeinflussen sollte, denn es kann da höchstens um die Wahl des Algorithmus gehen, der zum Demosaicing verwendet wird.

(In Lightroom hat man die Wahl zwischen verschiedenen „Prozessen“, die eigenständige Raw-Konverter sind und jeweils ihr eigenes Demosaicing-Verfahren mitbringen, aber da wählt man eigentlich immer den neuesten Prozess – jedenfalls für neue Bilder. Mit „Verbessern“ bietet Adobe noch zwei alternative Demosaicing-Verfahren an, die mit KI arbeiten.)

Link zum Beitrag
Auf anderen Seiten teilen

Bei LR haben wir die Wahl zwischen dem normalen Demosicing mit den verschiedenen Prozessen, dem KI-Demosaicing mit verbesserten Details (mit und ohne Supersampling), verschiedenen Plug-ins wie PureRAW oder X-Transformer, die mit eigenen Konverter-Algos lineare DNGs abliefern, außerdem noch Pano-DNGs, HDR-DNGs und HDR-Pano-DNGs, die mit dem normalen LR-Demosaicing arbeiten, und importierte DNGs aus anderen Drittprogrammen wie Helicon Focus oder Pixel Shift Combiner, und so weiter. 

Andere Konverter bieten hier in der Praxis deutlich weniger Möglichkeiten – schon alleine deshalb, weil sie mit linearen DNGs aus Drittprogrammen meist nicht korrekt umgehen, da fehlen dann Metadaten, Filmsimulationen stehen nicht mehr zur Verfügung, die Tonwertkurven stimmen nicht mehr überein, Objektivkorrekturdaten passen nicht mehr, und so weiter. Alles Einschränkungen, die man in LR normalerweise nicht hat, da Adobe mit DNGs naturgemäß bestens umgehen kann. Sie haben es schließlich erfunden. ;)

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Rico Pfirstinger:

Das eine ist viermal so groß wie das andere. Das ist für mich schon ein Unterschied.

Nur der Vollständigkeit halber - so sieht das in der Mac Foto App aus (wegen der Dateigröße sind die Bilder hier mit mehr Kompression eingefügt).

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Tennisarm12
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Tennisarm12:

Nur der Vollständigkeit halber

Wenn der Bildschirm weniger Pixel als das Bild hat, dann muss es "verkleinert" werden, um komplett dargestellt zu werden. Nichts anderes heißt "Downsizing"..

Wie das aber genau geschieht (jedes zweite Pixel weglassen für die Darstellung oder 2 Bildpixel zusammenrechnen, etc.), das hängt von verwendeten Programm ab und kann von außen nicht genau gesagt werden (hier der Mac Bildbetrachter).

Bei der Verkleinerung/Downsizing in einem ordentlichen Bildverarbeitungsprogramm wird sich aber dabei recht Mühe gegeben. Trotzdem gibt es auch hier Unterschiede zwischen den verschiedenen Programmen und entsprechende Parameter zum Einstellen - jeder wie er mag und kann.

bearbeitet von EchoKilo
Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Stunden schrieb Maikäfer:

Was passiert eigentlich mit dem Bokeh vom 40 MP Sensor. Böse hart oder ähnlich wie mit 26 MP ?

Ich habe keine Kosten und Mühen gescheut und ein 24/7 Model zur Unterstützung gehabt 😉. Bild 1 ist mit der X-T2, Bild 2 mit der X-T5. Das Objektiv ist das XF 1.4 1.2/56 (danke @Allradflokati für den Hinweis auf den Tippfehler) bei f1.4. Man sieht leichte Farbunterschiede wohl wegen des unterschiedlichen Auto WB.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Uwe1956
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Uwe1956:

Ich habe keine Kosten und Mühen gescheut und ein 24/7 Model zur Unterstützung gehabt 😉. Bild 1 ist mit der X-T2, Bild 2 mit der X-T5. Das Objektiv ist das XF 1.4 1.2/56 (danke @Allradflokati für den Hinweis auf den Tippfehler) bei f1.4. Man sieht leichte Farbunterschiede wohl wegen des unterschiedlichen Auto WB.

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Vielen lieben Dank  - auch dem geduldigen Model. Theorie hin oder her, am Ende werde ich auf 40 MP wechseln. Die  Beispielbilder hier überzeugen, den guten AF hätte ich auch gerne. Seitdem ich das 150-600 habe merke ich die AF Schwäche der XS10.

Sparziel definiert 🙃

Link zum Beitrag
Auf anderen Seiten teilen

Obwohl ich mit meinen beiden betagten XT-2s immer noch recht zufrieden bin, gibt es hinsichtlich der neuen 40MP-Fujis eine Sache, die mich brennend interessiert:

Bisher scheitert der Autofokus der Fuji-X-Serie gerne an Motiven mit Fell oder Federn. Das wird sogar in der Bedienungsanleitung erwähnt:

Zitat

„Obwohl die Kamera über ein hochpräzises Autofokus-System verfügt, kann sie möglicherweise nicht auf die nachstehend aufgeführten Objekte scharfstellen […] z.B. Haare oder Pelze“ (Bedienungsanleitung X-T4, S. 74)

Für jemanden, der gerne Katzen, Eichhörnchen und anderes Getier fotografiert, ist das natürlich doof. 

Nun gibt es zwei Wege, die Leistungsfähigkeit des AF in diesem Bereich zu verbessern:

  1. Motiverkennung für Vögel und andere Tiere
  2. Höhere Auflösung mit entsprechend mehr und kleineren AF-Zellen, die auch feine Strukturen wie Haare, Fell und Federn erkennen

Die neueste Fuji-X-Generation mit 40 MP bringt beides mit. Gleichzeitig leidet unter der hohen Auflösung aber die AF-Geschwindigkeit, weil mehr Daten ausgewertet werden müssen. Wenn das Tier nicht still sitzt und man mit AF-C arbeitet, könnten die Vorteile sich also schnell relativieren. In Produktbesprechungen zu den neuen Kameras wird dann auch tatsächlich moniert, dass der AF der beiden 40-Megapixel-Fujis X-T5 und X-H2 bei sich bewegenden Tieren immer noch oft daneben liegt und trotz Motiverkennung gerne mal Gras und Bäume in der Umgebung scharf stellt anstatt das Tier im Fokusfeld.

Was sagen denn die Tierfotografen aus dem Forum dazu? Gibt es schon Erfahrungen, ob sich mit dem 40MP-Sensor eine spürbare Verbesserung einstellt?

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb kernpanik:

...Gleichzeitig leidet unter der hohen Auflösung aber die AF-Geschwindigkeit, weil mehr Daten ausgewertet werden müssen. ...

...Was sagen denn die Tierfotografen aus dem Forum dazu? Gibt es schon Erfahrungen, ob sich mit dem 40MP-Sensor eine spürbare Verbesserung einstellt?

Den 40Mpx Sensor gibt es ja "nur" mit neuem, besserem AF. In der Praxis ist er besser und schneller, trotz möglichwerweise mehr Daten die zu verarbeiten sein könnten.
Ok, ich bin von der H1 zur H2. Die T4 war ja bereits i.S. AF ziemlich eine Generation "dazwischen" aber trotzdem noch nicht da wo die H2 oder T5 sind.

Ob sich die 40Mpx also auf den AF auswirken bzw. wie sehr, kann man schlecht sagen. Die XH2s ist nicht wegen der geringeren Pixelmenge schneller, sondern weil sich die Daten vom anderen (Stacked Sensor) so sehr viel schneller auslesen lassen. Leider, leider, leider :) gibts noch keinen 40MPx Stacked Sensor. Ich hätte ja als Fuji Chef den 32Mpx Stacked Sensor gebracht :) ...

edit: Weil der Stacked Sensor der H2s schneller Daten liefert, müssen auch mehr Daten verarbeitet werden und er AF ist "trotzdem" schneller.

Der Algorithmus für den AF spielt eine wesentliche Rolle für den Speed, auch was das für Sensoren sind usw. Die Hersteller unterscheiden sich hier ja sehr.

...

bearbeitet von uli_II
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...