Jump to content

Die leidige X-Trans-RAW-Entwicklung - ein Trennungsgrund


Gast melusine

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Vielleicht schafft es Fuji noch irgendwann den TIF Konverter herauszubringen, sei es nun als Export von TIFs aus dem kamerainternen Konverter oder als Software fĂĽr den PC.

 

Die Sache mit Lightroom sehe ich persönlich als schönes Beispiel für einen Riesen der es sich bequem gemacht hat und sich garnicht mehr die Mühe machen braucht sich noch großartig zu bewegen weil sowieso niemand an ihm vorbei kommt und freue mich wieder über mein Linux System bei dem ich fotografisch mit ganz anderen Problemen zu kämpfen habe, aber immerhin die Qualität von Rawtherapee als Stadard nutzen darf ;)

 

Achso, und den Thread-Starter haben wir wahrscheinlich an Olympus verloren, oder er sitzt schon freudig mit dem X-Developer im stillen Kämmerlein wo er sich hoffentlich nicht weiter Beleidugungen über seine fotografischen Künste anhören muss...

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 232
  • Created
  • Letzte Antwort

Da ich mit 3 "Welten" arbeite ( Nikon D810, Lumix FZ2000+LX15, Fuji X-T2 und Pro2) und die 100%-Ansicht eher selten benötige, hat sich LR 6.9 bei mir als feste Größe etabliert. Es mag marginal bessere Lösungen geben, aber sicher kaum eine, die mir alles aus 1 Guß liefert. Ich benutze aber auch eher die Software und forsche nicht nach ihren Schwächen. Neben der reinen Bildbearbeitung hilft mir LR dabei, in kürzester Zeit aus naherzu 100.000 Bildern schnell das zu finden, zu dem -wie gestern erst - jemand Fragen hat und gibt mir Auskunft darüber, welche Komponenten ich wie oft verwende.

Link zum Beitrag
Auf anderen Seiten teilen

Da ich mit 3 "Welten" arbeite ( Nikon D810, Lumix FZ2000+LX15, Fuji X-T2 und Pro2) und die 100%-Ansicht eher selten benötige, hat sich LR 6.9 bei mir als feste Größe etabliert. Es mag marginal bessere Lösungen geben, aber sicher kaum eine, die mir alles aus 1 Guß liefert. Ich benutze aber auch eher die Software und forsche nicht nach ihren Schwächen. Neben der reinen Bildbearbeitung hilft mir LR dabei, in kürzester Zeit aus naherzu 100.000 Bildern schnell das zu finden, zu dem -wie gestern erst - jemand Fragen hat und gibt mir Auskunft darüber, welche Komponenten ich wie oft verwende.

Das sehe ich genauso. Kein anderes Programm bietet auf recht intuitive Art diese Vielfalt an Funktionen, die fĂĽr mich wichtig sind. Da akzeptiere ich die wenigen Nachteile oder umgehe sie ĂĽber "extern Bearbeiten".

 

Das "Würmchenproblem" gibt es tatsächlich - was aber nicht heißt, dass vergleichbare Kameras Objekte an der Auflösungsgrenze detaillierter darstellen. Es sieht nur anders aus - nenne es "Matsch", "Grissel", wie auch immer und fällt nicht so auf. Habe das mal durch einem Vergleich mit meiner Nikon ausprobiert.

 

Und weder auf Web-Präsentationen noch auf großen Ausdrucken ist das wirklich zu sehen - also eher nachrangig für mich

Link zum Beitrag
Auf anderen Seiten teilen

Warum? Nach der 9 kommen noch ganz viele Zahlen…

 

 

ja, wie bei macOS (vormals OS X). Da kam ja nicht das System 11 oder OS XI, nur weil man bei 10.9 angelangt war, sondern eben 10.10. Und inzwischen sind wir bei macOS bei 10.12 angelangt

(zugegebenermaĂźen fĂĽhlt es sich auch eher wie 10.9 an... seit 10.8 Mountain Lion sehe ich keine groĂźen Neuerungen, sondern keine Schritte)

Link zum Beitrag
Auf anderen Seiten teilen

Der Threadopener ist lange weg... :)

 

Geht es hier jetzt eigentlich generell um die Qualität der RAW Konverter oder um das Schärfen? Ich habe neulich mal ein Video gesehen, da schärfte der (Profi-)Fotograf sein Bild aus der X-T2 nach der LR Bearbeitung in PS. Das wäre doch dann für die CC-Abonnenten eine Lösung, oder?

 

Andere Lösung: RAW Konverter in der Kamera nutzen... ;)

GruĂź

Erik

Link zum Beitrag
Auf anderen Seiten teilen

OM-D mit dem neuen Pana 12-60/2,8-4. Das Objektiv ist einfach klasse und das, was bei Fuji fehlt.

 

Geht es dir denn ĂĽberhaupt um das Bild mit dem GrĂĽn? Das ist doch eigentlich egal, wenn du unbedingt ein spezielles Objektiv suchst das es bei Fuji nicht gibt. Mir ist auch nicht so ganz klar warum ĂĽberhaupt mit Fuji angefangen wurde. Grundregel ist doch seit Jahrzehnten: "Bodies kommen und gehen, deshalb kauf das System dessen Linsen zu dir passen."

Link zum Beitrag
Auf anderen Seiten teilen

Woher könnten die von Dir angesprochenen Bildfehler kommen? Ich kann mir da nur vorstellen:

- Problem mit Objektivqualität bzw Aufnahmebedingung (verwackeln, Fokusierung...) 

- Überlaufen des Pixelspeichers (Überbelichtung) bzw. die Pixelfläche bekommt zuwenig Licht ab.

 

Bei den angesprochenden Bildfehlern meine ich die systematischen Fehler, beispielsweise wirken sich Übersprechen, geringere SNR und Diffraktion stärker aus, je kleiner die Pixel werden.

 

Für die gleiche Auflösung müssen auf einem kleineren Sensor die gleiche Anzahl an Pixeln untergebracht werden, wie auf einem größeren Sensor (abgesehen davon, daß dann an das Objektiv entsprechend höhere Anforderungen gestellt werden). Dadurch werden die Pixel natürlich kleiner. Um die gleiche Ausgabegröße zu erhalten, muß die Fläche jedes Pixels des kleineren Sensors stärker vergrößert werden, um wieder auf die gleiche Ausgabe-Fläche zu kommen.

 

Bei Betrachtung des Bildes auf dem Monitor in 100% ist diese Vergrößerung bereits erfolgt. Der Monitorbildpunkt (bestehend aus den 3 RGB-Subpixeln) belegt ja eine feste Fläche, die deutlich größer ist, als die des Sensor-Pixels - zumindest solange dein Monitor nicht in Größe und Auflösung dem Sensor entspricht.

Link zum Beitrag
Auf anderen Seiten teilen

Bin ich froh, das ich mir das Pixelpeepen abgewöhnt habe. Eine der besten Entscheidungen seit ich fotografiere.   ;)

Fuji X und LR Abo und ich bin zufrieden. Im Druck verblassen die Unterschiede sowieso zu etwas mehr als gar nichts.

Und da ich mich auch nicht für diese (aus meiner Sicht) völlig übertriebenen Schärfefotos begeistern kann, hab ich es sehr leicht.

Details um jeden Preis, sieht halt meist auch nur irgendwie schrill aus (finde ich).

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man anstelle des 100€ Kitobjektivs an der Fuji auch ein 1000€ Objektiv, wie an der Olympus, schnallt, dann wird das Bild insgesamt schärfer ;)

 

so ziemlich alles. 

Denn was du schärfst sind ja Dinge die gar nicht da sind. Das ist die fehlende Schärfe (das 16-50 ist gut, aber doch nicht herausragend, das Ding kostet im Kit 100€!), dass ist die Diffraktion, die du dir durch die Blende 9 schon holst und das sind ggf. andere Problemchen wie ein nicht richtig sitzender Fokus.

 

Zwei Dinge empfehle ich dir: mach diese Aufnahmen mal mit der Olympus (welche OMD überhaupt?) und schau, ob da der Unterschied wirklich vorhanden ist. Denn auch Olympus Kameras erzeugen Artefakte (Würmchen und anderes) wenn man die Einstellungen (Kamera und Konverter) nicht richtig wählt.

 

Und viel wichtiger: siehst du diese Probleme in deiner Ausgabe? Also im Netz, Druck oder wo auch immer die Bilder betrachtet werden? 

Link zum Beitrag
Auf anderen Seiten teilen

Bevor Du Deine X austauscht, solltest Du Deine RAFs auch mal testweise mit RawTherapee 5 entwickeln. Selbst in der Standardeinstellung sehen meine RAFs um eine Klasse besser aus, als in LR. Auch Iridients X-Transformer löst nicht so fein auf. Keine Würmchen, kein Ölgemälde - nur Gras, wie man es erwartet. Wenn ich dann noch ein wenig an den Einstellungen herumschraube (z.B. für die Schärfung Dekonvolution einstellen und dessen Intensität herunterregeln), sieht das noch einmal besser aus. Das Farbhandling kannst Du anpassen, indem Du Dir Filmprofile herunterlädst und in RT 5 integrierst. Für die Bilder, die mir viel wert sind, ist LR bei mir seitdem abgemeldet.....

Link zum Beitrag
Auf anderen Seiten teilen

Hallo melusine,
irgendetwas in deinen Erwartungen ist nicht in Ordnung.
Du fotografierst eine entfernte Landschaft mit einer Brennweite von ca. 42mm und einer Blende von 9 !!!!!
Und du erwartest dann auch noch, dass du auf der Almwiese die einzelnen Grashalme zählen kannst ?? Für mich unverständlich !
Wie schon wildlife erwähnte, verläßt du bei Blende 9 den Bereich der Schärfe DEUTLICH.
Ich habe mir diese RAW-datei in Photo-Ninja entwickelt und ich kann da nur feststellen, dass mir die Aufnahme insgesamt leicht unscharf erscheint.
Mag sein, dass dein Kit-Objektiv nicht so knackig scharf abbildet, was von einem Objektiv für 100 € auch nicht zu erwarten ist.
Es war schon immer angesagt, in Objektive zu investieren !
Fuji hat sehr gute Objektive, die natĂĽrlich im Preis deutlich ĂĽber dem Preis deines Kit-Objektives liegen.
AuĂźerdem lege ich dir ans Herz, dich mehr mit der Materie Optik, Zusammenspiel Objektive + Kamera zu befassen.
Außerdem liegt der Sinn in der Fotografie, sich an dem zu erfreuen, was man fotografiert und nicht in Pixelzählerei zu verfallen.

 

Link zum Beitrag
Auf anderen Seiten teilen

...

Für die gleiche Auflösung müssen auf einem kleineren Sensor die gleiche Anzahl an Pixeln untergebracht werden, wie auf einem größeren Sensor (abgesehen davon, daß dann an das Objektiv entsprechend höhere Anforderungen gestellt werden). Dadurch werden die Pixel natürlich kleiner. Um die gleiche Ausgabegröße zu erhalten, muß die Fläche jedes Pixels des kleineren Sensors stärker vergrößert werden, um wieder auf die gleiche Ausgabe-Fläche zu kommen.

 

Bei Betrachtung des Bildes auf dem Monitor in 100% ist diese Vergrößerung bereits erfolgt. Der Monitorbildpunkt (bestehend aus den 3 RGB-Subpixeln) belegt ja eine feste Fläche, die deutlich größer ist, als die des Sensor-Pixels - zumindest solange dein Monitor nicht in Größe und Auflösung dem Sensor entspricht.

 

Und genau das glaube ich nicht. Der Sensor wird ausgelesen und ein Wert für die Photonenzahlen im Speicher abgelegt. Die Pixel-Speicherplätze wissen nicht, wie groß die Fläche des Lichtsammlers auf dem Sensor war. Sie kennen nur den Helligkeitswert und die ihnen zugewiesene Farbe. Durch den Demosaicing-Prozess im RAW-Konverter werden in der Folge durch aberwitzige mathematische Künste die Informationen jedes einzelnen Pixels im Zusammenklang mit seinen Nachbarn interpretiert und daraus jedem Pixel ein 16- bzw. 8Bit RGB Wert zugewiesen. 

 

Eine Fläche erhält ein Pixel erst dadurch, indem ich es in 100% am Monitor anzeige. Das Bildpixel entspricht dann einem Monitorpixel (aus 3RGB-Subpixeln wie Du es korrekt ausdrückst, zur Darstellung des Pixel-RGB-Wertes), und es besitzt die Größe des Monitorpixels. Beim Drucken erhält ein Pixel eine Fläche, indem ich der Druckersoftware die Zielgröße des Bildes mitteile. Der Druckertreiber wird daraus den Flächenbedarf pro Pixel errechnen und diese Fläche dann mit einer passenden Verteilung farbiger Tintentröpfchen füllen.

 

 

Um doch noch irgendwie die Kurve zur Ausgangsfrage zu Kratzen:

Wenn ein Bild 'unschön' wirkt, aber technisch sauber aufgenommen wurde (Schärfe, Belichtung...) dann liegt es an der Software und ihrer Anwendung dahinter. Ein Datensatz aus einem 16MP Fuji-Sensor enthält VOR der RAW-Konvertierung gleich viel Informationen zur Gliederung in Bilddetails wie ein Datensatz aus einem anderen 16MP Sensor. Da ein 16MP APS-C Sensor größere Pixel enthält als ein 4/3-Sensor, könnte der Datensatz aus APS-C per se einen Qualitätsvorsprung (Rauschverhalten und so) haben. Der Wechsel zum kleineren Sensor ist daher nicht wirklich die Lösung.

 

Hochachtung vor den Experten hier, die aus dem vorgelegten RAW so viele saubere Dateils gezaubert haben. Es wäre interessant, damit das aus-der-Camera JPG zu vergleichen.

Wenn ich selbst ein Bild mit so vielen Details machen soll, versuche ich es oft auch wo es geht mit Stitchen als Pano (= Vergrößerung der Pixelzahl).

Link zum Beitrag
Auf anderen Seiten teilen

Und genau das glaube ich nicht.

Das ist dein gutes Recht.

 

Da ein 16MP APS-C Sensor größere Pixel enthält als ein 4/3-Sensor, könnte der Datensatz aus APS-C per se einen Qualitätsvorsprung (Rauschverhalten und so) haben.

Nanu, also doch?

Die Anzahl der Photonen zur Bestimmung der Luminanz eines Pixels ist eine Funktion der Fläche. Je kleiner die Fläche, je weniger Photonen, je kleiner die SNR. Je stärker man nun vergrößert, je mehr wirken sich die Fehler aus.

Daher sind z.B. 12MPix Handy-Fotos bis 10x15cm ausbelichtet sicher noch kein Problem, auf 90x60cm eher schon. Das Bild vom 12MPix KB-Sensor sollte dagegen auch auf 90x60cm noch sehr gut aussehen.

Link zum Beitrag
Auf anderen Seiten teilen

Und genau das glaube ich nicht. Der Sensor wird ausgelesen und ein Wert für die Photonenzahlen im Speicher abgelegt. Die Pixel-Speicherplätze wissen nicht, wie groß die Fläche des Lichtsammlers auf dem Sensor war. Sie kennen nur den Helligkeitswert und die ihnen zugewiesene Farbe.

Das ist keine Frage des Glaubens. Effekte wie optisches Übersprechen oder Beugung sind real und sie gehen in die vom Ladungsspeicher gesammelte Ladungsmenge ein. Diese Effekte sind auch um so stärker, je kleiner die Sensorpixel sind. Beim Übersprechen hängt das zwar auch von der Konstruktion ab, aber die Pixelgröße spielt eine große Rolle. Und ein Beugungsscheibchen misst bei Blende 9 12,1 µm, also 2,5 Pixelbreiten.

Link zum Beitrag
Auf anderen Seiten teilen

Das ist keine Frage des Glaubens. Effekte wie optisches Übersprechen oder Beugung sind real und sie gehen in die vom Ladungsspeicher gesammelte Ladungsmenge ein. Diese Effekte sind auch um so stärker, je kleiner die Sensorpixel sind. Beim Übersprechen hängt das zwar auch von der Konstruktion ab, aber die Pixelgröße spielt eine große Rolle. Und ein Beugungsscheibchen misst bei Blende 9 12,1 µm, also 2,5 Pixelbreiten.

Es ging darum, ob ein Pixel eine Fläche besitzt, die mehr oder weniger vergrößert werden muss. Dem hielt ich entgegen, dass sobald einmal die Information im Bildspeicher liegt, das Pixel Nr. x/y keine Fläche mehr besitzt. Sondern dass im zu betrachtenden Bild das Quadrat Nr. x/y gleichförmig mit der RGB-Farbe (vom RAW-Converter errechnet) des Pixels x/y gefüllt wird.

Ich schrieb ja auch, dass die Pixel größerer Sensoren per se einen Qualitätsvorsprung gegenüber kleineren haben. Ich habe da nur 'Rauschverhalten und so' geschrieben, da ich dabei an Übersprechdämpfung und Beugungsscheiben explizit nicht gedacht habe. Auch dass ich für die unterschiedlichen Sensorgrößen gleichartige Technologiestände unterstellte, habe ich nicht erwähnt.

 

Dass im speziellen Fall mit einer schon wieder ungünstigen Blende gearbeitet wurde stelle ich auf gleichen Stand wie die Frage, wie genau fokussiert und wie weit verwackelt wurde. Es sind einfach die Umstände, unter denen eine Aufnahme gemacht wurde.

 

'glauben' im Sinne von 'fĂĽr wahr halten' tu ich, weil meine Beobachtungen mich dazu bringen, ich aber mangels entsprechender Ausbildungs-Hintergrundes keine Beweise liefern kann.

FĂĽr mich dient dieses Forum auch der Weiterbildung und bin daher fĂĽr Korrekturen meines Weltbildes dankbar (bin gerade Dir da ja schon aufgefallen).

 

Gust 

Link zum Beitrag
Auf anderen Seiten teilen

Es ging darum, ob ein Pixel eine Fläche besitzt, die mehr oder weniger vergrößert werden muss. Dem hielt ich entgegen, dass sobald einmal die Information im Bildspeicher liegt, das Pixel Nr. x/y keine Fläche mehr besitzt. Sondern dass im zu betrachtenden Bild das Quadrat Nr. x/y gleichförmig mit der RGB-Farbe (vom RAW-Converter errechnet) des Pixels x/y gefüllt wird.

Auch wenn die aus dem Sensorpixel ausgelesene Spannung keine Fläche hat, handelt es sich trotzdem um eine Vergrößerung. Ich fange mit dem auf den Sensor projizierten Bild an und ende bei irgendeinem Print oder einem Bildschirmbild, das ich betrachte. Diese Vergrößerung ist beispielsweise ein entscheidender Faktor für die Schärfentiefe, um nur ein Beispiel zu nennen.

Link zum Beitrag
Auf anderen Seiten teilen

...

Die Anzahl der Photonen zur Bestimmung der Luminanz eines Pixels ist eine Funktion der Fläche. Je kleiner die Fläche, je weniger Photonen, je kleiner die SNR.

 

Je stärker man nun vergrößert, je mehr wirken sich die Fehler aus.

Daher sind z.B. 12MPix Handy-Fotos bis 10x15cm ausbelichtet sicher noch kein Problem, auf 90x60cm eher schon. Das Bild vom 12MPix KB-Sensor sollte dagegen auch auf 90x60cm noch sehr gut aussehen.

Nr. 1: da waren wir uns schon immer einig

 

Nr. 2: Gedankenexperiment: Erstellen einer Fläche aus 12 Mio einfarbiger Fliesen. Gewinnung der Fliesenfarben aus den zwei 12MP Kandidaten.

Bei den aus dem Handy gewonnenen Fliesenfarben werden so manche mit schmutziger bzw. undefinierbarer Farben herauskommen

bei den aus der KB gewonnenen Farben sind so gut wie alle klar definiert.

Aber beide Bilder enthalten gleich viele Details, nur mehr oder weniger voneinander sauber abgrenzbar.

 

Warum ich auf Deine Post aufgesprungen bin:

Es klang fĂĽr mich als Verwechslung mit der analogen Filmzeit - hatte da erst selbst das entsprechende Aha-Erlebnis.

Dort besaß ein Film eine gewisse Anzahl von Silberkristallen pro mm2. Und wenn ich den Film sowohl auf 6x9 cm als auch auf 24x36mm konfektionierte, besaß der 6x9 mehr Kristalle (=Detailinformationen) und mußte zudem auf gleiche Zielgröße weniger vergrößert werden.

Digital: beide 12MP Sensoren besitzen die gleiche Anzahl an 'Silberkristallen', Mehr als 12Mio verschiedene Informationen können daher nicht gespeichert werden. Bei beiden Systemen. Die aus der KB haben nur den Vorteil, die Details in besserer Qualität zu liefern (schöner weil unempfindlicher - wir sind uns einig: Rauschen, Übersprechen, Beugung, Wackeln.... ;) )

 

Gust

Link zum Beitrag
Auf anderen Seiten teilen

Bin ich froh, das ich mir das Pixelpeepen abgewöhnt habe. Eine der besten Entscheidungen seit ich fotografiere.   ;)

Und da ich mich auch nicht für diese (aus meiner Sicht) völlig übertriebenen Schärfefotos begeistern kann, hab ich es sehr leicht.

Details um jeden Preis, sieht halt meist auch nur irgendwie schrill aus (finde ich).

 

Dein erster Satz hat schon einen wahren Kern.

 

Wenn man sich die Bilder von melusine aber anschaut, sehe ich da nicht gerade wenige "Gefällt mir" u.a. auch von Dir   :) So schlimm scheinen ihre Fotos anscheinend nicht zu sein.

Link zum Beitrag
Auf anderen Seiten teilen

Puh .. ich bin jetzt durch mit den ganzen Beiträgen .. wow :lol: Interessant, das es solche grossen Unterschiede mit den verschieden Bildbearbeitungsprogrammen

gibt! Aber ich habe irgendwie nicht die Lust und Zeit mit 5 verschiedenen Programmen zu arbeiten um bei jedem Bild das beste Ergebnis zu erzielen :P

 

Melusine, wenn dir mit deinen Bilder/ Bilderthemen bessere Resultate mit deinem Workflow in LR gelingen und dir das MFT System zusagt spricht doch nichts gegen

ein Wechsel!

Link zum Beitrag
Auf anderen Seiten teilen

Archiviert

Dieses Thema ist jetzt archiviert und fĂĽr weitere Antworten gesperrt.

Ă—
Ă—
  • Neu erstellen...