Jump to content

Empfohlene BeitrÀge

Werbung (verschwindet nach Registrierung)

 

vor 6 Minuten schrieb UweHB:

aber was ist mit realen Bildern?

Ich habe mal ein „reales“ Bild mit „Details verbessern“ behandelt, als die Funktion neu war. Landschaft inklusive HĂ€user, Straßen z.T. in sehr weiter Entfernung. Die AI scheint auch mit solchen Dingen klarzukommen. Aus wenigen Pixeln von weit entfernten Verkehrsschildern bastelte sie etwas, was dann schon eher wie ein Verkehrsschild wirkte bei 400%. Auch Ecken von Fenstern etc. wirkten gerader. Allein, in der Normalansicht war dies alles nicht auszumachen. Insofern lasse ich „Details verbessern“ bisher weg, außer ich will ein Bild an die Wand hĂ€ngen. Dann gibt mir das ein besseres GefĂŒhl, die Entwicklung ausgereizt zu haben. Notwendig ist es auch da vermutlich nicht. 
Ich finde die Testserie hier trotzdem spannend, konterkariert sie doch die Meinung so genannter Experten in Foren und ist dabei auch noch mit jederzeit nachvollziehbaren Vergleichsbildern belegt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb Rico Pfirstinger:

Beim Demosaicing, dass 2/3 der Bildinformationen "erraten" muss. Und die RatequalitÀt hÀngt von der Software ab. Ein bisschen wie bei der Wettervorhersage.

Vor dem Demosaicing liegt die Abtastung des Bildes durch die diskreten Pixel. Das der X-Trans Sensor eine bessere UnterdrĂŒckung von Artefakten hat gegenĂŒber dem Bayersensor liegt an der etwas schlechteren Auflösung des errechneten Farbbildes.  Mit Wettervorhersage hat das nichts zu tun. Das kann man auch gut selbst ausprobieren wenn man einen Siemensstern mit leicht defokussierten Objektiv ablichtet. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb UweHB:

Das kann man auch gut selbst ausprobieren wenn man einen Siemensstern mit leicht defokussierten Objektiv ablichtet. 

So bastelt man sich einen Tiefpassfilter mit dem Objektiv. Geht mit Abblenden (Beugung) besser als mit leichtem Defokus, wenn ich mich an die entsprechenden Artikel von Jim Kasson richtig erinnere, der das mal genau verglichen hat. 

Darum geht es hier allerdings nicht. Wir wollen ja die volle Auflösung des Sensors (bzw. der Ausgabedatei) nutzen, mit möglichst wenig Artefakten.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Tommy43:

 

Ich habe mal ein „reales“ Bild mit „Details verbessern“ behandelt, als die Funktion neu war. Landschaft inklusive HĂ€user, Straßen z.T. in sehr weiter Entfernung. Die AI scheint auch mit solchen Dingen klarzukommen. Aus wenigen Pixeln von weit entfernten Verkehrsschildern bastelte sie etwas, was dann schon eher wie ein Verkehrsschild wirkte bei 400%. Auch Ecken von Fenstern etc. wirkten gerader. Allein, in der Normalansicht war dies alles nicht auszumachen. Insofern lasse ich „Details verbessern“ bisher weg, außer ich will ein Bild an die Wand hĂ€ngen. Dann gibt mir das ein besseres GefĂŒhl, die Entwicklung ausgereizt zu haben. Notwendig ist es auch da vermutlich nicht. 
Ich finde die Testserie hier trotzdem spannend, konterkariert sie doch die Meinung so genannter Experten in Foren und ist dabei auch noch mit jederzeit nachvollziehbaren Vergleichsbildern belegt.

Wer das mag soll es machen. Hat aber mit realen Fotos nicht mehr viel zu tun. Ich fĂŒrchte das ist die KI erst am Anfang ihrer Möglichkeiten mir ein "gutes" Foto zu erstellen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Minuten schrieb UweHB:

Das der X-Trans Sensor eine bessere UnterdrĂŒckung von Artefakten hat gegenĂŒber dem Bayersensor liegt an der etwas schlechteren Auflösung des errechneten Farbbildes.

Dass X-Trans-Aufnahmen weniger Auflösung haben sollen als ansonsten identische Bayer-Aufnahmen, wĂ€re mir neu – bitte um Belege. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Minuten schrieb UweHB:

Hat aber mit realen Fotos nicht mehr viel zu tun.

Die Bilder mit mehr Demosaicing-Fehlern haben in der Tat weniger mit der RealitÀt zu tun als jene mit weniger solchen Fehlern. Denn jedes Demosaicing-Artefakt ist eine Abweichung von der RealitÀt. Deshalb sind die Aufnahmen aus "Details verbessern" realitÀtsnÀher.

Im wissenschaftlichen Bereich spielt das eine beachtliche Rolle bei der Dokumentation von Dingen oder VorgÀngen. Deshalb hat eine Hasselblad auch Multishot mit 400 MP, um etwa einem Museum Dokumentationsaufnahmen von Exponaten ohne Demosaicing-Probleme erstellen zu können.

Die Panasonic S1 hat auch Multishot, die GFX 100 bekommt es demnÀchst.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb UweHB:

Vor dem Demosaicing liegt die Abtastung des Bildes durch die diskreten Pixel.

What?Â đŸ€”Die Pixel tasten das Bild ab? Ich kann dir nicht folgen.

vor 5 Minuten schrieb UweHB:

Wer das mag soll es machen. Hat aber mit realen Fotos nicht mehr viel zu tun. Ich fĂŒrchte das ist die KI erst am Anfang ihrer Möglichkeiten mir ein "gutes" Foto zu erstellen.

Warum denn? Es werden doch keine grĂŒnen MĂ€nnchen durch KI in die Bilder retuschiert, sondern nur das per se unvollkommene Demosaicing verbessert. Idealerweise zeigt das Ergebnis mehr von der RealitĂ€t (im Sinne von: was das Auge gesehen hat) als das Ergebnis ohne KI-Einsatz. Oder siehst Du die Welt mit Demosaicing-Artefakten.

bearbeitet von Volker
Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb UweHB:

lies einfach mal den Abschnitt "Alternative Entwicklungen"

Da steht kein Wort darĂŒber, dass X-Trans weniger Auflösung als Bayer haben soll. Da steht nur, dass einige Algorithmen mit X-Trans weniger gut zurechtkommen. Was ja auch stimmt – deshalb verwendet man ja "Details verbessern", denn dieser neue Algo kommt mit X-Trans hervorragend zurecht und wurde ja auch extra fĂŒr X-Trans trainiert, separat vom Bayer-Training.

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb UweHB:

Wer das mag soll es machen.

Ich mach’s ja in der Regel nicht 😂

vor 3 Minuten schrieb UweHB:

lies einfach mal den Abschnitt "Alternative Entwicklungen"

Da steht aber nicht, was Du behauptest. 

Link zum Beitrag
Auf anderen Seiten teilen

Diese Beispiel sind interessant aber nicht ganz aus der Praxis... wie sieht es aus wenn ich mit Tiefe, Lichter spiele, sobald ein gewisses Rauschen zu sehen ist. Dann sieht man wie so ein Algorithmus arbeitet es reicht nicht nur etwas Moire zu entfernen, welches sowieso kaum entsteht. Auch HighIso Fotos, die man dann zurĂŒck verkleinert was macht die AI mit den Details wie geht sie damit um, dass sind so Sachen, die interessieren. 

bearbeitet von snooopy
Link zum Beitrag
Auf anderen Seiten teilen

vor 27 Minuten schrieb snooopy:

Auch HighIso Fotos, die man dann zurĂŒck verkleinert was macht die AI mit den Details wie geht sie damit um, dass sind so Sachen, die interessieren.

Ich freue mich schon auf entsprechende Vergleiche und Ergebnisse der interessieren User hier.

Mir persönlich ist in LR bisher kein signifikanter Einfluss auf das Rauschen aufgefallen, deshalb kann man ja auch alle gemachten Einstellungen ĂŒbernehmen. Unterschiede zwischen RAF und Detail-DNG gibt es manchmal bei extremen Push-Operationen, und ich hatte da auch schon einige FĂ€lle, in denen das demosaicte Detail-DNG im Vergleich zum RAF praktisch unbrauchbar war. 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Ich meine, dass "Detailverbesserung" beim X-Trans Sensor jede Menge bringt. Ich bearbeite auch erst das RAW und wenn ich es in besonderer QualitÀt brauche erzeuge ich das DNG. ich habe gerade meine alten Mongolei Bilder neu entwickelt und am Ende im Batch die DNG erzeugt. Der Unterschied zu den Bildern aus 2016 ist schon enorm. Allerdings habe ich durch Ricos LR Kurse auch einiges in der Zwischenzeit dazu gelernt (gruselig wie ich manche Regler in 2016 standen).

Mit der Vorschau kann man ja sofort in einer VergrĂ¶ĂŸerung sehen, was Detailverbesserung fĂŒr das Bild oder die bildwichtige Partie bringt. FĂŒr mich sieht das aus wie verbessertes Demosaicing (sprich Farben raten)  und nicht wie ein Algo der nach dem Motto "Oh, ich habe ein Ahornblatt erkannt und mache aus dem blattĂ€hnlichen Objekt ein Ahornblatt" arbeitet.

Bei den GFX Files sehe ich aber tatsÀchlich wenig unterschied und da die BQ je jenseits von Gut und Böse ist schenke ich mir den Schritt.

Danke fĂŒr die Arbeit Rico!

Peter

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb MightyBo:

Mit der Vorschau kann man ja sofort in einer VergrĂ¶ĂŸerung sehen, was Detailverbesserung fĂŒr das Bild oder die bildwichtige Partie bringt. FĂŒr mich sieht das aus wie verbessertes Demosaicing (sprich Farben raten)  und nicht wie ein Algo der nach dem Motto "Oh, ich habe ein Ahornblatt erkannt und mache aus dem blattĂ€hnlichen Objekt ein Ahornblatt" arbeitet.

Das Verfahren arbeitet ja relativ kleinteilig und kann schon deshalb keine Motive erkennen. So nach dem Motto: Dieser Pixelhaufen sieht mit etwas Fantasie wie ein Hund aus, also generiere ich das hochaufgelöste Bild eines Hundes. Aber so funktioniert das nicht.

Was immer man tut: Der Sensor liefert nur ein Drittel der benötigten Informationen und die fehlenden zwei Drittel mĂŒssen geschickt erraten werden. Adobes KI-Verfahren erledigt diese Aufgabe lediglich ein bisschen cleverer als die gĂ€ngigen Algorithmen.

Mir fĂ€llt in diesem Zusammenhang ein, wie Jean Marie Binucci, der GrĂŒnder von Binuscan, vor vielen Jahren mal erzĂ€hlte, wie er sein CDC-4x-Verfahren entwickelt hatte. Binucci wollte Bilder hochskalieren, mit besseren Ergebnissen als die damals bekannten Verfahren. Eines Tages saß er auf dem Klo (ein Ort, an dem ja viele Menschen ihre besten Ideen entwickeln) und schaute die Kacheln der Wand an – was blieb ihm auch anderes ĂŒbrig. Das waren lauter quadratische Kacheln in unterschiedlichen Farben, also so etwas wie Pixel, und Jean Marie fragte sich: Wenn ich jetzt diese Kacheln/Pixel auseinander ziehe, so dass jeweils zwischen zwei Kacheln ein Leerraum bleibt, was fĂŒr eine Farbe mĂŒsste dann dieses Pixel haben? Ihm schien eine bestimmte Farbe als plausibelste Lösung, und so nahm er sich ein paar andere Kacheln vor, kam ebenfalls zu einem eindeutigen Ergebnis, und nachdem er sein GeschĂ€ft erledigt hatte, machte er sich daran, diese Idee zu implementieren. Wohlgemerkt: Die Aufgabe, ein Bild linear um den Faktor zwei zu vergrĂ¶ĂŸern, ist der Aufgabe des Demosaicing verwandt. Jean Marie Binucci bediente sich damals nicht der kĂŒnstlichen Intelligenz, sondern setzte auf natĂŒrliche Intelligenz, aber das Prinzip war sehr Ă€hnlich: Es gibt Muster, die in realen Fotos eher auftreten als andere, und ein optimales Interpolationsverfahren sollte dies berĂŒcksichtigen. (Jean Marie Binucci nannte sein Skalierungsverfahren dann „CDC-4x“ – „4x“ nach dem flĂ€chenmĂ€ĂŸigen Skalierungsfaktor und „CDC“ nach der ursprĂŒnglichen Inspirationsquelle.)

Link zum Beitrag
Auf anderen Seiten teilen

vor 17 Stunden schrieb Tommy43:

Ich mach’s ja in der Regel nicht 😂

Da steht aber nicht, was Du behauptest. 

 

vor 17 Stunden schrieb Rico Pfirstinger:

Da steht kein Wort darĂŒber, dass X-Trans weniger Auflösung als Bayer haben soll. Da steht nur, dass einige Algorithmen mit X-Trans weniger gut zurechtkommen. Was ja auch stimmt – deshalb verwendet man ja "Details verbessern", denn dieser neue Algo kommt mit X-Trans hervorragend zurecht und wurde ja auch extra fĂŒr X-Trans trainiert, separat vom Bayer-Training.

Man nennt so etwas auch selektive Wahrnehmung. Im Wikipedia Artikel steht:

Einen anderen Ansatz hat Fujifilm mit seiner 2012 auf den Markt gebrachten Kamera Fujifilm X-Pro1 vorgestellt: Die RGB-Pixel wurden in einem anderen VerhĂ€ltnis (22 %/56 %/22 % statt 25 %/50 %/25 %) und einer anderen Anordnung (XTrans) auf dem Sensor verteilt, die Elementarzelle (nach der sich das Muster wiederholt) vergrĂ¶ĂŸert sich von 2 × 2 auf 6 × 6 Pixel, und jede Pixelfarbe kommt in jeder Zeile und jeder Spalte vor. Da rote und blaue Pixel nun nicht mehr genau 2, sondern im Durchschnitt 2,23 LĂ€ngeneinheiten von ihrem nĂ€chsten gleichfarbigen Nachbarn entfernt sind, ist die Auflösung der Rot- und Blau-Ebene dabei allerdings um etwa zehn Prozent reduziert, paradoxerweise aber auch die grĂŒne Auflösung. 

Durch Vergleich der beiden Filter fĂ€llt auf das sich die Abfolge der roten und blauen Pixel stark unterscheiden und das GrĂŒn zusammengezogen wird und somit eine Auflösungsreduzierung bewirkt. Eine Interpolation schließt zwar die LĂŒcke, trĂ€gt aber nicht zur VergrĂ¶ĂŸerung der Information bei. Siehe hierzu auch: https://de.wikipedia.org/wiki/Interpolation_(Fotografie)

Somit ergibt sich unterm Strich eine Reduzierung der realen Auflösung. Das Argument das durch die höhere ungleiche Verteilung der Farben eine MoireanfĂ€lligkeit reduziert wird ist gut erklĂ€rbar. Interpolationsverfahren dĂŒrfen nicht mit KI verwechselt werden. 

im ĂŒbrigen gehe ich davon aus das Fuji sich bei der Entwicklung und der Interpretation des X-Trans Filters Gedanken gemacht hat und das Verfahren zur Interpretation des Farbbildes optimiert hat. Es ist anzunehmen das die Firmen die professionelle RAW Entwicklungsprogramme anbieten entsprechende Algorithmen von Fuji lizensiert haben. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Minuten schrieb UweHB:

Interpolationsverfahren dĂŒrfen nicht mit KI verwechselt werden. 

Es geht jetzt seit Tagen allerdings genau DARUM: nĂ€mlich um neue Interpolationsverfahren, die mit KI arbeiten – und welche Verbesserung das konkret gegenĂŒber herkömmlichen Verfahren bringt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb UweHB:

Somit ergibt sich unterm Strich eine Reduzierung der realen Auflösung. 

Poste doch einfach mal ein paar Vergleiche, bei denen diese "unterm Strich reale Auflösungsreduktion" zu sehen ist. Das kann ja nicht so schwer sein, es gibt schließlich viele Kameras mit gleicher Pixelzahl und unterschiedlichen CFAs.

Das fing damals schon bei der X-A1 und X-M1 an, und schon damals konnte ich in ausfĂŒhrlichen Vergleichen (fĂŒr die ich mehrere Tage unterwegs war) zeigen, dass die M1 feiner auflöst als die A1 – freilich auch damals nur mit einem optimierten Demosaicing (Iridient Developer). Das lag natĂŒrlich auch daran, dass die A1 einen Tiefpassfilter brauchte, sonst wĂ€re das MoirĂ© nicht aushaltbar gewesen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb Rico Pfirstinger:

Poste doch einfach mal ein paar Vergleiche, bei denen diese "unterm Strich reale Auflösungsreduktion" zu sehen ist. Das kann ja nicht so schwer sein, es gibt schließlich viele Kameras mit gleicher Pixelzahl und unterschiedlichen CFAs.

Das fing damals schon bei der X-A1 und X-M1 an, und schon damals konnte ich in ausfĂŒhrlichen Vergleichen (fĂŒr die ich mehrere Tage unterwegs war) zeigen, dass die M1 feiner auflöst als die A1 – freilich auch damals nur mit einem optimierten Demosaicing (Iridient Developer). Das lag natĂŒrlich auch daran, dass die A1 einen Tiefpassfilter brauchte, sonst wĂ€re das MoirĂ© nicht aushaltbar gewesen.

Solche Vergleiche sind sinnlos, da immer nur Kamerasysteme verglichen werden können. Es gibt zu viele Faktoren die die BildqualitĂ€t beeinflussen. Hieraus auf die Unterschiede beim verwendeten Farbfilter zu schließen ist nicht möglich. Ich habe Vergleiche zwischen Fuji, Leica und Nikon angestellt und kann daraus nicht schließen welcher Bildsensor nun der bessere ist. Entscheidend sind die Objektive und die Aufnahmesituation. Deshalb nutze ich je nach Bedingung die eine oder andere Kamera. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb Rico Pfirstinger:

Es geht jetzt seit Tagen allerdings genau DARUM: nĂ€mlich um neue Interpolationsverfahren, die mit KI arbeiten – und welche Verbesserung das konkret gegenĂŒber herkömmlichen Verfahren bringt.

Die Mathematik wird durch KI nicht besser und wird auch Pipi Langstrumpf nicht helfen. 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto fĂŒr unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...