Jump to content

Empfohlene BeitrÀge

Werbung (verschwindet nach Registrierung)

Ich habe Adobes neues Super Resolution Demosaicing zunÀchst anhand von vier verschiedenen Bayer- und X-Trans-Sensorauflösungen (24 MP B, 26 MP X, 50 MP B und 100 MP X ) mit dem Testchart von DPR getestet und war nicht sonderlich begeistert. 

Umso erfreulicher geriet das Ergebnis mit einer "Real World"-RAW-Datei aus einer GFX 50S, die via Super Resolution auf mehr als 204 MP aufgebohrt wird.

Hier das fertige Bild in voller Auflösung auf Flickr:

 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Hier ein paar 1:1-Ausschnitte in Lightroom:

https://www.flickr.com/gp/ricopfirstinger/xh7P0M

https://www.flickr.com/gp/ricopfirstinger/qVcnba

https://www.flickr.com/gp/ricopfirstinger/6V83y1

Super Resolution vergrĂ¶ĂŸert auch brav das berĂŒchtigte MoirĂ© der GFX 50, sodass man die Folgen des missratenen Mikrolinsen-Designs jetzt umso detaillierter bestaunen kann.

Das SR-DNG muss man fĂŒr optimale Ergebnisse ĂŒbrigens neu schĂ€rfen, mit der automatischen Übernahme der SchĂ€rfung aus dem RAF ist es nicht getan. Auch hierbei gilt dann wie so oft: weniger ist mehr.

Link zum Beitrag
Auf anderen Seiten teilen

Hier geht es direkt zum 86 MB großen JPEG-Export aus Lightroom, hier dann schon mit einem MoirĂ©-Filter: 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Das ist ja Wahnsinn 😼. Ich habe auch viel damit gespielt, war am Anfang skeptisch, weil irgendwas ĂŒber AI im Zusammenhang mit SR gesprochen wurde. Die SR hat anscheinend gar nichts mit AI zu tun, sondern das ist rein mathematisches Prozess was direkt RAW Pixels ĂŒberarbeitet. Besonders gut sieht man es in den von Michael @mjh & Andreas @AS-X gezeigten Beispielen mit einem 16MP X-Trans RAW Bildern wo die Ergebnisse echt zum staunen bringen. Dass SR noch in einem Zug beides (Details verbessern & VergrĂ¶ĂŸern) tut und noch dass es Moires vernichtet ist fein ⭐. Eins habe ich festgestellt, dass wenn man es in 2 schritten durchfĂŒhrt (erst DV und dann SR was in diesem fall 0 Sinn ergibt), gehen die automatischen Objektivkorrekturen (konkret CAs) verloren. Eins finde ich aber Ka--e, dass jetzt SR auch aus einem JPG einen DNG generiert. 😕 Ein RAW Bild war fĂŒr mich immer etwas "heiliges" 😇 unangefasstes. Jetzt machen die aus einer Komprimierter PixelbrĂŒhe (JPG) einen DNG raus â˜č, ...dĂŒrfte nicht sein und finde ich KĂ€se.

Super Beispiele von dir von einem tollen PortrĂ€t 👍, danke 🙂

Gruß aus Tiflis

bearbeitet von zoom
Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb zoom:

Die SR hat anscheinend gar nichts mit AI zu tun, sondern das ist rein mathematisches Prozess was direkt RAW Pixels ĂŒberarbeitet.

Nein, das ist schon AI. Man kann sich darĂŒber streiten, was das Verfahren mit Intelligenz zu tun hat, aber jedenfalls ist hier ein neuronales Netz am Werk, das mit einer Vielzahl von Bildausschnitten trainiert worden ist. Im Adobe-Blog ist das ja genauer beschrieben. Das Ergebnis des maschinellen Lernens könnte man natĂŒrlich als eine sehr komplexe mathematische Formel beschreiben – wie sonst sollte es ein Computer berechnen können? –, aber das gilt fĂŒr jede AI auf Basis neuronaler Netze, oder fĂŒr AI generell.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 12 Minuten schrieb AS-X:

Das tut es aber wohl nicht, wenn ich Rico richtig verstanden habe. 

Vor paar tagen in meinem Test hat es schon einiges weggewischt, vielleicht nicht ganz, aber schon deutlich Moirefrei finde ich. Besonders fein fand ich die SchÀrfe in den Farbkontrasten wo sonst die KomplementÀre Farben in den SchÀrfebereichen ganz hÀssliche Artefakte erzeugen.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Nein, das ist schon AI. Man kann sich darĂŒber streiten, was das Verfahren mit Intelligenz zu tun hat, aber jedenfalls ist hier ein neuronales Netz am Werk, das mit einer Vielzahl von Bildausschnitten trainiert worden ist. Im Adobe-Blog ist das ja genauer beschrieben. Das Ergebnis des maschinellen Lernens könnte man natĂŒrlich als eine sehr komplexe mathematische Formel beschreiben – wie sonst sollte es ein Computer berechnen können? –, aber das gilt fĂŒr jede AI auf Basis neuronaler Netze, oder fĂŒr AI generell.

Unter AI meinte ich dass es keine Gesichter oder Strukturen unterscheidet/erkennt. D.h. wenn die Haut genauso behandelt wird wie der Himmel oder andere Stellen z.B.

bearbeitet von zoom
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb zoom:

Unter AI meinte ich dass es keine Gesichter oder Strukturen unterscheidet/erkennt. D.h. wenn die Haut genauso behandelt wird wie der Himmel oder andere Stellen z.B.

OK, das ist dann eine etwas ungewöhnliche Interpretation von AI. „AI“ ist einfach die AbkĂŒrzung fĂŒr „Artificial Intelligence“, also kĂŒnstliche Intelligenz. Von spezifischen Funktionen wie einer Gesichtserkennung ist da keine Rede.

Link zum Beitrag
Auf anderen Seiten teilen

So wie ich es sehe, funktioniert SR wohl am besten mit Sensoren, die vergleichsweise große Pixel, also eine geringe Auflösung haben, dafĂŒr aber auch weniger Rauschen zwischen benachbarten Pixeln. Mein Versuch mit einem Bild aus der GFX 100 war im Vergleich zu meinem Beispiel mit der GFX 50S jedenfalls sehr ernĂŒchternd. Das mag daran liegen, dass der Algo mit "vielen schlechten" Pixeln weniger gut klarkommt als mit "wenigen guten" Pixeln und die Fehler (also Artefakte zwischen einzelnen Pixeln) dann eher betont und aufblĂ€st anstatt sie auszugleichen. Das geht soweit, dass mein Beispiel mit 200 MP (berechnet aus 50 MP) klarer erscheint als ein Landschaftsbeispiel aus der GFX 100 mit demselben Objektiv, das ich von 100 auf 400 MP hochgerechnet und das dann zurĂŒck auf 100 MP skaliert wurde. Dabei habe ich die SchĂ€rfung in der 400 MP Version vor dem erneuten Herunterskalieren bereits auf 0 gestellt.

So gesehen sollte SR mit der alten X100 tolle Ergebnisse produzieren, denn deren Sensor ist mit dem in der GFX 50 durchaus verwandt, hat aber bessere Mikrolinsen und einen AA-Filter. Ich werde das nachher mal ausprobieren und bei Erfolg ein Beispiel posten.

 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

D.h. mein absurder Wunsch ĂŒber eine GFX 25r wĂŒrde in diesem Fall schon Sinn machen 😊. Eine MF Kamera fĂŒr ca. €2500 die man noch mithilfe des SR auf 50MP hochschaukelt, ah das wĂ€re so schön 🙂

Link zum Beitrag
Auf anderen Seiten teilen

vor 22 Minuten schrieb zoom:

D.h. mein absurder Wunsch ĂŒber eine GFX 25r wĂŒrde in diesem Fall schon Sinn machen 😊. Eine MF Kamera fĂŒr ca. €2500 die man noch mithilfe des SR auf 50MP hochschaukelt, ah das wĂ€re so schön 🙂

Das wĂŒrde weder fĂŒr einen regelmĂ€ĂŸigen Workflow bei dir noch fĂŒr den Hersteller einer solchen Kamera (fĂŒr den schon gar nicht) Sinn machen. Aber das man aus den vorhandenen Xen, besonders aus den Ă€lteren, so viel rauskitzeln kann ist doch auch toll. 

Link zum Beitrag
Auf anderen Seiten teilen

So einfach ist es nicht, es hÀngt enorm von der QualitÀt des Ausgangsmaterials ab. Habe ich jetzt gerade auch bei der X100 gesehen. Auch dort kann der Algo Bildfehler eher verstÀrken und somit betonen.

Einige Motive kann man jedoch schon verbessern und fĂŒr große Ausdrucke, 8K Bildschirme oder Bildausschnitte optimieren: https://www.flickr.com/gp/ricopfirstinger/FmE265

Link zum Beitrag
Auf anderen Seiten teilen

Ich habe jetzt noch ein zweiten X100-Beispiel gerechnet und hochgeladen: https://www.flickr.com/gp/ricopfirstinger/8X09V2

Hier sieht man denke ich ganz gut, wie der Algo Details und dabei vor allem Muster dazu erfindet, die aber nicht unbedingt passen. Etwa in den Details der Mauer und im farbigen Hintergrundbild, wo im GebĂŒsch plötzlich kleine kammartige Muster auftauchen.

Bei diesem neuen Beispiel wĂŒrde ich wohl nach Möglichkeit beim regulĂ€ren "Details verbessern" bleiben. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Rico Pfirstinger:

So wie ich es sehe, funktioniert SR wohl am besten mit Sensoren, die vergleichsweise große Pixel, also eine geringe Auflösung haben, dafĂŒr aber auch weniger Rauschen zwischen benachbarten Pixeln. Mein Versuch mit einem Bild aus der GFX 100 war im Vergleich zu meinem Beispiel mit der GFX 50S jedenfalls sehr ernĂŒchternd. Das mag daran liegen, dass der Algo mit "vielen schlechten" Pixeln weniger gut klarkommt als mit "wenigen guten" Pixeln und die Fehler (also Artefakte zwischen einzelnen Pixeln) dann eher betont und aufblĂ€st anstatt sie auszugleichen.

Das macht Sinn. Wie jedes andere Demosaicing-Verfahren tut Adobes Superresolution ja das, was man nicht tun soll: Es schaut sich selbst die Aufnahmen mit den höchsten Megapixelzahlen in 100 Prozent an. Geht ja auch nicht anders. Wenn man aber fehlende Bilddaten erraten muss, was beim Demosaicing ja schon ohne Auflösungserhöhung nötig ist, gelingt das um so besser, je zuverlĂ€ssiger die Bilddaten sind, die man hat. Bis zu einem gewissen Rauschanteil kann ein neuronales Netz das Rauschen beim Demosaicing ignorieren – es ist ja auf echte Bilddetails trainiert, nicht auf Rauschen, und wird daher nicht ausdrĂŒcklich Rauschmuster produzieren –, aber wenn das Rauschen zu stark wird, unterlaufen dem Netz Fehler.

Link zum Beitrag
Auf anderen Seiten teilen

Darauf lĂ€uft es offenbar hinaus. Beim AuffĂŒllen feiner Details scheint das System bisweilen zu erfinderisch zu sein und greift daneben. Auch sind die Ergebnisse oft ĂŒbertrieben scharf – selbst dann, wenn ich die SchĂ€rfung des aufgeblasenen linearen DNG auf 0 stelle.

Es ist recht einfach, beim Testen von SR einer Agenda zu folgen und die Funktion entweder sehr gut oder sehr schlecht aussehen zu lassen. Man muss sich nur passende Ausgangsbilder suchen und die Ergebnisse dann entsprechend herausstellen.

Die Wahrheit liegt hier indes ausnahmsweise wirklich in der Mitte. Es gibt offenbar FĂ€lle, wo das Ganze ausgesprochen hilfreich ist – und andere, in denen das Bild verschlimmbessert wird. Das Gros der FĂ€lle ist wohl irgendwie von beiden Faktoren betroffen und liegt somit dazwischen – einige Bildteile profitieren, andere verlieren. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Minuten schrieb Rico Pfirstinger:

Darauf lĂ€uft es offenbar hinaus. Beim AuffĂŒllen feiner Details scheint das System bisweilen zu erfinderisch zu sein und greift daneben. Auch sind die Ergebnisse oft ĂŒbertrieben scharf – selbst dann, wenn ich die SchĂ€rfung des aufgeblasenen linearen DNG auf 0 stelle.

Das neuronale Netz schĂ€tzt seine eigenen FĂ€higkeiten offenbar recht optimistisch ein und liefert daher von vornherein scharfe Bilder. Klassische Demosaicing-Algorithmen stehlen sich ja oft aus der Entscheidung – der Wert könnte dieser oder auch jener sein, und da wĂ€hlt man dann einen Wert dazwischen, der sicher nicht ganz richtig, aber auch nicht völlig falsch ist. Diese Taktik, Fehler zu minimieren, fĂŒhrt zu unscharfen Bildern.

Das Verhalten des neuronale Netzes erinnert an den alten Witz, dass ein Naturwissenschaftler wie jemand sei, der in einem stockdunklen Raum versuche, eine schwarze Katze zu fangen, ein Philosoph jemand sei, der im stockdunklen Raum eine Katze jagt, die gar nicht da ist, und der Theologe ebenfalls eine nicht vorhandene Katze jage, aber dauernd ausriefe „Ich hab’ sie!“ Das neuronale Netz verhĂ€lt sich gegenĂŒber stark verrauschten Bildern (die Katze – also die echten Bilddetails – sind gar nicht da) wie der Theologe und sagt: „Ich weiß, was das ist!“ (Nein, weißt Du nicht 
)

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb mjh:

Das neuronale Netz schĂ€tzt seine eigenen FĂ€higkeiten offenbar recht optimistisch ein und liefert daher von vornherein scharfe Bilder. Klassische Demosaicing-Algorithmen stehlen sich ja oft aus der Entscheidung – der Wert könnte dieser oder auch jener sein, und da wĂ€hlt man dann einen Wert dazwischen, der sicher nicht ganz richtig, aber auch nicht völlig falsch ist. Diese Taktik, Fehler zu minimieren, fĂŒhrt zu unscharfen Bildern.

Mein Eindruck ist, dass der Algo wohl bestimmte Objekte wie Gesichter, Augen etc. erkennt und diese entsprechend behandelt. Ansonsten scheint er nach regelmĂ€ĂŸigen Strukturen zu suchen und diese dann beim VergrĂ¶ĂŸern mit regelmĂ€ĂŸigen feinen Details aufzufĂŒllen. Das funktioniert hervorragend bei Textilien wie auf dem ersten Bild, aber nicht so gut mit der GefĂ€ngnismauer und der Vegetation im letzten Beispiel. Dort findet man dann im Spritzputz der Mauer auf einmal kleine Spots mit einem regelmĂ€ĂŸigen Minimuster, die dort nicht hingehören.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Rico Pfirstinger:

Hier sieht man denke ich ganz gut, wie der Algo Details und dabei vor allem Muster dazu erfindet, die aber nicht unbedingt passen. Etwa in den Details der Mauer und im farbigen Hintergrundbild, wo im GebĂŒsch plötzlich kleine kammartige Muster auftauchen.

Und um den Kopf herum und ĂŒber den Schultern wird die Mauer seltsamerweise leicht unscharf – als wĂ€re die KI durch den Gegensatz zweier ganz unterschiedlicher Motive irritiert worden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 50 Minuten schrieb mjh:

Und um den Kopf herum und ĂŒber den Schultern wird die Mauer seltsamerweise leicht unscharf – als wĂ€re die KI durch den Gegensatz zweier ganz unterschiedlicher Motive irritiert worden.

Das ist mir auch aufgefallen, diesen Effekt sieht man auch bei anderen Motiven.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb mjh:

Das neuronale Netz schÀtzt seine eigenen FÀhigkeiten offenbar recht optimistisch ein  [...]

Uiiiii, wenn die KI (AI) soweit wĂ€re, ĂŒber sich selbst zu reflektieren, dann wĂ€re man wohl beim Thema der "Starken kĂŒnstlichen Intelligenz" einen großen Schritt weiter.

Jetzt stelle man sich vor, die KI wĂŒrde sich selbst nach langem Lernen als risikoavers einschĂ€tzen. Dann wĂŒrde sie sich "denken": Bevor ich hier einen MĂŒll hinzuinterpretiere, lasse ich es lieber sein. Nach langer Rechenzeit wĂŒrde dann das selbe Foto herauskommen... :D

Link zum Beitrag
Auf anderen Seiten teilen

Also, haben wir doch mit nicht ganz ausgereiftem und unkontrolliertem AI Eingriff zu tun. Ich glaube, ich bleibe auf das good old fashioned "Details verbessern". Im Notfall könnte man den RAW als Smart Objekt im PS öffnen und eine "neues Smart Objekt durch Kopie" Ebene drĂŒber legen, mit SR aufblasen, danach die besten Stellen ausmaskieren, somit selbst entscheiden was bleibt und was nicht. In dem Fall auch mal eigenes "I" einschalten 🙂.

bearbeitet von zoom
Link zum Beitrag
Auf anderen Seiten teilen

vor 31 Minuten schrieb zoom:

Also, haben wir doch mit nicht ganz ausgereiftem und unkontrolliertem AI Eingriff zu tun.

NatĂŒrlich, so wie auch bei den anderen fĂŒhrenden Upscalern, etwa Topaz AI.

Ich sehe das pragmatisch. Wenn ich fĂŒr einen Kunden etwa einen Bildausschnitt vergrĂ¶ĂŸern muss, probiere ich natĂŒrlich auch das smarte Hochskalieren aus, bevor ich absage oder das Ganze aufwĂ€ndig noch einmal fotografieren muss. Dann sehe ich ja direkt, ob es reicht – am Ende entscheidet ohnehin der Kunde, der vermutlich in den meisten FĂ€llen weniger kritisch ist als wir selbst.

So einen Fall hatte ich erst vor einigen Wochen, damals noch mit Topaz. Jetzt gibt es eine Option mehr. Dass das Ganze mit der Zeit dann auch noch besser wird, ist umso ermutigender.

Auf die Idee, aus SR einen Standard-Workflow fĂŒr alle Bilder zu machen, kann man natĂŒrlich auch kommen, aber das erweist sich in der Praxis als nicht sinnvoll. SR ist fĂŒr mich in erster Linie ein Mittel, das in der Not helfen kann. Ohne Not setzt man es wohl eher nur in den AusnahmefĂ€llen ein, wo es (wie im obersten Beispiel) ĂŒberragende Ergebnisse liefert. Dann werden tolle Bilder eben noch toller.

Aber eigentlich ist SR wohl eher dort gefragt und hilfreich, wo noch mehr Auflösung nicht nur "nice to have", sondern "must have" ist. 

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Rico Pfirstinger:

...SR ist fĂŒr mich in erster Linie ein Mittel, das in der Not helfen kann.

Jetzt sehe ich es genauso ⭐.

vor 22 Stunden schrieb Rico Pfirstinger:

Ich habe jetzt noch ein zweiten X100-Beispiel gerechnet und hochgeladen: https://www.flickr.com/gp/ricopfirstinger/8X09V2

Rico, aber das Bild mit dem Mauer, ist wohl nicht aus einem RAW erstellt oder? Oder hast du es nach dem Prozess selektiv kombiniert (S/W und Farbe(GebĂŒsch))?

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb zoom:

 

Rico, aber das Bild mit dem Mauer, ist wohl nicht aus einem RAW erstellt oder? Oder hast du es nach dem Prozess selektiv kombiniert (S/W und Farbe(GebĂŒsch))?

Das ist ganz normal in Lightroom entwickelt worden. Die Farbe habe ich dort wohl freigepinselt.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto fĂŒr unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...