Jump to content

Wozu scharfe Objektive wenn es Software gibt?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ok, etwas provozierend, aber etwas ist dran:

Wir leben in Zeiten von Topaz Sharpen AI oder der Konkurrenz von DxO.

Die Zeiten, wo es darum ging, ob LR mit oder ohne Iridient oder dem internen Verbesserungstool schärfer zeichnet als C1 sind im Grunde vorbei.

Es lebe die KI! Die schärft auch Unscharfes ohne Artefakte.

Das heißt ich muss jetzt kein schweres 16-55 mehr mit mir rumschleppen, es reicht auch das 16-80  mit den bekannten Randschwächen an den Brennweitenenden? Ich kann es mir im Zweifelsfall ja schönrechnen?

Auch ein 18 1.4 kommt zu spät, das charmante 18 2.0 reicht aus wird einfach nachgeschärft, wenn es mal sein muss?

Klar, Lichtstärke und Schärfentiefe sind etwas anderes, aber warum jetzt nicht ein 100€ 25er 0,95 Chinateil kaufen und es softwareseitig pimpen? So gut wie ein 35 1.4 an KB.

Erleben wir gerade den Sieg der KI über das optische Handwerk?

Link zum Beitrag
Auf anderen Seiten teilen

vor 49 Minuten schrieb Tommy43:

Erleben wir gerade den Sieg der KI über das optische Handwerk?

Fürs reine "Knipsen"? Imo schon. Finde ich auch nicht "verwerflich". Weder OOC noch bei der Entwicklung. Seit längerem "malen" ja viele Fotografen Bilder mit "fetter Sättigung", "knalligen Farben", "brutalem Schwarzweiss" etc. Genauso, wie auf dem anderen Ende, "verwaschenem Pseudobokeh" etc. was man analog vll. mit Vaseline auf der Linse gemacht hat ;) . Mein persönliches Ding ist das nicht, obwohl ich mich gern mal in Richtung abstrakt, minimalistisch, fineart ... ausprobiere. Das kann allerdings keine KI ... ist die Entwicklung meiner persönlichen "PI" :D . Ich "muss" allerdings auch keine massenbeklatschten social-media-Inhalte produzieren und meinen Lebensunterhalt mit Bewerbungsfotos, Familienfeiern ... Produktfotografie (ohne Abqualifizierung) bestreiten? Nöh. Dafür ist mir mein Hobby zu lieb und das Salär wohl zu schmal.

Link zum Beitrag
Auf anderen Seiten teilen

Ein "schön provozierendes" Statement dessen Weisheit für Reise- und Universalobjektive im Grunde schon lange gilt. Denn viele Landschafts- und Reisefotografen nutzen die praktischen Vorteile, sind sich der qualitativen Einschränkungen aber voll bewußt. Im Rahmen der Raw Entwicklung kann im Nachhinein einiges kompensiert werden. Mit dem technischen Fortschritt werden auch hier die Tools immer besser. Wobei, in meinen Augen Schärfe bei der Reisefotografie nicht das Hauptkriterium ist.

Anders sieht es bei einem Portrait Shooting oder bei einer Makro Aufnahme aus, wo echte Schärfe, "Crema" und authentisches Bokeh durch nichts zu ersetzen sind. Frei nach dem alten Winzer Motto: Fehler, die man im Weinberg macht, kann man im Keller nicht mehr korrigieren. Trotzdem gibt es Winzer die das mit allerlei technischen Tricks versuchen - genauso wie Fotografen, die ein schlechtes Bild mit Photoshop und/oder KI retten wollen.

bearbeitet von Don Pino
Link zum Beitrag
Auf anderen Seiten teilen

So schnell geht es nicht, dass die KI den Künstler ersetzt. 

Besseres Werkzeug lässt manche Sachen einfacher umsetzen aber ein Heimwerker wird nur durch einen besseren Hammer nicht zum Handwerker. 

Schau mal GFX Fotos an. Die werden sich nicht pauschal besser,bloß weil die Kamera besser ist. 

 

Link zum Beitrag
Auf anderen Seiten teilen

Gegenfrage: Wozu Software, wenn es unscharfe Objektive gibt? Denn auch der umgekehrte Weg wird ja gegangen, indem die KI ein Motiv nachträglich freistellt und ein Bokeh ins Bild "zaubert". Da es aber in der Fotografie nicht um "die Wahrheit" sondern ums Bildermachen geht, ist das alles erlaubt.

Um aber auf die Frage des TO zurück zu kommen: Die meisten Bilder wirken heute überschärft, ganz unabhängig von der KI. Schon die heutigen Objektive sehen schärfer als das menschliche Auge und die Kamerasensoren lösen auch feine Details tadellos auf. So verwundert es nicht, dass so Manche/r auf Altglas oder fernöstliche Billigware zurückgreift um den "Charm" des Unperfekten wieder zu erlangen.

Zu besseren Bildern führt das nicht zwangsläufig, auch nicht bei qualifizierten Fotografen. Technisch perfekte Fotos wirken eben auch gerne mal irgendwie "steril" und erreichen uns u.U. emotional nicht so recht, da die technische Qualität uns ablenkt.

bearbeitet von DeLuX
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Ich glaube wir erleben gerade den nächsten (großen) Schritt in der RAW Bearbeitung. Ich erinnere mich noch gut an ein lange Zeit sehr aktives Mitglied hier, dass uns in Richtung Sony verlassen hat, weil die Darstellung zB von Gräsern in seinen Landschaftsfotos dort mit LR (KB+Bayer) besser klappte als mit seiner Fuji. 
Nun geht das endlich auch mit Fuji und ich finde das großartig. 
Bessere Objektive performen dabei aber immer noch besser als schlechtere. Daher hat sich gar nicht so viel verändert. 

Link zum Beitrag
Auf anderen Seiten teilen

Für mich hat Fotografie als Hobby zwei Aspekte:

  1. das Erstellen eines Bildes, das meine Sicht auf die Welt zeigt, und
  2. die Beherrschung einer faszinierenden Technik, um das Bild zu schaffen.

Beide Aspekte sind für mich untrennbar verbunden. Die Motivation zur Fotografie ist das Bild, die Technik ist zunächst zweitrangig. Die Technik muss mir jedoch bei der Aufnahme ein bewusstes Fotografieerlebnis vermitteln. Wenn ich ein Lichtbild nehme, will einen Apparat in Händen halten, der für die Fotografie geschaffen wurde. Zum zweiten muss die Technik leistungsfähig genug sein, meinen Ansprüchen an das Bild gerecht zu werden.

Das mal vorausgeschickt: Solange ich noch entscheide, was auf das Bild kommt, ist es mir fast egal, mit welcher Technologie die Lichtstrahlen zum Bild geformt werden.

Link zum Beitrag
Auf anderen Seiten teilen

Ich nehme mal an, dass in einem Bild von einem hinsichtlich der Schärfe besser korrigierten Objektiv zusammen mit einem höher auflösenden Sensor mehr objektbezigene Information steckt als in einem Bild mit einer weniger hochwertigen Ausrüstung. Die Bildbearbeitung kann bei mangelhafter Schärfe dort nur Schärfedetails dazulügen, hat aber  weniger Bildinformation. Kann sein, dass solche Bilder dann sehr gefällig sind. Aber feine Details würden verlorengehen oder verändert werden. Ob man sowas mag?

Ganz anders ist das mit der elektronischen Korrektur von anderen Objektivfehlern wie Verzeichnung und Aberration. Die Informationen für die Korrekturen solcher Objektivfehler sind im RAW enthalten. Da muss nur der Algorithmus stimmen, es muss aber keine Information hinzugelogen werden.

 

Link zum Beitrag
Auf anderen Seiten teilen

Ich finde die diversen KI-Werkzeuge in den Smartphones auch grenzwertig. Mein Bokeh soll schon noch von der Linse kommen. Und natürlich ersetzt die KI nicht den guten Fotografen. Auch der Aspekt Porträt ist spannend, der hier genannt wurde. Wirkt das, was Topaz mit Gebäuden oder Pflanzen machen kann, dort tatsächlich unnatürlich? Kann gut sein, käme auf den Versuch an. Abgesehen davon, dass absolute Schärfe hier oft nicht gewünscht ist, siehe die Diskussion um geeignete Objektive oder schärfereduzierende schmeichelnde Filter.

Ich finde auch die Software-Korrekturen von Verzeichnung und Vignettierung nicht optimal, die heute nur allzugleich zum Standard werden, zumal sie anders als diese neue Schärfe-KI im Vergleich zur optischen Korrektur immer verlustbehaftet sind. Da möchte ich lieber das optisch korrigierte Objektiv. Ok, Denoise nur für die Ecken eines 23 2.0 oder Sharpen für die Ecken eines 18 2.0 bei Landschaft könnten mittlerweile helfen. 

Aber was ich zuletzt von den beiden o.g. Softwarekandidaten an Schärfeberechnung gesehen habe, hat mich schon umgehauen. Und insbesondere auf diese Leistung bezieht sich mein Statement. Das Ganze sieht eben beim Hinsehen nicht artefaktbehaftet oder irgendwie „berechnet“ aus, wenn man es nicht übertreibt und der Schritt, der hier gerade gemacht wird, ist größer als der Unterschied von Iridient, Details verbessern oder C1 vs LR, um mich hier zu wiederholen.

Jedenfalls ein möglicher Grund, bei den Zooms doch auf eine Kombi 10-24, 16-80 + 70-300 umzustellen, damit die Tasche deutlich leichter wird und das scharfe aber fette 16-55 zu ersetzen? Ich werde wohl tatsächlich mal ein paar Fotos des bereits verkauften 16-80 rauskramen und nochmal nachbearbeiten.

Eine FB würde ich schon allein wegen der Lichtstärke/möglichen Freistellung nicht ersetzen, aber ich werde auch hier mal schauen, was Topaz Sharpen AI aus meinen Vergleichsbildern des 35 1.4 im Vergleich zum 33 1.4 noch „rausholt“. Der Vergleich war ja beim genauen Hinsehen schon zugunsten des neuen Objektivs ausgefallen, Fokusgenauigkeit und -schnelligkeit mal außen vorgelassen, die beim Neuen eh besser sind. Aber wenn die Software die kleinen Ungenauigkeiten beim Fokus, die ich beim 35 1.4 ab und an hatte, wenn es mal zu schnell gehen musste, ausbügelt, wäre das natürlich nice.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 45 Minuten schrieb harlud:

Kann sein, dass solche Bilder dann sehr gefällig sind. Aber feine Details würden verlorengehen oder verändert werden. Ob man sowas mag?

Naja, dachte ich bisher auch. Bis ich das hier sah:

Siehe auch die Diskussion hier: 

 

bearbeitet von Tommy43
Link zum Beitrag
Auf anderen Seiten teilen

Die Frage geht in die Irre … Algorithmen, die eine bei der Aufnahme entstandene Unschärfe beheben sollen, gibt es ja seit Jahren, nur hatten sie nicht den durchschlagenden Erfolg, den sich viele erhofft hatten. Diese Filter arbeiteten durchweg mit einer blinden Dekonvolution. Adobe hatte in Photoshop einst ein Verfahren zur Reduzierung von Verwacklungsunschärfe eingeführt, das jüngst klammheimlich wieder entfernt worden ist: In der neuesten Photoshop-Version ist es verschwunden., und wie mein DOCMA-Kollege Olaf Giermann schreibt, ist das auch kein großer Verlust. (Eine Dekonvolution funktioniert am besten, wenn sie nicht blind ist, wie beispielsweise bei Fujis LMO und ähnlichen Verfahren anderer Hersteller.)

Bei Adobes aktuellem „Verbessern“ oder DxOs „DeepPRIME“ geht es auch um etwas ganz anderes. Digitalfotos mussten ja schon immer im letzten Schritt der Bildverarbeitungspipeline nachgeschärft werden – nicht weil die Objektive nicht scharf genug zeichneten, sondern weil der Sensor keine vollständigen Informationen liefert und zwei Drittel der RGB-Daten interpoliert werden müssen. Das Ergebnis sind unscharfe Bilder, und daraus ergibt sich die Notwendigkeit des Nachschärfens. Heute gibt es nun aber Demosaicing-Verfahren auf Basis neuronaler Netze, die gar nicht nach irgendwelchen mathematischen Verfahren interpolieren, sondern scharf abgebildete Details passend zu erraten versuchen. Es geht nicht darum, Unzulänglichkeiten der Objektive zu kaschieren, sondern solche der Sensoren.

Nun kann man es durchaus noch ein bisschen weiter treiben, wie es Topaz Sharpen AI tut. Das kann auch recht ansprechende Ergebnisse bringen, nur bleibt es dabei, dass hier Details weniger rekonstruiert als erraten werden – Information, die nicht im Bild steckt, kann auch ein neuronales Netz nicht herbeizaubern. Zudem gibt es das Problem, dass die KI an der richtigen Stelle aufgeben muss, statt angesichts einer immer größeren Unschärfe fröhlich weiter draufloszuraten. Ein Schärfeverlauf in einem mit offener Blende aufgenommenen Portrait würde ziemlich komisch aussehen, wenn das neuronale Netz versuchte, so weit wie möglich nachzuschärfen.

Vielleicht werden wir irgendwann fast beliebig weit in Bilder hinein zoomen können, weit über die Auflösung von Objektiv und Sensor hinaus. Die KI wird dann mit wachsendem Vergrößerungsfaktor einfach immer neue Details passend hinzu erfinden, ohne dass wir den Punkt bemerken würden, an dem der aktuelle Bildausschnitt nichts mehr mit unserer Aufnahme zu tun hat, sondern komplett erfunden ist. Wenn wir in einem Landschaftsbild ein einzelnes Blatt vergrößern und uns die KI dessen Aderstruktur und schließlich die einzelnen Zellen zeigt, ist das ja auch ziemlich egal: Unser Blatt sähe unter dem Mikroskop zwar nicht exakt so aus, aber so ungefähr, weil Blätter dieser Art eben so aufgebaut sind. Das wäre eine nette Spielerei, aber mit einem Ersatz für gute Objektive, die ja erst einmal die Informationen liefern müssen, auf denen alles weitere beruht, hätte es immer noch nichts zu tun.

Link zum Beitrag
Auf anderen Seiten teilen

Liebe Leute - schnell - verkauft eure teuren Objektive. Morgen sind sie nix mehr wert und keiner braucht sie noch ...

(Ich warte schon auf das erste 18 1.4 / 33 1.4 Paket für 300€ 😁  -  hey bei 70€ für Sharpen AI wären das immer noch 230€ Gewinn! )

Wenn man noch GigaPixel AI dazu nimmt, dann kann man auch auf Teles verzichten, weil man kann ja cropen und dann hochrechnen.
Ja und Denoise AI gibt es ja auch noch! Wer brauch da noch eine GFX?
Fehlt nur noch Blur AI für entsprechende Freistellung!

Das Video zeigt auch die Schwächen eine solchen Software auf: Performance und Artefakte.

Für einzelne Bilder sicherlich eine Option, aber wenn man sich vorstellt, dass man jedes Bild damit bearbeiten muss, ich glaube, dann gibt man gerne das Geld für ein ordentliches Objektiv aus.

Und so beeindruckend die Ergebnisse auf den ersten Blick sein mögen. Wenn man sich die Beispiele (auf der Webseite) genauer anschaut, dann sieht man, dass es doch an der ein oder anderen Stelle sehr unnatürlich wirkt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb mjh:

Vielleicht werden wir irgendwann fast beliebig weit in Bilder hinein zoomen können, weit über die Auflösung von Objektiv und Sensor hinaus.

In Filmen funktioniert das bereits, wenn z.B. aus Satellitenaufnahmen die Kennzeichen von Autos klar sichtbar gemacht werden. 🤣😉

Link zum Beitrag
Auf anderen Seiten teilen

vor 50 Minuten schrieb 2prinz.de:

In Filmen funktioniert das bereits, wenn z.B. aus Satellitenaufnahmen die Kennzeichen von Autos klar sichtbar gemacht werden. 🤣😉

Ich bin mir nicht sicher, aber ich glaube, so etwas gab’s zum ersten Mal bei „Columbo“ – 1975 in der Episode „Playback“, in der Columbo Oskar Werner als Mörder seiner Schwiegermutter überführte, indem er immer weiter in das weitwinklige Bild einer Überwachungskamera hineinzoomte, bis man die Schrift auf der im Hintergrund aufgestellten Einladungskarte zu einem Empfang lesen konnte.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb herbert-50:

Liebe Leute - schnell - verkauft eure teuren Objektive. Morgen sind sie nix mehr wert und keiner braucht sie noch ...

(Ich warte schon auf das erste 18 1.4 / 33 1.4 Paket für 300€ 😁  -  hey bei 70€ für Sharpen AI wären das immer noch 230€ Gewinn! )

 

Wenn man damit noch die unscharfen Ecken bei Offenblende eliminieren kann?!?! Das könnte bitter für Fuji X und ein Geschäft für ..Artisans werden 😆

Link zum Beitrag
Auf anderen Seiten teilen

@Tommy43 Danke für den Link!

Das Programm scheint gut zu funktionieren, wenn man misslungene Bilder retten will. Im verlinkten Video scheint es sogar die Bildunschärfe der leichten Kräuselung im Wasser weg zu rechnen. Als Korrektur für ein unscharfes Objektiv sehe ich es aber nicht. Ein scharfes Objektiv zeichnet einen Punkt, wo ein Punkt ist und einen Fleck, wo ein Fleck ist. Ein unscharfes Objektiv zeichnet in beden Fällen jeweils einen Fleck. Woher soll das Topaz-Programm wissen, wann es einen Fleck als Punkt, einen scharfen Fleck oder einen unscharfen Fleck wiedergeben soll?

Aber wer guckt schon so genau auf Details?

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb harlud:

Woher soll das Topaz-Programm wissen, wann es einen Fleck als Punkt, einen scharfen Fleck oder einen unscharfen Fleck wiedergeben soll?

Ich denke, das wird je nach Kontext errechnet, natürlich ohne Garantie. Z.B. die Struktur in den hellen Steinverblendungen hat das Programm ja vermutlich nicht aus der Unschärfe heraus kontrastverstärkt, sondern das als „verwitterten Stein“ eingestuft und entsprechend etwas hinzugefügt. Das funktioniert z.B. beim letzten Beispiel, wo die Schärfentiefe „erweitert“ werden soll, mit dem Wappen auf dem roten Tuch ganz gut, mit dem Schild und der Gardine auch, aber der linke Frontscheinwerfer des längs geparkten Autos wiederum sieht gruselig aus. 

Link zum Beitrag
Auf anderen Seiten teilen

Ich persönlich beantworte die Frage: "Wozu scharfe Objektive, wenn es Software gibt" ganz einfach: ich bin einfach zu faul, Bilder am PC nachzuberabeiten. Ich finde es als extrem lästig und möchte am liebsten, dass meine Bilder gleich fertig aus der Kamera kommen. Nachbearbeitung ist für mich ein notwendiges Übel, wenn es da bei dem einem oder anderen mal etwas stört oder ein kleiner Beschnitt oder Ausrichten bei Freihandaufnahmen. Was für mich gar nicht geht, erst einmal komplett alle Bilder duch eine Software jagen zu müssen und dann eine gefühlte Ewigkeit daran rumzuschrauben, bis das Ergebnis so passt wie ich es gerne hätte.

Klar kann man das gerne machen, und ich habe perse nichts gegen Bildbearbeitung. Aber das ist eben auch nur mein ganz persönliches Empfinden und ich bin eben froh, wenn ich die Bilder in der Masse gleich so nutzen kann und um die Bildbearbeitung so gut es geht herum komme. 😅

bearbeitet von Dare mo
Link zum Beitrag
Auf anderen Seiten teilen

Ob so etwas Sinn macht, oder nicht, ist m.E. zuförderst mal abhängig von der Intention, mit der man fotografiert. Und die kann - zumindest bei mir - heute anders sein als morgen.

Meistens kommt es mir darauf an, ein Gefühl, eine Emotion oder eine Stimmung - nennt es wie Ihr wollt - zu transportieren. Dann bearbeite ich das Bild gezielt (und manchmal auch mittels try and error) in die gewünschte Richtung. Bei solchen Aufnahmen spielen Dinge wie Detailschärfe und Randauflösung eine eher untergeordnete Rolle. Im Gegenteil, ggf. verstärke ich Unschärfen oder füge Vignetten hinzu.

In anderen Situationen will ich möglichst realitätsnah dokumentieren (bspw. Architektur). Da ist Schärfe natürlich ein Muß, auch an Rand. Ob entsprechende SW hier helfen kann, muß man wahrscheinlich im Einzelfall prüfen. Spätestens, wenn hier sichtbar Details hinzuerfunden werden, wäre für mich die Grenze überschritten.

Link zum Beitrag
Auf anderen Seiten teilen

Vor einigen Jahren, während der Übergangsphase von der analogen zur digitalen Fotografie, gab es Diskussionen, ob denn durch die digitale Nachbearbeitung am Computer überhaupt noch von Fotografie gesprochen werden kann. Man kam zu zwei Ergebnissen: ja, nein.

Heute wird allgemein die digitale Fotografie und deren Nachbearbeitung als ganz legitim angesehen. (Nach langer abwehrender Phase auch von mir.)

Die nun hier stattfindende Diskussion erinnert mich an die damalige und es wird meiner Meinung nach genauso kommen wie damals: in einigen Jahre oder früher wird das nachträgliche schärfen, hoch- / runterskalieren oder das erweitern oder verringern von Schärfentiefe und gleichzeitiger Bokehveränderung ganz normal sein. Das ist eben der Fortschritt der digitalen Bildverarbeitung.

Ob man das mitmacht oder nicht, bleibt jedem selbst überlassen. Aber eine Diskussion darüber wird man dann nicht mehr führen. 

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...