Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 20 Stunden schrieb Ergebnis:

Spricht etwas dagegen, mittels Adobe LR mobile ein DNG aufzunehmen und das dann so weiterzubearbeiten, wie man es mit den RAFs der Kamera auch macht.

ich mache das gelegentlich, wenn ich etwas gezielt fotografiere und keine Eingriffe will.
Und auch hier sieht man wieder, wie stark die Foto.app eingreift. Vergleich mal ein RAW aus der Foto.app und eines, das direkt mit der Lightroom App aufgenommen wurde. Das ist schon drastisch.

Link zum Beitrag
Auf anderen Seiten teilen

vor 21 Stunden schrieb Ergebnis:

Wenn man diese „fürsorglichen“ Veränderung der eigenen Fotos nicht mag, trotzdem aber eine RAW-Datei haben möchte: Spricht etwas dagegen, mittels Adobe LR mobile ein DNG aufzunehmen und das dann so weiterzubearbeiten, wie man es mit den RAFs der Kamera auch macht.

Kann man machen, dann bei Motiven mit etwas Kontrast am besten gleich als Adobe HDR-DNG, dann macht LR drei Bilder und verrechnet sie.

So habe ich das vor 5 Jahren auch mal mit dem iPhone X auf einem Maltatrip probiert.

 

Link zum Beitrag
Auf anderen Seiten teilen

Am 29.12.2023 um 22:47 schrieb Rico Pfirstinger:

Ein ProRAW ist also einfach eine Art HDR-DNG aus mehreren Bildern, wobei die Verrechnung bei Apple natürlich smarter erfolgt, um Bewegungsartefakte oder Verwacklungsartefakte zu vermeiden. Schließlich muss das auch funktionieren, wenn sich das Motiv schnell bewegt oder wenn der Fotograf das Phone nicht ruhig hält oder sich selbst schnell bewegt, während er das Foto macht. 

Wie sieht denn das Ergebnis aus, wenn sich das Motiv deutlich und schnell bewegt? Ich stelle mir das bei schlechteren Lichtverhältnissen und schnellen Motiven schwierig bis unmöglich vor.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb MEPE:

Wie sieht denn das Ergebnis aus, wenn sich das Motiv deutlich und schnell bewegt? Ich stelle mir das bei schlechteren Lichtverhältnissen und schnellen Motiven schwierig bis unmöglich vor.

Dafür gibt es hier im Smartphone Bilder-Thread einige Beispiele. Ich bin ebenfalls erstaunt, dass es meistens so gut funktioniert. Vor einigen Jahren gab es dazu ja einige Artikel auf DPR, etwa https://www.dpreview.com/news/9418998100/google-pushes-ai-powered-photo-technology-next-level-pixel-6-pixel-6-pro-smartphones

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb MEPE:

Das letzte Bild ist mir bzgl. Farben, Kontrasten und Schärfe definitiv "too much".

Da geht noch mehr! Hier ein Night Shot bei nahezu Dunkelheit:

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb MEPE:

Wie sieht denn das Ergebnis aus, wenn sich das Motiv deutlich und schnell bewegt? Ich stelle mir das bei schlechteren Lichtverhältnissen und schnellen Motiven schwierig bis unmöglich vor.

Ich habe bei Landschaftsaufnahmen mit Sturm sehr unterschiedliche Ergebnisse bekommen.

Von perfekt bis unbrauchbar war alles dabei (Pro Raw).

Und ich kann auch keine Zusammenhänge erkennen.

Meist ist es okay 😉

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 53 Minuten schrieb lichtschacht:

Meist ist es okay

Ich vermute, es kommt auch hier auf die Güte des KI-Trainings an, und wie gut ein Bild in vorgelernte Muster passt. Wenn sich ein Motiv schnell durchs Bild bewegt und die Kamera dabei mehrere Aufnahmen mit unterschiedlicher Belichtung macht, kann man die Bilder natürlich nicht einfach übereinanderlegen, sondern die Verrechnung muss "smart" erfolgen. Da gibt es dann etwa ein verrauschtes Bild mit kurzer Verschlusszeit, mit dem das Motiv eingefroren wurde – und weitere Bilder mit längeren Zeiten und weniger Rauschen (dafür evtl. mehr Bewegungsunschärfe). Die Kamera verschmilzt diese Elemente dann zu einem rauscharmen, scharfen Bild, indem sie etwa die Farbinformationen aus dem helleren Bild in die entsprechenden verrauschten Stellen des dunkleren Bildes einrechnet. Bei Dingen, die die Kamera (er)kennt (Gesichter, Tiere, Autos etc.), funktioniert das wohl besser als bei unbekannten Objekten.

Das ist also alles andere als trivial, und deshalb ist es eben auch fraglich, ob/wann/wie die japanischen Kamerahersteller ähnlich komplexe Algorithmen auch für ihre Kameras selbst entwickeln und bereitstellen können – oder ob derlei besser extern zugekauft bzw. von Firmen wie Google lizensiert werden kann. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Stunden schrieb Rico Pfirstinger:

I...

Das ist also alles andere als trivial, und deshalb ist es eben auch fraglich, ob/wann/wie die japanischen Kamerahersteller ähnlich komplexe Algorithmen auch für ihre Kameras selbst entwickeln und bereitstellen können – oder ob derlei besser extern zugekauft bzw. von Firmen wie Google lizensiert werden kann. 

Ich meine Panasonic kann bei High Resolution shots schon bewegte Teile des Motivs "einfrieren".

Wie gut das funktioniert, weiß ich allerdings nicht.

Link zum Beitrag
Auf anderen Seiten teilen

Bei meinem iPhone hatte ich bei Sturm schon lustige Momente.

Morgendämmerung (dunkel) und ich dachte nur, das wird im Leben nichts, und bekomme ein perfektes Ergebnis.

Dann Nachmittags mit Sonne. Verschlusszeiten von 1/400 und kürzer und 10 Fotos gemacht und alle unbrauchbar. Alles was nicht groß im Vordergrund war, war nur noch fiesester Pixelmatsch (ich bin echt kein Pixelpeeper).

Deshalb (für mich) schwer vorherzusagen.

Aber, KI Training wird es auf längere Sicht sicherlich richten.

Link zum Beitrag
Auf anderen Seiten teilen

Bei Apple hört die Verrechnungs-KI bekanntlich auf den Namen "Deep Fusion". Danach kann man also googeln und findet dann Infos und grundsätzliche Erklärungen über die Funktionsweise. Eingeführt wurde es im iPhone 11 ab iOS 13.2.

https://www.mactechnews.de/news/article/Im-Detail-Mit-Deep-Fusion-zu-besseren-Fotos-173464.html

https://www.mactechnews.de/news/article/Deep-Fusion-Vergleichsfotos-zeigen-was-der-neue-Algorithmus-leistet-173478.html

DP wird natürlich ständig weiter verbessert, etwa im aktuellen iOS: https://www.mactechnews.de/news/article/Deep-Fusion-und-Bildoptimierung-in-iOS-17-Apple-schraubt-massiv-an-der-Geschwindigkeit-182805.html

 

Link zum Beitrag
Auf anderen Seiten teilen

  • 3 weeks later...
  • 10 months later...

Nun ist es also soweit: Das adaptive Tone-Mapping von Smartphones steht – wie erwartet – nun auch allen anderen Kameras zur Verfügung. Derzeit nur als Beta in Adobe Camera RAW zu haben, dürfte das "Adobe Adaptive"-Profil demnächst auch in Lightroom zur Verfügung stehen.

In Teil 11 meiner großen Belichtungsserie "Exposing Right" in FUJILOVE gehe ich darauf ausführlich ein. Und weil Weihnachten naht, gibt's den Artikel hier 1 Woche lang als Download.

Jetzt ist es natürlich nur noch eine Frage der Zeit, bis solche adaptiven Profile in Echtzeit auch in den Kameras selbst verfügbar sind, mit WYSIWYG vom Live-View bis zum JPEG.

Link zum Beitrag
Auf anderen Seiten teilen

Danke. Entschuldigt die dumme Frage: Ich habe jetzt wirklich nicht verstanden, sorgt die AI für einen optimalen Tonapping/Gradationsverlauf, dass alle Nuancen sowohl im Hellen als auch im Dunklen herauskommen und zu sehen sind;‘ Oder findet da auch Gesichts-, Himmel-, Wassererkennung usw statt, und danach werden diese Motivteile auf im allgemeinen gefällige Licht- und Tonwerte entwickelt?

nochmal danke und Grüße 

Link zum Beitrag
Auf anderen Seiten teilen

Danke für euer Interesse. Das Thema "automatische Tonwertkorrektur" dürfte in Zukunft auch im Kontext von Systemkameras weiter an Bedeutung gewinnen. Nachdem das Dropbox-Download-Fenster inzwischen abgelaufen ist, hier kurz die Statistik:

  • Der Forums-Link zu meinem Fujilove-Artikel wurde 101x angeklickt.
  • Der Artikel selbst wurde dabei 57x heruntergeladen.
  • 16 Benutzer konnten sich zu einem Klick auf LIKE bzw. DANKE überwinden.
  • Es gab 2 Kommentare.

Teil 12 der Serie erscheint Anfang Januar 25 und ist inzwischen durchs Layout und meine Korrektur gegangen. Dabei geht es um Methoden sowie mehrere Dutzend Praxisbeispiele, die illustrieren, wie man den Dynamikumfang mit Fujifilm-Kameras maximieren kann und wie hoch das Nutzungspotenzial dabei – Stand heute – ist. Die Beispiele stammen aus einer X-M5 mit XC-Kit-Zoom und einer GFX100II mit GF55mmF1.7, decken also das bei Fujifilm derzeit verfügbare Preisspektrum (immerhin ca. Faktor 10) gut ab, ohne dass es bei der Vorgehensweise jedoch Unterschiede gibt. Das gilt selbstverständlich auch für alle "In-Between"-Modelle.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Rico Pfirstinger:

Danke für euer Interesse.

Finde dieses Thema sehr spannend und wesentlich relevanter als 90% in diesem Forum. Etwas anstrengend ist es nur die 10% zu finden. Da ich die Zeit dazu nicht habe, zweifle ich etwas an meinem dasein hier. 
Aber solche Themen wiegen halt den Rest auf. 
 

Link zum Beitrag
Auf anderen Seiten teilen

vor 39 Minuten schrieb Thomas H:

Finde dieses Thema sehr spannend und wesentlich relevanter als 90% in diesem Forum. Etwas anstrengend ist es nur die 10% zu finden. Da ich die Zeit dazu nicht habe, zweifle ich etwas an meinem dasein hier. 
Aber solche Themen wiegen halt den Rest auf. 
 

Smartphones und deren Freunde werden hier im Forum manchmal etwas von oben herab betrachtet – Naserümpfen sozusagen. Die entsprechenden Hintergrundthemen sind also "exotisch" (zumal in einem Fuji-X-Forum), jedoch trotzdem relevant. Smartphones sind technologische Trendsetter und treiben die Entwicklung digitaler Kamera- und Sensortechnik stark voran. Ignorieren oder von oben herab Betrachten hält diese Entwicklung nicht auf. Künftig werden solche Technologien bei allen Systemkameraherstellern vermehrt zum Einsatz kommen, das wird quasi zu einer Existenzfrage.

Im Fuji X Secrets Bereich beträgt der Anteil solcher Themen übrigens nahezu 100%, wobei einzelne Threads durchaus auch mal längere Off-Topic-Schleifen drehen, die dann aber ebenfalls mit Fujifilm oder dem Kameramarkt insgesamt zu tun haben. Auf Fujilove gibt es analog dazu den GearTalk-Bereich, der dort nach einem Meeting von Tomash und mir auf der letzten Photokina etabliert wurde.

Zum Thema Belichtung gibt es außerdem ein Forumsvideo auf YouTube, das Admin Andreas vor einiger Zeit mit mir aufgenommen und produziert hat. Das gilt als eher "nerdig", denn für eine korrekte Belichtung interessiert sich nur ein Bruchteil auch der "ernsthaften" Fotografen. Das kann etwa man an der großen Anzahl falsch belichteter Bilder erkennen, die im Internet und auch in Fotoforen ausgestellt werden. Allein deshalb schon gehört KI-gestützten Belichtungssystemen, die dem desinteressierten Benutzer solche Arbeiten kompetent abnehmen, zweifellos die Zukunft. Wenn es nichts kostet und man nichts dafür tun muss, nimmt man solche Features nämlich gerne mit – darüber hinaus wird das Thema als eher lästig oder gar als Zumutung empfunden.

Es ist ein bisschen wie beim Thema Autofokus. Die Kamera soll alles möglichst automatisch machen und "mitdenken", sie soll also von alleine wissen, auf welchen Bildteil der Benutzer scharf stellen bzw. belichten möchte und wie scharf/unscharf bzw. hell/dunkel die restlichen Bereiche ausfallen sollen. Da entwickelt sich ein gewisses Anspruchsdenken, das die eigenen handwerklichen Fähigkeiten nicht nur zur Disposition stellt, sondern zunehmend einer (eher schädlichen) Zumutung erklärt. Aus "das braucht man doch alles gar nicht wissen/können/machen" wird so zuerst ein "das will man doch alles nicht wissen/können/machen" und schließlich ein "das sollte man doch alles gar nicht wissen/können/machen". Dieser Wandel ist längst zu beobachten, und am Ende darf man froh sein, wenn sich überhaupt noch 10% des Publikums für solche Themen interessieren.

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 34 Minuten schrieb Rico Pfirstinger:

...darf man froh sein, wenn sich überhaupt noch 10% des Publikums für solche Themen interessieren.

Nun ja, der Anteil dürfte wesentlich höher sein. Es wird genug Foristen geben, die viele dieser Punkte kennen und auch anwenden, quasi verinnerlicht haben. Und wenn du nachsiehst, wie hoch der Anteil der ewig Unzufriedenen ist, stellt sich heraus, dass deren gar nicht so viele sind.
Nicht jeder mag sich an den Diskussionen beteiligen, vor Allem wegen der schnell ins Persönliche abgleitenden Beiträge. Da macht man dann lieber sein Ding und kümmert sich nicht darum. Insofern brauchst du nicht traurig zu sein, es gibt noch was Anderes, dass ziehen wir uns 'rein (In Abwandlung eines alten Liedtextes). Und du mach mal weiter so...😃

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb Rico Pfirstinger:

für eine korrekte Belichtung interessiert sich nur ein Bruchteil auch der "ernsthaften" Fotografen.

Ich frage mich worum es sonst bei der Fotografie geht? Bei mir dreht sich fast alles, seit K64 und Velvia und bis heute mit APSC der X-Pro3, um die „richtige“ Belichtung. Fast alle Fragen der Kamera Bedienung, Einstellungen und der späteren RAW-Bearbeitung zielen IMMER an erster Stelle genau darauf ab.  

In analogen Zeiten hatten wir kein C1 oder sonstwas. Da standen große Müllkisten neben dem Leuchtpult und die waren schnell voll wenn man nicht richtig belichten konnte. Der Workflow war schneller als der digitale heute. 1 Sekunde pro Bild unter der Lupe auf dem Leuchttisch und fertig. Dann eine Handbewegung und die ging oft in Richtung der Kisten am Rand des Tisches. Wenn ich daran denke was damals vernichtet wurde vom schiefen Horizont bis 1/2 LV daneben. Heute tun mit die Augen weh, hätten wir damals geahnt was einige Jahre später digital möglich sein würde.   

Auch KI wird mir da nicht alles abnehmen, aber vielleicht das Leben etwas einfacher machen. 90% meines Ausschuss sind auch heute noch Fehlbelichtungen. Jedenfalls nach meinem Anspruch. Das ganze Schieberegler Geschiebe im RAW Prozess ist von der RICHTIGEN Belichtung abhängig. Gerade im APSC ist der Grad sehr schmal. Wie bei eigentlich allem gilt:  Bullshit In = Bullshit out. 

Das zweite Thema, richtige Schärfe ist da ehr einfach und fast schon banal. Mit oder ohne AF nutze ich zuerst meinen Kopf und dann das was mir die Kamera an Fokus Hilfsmittel bietet. Das klappt meist ganz gut, egal was irgendwelche Leute über den AF schreiben der in meiner Kamera ist. 

An letzter Stelle kommt noch mein Stiel und die Bildsprache. Diese ist allerdings gar nicht banal. 

 

bearbeitet von Thomas H
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...