Mr.Darcy Geschrieben 4. Januar 2024 Share #26 Geschrieben 4. Januar 2024 Werbung (verschwindet nach Registrierung) vor 20 Stunden schrieb Ergebnis: Spricht etwas dagegen, mittels Adobe LR mobile ein DNG aufzunehmen und das dann so weiterzubearbeiten, wie man es mit den RAFs der Kamera auch macht. ich mache das gelegentlich, wenn ich etwas gezielt fotografiere und keine Eingriffe will. Und auch hier sieht man wieder, wie stark die Foto.app eingreift. Vergleich mal ein RAW aus der Foto.app und eines, das direkt mit der Lightroom App aufgenommen wurde. Das ist schon drastisch. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige Geschrieben 4. Januar 2024 Geschrieben 4. Januar 2024 Hallo Mr.Darcy, schau mal hier iPhone Secrets – So arbeiten moderne Smartphones . Dort wird jeder fündig!
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #27 Geschrieben 4. Januar 2024 vor 21 Stunden schrieb Ergebnis: Wenn man diese „fürsorglichen“ Veränderung der eigenen Fotos nicht mag, trotzdem aber eine RAW-Datei haben möchte: Spricht etwas dagegen, mittels Adobe LR mobile ein DNG aufzunehmen und das dann so weiterzubearbeiten, wie man es mit den RAFs der Kamera auch macht. Kann man machen, dann bei Motiven mit etwas Kontrast am besten gleich als Adobe HDR-DNG, dann macht LR drei Bilder und verrechnet sie. So habe ich das vor 5 Jahren auch mal mit dem iPhone X auf einem Maltatrip probiert. Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! RoestyX, Ergebnis, robnik und 5 weitere haben darauf reagiert 7 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MEPE Geschrieben 4. Januar 2024 Share #28 Geschrieben 4. Januar 2024 Am 29.12.2023 um 22:47 schrieb Rico Pfirstinger: Ein ProRAW ist also einfach eine Art HDR-DNG aus mehreren Bildern, wobei die Verrechnung bei Apple natürlich smarter erfolgt, um Bewegungsartefakte oder Verwacklungsartefakte zu vermeiden. Schließlich muss das auch funktionieren, wenn sich das Motiv schnell bewegt oder wenn der Fotograf das Phone nicht ruhig hält oder sich selbst schnell bewegt, während er das Foto macht. Wie sieht denn das Ergebnis aus, wenn sich das Motiv deutlich und schnell bewegt? Ich stelle mir das bei schlechteren Lichtverhältnissen und schnellen Motiven schwierig bis unmöglich vor. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #29 Geschrieben 4. Januar 2024 (bearbeitet) vor einer Stunde schrieb MEPE: Wie sieht denn das Ergebnis aus, wenn sich das Motiv deutlich und schnell bewegt? Ich stelle mir das bei schlechteren Lichtverhältnissen und schnellen Motiven schwierig bis unmöglich vor. Dafür gibt es hier im Smartphone Bilder-Thread einige Beispiele. Ich bin ebenfalls erstaunt, dass es meistens so gut funktioniert. Vor einigen Jahren gab es dazu ja einige Artikel auf DPR, etwa https://www.dpreview.com/news/9418998100/google-pushes-ai-powered-photo-technology-next-level-pixel-6-pixel-6-pro-smartphones bearbeitet 4. Januar 2024 von Rico Pfirstinger MEPE hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #30 Geschrieben 4. Januar 2024 Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! MEPE und Anton von der Gathe haben darauf reagiert 1 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #31 Geschrieben 4. Januar 2024 Oder https://www.flickr.com/gp/ricopfirstinger/68q1JB9th0 MEPE hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #32 Geschrieben 4. Januar 2024 Werbung (verschwindet nach Registrierung) Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MEPE Geschrieben 4. Januar 2024 Share #33 Geschrieben 4. Januar 2024 Danke für die Bewegtbilder. Das letzte Bild ist mir bzgl. Farben, Kontrasten und Schärfe definitiv "too much". Kielograf hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Ergebnis Geschrieben 4. Januar 2024 Share #34 Geschrieben 4. Januar 2024 Wenn es ein RAW ist, sind die drei Dinge problemlos an die persönlichen Vorlieben anpassbar. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #35 Geschrieben 4. Januar 2024 vor 2 Minuten schrieb MEPE: Das letzte Bild ist mir bzgl. Farben, Kontrasten und Schärfe definitiv "too much". Da geht noch mehr! Hier ein Night Shot bei nahezu Dunkelheit: Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! fujirai hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lichtschacht Geschrieben 4. Januar 2024 Share #36 Geschrieben 4. Januar 2024 vor 2 Stunden schrieb MEPE: Wie sieht denn das Ergebnis aus, wenn sich das Motiv deutlich und schnell bewegt? Ich stelle mir das bei schlechteren Lichtverhältnissen und schnellen Motiven schwierig bis unmöglich vor. Ich habe bei Landschaftsaufnahmen mit Sturm sehr unterschiedliche Ergebnisse bekommen. Von perfekt bis unbrauchbar war alles dabei (Pro Raw). Und ich kann auch keine Zusammenhänge erkennen. Meist ist es okay 😉 MEPE hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 4. Januar 2024 Autor Share #37 Geschrieben 4. Januar 2024 vor 53 Minuten schrieb lichtschacht: Meist ist es okay Ich vermute, es kommt auch hier auf die Güte des KI-Trainings an, und wie gut ein Bild in vorgelernte Muster passt. Wenn sich ein Motiv schnell durchs Bild bewegt und die Kamera dabei mehrere Aufnahmen mit unterschiedlicher Belichtung macht, kann man die Bilder natürlich nicht einfach übereinanderlegen, sondern die Verrechnung muss "smart" erfolgen. Da gibt es dann etwa ein verrauschtes Bild mit kurzer Verschlusszeit, mit dem das Motiv eingefroren wurde – und weitere Bilder mit längeren Zeiten und weniger Rauschen (dafür evtl. mehr Bewegungsunschärfe). Die Kamera verschmilzt diese Elemente dann zu einem rauscharmen, scharfen Bild, indem sie etwa die Farbinformationen aus dem helleren Bild in die entsprechenden verrauschten Stellen des dunkleren Bildes einrechnet. Bei Dingen, die die Kamera (er)kennt (Gesichter, Tiere, Autos etc.), funktioniert das wohl besser als bei unbekannten Objekten. Das ist also alles andere als trivial, und deshalb ist es eben auch fraglich, ob/wann/wie die japanischen Kamerahersteller ähnlich komplexe Algorithmen auch für ihre Kameras selbst entwickeln und bereitstellen können – oder ob derlei besser extern zugekauft bzw. von Firmen wie Google lizensiert werden kann. mjh, Allradflokati, lichtschacht und 1 weiterer haben darauf reagiert 4 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lichtschacht Geschrieben 5. Januar 2024 Share #38 Geschrieben 5. Januar 2024 vor 19 Stunden schrieb Rico Pfirstinger: I... Das ist also alles andere als trivial, und deshalb ist es eben auch fraglich, ob/wann/wie die japanischen Kamerahersteller ähnlich komplexe Algorithmen auch für ihre Kameras selbst entwickeln und bereitstellen können – oder ob derlei besser extern zugekauft bzw. von Firmen wie Google lizensiert werden kann. Ich meine Panasonic kann bei High Resolution shots schon bewegte Teile des Motivs "einfrieren". Wie gut das funktioniert, weiß ich allerdings nicht. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lichtschacht Geschrieben 5. Januar 2024 Share #39 Geschrieben 5. Januar 2024 Bei meinem iPhone hatte ich bei Sturm schon lustige Momente. Morgendämmerung (dunkel) und ich dachte nur, das wird im Leben nichts, und bekomme ein perfektes Ergebnis. Dann Nachmittags mit Sonne. Verschlusszeiten von 1/400 und kürzer und 10 Fotos gemacht und alle unbrauchbar. Alles was nicht groß im Vordergrund war, war nur noch fiesester Pixelmatsch (ich bin echt kein Pixelpeeper). Deshalb (für mich) schwer vorherzusagen. Aber, KI Training wird es auf längere Sicht sicherlich richten. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 6. Januar 2024 Autor Share #40 Geschrieben 6. Januar 2024 Bei Apple hört die Verrechnungs-KI bekanntlich auf den Namen "Deep Fusion". Danach kann man also googeln und findet dann Infos und grundsätzliche Erklärungen über die Funktionsweise. Eingeführt wurde es im iPhone 11 ab iOS 13.2. https://www.mactechnews.de/news/article/Im-Detail-Mit-Deep-Fusion-zu-besseren-Fotos-173464.html https://www.mactechnews.de/news/article/Deep-Fusion-Vergleichsfotos-zeigen-was-der-neue-Algorithmus-leistet-173478.html DP wird natürlich ständig weiter verbessert, etwa im aktuellen iOS: https://www.mactechnews.de/news/article/Deep-Fusion-und-Bildoptimierung-in-iOS-17-Apple-schraubt-massiv-an-der-Geschwindigkeit-182805.html lichtschacht hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 25. Januar 2024 Autor Share #41 Geschrieben 25. Januar 2024 Hier ein aktueller Test aus der Android-Welt: Allradflokati hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 14. Dezember 2024 Autor Share #42 Geschrieben 14. Dezember 2024 Nun ist es also soweit: Das adaptive Tone-Mapping von Smartphones steht – wie erwartet – nun auch allen anderen Kameras zur Verfügung. Derzeit nur als Beta in Adobe Camera RAW zu haben, dürfte das "Adobe Adaptive"-Profil demnächst auch in Lightroom zur Verfügung stehen. In Teil 11 meiner großen Belichtungsserie "Exposing Right" in FUJILOVE gehe ich darauf ausführlich ein. Und weil Weihnachten naht, gibt's den Artikel hier 1 Woche lang als Download. Jetzt ist es natürlich nur noch eine Frage der Zeit, bis solche adaptiven Profile in Echtzeit auch in den Kameras selbst verfügbar sind, mit WYSIWYG vom Live-View bis zum JPEG. lichtschacht, Sheepy, foto_phil und 14 weitere haben darauf reagiert 1 16 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Tommy43 Geschrieben 14. Dezember 2024 Share #43 Geschrieben 14. Dezember 2024 Danke und besinnliche Feiertage! 🎄💫 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anton von der Gathe Geschrieben 14. Dezember 2024 Share #44 Geschrieben 14. Dezember 2024 Danke. Entschuldigt die dumme Frage: Ich habe jetzt wirklich nicht verstanden, sorgt die AI für einen optimalen Tonapping/Gradationsverlauf, dass alle Nuancen sowohl im Hellen als auch im Dunklen herauskommen und zu sehen sind;‘ Oder findet da auch Gesichts-, Himmel-, Wassererkennung usw statt, und danach werden diese Motivteile auf im allgemeinen gefällige Licht- und Tonwerte entwickelt? nochmal danke und Grüße Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 14. Dezember 2024 Autor Share #45 Geschrieben 14. Dezember 2024 Ich glaube, bei ACR könnte auch vorher eine KI-Analyse stattfinden, der Slider geht dann aber wie beim iPhone-Profil ganz normal hin und her. Bin mir da nicht sicher. Bei Adobe findet man vermutlich mehr dazu. Anton von der Gathe hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 22. Dezember 2024 Autor Share #46 Geschrieben 22. Dezember 2024 Danke für euer Interesse. Das Thema "automatische Tonwertkorrektur" dürfte in Zukunft auch im Kontext von Systemkameras weiter an Bedeutung gewinnen. Nachdem das Dropbox-Download-Fenster inzwischen abgelaufen ist, hier kurz die Statistik: Der Forums-Link zu meinem Fujilove-Artikel wurde 101x angeklickt. Der Artikel selbst wurde dabei 57x heruntergeladen. 16 Benutzer konnten sich zu einem Klick auf LIKE bzw. DANKE überwinden. Es gab 2 Kommentare. Teil 12 der Serie erscheint Anfang Januar 25 und ist inzwischen durchs Layout und meine Korrektur gegangen. Dabei geht es um Methoden sowie mehrere Dutzend Praxisbeispiele, die illustrieren, wie man den Dynamikumfang mit Fujifilm-Kameras maximieren kann und wie hoch das Nutzungspotenzial dabei – Stand heute – ist. Die Beispiele stammen aus einer X-M5 mit XC-Kit-Zoom und einer GFX100II mit GF55mmF1.7, decken also das bei Fujifilm derzeit verfügbare Preisspektrum (immerhin ca. Faktor 10) gut ab, ohne dass es bei der Vorgehensweise jedoch Unterschiede gibt. Das gilt selbstverständlich auch für alle "In-Between"-Modelle. nobbe und Parallaxe haben darauf reagiert 1 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Thomas H Geschrieben 22. Dezember 2024 Share #47 Geschrieben 22. Dezember 2024 vor 2 Stunden schrieb Rico Pfirstinger: Danke für euer Interesse. Finde dieses Thema sehr spannend und wesentlich relevanter als 90% in diesem Forum. Etwas anstrengend ist es nur die 10% zu finden. Da ich die Zeit dazu nicht habe, zweifle ich etwas an meinem dasein hier. Aber solche Themen wiegen halt den Rest auf. Rico Pfirstinger hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 22. Dezember 2024 Autor Share #48 Geschrieben 22. Dezember 2024 (bearbeitet) vor 39 Minuten schrieb Thomas H: Finde dieses Thema sehr spannend und wesentlich relevanter als 90% in diesem Forum. Etwas anstrengend ist es nur die 10% zu finden. Da ich die Zeit dazu nicht habe, zweifle ich etwas an meinem dasein hier. Aber solche Themen wiegen halt den Rest auf. Smartphones und deren Freunde werden hier im Forum manchmal etwas von oben herab betrachtet – Naserümpfen sozusagen. Die entsprechenden Hintergrundthemen sind also "exotisch" (zumal in einem Fuji-X-Forum), jedoch trotzdem relevant. Smartphones sind technologische Trendsetter und treiben die Entwicklung digitaler Kamera- und Sensortechnik stark voran. Ignorieren oder von oben herab Betrachten hält diese Entwicklung nicht auf. Künftig werden solche Technologien bei allen Systemkameraherstellern vermehrt zum Einsatz kommen, das wird quasi zu einer Existenzfrage. Im Fuji X Secrets Bereich beträgt der Anteil solcher Themen übrigens nahezu 100%, wobei einzelne Threads durchaus auch mal längere Off-Topic-Schleifen drehen, die dann aber ebenfalls mit Fujifilm oder dem Kameramarkt insgesamt zu tun haben. Auf Fujilove gibt es analog dazu den GearTalk-Bereich, der dort nach einem Meeting von Tomash und mir auf der letzten Photokina etabliert wurde. Zum Thema Belichtung gibt es außerdem ein Forumsvideo auf YouTube, das Admin Andreas vor einiger Zeit mit mir aufgenommen und produziert hat. Das gilt als eher "nerdig", denn für eine korrekte Belichtung interessiert sich nur ein Bruchteil auch der "ernsthaften" Fotografen. Das kann etwa man an der großen Anzahl falsch belichteter Bilder erkennen, die im Internet und auch in Fotoforen ausgestellt werden. Allein deshalb schon gehört KI-gestützten Belichtungssystemen, die dem desinteressierten Benutzer solche Arbeiten kompetent abnehmen, zweifellos die Zukunft. Wenn es nichts kostet und man nichts dafür tun muss, nimmt man solche Features nämlich gerne mit – darüber hinaus wird das Thema als eher lästig oder gar als Zumutung empfunden. Es ist ein bisschen wie beim Thema Autofokus. Die Kamera soll alles möglichst automatisch machen und "mitdenken", sie soll also von alleine wissen, auf welchen Bildteil der Benutzer scharf stellen bzw. belichten möchte und wie scharf/unscharf bzw. hell/dunkel die restlichen Bereiche ausfallen sollen. Da entwickelt sich ein gewisses Anspruchsdenken, das die eigenen handwerklichen Fähigkeiten nicht nur zur Disposition stellt, sondern zunehmend einer (eher schädlichen) Zumutung erklärt. Aus "das braucht man doch alles gar nicht wissen/können/machen" wird so zuerst ein "das will man doch alles nicht wissen/können/machen" und schließlich ein "das sollte man doch alles gar nicht wissen/können/machen". Dieser Wandel ist längst zu beobachten, und am Ende darf man froh sein, wenn sich überhaupt noch 10% des Publikums für solche Themen interessieren. bearbeitet 22. Dezember 2024 von Rico Pfirstinger nobbe, mjh, lichtschacht und 1 weiterer haben darauf reagiert 3 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
matthew Geschrieben 22. Dezember 2024 Share #49 Geschrieben 22. Dezember 2024 vor 34 Minuten schrieb Rico Pfirstinger: ...darf man froh sein, wenn sich überhaupt noch 10% des Publikums für solche Themen interessieren. Nun ja, der Anteil dürfte wesentlich höher sein. Es wird genug Foristen geben, die viele dieser Punkte kennen und auch anwenden, quasi verinnerlicht haben. Und wenn du nachsiehst, wie hoch der Anteil der ewig Unzufriedenen ist, stellt sich heraus, dass deren gar nicht so viele sind. Nicht jeder mag sich an den Diskussionen beteiligen, vor Allem wegen der schnell ins Persönliche abgleitenden Beiträge. Da macht man dann lieber sein Ding und kümmert sich nicht darum. Insofern brauchst du nicht traurig zu sein, es gibt noch was Anderes, dass ziehen wir uns 'rein (In Abwandlung eines alten Liedtextes). Und du mach mal weiter so...😃 lichtschacht, Hermann Roth und nobbe haben darauf reagiert 2 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Thomas H Geschrieben 22. Dezember 2024 Share #50 Geschrieben 22. Dezember 2024 (bearbeitet) vor 7 Stunden schrieb Rico Pfirstinger: für eine korrekte Belichtung interessiert sich nur ein Bruchteil auch der "ernsthaften" Fotografen. Ich frage mich worum es sonst bei der Fotografie geht? Bei mir dreht sich fast alles, seit K64 und Velvia und bis heute mit APSC der X-Pro3, um die „richtige“ Belichtung. Fast alle Fragen der Kamera Bedienung, Einstellungen und der späteren RAW-Bearbeitung zielen IMMER an erster Stelle genau darauf ab. In analogen Zeiten hatten wir kein C1 oder sonstwas. Da standen große Müllkisten neben dem Leuchtpult und die waren schnell voll wenn man nicht richtig belichten konnte. Der Workflow war schneller als der digitale heute. 1 Sekunde pro Bild unter der Lupe auf dem Leuchttisch und fertig. Dann eine Handbewegung und die ging oft in Richtung der Kisten am Rand des Tisches. Wenn ich daran denke was damals vernichtet wurde vom schiefen Horizont bis 1/2 LV daneben. Heute tun mit die Augen weh, hätten wir damals geahnt was einige Jahre später digital möglich sein würde. Auch KI wird mir da nicht alles abnehmen, aber vielleicht das Leben etwas einfacher machen. 90% meines Ausschuss sind auch heute noch Fehlbelichtungen. Jedenfalls nach meinem Anspruch. Das ganze Schieberegler Geschiebe im RAW Prozess ist von der RICHTIGEN Belichtung abhängig. Gerade im APSC ist der Grad sehr schmal. Wie bei eigentlich allem gilt: Bullshit In = Bullshit out. Das zweite Thema, richtige Schärfe ist da ehr einfach und fast schon banal. Mit oder ohne AF nutze ich zuerst meinen Kopf und dann das was mir die Kamera an Fokus Hilfsmittel bietet. Das klappt meist ganz gut, egal was irgendwelche Leute über den AF schreiben der in meiner Kamera ist. An letzter Stelle kommt noch mein Stiel und die Bildsprache. Diese ist allerdings gar nicht banal. bearbeitet 22. Dezember 2024 von Thomas H Tommy43 hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dein Support für das Forum (Info) Hat dir das Forum geholfen? So kannst du das Forum unterstützen! Premium Mitglied werden | Spenden | Bei Amazon* oder eBay* kaufen Software: Topaz* | DxO Nik Collection* | Skylum Luminar* (–10€ mit Gutschein FXF) | * Affiliate Links
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden