Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Und das ist ein normales jpg mit der Originalfotoapp.

Automatikmodus bei der Aufname etwas abgedunkelt.

 

Honor 9 by PC-Heini, auf Flickr

bearbeitet von Captcha
Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Stunden schrieb klauss:

Ich habe gerade mal die Beta für die App ProCamera zur Verhinderung stürzender Linien auf dem 7+ installiert. Auf der ersten Blick läuft die Funktion sehr flüssig und erstaunlich gut. Da werde ich in den nächsten Tagen mal etwas intensiver testen. Was der InAppKauf letztlich kosten wird, wurde noch nicht bekannt gegeben. Auf jeden Fall finde ich die Entwicklung im Smartphonebereich schon erstaunlich.

"Snapseed" kann das schon lange, sowohl mit einem überzeugenden Auto-Modus, als auch mit manueller Korrektur. Die Funktion ist der in Lightroom ebenbürtig, wenn nicht sogar überlegen. Und das in einer kostenlosen und werbefreien (!) App.

Hier eine 1-Klick-Korrektur

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

iPhone x

ich bin überrascht, wie gut die Ergebnisse auch bei wenig Licht sind. 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb Captcha:

Das hier im Handy mit Snapseed

 

Honor 9 by PC-Heini, auf Flickr

Bekommst Du mit Snapseed gute Ergebnisse mit RAW-Dateien hin? Bei meinem BQ sehen die JPG-Bilder besser aus als die Snapseed-bearbeiteten RAW-Dateien. Besonders was Schärfe, Details, Rauschen angeht.

Link zum Beitrag
Auf anderen Seiten teilen

Heute morgen bei Sonnenaufgang

P30 bei 80mm (KB)

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb uli-P:

"Snapseed" kann das schon lange, sowohl mit einem überzeugenden Auto-Modus, als auch mit manueller Korrektur. Die Funktion ist der in Lightroom ebenbürtig, wenn nicht sogar überlegen. Und das in einer kostenlosen und werbefreien (!) App.

Hallo @uli-P,

das Snapseed, LR, Affinity Photo und andere das beseitigen von stürzenden Linien schon lange beherrschen, ist in der Tat nichts neues. Aber das bezieht sich ja immer auf die Nachbearbeitung. Je nach Neigungswinkel der Kamera und dem Abstand zum Objekt werden die Kanten ausgerichtet und der teils nicht unerhebliche Beschnitt durchgeführt.

Die (zumindest für mich) neue technische Innovation ist halt, dass die App anhand des Lagesensors die Neigung des iPhones erkennen kann und die notwendigen Berechnungen sofort und ohne Verzögerung darstellt. Man sieht also schon vor dem Auslösen auf dem Display, wie das fertig ausgerichtete und beschnittene Motiv aussieht und kann ggfls. die Bildgestaltung anpassen.

Ob man solche Features tatsächlich braucht, steht natürlich auf einem anderen Blatt. In jeden Fall finde ich die Innovation spannend, weil sie unter Umständen verhindern kann, das bildwichtige Bereiche abgeschnitten oder an den Rand gerückt werden. Ich bin auf jeden Fall gespannt, was sich in diesem Bereich noch alles tut und was davon vom Smartphone in die Kameras übernommen wird. Wer es letztlich brauch, sei mal dahingestellt. Ein Leica-M Nutzer fragt ja möglicherweise auch, wofür man einen Autofokus braucht.

 

Gruß aus LEV

 

Klaus

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Hi Klaus, danke für die Info - das hatte ich falsch verstanden. Ich mache die perspektivischen Ausrichtungen generell lieber in der Postproduktion, meist manuell, weil ich mich nicht auf das automatische Zuschneiden verlassen möchte.

Frohe Ostern, Uli

Link zum Beitrag
Auf anderen Seiten teilen

@uli-P,

so sehe ich das auch und das wird auch ein Punkt bei der Rückmeldung an ProCamera sein. Wenn die App höhere Gebäude zu 100% gerade ausrichtet, sieht das für meinen Geschmack oftmals unnatürlich aus. Aber vielleicht kommt ja irgendwann noch eine Einstellung hinzu, mit der man den Grad der Ausrichtung einstellen kann.

Schöne Feiertage

Klaus

Link zum Beitrag
Auf anderen Seiten teilen

vor 25 Minuten schrieb klauss:

. Wenn die App höhere Gebäude zu 100% gerade ausrichtet, sieht das für meinen Geschmack oftmals unnatürlich aus.

Hatte ich Donnerstag mit der Frauenkirche in Kombination mit dem ganzen Team davor. Da war ein Ausrichten irgendwie unmöglich. Entweder die Menschen oder die Kirche sehen trotz Ausrichten seltsam aus.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb s.sential:

Bekommst Du mit Snapseed gute Ergebnisse mit RAW-Dateien hin? Bei meinem BQ sehen die JPG-Bilder besser aus als die Snapseed-bearbeiteten RAW-Dateien. Besonders was Schärfe, Details, Rauschen angeht.

Bisher ist das Ergebnis nicht wirklich besser als die "normalen" jpg aus der Kameraapp.

Allerdings habe ich mich auch noch nicht wirklich in den Prozess eingearbeitet und das kenne ich von PhotoNinja und Affinity auch, dass es eine Weile dauert, bis ich das raushole, was ich möchte.

 

Die OOC Bilder sind ja alle nicht schlecht; also eine hohe Messlatte.

Und um dieses aufzuzeigen, habe ich ja oben mehrere Varianten (ooc, snapseed, Affinity) eingestellt.

 

PS. in den Einstellungen von snapseed kann man auch die Qualität der ausgegebenen Fotos vorgeben...

bearbeitet von Captcha
Link zum Beitrag
Auf anderen Seiten teilen

Ok, das ist auch ungefähr mein Stand. Capture One Express fürs Smartphone - das wär's.

 

vor 12 Minuten schrieb Captcha:

PS. in den Einstellungen von snapseed kann man auch die Qualität der ausgegebenen Fotos vorgeben... 

Das gilt meines Wissens nur fürs Exportieren. Beim Speichern wird JPG im Originalformat und 100% gespeichert.

 

Beim RAW in Snapseed hat man vor allem mehr Reserven bei der Korrektur der Tonwerte. Bei BQ nimmt die Kamera die RAW-Dateien immer mit ETTR auf - das ist auch erst mal ungewohnt.

Link zum Beitrag
Auf anderen Seiten teilen

Heute auf Radtour...

iPhone Xs

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

H

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

Am 18.4.2019 um 00:02 schrieb Jürgen Heger:

@mjh

Könntest Du genauer erklären, warum die Tiefeninformation und eventuell Information über das zu simulierende Objrktiv nicht ausreichen ein natürliches Bokeh zu erzeugen? Oder einen Link auf eine ausführliche Erklärung,  gerne bei Docma?

Die Tiefeninformationen sind nur ein Teil des Problems, aber damit fängt es schon einmal an. Beispielsweise ist die Basisbreite durchweg gering – ein bis zwei Zentimeter typischerweise. Bei Einzelkameras mit Dual-Pixel-Sensoren ist die effektive Basisbreite noch kleiner und liegt im Millimeterbereich. Die Depth-Map löst die Tiefendimension daher eher grob auf.

Man kann die Tiefenkarte auch nicht pixelgenau berechnen, also die Tiefe für jedes Bildpixel präzise angeben. Die Karte wird ja so erstellt, dass jeweils kleinräumige Muster im Bild der einen Kamera dann auch im Bild der anderen gesucht werden, und aus den Verschiebungen der gefundenen Muster ergibt sich die Tiefenkarte. Dabei gibt es immer ein paar Ausreißer durch falsch erkannte Muster, weshalb das Ergebnis noch einmal einen Plausibilitätstest durchlaufen muss – wenn eine begrenzte Region von ein paar Pixel eine völlig andere Tiefenposition als die Umgebung haben soll, kann es sich um ein kleines Vordergrundobjekt handeln, möglicherweise aber schlicht um einen Fehler – in diesem Fall muss man die Tiefeninformationen interpolieren. Beim Plausibilitätstest wird auch mit KI gearbeitet, aber teilweise setzen die Hersteller auch gleich komplett auf KI, um Menschen im Vordergrund zu erkennen – die Google-Pixel-Modelle tun das, wenn sie Gesichter erkennen. Dann bekommt man aber keine Tiefenkarte, sondern einfach eine Maske des Vordergrundmotivs.

An den Kanten des Vordergrunds gibt es noch das Problem, dass jeweils die eine Kamera noch ein paar Hintergrund-Pixel sieht, die für die andere Kamera bereits vom Vordergrund verdeckt sind. Dann kann das Muster im anderen Bild nicht wiedergefunden und eine Verschiebung berechnet werden – und wenn es wiedergefunden wird, ist es eine falsche Zuordnung. Dies muss ebenfalls erkannt und die Tiefe dann richtig zugewiesen werden – die nur für eine Kamera sichtbaren Hintergrundpixel müssten in derselben Tiefe liegen, wie die für beide Kameras sichtbaren Hintergrundpixel daneben.

Nachdem das Smartphone dann die Tiefenkarte für eine reduzierte Auflösung berechnet hat – weil man, wie gesagt, nicht Pixel für Pixel vergleichen kann, sondern immer nur Kacheln aus mehreren Pixeln –, wird es auf die volle Bildauflösung hochskaliert, um auf dieser Basis das künstliche Bokeh zu berechnen.

Der Erzeugung der Unschärfe stößt dann wiederum auf Schwierigkeiten. Man kann eine realistische Unschärfe erzeugen, indem man jeden Punkt des Motivs als einen Unschärfekreis abbildet. Aus der Überlagerung aller Unschärfekreise – man kann sich das so vorstellen, dass ein blendenförmiger Pinsel für jeden Punkt der Szene jeweils einen ganz dünnen, durchscheinenden Farbkreis in das Bild setzt – entsteht dann ein unscharfes Bild. Als Ausgangspunkt einer Simulation dieser unscharfen Abbildung bräuchte man ein scharfes Bild mit sehr großem Dynamikumfang. Tatsächlich ist das Bild nicht immer völlig scharf – die Schärfentiefe ist groß, aber nicht unendlich –, aber durchweg macht das keinen so großen Unterschied. Problematischer ist der Dynamikumfang. Unschärfekreise werden immer dann als Kreise sichtbar, statt sich nur zu einer allgemeinen Unschärfe zu überlagern, wenn es kleine, gleißend helle Lichtpunkte gibt – typischerweise kleine Lichtquellen oder Reflexe. Damit ein erkennbarer Unschärfekreis entsteht, müssen diese Punkt sehr viel heller als die Umgebung sein, und dieser Unterschied überfordert den Dynamikumfang jedes Sensors. Die echte unscharfe Abbildung eines Objektivs mit geringer Schärfentiefe verteilt dieses sehr helle Licht auf eine große Fläche, so dass der Sensor die Helligkeit bewältigen kann, und deshalb können wir auch die Farbe der Lichtquelle erkennen. Wird der helle Lichtpunkt dagegen scharf abgebildet, wird er überbelichtet und erscheint weiß. Vor allem aber ist es unmöglich, einen bloß hellen, weißen Punkt sicher von einem gleißend hellen Punkt zu unterscheiden, der einen sichtbaren Unschärfekreis erzeugt, und daher ist die Nachbildung sichtbarer Unschärfekreise Glückssache. Das Ergebnis mag gar nicht mal schlecht aussehen, aber es sieht nicht so aus wie das echte Bokeh einer Vergleichsaufnahme derselben Szene.

Link zum Beitrag
Auf anderen Seiten teilen

Am 18.4.2019 um 19:41 schrieb uli-P:

Es könnte sein, dass ich als erfahrener "Pixelpeeper" deine Fuji-JPGs - wenn ich sie meinen Bearbeitungen aus dem RAW gegenüberstelle - ebenso schrecklich fände und dir das auch begründen und beweisen könnte....;)

P.S.: Ein Handyfoto sieht auch auf meinem 27er 5-K-Mac sehr gut aus lässt sich definitiv größer als 13x18 produzieren. Ein Quadratmeter geht problemlos, bei den Panos, die locker 18.000 x 3000 px erreichen, sogar noch sehr viel größer. Glaube mir, ich weiß genau wovon ich rede. Ob dein "Zonlai" Vergrößerungen dieser extremen Art aushält, möchte ich bezweifeln.

Es steht jede(m) ausdrücklich frei, meine Bilder schrecklich zu finden! 

Ich bleibe aber dabei, dass ICH das elektronische (um das hässliche Wort "Fake" zu vermeiden) Bokeh bei Portraits in mindestens 9 von 10 Fällen absolut schrecklich finde  (und das schon hier in Forums-Auflösung) und ich nicht verstehen kann, wie begeistert es teilweise aufgenommen wird. Muss ich aber auch nicht verstehen.

Abgesehen davon kann man mit halbwegs aktuellen, nicht zu billigen Smartphones in der Tat bemerkenswert gute Bilder machen, die natürlich auf jedem Monitor dieser Welt gut aussehen. 

Beides untermauert dieser Thread in meinen Augen eindrucksvoll.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb hanshinde:

Es steht jede(m) ausdrücklich frei, meine Bilder schrecklich zu finden! 

Ich bleibe aber dabei, dass ICH das elektronische (um das hässliche Wort "Fake" zu vermeiden) Bokeh bei Portraits in mindestens 9 von 10 Fällen absolut schrecklich finde  (und das schon hier in Forums-Auflösung) und ich nicht verstehen kann, wie begeistert es teilweise aufgenommen wird. Muss ich aber auch nicht verstehen.

Mit "schrecklich" hatte ich mich auf das rein Technische am Bild bezogen und festgestellt, dass ich aus einem RAW vielleicht etwas Besseres hinbekomme als du mit dem Jpg OOC.

Übrigens habe ich das Wort Lügen-Bokeh selbst verwendet, also kein Problem. Du bezeichnest ja auch nur 9 von 10 Beispielen als "absolut schrecklich". Damit attestierst du immerhin 10% der Bokeh-Bilder eine gewisse Qualität. Ich glaube, man muss differenzieren, und wir sind uns einig, dass die Smartphones diesbezüglich noch Verbesserungspotenzial haben. Alle von uns fotografieren vorwiegend mit Fujis und wissen ganz genau, wie richtiges Bokeh aussehen kann.

 

bearbeitet von Gast
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...