Jump to content

Fuji X-E2 noch interessant in Anbetracht der neuen Fuji X-T1?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Heute mal wieder ein bisserl prädiktives AF-Tracking mit der X-E2 gemacht:

 

13832927413_eb21aa509c_z.jpgDSCF1974  – Lightroom 5.4 by ricopress, on Flickr

 

Von sieben Bildern einer Serie waren sieben scharf. Ich sehe hier keinen Performance-Unterschied zur X-T1, deshalb mache ich die Aufnahmen genauso gerne mit der X-E2. Nur auf die 8 fps muss man leider verzichten, aber 3 fps ist ohnehin besser, weil man da noch einen Live-View hat.

Link zum Beitrag
Auf anderen Seiten teilen

Heute mal wieder ein bisserl prädiktives AF-Tracking mit der X-E2 gemacht:

 

13832927413_eb21aa509c_z.jpgDSCF1974  – Lightroom 5.4 by ricopress, on Flickr

 

Von sieben Bildern einer Serie waren sieben scharf. Ich sehe hier keinen Performance-Unterschied zur X-T1, deshalb mache ich die Aufnahmen genauso gerne mit der X-E2. Nur auf die 8 fps muss man leider verzichten, aber 3 fps ist ohnehin besser, weil man da noch einen Live-View hat.

Stellst du bei solchen Serien auf einen festen AF-Punkt ein mit AF-C ? Was passiert wenn sich das Motiv dann aus dem Fokuspunkt heraus bewegt ?

Link zum Beitrag
Auf anderen Seiten teilen

Dann ist das aber nicht vergleichbar z.B. mit dem "Predictive 3D Focus Tracking" von Nikon, oder ?

 

"Simple predictive tracking is very effective for pictures of a subject moving at constant speed toward the camera, but to provide maximum focusing performance for a subject that abruptly changes direction at high speed, or a subject with low contrast, moving randomly, the AF system must accumulate subject location data using multiple focus areas. The AF modules built into selected Nikon D-SLRs have as many as 51 focus areas that can detect vertical, horizontal and diagonal movement of the subject."

 

Damit können sich auch Motive diagonal, quer oder zufällig im Bild bewegen und werden durch das 3D Focus System trotzdem permanent und "perdictive" verfolgt und immer scharf gehalten. Finde es sehr schwierig und manchmal auch von der Bildintention her ungewollt das relativ kleine Fuji Fokus Quadrat bei bewegten Motiven immer auf dem selben Objekt zu behalten. Gibt es oder kommt da was Vergleichbares von Fuji ?  

bearbeitet von AlexJoda
Link zum Beitrag
Auf anderen Seiten teilen

Dann wissen wir ja was mit einer X-E3 oder X-T2 kommt: Echtes Tracking AF über die 179 PDAF Messpunkte des neuen 24 Megapixel Sony Sensors.... 

 

Ich weiß nichts, aber die Vermutung ist zumindest nicht vollkommen von der Hand zu weisen. Fuji macht indes keine 179 "Messpunkte", sondern 49.

Link zum Beitrag
Auf anderen Seiten teilen

Dann ist das aber nicht vergleichbar z.B. mit dem "Predictive 3D Focus Tracking" von Nikon, oder ?

Nein, denn es ist eben nicht „3D“. „Prädiktiver Autofokus“ bedeutet, dass die Entfernungseinstellung nicht nur kontinuierlich einem sich auf die Kamera zu oder von ihr weg bewegenden Motiv nachgeführt, sondern die vermutliche weitere Bewegung vorausberechnet wird, sodass die Schärfe am Ende dort sitzt, wo sie zum Aufnahmezeitpunkt sitzen muss. Der Autofokus kann ja sonst immer nur reagieren, also mit einer gewissen Verzögerung einer Motivbewegung folgen.

 

„3D“ bedeutet, dass die Kamera zusätzlich die Bewegung eines Motivs im Bildfeld (also in zwei weiteren Dimensionen) verfolgt und auch dann noch auf das einmal anvisierte Motiv scharfstellt, nachdem sich dieses aus dem Bereich eines AF-Messfelds herausbewegt hat. Nikon hat das vor etlichen Jahren als Erster realisiert, und das war ihnen möglich, weil der Belichtungssensor ihrer Spiegelreflexkameras nicht nur eine relativ hohe Auflösung hatte, sondern auch Farben unterscheiden konnte – die Belichtungsmesssensoren der Mitbewerber konnten das lange Zeit nicht. Die 3D-Motivverfolgung funktionierte nun so, dass die Kamera den Belichtungsmesssensor nutze, um Informationen über das mit dem AF angemessene Motiv zu sammeln, und zwar insbesondere über dessen Farbe. Wenn sich dieses Motiv dann im Bildfeld des Belichtungsmesssensors bewegte, konnte es die Kamera an der Farbe erkennen und verfolgen und entsprechend seiner neuen Position auf das jeweils nächstgelegene AF-Messfeld umschalten. Und das wohlgemerkt schon vor 18 Jahren in der F5, also einer analogen Kleinbildkamera. Das 3D-Tracking war gewissermaßen die Umkehrung der 3D-Matrixmessung (seit 1992) und 3D-Color-Matrixmessung (wie die 3D-Motivverfolgung seit 1996), die Tiefeninformationen des Autofokus nutzte, um die Messfelder des Belichtungsmesssensors zu gewichten – so wie dabei der Autofokus der Belichtungsmessung hilft, hilft bei der 3D-Motivverfolgung die Belichtungsmessung dem Autofokus.

 

Das sind nun alles Entwicklungen aus der analogen Spiegelreflextechnologie. Die spiegellosen Kameras nutzen den Bildsensor selbst, um die Entfernung und die Belichtung zu messen, und dieser Sensor löst ja sowieso hoch auf und kann Farben unterscheiden. Die Voraussetzungen für ein 3D-Tracking sind also gegeben, wobei für eine effektive prädiktive Verfolgung in der Tiefendimension allerdings Phasendetektionspixel nötig sind.

Link zum Beitrag
Auf anderen Seiten teilen

Wobei Fujis PDAF bisher nur die grünen Pixel nutzt. Macht Sony das eigentlich anders?

 

Ironischerweise können die günstigen Fujis allesamt "3D-Tracking", nur ohne PDAF und Prädiktion. Aber sie verfolgen ein Objekt mit dem AF-Feld, das sich über den Bildschirm bewegt. 

 

Fuji muss also nur noch beiden Methoden kombinieren, schon hat auch eine X-T1 das "3D-Tracking". Reine Software, aber eingeschränkt durch die 9 zentralen AF-Felder.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Es könnte auch eine Frage der CPU-Auslastung sein. Beim X-System ist die Fokussierung kritischer als bei Kompaktmodellen mit kleinem Sensor, sodass man vielleicht lieber alle Kraft auf den prädiktiven AF in einer Dimension verwendet. Aber eigentlich sollte eine Verfolgung über das Bild trotzdem drin sein.

 

Die Beschränkung der Phasendetektion auf grünempfindliche Pixel liegt nahe, weil es von denen halt am meisten gibt, und man ja nur Pixel mit gleicher Farbempfindlichkeit vergleichen kann (außerdem sind die grünempfindlichen Pixel durchweg empfindlicher als die rot- oder blauempfindlichen). Wenn das grüne Bild scharf ist, müssten die niedriger aufgelösten roten und blauen Bilder allemal scharf sein. Aus demselben Grund ist die Schärfe im Grünkanal ja auch am kritischsten, was ebenfalls dafür spricht, sich auf die grünen Pixel zu beschränken. Und wenn die Bildebene aufgrund der chromatischen Abberation für Rot, Grün und Blau nicht dieselbe ist, sollte man auf die mittleren Wellenlängen scharfstellen – also wiederum auf Grün. Es spricht einfach alles für Grün.

Link zum Beitrag
Auf anderen Seiten teilen

Nein, denn es ist eben nicht „3D“. „Prädiktiver Autofokus“ bedeutet, dass die Entfernungseinstellung nicht nur kontinuierlich einem sich auf die Kamera zu oder von ihr weg bewegenden Motiv nachgeführt, sondern die vermutliche weitere Bewegung vorausberechnet wird, sodass die Schärfe am Ende dort sitzt, wo sie zum Aufnahmezeitpunkt sitzen muss. Der Autofokus kann ja sonst immer nur reagieren, also mit einer gewissen Verzögerung einer Motivbewegung folgen.„3D“ bedeutet, dass die Kamera zusätzlich die Bewegung eines Motivs im Bildfeld (also in zwei weiteren Dimensionen) verfolgt und auch dann noch auf das einmal anvisierte Motiv scharfstellt, nachdem sich dieses aus dem Bereich eines AF-Messfelds herausbewegt hat. Nikon hat das vor etlichen Jahren als Erster realisiert, und das war ihnen möglich, weil der Belichtungssensor ihrer Spiegelreflexkameras nicht nur eine relativ hohe Auflösung hatte, sondern auch Farben unterscheiden konnte – die Belichtungsmesssensoren der Mitbewerber konnten das lange Zeit nicht. Die 3D-Motivverfolgung funktionierte nun so, dass die Kamera den Belichtungsmesssensor nutze, um Informationen über das mit dem AF angemessene Motiv zu sammeln, und zwar insbesondere über dessen Farbe. Wenn sich dieses Motiv dann im Bildfeld des Belichtungsmesssensors bewegte, konnte es die Kamera an der Farbe erkennen und verfolgen und entsprechend seiner neuen Position auf das jeweils nächstgelegene AF-Messfeld umschalten. Und das wohlgemerkt schon vor 18 Jahren in der F5, also einer analogen Kleinbildkamera. Das 3D-Tracking war gewissermaßen die Umkehrung der 3D-Matrixmessung (seit 1992) und 3D-Color-Matrixmessung (wie die 3D-Motivverfolgung seit 1996), die Tiefeninformationen des Autofokus nutzte, um die Messfelder des Belichtungsmesssensors zu gewichten – so wie dabei der Autofokus der Belichtungsmessung hilft, hilft bei der 3D-Motivverfolgung die Belichtungsmessung dem Autofokus.Das sind nun alles Entwicklungen aus der analogen Spiegelreflextechnologie. Die spiegellosen Kameras nutzen den Bildsensor selbst, um die Entfernung und die Belichtung zu messen, und dieser Sensor löst ja sowieso hoch auf und kann Farben unterscheiden. Die Voraussetzungen für ein 3D-Tracking sind also gegeben, wobei für eine effektive prädiktive Verfolgung in der Tiefendimension allerdings Phasendetektionspixel nötig sind.

Vielen Dank ! Wirklich eine exzellente Erläuterung ! Zwei Fragen noch dazu:

 

Da ich nur mit Nikon DSLRs fotografiert habe, wüsste ich gerne ob dieses 3D-Tracking exklusiv für Nikon geschützt ist, oder ob das heute allgemeiner Standard bei allen DSLRs ist ?

 

Wenn das heute üblich ist, warum ist es dann so schwer das in spiegellosen Kameras umzusetzen ? Es gibt doch mittlerweile PDAF Sensoren. Kann das z.B. die Alpha 6000 mit dem neuen Sensor ? Auch die AF Performance scheint trotz PDAF immer noch nicht vergleichbar mit DSLRs zu sein...

bearbeitet von AlexJoda
Link zum Beitrag
Auf anderen Seiten teilen

Da ich nur mit Nikon DSLRs fotografiert habe, wüsste ich gerne ob dieses 3D-Tracking exklusiv für Nikon geschützt ist, oder ob das heute allgemeiner Standard bei allen DSLRs ist ?

 

Nein, nicht geschützt. Vielleicht der spezielle Algorithmus von Nikon aber zumindest nicht das Tracking an sich. Das gehört bei den DSLR's quasi zum "guten Ton".

 

mfg tc

Link zum Beitrag
Auf anderen Seiten teilen

Auch die AF Performance scheint trotz PDAF immer noch nicht vergleichbar mit DSLRs zu sein...

Ein dedizierter AF-Sensor hat noch immer Vorteile gegenüber Pixeln des Bildsensors, die für die Phasendetektion zweckentfremdet werden. Aber er hat auch einen Nachteil: Wenn er dejustiert ist, kommt es zu einem Front- oder Back-Focus, der prinzipbedingt ausgeschlossen ist, wenn der Bildsensor gleichzeitig als AF-Sensor dient.

Link zum Beitrag
Auf anderen Seiten teilen

Auch nutzen die dezidierten AF Sensoren nicht die Lichtstärke des Objektivs aus. In der Regel sind die Sensoren in den Strahlengängen für die Blenden 2,8 und 5,6 angebracht. Beim Kontrast AF bringt mehr Lichtstärke auch eine bessere Performance.

Link zum Beitrag
Auf anderen Seiten teilen

Aber er hat auch einen Nachteil: Wenn er dejustiert ist, kommt es zu einem Front- oder Back-Focus, der prinzipbedingt ausgeschlossen ist, wenn der Bildsensor gleichzeitig als AF-Sensor dient.

Auch bei PDAF statt CDAF? Ich hätte gedacht, man muss hier doch die Ursachen auftrennen. Ein Lageunterschied zwischen Bild-/AF-Sensor kann als Ursache nicht mehr in Frage kommen, abbildungsbedingte Abweichungen aber schon noch. Prinzipbedingt kann dann zumindest die Kamera keinen Fehler mehr verursachen - sehr wohl aber nach meinem Verständnis das Objektiv.

 

mfg tc

Link zum Beitrag
Auf anderen Seiten teilen

Auch bei PDAF statt CDAF? Ich hätte gedacht, man muss hier doch die Ursachen auftrennen. Ein Lageunterschied zwischen Bild-/AF-Sensor kann als Ursache nicht mehr in Frage kommen, abbildungsbedingte Abweichungen aber schon noch. Prinzipbedingt kann dann zumindest die Kamera keinen Fehler mehr verursachen - sehr wohl aber nach meinem Verständnis das Objektiv.

Das ist eine Frage der Ansteuerung beziegungsweise Regelung: Wenn das Ergebnis der Phasendetektion noch einmal in einem Regelkreis überprüft wird, werden Fehler im Objektiv automatisch korrigiert, genauso wie beim Kontrast-AF. Wenn der Phasendetektions-AF das Objektiv allerdings nur an die vorausberechnete Position schickt und sich darauf verlässt, dass die Messung exakt und die Fokussierung präzise ist, dann kann ein etwas ausgeleiertes Objektiv auch mal falsch fokussieren.

Link zum Beitrag
Auf anderen Seiten teilen

Auch nutzen die dezidierten AF Sensoren nicht die Lichtstärke des Objektivs aus. In der Regel sind die Sensoren in den Strahlengängen für die Blenden 2,8 und 5,6 angebracht. Beim Kontrast AF bringt mehr Lichtstärke auch eine bessere Performance.

Auch ein dedizierter Phasendetektionssensor profitiert von mehr Licht; Kreuzsensoren funktionieren überhaupt erst bei größeren Blenden. Die Älteren unter uns kennen das vielleicht noch vom Schnittbildindikator, der ja das visuelle Äquivalent zum Phasendetektionssensor ist: Wenn man ein lichtschwächeres Objektiv verwendete, wurde schnell mal eines der Halbbilder dunkel.

Link zum Beitrag
Auf anderen Seiten teilen

Auch ein dedizierter Phasendetektionssensor profitiert von mehr Licht; Kreuzsensoren funktionieren überhaupt erst bei größeren Blende.

Mehr Lichtstärke als 2,8 bringt aber keine Steigerung mehr. Das PhasenAF-Modul kann das nicht nutzen.

Link zum Beitrag
Auf anderen Seiten teilen

Das ist eine Frage der Ansteuerung beziegungsweise Regelung: Wenn das Ergebnis der Phasendetektion noch einmal in einem Regelkreis überprüft wird, werden Fehler im Objektiv automatisch korrigiert, genauso wie beim Kontrast-AF. Wenn der Phasendetektions-AF das Objektiv allerdings nur an die vorausberechnete Position schickt und sich darauf verlässt, dass die Messung exakt und die Fokussierung präzise ist, dann kann ein etwas ausgeleiertes Objektiv auch mal falsch fokussieren.

Das meinte ich eigentlich nicht. Es ging mir mehr um Abbildungsfehler der vollen Öffnung versus der Öffnung, die der PDAF nutzt. Der schaut ja nur an sehr kleinen Flächen durch das Objektiv und genau das verursacht bei den DSLR's ja den objektivabhängigen Fehlfokus. Ich kann mir nicht so wirklich vorstellen, wieso das bei EVIL-PDAF's grundsätzlich anders sein soll.

 

mfg tc

Link zum Beitrag
Auf anderen Seiten teilen

Das meinte ich eigentlich nicht. Es ging mir mehr um Abbildungsfehler der vollen Öffnung versus der Öffnung, die der PDAF nutzt. Der schaut ja nur an sehr kleinen Flächen durch das Objektiv und genau das verursacht bei den DSLR's ja den objektivabhängigen Fehlfokus.

Du meinst die Blendendifferenz? Die kann, wie Rico ja schon schreibt, objektivabhängig herausgerechnet werden, da sie dem Hersteller ja bekannt ist. Da sind aber Standardtechniken bei der Phasendetektion, genauso wie die Berücksichtigung der Farbtemperatur.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Du meinst die Blendendifferenz? Die kann, wie Rico ja schon schreibt, objektivabhängig herausgerechnet werden, da sie dem Hersteller ja bekannt ist.

 

Ja, bekannte Abbildungsfehler, die per Design vorgegeben sind, können berücksichtigt werden. Das wird ja bei den klassischen PDAF-Kameras auch gemacht. Trotzdem gibt es hin und wieder Fehlfoki die durch minimale Dezentrierung und derlei Abweichungen verursacht werden. Natürlich kann man mit einer gescheiten Qualitätskontrolle vorbeugen - aber die Erfahrung zeigt, dass es das Problem ja dennoch gibt.

 

mfg tc

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...