Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 17 Stunden schrieb MichaelAC:

Die Augenerkennung hat (sicher und schnell) das Auge erkannt. Und die 5x5-Zone mittig drüber geschoben.

Das ist die Gesichtserkennung und nicht ein verschobener 5x5 Rahmen. Wenn Du mit Single Point fokussiert hättest, sähe das genauso aus. und der größere Rahmen die Kopferkennung. Die kommt zum Tragen, wenn sich die Person umdreht. Die Software zeigt offensichtlich die vom Tracking erkannten Umrisse, die Kamera zeigt im Sucher halt nur den gerade verwendeten.

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb mjh:

Und was steht in den Exif-Daten, das Deine Theorie stützt? Ich verstehe noch immer nicht, wie Du überhaupt darauf kommst, dass da ein „nicht sichtbares Fokusfeld“ irgendwo platziert würde.

Bei eingeschalteter Objekterkennung kennt die Kamera mehrere, verschiedene Felder: Fokusfeld, Objektfeld(er), Kopffeld(er), Augenfeld(er). Es wird im Sucher aber nur jeweils eins dargestellt.
(--> In den EXIFs findet man die Position aller Felder, die Position kann man sich mit https://solentsystems.com/exif3/ zeigen lassen).

  • Wenn die Objekterkennung nichts erkennt, wird das Fokusfeld angezeigt. Dort, wo man es hinplatziert hat.
  • Wenn die Objekterkennung was erkennt, verschwindet im Sucher das Fokusfeld und stattdessen erscheint eines der 3 Rechteck-Typen der Objekterkennung. Und zwar das kleinste, was erkannt wurde.
    Das nicht mehr im Sucher sichtbare Fokusfeld wird auf das kleinste erkannte Objekt platziert. 

Die Verwirrung bei einigen von euch liegt eventuell daran, dass ihr die Objekterkennungsfelder für Fokusfelder haltet.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Tommy43:

Das ist die Gesichtserkennung und nicht ein verschobener 5x5 Rahmen. Wenn Du mit Single Point fokussiert hättest, sähe das genauso aus. und der größere Rahmen die Kopferkennung. Die kommt zum Tragen, wenn sich die Person umdreht. Die Software zeigt offensichtlich die vom Tracking erkannten Umrisse, die Kamera zeigt im Sucher halt nur den gerade verwendeten.

Da liegst du falsch. Mit Single-Point wäre das Fokusfeld nicht ein rote Kreis mit Kreuz, sondern ein rotes Rechteck mit Kreuz.
An dem roten Kreis sieht man, dass die Kamera das 5x5-Feld dahin platziert hat.

Der größere Rahmen ist immer da, wird nur nicht immer im Sucher angezeigt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb Rico Pfirstinger:

Unterschiede könnte ich mir am ehesten dadurch erklären, dass die Kamera den Fallback-AF-Modus verwendet, wenn das Motiv kurzzeitig nicht mehr erkannt wird. Dann macht es natürlich einen Unterschied, ob mit einer 7x7-Zone oder einem kleinen Feld fokussiert wird. Ob die Kamera dann beim Fallback kurzzeitig (Sekundenbruchreile) die manuell gesetzte Position des AF-Modus verwendet oder die letzte Position, wo das Motiv verloren ging, ist eine interessante Frage. Spätestens wenn die Motivsuch-Rechtecke im Sucher verschwinden und wieder die normalen AF-Felder des Fallback-Modus als aktiv angezeigt werden, ist aber klar, dass die vom Benutzer manuell gesetzte Position verwendet wird. Die leuchtet dann auch grün auf, wenn man den Auslöser weiterhin halb gedrückt hält. 

Die Ausnahme ist hier der Tracking-AF, der beim Fallback stets die Position als Pattern speichert, an der die Motiverkennung ausgestiegen ist. Da wird quasi von Motiverkennung auf Musterspeicherung umgeschaltet – und wieder zurück, sobald die Kamera erneut ein passendes Motiv erkennt. Deshalb ist Motiverkennung mit Tracking-AF als Fallback keine schlechte Wahl in vielen Situationen. Da hat man dann durchgehendes Tracking, solang man den Auslöser halb durchgedrückt hält. Wenn man den Auslöser loslässt, beginnt natürlich wieder alles von vorn.

Diese Timing-/Kurzzeit-Hypothese halte ich auch für denkbar.
Aber warum schreibt die Kamera dann in die EXIFs, dass und wo die Objekterkennung zugeschlagen hat?
Das wäre dann ein anderes FW-Problem ... kein Motiv erkannt, aber trotzdem in die EXIFs geschrieben, dass eins erkannt wurde.

Deinen Hinweis mit Tracking-AF hört sich gut an. Das wäre dann was für BIF. Danke.

Link zum Beitrag
Auf anderen Seiten teilen

vor 45 Minuten schrieb MichaelAC:

Die Verwirrung bei einigen von euch liegt eventuell daran, dass ihr die Objekterkennungsfelder für Fokusfelder haltet.

Nein , ich hatte ja gesagt, ich erkenne bei dem Porträt nur Objekterkennungsfelder, während Du da auch ein 5x5 Fokusfeld erkannt haben willst, was aber schlicht die Gesichtserkennung ist.

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb Tommy43:

Nein , ich hatte ja gesagt, ich erkenne bei dem Porträt nur Objekterkennungsfelder, während Du da auch ein 5x5 Fokusfeld erkannt haben willst, was aber schlicht die Gesichtserkennung ist.

Die Objekterkennungsfelder sind gelb, die Fokusfelder sind rot. Ich sehe beide Farben.

Ich sehe in dem Bild einen roten Kreis mit rotem Kreuz drin. Das ist das 5x5 Fokusfeld.

Woher ich weiß, dass dies das 5x5-Feld ist?
1. Weil es ein Kreis ist. Fokus-Punkt wird als Rechteck mit Kreuz drin dargestellt. Zone als roter Kreis mit Kreuz drin.
2. Weil rechts in den EXIF steht: 5x5.

Und der Fokus liegt halt nicht in dem gelben Objekterkennungs-Quadrat mit der Nummer 3 (dort, wo die Mitte des 5x5-Feldes hinplatziert wurde).
Sondern fokussiert wurde auf die Haare am linken Brillenbügel, schräg rechts über der gelben "2". Also auf die anscheinend kontrastreichste Stelle im 5x5-Feld.

Wir haben also einige Fakten:
- Lage der Objekterkennungsfelder
- Lage des Fokusbereichs, und dass er aus der Mitte auf Quadrat 3 geschoben wurde,
- dass der Fokusbereich eine Zone ist und kein Punkt
- und dass nicht das Auge (Quadrat 3) fokussiert wurde, sondern in die Haare (die noch in der 5x5 Zone liegen)

Und meine Vermutung / Schlussfolgerung, dass dies daran liegt, dass der Fokus immer noch als Basis die 5x5-Zone nimmt.

Eine andere Vermutung ist die von Rico (#1674), dass kurzzeitig die Objekterkennung ausgesetzt hat und deshalb die ursprünglich eingestellte Zone als Fallback genommen wurde.
Dagegen spricht, dass die EXIFs aussagen, dass die Objekterkennung gearbeitet hat.
Dafür spricht, dass solche Timing-Effekte sehr tricky sind und es durchaus sein kann, dass dieses "kurzzeitig" genau zwischen EXIF-Schreiben und Fokussieren passiert.

Jede andere Vermutung, die das erklärt ... gerne her damit.

- - -

Schaut auch dieses Beispiel, diesmal Vogelerkennung: https://www.fuji-x-forum.de/topic/49015-erfahrungen-x-h2s/?do=findComment&comment=1377730

Auch hier gibt es Fakten: Lage der gelben Objekterkennungsfelder, neu-positionierte Lage der Fokus-Zone auf dem Auge, Fehlfokus irgendwo hinter dem Vogel.
Und auch hier meine Hypothese: Dieser Fehlfokus liegt daran, dass die Kamera weiterhin in der ursprünglich festgelegten Fokusfeldgröße fokussiert.

Mein "Problem":
Ich habe jede Menge gut fokussierte Bilder, mit Vogelerkennung. Aber eben nicht verlässlich.
Die Fehlfokussierungen, die ich analysiert habe, lassen sich alle damit erklären, dass die Fokusfeldgröße nicht auf die Objektgröße angepasst wird.

... und ja, wenn ich sauber fokussierte sitzende Vögel haben will, dann fotografiere ich wie mit der alten X-T3: Manueller Fokus. Klappt gut, wenn der Vogel nicht zu sehr zappelt. Dafür habe ich mir aber die X-H2S gekauft, damit die Vogelerkennung in schwierigen Situationen (BIF=Birds in Flight, und BIB=Birds in Bush) hilft. Bei BIF ist das so, bei BIB ist es Glückssache, auf die ich mich nicht verlassen kann/will.

 

bearbeitet von MichaelAC
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 1 Stunde schrieb MichaelAC:

Aber warum schreibt die Kamera dann in die EXIFs, dass und wo die Objekterkennung zugeschlagen hat?

Weil sie noch aktiv wäre. Nur der AF selbst würde eben für einen kurzen Moment auf den Fallback gehen, weil die von der Motiverkennung gelieferten Felder keinen Fokuslock bringen. Das ist wie gesagt reine Spekulation und wäre ein rein interner Vorgang. Viel wahrscheinlicher ist, dass dann einfach auf die Prädiktion zurückgegriffen wird, bis der AF wieder brauchbares Material hat. Dafür hat man schließlich einen prädiktiven Autofokus. Wird bei einem erratisch herumhopsenden Vogel zwar nicht viel bringen, aber bei den meisten normalen Motiven, die sich bewegen, durchaus.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Minuten schrieb Rico Pfirstinger:

Weil sie noch aktiv wäre. Nur der AF selbst würde eben für einen kurzen Moment auf den Fallback gehen, weil die von der Motiverkennung gelieferten Felder keinen Fokuslock bringen. Das ist wie gesagt reine Spekulation und wäre ein rein interner Vorgang. Viel wahrscheinlicher ist, dass dann einfach auf die Prädiktion zurückgegriffen wird, bis der AF wieder brauchbares Material hat. Dafür hat man schließlich einen prädiktiven Autofokus. Wird bei einem erratisch herumhopsenden Vogel zwar nicht viel bringen, aber bei den meisten normalen Motiven, die sich bewegen, durchaus.

Ja, leuchtet ein, diese Hypothese.
Da haben wir dann zwei - beide Spekulation.

Es gibt also Fälle, wo die Kombination Motiverkennung/Autofokus daneben liegt.
An sich kein Problem (das war und ist bei Automatiken immer so, dass es solche Fälle gibt) ... aber in diesem Fall ist ärgerlich, dass die Kamera mit grünem Feld vorgaukelt, dass der Fokus sitzt. Bei grobem Danebenliegen erkennt man es ihm Sucher ... aber oft eben leider erst in der Rückschau.

Also bleibt es für ich dabei: Unruhiger Hintergrund = Motiverkennung aus.

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Minuten schrieb MichaelAC:

Ja, leuchtet ein, diese Hypothese.
Da haben wir dann zwei - beide Spekulation.

Es gibt also Fälle, wo die Kombination Motiverkennung/Autofokus daneben liegt.
An sich kein Problem (das war und ist bei Automatiken immer so, dass es solche Fälle gibt) ... aber in diesem Fall ist ärgerlich, dass die Kamera mit grünem Feld vorgaukelt, dass der Fokus sitzt. Bei grobem Danebenliegen erkennt man es ihm Sucher ... aber oft eben leider erst in der Rückschau.

Also bleibt es für ich dabei: Unruhiger Hintergrund = Motiverkennung aus.

Ich gehe davon aus, dass die Kamera bei Bedarf eines der 3-4 größeren Motiverkennungsfelder verwendet, wenn das kleinere nicht schnell zum Erfolg führt. Also eine normale Felderweiterung bis zu den Grenzen des Objekterkennungsrahmens.

Ich sehe wie mjh weiterhin keine Belege dafür, dass grundsätzlich die Feldgröße des Fallback-AF-Modus verwendet wird.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Rico Pfirstinger:

Ich gehe davon aus, dass die Kamera bei Bedarf eines der 3-4 größeren Motiverkennungsfelder verwendet, wenn das kleinere nicht schnell zum Erfolg führt. Also eine normale Felderweiterung bis zu den Grenzen des Objekterkennungsrahmens.

Ich sehe wie mjh weiterhin keine Belege dafür, dass grundsätzlich die Feldgröße des Fallback-AF-Modus verwendet wird.

Klingt sehr plausibel.
Ich habe meine Fehlfokussierungsbeispiele durch geschaut: Bei den meisten ist der Fehlfokus noch innerhalb des größten Objekterkennungsrahmens - bei einigen nicht.

Bei diesen kann man mit ein bisschen guten Willen auch noch sagen, dass die die fokussierte Stelle noch innerhalb des Objekterkennungsrahmens ist. (Du hattest mal geschrieben, dass der Fokusrahmen im Sucher etwas knapp geschnitten ist und die Kamera etwas "großzügiger" sucht.

Mein Amselbeispiel (noch mal attached hier) spricht allerdings klar gegen deine Hypothese: Der Fokus ist klar außerhalb des größten Objekterkennungsrahmens, aber eben noch innerhalb der 7x7-Zone. Oder ist dein "großzügig" (siehe oben) sehr großzügig auszulegen?

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Was meiner Meinung nach für deine Hypothese spricht:

  • Fokus trifft oft in Verbindung mit Vogelerkennung. Also "guided" die Motiverkennung den Autofokus oft gut.
  • Bei Tieren (gerade kleine Lämmer fotografiert) und Menschen ist die Trefferquote sogar richtig gut. Da diese Objekte viel viel größer als Vögel sind, ist die Fokussicherheit auch im kleinsten (Augen-)Feld höher, also das vermutete "Fokus nimmt sich das nächst größere Feld" passiert seltener.
  • Es erklärt auch Beispiele wie das hier: Fokus nicht auf dem erkannten (und im Sucher grün markiertem!) Auge, sondern auf der Hecke, hinter der Blaumeise:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Aber das ist gleichzeitig ein sehr prägnantes Beispiel, wie schlecht die Vogelerkennung ist: Kleinstes Fokusfeld, exakt platziert, das Augenquadrat ist grün, Kontrast und Licht auf dem Auge, Meise sitzt still ... das hätte ohne Vogelerkennung sauber funktioniert.

Und dass im Sucher und auch in den EXIFs dieses etwaige Umschalten auf das nächstgrößere Objekterkennungsfeld nicht angezeigt wird, sondern stur das Augenquadrat grün bleibt ... das ist echt Mist.

Nee - die Vogelerkennung ist überhaupt noch nicht gut, manchmal schaltet man sie besser ab. (Siehe das Meisen-Beispiel.) Und diese falsch-positive Fokusmeldung ist großer Mist.

Die Tier- und Gesicht/Augen-Erkennung habe ich zwar nicht so oft genutzt, aber gefühlt ist die sicher, und fokussiert (bei mir) besser als ohne.

bearbeitet von MichaelAC
Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb MichaelAC:

Ich sehe in dem Bild einen roten Kreis mit rotem Kreuz drin. Das ist das 5x5 Fokusfeld.

Woher ich weiß, dass dies das 5x5-Feld ist?
1. Weil es ein Kreis ist. Fokus-Punkt wird als Rechteck mit Kreuz drin dargestellt. Zone als roter Kreis mit Kreuz drin.
2. Weil rechts in den EXIF steht: 5x5.

Das beweist doch gar nichts. Du hattest 5x5 ausgewählt, und daher steht das so in den MakerNotes der Exif-Daten. Das ist alles. Offenbar greift Deine Software darauf zurück, um einen Kreis oder ein Rechteck zur Visualisierung zu benutzen, aber das hat ja nichts mit dem zu tun, was die Kamera tatsächlich gemacht hat, da ja die Objekterkennung aktiv war.

Alle Screenshots, die Du hier gezeigt hast, zeigen, dass die Objekterkennung ein Objekt – also in diesem Fall einen Vogel – erkannt hat, mit Augen, Kopf und Körper, die jeweils gelb markiert sind. Und der Autofokus hat sich für eine Fokussierung auf eines der Augen entschieden, das mit einem Kreuz markiert ist. All das geht aus den MakerNotes hervor.

Nun spekulierst Du, dass die Kamera tatsächlich nicht auf den gewählten AF-Messpunkt fokussiert hat, sondern auf irgendein Detail in der Nachbarschaft, das innerhalb der 5x5-Zone liegt. Das mag so sein oder auch nicht (ich bezweifle, dass es so ist), aber jedenfalls deutet nichts in den MakerNotes darauf hin, dass es sich so verhielte. Im Gegenteil müsste man doch annehmen, dass die Kamera, wenn sie den AF-Messpunkt kurzentschlossen noch einmal verschöbe, das auch in den MakerNotes eintragen würde – aber das hat sie nicht getan.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor 25 Minuten schrieb mjh:

Nun spekulierst Du, dass die Kamera tatsächlich nicht auf den gewählten AF-Messpunkt fokussiert hat, sondern auf irgendein Detail in der Nachbarschaft, das innerhalb der 5x5-Zone liegt. Das mag so sein oder auch nicht (ich bezweifle, dass es so ist), aber jedenfalls deutet nichts in den MakerNotes darauf hin, dass es sich so verhielte. Im Gegenteil müsste man doch annehmen, dass die Kamera, wenn sie den AF-Messpunkt kurzentschlossen noch einmal verschöbe, das auch in den MakerNotes eintragen würde – aber das hat sie nicht getan.

Ja, da hast du einen Punkt: Das Tool wertet eventuell die "5x5" in den Maker Notes aus, um roten Kreis oder rotes Quadrat zu malen. Da habe ich mich von (ver)leiten lassen.

Keine Spekulation ist, wo die Kamera fokussiert hat. Denn ich sehe im Bild ja sehr klar, was scharf ist, was halb scharf, was unscharf.
In den gezeigten Beispielen ist es definitiv nicht scharf, wo die Kamera "da habe ich fokussiert" in den Maker Notes vermerkt hat.

Meine Spekulation (netter wäre "Hypothese") ist, woran dieser Fehlfokus liegt.
==> Ich nenne das Fehlfokus, weil es woanders (manchmal drastisch woanders) scharf ist als an der Stelle im Sucher, der grün ist (in meinen Beispielen immer das Auge). Diese Stelle ist identisch mit den vom Tool gezeichneten roten Kreis oder Quadrat. Ich zweifle nicht an, dass das Tool die Maker Notes diesbezüglich korrekt auswertet, weil ich kein Beispiel habe, wo Sucher (grünes Rechteck) und Maker Notes /  Tool (roter Kreis/Rechteck) unterschiedliches anzeigten.

Also noch einmal: Ich spekuliere nicht, dass die Kamera woanders fokussiert hat als im Sucher (grün) und den Maker Notes (rot) angezeigt wird. Das ist Fakt.
Ich spekuliere, woran das liegen könnte und was man machen kann. (Außer die Vogelerkennung abzuschalten und mit kleinem Fokuspunkt oder manuell zu fokussieren. Was ich mache, wenn ich nicht test, sondern sicher sein will, dass ein sitzender Vogel scharf ist.)

bearbeitet von MichaelAC
Link zum Beitrag
Auf anderen Seiten teilen

vor 27 Minuten schrieb MichaelAC:

Also noch einmal: Ich spekuliere nicht, dass die Kamera woanders fokussiert hat als im Sucher (grün) und den Maker Notes (rot) angezeigt wird. Das ist Fakt.

Nein, das ist schon ein bisschen komplizierter. Hier haben wir es ja mit drei Dimensionen zu tun. Der klassische Autofokus beschäftigt sich nur mit einer Dimension, nämlich der Tiefe – also der Entfernung des Motivs. Das Tracking, ob KI-basiert oder nicht, kümmert um sich die beiden anderen Dimensionen, indem es das einmal anvisierte Motiv innerhalb des Bildfelds verfolgt und dem Autofokus mitteilt, wo er messen soll.

Eine Fehlfokussierung kann also zwei Ursachen haben: Einerseits kann die Motivverfolgung versagt haben, so dass an der falschen Stelle gemessen wurde, und andererseits kann der Autofokus falsch fokussiert haben. Der Fehler kann also in der Lokalisierung des Motivs in der Horizontalen und Vertikalen liegen (Tracking-Fehler), oder in der dritten Dimension, der Tiefe (Autofokusfehler). Und in den Fällen, von denen wir hier reden, zeigen die Exif-Daten doch an, dass die Lokalisierung in der Horizontalen und Vertikalen exakt stimmte.

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Stunden schrieb mjh:

Nein, das ist schon ein bisschen komplizierter. Hier haben wir es ja mit drei Dimensionen zu tun. Der klassische Autofokus beschäftigt sich nur mit einer Dimension, nämlich der Tiefe – also der Entfernung des Motivs. Das Tracking, ob KI-basiert oder nicht, kümmert um sich die beiden anderen Dimensionen, indem es das einmal anvisierte Motiv innerhalb des Bildfelds verfolgt und dem Autofokus mitteilt, wo er messen soll.

Eine Fehlfokussierung kann also zwei Ursachen haben: Einerseits kann die Motivverfolgung versagt haben, so dass an der falschen Stelle gemessen wurde, und andererseits kann der Autofokus falsch fokussiert haben. Der Fehler kann also in der Lokalisierung des Motivs in der Horizontalen und Vertikalen liegen (Tracking-Fehler), oder in der dritten Dimension, der Tiefe (Autofokusfehler). Und in den Fällen, von denen wir hier reden, zeigen die Exif-Daten doch an, dass die Lokalisierung in der Horizontalen und Vertikalen exakt stimmte.

Aber das ist doch genau, was ich (versuche) zu sagen: Es ist eine andere Stelle im Bild scharf, als da wo das Fokusfeld liegt.
Meine Beispiele zeige doch genau das:
- Horizontale und Vertikale (also die Motiverkennung) liegen da, wo sie sein müssen. Auf dem Auge.
- Und die Motiverkennung hat (so sagen es die Maker Notes) auch das Fokusfeld auf das Auge gelegt. Da wo es sein sollte.
- Aber der Fokus liegt ein paar Zentimeter hinter der Augen-Ebene (Backfokus).

Aus letzterem habe ich geschlossen ("Spekulation", ja), dass das Fokusfeld woanders liegt oder eine andere Größe hat.
Rico hat zwei andere Hypothesen: Kurzer Aussetzer der Motiv-Verfolgung oder Fokusmodul findet nichts im kleinen Feld, nimmt deshalb ein größeres, und in dem größeren ist was anderes kontrastreicher als das Auge.

Also irgendwo sagen wir doch alle dasselbe: Motiverkennnug hat wohl funktioniert, aber aus irgendeinem Grund gibt es einen Backfokus.
Und rätseln, woran das liegen kann.

- - - 

Deine Beschreibung finde ich bisher die klarste Erklärung des Zusammenspiels von Motiverkennung und Autofokus:
a. Motiverkennung ist für Horizontale und Vertikale (x,y) zuständig.
b. Autofokus-Modul ist für Tiefe (z) zuständig.

a. funktioniert m.E. ziemlich gut, vor allem sicher.
b. aus irgendeinem Grund nicht immer gut.

- - -

Um der Spekulation noch eins drauf zu setzen, hier ein Bauchgefühl von heute:

  • AF-S, Fokuspunkt size 1, keine Vogelerkennung, also ich habe das kleine Fokusfeld aufs Auge des Vogels gesetzt:
    Wenn ich treffe (also der Vogel ruhig genug sitzt): scharf
  • AF-S oder AF-C, ebenfalls Punkt size 1, mit Vogelerkennung, ich lasse die Motiverkennung arbeiten, bis bei Half-Press das Augenquadrat auf dem Auge sitzt und grün ist, dann Full-Press: sehr oft Backfokus (Hecke dahinter, Zweig dahinter)

Jetzt die Spekulation: "Das kann doch nur daran liegen, dass das Fokusmodul an der falschen Stelle sucht, also größer ist oder falsch platziert ist." Weil wenn ich selbst den kleinsten Punkt platziere, dann klappt der Autofokus.

Aber mit lebenden Vögeln ist so eine Aussage sehr schwierig - denn es gibt ja keine zwei gleichen Bilder/Fokus/Licht-Situationen. Also: Spekulation 😉

 

bearbeitet von MichaelAC
Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb MichaelAC:

Woher ich weiß, dass dies das 5x5-Feld ist?
1. Weil es ein Kreis ist. Fokus-Punkt wird als Rechteck mit Kreuz drin dargestellt. Zone als roter Kreis mit Kreuz drin.
2. Weil rechts in den EXIF steht: 5x5.

Da steht das, was von dir im AF-Menü eingestellt wurde – was sollte dort auch sonst stehen? In diesem Fall steht da also also der von dir eingestellte AF-Modus, der bei Versagen einer aktivierten Motiverkennung auch zum Einsatz kommt (Fallback) und bei der Motiverkennung außerdem beeinflusst, wo und in welchem Umkreis die Kamera überhaupt nach passenden Motiven sucht (bzw. erkannte Motive offiziell zur Kenntnis nimmt und als solche markiert).

Wie viele AF-Pixel die Kamera am Ende fürs Fokussieren konkret verwendet hat, steht nicht in den EXIF-Daten. Wir können also nicht wissen, auf welche Fläche rund um die Fokusposition (immerhin die kennen wir, da die Kamera sie in die EXIF-Daten schreibt) die Kamera das Feld tatsächlich erweitert hat. Wir kennen auch nicht seine Form. Das steht offenbar nicht in den EXIF-Daten (oder wird nicht herausgezogen). Es kann sein, dass die Kamera auf eins der bis zu drei anderen Rahmen zurückgreift, es kann auch sein, dass sie den aktuellen Rahmen einfach so lange in alle Richtungen erweitert, bis der PDAF etwas findet, mit dem er arbeiten kann. Ehe die Kamera einen AF-Fehler ausspuckt und (bei Focus Prio) gar keine Aufnahme macht, wird sie sicher lieber weitersuchen (also das Suchumfeld erweitern), bis sie etwas zum Fokussieren findet. 

Natürlich kann es sein, dass es einen FW-Fehler gibt in der Form, dass die angezeigte Fokusposition unter bestimmten Bedingungen nicht mit der verwendeten Fokusposition übereinstimmt. Das hatten wir tatsächlich schon mehrmals, einmal etwa bei der X-Pro2, wo bestimmte(!) Single-Point-Feldgrößen und Positionen intern an einer Achse gespiegelt wurde. Das dauerte ein paar Monate, bis Fuji diesen obskuren Fehler erkannt und beseitigt hat, offiziell zugegeben wurde er glaube ich nie. Wenn man da beispielsweise mit dem zweitkleinsten AF-Feld rechts unten fokussierte, lag der Fokus in Wirklichkeit links unten oder rechts oben (oder so, ich schildere hier nur das Prinzip des Fehlers). Vermutlich hatte jemand im Code einmal + und - vertauscht. Das sind die typischen Fehler, die bei FW-Updates dann pauschal unter "fixed some minor bugs" abgehandelt werden. Deshalb rate ich ja auch immer, solche Updates zu installieren – insbesondere wenn die Zeile mit den "minor bugs" drinsteht. Die eigentliche Übersetzung dafür lautet nämlich oft "wir haben außerdem Fehler beseitigt, die so schwerwiegend und peinlich sind, dass wir nicht darüber sprechen möchten".

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Am 10.4.2023 um 06:06 schrieb Rico Pfirstinger:

Wie viele AF-Pixel die Kamera am Ende fürs Fokussieren konkret verwendet hat, steht nicht in den EXIF-Daten. Wir können also nicht wissen, auf welche Fläche rund um die Fokusposition (immerhin die kennen wir, da die Kamera sie in die EXIF-Daten schreibt) die Kamera das Feld tatsächlich erweitert hat. Wir kennen auch nicht seine Form. Das steht offenbar nicht in den EXIF-Daten (oder wird nicht herausgezogen). Es kann sein, dass die Kamera auf eins der bis zu drei anderen Rahmen zurückgreift, es kann auch sein, dass sie den aktuellen Rahmen einfach so lange in alle Richtungen erweitert, bis der PDAF etwas findet, mit dem er arbeiten kann. Ehe die Kamera einen AF-Fehler ausspuckt und (bei Focus Prio) gar keine Aufnahme macht, wird sie sicher lieber weitersuchen (also das Suchumfeld erweitern), bis sie etwas zum Fokussieren findet. 

 

Das ist eine gute Zusammenfassung der bisherigen "Spekulationen". Danke.

Demnach haben wir also die Hypothese, dass 

  • Bei eingeschalteter Vogelerkennung
  • die Kamera für den Fall, dass im erkannten Bereich (Auge) kein Fokus gefunden werden kann ...
    ... die Kamera den Bereich zum Fokussieren vergrößert. (Selbst, wenn ich nur Punkt Size 1 vorgebe.)

Das erratische Fokusverhalten bei unruhigen Hintergründen wird mit dieser Hypothese gut erklärt.

Diese selbständige Vergrößern des Fokusbereichs über die von mir vorgegebene Größe (Punkt, Zone) ist aber
1. ein völlig anderes Verhalten als bei ausgeschalteter Objekterkennung
2. bei unruhigen Hintergründen praktisch unbrauchbar, weil "grünes Augenfeld" eben nicht bedeutet "Auge scharf".

Gut zu wissen --> Vogelerkennung nur, wenn Hintergründe clean sind.

@all: Bitte jetzt keine Beispiele à la "bei mir hat die Kamera aber bei unruhigem Hintergrund" aufs Auge fokussiert.
--> Ja, klar, positive Fälle gibt es. Sicher auch viele. 
--> Aber eben auch viele (sehr viele!) Fehlfokussierungen, obwohl das kleine Augenfeld grün war.

bearbeitet von MichaelAC
Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Minuten schrieb MichaelAC:

Diese selbständige Vergrößern des Fokusbereichs über die von mir vorgegebene Größe (Punkt, Zone) ist aber
1. ein völlig anderes Verhalten als bei ausgeschalteter Objekterkennung

Und wie sollte es anders sein? Bei aktiver Objekterkennung übernimmt die Kamera die Kontrolle über die Größe des AF-Messfelds; Du kannst sie also nicht mehr selbst wählen. Das macht auch durchaus Sinn, denn schließlich weiß die Kamera, auf was sie scharfstellen will. Das heißt nun aber nicht, dass sie das immer genau richtig macht; hier müssen Entscheidungen in Abwesenheit vollständiger Informationen getroffen werden, und zwar möglichst schnell; Fehler sind dabei nicht immer vermeidbar.

Die Sache wäre einfacher, wenn die Kamera nicht nur wüsste, in welchem Rechteck sich ein Vogel, ein Vogelkopf beziehungsweise ein Vogelauge befindet, sondern auch, wo beispielsweise der Vogel endet und der Hintergrund beginnt. Es gibt neuronale Netze, die solche Konturen ermitteln können, aber vermutlich kann es Fujis Objekterkennung noch nicht. Ich weiß auch gar nicht, ob das so ohne weiteres möglich wäre, denn dafür bräuchte man ein scharfes Bild, womit sich die Katze (oder der Vogel) in den Schwanz beißt: Es geht hier ja darum, durch eine optimale Fokussierung überhaupt erst mal ein scharfes Bild zu erzeugen.

Link zum Beitrag
Auf anderen Seiten teilen

Vielleicht mache ich ja auch etwas falsch oder habe es nicht verstanden. Aber die von mir vorgegebene Zone für den AF wird von der Objekterkennung völlig ignoriert. Da wird im ganzen Bild nach Augen gesucht, zum Beispiel. Es wäre doch auch von der benötigten Rechenleistung her besser, wenn die Kamera nur dort oder im engeren Umfeld suchen würde, wo man überhaupt den Fokus haben möchte.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb frarie:

Es wäre doch auch von der benötigten Rechenleistung her besser, wenn die Kamera nur dort oder im engeren Umfeld suchen würde, wo man überhaupt den Fokus haben möchte.

Das ist ja auch so. Kannst Du gut am TV nachvollziehen. Nimm ein Objektiv, dass vom Winkel her etwas mehr aufnimmt als Dein TV. Setze bei aktiviertem Eye-AF einen kleinen Einzel AF Punkt z.B. rechts neben das TV. Du wirst merken, dass der Eye-AF dann nicht oder seltener anspringt als wenn Du das  Feld Mitte ins TV oder nah zu dortigen Gesichtern platzierst oder ein größeres Feld nimmst bzw. Zone. So kannst Du auch bei mehreren Gesichtern Gesichter wechseln.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb mjh:

Und wie sollte es anders sein? Bei aktiver Objekterkennung übernimmt die Kamera die Kontrolle über die Größe des AF-Messfelds; Du kannst sie also nicht mehr selbst wählen. Das macht auch durchaus Sinn, denn schließlich weiß die Kamera, auf was sie scharfstellen will. Das heißt nun aber nicht, dass sie das immer genau richtig macht; hier müssen Entscheidungen in Abwesenheit vollständiger Informationen getroffen werden, und zwar möglichst schnell; Fehler sind dabei nicht immer vermeidbar.

Die Sache wäre einfacher, wenn die Kamera nicht nur wüsste, in welchem Rechteck sich ein Vogel, ein Vogelkopf beziehungsweise ein Vogelauge befindet, sondern auch, wo beispielsweise der Vogel endet und der Hintergrund beginnt. Es gibt neuronale Netze, die solche Konturen ermitteln können, aber vermutlich kann es Fujis Objekterkennung noch nicht. Ich weiß auch gar nicht, ob das so ohne weiteres möglich wäre, denn dafür bräuchte man ein scharfes Bild, womit sich die Katze (oder der Vogel) in den Schwanz beißt: Es geht hier ja darum, durch eine optimale Fokussierung überhaupt erst mal ein scharfes Bild zu erzeugen.

Hallo Namensvetter.

Ja, ist einleuchtend: Wenn ich KI aktiviere, gebe ich Kontrolle ab. Es mir war nur nicht klar, wie viel Kontrolle ich abgebe.

Jetzt, wo ich es weiß, werde ich damit zurecht kommen:

  • Objekterkennung dort einsetzen, wo es "verfolgungstechnisch" angebracht ist. Ich es selber also nicht hinkriege: BIF - Birds in Flight
  • Und nicht einsetzen, wo ich vermuten muss, dass es Probleme gibt: BIB - Birds in Bush

Zum "Vogel in den Schwanz beißen": Die jetzige Fuji-Implementierung kriegt es ja erstaunlich gut hin, den Vogel zu entdecken und auch grob zu fokussieren. Da habe ich durchaus Hoffnung, dass neuronale Netze aus diesem "halbscharf" die Kontur ermitteln können.

Wir sehen ja gerade erst den Anfang der "operativen KI" in den Kameras ... da wird es in Zukunft noch viele Verbesserungen geben.
Mal schauen, ob noch für diese Prozessorgeneration. Wenn die Rechenleistung ausreicht, können wir durchaus auf Firmware-Verbesserungen hoffen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb frarie:

Vielleicht mache ich ja auch etwas falsch oder habe es nicht verstanden. Aber die von mir vorgegebene Zone für den AF wird von der Objekterkennung völlig ignoriert. Da wird im ganzen Bild nach Augen gesucht, zum Beispiel. Es wäre doch auch von der benötigten Rechenleistung her besser, wenn die Kamera nur dort oder im engeren Umfeld suchen würde, wo man überhaupt den Fokus haben möchte.

Die Zone gibt die Priorität vor: Innerhalb wird das Objekt schnell(er) gefunden, außerhalb deutlich langsamer und auch weniger sicher.

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Minuten schrieb MichaelAC:

Ja, ist einleuchtend: Wenn ich KI aktiviere, gebe ich Kontrolle ab. Es mir war nur nicht klar, wie viel Kontrolle ich abgebe.

In diesem Fall musst Du zwangsläufig die Kontrolle abgeben, da es ja ein kleiner oder ein großer Vogel sein kann (relativ auf das Bild bezogen). Die Kamera weiß, einen wie großen Teil des Bildes er (und sein Kopf und seine Augen) einnimmt, und Du willst bestimmt nicht jedes Mal die AF-Feldgröße manuell daran anpassen. Wenn Du die nötige Muße hättest, bräuchtest Du die KI nicht.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb MichaelAC:

Lightroom Classic und Photoshop machen das ja schon recht gut ("Maskieren Motiv" oder "Maskieren Object" mit Vorgabe).

Wie ich schon schrieb: „Es gibt neuronale Netze, die solche Konturen ermitteln können“. Aber die arbeiten halt mit scharfen Bildern und müssen nicht erst fokussieren.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...