Jump to content

Was machen wir mit all unseren Kameras, wenn die rauschfreie kommt?


althaus

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 16 Minuten schrieb Allradflokati:

Nö - mir geht es darum, dass bei der "Unscharf-Rechnerei" das Programm entscheidet, welche Bildanteile vor und welche hinter der Fokusebene liegen - und damit einen nicht unerheblichen Teil zur Bildanmutung beitragen.
Bei durch die Linsen direkt erzeugten Unschärfe liegt (nach Faustformel - und nicht allgemeingültig ;) ) die Bildschärfe etwa 1/3 vor und 2/3 hinter der eingestellten Fokusebene.
Wie soll ein Programm entscheiden, wie die zweidimensionalen Bilddaten in der Tiefe gestaffelt sind, um diesen "physikalischen" Schärfeverlauf zu erreichen?
Wenn eine Person in einer Umgebung steht, wo viele andere Objekte in der Tiefe gestaffelt sind und nur diese eine Person scharf abgebildet im errechneten Bild erscheint, ist es ein mehr als "unnatürlicher" Bildeindruck. Wenn Bildteile in der gleichen Entfernung unscharf und nicht scharf dargestellt werden, kann ich gleich einen Malkasten nehemen ;) .

So ähnlich wie bei den Mondbildern mit den von den Astronauten abgedeckten Kreuzen (Achtung - Verschwörungtheorie ;) ) .
Das man die menschliche Wahrnehmung anhand von Bildern leicht täuschen kann, hat M.C. Escher ja eindrucksvoll gezeigt.

Durch die Dualkamera (zwei gleichzeitige Aufnahmen mit verschiedenen Brennweiten und Versatz zwischen den beiden Kameamodulen) auf der Rückseite oder durch die 3D IR-Kamera in Kombination mit dem Dot-Projektor auf der Vorderseite hat das IPhone physikalisch/mathematisch ermittelte Tiefeninformationen. Damit wird gerechnet. 

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

ich denke schon das wenn alle verfügbaren Fokuspunkte genutzt werden eine Art 3d Scan erzeugt wird- sprich ein Relief bei dem sich die Schärfeebene sehr präzise errechnet werden kann. Es gibt Applikationen die sogar ein 3d Dreiecksflächennetz aus diesen Informationen generieren.

(vor Jahren hatte ich mal eine Sony F717, die hat ein Lasergitter als Fokushilfe genutzt und so die Entfernung gemessen)

Link zum Beitrag
Auf anderen Seiten teilen

Aber das Kinect ist schon viele Jahre alt.

Die Entwicklung geht hier rasant voran, weil sie essenziell fürs autonome Fahren ist. Mit Entwicklungsbudgets und Brainpower wo Firmen wie Canon oder Fujifilm sich die Augenreiben.

Verbesserungen bei Bildsensoren für Consumerkameras fallen hier meist in der sekundären Verwertung der Entwicklung von Industriesensoren ab.

Und wenn wir von Software reden, dann ist die Camera Remote App das was Fujifilm hinbekommt. Nur zum Vergleich mit Konzernen wie Google, Apple etc.

was man Fuji nicht abstreiten kann,  dass sie wissen was Fotografie ausmacht mit großer Erfahrung mit analogem Farbfilm. Das sieht man bei den Filmsimulationen. Bei Sony aber auch bei Apple bis IOS 10 hatten die Farbprofile, Kreativfilter immer etwas von Kinder-Mallkasten und Spielerei.

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...