Jump to content

Ausleserate, Serienbild und Highspeed-Video ?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich hätte mal eine Frage im Zusammenhang mit Auslesegeschwindigkeit des Sensors und den technischen Abläufen bei (Highspeed)Videos:

Das Auslesen der Bildinformation aus dem Sensor dauert ja eine gewisse Zeit, unabhängig von der eingestellten Belichtungszeit (ca. 1/20s, wenn ich mich recht erinnere). Daher auch der Rolling-Shutter Effekt beim ES. Ich schätze, das wird dann auch eine gewisse technische Grenze für die Serienbild-Geschwindigkeit sein: Bei 1/20s Dauer zum Auslesen eines Bildes kann man nur maximal 20 Bilder pro Sekunde machen - egal wie schnell der mechanische Verschluss hin- und herflitzen kann.

Aber wie funktioniert das nun bei Videos: schon bei 30 Bilder/s wird doch die Zeitdauer unterschritten, in der ein Bild im Sensor ausgelesen wird. Und bei Highspeed-Videos noch mehr.
Hat da jemand eine Erklärung für mich? Danke!

Link zum Beitrag
Auf anderen Seiten teilen

Schnellantwort:

-die Sensoren sind mittlerweile schneller, ich würde meinen, dass der 26-MP-Sensor bei etwas 1/80 s liegt
-man kann Zeit sparen, indem man nur jede zweite Zeile ausliest und den Rest rät (->Qualitätsverlust)
-man kann einen kleineren Bereich auslesen, statt des ganzen Sensors (->Video-Crop, somit letztlich auch mit einem Qualitätsverlust)

Link zum Beitrag
Auf anderen Seiten teilen

Außerdem kann man die Zahl der digitalisierten Bits reduzieren, um die Auslesegeschwindigkeit zu erhöhen.

Nicht zu vergessen: Der Sensor muss ja auch ausgelesen werden, um ein Sucherbild zu erzeugen, und dabei werden noch höhere Bildraten als im Videomodus erreicht.

Link zum Beitrag
Auf anderen Seiten teilen

D.h. praktisch geht es immer mit Qualitätsverlust einher?

Einen einfachen Crop halte ich ja für weniger wahrscheinlich: Wenn sich die Maße der benutzten Sensorfläche/-größe ändern, verändert sich ja der Objektiv-Eindruck: 35mm als Normalbrennweite APS-C, wäre dann ja nicht mehr die Normalbrennweite der verbliebenen genutzten Sensorfläche bei Video.

Könnte man also nur jede zweite Zeile, jeden zweiten Pixel auslesen - aber ob es dann immer zur Filmauflösung passt? 4k wird ja (ungefähr) durch 4k horizontale Pixel definiert (die Höhe dann entsprechend weniger - https://de.wikipedia.org/wiki/4K_(Bildauflösung) ) - das mappt nicht so richtig auf die 6240 x 4160 Pixel einer X-T4. Da klingt es in meinen Augen doch wahrscheinlicher, daß der gesamte Sensor (alle Pixel) ausgelesen wird und erst dann skaliert wird.

@mjh meintest Du mit "Zahl der digitalisierten Bits", daß weniger Bits pro Pixel ausgelesen werden - quasi eine geringere Farbtiefe? D.h. ein Standbild erreicht (unabhängig von Kodierungsverlusten durch den Video-Codec) niemals die Qualität eines Einzelbildes?

Aufgezeichnet und abgespeichert wird aber keine Sammlung von RAW Daten, Bild-für-Bild-für-Bild, sondern ein bereits umgerechnetes und kodiertes Video. D.h. die RAW Daten müssen pro Frame schon in ein digitales Bild umgewandelt werden (mit RAW-Interpretation und Filmsimulation etc.) und diese Abfolge von Bildern zu einem Video kodiert werden. Das alles in Echtzeit. Der Aufwand kommt ja dann zur Dauer der Sensor-Auslesung noch hinzu.

Ist schon beeindruckend!

Link zum Beitrag
Auf anderen Seiten teilen

vor 34 Minuten schrieb EchoKilo:

Könnte man also nur jede zweite Zeile, jeden zweiten Pixel auslesen - aber ob es dann immer zur Filmauflösung passt? 4k wird ja (ungefähr) durch 4k horizontale Pixel definiert (die Höhe dann entsprechend weniger - https://de.wikipedia.org/wiki/4K_(Bildauflösung) ) - das mappt nicht so richtig auf die 6240 x 4160 Pixel einer X-T4. Da klingt es in meinen Augen doch wahrscheinlicher, daß der gesamte Sensor (alle Pixel) ausgelesen wird und erst dann skaliert wird.

@mjh meintest Du mit "Zahl der digitalisierten Bits", daß weniger Bits pro Pixel ausgelesen werden - quasi eine geringere Farbtiefe? D.h. ein Standbild erreicht (unabhängig von Kodierungsverlusten durch den Video-Codec) niemals die Qualität eines Einzelbildes?

Line Skipping, also das Auslesen nur eines Teils der Zeilen, ist eine gängige Methode, den Sensor für Videoaufnahmen schneller auszulesen. Line Skipping hat den Nachteil, dass Moiré entstehen kann. Ob auch die Bittiefe herabgesetzt wird und wenn ja bei welcher Einstellung, weiß ich nicht, aber jedenfalls bieten übliche Sensoren diese Option.

Die Canon EOS R5 beispielsweise kann 4K-Video entweder mit Line Skipping aufnehmen – oder indem ein volles 8K-Bild ausgelesen und dann auf 4K heruntergerechnet wird. Die zweite Variante erzeugt eine deutlich höhere Bildqualität, aber dafür heizt sich die Kamera dabei schnell auf. Bei Line Skipping passiert das nicht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb EchoKilo:

Einen einfachen Crop halte ich ja für weniger wahrscheinlich: Wenn sich die Maße der benutzten Sensorfläche/-größe ändern, verändert sich ja der Objektiv-Eindruck: 35mm als Normalbrennweite APS-C, wäre dann ja nicht mehr die Normalbrennweite der verbliebenen genutzten Sensorfläche bei Video.

Genau das wird/wurde aber tatsächlich gemacht. Ich selbst habe mit Video wenig am Hut, daher habe ich das alles nicht so im Hinterkopf präsent. Mir ist aber so, als ob das tatsächlich sogar mal bei Fuji innerhalb der gleichen Sensorgeneration unterschiedlich (Crop vs Line Skipping) gehandhabt wurde. 

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

@MadCyborg, @mjh - danke für Eure Antworten! Ich wusste über diese Methoden nicht Bescheid.

Beim zweiten Nachdenken könnte es auf das Line Skipping hinweisen, dass beim Umschalten auf Video ja das Bildformat verändert. Sowas 16:9 ähnliches mit weniger Zeilen in der Höhe. 

Aber mir ist noch nie aufgefallen, dass beim Umschalten plötzlich der Bildwinkel enger wird (Crop). Muss ich mal drauf achten.

Obwohl, 16:9 ist ja auch ein Crop - die Bilder werden ja nicht gestaucht, sondern oben und unten etwas abgeschnitten.

Link zum Beitrag
Auf anderen Seiten teilen

Der Beschnitt oben und unten dient nur dazu, ein Seitenverhältnis von 16:9 herzustellen. Bei Full-HD-Video wurde das Bildfeld ansonsten nie beschnitten – außer zur Realisierung eines digitalen Bildstabilisators: Der Sensor wird dann zwar in voller Breite ausgelesen, aber nur ein Ausschnitt daraus verwendet, der dynamisch den Kamerabewegungen nachgeführt wird, um den Bildstand zu stabilisieren.

Bei 4K verwenden manche Kameras einen Crop, weil die Sensorauflösung schlecht zu 4K passt. Dann ist es einfacher, einen gut passenden Ausschnitt zu verwenden. Manche Sensorauflösungen passen dagegen sehr gut, etwa 12 Megapixel bei MFT. Das Problem ist, dass man bei der schrittweisen Steigerung der Megapixelzahlen erst mal einen Bereich durchschreiten muss, in dem 4K Schwierigkeiten macht, bis man schließlich zu noch höheren Auflösungen kommt, die wieder gut geeignet sind. Wenn der Sensor und der Prozessor es hergeben, kann man aber natürlich auch die ganze verfügbare Sensorbreite nutzen und die Bilder passend skalieren.

Link zum Beitrag
Auf anderen Seiten teilen

Dann bleibt also zur Beschleunigung:
- Crop (andere Bildwirkung, geringeres Datenvolumen)
- Line Skip (Reduktion des Ausleseaufwandes/Datenvolumen, Gefahr Moire)
- geringere Bittiefe (Reduktion Ausleseaufwand, geringere Farb- und Helligkeits-Auflösung)
- oder generell schnellere Sensorauslesung (Technik-Fortschritt)

Und was man bei Fuji benutzt, weiß man nicht genau. Trotzdem verblüffend für mich, daß aktuell solche Highspeedvideos möglich sind: Kürzeste Zeiten für einen Frame,  Inklusive Sensor belichten, Sensordaten-Auslesen, Bild generieren, evtl. Format runterrechnen und Video kodieren. Schreiben der Daten kommt noch hinzu, aber das ist ja eine andere Baustelle.

Danke für die Hintergrundinformationen!
Interessant, wo man die gleichen Techniken wiederfindet: Digitale Stabilisierung durch Crop, Sportbildmodus durch Crop. usw.

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...