Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Ich stolpere hin und wieder über die Auflösung der Kameras. Bei der X-T2 ist sie mit 24.3 MP (6000 × 4000) angegeben, bei der X-T3 mit 26.1 MP (6240 × 4160). Wie kommen diese Werte zustande?

Wenn ich plump 4000 mal 6000 rechne, komme ich auf glatt 24 Millionen Pixel (24 Megapixel). Dabei gehe ich davon aus, dass ein Megapixel einer Million Pixeln entspricht (wie das im SI-System üblich ist). Ein Wikipedia-Artikel behauptet, dass ein Megapixel 1024 mal 1024 Pixel wären - was ich für seltsam halte. Das würde außerdem dazu führen, dass 4000 mal 6000 Pixel deutlich weniger als 24 Megapixel wären.

Was übersehe ich hier? Gibt es vielleicht "tote" Pixel am Rand des Sensors, die nicht für die Belichtung benutzt werden, aber in der Angabe der Megapixel auftauchen?

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb ex'ratt:

Gibt es vielleicht "tote" Pixel am Rand des Sensors, die nicht für die Belichtung benutzt werden, aber in der Angabe der Megapixel auftauchen?

Klar, es gibt immer zusätzliche Pixel an den Rändern, die für andere Zwecke verwendet werden. Und natürlich braucht man beim Demosaicing auch etwas Overhead. Es gibt auch Konverter, die alle verfügbaren Pixel verwenden, etwa Photo Ninja.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Die interne Software und auch RAW-Entwickler benötigen noch einen gewissen Überhang, um die Ränder sauber interpolieren zu können.
Einige Konverter erlauben es, diesen Rand einzustellen.

Ein weiterer Grund ist die Objektiv-Korrektur, die für einen großen Teil der Objektive angewendet wir. Da gehen je nach Verfahren auch einige Spalten bzw. Reihen verloren

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Minuten schrieb ex'ratt:

Ein Wikipedia-Artikel behauptet, dass ein Megapixel 1024 mal 1024 Pixel wären - was ich für seltsam halte. Das würde außerdem dazu führen, dass 4000 mal 6000 Pixel deutlich weniger als 24 Megapixel wären....

2, 4, 8, 16, 32, 64, 128 ......
die Zweierpotenz des Binärsystem ist der Schuldige. Der Wiki Artikel hat eigentlich recht. Aber trau schau wem die Werbeabteilungen vermischen gerne das Binär mit dem Dezimalsystem auch wenn sich die Beiden nicht unbedingt mögen!

 

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Aus demselben Grund hat die GFX 100 im Kleinbildmodus auch mehr Auflösung als die neue Sony A7R4. Fuji kann hier das KB-Format komplett nutzen und sich den dafür benötigten Overhead einfach aus dem Mittelformatbereich des Sensors holen. Sony kann das nicht, somit verbleibt am Ende eine geringere nutzbare Auflösung. Die GFX 100 ist somit auch nach September noch die KB-Kamera mit der höchsten Auflösung.  

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Minuten schrieb Christian Frank:

2, 4, 8, 16, 32, 64, 128 ......
die Zweierpotenz des Binärsystem ist der Schuldige. Der Wiki Artikel hat eigentlich recht. Aber trau schau wem die Werbeabteilungen vermischen gerne das Binär mit dem Dezimalsystem auch wenn sich die Beiden nicht unbedingt mögen!

Bei Festplatten ist diese Marketing-Schummelei seit Jahren gang und gäbe.

Link zum Beitrag
Auf anderen Seiten teilen

vor 23 Minuten schrieb Christian Frank:

Aber trau schau wem die Werbeabteilungen vermischen gerne das Binär mit dem Dezimalsystem auch wenn sich die Beiden nicht unbedingt mögen!

Derselbe Wiki-Artikel nimmt in der Grafik unten dann selbst die gebräuchlichen Dezimalsystemwerte und schreibt z.B. 24 MP bei 6000x4000. Eigentlich müsste er dann nach seiner eigenen Definition jedoch 22.89 MP schreiben. 

Das Ganze ist also Besserwisserei im ersten Absatz, die im selben Artikel unten dann schon nicht mehr gilt. Im übrigen stehen in den Specs der meisten Kameras immer zwei Angaben: die physikalische Auflösung des Sensors und die nutzbare Auflösung, und zwar beides in ganz normalen Dezimalsystem-MPs, so wie es der Kunde auch erwartet.

Link zum Beitrag
Auf anderen Seiten teilen

Tatsächlich ist das durch die Farbmatrizen ein recht interessantes Thema. Durch die Bayer-Matrix- oder Xtrans-Sensoren (anderes Muster, mehr Grün als Bayer) hat man immer nur eine Farbe an Ort und Stelle, aber die Bilder werden hinterher interpoliert, um alle drei Farben an derselben Stelle zu haben. Da jede Interpolation aber erst einmal stetig ist, kann man aus jedem Chip theoretisch beliebig viele Pixel gewinnen. Tatsächlich benutzen die Hersteller aber Formeln, um sinnvolle Größen für ihre Chips bei der Interpolation zu finden; und gehen natürlich ein Stück drüber hinaus, ist schließlich ein Wettbewerb darin, wer die meisten Megapixel hat.

Dadurch ist aber eines gesichert: Der Sensor hat noch viel mehr Pixel, wenn man jedes Farbpixel einzeln zählt. Als Schwarz-Weiß ohne Farbfilter wäre die Auflösung also viel höher. Natürlich begrenzt die Optik die effektiv nutzbare Auflösung, aber alleine als Hintergrundwissen sind die Megapixel wirklich interessant.

Nicht aber beim Fotografieren, da sind wir schon lange bei Größenordnungen, dass ganz andere Faktoren viel wichtiger sind als die Auflösung des Sensors.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb ex'ratt:

Ein Wikipedia-Artikel behauptet, dass ein Megapixel 1024 mal 1024 Pixel wären - was ich für seltsam halte.

Das wäre nicht nur seltsam, das ist auch Quatsch. Wenn es um Speicherkapazität geht, rechnen Informatiker (wie ich) gerne mit Zweierpotenzen – 1024 ist für den Informatiker eine „rundere“ Zahl als 1000, weil man exakt 10 Bits braucht, um 1024 Speicherplätze zu adressieren (statt 9,97 Bits für 1000 Speicherplätze). Bei der Zählung der Megapixel spielt das aber keine Rolle, und daher gilt 1 Megapixel = 1000000 Pixel.

Ein Sensor hat eine bestimmte Zahl von Pixeln, die größer als die im Datenblatt genannte Megapixelzahl ist. Es gibt einmal die (kaum je genannte) Gesamtzahl der Pixel, die etwas geringere Zahl der effektiven Pixel (also der Pixel, die in irgendeiner Weise in die Bildberechnung eingehen), und schließlich die Zahl der Pixel im Bild – das ist die Megapixelzahl. Einige Pixel am Rand, die vor Lichteinfall geschützt sind, werden als Referenzpixel ausgewertet, finden sich aber nicht im Bild wieder, und Pixel jenseits des letztendlichen Bildausschnitts werden für das Demosaicing benötigt, da man die Farben eines Bildpixels teilweise aus den Nachbarpixeln interpolieren muss und die Nachbarpixel eines Pixels am Bildrand teilweise außerhalb des Bildes liegen.

Ein Sonderfall sind Überformatsensoren, die deutlich mehr Pixel enthalten, als man letztendlich im Bild sieht. Der Hintergrund ist der, dass man unterschiedliche Seitenverhältnisse wie 3:4, 3:2 oder 16:9 realisieren möchte, ohne das Bild beschneiden zu müssen. Der Sensor wird dann so groß gewählt, dass Bilder in allen drei Seitenverhältnissen den Bildkreis maximal ausnutzen und daher auch denselben diagonalen Bildwinkel erfassen. Ein solcher Überformatsensor enthält zwar mehr Pixel, als man am Ende sieht, aber diese Pixel liegen außerhalb des rechteckigen Bildausschnitts oder sogar außerhalb des Bildkreises.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Diemotma:

Der Sensor hat noch viel mehr Pixel, wenn man jedes Farbpixel einzeln zählt.

Die Farbpixel werden immer einzeln gezählt! So legt es ein japanischer Industriestandard fest. Ein Bayer-Sensor mit 24 Megapixeln hat 12 Millionen grünempfindliche, 6 Millionen rotempfindliche und ebenfalls 6 Millionen blauempfindliche Sensorpixel. Beim Demosaicing entstehen aus 24 Millionen nur für eine Grundfarbe empfindlichen Sensorpixeln 24 Millionen RGB-Bildpixel, indem die fehlenden Farben aus den Nachbarpixeln interpoliert werden.

Bei Fujis X-Trans-Sensoren sind 5/9 der Sensorpixel grünempfindlich und je 2/9 rot- beziehungsweise blauempfindlich. Bei 24 Megapixeln macht das 13,33 Millionen grünempfindliche und je 5,33 Millionen rot- beziehungsweise blauempfindliche Sensorpixel.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb mjh:

Es gibt einmal die (kaum je genannte) Gesamtzahl der Pixel, die etwas geringere Zahl der effektiven Pixel (also der Pixel, die in irgendeiner Weise in die Bildberechnung eingehen), und schließlich die Zahl der Pixel im Bild – das ist die Megapixelzahl. Einige Pixel am Rand, die vor Lichteinfall geschützt sind, werden als Referenzpixel ausgewertet, finden sich aber nicht im Bild wieder, und Pixel jenseits des letztendlichen Bildausschnitts werden für das Demosaicing benötigt, da man die Farben eines Bildpixels teilweise aus den Nachbarpixeln interpolieren muss und die Nachbarpixel eines Pixels am Bildrand teilweise außerhalb des Bildes liegen.

auf dem Datenblatt sieht das dann so aus:

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

konkret ist das der Basissensor der im X-Trans IV verwendet wird. 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...