Jump to content

Liefert Fujifilm genug Innovation im X- und Gfx- System?


Empfohlene Beiträge

vor 5 Stunden schrieb bastibe:

Nur als Randbemerkung: in den Rechenverfahren (Entrauschung, Vergrößerung, Verkleinerung) werden die Pixel in der Regel als Punkte gerechnet, nicht Quadrate. Im Sensor sind sie wegen der Mikrolinsen glaube ich eher Kreisförmig. Und auf dem Monitor haben sie eine oft unregelmäßige Trapezform, da die Subpixel oft leicht versetzt zueinander angeordnet sind.

Ah ja, die Mehrdeutigkeit des Begriffs „Pixel“ … Mit „Pixel“ waren hier die Bildpixel gemeint, also die kleinsten informationstragenden Teile eines Bildes. Diese sind definitionsgemäß flächig und meist quadratisch. Die Fotodioden eines Sensorpixels (heißt auch Pixel, ist aber etwas ganz anderes, nämlich ein optoelektronisches Bauelement) sind rechteckig und auch meist quadratisch. Mikrolinsen können rund sein, sind aber öfter quadratisch.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb RAWky:

Wenn es aber um Bildqualität gehen soll, dann wären doch Bemühungen, die „Brunnentiefe“ des Pixels zu erhöhen, also die Aufnahmefähigkeit für Photonen zu vergrößern, und damit die Bittiefe, nicht kontraproduktiv.

zumindest im klassischen Sinne wenn von „Bildqualität“ gesprochen wird. (wobei ja gilt, dass mehr bit nicht automstisch besser sind)

Wenn man sich aber aktuelle Entwicklungen, beispielsweise QIS ansieht, dann wählen die einen anderen Ansatz. Man nehme gaaaaaaanz viele winzige „dumme“ Pixel, die gerade mal „Ja“ und „Nein“ (also 1 bit) können. Dafür ließt man sie extrem schnell aus. Das ganze integriert man über die Zeit und kann so Bilder konstruieren

 

Ist doch spannend, wie sich die Sensoren weiterentwickeln. Es könnte auch sein, dass sich ein Konzept für den Industriebereich durchsetzt, während die klassische bildgebende Fotografie weiterhin auf „klassische“ Sensoren setzt

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb RAWky:

Die Diskussion, ob das fotografische Heil in der Pixeldichte liegt, wird eh‘ von den Herstellern geführt, da wenig Anderes als Innovation verkauft werden kann. Versucht wird ja viel, aber selbst das Sensorauslesen in 4ms (Nikon Z9) ist zwar schneller als die 6ms bei Sony, aber eben auch nur eine 1/250“. Und wenn bei hoher Serienbildfrequenz die Bittiefe reduziert wird (bei Sony bis zu 3 bit) oder diese nur mit JPG klappen, ist das auch kein echter Fortschritt, wenn auch ein Verkaufsargument.

Wenn es aber um Bildqualität gehen soll, dann wären doch Bemühungen, die „Brunnentiefe“ des Pixels zu erhöhen, also die Aufnahmefähigkeit für Photonen zu vergrößern, und damit die Bittiefe, nicht kontraproduktiv. 14bit sind schliesslich besser als 12, aber 16bit (GFX z.B.) wären noch besser. Wenn dafür die Pixel physikalisch vergrößert werden müssten und eine höhere „Auflösung“ dann für die RAW-Datei softwaretechnisch „erzeugt“ werden würde (weil man 20MP-Kameras nicht  mehr verkaufen kann), was spräche dagegen?

Die Auslese- und Verarbeitungsgeschwindigkeit ist tatsächlich das wesentliche Hindernis für eine weitere Vergrößerung der Pixelzahl. Die Pixelzahl der Sensoren steigt ja erstaunlich gemächlich, wenn man bedenkt, wie stark in der gleichen Zeit alle anderen elektronischen Schaltkreise miniaturisiert wurden. Da liegen Größenordnungen dazwischen. Im Sinne der Bildqualität wäre eine viel höhere Pixelzahl wünschenswert, aber die Technik macht nur sehr langsame Fortschritte.

Wenn man die einzelnen Sensorpixel mehr Photonen einfangen lässt, indem man ihre Kapazität für Elektronen erhöht, würde sich zwar auch eine höhere Bittiefe lohnen (was sie bislang nicht tut), aber wenn man dafür die Fläche der Pixel vergrößern (und die Zahl der Pixel verkleinern) muss, ist die Bildqualität am Ende nicht besser – und bei höheren ISO-Werten sogar schlechter, wenn man nicht den Conversion Gain umschaltet, um die Kapazität wieder zu verringern. Damit ist nichts zu gewinnen. Hier wird in Zukunft die Computational Photography helfen, indem man mehrere Belichtungen in schneller Folge zusammenrechnet. Die Smartphones machen es vor. Spätestens wenn der der globale elektronische Verschluss am Start ist, wird das die Methode der Wahl sein, denn sie ist praktisch unendlich flexibel einsetzbar und überwindet die Beschränkungen der Sensor-Hardware.

Link zum Beitrag
Auf anderen Seiten teilen

Übrigens gehe ich im aktuellen fotoMAGAZIN auf solche Fragen ausführlich ein:

 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Link zum Beitrag
Auf anderen Seiten teilen

vor 10 Minuten schrieb wildlife:

Wenn man sich aber aktuelle Entwicklungen, beispielsweise QIS ansieht, dann wählen die einen anderen Ansatz. Man nehme gaaaaaaanz viele winzige „dumme“ Pixel, die gerade mal „Ja“ und „Nein“ (also 1 bit) können. Dafür ließt man sie extrem schnell aus. Das ganze integriert man über die Zeit und kann so Bilder konstruieren

Im Audiobereich (CD-Spieler) war das auch mal so, dass man sich über mehr Bit-Auflösung (14 - 16 - oder gar 18 Bit) gestritten hatte, bis Panasonis/Technics behauptete, dass sie einen 1-Bit-Wandler einsetzen würden. Da hat die gesamte "Expertenrunde" geschrien, das könne gar nicht funktionieren. Und Panasonis/Technics meinte, dass sie diese Technik mit ihren Playern seit zwei Jahren verkaufen, es nur nicht expliziet erwähnt hatten 😁.

Nun lässt sich diese Technik zwar nicht mit jener der Sensoren vergleichen, weil hier der umgekehrte Weg von digital nach analog notwenig ist. Aber wer weiß denn, was die Zukunft bringt.

In der Computertechnik waren die ersten Schnittstellen auch Parallel - bis hin zu SCSI-II-Schnittstelle und wurden allesamt von seriellen (SAS = Seriell-Attached-SCSI) abgelöst.
Ähnliches wird irgendwann auch bei den Sensoren in der einen oder anderen Ausprägung Einzug erhalten  - alles nur eine Frage der Zeit ;) !

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 5 Stunden schrieb RAWky:

Die Diskussion, ob das fotografische Heil in der Pixeldichte liegt, wird eh‘ von den Herstellern geführt, da wenig Anderes als Innovation verkauft werden kann. Versucht wird ja viel, aber selbst das Sensorauslesen in 4ms (Nikon Z9) ist zwar schneller als die 6ms bei Sony, aber eben auch nur eine 1/250“. Und wenn bei hoher Serienbildfrequenz die Bittiefe reduziert wird (bei Sony bis zu 3 bit) oder diese nur mit JPG klappen, ist das auch kein echter Fortschritt, wenn auch ein Verkaufsargument.

Wenn es aber um Bildqualität gehen soll, dann wären doch Bemühungen, die „Brunnentiefe“ des Pixels zu erhöhen, also die Aufnahmefähigkeit für Photonen zu vergrößern, und damit die Bittiefe, nicht kontraproduktiv. 14bit sind schliesslich besser als 12, aber 16bit (GFX z.B.) wären noch besser.

Noch etwas: Mehr Sensorpixel vergrößern die Zeit, die zum Auslesen der Sensors benötigt wird, aber wenn man mehr Bits auslesen will, erfordert das eine längere Integrationszeit im A/D-Wandler, was die Auslesezeit ebenfalls verlängert. Mehr Parallelverarbeitung – noch mehr A/D-Wandler, also nicht nur Tausende, sondern Millionen – könnte die Zeit wieder verkürzen, was allerdings für beide Verfahren gilt, also für mehr Pixel ebenso wie für mehr Bits pro Pixel. Und mehr Pixel ergeben natürlich auch mehr Bits insgesamt, wenn auch nicht pro Pixel.

Der Vorteil von mehr Bits pro Pixel liegt eher im Bereich der CPU, denn ob man mit 12, 14 oder 16 Bit arbeitet, macht keinen Unterschied, wenn die CPU ohnehin mit mindestens 32 Bit rechnet, während mehr Pixel den Zeitbedarf aller Algorithmen vergrößern.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb mjh:

Mit „Pixel“ waren hier die Bildpixel gemeint, also die kleinsten informationstragenden Teile eines Bildes. Diese sind definitionsgemäß flächig und meist quadratisch.

Nein, eben nicht. Photoshop kann sie zwar so darstellen, für die spezielle Kunst der Retro-Pixelbilder. Aber im Kontext von Photos sind es Abtastpunkte, nicht Flächen. Ein Photo enthält keine Pixelkanten. Ein Photo ist eine Ebene mit kontinuierlichen Verkäufen, ohne Kanten. Die Pixel bezeichnen lediglich definierte Werte an definierten Koordinaten, haben aber keine inherente Ausdehnung.

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb bastibe:

Nein, eben nicht. Photoshop kann sie zwar so darstellen, für die spezielle Kunst der Retro-Pixelbilder. Aber im Kontext von Photos sind es Abtastpunkte, nicht Flächen. Ein Photo enthält keine Pixelkanten. Ein Photo ist eine Ebene mit kontinuierlichen Verkäufen, ohne Kanten. Die Pixel bezeichnen lediglich definierte Werte an definierten Koordinaten, haben aber keine inherente Ausdehnung.

Eine Bild ist eine Fläche, und wenn man diese Fläche vollständig in ein Pixelraster aufteilt, ist jedes Pixel ebenfalls eine Fläche. Diese Fläche hat eine Ausdehnung, wenn auch eine ohne konkrete Einheit – die absolute Ausdehnung können wir über den in Pixel pro Zoll angegebenen Maßstab frei wählen. Für jede Pixelfläche gibt man Werte von Farbe und Helligkeit an, die für die durchschnittliche Farbe und durchschnittliche Helligkeit in dieser Teilfläche stehen. Für die Belange vieler Rechenverfahren tut man so, als ginge es um die Farbe und Helligkeit an einem Punkt, nämlich dem Mittelpunkt der Pixelfläche, aber das ist natürlich eine Fiktion – die tatsächlichen Werte an diesem Punkt können ganz andere sein, und es ist nicht gesagt, dass überhaupt irgendein Punkt genau diese Farbe und Helligkeit hat. Mal abgesehen davon, dass eine punktförmige Messung in der Praxis nicht möglich ist; man misst immer auf einer mehr oder weniger kleinen Fläche.

Auf diesen Punkt (pardon the pun) war ich früher (in mehreren Artikeln in verschiedenen Magazinen) schon mal im Zusammenhang mit dem Abtasttheorem, der Auflösungsgrenze von Sensoren und den daraus resultierenden Artefakten eingegangen: Das Abtasttheorem bezieht sich auf ein mathematisches Modell, in dem Funktionswerte, also Punkte, für Messwerte stehen. Die realen Messwerte beziehen sich aber immer auf ein zeitliches oder räumliches Intervall oder eine Fläche, was zwar nichts an den mathematisch gegebenen Grenzen einer Abtastung ändert, aber einen erheblichen Einfluss auf die tatsächlich zu beobachteten Artefakte hat. Das ist letztendlich der Grund dafür, dass Digitalkameras wenig Probleme mit Helligkeitsmoiré haben, sehr wohl aber mit Farbmoiré.

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...