Jump to content

Liefert Fujifilm genug Innovation im X- und Gfx- System?


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

So dürfte es kommen!

Ironie an: im Sinne von Fujifilm werde ich alle bestehenden Kameras wegen sofortiger Inkompatibilität mit den neuen Motiven in der Vitrine verstauben lassen… Ironie off

Ich verstehe nicht, warum es sich nicht langsam durchsetzen kann, das für tolle Bilder keine weitere technische Innovation nötig ist?!?

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb forensurfer:

Ich verstehe nicht, warum es sich nicht langsam durchsetzen kann, das für tolle Bilder keine weitere technische Innovation nötig ist?!?

Das stimmt … fast.

Wenn jemand aber gerne Sport oder BiF fotografieren möchte, dann sollte ihm die verbesserte Technologie deutlich mehr Keeper bescheren. Für den Rest der Community hat es ggf. keinerlei Relevanz.

Nicht umsonst tummeln sich im blauen Forum im Thread zur Z9 die ausgewiesenen BiF Fotografen. Die haben mit Objektiven nicht selten 5stellige Summen investiert, damit ihre Bilder möglich werden. Schönes Beispiel ist der hier: https://www.dslr-forum.de/showthread.php?t=1832969&page=76
Und wenn für alle Fujis demnächst ansatzweise ähnlich leistungsfähige Technik für die neuen Bodys bereitstünde für deutlich kleineres Geld? Dann wäre ich zumindest interessiert. 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb Tommy43:

Sehe ich das jetzt falsch, dass die H2 mit dem Stacked Sensor https://www.fujirumors.com/fujifilm-unveils-details-about-next-aps-c-sensor-generation-for-x-h2-bsi-x-trans-and-stacked/ die gleiche Sensor-Technologie bekommt wie die Z9, A1 etc?

Wenn alle Sensoren mit zwei oder mehr Chip-Schichten technologisch identisch wären, dann ja. Aber „stacked“ ist ein weites Feld; da gibt es die verschiedensten Varianten, selbst bei ein und demselben Sensorhersteller wie beispielsweise Sony.

Link zum Beitrag
Auf anderen Seiten teilen

Am 28.10.2021 um 15:02 schrieb alba63:

... das Angebot an Linsen ist ebenfalls bei den 3 Herstellern hervorragend, insbesondere bei Canon RF, deren Linsen zwar sündhaft  teuer, aber anscheinend Weltklasse sind.

das sind viele X und v.a. GFX Linsen doch auch? Aber sehr viele X-User gieren so gar nicht nach Canon, weil sie ihre kleinen Primes sehr mögen.

Am 28.10.2021 um 15:02 schrieb alba63:

Wie seht ihr das? Der Fokus meiner Frage liegt auf: "Ist das System zukunftsfähig", nicht auf "reicht mir persönlich das, was das X-System bietet?"

ich denke JA. weil sie geschickt Nischen besetzt haben - von Lifestyle zu Reportage/Wedding/Travel. Natürlich gibt es auch Sport- und/oder Landschaftsfotografen mit Fuji X, aber da gibt es sicher spezialisiertere Systeme (wobei ich die GFXen für Landschaft und Fine Art ganz weit vorne sehe).

Am 28.10.2021 um 15:40 schrieb AS-X:

Bei den Objektiven überrascht Fuji gerade wieder mit Linsen welche die bekannt guten Gläser der 1. Generation zT wohl deutlich übertreffen und das (zB im Vergleich mit den hochwertigen Gläsern des EOS R Systems) zu einem recht fairen Kurs. 
Der Ausbau des Objektivsystems ist überhaupt sehr viel umfangreicher und besser als ich es mir bei meinem Einstieg erträumt hätte

die durchwegs guten bis exzellenten Objektive haben IMHO sehr zum Erfolg beigetragen - und gerade legen sie nach, verstehe daher den Themensteller bzgl. Objektive so gar nicht.

Am 28.10.2021 um 15:50 schrieb hanshinde:

Was hat das Objektivangebot überhaupt mit Innovation zu tun?

viel. Verstehe die Frage nicht.

Am 28.10.2021 um 15:50 schrieb hanshinde:

Die Frage müsste wohl lauten: Investiert Fuji genug in die Wettbewerbsfähigkeit seiner Produkte? Oder, eine Nummer kleiner: Trifft das Produktmanagement bei Fuji die richtigen Entscheidungen? Gemessen an Größe und Marktanteil würde ich diesen Fragen überwiegend bejahen. 

Sollte und kann Fuji auf jede Neuvorstellung der Konkurrenz sofort mit eigenen neuen, pseudo-innovativen Produkten antworten? Bitte nicht! 

👍

Am 29.10.2021 um 21:59 schrieb wildlife:

genau darüber habe ich mir auch Gedanken gemacht, als ich die Eckdaten der Z9 überfolgen habe. nachdem die A1 den Sensor bereits mit 1/250s auslesen konnte, schafft es die Z9 scheinbar in 1/270s. 

Für mich war dann klar: für eine Fuji mit (spekulierten) 40MP benötigt es keine 14 bit ADCs, sondern 12bit sind mehr als ausreichend. Und damit sollten gleiche oder schnellere Ausleseraten möglich sein. Die naheliegende Konsequenz: weg mit dem mechanischen Verschluss und den Platz für Sinnvolles nutzen. 

warum sind 12Bit genug? die Z9 macht IMHO nur noch 14Bit Raws.

Ich verfolge die Reviews zur Z9 sehr genau - nicht weil ich unbedingt diesen Boliden haben will, sondern weil mich interessiert, ob die Technik unter allen Lichtbedingungen schon so weit ist, dass es keinen mechanischen Shutter mehr braucht. 

Somit könnte eine T-5 doch realistisch wieder auf T-1 Grösse schrumpfen.

Den Sensorschutz der A9 finde ich allerdings gut - auch wenn es damit sicher keine Platzersparnis geben wird (aber für eine "H" ist Platz nicht das grösste Problem) - bei kleineren Modellen kann man dieses Feature weglassen, ist dann der stand von heute (klappt ja auch).

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb rachmaninov:

warum sind 12Bit genug? die Z9 macht IMHO nur noch 14Bit Raws.

weil es dadurch, bei hochauflösenden APS-C Kameras, zu keiner Einschränkung der Bildqualität kommen sollte.

Das Ausleserauschen lässt sich nicht beliebig verringern und die Full-Well Kapazität hängt vor allem von der Pixelgröße ab (stark vereinfacht gesagt). Folglich könntne 12bit bei 40MP auf APS-C mehr als ausreichend sein. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb wildlife:

weil es dadurch, bei hochauflösenden APS-C Kameras, zu keiner Einschränkung der Bildqualität kommen sollte.

Das Ausleserauschen lässt sich nicht beliebig verringern und die Full-Well Kapazität hängt vor allem von der Pixelgröße ab (stark vereinfacht gesagt). Folglich könntne 12bit bei 40MP auf APS-C mehr als ausreichend sein. 

"können" oder "werden"? 

Geht es bei "mehr Bit" nicht um feinere Abstufungen und nicht nur um die Extreme?

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb rachmaninov:

Geht es bei "mehr Bit" nicht um feinere Abstufungen und nicht nur um die Extreme?

Auch, aber nur wenn die entsprechenden Daten vorhanden sind. Feiner abgestuftes Rauschen ist nichts wirklich sinnvoll.

Hier ein guter Artikel dazu:https://www.dpreview.com/articles/4653441881/bit-depth-is-about-dynamic-range-not-the-number-of-colors-you-get-to-capture

Bei 16MP APS-C waren 12 bit nicht ausreichend, um die volle Dynamik des Sensors darzustellen, deshalb kam ja mit X-Trans II 14 bit. Die Pixel der 26MP Sensoren liefern ebenfalls eine Dynamik, für die es 14bit ADCs benötigt.

Jedoch kommt mFT bei 20MP mit 12 bit aus. (das entspricht bei APS-C etwa einem 34MP Sensor). Ein 40MP APS-C Sensor könnte demnach auch mit 12bit auskommen, es sei denn es gibt spürbare technische Fortschritte (das schnelle Auslesen führt jedoch eher zu einem erhöhten Ausleserauschen und damit einem geringeren statt größeren Dynamikumfang)

Link zum Beitrag
Auf anderen Seiten teilen

Mittlerweile wurden  ja die  spannenden Technischen Features der Nikon Z9 bekannt.

das Teil ist riesengroß, nicht gerade leicht und zielt auf die absolute Spitze der Profikameras.

Wir können wohl davon ausgehen, daß Fujifilm für die H2 und die T5 einige Specs der Z9 ebenfalls nutzen bzw. bieten wird… wenngleich die Zielgruppen  und Kameraauslegungen unterschiedlich sein werden.

Was ich als Möglichkeit für die Topmodelle H2 und T5 sehe:

Als da wären:

stacked Sensor mit deutlich mehr MP auch im APSc Format (um 36MP?) der wie die Z9 in nur 1/270 sec (oder wegen kleinerem Sensorformat noch schneller ?) den Sensor ausliest und damit enorme, kontinuierliche Mengen an Serienbildern ermöglicht (falls ausreichend Pufferkapazität und Prozessorgeschwindigkeit vorhanden ist).

die Möglichkeit, deswegen ganz auf mechanischen Verschluss zu verzichten und trotzdem keinen (praxisrelevanten) Rolling shutter effect befürchten zu müssen. Also auch völlig geräuschlose Belichtung und keine Verwacklungen mehr durch den Verschluss. Mit dem Wegfall der Erschütterungen des mech. Verschlusses dürfte auch der IBIS noch effizienter werden. Sowohl Freihand als evtl. auch vom Stativ.

Die extrem schnelle Auslesungsgeschwindigkeit des Sensors wird dann  vermutlich auch die Geschwindigkeit des AF und dessen Voraussagefähigkeiten des Focus für den folgenden Schuss sowie die räumliche Voraussage des AF-c verbessern.

Ich nehme an, daß sich dadurch auch im Blitzbereich neue Möglichkeiten ergeben?

Eins ist sicher: rein technisch könnte das tatsächlich noch einmal einen gewissen Schub neuer zusätzlicher fotografischer Möglichkeiten  bieten. Obwohl die Frage ist, wer das als Nicht-Profi ernsthaft zu nutzen in der Lage ist?

Wird also spannend.

Trotzdem: Bekanntermaßen liegen über 95% der für die Bildwirkung entscheidenden Faktoren räumlich sowohl weit VOR  als auch knapp HINTER der Kamera… 

 

 

bearbeitet von hybriderBildersucher
Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Stunden schrieb rachmaninov:

Geht es bei "mehr Bit" nicht um feinere Abstufungen und nicht nur um die Extreme?

Löse so fein auf, wie es nötig und der Bildqualität dienlich ist, aber nicht feiner … Man kann die Helligkeitswerte nicht beliebig fein auflösen, schon weil man es mit diskreten Photonen zu tun hat. Wenn man einen Wert digitalisiert, der Helligkeiten auf Bruchteile von Photonen genau angibt, macht man etwas falsch. Aber die Tonwertauflösung ist nicht einmal auf ein Photon genau möglich, da es ja auch noch das Photonenrauschen gibt – dessen Anteil steigt, wenn die Full-well capacity sinkt, ist also bei kleineren Sensorpixeln höher. Wenn man immer mehr und daher immer kleinere Pixel auf einen Sensor packt, entsteht die feine Tonwertauflösung zunehmend durch das Dithermuster der vom Photonenrauschen überlagerten Pixeldaten, nicht durch die Tonwertauflösung individueller Pixel.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb hybriderBildersucher:

Was ich als Möglichkeit für die Topmodelle H2 und T5 sehe:

warum keine Pro4 ?

vor 2 Stunden schrieb hybriderBildersucher:

Als da wären:

stacked Sensor mit deutlich mehr MP auch im APSc Format (um 36MP?) der wie die Z9 in nur 1/270 sec (oder wegen kleinerem Sensorformat noch schneller ?) den Sensor ausliest und damit enorme, kontinuierliche Mengen an Serienbildern ermöglicht (falls ausreichend Pufferkapazität und Prozessorgeschwindigkeit vorhanden ist).

die Möglichkeit, deswegen ganz auf mechanischen Verschluss zu verzichten und trotzdem keinen (praxisrelevanten) Rolling shutter effect befürchten zu müssen. Also auch völlig geräuschlose Belichtung und keine Verwacklungen mehr durch den Verschluss. Mit dem Wegfall der Erschütterungen des mech. Verschlusses dürfte auch der IBIS noch effizienter werden. Sowohl Freihand als evtl. auch vom Stativ.

Die extrem schnelle Auslesungsgeschwindigkeit des Sensors wird dann  vermutlich auch die Geschwindigkeit des AF und dessen Voraussagefähigkeiten des Focus für den folgenden Schuss sowie die räumliche Voraussage des AF-c verbessern.

wer von uns hätte gegen diese Punkte etwas einzuwenden?

vor 2 Stunden schrieb hybriderBildersucher:

Eins ist sicher: rein technisch könnte das tatsächlich noch einmal einen gewissen Schub neuer zusätzlicher fotografischer Möglichkeiten  bieten. Obwohl die Frage ist, wer das als Nicht-Profi ernsthaft zu nutzen in der Lage ist?

ist doch irrelevant - ausserdem gibt es durchaus Profis, die mit Fuji ihre Brötschen verdienen.

vor 2 Stunden schrieb mjh:

Löse so fein auf, wie es nötig und der Bildqualität dienlich ist, aber nicht feiner … Man kann die Helligkeitswerte nicht beliebig fein auflösen, schon weil man es mit diskreten Photonen zu tun hat. Wenn man einen Wert digitalisiert, der Helligkeiten auf Bruchteile von Photonen genau angibt, macht man etwas falsch. Aber die Tonwertauflösung ist nicht einmal auf ein Photon genau möglich, da es ja auch noch das Photonenrauschen gibt – dessen Anteil steigt, wenn die Full-well capacity sinkt, ist also bei kleineren Sensorpixeln höher. Wenn man immer mehr und daher immer kleinere Pixel auf einen Sensor packt, entsteht die feine Tonwertauflösung zunehmend durch das Dithermuster der vom Photonenrauschen überlagerten Pixeldaten, nicht durch die Tonwertauflösung individueller Pixel.

Das ist mir zu technisch, bitte mehr für technische Laien formulieren.

Ich sehe hier einen vermeindlichen Widerspruch zu anderen Aussagen von Dir (wahrscheinlich alles erklärbar), deswegen konkret:

- Du predigst ja gern, dass höhere Auflösung fast immer einen Vorteil darstellt, auch bei High Iso, auch beim runterskalieren. Wenn aber hier WEGEN der höheren Auflösung die Bitrate sinkt, was bedeutet das für die Praxis? Auch wenn laut besagtem Artikel der Löwenanteil für die obere EV Stufe "draufgeht", so bleibt der Rest doch trotzdem feiner aufgelöst, oder?

- im verlinkten dpreview Artikel steht etwas von "roughly" 12 Bit für12 Dynamikstufen - aber Fuji ist ja gut drüber - ist davon auszugehen, dass ein stacked sensor mit +/- 40MP auf APS-C unter 12 stufen Dynamik zurückfällt?

Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Minuten schrieb rachmaninov:

Du predigst ja gern, dass höhere Auflösung fast immer einen Vorteil darstellt, auch bei High Iso, auch beim runterskalieren. Wenn aber hier WEGEN der höheren Auflösung die Bitrate sinkt, was bedeutet das für die Praxis? Auch wenn laut besagtem Artikel der Löwenanteil für die obere EV Stufe "draufgeht", so bleibt der Rest doch trotzdem feiner aufgelöst, oder?

Auf jedes Sensorpixel entfällt weniger Licht, wenn man die Sensorpixel zugunsten der Auflösung verkleinert. Und wie ich immer betone, ist das gesammelte Licht der wesentliche qualitätsbestimmende Faktor. Aber eben das mit dem ganzen Sensor gesammelte Licht, nicht das Licht, das auf ein einzelnes Sensorpixel entfällt. Man optimiert keine Pixel – wer will sich denn schon ein einzelnes Pixel schauen? –, sondern Bilder, und die profitieren von einer höheren Detailauflösung. Dass die Tonwertauflösung einzelner Pixel schlechter wird, ist irrelevant, denn einzelne Pixel können wir im Normalfall sowieso nicht erkennen und auf das Bild bezogen leiden weder der Rauschabstand noch der Dynamikumfang. Der praktisch nutzbare Dynamikumfang bleibt auch nicht auf 12 EV beschränkt, wenn man 12 Bit digitalisiert (und nicht auf 14 EV bei 14 Bit, was das betrifft).

Tintendrucker schießen extrem kleine Farbtröpfchen mit einer sehr hohen Dichte auf das Papier, und erzielen damit eine hohe Detail-, Tonwert- und Farbauflösung. Das Prinzip ist dasselbe. Die feinen Abstufungen entstehen durch Dithering, also eine Überlagerung der Bilddaten durch Rauschen. In Form des Photonenrauschens bringt das Licht dieses Dithermuster bereits mit; bei Bildsensoren muss man sich also nicht einmal darum kümmern, es künstlich zu erzeugen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Auf jedes Sensorpixel entfällt weniger Licht, wenn man die Sensorpixel zugunsten der Auflösung verkleinert. Und wie ich immer betone, ist das gesammelte Licht der wesentliche qualitätsbestimmende Faktor. Aber eben das mit dem ganzen Sensor gesammelte Licht, nicht das Licht, das auf ein einzelnes Sensorpixel entfällt.

soweit konnte ich schon immer folgen.

vor 2 Stunden schrieb mjh:

Man optimiert keine Pixel – wer will sich denn schon ein einzelnes Pixel schauen? –, sondern Bilder, und die profitieren von einer höheren Detailauflösung. Dass die Tonwertauflösung einzelner Pixel schlechter wird, ist irrelevant, denn einzelne Pixel können wir im Normalfall sowieso nicht erkennen und auf das Bild bezogen leiden weder der Rauschabstand noch der Dynamikumfang.

aber wenn die Qualität an einer Stelle "schlecht(er)" wird - und das nicht bei einem Pixel, sondern bei allen - wieso steigt dann die BQ insgesamt an?

Stimmt hier der Spruch mit dem schwächsten Glied der Kette nicht?

vor 2 Stunden schrieb mjh:

Der praktisch nutzbare Dynamikumfang bleibt auch nicht auf 12 EV beschränkt, wenn man 12 Bit digitalisiert (und nicht auf 14 EV bei 14 Bit, was das betrifft).

ah - dann hatte ich den Artikel an dieser Stelle wohl falsch verstanden.

vor 2 Stunden schrieb mjh:

Tintendrucker schießen extrem kleine Farbtröpfchen mit einer sehr hohen Dichte auf das Papier, und erzielen damit eine hohe Detail-, Tonwert- und Farbauflösung. Das Prinzip ist dasselbe. Die feinen Abstufungen entstehen durch Dithering, also eine Überlagerung der Bilddaten durch Rauschen. In Form des Photonenrauschens bringt das Licht dieses Dithermuster bereits mit; bei Bildsensoren muss man sich also nicht einmal darum kümmern, es künstlich zu erzeugen.

das bringe ich noch nicht ganz zusammen 🙈

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb rachmaninov:

aber wenn die Qualität an einer Stelle "schlecht(er)" wird - und das nicht bei einem Pixel, sondern bei allen - wieso steigt dann die BQ insgesamt an?

Stimmt hier der Spruch mit dem schwächsten Glied der Kette nicht?

Es gibt keine Bildqualität an einer Stelle. Ein Pixel ist (normalerweise) quadratisch und hat eine Farbe und Helligkeit. Was sollte dessen Qualität sein? Man kann die Abweichung der Farbe und Helligkeit von der eines Bildpunktes messen, den das Pixel abbilden soll, aber so lange wir nur das eine Pixel betrachten, ist das weitgehend irrelevant – ein etwas abweichendes Pixel sieht nicht schlechter aus als ein exakt passendes. Bildqualität ist genau das: die Qualität eines Bildes, nicht eines oder einer Handvoll Pixel.

Der erwähnte Tintendrucker erzeugt Farbtröpfchen in vier oder manchmal sieben Druckfarben. Es gibt beispielsweise Farbtröpfchen in Cyan, Magenta, Gelb und Schwarz, und diese vier sind auch schon die einzigen Farben und Tonwerte, die der Drucker produzieren kann – eigentlich. Dennoch sehen wir in den damit gedruckten Bildern ein fein aufgelöstes Farb- und Tonwertspektrum. Das funktioniert, weil die Tröpfchen so fein sind und Tausende von ihnen auf einen Zoll gehen. So kommen wir schon beim Format A3 oder A4 in den Gigapixelbereich. Umgekehrt gilt: Wenn wir Gigapixelsensoren hätten, würde es vermutlich genügen, wenn jedes Pixel zwischen zwei Werten – hell und dunkel – unterscheiden würde, um qualitativ hochwertige Bilder zu produzieren.

Link zum Beitrag
Auf anderen Seiten teilen

vor 17 Stunden schrieb mjh:

Es gibt keine Bildqualität an einer Stelle. Ein Pixel ist (normalerweise) quadratisch und hat eine Farbe und Helligkeit. Was sollte dessen Qualität sein? Man kann die Abweichung der Farbe und Helligkeit von der eines Bildpunktes messen, den das Pixel abbilden soll, aber so lange wir nur das eine Pixel betrachten, ist das weitgehend irrelevant – ein etwas abweichendes Pixel sieht nicht schlechter aus als ein exakt passendes. Bildqualität ist genau das: die Qualität eines Bildes, nicht eines oder einer Handvoll Pixel.

Der erwähnte Tintendrucker erzeugt Farbtröpfchen in vier oder manchmal sieben Druckfarben. Es gibt beispielsweise Farbtröpfchen in Cyan, Magenta, Gelb und Schwarz, und diese vier sind auch schon die einzigen Farben und Tonwerte, die der Drucker produzieren kann – eigentlich. Dennoch sehen wir in den damit gedruckten Bildern ein fein aufgelöstes Farb- und Tonwertspektrum. Das funktioniert, weil die Tröpfchen so fein sind und Tausende von ihnen auf einen Zoll gehen. So kommen wir schon beim Format A3 oder A4 in den Gigapixelbereich. Umgekehrt gilt: Wenn wir Gigapixelsensoren hätten, würde es vermutlich genügen, wenn jedes Pixel zwischen zwei Werten – hell und dunkel – unterscheiden würde, um qualitativ hochwertige Bilder zu produzieren.

Dass 1 Pixel kein "Bild" ist, ist schon klar, nur sind wir die letzten Jahre mit der Info geimpft worden, dass die "Qualität" der Pixel ja stimmen muss (DSLR vs. Smartphone z.B.). 

jetzt klingt es so, als wäre mehr immer besser (auf der gleichen Fläche), egal was diese Pixelchen aufzunehmen imstande sind.

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb rachmaninov:

jetzt klingt es so, als wäre mehr immer besser (auf der gleichen Fläche), egal was diese Pixelchen aufzunehmen imstande sind.

Egal ist es nicht – zwischen zwei Sensoren mit gleicher Pixelzahl kann es hier immer noch relevante Unterschiede geben –, aber je größer die Zahl der Pixel ist, desto weniger kommt es auf das einzelne Pixel an. Quantität schlägt Qualität, wenn man so will. Oder ein Beispiel für „Die Weisheit der Vielen“ – ich zitiere der Einfachheit halber mal aus dem Wikipedia-Artikel: „… dass Besucher der westenglischen Nutztiermesse 1906 im Rahmen eines Gewinnspiels das Schlachtgewicht eines Rindes äußerst genau schätzten, wenn man als Schätzwert der Gruppe den Median aller 787 Schätzungen annahm. (Der Mittelwert der Einzelschätzungen stimmte sogar exakt und war damit besser als die jedes einzelnen Teilnehmers, darunter manche Experten wie z. B. Metzger.)

Link zum Beitrag
Auf anderen Seiten teilen

Am 3.11.2021 um 02:00 schrieb mjh:

Wenn wir Gigapixelsensoren hätten, würde es vermutlich genügen, wenn jedes Pixel zwischen zwei Werten – hell und dunkel – unterscheiden würde, um qualitativ hochwertige Bilder zu produzieren.

Die Älteren unter uns werden solche „Gigapixelsensoren“ noch aus der fotografischen Praxis kennen: Filmmaterial nämlich. In einer belichteten Filmemulsion gibt es zwei Arten von Silberhalogenidkristallen: Solche, in denen das Licht einen winzigen Entwicklungskeim erzeugt hat, und solche, bei denen das nicht passiert ist. Erstere werden im Entwicklungsbad vollständig in metallisches Silber umgewandelt und Letztere im Fixierbad ausgewaschen. Im Ergebnis gibt es an jedem Punkt entweder einen lichtundurchlässigen Silberkristall oder das durchsichtige Trägermaterial des Films. Das ergibt exakt 1 Bit, und aus diesen 1-Bit-Negativen haben wir damals tonwertreiche Schwarzweißbilder produziert. Ein Farbfilm hat dementsprechend 3 Bit, nämlich in jeder Emulsionsschicht ein Farbstoffwölkchen in Cyan, Magenta oder Gelb – oder nicht. Und aus diesen 3 Bit wurden Bilder mit fein abgestuften Farbtönen.

Das funktionierte so gut, weil die Filmemulsionen so irrsinnig viele und so irrsinnig kleine Silberhalogenidkristalle enthalten – je niedriger der ISO-Wert, desto mehr und desto kleinere Kristalle, und eben deshalb liefern die niedrigempfindlichen Filme noch feinere Farb- und Tonwertabstufungen und eine höhere Auflösung.

Daran sollte man denken, wenn mal wieder jemand nach weniger und größeren Sensorpixeln ruft.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb mjh:

weil die Filmemulsionen so irrsinnig viele und so irrsinnig kleine Silberhalogenidkristalle enthalten

Wieviele von denen denn auf der Fläche eines Pixels?

Wenn ein Digi-Pixel die Werte 0 - 2^14 annehmen kann, dann entspricht das demnach einem Film, auf dessen Fläche eines solchen Pixels 2^14 Silberhalogenidkristalle enthalten sind, die jeweils umgewandelt (Wert=1) oder ausgewaschen (Wert=0) werden: alle weg, Wert 0, alle umgewandelt: Wert 2^14.
Also 128 Kristalle pro 4 µm (durchschnittliche Pixelgröße), oder 32.000 pro mm, oder 1.024 * 10^9 pro mm^2 oder 23*15*32.000*32000 = 3.53 * 10^11 "Kristalle" auf einem APS-C-Film-Bild (nur etwas mehr als die Anzahl der Sterne, die sich in der Milchstrasse befinden sollen).

Das erscheint mir a bisserl viel und nicht vergleichbar...

Link zum Beitrag
Auf anderen Seiten teilen

vor 56 Minuten schrieb RAWky:

Das erscheint mir a bisserl viel und nicht vergleichbar...

Das Filmmaterial ist ja auch nicht so gut wie unsere heutigen Sensoren. Deswegen kehre ich ja nicht zur analogen Fotografie zurück, sondern freue mich auf höher auflösende Sensoren.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb RAWky:

Warum dann Film als Gigapixelsensor bezeichnen?

Weil’s so ist … Natürlich muss man das im richtigen Zusammenhang verstehen, nämlich in dem Zusammenhang, in dem ich den Begriff gebraucht habe. Silberkristalle sind keine Pixel, außer in dem Sinne, dass sie die atomaren Bestandteile eines Filmbilds sind, so wie Pixel die atomaren Bestandteile eines digitalen Bilds sind. Aber hier ging es darum, dass man bei einer extrem hohen Auflösung keine große Bittiefe mehr braucht und schon 1 Bit (Schwarzweiß) oder 3 Bit (Farbe) reichen, und neben Tintendruckern sind Filmemulsionen gute Beispiele dafür.

Wie Warren S. McCulloch mal gesagt haben soll: Don’t bite my finger, look where I’m pointing.

Link zum Beitrag
Auf anderen Seiten teilen

Am 3.11.2021 um 02:00 schrieb mjh:

Ein Pixel ist (normalerweise) quadratisch

Nur als Randbemerkung: in den Rechenverfahren (Entrauschung, Vergrößerung, Verkleinerung) werden die Pixel in der Regel als Punkte gerechnet, nicht Quadrate. Im Sensor sind sie wegen der Mikrolinsen glaube ich eher Kreisförmig. Und auf dem Monitor haben sie eine oft unregelmäßige Trapezform, da die Subpixel oft leicht versetzt zueinander angeordnet sind.

Ein Quadrat mit harten Kanten hätte Hochfrequenzinformation über der Samplerate. Das muss ich meinen Studierenden im Audio immer austreiben, und in der Bildverarbeitung ist es ähnlich. 

Dem Rest deiner Aussage tut das natürlich keinen Abbruch.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

look where I’m pointing

Deshalb habe ich ja eine „Lupe“ genommen und mir mal einen 1-bit-Sensor „gerechnet“. Das Mikroskop, um mal zu sehen, was ein Tintenstrahler auf der Fläche eines APS-C-Sensors leisten kann, lass‘ im Schrank.

Die Diskussion, ob das fotografische Heil in der Pixeldichte liegt, wird eh‘ von den Herstellern geführt, da wenig Anderes als Innovation verkauft werden kann. Versucht wird ja viel, aber selbst das Sensorauslesen in 4ms (Nikon Z9) ist zwar schneller als die 6ms bei Sony, aber eben auch nur eine 1/250“. Und wenn bei hoher Serienbildfrequenz die Bittiefe reduziert wird (bei Sony bis zu 3 bit) oder diese nur mit JPG klappen, ist das auch kein echter Fortschritt, wenn auch ein Verkaufsargument.

Wenn es aber um Bildqualität gehen soll, dann wären doch Bemühungen, die „Brunnentiefe“ des Pixels zu erhöhen, also die Aufnahmefähigkeit für Photonen zu vergrößern, und damit die Bittiefe, nicht kontraproduktiv. 14bit sind schliesslich besser als 12, aber 16bit (GFX z.B.) wären noch besser. Wenn dafür die Pixel physikalisch vergrößert werden müssten und eine höhere „Auflösung“ dann für die RAW-Datei softwaretechnisch „erzeugt“ werden würde (weil man 20MP-Kameras nicht  mehr verkaufen kann), was spräche dagegen? Die RAW-Datei ist doch eh‘ längst kein Abbild dessen mehr, was der Sensor aufgezeichnet hat (weder Anzahl Pixel, noch ISO-Wert, noch der Geometrie der Optik (CAs, Verzeichnung, …)).

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...