Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

So wie Fujis SuperCCDs? Das gab es ja schon; die Wabenstruktur bietet Vorteile bei der Auflösung, aber angesichts der heute üblichen Megapixelzahlen lohnt es nicht mehr. Wenn man mehr Farbfilter unterbringen will, bietet eine Wabenstruktur keine Vorteile.

Danke für den Link, sehr interessant!

 

Folgendes ist ganz sicher keine persönliche Kritik an dir oder deinen Aussagen - es bot sich nur für mich an, daran anzuküpfen.

 

Geht nicht, gibts nicht, ist für mich jedenfalls kein Argument.

 

Die von Betriebswirtschaftler dominierte/gekaperte Technikbranche geht halt gerne die simplen Wege

und propagiert mehr und schneller, das ist aber nicht immer besser.

 

Auch wenn mein Hirn eine Farbmischung aus den Signalen meiner Sehzellen erzeugt und ich damit viele Farbtöne unterscheiden kann, ist das noch kein Grund daraus einen 2-stufigen Prozess zu machen.

 

Die Blümchen in meinen Garten schauen einfach morgens anderst aus als mittags und bei Sonne anderst als bei bedecktem Himmel.

Und wenn ich die photographiere, wöchte ich am liebsten, das mein Photoapparat das so festhält und mein Bildschirm mit seinen (wieviel?) Millionen Farben das so wieder gibt, das ich diese unterschiedlichen Belichtungssituationen wiedererkennen kann.

Farbwiedergabe (neben der Bedienung), das war für mich einer der Hauptbeweggründe mir eine Fuji zukaufen.

 

Es gibt hier ein sehr interessantes Thema, bei dem Nutzer des Forums RAW-Daten entwickeln zu einem Bild.

Das ist wohl eine sehr anspruchsvolle Arbeit, die viel know how und Erfahrung bedarf,

zumindest, wenn man möglichst nahe an die "Realität" heran möchte und nicht ein Malbuch für Junggebliebene ausfüllt.

Dafür habe ich nicht die Zeit und die Nerven und wünsche mir eben, dass das meine Kamera für mich erledigt ...

Am Anfang steht (ja, ja, das Objektiv) der Sensor, was der nicht auseinander kriegt, kann auch die Software nicht mehr generieren.

 

Ich mache gelegentlich spektrale Reflexionsmessungen mit 5 nm Auflösung an selektiven Solarabsorberschichten und finde es immer wieder spannend, welche Effekte es dabei zu entdecken gibt (und die Natur z.B. Blütenblätter, Insekten ... ist da noch viel komplexer), da wäre man mit 3 Messpunkten völlig aufgeschmissen.

 

Von mir aus sollte der nächste Schritt in Richtung bessere Farbwiedergabe gehen und nicht in mehr Auflösung.

Ich bin zum Glück nicht farbenblind und auch froh nicht mehr mit diesen schwarz-weiß Filmen knipsen zu müssen.

 

Mehr Mut zu echten Farben!

bearbeitet von Photoweg
Link zum Beitrag
Auf anderen Seiten teilen

Die Blümchen in meinen Garten schauen einfach morgens anderst aus als mittags und bei Sonne anderst als bei bedecktem Himmel.

Und wenn ich die photographiere, wöchte ich am liebsten, das mein Photoapparat das so festhält und mein Bildschirm mit seinen (wieviel?) Millionen Farben das so wieder gibt, das ich diese unterschiedlichen Belichtungssituationen wiedererkennen kann.

Farbwiedergabe (neben der Bedienung), das war für mich einer der Hauptbeweggründe mir eine Fuji zukaufen.

Das liegt aber gar nicht am Vermögen der Kamera Farben differenzieren zu können, sondern an ganz an banalen Dingen wie dem Weißabgleich. Den macht in deiner Wahrnehmung dein Gehirn unterbewusst. Mit mehr Farbkanälen wird gerade dieses Problem nun nicht einfacher, eher im Gegenteil.

Link zum Beitrag
Auf anderen Seiten teilen

Die Blümchen in meinen Garten schauen einfach morgens anderst aus als mittags und bei Sonne anderst als bei bedecktem Himmel.

Und wenn ich die photographiere, wöchte ich am liebsten, das mein Photoapparat das so festhält und mein Bildschirm mit seinen (wieviel?) Millionen Farben das so wieder gibt, das ich diese unterschiedlichen Belichtungssituationen wiedererkennen kann.

Kein Problem, dann schaltest Du halt den automatischen Weißabgleich ab und wählst stattdessen die Einstellung für Sonnenlicht.

 

Aber wie sollen Dir dabei zusätzliche Filterfarben helfen? Ich sehe da keinen Zusammenhang.

 

Es gibt hier ein sehr interessantes Thema, bei dem Nutzer des Forums RAW-Daten entwickeln zu einem Bild.

Das ist wohl eine sehr anspruchsvolle Arbeit, die viel know how und Erfahrung bedarf,

zumindest, wenn man möglichst nahe an die "Realität" heran möchte und nicht ein Malbuch für Junggebliebene ausfüllt.

Wie man’s nimmt; für viele von uns ist das eine alltägliche Aufgabe. Wenn man sich erst mal mit der Raw-Entwicklung vertraut gemacht hat, geht das ganz fix.

Link zum Beitrag
Auf anderen Seiten teilen

Auch wenn wir tausende Farbtöne voneinander unterscheiden können, arbeiten im menschlichen Auge auch nur vier unterschiedliche Rezeptoren:

Die Zapfen für RGB und die lichtempfindlicheren Stäbchen, mit deren Hilfe wir nachts immerhin noch ein aus dem blau-grünen Spektralbereich gebildetes Schwarzweißbild sehen können.

Kameras und Bildschirme benötigen dann doch auch keine Zwischentöne direkt auflösen zu können

bearbeitet von Sunhillow
Link zum Beitrag
Auf anderen Seiten teilen

Kein Problem, dann schaltest Du halt den automatischen Weißabgleich ab und wählst stattdessen die Einstellung für Sonnenlicht.

Danke für den Hinweis, davon habe ich gelesen und auch schon Versuche unternommen - hab´s aber noch nicht so richtig raus ...

d.h. die Ergebnisse schienen mir nicht realistischer - bezogen auf mein erlerntes Sehvermögen und Differenzierung von Farben.

Was macht die Automatik falsch?

Liegt da noch Entwicklungspotential bei der Software?

bearbeitet von Photoweg
Link zum Beitrag
Auf anderen Seiten teilen

die Ergebnisse schienen mir nicht realistischer - bezogen auf mein erlerntes Sehvermögen und Differenzierung von Farben.

Was macht die Automatik falsch?

Liegt da noch Entwicklungspotential bei der Software?

Die Automatik hat einen bestimmten „Fangbereich“ von Farbtemperaturen, in dem sie die Farbwiedergabe neutralisiert, also Abweichungen zu niedrigeren oder höheren Farbtemperaturen ausgleicht. Extremere Abweichungen werden nicht oder nicht in vollem Maße ausgeglichen. Deshalb gibt es ja Voreinstellungen für Glühlampenlicht etc.. Das ist übrigens bei Kameras aller Hersteller so. Allerdings kann keine Automatik ahnen, was Du für eine naturgetreue Farbwiedergabe erachtest. Wenn Du da sehr spezielle Vorstellungen hast, bist Du mit dem Raw-Modus am besten bedient, weil Du die Farbwiedergabe dann im Nachhinein beeinflussen kannst.

Link zum Beitrag
Auf anderen Seiten teilen

Die Automatik hat einen bestimmten „Fangbereich“ von Farbtemperaturen, in dem sie die Farbwiedergabe neutralisiert, also Abweichungen zu niedrigeren oder höheren Farbtemperaturen ausgleicht. Extremere Abweichungen werden nicht oder nicht in vollem Maße ausgeglichen. Deshalb gibt es ja Voreinstellungen für Glühlampenlicht etc.. Das ist übrigens bei Kameras aller Hersteller so. Allerdings kann keine Automatik ahnen, was Du für eine naturgetreue Farbwiedergabe erachtest. Wenn Du da sehr spezielle Vorstellungen hast, bist Du mit dem Raw-Modus am besten bedient, weil Du die Farbwiedergabe dann im Nachhinein beeinflussen kannst.

wie oben geschrieben, möchte ich, das die Wirkung der natürlichen Beleutung erhalten bleibt.

Wenn ich dich jetzt richtig verstehe, bewirkt der automatische Weißabgleich genau das Gegenteil und will alles wieder ins "rechte Licht rücken"?

Link zum Beitrag
Auf anderen Seiten teilen

Aber wie sollen Dir dabei zusätzliche Filterfarben helfen? Ich sehe da keinen Zusammenhang.

 

Das Licht, das ich sehe, kommt von Strahlungsquellen, aktiven und passiven, also von der Sonne gefiltert und gestreut ... durch die Atmosphäre, transmittiert durch z.B. Blätter und eben überwiegend reflektiert von Körpern mit sehr unterschiedlichen Oberflächen und deren optischen Eigenschaften. Da nun das Sonnenlicht (in Bodennähe) eine Quelle mit sehr veränderlichem Spektrum ist und sich nicht wie ein idealer schwarzer Strahler verhält, ist eben auch der Farbeindruck ein anderer, wenn die Sonnen wandert oder sich die Atmosphäre verändert. Die 3 Farbenmethode (-"Lehre") geht von idealen Kurven aus und schiebt diese ein bischen hin oder her (Wiensches Verschiebungsgesetz). Mit mehr Farbfiltern könnte ich dieses aktuelle Farbspektrum besser nachbilden und daraus auch eine natürlichere, also wie etwas in diesem Spektrum ausschaut, Ab-Bild-ung erzeugen - denke ich.

Wenn jemand eine Landschaftsaufnahme macht und nachher sich den Himmel so anmalt, bzw. entwickelt, wie es ihm gefällt und die Wiese grün, grüner oder türkis haben möchte, ist das völlig in Ordnung, nur ich bin da komisch, weil wenn ich etwas sehe, dann möchte das "festhalten" und nicht später daraus etwas machen. Wenn ein weißes Stück Papier bei einem heftigen Abendrot nicht mehr "richtig" weiß ist, ist das so und für mich sollte es dann auch nicht "richtig"weiß ausschauen.

 

Sonnige Grüße

Claus

Link zum Beitrag
Auf anderen Seiten teilen

Wenn ich dich jetzt richtig verstehe, bewirkt der automatische Weißabgleich genau das Gegenteil und will alles wieder ins "rechte Licht rücken"?

Das macht dein Hirn auch. Das nennt sich chromatische Adaption. Wir wissen, das das Blatt Papier weiß ist. Daher erscheint es, unabhängig vom Licht, immer weitgehend weiß. Dein Hirn gaukelt Dir rund um das Sehen eh eine ganze Menge vor. :)

Link zum Beitrag
Auf anderen Seiten teilen

Das macht dein Hirn auch. Das nennt sich chromatische Adaption. Wir wissen, das das Blatt Papier weiß ist. Daher erscheint es, unabhängig vom Licht, immer weitgehend weiß. Dein Hirn gaukelt Dir rund um das Sehen eh eine ganze Menge vor. :)

Genau. Wer im Winter durch eine sonnige, verschneite Landschaft geht, sieht den Schnee weiß, obwohl er tatsächlich bläulich ist. Auch hier, und nicht nur hier korrigiert das Gehirn das Gesehene. Auf Fotos hatten wir da früher den "Blaustich", den man fälschlicherweise dem Film zuschrieb. 

Link zum Beitrag
Auf anderen Seiten teilen

@Claus - das Thema Farbwiedergabe ist ein sehr komplexes, das wir bitte nicht in diesem Thread verhandeln.

 

Hier bitte versuchen, beim Thema Zukunft der X-Serie zu bleiben.

 

Nachfragen gerne per PN, aber nicht mehr in diesem Thread.

 

Gruß

Andreas

Link zum Beitrag
Auf anderen Seiten teilen

Hier bitte versuchen, beim Thema Zukunft der X-Serie zu bleiben.

 

 

Gruß

Andreas

Sorry - ich hab´s verstanden ...

 

Dann muss halt Fuji ohne innovative, intelligente Echtfarbensensoren auskommen :( 

 

und die Fujianer können sich dann ihre 1 GigaByte Bilder ins Wohnzimmerfenster einspielen lassen oder sich mittels Stimmungstapete mit intuitivem und kreativen Raw-Konverter und Spracheingabe eine eigene Welt schaffen ...

Dafür braucht es unbedingt neue Objektive - sonst sieht die Abbildungfehler ...

 

Dann gehe ich jetzt wieder in den Garten zu Bienchen und Blümchen mit meiner "Retro"Kamera :)

Link zum Beitrag
Auf anderen Seiten teilen

Sorry - ich hab´s verstanden ...

 

Dann muss halt Fuji ohne innovative, intelligente Echtfarbensensoren auskommen :(

Warum machst Du keinen eigenen Thread dafür auf?

 

und die Fujianer können sich dann ihre 1 GigaByte Bilder

Genau dafür sind hohe Sensorauflösungen nicht da.... Höhere Auflösungen helfen vor allem bei hohen Frequenzen (feineren Details) das Kontrastverhältnis zu verbessern und die Artefakte der Digitalisierung zu vermindern. Betrachtet man die Entwicklung war es erst ab ca. 12-16MP (APS-C) bzw. 24-36MP KB den Tiefpassfilter wegzulassen. Darunter war es notwendig die hohe Frequenzen herauszufiltern, da sie sonst zu Artefakten wie Moiré führen. Die regelmäßige Anordnung der Pixel führt auch schneller zu ungewünschten Effekten wie die chaotische Verteilung des Filmkorns. Das ist ja eine der Ideen hinter X-Trans.

 

Höhere Auflösungen bieten also vor allem mehr Details und bessere Mikrokontraste. Außerdem verbessert sich das Verhältnis von Rauschen zum Nutzsignal. Mit zunehmender Auflösung steigt die Frequenz des Rauschens und damit der Abstand zu den lokalen Kontrasten. Die Reduktion der Auflösung ist auch eine Art Tiefpassfilter und reduziert dann das Rauschen (allerdings auch die Details). So rauscht z.B. die D800 in der 100% Ansicht deutlich stärker als die D700, verkleinert man das Bild wird das aber irrelevant.

 

Eine hohe Auflösung ist nichts für Pixelpeeper und auch nicht unbedingt für die Ausgabe (oder starke Crops) sinnvoll. Das wurde schon beim Erscheinen des ersten 36MP KB Sensors von Vielen falsch verstanden.

Link zum Beitrag
Auf anderen Seiten teilen

  • 3 weeks later...

@Winkelsucher:Auf die Spitze getrieben hätte man dann irgendwann einen 1-Photon-per-Pixel-Sensor...

Auf die Spitze getrieben muss nicht mal jeder Pixel ein Photon abbekommen. Am Ende hätte man dennoch ein besseres Bild. Nur Pixelpeeper wären unglücklich ob der vielen "toten Pixel".

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man mal die Auflösung eines 1/3" Handy-Sensors mit 12 MP auf APS-C hoch rechnet, dann landen wir bei etwa 20000x13500 Pixel bzw 270 MP. Bei Kleinbild wären wir mit dieser Pixeldichte sogar mit etwa 700MP dabei. Da kommen wir dann aber auch schon in Bereiche, wo man wieder alle 36 Bilder das Medium wechseln muss... :D 

 

Da ist also schon heute ein großer Spielraum für mehr Auflösung. Das kann allerdings (noch) keiner bezahlen, mal von der Sinnfrage ganz abgesehen.

 

Falls Fuji bis 2022 den Schritt zu mehr Auflösung geht, werden das bei APS-C wohl höchstens 36MP werden. Das muss ja auch immer wirtschaftlich bleiben.

Link zum Beitrag
Auf anderen Seiten teilen

@Winkelsucher:Auf die Spitze getrieben hätte man dann irgendwann einen 1-Photon-per-Pixel-Sensor...

Theoretisch wäre das der ideale Sensor. Natürlich würde man dann nicht mehr aus jedem Sensorpixel ein Bildpixel machen, aber man könnte daraus beliebig große virtuelle Sensorpixel berechnen. Das wäre ganz spannend; beispielsweise könnte man größere virtuelle Pixel für die Berechnung der Farbe verwenden und kleinere für den Luminanzkanal. Und man könnte mit virtuellen rot-, grün- und blauempfindlichen Pixeln arbeiten, die nicht nebeneinander, sondern übereinander liegen, so dass es kein Farbmoiré gäbe. Und so weiter.

Link zum Beitrag
Auf anderen Seiten teilen

Hmmm, Physik ist bei mir schon eine Weile her, aber wenn ich mich recht entsinne ist ein Photon quantisierte, elektromagnetische Strahlung ohne Masse und mit beliebiger Ausdehnung. Also, sie haben keine Größe :) Aber über diese Frage haben sich schon diverse, sehr, sehr schlaue Menschen seit Einstein und Planck die Köpfe zerbrochen.

 

Es wird aber in jedem Fall nicht möglich sein einen Sensor zu bauen, der ein einzelnes Photon "messen" kann. Das ist irgendwo zwischen 0 und subatomar :)

 

Es würde IMHO auch völlig ausreichen, auf ein bestimmtes Vielfaches der maximalen Ortsfrequenz der optischen Systeme zu kommen. Wenn das analoge, optische System nicht mehr hergibt, wird irgendwann auch eine höhere Abtastfrequenz nichts mehr bringen. Aber da sind wir noch nicht.

 

Nehmen wir mal ein sehr gutes Objektiv mit 70 LP/mm. In der absoluten Theorie und einer reinen Betrachtung der Helligkeit (s/w) benötigt das 140 Pixelreihen je mm Sensor. In der Höhe auf einem APS-C also rund 2200, was ungefähr 7MP entsprechen würde. Selbst bei S/W würde das aber nicht reichen, da ja der Strich niemals 100% genau auf den Pixel projiziert wird. Das ergibt Artefakte (Moiré), weshalb man bei Sensoren mir so geringer Auflösung solch feine Strukturen früher per Tiefpassfilter einfach rausgefiltert hat.

 

Dazu kommt, dass bei den Bayer Sensoren (und Fuji X, aber das ist noch etwas komplizierter) ja jeder Pixel nur eine Grundfarbe hat. Für die vollständige Farbinformation müssten also 4 benachbarte Pixel ausgelesen werden, was die Auflösung nochmal reduziert (farbiges Moiré). In der Höhe müssen also für jede Linie 2 Reihen Pixel gelesen werden. Dann sind wir schon bei 4400 Pixel in der Höhe und damit exakt bei der aktuelle Auflösung einer gängigen APS-C Kamera.

 

Praktisch liegt die Auflösung, aber der man den Tiefpassfilter weglassen kann, irgendwo bei 16MP (APS-C) bzw. 36 MP (KB). Dennoch kann es bei sehr hochauflösenden Objektiven und ungünstigen Motiven immer noch zu Artefakten kommen. Bei bewegten Bildern (Video) ist das noch schlimmer, so dass bei 4k z.B. von Objektiven mit sehr hoher Auflösung abgeraten wird bzw. dann wieder ein Tiefpass benötigt wird.

 

Wir kratzen also gerade mal an der unteren Grenze und sind noch lange nicht in einem Bereich, in dem eine Erhöhung der Auflösung nichts mehr bringt. Zumal sich die Objektive auch immer weiter verbessern. Ein Objektiv mit 80LP/mm würde bei der Rechnung schon 38MP (APS-C) benötigen.

 

Ich denke, wenn wir mal bei der 3-4 fachen Abtastfrequenz angekommen sind, dann wird der Punkt kommen wo der weitere Nutzen die Nachteile nicht mehr aufwiegt. Das wären dann so 80-100 MP auf einem APS-C Sensor. Zumindest, wenn es keinen Quantensprung in der Entwicklung der optischen Systeme gibt. Das bedeutet aber nicht, dass automatisch die Bilder diese Auflösung haben müssen bzw. werden (Oversampling)

 

P.S.: Das das Rauschen auf Pixelebene stattfindet ist die Frequenz auch höhere und damit immer weiter von der maximalen Ortsfrequenz entfernt. Damit lässt es sich viel leichter herausfiltern. Was man schon bei den 36MP der D8x0 sehr gut sehen konnte. Bei einem 100MP APS-C Sensor dürfte Rauschen weitgehend irrelevant werden.

bearbeitet von Winkelsucher
Link zum Beitrag
Auf anderen Seiten teilen

Es wird aber in jedem Fall nicht möglich sein einen Sensor zu bauen, der ein einzelnes Photon "messen" kann. Das ist irgendwo zwischen 0 und subatomar :)

Nicht möglich? Es wird allerdings gemacht: https://en.wikipedia.org/wiki/Photon_counting. Wahrscheinlich von Leuten, den man zu sagen vergessen hat, dass es gar nicht geht.

Link zum Beitrag
Auf anderen Seiten teilen

Nicht möglich? Es wird allerdings gemacht: https://en.wikipedia.org/wiki/Photon_counting. Wahrscheinlich von Leuten, den man zu sagen vergessen hat, dass es gar nicht geht.

 

Dann darfst Du gerne einen Strich auf deiner Liste machen, wieder mal einen Fehler bei Anderen Entdeckt zu haben. Dennoch wird es spannend, das sinnvoll auf eine Fläche unterzubringen um quasi an unendliche vielen gleichzeitig Photonen zu messen. 

 

P.S.: Zwischen messen und zählen ist sicher auch noch ein gewisser unterscheid.

bearbeitet von Winkelsucher
Link zum Beitrag
Auf anderen Seiten teilen

Zwischen messen und zählen ist sicher auch noch ein gewisser unterscheid.

„Messen“ heißt in diesem Fall doch einfach, ein einzelnes Photon zu detektieren. Und genau das tut ein Photonenzähler. Dazu zählt er dann noch die detektierten Photonen.

 

Übrigens: Wenn Dir eine Kamera Raw-Daten mit 14 Bit pro Pixel liefert, sind es sowieso nur ein Photon oder ein paar Photonen, die für eine 1 im niedrigstwertigen Bit sorgen.

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...