Jump to content

Sensor X-Pro1


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Mich würde mal interessieren, ob die X-Pro 1 tatsächlich mit dem viel beorakelten "organischen Sensor" ausgestattet sein wird, für den Fuji im letzten Herbst ein Patent angemeldet hat.

Link: https://www.fuji-x-forum.de/content/86-fujifilm-systemkamera-sensor.html

 

So wie ich die Reviews verstanden habe, hat der aktuelle Sensor schlicht eine intelligentere Pixelanordnung, ansonsten aber die herkömmliche Bayerarchitektur.

 

 

Gruß

Macbeth

Link zum Beitrag
Auf anderen Seiten teilen

Dein, das ganze Gerede von einem organischen Sensor war Quatsch; das hatten sich die üblichen Gerüchteverbreiter ausgedacht.

 

Fuji arbeitet tatsächlich an der organischen Sensortechnologie, aber das hat nichts mit der X-Pro1 zu tun. Das viel zitierte Patent hatte Fuji übrigens schon Anfang 2009 angemeldet – beim US-Patentamt; ein entsprechendes japanisches Patent datiert von 2008. Das US-Patent wurde aber erst Ende 2011 erteilt. Diese beiden Daten werden immer wieder verwechselt. Die Technologie, die im Patent beschrieben wird, geht offenbar auf Entwicklungen aus 2008 zurück. Was sich in Fujis Forschungslabors seitdem getan hat, wissen wir nicht, aber sicher ist, dass das Patent alten Kram beschreibt.

 

Was nun den Sensor der X-Pro1 betrifft, so hat er eine konventionelle CMOS-Basis (wohl von Sony), aber die Farbfilter haben eben nicht die klassische Bayer-Anordnung, sondern ein anderes Muster, das sich erst alle sechs Pixel (statt, wie beim Bayer-Muster, alle zwei Pixel) in waagerechter und senkrechter Richtung wiederholt. Damit soll es möglich sein, auch ohne ein auflösungsreduzierendes Antialiasingfilter Moiré zu vermeiden, wodurch sich die effektive Auflösung des Sensors vergrößert.

Link zum Beitrag
Auf anderen Seiten teilen

  • 1 month later...

Meine ist auch gerade angekommen. Aber, ach du Schreck, Lightroom (4) kann die RAWs nicht lesen. Wird das mit diesem Sensor überhaupt möglich sein?

 

Micha grüßt von seinem GT-N7000 mit Forum Runner

Link zum Beitrag
Auf anderen Seiten teilen

Zitat von Eric "Madman" Chan:

 

"Seriously, though, you can rest assured that work is already in progress. The reality here is that with a new color filter array (CFA) structure, it will take us a little longer to optimize the quality."

 

Chan gehört zum Kern der Adobe ARC-Entwickler.

 

Quelle: FUJI-XPRO1 SUPPORT IN LR4 COMING ???

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Man braucht halt Geduld. Es ist doch immer so: Wer sich ein brandneues Kameramodell kauft, muss damit rechnen, dass die meisten Raw-Konverter es noch nicht unterstützen; das dauert dann ein paar Wochen, manchmal auch länger. Und wenn das neue Modell keine behutsame Weiterentwicklung eines Vorgängermodells, sondern etwas ganz Neues ist, wird es noch länger dauern, bis die Softwareentwickler nachziehen, denn das macht nun mal mehr Arbeit.

Link zum Beitrag
Auf anderen Seiten teilen

Auch wenn die Tendenz sehr deutlich ist; ohne Angaben, was da überhaupt verglichen wird (RAW oder Kamera-jpeg, welche Software, wie war die Kamera eingestellt, wurde schon intern oder extern geschärft oder entrauscht, 100% oder skaliert.....) sind solche Vergleiche wertlos.

 

Gruß messi

Link zum Beitrag
Auf anderen Seiten teilen

Hallo,

gibt es eigentlich einen technischen Grund dafür, daß bei der X-Pro1 der "Bildrahmen" im OVF nicht mit den tatsächlichen Bilddimensionen übereinstimmt? Es sollten doch alle Daten bekannt sein, um den Rahmen, und nach dem Fokussieren auch seine Verschiebung aufgrund der Parallaxe exakt zu berechnen, oder?

Goddy

Link zum Beitrag
Auf anderen Seiten teilen

Das macht keine Sucherkamera, da ist immer etwas "Sicherheitsluft", auch bei der Mutter aller...Technisch machbar wär das sicher, der Justageaufwand und die Feinfühligkeit der Anzeigemimik würde vermutlich Preis und Aufwand in unangemessene Höhen treiben.

 

Aber das schöne am Hybridsucher: Wo es auf den absolut exakten Ausschnitt ankommt, switcht man einfach um auf EVF. Das ist doch genial!

 

Gruß messi

Link zum Beitrag
Auf anderen Seiten teilen

Das Bildfeld und damit die korrekte Größe des Sucherrahmens hinge von der Entfernung des hinteren Nodalpunkts vom Sensor ab. Sofern ein Objektiv nur durch Auszugsverlängerung scharfstellt, wäre diese leicht zu bestimmen; bei einer Innenfokussierung wäre es komplizierter und es hinge vom Objektiv ab, ob und wie sich der Bildwinkel mit der Entfernungseinstellung verändert.

Link zum Beitrag
Auf anderen Seiten teilen

Hallo, Michael,

danke für Deine Erläuterungen. Ich verstehe im Wesentlichen, daß ich mich hier auf ein Feld begeben habe, von dem ich nichts verstehe. Ich hatte mir überlegt, daß a) das Bildfeld des optischen Suchers bekannt ist und sich nicht verändert, und B) daß das genauso auf eine Festbrennweite zutrifft, sodaß immer der passende Rahmen projiziert werden kann. Wenn dann klar ist, auf welche Entfernung fokussiert wurde, müßte nur noch die Parallaxenverschiebung durchgeführt werden. Aber so einfach scheint die optische Welt wohl nicht zu sein.

Gruß, Goddy

Link zum Beitrag
Auf anderen Seiten teilen

Es gibt hier seit jeher den sogenannten Bildfeldschwund im Nahbereich – Leica-M-Fotografen kennen das. Die Sucherrahmen einer Leica M sind für eine relativ kurze Entfernung berechnet (welche genau, hängt vom Kameramodell ab), sodass das Bildfeld bei größeren Entfernungen größer ist – was innerhalb des Sucherrahmens liegt, kommt ziemlich sicher mit auf das Bild, je nach Entfernung aber auch noch mehr. Wenn der Sucherrahmen elektronisch erzeugt wird, könnte die Kamera seine Größe an die Entfernung anpassen, aber wie gesagt hängt das im Detail vom Objektiv ab. Wenn man durch Änderung des Auszugs fokussiert, also alle Linsen gemeinsam verschiebt, hängt das Bildfeld in einfacher Weise von dieser Verschiebung ab: Wenn die Entfernung zwischen Objektiv (oder vielmehr dessen hinteren Nodalpunkt) und Sensor gleich der Brennweite ist, hat man auf Unendlich fokussiert und der Bildwinkel ist maximal; zum Scharfstellen auf nähere Motive müssen die Linsen weiter vom Sensor entfernt sein, sodass der Bildwinkel schrumpft und der Sucherrahmen ebenfalls kleiner werden müsste. Aber man kann auch anders fokussieren: Mein Lieblingsbeispiel ist das menschliche Auge, bei dem die Linse immer gleich weit von der Netzhaut entfernt ist; unsere Augen fokussieren auf unterschiedliche Entfernungen, indem sie die Brennweite der Linse ändern. Dadurch bleibt der Bildwinkel immer gleich und ein nach demselben Prinzip konstruiertes Objektiv käme mit einem Sucherrahmen fester Größe aus. Man braucht also für jedes Objektiv eine Kennlinie (die im Objektiv selbst gespeichert sein könnte, das ja einen eigenen Prozessor enthält), die die Abhängigkeit des Bildfelds von der Entfernungseinstellung beschreibt, und bei Zoom-Objektiven auch in Abhängigkeit von der Brennweite. Das ist gar nicht so einfach, wie man denken könnte.

Link zum Beitrag
Auf anderen Seiten teilen

Archiviert

Dieses Thema ist jetzt archiviert und für weitere Antworten gesperrt.

×
×
  • Neu erstellen...