Jump to content

Die Zukunft der X-Serie (APS-C) - ein Ausblick auf 2022


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Diese Gel-Linse gibt's ja nun schon seit ein paar hundert Millionen Jahre: die Augenlinse.

Die kann aber nur auf einen Punkt scharfstellen. Die Elon-ValentinW-Linse müsste also das Objekt abrastern und zeilenartig auf den Sensor projizieren.

Außerdem nur Festbrennweite, er wollte ja ein Zoom.

Link zum Beitrag
Auf anderen Seiten teilen

Diese Gel-Linse gibt's ja nun schon seit ein paar hundert Millionen Jahre: die Augenlinse.

Die hat auch keine besonders gute Abbildungsqualität, aber das wird ja alles per Software (Gehirn) korrigiert … Die Linse in unserem Auge muss auch nur in einem sehr kleinen Bildfeld ein scharfes Bild erzeugen, da wir jenseits davon nicht sehr scharf sehen.

Link zum Beitrag
Auf anderen Seiten teilen

Die hat auch keine besonders gute Abbildungsqualität, aber das wird ja alles per Software (Gehirn) korrigiert … Die Linse in unserem Auge muss auch nur in einem sehr kleinen Bildfeld ein scharfes Bild erzeugen, da wir jenseits davon nicht sehr scharf sehen.

Wir vielleicht nicht, aber ein Adler  - oder noch besser - ein Turmfalke schon. Der Mensch besitzt ca. 200.000 Sehzellen, der Turmfalke hingegen 1,5 Millionen (= Megapixel) davon. Er kann eine Maus noch in einer Entfernung von 1,5 Kilometern erkennen. Im Sturzflug schafft er 300km/h (superschnellerzoom) und hält dabei die volle Sehschärfe (Fokus) Also irgend etwas davon könnte man sich sicher abkupfern, die Kamera in Richtung des Modelles werfen fällt dabei nicht darunter :-)

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Wir vielleicht nicht, aber ein Adler  - oder noch besser - ein Turmfalke schon.

Es geht nicht um die Sehschärfe dort, wo wir scharf sehen – und da sieht ein Turmfalke tatsächlich noch viel schärfer als ein Mensch –, sondern um die Größe des Bereichs, in dem wir überhaupt scharf sehen, und die ist sehr gering.

 

So oder so wird die Aufgabe des Auges dadurch vereinfacht, dass Bilder für das Gehirn nur Mittel zum Zweck sind – wir wollen Dinge erkennen, nicht Bilder erzeugen. Der Turmfalke will ja auch die Maus erbeuten und ist nicht bloß auf Fotosafari unterwegs. Das Gehirn erzeugt daher nie vollständige Bilder, und wenn die kleinen Bilder, die im Prozess des Erkennens genutzt werden, ihre Schuldigkeit getan haben, werden sie gewissermaßen weggeworfen. Wir erinnern uns daran, was wir gesehen haben, aber wir haben keine Bilder (im fotografischen Sinne) im Kopf. Wenn beispielsweise die chromatische Aberration nicht verhindert, dass wir etwas erkennen, nehmen wir sie überhaupt nicht wahr, obwohl sie existiert. Das Gehirn macht sich nicht notwendigerweise die Mühe, zu korrigieren, sondern ignoriert einfach, was als Abbildungsfehler erkannt wird.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Der Turmfalke weiß auch wo er gucken muss nach der Maus, denn er kann auch die Urinspuren und damit das Wegenetz der Mäuse sehen. Ohne diese „Hilfslinien“ kann der Turmfalke keine einzelne Maus im Gesamtblickfeld ausmachen und entsprechend fokussieren.

https://www.deutschlandfunknova.de/beitrag/ultraviolettes-licht-leuchtender-urin

 

 

Gruß Christian

 

◟(◔ั₀◔ั )◞

https://500px.com/christiandamm

bearbeitet von Crischi74
Link zum Beitrag
Auf anderen Seiten teilen

https://nikonrumors.com/2017/07/20/the-latest-nikon-lens-patents-incl-35mm-f2-full-frame-lens-designed-for-a-curved-sensor.aspx 

 

Das Thema gebogene Sensoren dürfte schneller umsetzbar sein als eine Gel-Linse. Nur fürchte ich, wird das eher für Kompakte / Systemkameras mit festem Objektiv sinnvoll sein, da man ja kein "normales" Objektiv verwenden kann. Oder sehe ich da was falsch?

bearbeitet von Winkelsucher
Link zum Beitrag
Auf anderen Seiten teilen

Interessantes Segment. Wohl sowas wie zoombare Festbrennweiten oder religiöse Atheisten.

 

Und wieder ein eindrucksvoller Beitrag aus der Rubrik Goldwaage oder kleines Karo.  ;) 

 

Aber ich entschuldige mich selbstverständlich in aller Ausführlichkeit dafür, das mir vorhin der Begriff Bridgekamera nicht sofort eingefallen ist.

Link zum Beitrag
Auf anderen Seiten teilen

Das Thema gebogene Sensoren dürfte schneller umsetzbar sein als eine Gel-Linse. Nur fürchte ich, wird das eher für Kompakte / Systemkameras mit festem Objektiv sinnvoll sein, da man ja kein "normales" Objektiv verwenden kann. Oder sehe ich da was falsch?

Das ist so. Man braucht dafür Objektive mit unkorrigierter Bildfeldwölbung, an die man dann den Sensor anpasst. Kein Systemhersteller baut bislang solche Objektive. Vermutlich wird man so etwas am ehesten in industriellen Anwendungen sehen, vielleicht im Automobilbau, und natürlich in Smartphones.

Link zum Beitrag
Auf anderen Seiten teilen

ich hätte da mal eine Frage an die Experten im Forum

die Entwicklung der Sensoren ist ja schnell vorangeschritten, es gibt Sensoren selber Größe mit immer mehr Pixeln, dennnoch haben sich auch die ISO Zahlen erhöht ...

Könnte man nicht Sensoren bauen die z.B. 6 statt 3 Farben nutzen, so wie es ja auch 6 Farbdrucker gibt?
Damit würde doch die Farbenwiedergabe verbessert werden - ich brauche wirklich keine 50 Megepixel

Link zum Beitrag
Auf anderen Seiten teilen

Könnte man nicht Sensoren bauen die z.B. 6 statt 3 Farben nutzen, so wie es ja auch 6 Farbdrucker gibt?

 

Der Drucker verwendet vor allem deshalb mehr als 3 (4) Farben, da er bestimmte Töne aus den drei Grundfarben der subtraktiven Farbmischung nicht gut mischen kann. Z.B. tiefes Schwarz. Die Filter der Sensoren basieren auf additiver Farbmischung, welche zumindest theoretisch diese Probleme nicht hat.

 

Das Erhöhen der Auflösung macht schon Sinn, wenn man die Bayer / X-Trans Filter betrachtet. Hier hat ja jeder Pixel nur eine der drei Grundfarben, was zwangsläufig eine Interpolation der Farbinformation jedes Pixels mit seinen Nachbarn nötig macht. Erst das Erhöhen der Auflösung über einen bestimmten Schwellwert hat das Weglassen von Tiefpassfiltern erlaubt und damit eine deutlich höhere Detailtreue. Das betrifft nicht nur die Helligkeitsunterschiede sondern auch die Farbwiedergabe (farbiges Moiré).

Link zum Beitrag
Auf anderen Seiten teilen

Danke, Winkelsucher für deine Antwort

Da sich ja das Sonnenspektrum laufend verändert in Abhängigkeit von Sonnenstand und den Vorgängen in der Atmosphäre und auch die Einflüsse der Beleuchtung des Motivs/Objekts durch die umgebenden Körper die reflektieren, absorbieren und transmittieren (blaue Stunde, Waldstimmung ...) ...

wären da nicht mehr Stützstellen für die Interpolation der Farbwiedergang hilfreich?
Eine Mischung aus 3 Grundfarben ist doch nur das notwendige Minimum.

Link zum Beitrag
Auf anderen Seiten teilen

Eine Mischung aus 3 Grundfarben ist doch nur das notwendige Minimum.

Es macht aber auch Sinn, sich darauf zu beschränken. Schließlich begrenzt jeder Filter des CFA die gesammelte Photonenanzahl und damit das Signal. Schon mit 3 Farben werden also ~2/3 des Lichtes vom Filter geschluckt. Desweiteren ist eine zuverlässige Interpolation der Farben schon über 3/4 Zellen mit hohem Aufwand und/oder Auflösungsverlust verbunden, bei Bayer hilft es da durchaus für die meisten Strategien, wenn alle Farben in einem kleinen Raumbereich verfügbar sind und man nicht 5 Sensel weiter nach Farbinformationen des aktuellen Pixels suchen muss. Man stelle sich das mal in einem 6-Farb-Array vor...

bearbeitet von tabbycat
Link zum Beitrag
Auf anderen Seiten teilen

Waben haben den Nachteil, dass quasi alle darstellenden Systeme (Drucker, Monitore) Quadrate verwenden. Viele Formate verwenden nur RGB. Eine Wabenstruktur müsste also komplett neu quadratisch und auf 3 Kanäle gerendert werden. Außerdem wird es auch bei Waben irgendwann schwierig immer alle Farben benachbart zu haben. 

 

Eine Wabenstruktur mit RGB könnte interessant sein, da sie auf den ersten Blick weniger Moiré erzeugen könnte. Ich würde mich nicht wundern, wenn es solche Prototypen auch schon gab. Nur haben die dann auch die o.g. Probleme und da war es vermutlich einfacher die Pixel zu verkleinern. Und das wird auch künftig der einfachste Weg sein, bis man irgendwann an physikalische Grenzen stößt. 

 

Ich sehe auch die Vorteile nicht. Auf die Farbwiedergabe haben so viele Faktoren einen Einfluss und dies lässt sich auch mit am besten korrigieren. Beim Drucker liegen die Vorteile auf der Hand. Der kann einfach aus CMY(K) nicht alle Töne genau drucken. 

Link zum Beitrag
Auf anderen Seiten teilen

Unsere Augen kommen ganz gut mit drei Arten von Farbrezeptoren aus und da wir (und nicht Fangschreckenkrebse) uns die Bilder ja am Ende anschauen sollen, müsste das auch für Sensoren reichen. Es hat schon Hersteller gegeben, die mehr Farben verwendet haben; Sony hatte einst einen Sensor mit einem Rot/Grün/Cyan/Blau-Farbfiltermuster gebaut, aber das hat sich nicht durchgesetzt. Eine größere Zahl von Farbfiltern erfordert mehr Interpolation und geht daher auf Kosten der Auflösung; zudem müssten die Farbfilter dann schmalbandiger sein und ließen weniger Licht durch; die Sensoren würden also unempfindlicher – die üblichen roten, grünen und blauen Filter lassen insgesamt nur etwa die Hälfte des Lichts durch, weshalb monochrome Sensoren um eine Blendenstufe empfindlicher sind.

Link zum Beitrag
Auf anderen Seiten teilen

Beim Drucker liegen die Vorteile auf der Hand. Der kann einfach aus CMY(K) nicht alle Töne genau drucken.

Ein Tintendrucker kann seine Grundfarben nicht mischen – anders als ein Thermosublimationsdrucker, der deshalb mit weniger Farben auskommt. Die Mischung entsteht erst im Auge des Betrachters, denn der Drucker druckt feine Dithermuster aus verschiedenen Farben, die wir als Mischfarbe wahrnehmen. Da die Dithermuster sehr fein sind – die Drucker drucken mit Tausenden Druckpunkten pro Zoll, obwohl die gedruckten Bilder nur Hunderte Pixel pro Zoll haben –, funktioniert das recht gut, aber das Verfahren hat Grenzen. Wenn nur ein kleiner Anteil einer Farbe für eine Mischfarbe benötigt wird, müssen wenige Farbpunkte mit großem Abstand zwischen den Punkten gedruckt werden, denn das ist die einzige Möglichkeit, den Anteil der Farbe visuell zu reduzieren. Damit kann man aber keine feinen Strukturen mehr wiedergeben und das Dithermuster wird möglicherweise sichtbar. Dies lässt sich vermeiden, indem man mit mehr Farben druckt. Aus dem gleichen Grund bekommt man auch eine bessere Tonwertwiedergabe und Detailauflösung, wenn man Schwarzweißbilder nicht nur mit Schwarz, sondern auch mit Hellgrau und Dunkelgrau druckt.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...