Jump to content

Detailgenauigkeit - KB vs. APSC, Film vs. Digital


gust

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Helft mir beim Denken! - es geht mir um das Herausarbeiten von Bilddetails.

 

Neulich kam die Erkenntnis über mich, dass die Logik 'Negativformat geht vor' aus der Filmzeit für Digital nicht mehr gilt: für ein gewünschtes Bildformat, zB. 40x50cm mußte ein MF-Negativ (zB 6x6) weniger vergrößert werden als ein KB-Negativ. Bei gleichem Filmtyp wurde somit das Filmkorn weniger aufgeblasen und das Bild zeigte mehr 'echte' Details.

Zu der Zeit zielte der technische Fortschritt dahin, die Silberwölkchen (Korn) zu verkleinern um mehr davon und diese möglich gleichmäßig groß zu machen - in Zusammenarbeit mit der Entwicklerchemie. Außerdem wurden neue Glassorten entwickelt und damit die Objektive verbessert.

 

Bei Digital wird das Motiv erstmal auf ein dimensionslos definiertes Mosaik von 16, 24, 36 etc. Millionen quadratischer 'einfarbiger' Speicherplätzen abgebildet. Die Größe der einzelnen Mosaiksteinchen bestimmt eigentlich nur die Klarheit der Farbe (wieviele Photonen bei gegebenem Lichtverhältnis kann das Pixel aufgrund der Fläche aufnehmen - wo muss es 'raten' = rauschen?)

Die Forschung arbeitet offensichtlich daran, die Mosaiksteinchen einerseits immer weiter zu verkleinern um das damit erzeugte Mosaik detailreicher auszugestalten, anderseits aber jedes einzelne Steinchen empfindlicher zu machen um aus den folglich je Stein weniger auftreffenden Photonen wieder die transportierte 'Farbe' zu ermitteln. Zusätzlich sollen die Rechenalgoritmen verfeinert werden um aus dem Raster einfarbiger quadratischer Steinchen 'runde' Details zu 'erraten' .

 

Ich gestehe, ich habe keine Vorstellung über die Größenverhältnisse von Filmkorn und Pixel(gruppen - es muss ja zusätzlich aus einem Bayer bzw. Fuji-Raster demosaiciert werden).

Was ist heute das Kriterium für die Detailgenauigkeit eines Bildes?

 

 

Jetzt fällt mir auch noch ein: Zu Beginn der Digitalzeit hatte ich ein Aha-Erlebnis. Ein Kollege hatte an der Wand ein 30x40 cm Bild hängen, aufgenommen mit einer damals aktuellen 1,2 MP Hosentaschen-Kamera. Es zeigte seine Frau am Strand liegend mit Kinn auf den gekreuzten Armen in die Kamera blickend. Jedes feine blonde Hährchen auf den Armen war zu sehen. Ich begann zu rechnen: 1,2 MP sind etwa 1300 x 900 Pixel. Also etwa 3 Pixel pro Millimeter auf dem Bild, effektiv aber vielleicht nur etwa 2 - weil ja erst noch jeweils zwei nebeneinander liegende Pixel (bezogen auf eine Reihe) miteinander verrechnet werden müsser (Bayer-Matrix). Die Darstellung der Hährchen waren aber im Druck in der Ausbelichtung bestimmt dünner als 1/3 Millimeter...

 

Eine geruhsame Weihnachtszeit wünscht Euch

August

bearbeitet von gust
Link zum Beitrag
Auf anderen Seiten teilen

Helft mir beim Denken! - es geht mir um das Herausarbeiten von Bilddetails.

....

 

Gerne.

 

Die Herausforderung besteht allerdings darin, dass die richtigen Antworten auf deine Fragen relativ komplex sind, d.h., jede einfache und forengerechte Antwort wird aufgrund ihrer Unterkomplexität falsch sein und würde dann unweihnachtliche Beschimpfungen nach sich ziehen.

 

Vielleicht solltest du dir zunächst die Grundlagen der Bildverarbeitung zu Gemüte führen (siehe z.B. da). Da ist auch recht genau beschrieben, wie das mit den Treppchen funktioniert (siehe Filterfunktionen).

Link zum Beitrag
Auf anderen Seiten teilen

Danke für deine schnelle Antwort Harlem. Das mit den Treppchen ('ich sah auch keine Treppchen' bei den Haaren) habe ich kurz danach herausgenommen, weil das Thema wirklich zu weitläufig geworden wäre. Aber du warst schneller!

 

Die Grundidee meines Themas ist tatsächlich: wann ist ein größeres Aufnahmeformat jetzt eigentlich noch sinnvoll / sichtbar? (nach meiner 'epochalen Erkenntnis' :rolleyes: ) .

Welchen Einfluß haben eigentlich moderne Objektive?

Und anscheinend spielen auch die Druckertreiber ordentlich mit (Hährchen dünner als Pixel )?

bearbeitet von gust
Link zum Beitrag
Auf anderen Seiten teilen

Danke für deine schnelle Antwort Harlem. Das mit den Treppchen ('ich sah auch keine Treppchen' bei den Haaren) habe ich kurz danach herausgenommen, weil das Thema wirklich zu weitläufig geworden wäre. Aber du warst schneller!

 

Die Grundidee meines Themas ist tatsächlich: wann ist ein größeres Aufnahmeformat jetzt eigentlich noch sinnvoll / sichtbar? (nach meiner 'epochalen Erkenntnis' :rolleyes: ) .

Welchen Einfluß haben eigentlich moderne Objektive?

Und anscheinend spielen auch die Druckertreiber ordentlich mit (Hährchen dünner als Pixel )?

 

Bevor du die Intelligenz der Druckertreiber überbewertest, schau dir doch mal in dem Link, den ich dir geschickt habe, die Hough-Transformation an (s. 68 ff.). Die weist dir den Weg, warum wir in einer Matrix strukturelle Details (z.B. einen Haarstrich) erkennen können, die feiner als die Auflösung der Matrix sind.

 

Und dann solltest du bei deiner epochalen Forschung noch die Transformationsfähigkeit unseres biologischen Computers berücksichtigen. Der hilft dir bei der Erkennung eines Haarstrichs, auch wenn dieser nicht pixelgenau abgebildet ist.

Link zum Beitrag
Auf anderen Seiten teilen

Danke Harlem für den Link. Zu allererst habe ich daraus eine große Hochachtung empfunden für Leute, die es schaffen, die Information aus einem groben Mosaik so zu transformieren, dass mein (dein, sein...) biologischer Computer befriedigt wird. (Bei den Hährchen hatte ich damals die Welt nicht mehr verstanden...)

 

Ich kann aber jetzt meine Fragestellung etwas eingrenzen, möglicherweise auch im Sinne von Sokrates, der ja seine Schüler aufforderte, ihre Fragen selbst zu beantworten:

 

- Liegt es am Auflösungsvermögen der Objektive bzw. in deren Vermögen/Rechnung, Strukturen in gleicher Frequenz wie die Pixelgrößen des Sensors aufzulösen? - dann müßten bevorzugte Sensor/Objektiv-Kombinationen existieren. Gibt es da schon Erfahrungswerte?

 

- Liegt es an den Gläsern der Objektive, alle drei Farben in einem Punkt (oder sehr nahe daran) darzustellen? - dann wären die neueren (weil 'Apo'-) Gläser zu bevorzugen.  Aber das kann ich in der Nachbearbeitung zumindest in großen Teilen beheben/abmildern. Asphärische Linsen kümmern sich wohl nur um die Schärfedarstellung der Ränder in der flachen Pixel-Ebene. ?

 

- Die Größe der einzelnen Pixel sind wohl nur bei schwachem Licht interessant. Je größer desto weniger Rauschen!?

 

- Die Anzahl der Pixel unterstützen die Auflösung der Details. Je mehr desto besser!  - Mehr und gleichzeitig gleichbleibend große Pixel zusammen erfordern dann aber ein größeres Sensorformat mit allen daraus resultierenden Konsequenzen.

 

- Verwackelung: Offenbar sind großflächigere Pixel weniger anfällig - ich kann wackeln soviel ich will solange der Punkt auf demselben Pixel bleibt. Ich denke, das gilt auch für das Vermögen des Bildstabilisators. ?

 

- Kontrastdarstellung. Ich denke, das Vermögen hellste und dunkelste Bildteile gemeinsam darzustellen hat den analogen Film schon längst überholt.

 

Was habe ich vergessen?

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...