Jump to content

Vergleich Dynamikumfang G-Format, APS-C und 2/3"


Empfohlene BeitrÀge

Werbung (verschwindet nach Registrierung)

NaturgemĂ€ĂŸ bringt eine höhere Auflösung mehr Vorteile als Nachteile. Deshalb steigt die Auflösung bei MFT, APS-C, KB und MF mit fast jeder Sensorgeneration. Selbst 1"-Kameras haben lĂ€ngst 20 MP, und es gab schonmal ein Smartphone mit mehr als 40 MP.

 

Sensoren mit vergleichsweise geringer Auflösung findet man nur bei Spezialkameras, etwa solchen fĂŒr Video/Kino (wobei dort der Trend auch lĂ€ngst zu 8K geht) und Sport/Action (Nikon D5, Sony A9, Canon EOS 1DX2).

 

Ich kenne niemanden mit Sachverstand, der das (vehement oder anderweitig) bestreitet.

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 135
  • Created
  • Letzte Antwort
Gast Farbschlachterei

Flysurfer, wie siehst Du die Entwicklungsmöglichkeiten? Wird sich fĂŒr APS-C kĂŒnftig der Dynamikumfang noch deutlich erhöhen lassen? Oder ist der Drops fĂŒr APS-C irgendwann gelutscht?

Link zum Beitrag
Auf anderen Seiten teilen

NaturgemĂ€ĂŸ bringt eine höhere Auflösung mehr Vorteile als Nachteile. Deshalb steigt die Auflösung bei MFT, APS-C, KB und MF mit fast jeder Sensorgeneration...

Auflösung ja, Dynamikumfang und Rauschverhalten nicht unbedingt (oft gar nicht oder nicht in gleichem Maße)

 

 

NaturgemĂ€ĂŸ bringt eine höhere Auflösung mehr Vorteile als Nachteile...

Ich kenne niemanden mit Sachverstand, der das (vehement oder anderweitig) bestreitet.

FĂŒrwahr, eine Binsenweisheit.

Wobei jemand mit Sachverstand gleichzeitig in der Lage ist zu entscheiden, was er(sie) fĂŒr die eigene Fotopraxis wirklich braucht und nutzt. Blindlings und hyperventilierend jede marketing-gehypte MP-Steigerung als Offenbarung und Riesenfortschritt aufzusaugen ohne kĂŒhl die eigenen BedĂŒrfnisse zu analysieren zeugt auch nicht gerade von Sachverstand

Link zum Beitrag
Auf anderen Seiten teilen

Flysurfer, wie siehst Du die Entwicklungsmöglichkeiten? Wird sich fĂŒr APS-C kĂŒnftig der Dynamikumfang noch deutlich erhöhen lassen? Oder ist der Drops fĂŒr APS-C irgendwann gelutscht?

 

Es werden sicherlich neue Technologien Einzug halten, mit denen sich der Dynamikumfang bei allen möglichen SensorgrĂ¶ĂŸen massiv steigern lĂ€sst. 

Link zum Beitrag
Auf anderen Seiten teilen

Gast Blickkontakt

Blindlings und hyperventilierend jede marketing-gehypte MP-Steigerung als Offenbarung und Riesenfortschritt aufzusaugen ohne kĂŒhl die eigenen BedĂŒrfnisse zu analysieren zeugt auch nicht gerade von Sachverstand

 

Mit der MP-Steigerung gehen ja meist auch andere Verbesserungen der neuen Kameras einher, z. B. ein Joystick, verbesserter Autofokus, bessere Akkuleistung, ein zweiter Kartenslot, höhere Bildrate im Serienbildmodus mit grĂ¶ĂŸerem Buffer, weniger Rauschen, bessere Video-FĂ€higkeiten. Das gehört zu einem System alles mit dazu, da kann man nicht alles auf MP reduzieren und den KĂ€ufern Sachverstand absprechen.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mit der MP-Steigerung gehen ja meist auch andere Verbesserungen der neuen Kameras einher, z. B. ein Joystick, verbesserter Autofokus, bessere Akkuleistung, ein zweiter Kartenslot, höhere Bildrate im Serienbildmodus mit grĂ¶ĂŸerem Buffer, weniger Rauschen, bessere Video-FĂ€higkeiten. Das gehört zu einem System alles mit dazu, da kann man nicht alles auf MP reduzieren und den KĂ€ufern Sachverstand absprechen.

Nichts anderes habe ich gesagt. Die eigenen BedĂŒrfnisse kĂŒhl abwĂ€gen, nicht allein die MP als Offenbarung feiern. Die individuelle Analyse (eigener BedĂŒrfnisse und Fotopraxis) können zum Kauf oder zum Nicht-Kauf fĂŒhren

Link zum Beitrag
Auf anderen Seiten teilen

Wird sich fĂŒr APS-C kĂŒnftig der Dynamikumfang noch deutlich erhöhen lassen? Oder ist der Drops fĂŒr APS-C irgendwann gelutscht?

Da das Grundmaterial dasselbe ist, ist der Drops entweder fĂŒr alle Formate oder fĂŒr keines gelutscht 


 

Man sollte allerdings auch mal innehalten und bedenken, dass wir heute so viel Dynamikumfang haben, wie es ihn in der Fotografie noch nie gab (mit Standardmodellen, nicht irgendwelchen Spezialkameras). Und diesen Dynamikumfang mĂŒssen wir ja erst einmal auf Bildschirm oder Papier bringen, ohne dass das Bild entweder flau oder unnatĂŒrlich wirkt.

Link zum Beitrag
Auf anderen Seiten teilen

Gast Farbschlachterei

Zumalen die Steigerung der Auflösung ja eine unvermeidbare Marktbewegung ist. Dem entkommt man ja nicht wenn man Um- oder Einsteigt, bzw. irgendwann wirklich "upgraden" möchte. Klar kannste Dir ein Vorjahresmodell kaufen. Aber auch dieses ist ja nur ein "Opfer" einer Entwicklung.

Link zum Beitrag
Auf anderen Seiten teilen

Ich wĂ€re ja blöd, wenn ich die höhere Auflösung nicht mitnehmen wĂŒrde. Wenn das jedoch die einzige echte Verbesserung wĂ€re, wĂŒrde ich auf manches Upgrade wohl verzichten. TatsĂ€chlich mache ich das praktisch auch, deshalb habe ich zwar alle drei Merrils von Sigma, nicht aber deren Nachfolger. Stattdessen konzentriere ich mich lieber auf die GFX und ihre Nachfolger.

Link zum Beitrag
Auf anderen Seiten teilen

Ich wollte gerade einen neuen Intel Pentium 4 kaufen, weil der ausreicht, um die RAWs meiner neuen Pentax K10D zu bearbeiten, aber weder Intel noch Pentax wollen mir diese Modelle (in neuer AusfĂŒhrung) verkaufen.

Die Entwicklung geht weiter, denn weder Hersteller noch Kunden wollen Stillstand oder RĂŒckschritt.

Link zum Beitrag
Auf anderen Seiten teilen

Gast Farbschlachterei

Ich wollte gerade einen neuen Intel Pentium 4 kaufen, weil der ausreicht, um die RAWs meiner neuen Pentax K10D zu bearbeiten, aber weder Intel noch Pentax wollen mir diese Modelle (in neuer AusfĂŒhrung) verkaufen.

Die Entwicklung geht weiter, denn weder Hersteller noch Kunden wollen Stillstand oder RĂŒckschritt.

 

Also wenn Du willst? Ich habe hier im Keller noch ein Motherboard fĂŒr zwei Slots 1, bestĂŒckt mit SMP tauglichen Celeron auf MSI Adapterplatinen. Wahlweise mit NT oder einen einem hochangepassten Linux. Das aktuelle Windows beherrscht glaube ich sogar den Umgang mit zwei Prozessoren :lol:

 

Nein, mal im Ernst. NatĂŒrlich bieten Kameras heute mehr als mal zu erwarten war. Und ich bin der letzte der jeder vermeintlichen Neuerung hinterherlĂ€uft - zumalen diese Materialschlacht auch auch un/öko/nomisch/logisch ist.

 

Aber es ist und bleibt ja ein Thema.

 

Gibt es beim Rauschen eigentlich mathematische RegelmÀssigkeiten oder Wechselwirkungen zwischen den Zellen? Clusterrauschen? :lol: :lol:

Link zum Beitrag
Auf anderen Seiten teilen

Gibt es beim Rauschen eigentlich mathematische RegelmÀssigkeiten oder Wechselwirkungen zwischen den Zellen? Clusterrauschen? :lol: :lol:

Kaum. Das grobkörnige, niederfrequente Rauschen ist ein Artefakt der RauschunterdrĂŒckung. Wenn man weißes Rauschen weichzeichnet, ergibt sich der gleiche Effekt, obwohl es keine Korrelation zwischen den Pixeln gibt. (Wenn man wĂŒrfelt, wird man unweigerlich irgendwann mal zwei oder drei Mal hintereinander eine 6 wĂŒrfeln, und das bedeutet nicht, dass der WĂŒrfel gezinkt wĂ€re.)

Link zum Beitrag
Auf anderen Seiten teilen

Das Rauschen an sich wÀre ja nicht so gravierend, mich stört eher der Verlust an

Detailzeichnung bei sehr hohen ISO.

Wenn sich da etwas bessern wĂŒrde wĂ€re das schon ein Impuls zur Neuanschaffung.

Die Fuji ist da ja schon mal ganz gut, aber man stĂ¶ĂŸt an Grenzen, wenn man in sehr

hohen ISO arbeitet.

Das Rauschen ist bei den Fujis ja sehr angenehm, da fein und gleichmĂ€ĂŸig.

Link zum Beitrag
Auf anderen Seiten teilen

Das Rauschen an sich wÀre ja nicht so gravierend, mich stört eher der Verlust an

Detailzeichnung bei sehr hohen ISO.

Wenn sich da etwas bessern wĂŒrde wĂ€re das schon ein Impuls zur Neuanschaffung.

Die Fuji ist da ja schon mal ganz gut, aber man stĂ¶ĂŸt an Grenzen, wenn man in sehr

hohen ISO arbeitet.

Das Rauschen ist bei den Fujis ja sehr angenehm, da fein und gleichmĂ€ĂŸig.

 

Bei hohen ISO wird das Photonenrauschen stÀrker, dagegen kommen wir nicht an.

Nun kann man das Rauschen wegfiltern. Je höher die ISO desto stÀrker das Rauschen, desto aggressiver muss gefiltert werden.

HierfĂŒr gibt es mehrere Arten von Filtern (GlĂ€ttung = nicht so gut, besser: low-pass Frequenzraumfilter o.a.).

Alle diese Filter haben aber mehr oder weniger die Eigenschaft, dass sie sich negativ auf die Detailzeichnung auswirken. Bei raffinierten Filtern mit komplexen Algorithmen weniger, bei primitiven Filtern mehr.

 

Die aktuellen Sony-Sensoren mit ihrer BSI-Technik sind so beschaffen, dass sie nur noch ein sehr geringes technisch bedingtes (nicht-Photonen-)Rauschen aufweisen. Verbesserungen werden hier m.A.n. nur noch ausgehend von einem jetzt schon sehr hohem bestehenden Niveau und damit in eher geringer AusprĂ€gung und unter ggf. hohem technischen Aufwand stattfinden. Das physikalisch bedingte Photonenrauschen dagegen (bedingt durch die immer geringer werdende Zahl der ĂŒberhaupt auf die Zelle auftreffenden Lichtquanten) kann eine auch noch so raffinierte Sensortechnik nicht beeinflussen. Der geringe Gewinn an noch möglicher technischer Rauschverbesserung (unter hohem Aufwand) wird in die Auflösung gesteckt. Der X-Trans-III Sensor ist vom Rauschverhalten geringfĂŒgig besser als X-Trans-II, hat aber auch mehr Auflösung. Bei einem 36- oder 39-MPix-Sensor wird es dann vielleicht noch schwieriger, das jetzige Rauschniveau bei gesteigerter Auflösung zu halten bzw. noch zu toppen. Die Luft wird da immer dĂŒnner, denn es handelt sich um betragsmĂ€ĂŸig im Vergleich zum ĂŒberwiegenden Photonenrauschen immer geringere technische Optimierungen.

 

D.h. wir kommen wahrscheinlich tatsÀchlich zunehmend an die physikalischen Grenzen. Jedenfalls wenn wir beim CMOS-Sensor bleiben. Mit anderen Sensortechnologien kann das vielleicht wieder anders aussehen, weil da vielleicht der gesamte Wirkungsgrad höher wird. (?) Schwer vorhersehbar.

Wie schon so oft gesagt: weniger Photonenrauschen gibt es nur bei grĂ¶ĂŸeren Sensoren. Unter dem oben schon beschriebenen Äquivalenznachteil, womit sich praxisbezogen der Vorteil aus dem besseren Rauschverhalten teilweise wieder relativiert.

 

Ein anderes Problem bei hohen ISOs ist die sinkende Dynamik, das bedeutet: sinkender Kontrast. Auch der sinkende Kontrast wirkt sich negativ auf die Detailzeichnung aus, denn wo kein Kontrast, da auch keine Kante.

Link zum Beitrag
Auf anderen Seiten teilen

Nun kann man das Rauschen wegfiltern. Je höher die ISO desto stÀrker das Rauschen, desto aggressiver muss gefiltert werden.

HierfĂŒr gibt es mehrere Arten von Filtern (GlĂ€ttung = nicht so gut, besser: low-pass Frequenzraumfilter o.a.).

Alle diese Filter haben aber mehr oder weniger die Eigenschaft, dass sie sich negativ auf die Detailzeichnung auswirken. Bei raffinierten Filtern mit komplexen Algorithmen weniger, bei primitiven Filtern mehr.

Ja, wenn bei hohen ISO-Werten die Detailzeichnung verschwindet, liegt das an der allzu grobschlĂ€chtigen RauschunterdrĂŒckung, Sobald man diese im Raw-Konverter reduziert, tauchen auch Details (und die Farben) wieder auf. NatĂŒrlich kann das Rauschen selbst feine Details so stark ĂŒberdecken, dass sie sich kaum noch auflösen lassen, aber es steckt mehr Detailzeichnung in den High-ISO-Bildern, als man auf den ersten Blick erkennt.

 

Bei einem 36- oder 39-MPix-Sensor wird es dann vielleicht noch schwieriger, das jetzige Rauschniveau bei gesteigerter Auflösung zu halten bzw. noch zu toppen. Die Luft wird da immer dĂŒnner, denn es handelt sich um betragsmĂ€ĂŸig im Vergleich zum ĂŒberwiegenden Photonenrauschen immer geringere technische Optimierungen.

Ja, schon, aber wenn man, sagen wir, ein Sensorpixel durch deren vier ersetzt, sammelt man im Idealfall immer noch genauso viele Photonen, kann deren Position aber genauer registrieren und gewinnt so immer noch an Auflösung. In der RealitĂ€t rutschen dann ein paar Photonen durch die Ritzen und gehen verloren, aber das Endergebnis ist gar nicht so schlecht. Man darf nur nicht den Fehler machen, sich das Ergebnis bei 100 Prozent anzuschauen. 96 MP aus einem X-Trans-Sensor, nach dem Demosaicing auf 24 MP herunterskaliert, dĂŒrften erkennbar besser als das Bild eines 24-MP-Sensors aussehen. Rico hat das ja immer wieder erklĂ€rt.

 

Mit anderen Sensortechnologien kann das vielleicht wieder anders aussehen, weil da vielleicht der gesamte Wirkungsgrad höher wird.

Beispielsweise hĂ€tte ein Quantenfilm-Sensor wohl einen höheren Wirkungsgrad, insofern mehr Photonen absorbiert werden. Und da im CMOS-Chip unter dem Quantenfilm die Fotodioden in jedem Pixel wegfallen, dĂŒrfte es mehr Platz fĂŒr den Ladungsspeicher geben.

 

Und dann gibt es noch diverse Tricks, mit denen bereits experimentiert wurde, die es aber noch nicht zur Serienreife gebracht haben. Etwa dass der Ladungsspeicher immer dann, wenn er voll ist, entleert wird, und nur die zum Schluss gespeicherte Ladung ausgelesen wird (wie oft er vorher komplett gefĂŒllt wurde, lĂ€sst sich recht gut erraten). Oder dass man nicht die gespeicherte Ladung ausliest, sondern die Zeit misst, die vergeht, bis der Ladungsspeicher gefĂŒllt ist (oder zweimal, dreimal, viermal etc. gefĂŒllt ist). Alternative AnsĂ€tze gibt es genug, und es ist nicht davon auszugehen, dass wir am Ende der Sensorentwicklung stĂŒnden.

Link zum Beitrag
Auf anderen Seiten teilen

. 96 MP aus einem X-Trans-Sensor, nach dem Demosaicing auf 24 MP herunterskaliert, dĂŒrften erkennbar besser als das Bild eines 24-MP-Sensors aussehen. Rico hat das ja immer wieder erklĂ€rt.

 

 

 

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dĂŒrfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler wĂŒrden den Auflösungsgewinn zunichte machen.

 

Gruss

Heinz

Link zum Beitrag
Auf anderen Seiten teilen

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dĂŒrfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler wĂŒrden den Auflösungsgewinn zunichte machen.

NatĂŒrlich stellt eine hohe Auflösung höhere Anforderungen, das ist ja klar. Aber dass so hohe Auflösungen ihren Sinn haben, zeigen Kameras mit beweglichem Sensor (Olympus etc.) schon lĂ€nger. Und zwar in der Praxis. Mit ordentlichen Objektiven funktioniert das. Und wenn man dazu nur noch eine einzige Aufnahme braucht, funktioniert das noch viel besser.

Link zum Beitrag
Auf anderen Seiten teilen

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dĂŒrfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler wĂŒrden den Auflösungsgewinn zunichte machen.

 

 

Warum sollte man all das zwingend benötigen, wenn man herunterskaliert, zumal bekanntlich auch Altglas vom Auflösungsgewinn profitiert? Es geht doch in erster Linie um den Wegfall von Artefakten. Meine GFX liefert jedenfalls auch mit einem alten Helios 44 fĂŒr 15 EUR bessere Bilder – sogar in nativer Auflösung.

 

NatĂŒrlich ist richtig, dass höhere Auflösungen (egal ob virtuell oder real) ein sorgfĂ€ltigeres Arbeiten erfordern. Schnell kommt man in den Bereich, wo einerseits die Beugung das Bild weicher macht, wĂ€hrend man andererseits noch weiter abblenden mĂŒsste, um eine pixelscharfe SchĂ€rfentiefe zu erreichen. Aber auch hier herrscht dann eben wieder das MissverstĂ€ndnis vor, dass man etwa an einer GFX wirklich fertige Bilder mit 100 MP haben möchte. Möchte man aber meistens gar nicht. Wenn mein Ausgabeformat jedoch nur 24 MP ist, kann ich fĂŒr die SchĂ€rfentiefeberechnung einen großzĂŒgigeren Zerstreuungskreis zugrundelegen, der sich eher am Abstand meiner virtuellen Ausgabepixel orientiert als an dem meiner realen Aufnahmepixel. Die realen Pixel brauche ich ja nur fĂŒrs Oversampling, und wer es noch nicht wusste: Beugungsformeln gehen immer von perfekten RGB-Pixeln aus, also quasi solchen von Foveon-Sensoren, gaukeln also eine Auflösung vor, die man mit einem CFA-Sensor praktisch nie erreicht. Indem man die Beugung anhand des Abstands der virtuellen Pixel berechnet, bekommt man sogar realistischere Werte. Bisher ist es deshalb ja auch so, dass man auf die theoretischen maximalen Blendenzahlen immer noch etwas aufschlagen darf, weil die reale Auflösung zum Beispiel eines 24-MP-Sensors deutlich unter echten 24 MP liegt.

Link zum Beitrag
Auf anderen Seiten teilen

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dĂŒrfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler wĂŒrden den Auflösungsgewinn zunichte machen.

Man kann den Auflösungsgewinn nicht "zunichte" machen, die resultierende Ortsfrequenz ist das Ergebnis einer Übertragungsfunktion und ein wesentlicher Bestandteil dieser Funktion wiederum ist die Bruttoauflösung des Bildsensors. Also: Wenn alles andere gleich (gut oder schlecht) bleibt, wird eine Auflösungssteigerung immer auch einen Gewinn erbringen. Nur Pixelpeeper allerdings erwarten da eine lineare Steigerung. Dass es die nicht geben kann, zeigt die Übertragungsfunktion, in die ja Aberrationen, Defokussierung, Bewegung, Beugung etc. mit eingeht, ebenso.

Link zum Beitrag
Auf anderen Seiten teilen

Woher soll die Auflösung kommen, die die Optik nicht liefert? Es wird dann eben die relative UnschÀrfe höher aufgelöst

 

 

Die Optik liefert die bessere Auflösung ja. Wurde doch schon hunderte Male demonstriert, gerade erst vor ein paar Minuten wieder hier im Forum im Video mit der Phase One.

Link zum Beitrag
Auf anderen Seiten teilen

Archiviert

Dieses Thema ist jetzt archiviert und fĂŒr weitere Antworten gesperrt.

×
×
  • Neu erstellen...