Jump to content

Vergleich Dynamikumfang G-Format, APS-C und 2/3"


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Naturgemäß bringt eine höhere Auflösung mehr Vorteile als Nachteile. Deshalb steigt die Auflösung bei MFT, APS-C, KB und MF mit fast jeder Sensorgeneration. Selbst 1"-Kameras haben längst 20 MP, und es gab schonmal ein Smartphone mit mehr als 40 MP.

 

Sensoren mit vergleichsweise geringer Auflösung findet man nur bei Spezialkameras, etwa solchen für Video/Kino (wobei dort der Trend auch längst zu 8K geht) und Sport/Action (Nikon D5, Sony A9, Canon EOS 1DX2).

 

Ich kenne niemanden mit Sachverstand, der das (vehement oder anderweitig) bestreitet.

Link zum Beitrag
Auf anderen Seiten teilen

Gast Farbschlachterei

Flysurfer, wie siehst Du die Entwicklungsmöglichkeiten? Wird sich für APS-C künftig der Dynamikumfang noch deutlich erhöhen lassen? Oder ist der Drops für APS-C irgendwann gelutscht?

Link zum Beitrag
Auf anderen Seiten teilen

Naturgemäß bringt eine höhere Auflösung mehr Vorteile als Nachteile. Deshalb steigt die Auflösung bei MFT, APS-C, KB und MF mit fast jeder Sensorgeneration...

Auflösung ja, Dynamikumfang und Rauschverhalten nicht unbedingt (oft gar nicht oder nicht in gleichem Maße)

 

 

Naturgemäß bringt eine höhere Auflösung mehr Vorteile als Nachteile...

Ich kenne niemanden mit Sachverstand, der das (vehement oder anderweitig) bestreitet.

Fürwahr, eine Binsenweisheit.

Wobei jemand mit Sachverstand gleichzeitig in der Lage ist zu entscheiden, was er(sie) für die eigene Fotopraxis wirklich braucht und nutzt. Blindlings und hyperventilierend jede marketing-gehypte MP-Steigerung als Offenbarung und Riesenfortschritt aufzusaugen ohne kühl die eigenen Bedürfnisse zu analysieren zeugt auch nicht gerade von Sachverstand

bearbeitet von Viewfinder
Link zum Beitrag
Auf anderen Seiten teilen

Flysurfer, wie siehst Du die Entwicklungsmöglichkeiten? Wird sich für APS-C künftig der Dynamikumfang noch deutlich erhöhen lassen? Oder ist der Drops für APS-C irgendwann gelutscht?

 

Es werden sicherlich neue Technologien Einzug halten, mit denen sich der Dynamikumfang bei allen möglichen Sensorgrößen massiv steigern lässt. 

Link zum Beitrag
Auf anderen Seiten teilen

Gast Blickkontakt

Blindlings und hyperventilierend jede marketing-gehypte MP-Steigerung als Offenbarung und Riesenfortschritt aufzusaugen ohne kühl die eigenen Bedürfnisse zu analysieren zeugt auch nicht gerade von Sachverstand

 

Mit der MP-Steigerung gehen ja meist auch andere Verbesserungen der neuen Kameras einher, z. B. ein Joystick, verbesserter Autofokus, bessere Akkuleistung, ein zweiter Kartenslot, höhere Bildrate im Serienbildmodus mit größerem Buffer, weniger Rauschen, bessere Video-Fähigkeiten. Das gehört zu einem System alles mit dazu, da kann man nicht alles auf MP reduzieren und den Käufern Sachverstand absprechen.

bearbeitet von Blickkontakt
Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

Mit der MP-Steigerung gehen ja meist auch andere Verbesserungen der neuen Kameras einher, z. B. ein Joystick, verbesserter Autofokus, bessere Akkuleistung, ein zweiter Kartenslot, höhere Bildrate im Serienbildmodus mit größerem Buffer, weniger Rauschen, bessere Video-Fähigkeiten. Das gehört zu einem System alles mit dazu, da kann man nicht alles auf MP reduzieren und den Käufern Sachverstand absprechen.

Nichts anderes habe ich gesagt. Die eigenen Bedürfnisse kühl abwägen, nicht allein die MP als Offenbarung feiern. Die individuelle Analyse (eigener Bedürfnisse und Fotopraxis) können zum Kauf oder zum Nicht-Kauf führen

Link zum Beitrag
Auf anderen Seiten teilen

Wird sich für APS-C künftig der Dynamikumfang noch deutlich erhöhen lassen? Oder ist der Drops für APS-C irgendwann gelutscht?

Da das Grundmaterial dasselbe ist, ist der Drops entweder für alle Formate oder für keines gelutscht …

 

Man sollte allerdings auch mal innehalten und bedenken, dass wir heute so viel Dynamikumfang haben, wie es ihn in der Fotografie noch nie gab (mit Standardmodellen, nicht irgendwelchen Spezialkameras). Und diesen Dynamikumfang müssen wir ja erst einmal auf Bildschirm oder Papier bringen, ohne dass das Bild entweder flau oder unnatürlich wirkt.

Link zum Beitrag
Auf anderen Seiten teilen

Gast Farbschlachterei

Zumalen die Steigerung der Auflösung ja eine unvermeidbare Marktbewegung ist. Dem entkommt man ja nicht wenn man Um- oder Einsteigt, bzw. irgendwann wirklich "upgraden" möchte. Klar kannste Dir ein Vorjahresmodell kaufen. Aber auch dieses ist ja nur ein "Opfer" einer Entwicklung.

Link zum Beitrag
Auf anderen Seiten teilen

Ich wäre ja blöd, wenn ich die höhere Auflösung nicht mitnehmen würde. Wenn das jedoch die einzige echte Verbesserung wäre, würde ich auf manches Upgrade wohl verzichten. Tatsächlich mache ich das praktisch auch, deshalb habe ich zwar alle drei Merrils von Sigma, nicht aber deren Nachfolger. Stattdessen konzentriere ich mich lieber auf die GFX und ihre Nachfolger.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Ich wollte gerade einen neuen Intel Pentium 4 kaufen, weil der ausreicht, um die RAWs meiner neuen Pentax K10D zu bearbeiten, aber weder Intel noch Pentax wollen mir diese Modelle (in neuer Ausführung) verkaufen.

Die Entwicklung geht weiter, denn weder Hersteller noch Kunden wollen Stillstand oder Rückschritt.

Link zum Beitrag
Auf anderen Seiten teilen

Gast Farbschlachterei

Ich wollte gerade einen neuen Intel Pentium 4 kaufen, weil der ausreicht, um die RAWs meiner neuen Pentax K10D zu bearbeiten, aber weder Intel noch Pentax wollen mir diese Modelle (in neuer Ausführung) verkaufen.

Die Entwicklung geht weiter, denn weder Hersteller noch Kunden wollen Stillstand oder Rückschritt.

 

Also wenn Du willst? Ich habe hier im Keller noch ein Motherboard für zwei Slots 1, bestückt mit SMP tauglichen Celeron auf MSI Adapterplatinen. Wahlweise mit NT oder einen einem hochangepassten Linux. Das aktuelle Windows beherrscht glaube ich sogar den Umgang mit zwei Prozessoren :lol:

 

Nein, mal im Ernst. Natürlich bieten Kameras heute mehr als mal zu erwarten war. Und ich bin der letzte der jeder vermeintlichen Neuerung hinterherläuft - zumalen diese Materialschlacht auch auch un/öko/nomisch/logisch ist.

 

Aber es ist und bleibt ja ein Thema.

 

Gibt es beim Rauschen eigentlich mathematische Regelmässigkeiten oder Wechselwirkungen zwischen den Zellen? Clusterrauschen? :lol: :lol:

bearbeitet von Farbschlachterei
Link zum Beitrag
Auf anderen Seiten teilen

Gibt es beim Rauschen eigentlich mathematische Regelmässigkeiten oder Wechselwirkungen zwischen den Zellen? Clusterrauschen? :lol: :lol:

Kaum. Das grobkörnige, niederfrequente Rauschen ist ein Artefakt der Rauschunterdrückung. Wenn man weißes Rauschen weichzeichnet, ergibt sich der gleiche Effekt, obwohl es keine Korrelation zwischen den Pixeln gibt. (Wenn man würfelt, wird man unweigerlich irgendwann mal zwei oder drei Mal hintereinander eine 6 würfeln, und das bedeutet nicht, dass der Würfel gezinkt wäre.)

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Das Rauschen an sich wäre ja nicht so gravierend, mich stört eher der Verlust an

Detailzeichnung bei sehr hohen ISO.

Wenn sich da etwas bessern würde wäre das schon ein Impuls zur Neuanschaffung.

Die Fuji ist da ja schon mal ganz gut, aber man stößt an Grenzen, wenn man in sehr

hohen ISO arbeitet.

Das Rauschen ist bei den Fujis ja sehr angenehm, da fein und gleichmäßig.

Link zum Beitrag
Auf anderen Seiten teilen

Das Rauschen an sich wäre ja nicht so gravierend, mich stört eher der Verlust an

Detailzeichnung bei sehr hohen ISO.

Wenn sich da etwas bessern würde wäre das schon ein Impuls zur Neuanschaffung.

Die Fuji ist da ja schon mal ganz gut, aber man stößt an Grenzen, wenn man in sehr

hohen ISO arbeitet.

Das Rauschen ist bei den Fujis ja sehr angenehm, da fein und gleichmäßig.

 

Bei hohen ISO wird das Photonenrauschen stärker, dagegen kommen wir nicht an.

Nun kann man das Rauschen wegfiltern. Je höher die ISO desto stärker das Rauschen, desto aggressiver muss gefiltert werden.

Hierfür gibt es mehrere Arten von Filtern (Glättung = nicht so gut, besser: low-pass Frequenzraumfilter o.a.).

Alle diese Filter haben aber mehr oder weniger die Eigenschaft, dass sie sich negativ auf die Detailzeichnung auswirken. Bei raffinierten Filtern mit komplexen Algorithmen weniger, bei primitiven Filtern mehr.

 

Die aktuellen Sony-Sensoren mit ihrer BSI-Technik sind so beschaffen, dass sie nur noch ein sehr geringes technisch bedingtes (nicht-Photonen-)Rauschen aufweisen. Verbesserungen werden hier m.A.n. nur noch ausgehend von einem jetzt schon sehr hohem bestehenden Niveau und damit in eher geringer Ausprägung und unter ggf. hohem technischen Aufwand stattfinden. Das physikalisch bedingte Photonenrauschen dagegen (bedingt durch die immer geringer werdende Zahl der überhaupt auf die Zelle auftreffenden Lichtquanten) kann eine auch noch so raffinierte Sensortechnik nicht beeinflussen. Der geringe Gewinn an noch möglicher technischer Rauschverbesserung (unter hohem Aufwand) wird in die Auflösung gesteckt. Der X-Trans-III Sensor ist vom Rauschverhalten geringfügig besser als X-Trans-II, hat aber auch mehr Auflösung. Bei einem 36- oder 39-MPix-Sensor wird es dann vielleicht noch schwieriger, das jetzige Rauschniveau bei gesteigerter Auflösung zu halten bzw. noch zu toppen. Die Luft wird da immer dünner, denn es handelt sich um betragsmäßig im Vergleich zum überwiegenden Photonenrauschen immer geringere technische Optimierungen.

 

D.h. wir kommen wahrscheinlich tatsächlich zunehmend an die physikalischen Grenzen. Jedenfalls wenn wir beim CMOS-Sensor bleiben. Mit anderen Sensortechnologien kann das vielleicht wieder anders aussehen, weil da vielleicht der gesamte Wirkungsgrad höher wird. (?) Schwer vorhersehbar.

Wie schon so oft gesagt: weniger Photonenrauschen gibt es nur bei größeren Sensoren. Unter dem oben schon beschriebenen Äquivalenznachteil, womit sich praxisbezogen der Vorteil aus dem besseren Rauschverhalten teilweise wieder relativiert.

 

Ein anderes Problem bei hohen ISOs ist die sinkende Dynamik, das bedeutet: sinkender Kontrast. Auch der sinkende Kontrast wirkt sich negativ auf die Detailzeichnung aus, denn wo kein Kontrast, da auch keine Kante.

bearbeitet von Bluepixel
Link zum Beitrag
Auf anderen Seiten teilen

Nun kann man das Rauschen wegfiltern. Je höher die ISO desto stärker das Rauschen, desto aggressiver muss gefiltert werden.

Hierfür gibt es mehrere Arten von Filtern (Glättung = nicht so gut, besser: low-pass Frequenzraumfilter o.a.).

Alle diese Filter haben aber mehr oder weniger die Eigenschaft, dass sie sich negativ auf die Detailzeichnung auswirken. Bei raffinierten Filtern mit komplexen Algorithmen weniger, bei primitiven Filtern mehr.

Ja, wenn bei hohen ISO-Werten die Detailzeichnung verschwindet, liegt das an der allzu grobschlächtigen Rauschunterdrückung, Sobald man diese im Raw-Konverter reduziert, tauchen auch Details (und die Farben) wieder auf. Natürlich kann das Rauschen selbst feine Details so stark überdecken, dass sie sich kaum noch auflösen lassen, aber es steckt mehr Detailzeichnung in den High-ISO-Bildern, als man auf den ersten Blick erkennt.

 

Bei einem 36- oder 39-MPix-Sensor wird es dann vielleicht noch schwieriger, das jetzige Rauschniveau bei gesteigerter Auflösung zu halten bzw. noch zu toppen. Die Luft wird da immer dünner, denn es handelt sich um betragsmäßig im Vergleich zum überwiegenden Photonenrauschen immer geringere technische Optimierungen.

Ja, schon, aber wenn man, sagen wir, ein Sensorpixel durch deren vier ersetzt, sammelt man im Idealfall immer noch genauso viele Photonen, kann deren Position aber genauer registrieren und gewinnt so immer noch an Auflösung. In der Realität rutschen dann ein paar Photonen durch die Ritzen und gehen verloren, aber das Endergebnis ist gar nicht so schlecht. Man darf nur nicht den Fehler machen, sich das Ergebnis bei 100 Prozent anzuschauen. 96 MP aus einem X-Trans-Sensor, nach dem Demosaicing auf 24 MP herunterskaliert, dürften erkennbar besser als das Bild eines 24-MP-Sensors aussehen. Rico hat das ja immer wieder erklärt.

 

Mit anderen Sensortechnologien kann das vielleicht wieder anders aussehen, weil da vielleicht der gesamte Wirkungsgrad höher wird.

Beispielsweise hätte ein Quantenfilm-Sensor wohl einen höheren Wirkungsgrad, insofern mehr Photonen absorbiert werden. Und da im CMOS-Chip unter dem Quantenfilm die Fotodioden in jedem Pixel wegfallen, dürfte es mehr Platz für den Ladungsspeicher geben.

 

Und dann gibt es noch diverse Tricks, mit denen bereits experimentiert wurde, die es aber noch nicht zur Serienreife gebracht haben. Etwa dass der Ladungsspeicher immer dann, wenn er voll ist, entleert wird, und nur die zum Schluss gespeicherte Ladung ausgelesen wird (wie oft er vorher komplett gefüllt wurde, lässt sich recht gut erraten). Oder dass man nicht die gespeicherte Ladung ausliest, sondern die Zeit misst, die vergeht, bis der Ladungsspeicher gefüllt ist (oder zweimal, dreimal, viermal etc. gefüllt ist). Alternative Ansätze gibt es genug, und es ist nicht davon auszugehen, dass wir am Ende der Sensorentwicklung stünden.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

. 96 MP aus einem X-Trans-Sensor, nach dem Demosaicing auf 24 MP herunterskaliert, dürften erkennbar besser als das Bild eines 24-MP-Sensors aussehen. Rico hat das ja immer wieder erklärt.

 

 

 

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dürfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler würden den Auflösungsgewinn zunichte machen.

 

Gruss

Heinz

Link zum Beitrag
Auf anderen Seiten teilen

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dürfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler würden den Auflösungsgewinn zunichte machen.

Natürlich stellt eine hohe Auflösung höhere Anforderungen, das ist ja klar. Aber dass so hohe Auflösungen ihren Sinn haben, zeigen Kameras mit beweglichem Sensor (Olympus etc.) schon länger. Und zwar in der Praxis. Mit ordentlichen Objektiven funktioniert das. Und wenn man dazu nur noch eine einzige Aufnahme braucht, funktioniert das noch viel besser.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dürfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler würden den Auflösungsgewinn zunichte machen.

 

 

Warum sollte man all das zwingend benötigen, wenn man herunterskaliert, zumal bekanntlich auch Altglas vom Auflösungsgewinn profitiert? Es geht doch in erster Linie um den Wegfall von Artefakten. Meine GFX liefert jedenfalls auch mit einem alten Helios 44 für 15 EUR bessere Bilder – sogar in nativer Auflösung.

 

Natürlich ist richtig, dass höhere Auflösungen (egal ob virtuell oder real) ein sorgfältigeres Arbeiten erfordern. Schnell kommt man in den Bereich, wo einerseits die Beugung das Bild weicher macht, während man andererseits noch weiter abblenden müsste, um eine pixelscharfe Schärfentiefe zu erreichen. Aber auch hier herrscht dann eben wieder das Missverständnis vor, dass man etwa an einer GFX wirklich fertige Bilder mit 100 MP haben möchte. Möchte man aber meistens gar nicht. Wenn mein Ausgabeformat jedoch nur 24 MP ist, kann ich für die Schärfentiefeberechnung einen großzügigeren Zerstreuungskreis zugrundelegen, der sich eher am Abstand meiner virtuellen Ausgabepixel orientiert als an dem meiner realen Aufnahmepixel. Die realen Pixel brauche ich ja nur fürs Oversampling, und wer es noch nicht wusste: Beugungsformeln gehen immer von perfekten RGB-Pixeln aus, also quasi solchen von Foveon-Sensoren, gaukeln also eine Auflösung vor, die man mit einem CFA-Sensor praktisch nie erreicht. Indem man die Beugung anhand des Abstands der virtuellen Pixel berechnet, bekommt man sogar realistischere Werte. Bisher ist es deshalb ja auch so, dass man auf die theoretischen maximalen Blendenzahlen immer noch etwas aufschlagen darf, weil die reale Auflösung zum Beispiel eines 24-MP-Sensors deutlich unter echten 24 MP liegt.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Theoretisch ja, prakisch bezweifle ich das. Erstens benötigt man Objektive, die das auflösen und zweitens dürfte man nur noch mit Stativ arbeiten. Selbst kleinste Mikroverwackler würden den Auflösungsgewinn zunichte machen.

Man kann den Auflösungsgewinn nicht "zunichte" machen, die resultierende Ortsfrequenz ist das Ergebnis einer Übertragungsfunktion und ein wesentlicher Bestandteil dieser Funktion wiederum ist die Bruttoauflösung des Bildsensors. Also: Wenn alles andere gleich (gut oder schlecht) bleibt, wird eine Auflösungssteigerung immer auch einen Gewinn erbringen. Nur Pixelpeeper allerdings erwarten da eine lineare Steigerung. Dass es die nicht geben kann, zeigt die Übertragungsfunktion, in die ja Aberrationen, Defokussierung, Bewegung, Beugung etc. mit eingeht, ebenso.

Link zum Beitrag
Auf anderen Seiten teilen

Woher soll die Auflösung kommen, die die Optik nicht liefert? Es wird dann eben die relative Unschärfe höher aufgelöst

 

 

Die Optik liefert die bessere Auflösung ja. Wurde doch schon hunderte Male demonstriert, gerade erst vor ein paar Minuten wieder hier im Forum im Video mit der Phase One.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...