Jump to content

Fujifilm GFX100 – 100 MP, Bildstabi und schneller AF


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 11 Stunden schrieb Swissbob:

Im Zweifelsfall wäre es also besser gleich zur PhaseOne zu greifen?

Was sollte das bringen außer Mehrkosten, höheres Gewicht und weniger Komfort?

 

vor 11 Stunden schrieb Swissbob:

Es ist schade dass sich bislang keiner einen MF Foveon Sensor getraut hat.

Da Foveon per se ziemlich wenig taugt, ist das überhaupt nicht schade. Oversampling liefert vergleichbare Ergebnisse ohne die ganzen Foveon-Nachteile.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Stunden schrieb flysurfer:

Ich persönlich bin fein raus, denn mein Ziel waren nie Ergebnisse mit 100 MP, sondern höchstens solche mit 8K-Auflösung, für die ich dreifaches Oversampling haben möchte, um unvermeidliche Demosacingfehler durch Downsampling weitgehend zu kompensieren. Meine GFX 100 soll Ergebnisse liefern, die sonst nur mit einer 35-MP-Foveon-Kamera denkbar wären. Mein Zielzerstreuungskreis ist somit großzügiger bemessen als die PIXEL BASIS der Kamera, sodass ich bei meiner GFX 100 auch weiter als bis f/8 abblenden darf. Davon mache ich auch ganz bewusst Gebrauch. Schade nur, dass es auf der praktischen Schärfentiefeskala zwischen PIXEL BASIS (zu konservativ) und FILM FORMAT BASIS (zu lasch) keine Zwischenwerte gibt. Diese vermisse ich, denn sie wären in der Praxis relevant, wenn man Ausgabegrößen wie 8K (7680 Px Breite) oder 50% (gut 25 MP) anstrebt, um in den Genuss zwar weniger, aber dafür umso perfekterer Pixel zu kommen.

Ich habe hier ein Verständnisproblem. Die Auflösungsverluste durch Beugungsunschärfe und Demosaicing bzw. Downsampling dürften doch voneinander unabhängig sein, erstere sind optischer, letztere digitaler Art. Wenn man auf f/11 oder mehr abblendet, verliert man effektive optische Auflösung, behält aber eine 100MP-Datei, die weniger Informationen enthält als wäre sie mit f/5.6 aufgenommen worden. Werden beim anschließenden Demosaicing und Downsampling statistisch nicht genauso viele "gute" wie "schlechte" Pixel entfernt, so dass die Datei zwar "besser" wird, aber längst nicht so gut wie ein 35MP-File aufgenommen mit f/5.6, weil ein Teil der optischen Beugungsunschärfe erhalten bleibt?

bearbeitet von MEPE
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb MEPE:

Ich habe hier ein Verständnisproblem. Die Auflösungsverluste durch Beugungsunschärfe und Demosaicing bzw. Downsampling dürften doch voneinander unabhängig sein, erstere sind optischer, letztere digitaler Art. Wenn man auf f/11 oder mehr abblendet, verliert man effektive optische Auflösung, behält aber eine 100MP-Datei, die weniger Informationen enthält als wäre sie mit f/5.6 aufgenommen worden. Werden beim anschließenden Demosaicing und Downsampling statistisch nicht genauso viele "gute" wie "schlechte" Pixel entfernt, so dass die Datei zwar "besser" wird, aber längst nicht so gut wie ein 35MP-File aufgenommen mit f/5.6, weil ein Teil der optischen Beugungsunschärfe erhalten bleibt?

Der Vergleich zwischen einer stark abgeblendeten Aufnahme mit 102 MP und Downsampling auf 35 MP einerseits und einer Aufnahme mit f/5,6 und einem 35-MP-Sensor macht nicht viel Sinn, denn von der Beugungsunschärfe her macht es zunächst einmal keinen Unterschied, ob ich von vornherein 35 MP abtaste oder von 102 MP auf 35 MP herunterskaliere. Die Blende ergibt sich aus der gewünschten Schärfentiefe, und auch in dieser Hinsicht sind die Bedingungen gleich. Man würde also in beiden Fällen die gleiche Blende wählen, und das Oversampling-Ergebnis fiele dann augenfällig überlegen aus. Tatsächlich bietet der 102-MP-Sensor aber auch Vorteile, wenn es um die Minimierung der Beugungsunschärfe geht, denn deren nachträgliche Reduzierung per Dekonvolution funktioniert um so besser (nämlich artefaktfreier), je höher die Ausgangsauflösung ist.

Ricos Überlegungen zur Wahl der Blende muss man unter dem Gesichtspunkt einer hypothetischen Situation sehen, in der jemand die Anforderungen eines 102-MP-Sensors zu erfüllen sucht. Dieser Unglücksmensch hat eine Kamera mit einem so hoch auflösenden Sensor und ein Objektiv mit entsprechend guter Kontrastübertragung bis zu den höchsten Ortsfrequenzen gekauft, und will nun für sein Geld auch die versprochene Auflösung im Bild sehen. Die gewünschte Tiefenschärfe erfordert eine kleine Blende, die Beugungsunschärfe aber eine große, und bei einer so hohen Zielauflösung sind diese Anforderungen unmöglich in Einklang zu bringen – das Objektiv könnte, der Sensor könnte, aber die Physik sagt trotzig „Mach’ ich nicht!“

Eine denkbare Schlussfolgerung wäre, dass Auflösungen um 100 MP und mehr Quatsch sind, für den man gar kein Geld ausgeben sollte. Damit wäre man immerhin davor bewahrt, sich für eine Ausstattung zu verschulden, mit der man am Ende doch nicht so umgehen könnte, dass sich die Investition auszahlte. Aber hohe Sensorauflösungen bieten durchaus handfeste Vorteile. Einen, die günstigen Voraussetzungen für eine nachträgliche Reduzierung der Beugungsunschärfe, habe ich bereits genannt. Vor allem aber haben hohe Sensorauflösungen den Vorteil, dass man aus den Sensordaten angemessen, aber nicht extrem hoch aufgelöste Bilder ohne Demosaicing-Artefakte berechnen kann, ohne sich auf die Nachteile von Foveon-Sensoren einlassen zu müssen. 

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

Es ist in der Tat so, dass viele Benutzer glauben, dass sie die Sensorauflösung einer KB-Kameras mit 40, 50 oder 60 MP (oder nun einer GFX mit 100 MP) bei Landschaftsbildern wirklich "auf die Straße bringen" – auch dann, wenn sie so fotografieren wie vor 30 Jahren, also schön mit Blende 16 oder höher. Dass ihnen die Beugung eine Strich durch die Rechnung macht, wird gerne übersehen.

Der eigentliche Vorteil, nämlich solche Kameras für deutlich geringere Zielauflösungen als Oversampling-Geräte zu verwenden, wird ebenfalls übersehen.

Stattdessen liest man immer wieder vom tollen "Crop-Potenzial" der hochauflösenden Sensoren, was noch absurder ist, denn dabei vergrößert man das gebeugte Bildergebnis und das damit verbundene Auflösungsminus schließlich nur, damit es auch wirklich jeder sieht. Gleichzeitig hat man einen BQ-Verlust durch entgangenes (weil reduziertes oder im schlimmsten auf Null gesetztes) Oversampling und vergrößert diesen BQ-Verlust ebenfalls, damit ihn ja keiner übersieht.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Am 13.7.2019 um 21:31 schrieb X_Fanboy:

Kannst du. mir einfach mal sagen wieso du ein 46MB Bild raufladen musst, um die Schärfe zu sehen, wenn auch 2.2MB für dieselbe Grösse reichen...?

 

 

 

Mal eine Frage an die GFX 100 Besitzer:

Ich habe mir mal ein RAW Headshot von dpreview runter geladen und in C1 angesehen.

Aufgenommen mit dem 110 er bei f2.8. Dabei ist mir aufgefallen das die Wimpern und nicht die Pupille scharf ist.

Liegt das an einer Fehlfokussierung oder ist es kaum mehr möglich auf die Pupille zu fokussieren ?

Ist die Größe des Af Feldes falsch gewählt ?

Was meint Ihr? Kann natürlich auch sein das es sich bei dp um Fehler handelt.

Mit meiner GFX 50 S habe ich das Problem nicht.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Am 14.7.2019 um 21:54 schrieb flysurfer:

Ein Beispiel dafür stand in der Mai-Ausgabe von Fujilove Gear Talk.

Danke, sehr interessant! Alles begriffen habe ich wohl noch nicht.

Verstehe ich den Workflow richtig: Zuerst die basalen Anpassungen in LR, dann bei Bedarf das „Advanced demosaicing“ und erst dann die Reduktion der Ausgabegrösse? Oder kommt das „Advanced demosaicing“ nach dem Eindampfen?

Und hast Du allenfalls noch GFX 100 spezifische Ergänzungen zu Deinem Februar-Artikel zur Schärfung von RAW Files? Ich frage, weil mir auffällt, dass Aufnahmen von der GFX 100 in der RAW-Entwicklung anders und eher stärker geschärft werden müssen als bei GFX 50. Hab den Dreh noch raus...

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb flysurfer:

Was sollte das bringen außer Mehrkosten, höheres Gewicht und weniger Komfort?

 

Da Foveon per se ziemlich wenig taugt, ist das überhaupt nicht schade. Oversampling liefert vergleichbare Ergebnisse ohne die ganzen Foveon-Nachteile.

Höhere Auflösung und bessere Qualität durch einen grösseren Sensor 150MP statt 100MP

Was spricht gegen einen 3 Schichtsensor? Höheres Rauschen ist klar. 

Wenn ein 100MP Bayersensor etwa 35MP eines Foveon entsprechen würde, wäre ein 100MP Foveon eine eigene Liga. 

Ich bin Laie drum frag ich 🙂

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Minuten schrieb Swissbob:

Höhere Auflösung und bessere Qualität durch einen grösseren Sensor 150MP statt 100MP

 

Wenn 100 MP deinen Qualitätsansprüchen nicht genügen, sind 150 MP eine Option mit minimalem theoretischen Auflösungszugewinn – natürlich mit den gleichen Einschränkungen in Sachen Beugung, evtl. noch zuzüglich Spiegelschlag und minus IBIS. Hat aber nichts mit dem Thema hier zu tun (GFX 100).  

 

vor 8 Minuten schrieb Swissbob:

Wenn ein 100MP Bayersensor etwa 35MP eines Foveon entsprechen würde, wäre ein 100MP Foveon eine eigene Liga. 

Mit Sicherheit eine eigene Liga in der Kategorie "unbrauchbarste Kamera der Welt". Wäre ja auch was. 😁 Von Sigma kommt aber nun erstmal eine mit 20 MP Kleinbild.

Anyway: Hat auch nichts mit der GFX zu tun, die hat Bayer ohne Tiefpassfilter. Wer hat bisher eigentlich schon Moiré-Probleme gehabt?

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

vor 55 Minuten schrieb flysurfer:

Wenn 100 MP deinen Qualitätsansprüchen nicht genügen, sind 150 MP eine Option mit minimalem theoretischen Auflösungszugewinn – natürlich mit den gleichen Einschränkungen in Sachen Beugung, evtl. noch zuzüglich Spiegelschlag und minus IBIS. Hat aber nichts mit dem Thema hier zu tun (GFX 100).  

 

Mit Sicherheit eine eigene Liga in der Kategorie "unbrauchbarste Kamera der Welt". Wäre ja auch was. 😁 Von Sigma kommt aber nun erstmal eine mit 20 MP Kleinbild.

Anyway: Hat auch nichts mit der GFX zu tun, die hat Bayer ohne Tiefpassfilter. Wer hat bisher eigentlich schon Moiré-Probleme gehabt?

Ob 100MP reichen oder nicht, werde ich sehen, wenn mein Händler seine Demokamera da hat. 

Ich sehe die PhaseOne als sehr eingeschränkt einsetzbare Kamera, m.W. fehlt sogar der Wetterschutz. (aktuell ist auch da m.W. keine Demokamera verfügbar)

Je höher die Auflösungen werden, desto mühsamer wird’s mit der Beugung.( erschwerend kommen bei den MF Kameras die  in der Regel eher lichtschwachen Objektive hinzu)

Wieso meinst Du unbrauchbar? Ich bin neugierig 😃 

 

Nachtrag: Wie Du unschwer erkennen kannst gebe ich Dir in fast allen Punkten recht. 🙂

 

bearbeitet von Swissbob
Nachtrag
Link zum Beitrag
Auf anderen Seiten teilen

Am 14.7.2019 um 21:54 schrieb flysurfer:

Ein Beispiel dafür stand in der Mai-Ausgabe von Fujilove Gear Talk.

Nochmal zum dreifachen Oversampling, ich kann den Artikel nicht finden, kannst du bitte eine Link anggeben?

Dann frage ich mich ob der Faktor drei nicht eine sehr pessimistische Obergrenze ist. Bei einem reinen BW Foto hätte ich nur einen minimalen Verlust erwartet. Mit neuen Algorithmen wie von LR, advanced demosaicing, sind die Fehler relatic gering, siehe z.B. hier:

https://blog.kasson.com/the-last-word/acr-11-2-enhance-details-effect-on-details/

Oder habe ich etwas übersehen?

 

 

 

Link zum Beitrag
Auf anderen Seiten teilen

Faktor 3 ist ein etablierter Erfahrungswert, darüber hinaus ist der Grenznutzen ziemlich gering. Kann übrigens jeder selbst leicht ausprobieren, es gibt ja massenhaft Testchartaufnahmen auf dpreview und Co von Kameras mit unterschiedlichen Sensorauflösungen, die man schön mit verschiedenen Zielauflösungen vergleichen kann.

Zitat

Nochmal zum dreifachen Oversampling, ich kann den Artikel nicht finden, kannst du bitte eine Link anggeben?

fujilove.com, dann in den Abonnentenbereich.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Interessehalber habe ich schnell mal die GFX 50 und GFX 100 auf die X-T3 normalisiert. Die T3 wird dabei naturgemäß zur 4:3-Kamera mit 23,1 MP und bildet den ungecroppten Maßstab. GFX 50 und GFX 100 dann ebenfalls mit 23,1 MP: https://www.flickr.com/gp/ricopfirstinger/z05Wuq

Bei der GFX 50 sorgt das mehr als zweifache Oversampling für eine deutliche Verbesserung, die GFX 100 legt mit mehr als vierfachem Oversampling nochmal sichtbar nach.

Dass die GFX 50 ein größeres Moiré-Problem hat als die GFX 100 sieht man nebenbei auch noch.

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb flysurfer:

Hier noch ein anderer aufschlussreicher normalisierter Ausschnitt mit den drei Vergleichskameras: https://www.flickr.com/gp/ricopfirstinger/5kB2jD

Sehr interessant 🙂

 

Ist die sehr langsame Auslieferung der GFX 100 nur ein schweizer Problem, oder sind andere Länder in Europa genauso betroffen?

Link zum Beitrag
Auf anderen Seiten teilen

Die Beispiele zeigen einfach, dass eine hohe Ausgangsauflösung auch bei Ausgaben mit deutlich geringerer Auflösung bezüglich BQ absolut Sinn machen. Viele habenden Zusammenhang noch nicht verstanden und verstehen deshalb nicht warum so eine hohe Auflösung Sinn macht. Klar ist allerdings auch, nicht jede Aufnahme benötigt eine max. BQ um zu wirken.

Beeindruckend ist, wie wenig Farbmoire die GFX100 aufweist. Das ist aber auch schon bei 100MP Auflösung so.

Ich kann nur jeden der sich dafür interessiert empfehlen, den vergleich nach Ricos Vorgaben selbst zu machen. Braucht keine Stunde und man hat sehr viel Erkenntnisse gewonnen.

Peter

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb MightyBo:

Die Beispiele zeigen einfach, dass eine hohe Ausgangsauflösung auch bei Ausgaben mit deutlich geringerer Auflösung bezüglich BQ absolut Sinn machen.

Umso befremdlicher, dass man immer Wünsche oder gar Forderungen nach Kameras mit größeren Sensoren und weniger Pixeln liest. Dieser Hang zur Selbstverstümmelung, indem man unbedingt MEHR für WENIGER bezahlen möchte, ist schon merkwürdig. Bei den Smartphones arbeiten sie inzwischen mit 48 und 64 MP auf winzigen Sensoren, aber stellt man in Aussicht, dass APS-C zwangsläufig auf auf 8K getrimmt wird (was immer noch deutlich unter 48 MP liegt), hält sich die Begeisterung in Grenzen.

Wenn man Kameras mit 12, 24, 36 und 50 MP vergleicht und auf 12 MP skaliert, sieht man, in welchem Oversampling-Bereich die Verbesserungen besonders deutlich sind und wie der Grenznutzen dann langsam abnimmt, obwohl er weiterhin sichtbar ist. Auch mit fünf- und sechsfachem Oversampling wird man in passenden Motiven noch Verbesserungen gegenüber drei- oder vierfachem OS finden können, die Relevanz für die gelebte Praxis wird jedoch immer geringer. 

Siehe https://www.flickr.com/gp/ricopfirstinger/7ZLgi0 für meinen Vergleich von vier KB-Bayer-Kameras mit 12, 24, 36 und 50 MP Sensorauflösung bei 12 MP Zielgröße. 

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

Die Beispiele machen auch den Kompromiss deutlich, den Einchip-Sensoren eingehen. Die Auflösung ist nicht so hoch wie der Nominalwert. Dreichip-Sensoren,  wie sie früher hochwertige Videokameras hatten, sind in dieser Beziehung besser. Leider haben sie andere Nachteile. In der Technik ist fast alles ein Kompromiss, auch wenn die Ergebnisse, absolut gesehen, natürlich ziemlich  gut sind.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb Jürgen Heger:

Die Beispiele machen auch den Kompromiss deutlich, den Einchip-Sensoren eingehen. Die Auflösung ist nicht so hoch wie der Nominalwert.

Die fertigen Farbbilder werden mit Bayer und X-Trans nun einmal nicht aufgenommen, sondern nur interpoliert (educated guess). Das Demosaicing des RAW-Konverters (also die Qualität und Leistungsfähigkeit dieses Rateprozesses) spielt hier eine Schlüsselrolle und ist letztlich für 2/3 des Bildergebnisses verantwortlich, da die Kamera selbst im RAW nur 1/3 beiträgt. Deshalb investiere ich im Zweifelsfall auch mehr Geld in gute RAW-Software und die dazu notwendige Hardware als in eine neue Kamera.

Die Auflösung hängt immer davon ab, was im Bild zu sehen ist und wie gut oder schlecht (also wie präzise oder unpräzise) der Konverter dieses Bildbereich "erraten" kann. Ein guter Testchart ist natürlich voller Problembereiche, die Moiré , Zippering, Falschfarben und falsche Details etc. bei einem Konverter provozieren. Für meine RAW-Workshops verwende ich hierfür einen hundsgemeinen Chart, der jeden RAW-Konverter beim Demosaicing alt aussehen lässt – der dort gemachte Vergleich mit mehr als 10 verschiedenen Konvertern dient also nur dazu, herauszufinden, wie unterschiedlich alt sie aussehen. Auf dieser faktischen Basis kann man dann auch Internetmythen wie "Lightroom böse, Capture One gut" rasch als ebensolche entlarven und eine differenziertere Sichtweise einnehmen. 

bearbeitet von flysurfer
Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Stunden schrieb Thomas_M:

Dann frage ich mich ob der Faktor drei nicht eine sehr pessimistische Obergrenze ist.

Bei einem Sensor mit Farbfiltern im Bayer-Muster braucht man drei Sensorpixel, um alle Grundfarben beisammen zu haben, und vier (zwei mal zwei), wenn man den Sensor in Quadrate zerlegt. Daraus ergibt sich ein Faktor von 3 bis 4. Da die Luminanzinformationen vor allem aus den grünempfindlichen Sensorpixeln errechnet werden und diese die Hälfte aller Pixel ausmachen, ergibt sich für Schwarzweiß ein Faktor von 2. Insgesamt ist 3 ein plausibler Wert.

Wohlgemerkt: Selbst wenn man einfach jeweils 2 x 2 Sensorpixel nimmt und aus diesen ein Bildpixel mit allen RGB-Farben zusammensetzt (der Wert für Rot kommt aus dem rotempfindlichen Pixel, der für Blau aus dem blauempfindlichen Pixel und der Wert für Grün ist der Mittelwert der beiden grünempfindlichen Pixel), also auf Interpolation verzichtet, kann es immer noch Farbmoiré geben. Das Moiré entsteht ja dadurch, dass man ein Sensorpixel als repräsentativ für die Helligkeit dieser Farbe in der Nachbarschaft dieses Pixels nimmt, was es aber keineswegs immer ist. Gerade wenn das Objektiv auch feinste Strukturen mit hohem Kontrast wiedergibt, kann ein solches Pixel auch alles andere als repräsentativ sein – ein bisschen Unschärfe, aufgrund der Beugung vielleicht, wäre dann hilfreich. Daher muss man auch dann, wenn man eine niedrigere Zielauflösung vorgibt, noch immer interpolieren, nur dass die dabei immer noch entstehenden Fehler durch die Skalierung weitgehend verschwinden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb mjh:

Bei einem Sensor mit Farbfiltern im Bayer-Muster braucht man drei Sensorpixel, um alle Grundfarben beisammen zu haben, und vier (zwei mal zwei), wenn man den Sensor in Quadrate zerlegt. Daraus ergibt sich ein Faktor von 3 bis 4. Da die Luminanzinformationen vor allem aus den grünempfindlichen Sensorpixeln errechnet werden und diese die Hälfte aller Pixel ausmachen, ergibt sich für Schwarzweiß ein Faktor von 2. Insgesamt ist 3 ein plausibler Wert.

Wohlgemerkt: Selbst wenn man einfach jeweils 2 x 2 Sensorpixel nimmt und aus diesen ein Bildpixel mit allen RGB-Farben zusammensetzt (der Wert für Rot kommt aus dem rotempfindlichen Pixel, der für Blau aus dem blauempfindlichen Pixel und der Wert für Grün ist der Mittelwert der beiden grünempfindlichen Pixel), also auf Interpolation verzichtet, kann es immer noch Farbmoiré geben. Das Moiré entsteht ja dadurch, dass man ein Sensorpixel als repräsentativ für die Helligkeit dieser Farbe in der Nachbarschaft dieses Pixels nimmt, was es aber keineswegs immer ist. Gerade wenn das Objektiv auch feinste Strukturen mit hohem Kontrast wiedergibt, kann ein solches Pixel auch alles andere als repräsentativ sein – ein bisschen Unschärfe, aufgrund der Beugung vielleicht, wäre dann hilfreich. Daher muss man auch dann, wenn man eine niedrigere Zielauflösung vorgibt, noch immer interpolieren, nur dass die dabei immer noch entstehenden Fehler durch die Skalierung weitgehend verschwinden.

Der Faktor 3 wir sicherlich allgemein als Richtschnur angegeben, doch in meiner Frage weiter oben bezog ich mich explizit auf neue Algrorithmen wie Adobe Enhanced Detail, die mir deutlich überlegen scheinen :


https://blog.kasson.com/the-last-word/adobe-camera-raw-11-2-enhance-details/


https://blog.kasson.com/the-last-word/acr-11-2-enhance-details-effect-on-details/

Die Frage ist natürlich wie dies gelingt, Information zurück zu gewinnnen die eigentlich nicht vorhanden ist. Ein Weg ist Mustererkennung und das Training mit neuronalen Netzwerken. Dies ist nur möglich, weil in realen Bildern Artefakte wie sie beim Demosacien entsehen extrem unwahrscheinlich sind, man erkennt sie ja in den Bildern auch sofort, z.B. in Moire  in Gittern etc.  und das können Algorithmen auch lernen. Eine Vergleich von Foveon Sensoren und Bayer mit solchen Algoritmen demosaciert habe ich bisher nicht finden können und wäre für Infos oder passende Links sehr dankbar.

 
bearbeitet von Thomas_M
Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...