Rico Pfirstinger Geschrieben 19. Januar 2013 Share #26 Geschrieben 19. Januar 2013 Werbung (verschwindet nach Registrierung) Wie gut, dass sich normale Menschen an solchen "Diskussionen" nicht beteiligen müssen. Die gucken sich einfach an, was das neue Feature in der Praxis bringt (oder nicht bringt). Wenn es etwas bringt, wird man es an der Qualität der Fotos sehen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige Geschrieben 19. Januar 2013 Geschrieben 19. Januar 2013 Hallo Rico Pfirstinger, schau mal hier X-E1 versus Canon EOS 5D Mark III . Dort wird jeder fündig!
mjh Geschrieben 19. Januar 2013 Share #27 Geschrieben 19. Januar 2013 Klasse Sache, die Canon da erfunden hat: die können Informationen, die es nicht gibt wiederherstellen. Ich bin begeistert. Wobei ... wenn ich es mir recht überlege so kommt mir das doch sehr bekannt vor. Nennt sich in der Bildbearbeitung "Nachschärfen". Allerdings wusste ich nicht, dass durch das Nachschärfen, bereits durch die Optik verlorengegangene Details wieder hervorgezaubert werden. Es handelt sich nicht um Nachschärfen, sondern vermutlich (bei Canon wie bei Fuji) um eine Dekonvolution. Dekonvolutionsverfahren können hervorragende Ergebnisse bringen, wenn die Charakteristik der Unschärfe (technisch gesagt deren point spread function) bekannt ist. Außerdem muss die Art der Unschärfe dazu geeignet sein – Beugungsunschärfe ist eminent dafür geeignet und ebenso die sphärische Aberration, Unschärfe aufgrund einer Fehlfokussierung dagegen überhaupt nicht. Das ist auch alles nicht wirklich neu – Du erinnerst Dich vielleicht an die Erfolge, die die NASA damit beim eigentlich defekten Hubble Space Telescope erzielt hatte: Ohne Dekonvolution wären dessen Bilder völlig unbrauchbar gewesen, bevor drei Jahre nach dem Start eine Korrekturlinse installiert werden konnte. Neu ist nur, dass die Prozessoren in unseren Kameras mittlerweile so schnell sind, dass sie solche Operationen in Sekundenbruchteilen auf das gerade aufgenommene Bild anwenden können. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 19. Januar 2013 Share #28 Geschrieben 19. Januar 2013 JIch bezweifle, dass es Canon oder Fuji geschafft haben sollen, wirksame Dekonvulationsalgorithmen in die DSPs ihrer Kameras zu gießen Ich halte das größtenteils für Marketinggags, sonst würde nämlich auch irgendwo mal der Begriff Dekonvulation auf den Produkseiten auftauchen und nicht nur eine vage Beschreibung, die anscheinend daran erinnern soll. Das Marketing will das Publikum nicht mit Begriffen verwirren, die es nicht versteht (und eine lange Erklärung würde erst recht abschrecken). Deswegen gibt es ja Leute wie mich, die erklären, was hinter den Marketingbegriffen steckt – für die kleine Minderheit, die es genauer wissen will. Übrigens ist der Einsatz von Dekonvolution keine Hexerei; Olympus hatte solche Verfahren schon früher mal für die Entfernung von Verwacklungsunschärfe genutzt. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 19. Januar 2013 Share #29 Geschrieben 19. Januar 2013 Irgendwie beruhigend, dass die NASA beim Hubble nicht einfach nur "nachgeschärft" hat. In diesem Sinne ein schönes, möglichst dekonvuliertes Wochenende! Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Norden Geschrieben 19. Januar 2013 Share #30 Geschrieben 19. Januar 2013 Das Marketing will das Publikum nicht mit Begriffen verwirren, die es nicht versteht (und eine lange Erklärung würde erst recht abschrecken). Deswegen gibt es ja Leute wie mich, die erklären, was hinter den Marketingbegriffen steckt – für die kleine Minderheit, die es genauer wissen will. Übrigens ist der Einsatz von Dekonvolution keine Hexerei; Olympus hatte solche Verfahren schon früher mal für die Entfernung von Verwacklungsunschärfe genutzt. So toll kann das ja nicht funktioniert haben, sonst würden wir das sicher schon viel breiter am Markt sehen. Und dann wäre es sicher erstmal in Programmen wie PTLens oder Photoshop aufgetaucht, die mit ganz anderen Rechenresourcen arbeiten können (Desktoprechner mit Mehrkern-CPUs und viel Hauptspeicher) als die Kamerahersteller in ihren Gehäusen (wenig Platz, begrenzte Energieversorgung, etc.). Irgendwie beruhigend, dass die NASA beim Hubble nicht einfach nur "nachgeschärft" hat. In diesem Sinne ein schönes, möglichst dekonvuliertes Wochenende! Du willst doch nicht tatsächlich ernsthaft den Aufwand, der bei der NASA in der Bearbeitung jeden Bildes aus dem Weltraum betreibt, mit dem vergleichen, was Kamerahersteller in ihrer Kamera betreiben? Mal abgesehen von den weit auseinander liegenden Ansprüchen an das Ergebnis hat man es bei Hubble m.W. mit fester Brennweite, fester Blende, festem Fokus und etwas anderen Belichtungszeiten zu tun (von Mehrfachaufnahmen ganz zu schweigen). Aber egal, mir geht der Beissreflex der bei einigen direkt einsetzt, wenn man mal ein wenig kritischer nachfragt und nicht gleich alles für bare Münze nimmt, was aus Fujis Marketingabteilung kommt, schon rechtschaffend auf den Geist. Insofern werde ich mich hier aus solchen Diskussionen ab jetzt eher raushalten. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
tabbycat Geschrieben 19. Januar 2013 Share #31 Geschrieben 19. Januar 2013 Insofern werde ich mich hier aus solchen Diskussionen ab jetzt eher raushalten. Finde ich gut. Davon wird das Forum sicher gewaltig profitieren. Danke dafür. mfg tc Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Norden Geschrieben 19. Januar 2013 Share #32 Geschrieben 19. Januar 2013 Werbung (verschwindet nach Registrierung) Finde ich gut. Davon wird das Forum sicher gewaltig profitieren. Danke dafür. Musst ja nicht gleich weinen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 19. Januar 2013 Share #33 Geschrieben 19. Januar 2013 So toll kann das ja nicht funktioniert haben, sonst würden wir das sicher schon viel breiter am Markt sehen. Und dann wäre es sicher erstmal in Programmen wie PTLens oder Photoshop aufgetaucht, die mit ganz anderen Rechenresourcen arbeiten können (Desktoprechner mit Mehrkern-CPUs und viel Hauptspeicher) als die Kamerahersteller in ihren Gehäusen (wenig Platz, begrenzte Energieversorgung, etc.). Adobe beschäftigt sich seit einiger Zeit mit blinder Dekonvolution zum Herausrechnen von Bewegungsunschärfe, was ja noch aufwendiger ist; aktuelle Rechner schaffen das aber durchaus. Hier geht es allerdings um eine nicht-blinde Dekonvolution auf der Basis von Informationen, die die Kamera hat – Photoshop etc. hat sie nicht. Insofern ist das nicht vergleichbar. Du willst doch nicht tatsächlich ernsthaft den Aufwand, der bei der NASA in der Bearbeitung jeden Bildes aus dem Weltraum betreibt, mit dem vergleichen, was Kamerahersteller in ihrer Kamera betreiben? Die Performanz des Computers, der für die Mondlandung ausreichte, würde heute von einem Taschenrechner in den Schatten gestellt … Was Hubble betrifft, so reden wir von 1990; wir schreiben 2013 und ich nehme an, Moore’s Law sagt Dir etwas. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rogerbaby Geschrieben 19. Januar 2013 Share #34 Geschrieben 19. Januar 2013 sonst würden wir das sicher schon viel breiter am Markt sehen. Und dann wäre es sicher erstmal in Programmen wie PTLens oder Photoshop aufgetaucht, Dekonvulation wird von Adobe doch schon längst entwickelt als Software Stabi Another upcoming Photoshop feature: Image Deblurring | Photo Rumors Gruss Roger Link zum Beitrag Auf anderen Seiten teilen More sharing options...
xcell Geschrieben 19. Januar 2013 Share #35 Geschrieben 19. Januar 2013 Nicht nur bei Adobe, hab z.B. bereits das hier im Einsatz: https://github.com/Y-Vladimir/SmartDeblur Und hier Infos für die TechFreaks: https://github.com/Y-Vladimir/SmartDeblur http://yuzhikov.com/articles/BlurredImagesRestoration2.htm Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 19. Januar 2013 Share #36 Geschrieben 19. Januar 2013 Adobe beschäftigt sich seit einiger Zeit mit blinder Dekonvolution zum Herausrechnen von Bewegungsunschärfe, was ja noch aufwendiger ist; aktuelle Rechner schaffen das aber durchaus. Hier geht es allerdings um eine nicht-blinde Dekonvolution auf der Basis von Informationen, die die Kamera hat – Photoshop etc. hat sie nicht. Insofern ist das nicht vergleichbar. Die Performanz des Computers, der für die Mondlandung ausreichte, würde heute von einem Taschenrechner in den Schatten gestellt … Was Hubble betrifft, so reden wir von 1990; wir schreiben 2013 und ich nehme an, Moore’s Law sagt Dir etwas. Der eingebaute RAW-Konverter in der Kamera arbeitet bekanntlich auch erheblich schneller als jeder externe Konverter, was an den in der Kameras für diesen Zweck verbauten Spezialchips liegt. Ich gehe deshalb davon aus, dass der neue EXR II Prozessor ebenfalls über spezialsierte Schaltkreise verfügt, um solche neuen Aufgaben schnell durchzuführen. Wäre das Ganze reine Software, könnte man es einfach auch bei älteren Kameras nachrüsten. Genau das geht aber offenbar nicht. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Harlem Geschrieben 19. Januar 2013 Share #37 Geschrieben 19. Januar 2013 Die Performanz des Computers, der für die Mondlandung ausreichte... Jetzt will ich auch mal klugscheissen. Der Navigationsrechner der Eagle bestand aus ca. 5.000 integrierten Schaltkreisen, hatte 74 Kilobyte ROM und 4 Kilobyte RAM. Gewogen hat das ganze Teil ca. 30 kg. Was die Entwicklung der Rechenleistung zur Dekonvolution angeht: 1979 hatte ich im Rahmen einer kleinen Diplomarbeit aus Bit-Slice-Prozessoren für eine DEC-PDP 11 eine Co-Prozessor für Konvulation gebaut, weil eine normale CPU für "near-real-time" Fouriertransformationen zu langsam war. An Dekonvulation in Realtime war gar nicht zu denken. Übrigens, das waren Graubilder, mit einer Zeilenkamera aufgenommen, und mit einer damals sagenhaften Auflösung von 256 x 256 Pixel (Grau natürlich). Ja doch, was heute an Rechenpower in einer Kamera steckt, ist dagegen atemberaubend. Da werden wir in den nächsten Jahren noch genug Gründe haben, unsere Systeme auszutauschen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
coma Geschrieben 19. Januar 2013 Share #38 Geschrieben 19. Januar 2013 Der eingebaute RAW-Konverter in der Kamera arbeitet bekanntlich auch erheblich schneller als jeder externe Konverter, was an den in der Kameras für diesen Zweck verbauten Spezialchips liegt. Ich gehe deshalb davon aus, dass der neue EXR II Prozessor ebenfalls über spezialsierte Schaltkreise verfügt, um solche neuen Aufgaben schnell durchzuführen. Wäre das Ganze reine Software, könnte man es einfach auch bei älteren Kameras nachrüsten. Genau das geht aber offenbar nicht. Genau so ist es, der Optimierungsfilter wird (siehe X-Story) als "... eine Art Signalprozessor..." beschrieben. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 19. Januar 2013 Share #39 Geschrieben 19. Januar 2013 Was die Entwicklung der Rechenleistung zur Dekonvolution angeht: 1979 hatte ich im Rahmen einer kleinen Diplomarbeit aus Bit-Slice-Prozessoren für eine DEC-PDP 11 eine Co-Prozessor für Konvulation gebaut, weil eine normale CPU für "near-real-time" Fouriertransformationen zu langsam war. An Dekonvulation in Realtime war gar nicht zu denken. Übrigens, das waren Graubilder, mit einer Zeilenkamera aufgenommen, und mit einer damals sagenhaften Auflösung von 256 x 256 Pixel (Grau natürlich). Bei Prof. Nagel? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Harlem Geschrieben 19. Januar 2013 Share #40 Geschrieben 19. Januar 2013 Bei Prof. Nagel? Nein, war eine Auftragsarbeit für URW, VW und Bosch. Ich glaube, Frau Prof. Carls hatte mich betreut, weiß ich aber nicht mehr so genau. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 24. Januar 2013 Share #41 Geschrieben 24. Januar 2013 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 24. Januar 2013 Share #42 Geschrieben 24. Januar 2013 So sieht laut Fuji also das "Nachschärfen" aus. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
MightyBo Geschrieben 24. Januar 2013 Share #43 Geschrieben 24. Januar 2013 Ich hätte ja bei dem Bild ein anderes Detail vergrößert... Ich bin bei solchen nachträglichen Korrekturen vorsichtig. Schließlich interpretiert man die Sensorsignale. Leider gibt es meist keine 1:1 Beziehung. Also das es zwei verschieden Ausgangsbilder gibt, die den gleichen Fingerabdruck am Sensor hinterlassen. Wenn das so wäre würde das Bild falsch korrigiert werden. Ich bin da mal auf echte Vergleichsbilder gespannt. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 24. Januar 2013 Share #44 Geschrieben 24. Januar 2013 Leider gibt es meist keine 1:1 Beziehung. Also das es zwei verschieden Ausgangsbilder gibt, die den gleichen Fingerabdruck am Sensor hinterlassen. Das ist auch gar nicht nötig. Es geht darum, wie sich die Blende und das Objektiv auf die Abbildung eines Punktes auswirken. Der Sensor löst das Bild zwar nur mit einer begrenzten Zahl von Pixeln auf, aber das ändert nichts an der Anwendbarkeit des Verfahrens. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dein Support für das Forum (Info) Hat dir das Forum geholfen? So kannst du das Forum unterstützen! Premium Mitglied werden | Spenden | Bei Amazon* oder eBay* kaufen Software: Topaz* | DxO Nik Collection* | Skylum Luminar* (–10€ mit Gutschein FXF) | * Affiliate Links
Empfohlene Beiträge
Archiviert
Dieses Thema ist jetzt archiviert und für weitere Antworten gesperrt.