Jump to content

All Activity

This stream auto-updates     

  1. Past hour
  2. Today
  3. flysurfer

    Frohe Ostern!

    DSCF6495 by Rico Pfirstinger, auf Flickr
  4. Die Tiefeninformationen sind nur ein Teil des Problems, aber damit fängt es schon einmal an. Beispielsweise ist die Basisbreite durchweg gering – ein bis zwei Zentimeter typischerweise. Bei Einzelkameras mit Dual-Pixel-Sensoren ist die effektive Basisbreite noch kleiner und liegt im Millimeterbereich. Die Depth-Map löst die Tiefendimension daher eher grob auf. Man kann die Tiefenkarte auch nicht pixelgenau berechnen, also die Tiefe für jedes Bildpixel präzise angeben. Die Karte wird ja so erstellt, dass jeweils kleinräumige Muster im Bild der einen Kamera dann auch im Bild der anderen gesucht werden, und aus den Verschiebungen der gefundenen Muster ergibt sich die Tiefenkarte. Dabei gibt es immer ein paar Ausreißer durch falsch erkannte Muster, weshalb das Ergebnis noch einmal einen Plausibilitätstest durchlaufen muss – wenn eine begrenzte Region von ein paar Pixel eine völlig andere Tiefenposition als die Umgebung haben soll, kann es sich um ein kleines Vordergrundobjekt handeln, möglicherweise aber schlicht um einen Fehler – in diesem Fall muss man die Tiefeninformationen interpolieren. Beim Plausibilitätstest wird auch mit KI gearbeitet, aber teilweise setzen die Hersteller auch gleich komplett auf KI, um Menschen im Vordergrund zu erkennen – die Google-Pixel-Modelle tun das, wenn sie Gesichter erkennen. Dann bekommt man aber keine Tiefenkarte, sondern einfach eine Maske des Vordergrundmotivs. An den Kanten des Vordergrunds gibt es noch das Problem, dass jeweils die eine Kamera noch ein paar Hintergrund-Pixel sieht, die für die andere Kamera bereits vom Vordergrund verdeckt sind. Dann kann das Muster im anderen Bild nicht wiedergefunden und eine Verschiebung berechnet werden – und wenn es wiedergefunden wird, ist es eine falsche Zuordnung. Dies muss ebenfalls erkannt und die Tiefe dann richtig zugewiesen werden – die nur für eine Kamera sichtbaren Hintergrundpixel müssten in derselben Tiefe liegen, wie die für beide Kameras sichtbaren Hintergrundpixel daneben. Nachdem das Smartphone dann die Tiefenkarte für eine reduzierte Auflösung berechnet hat – weil man, wie gesagt, nicht Pixel für Pixel vergleichen kann, sondern immer nur Kacheln aus mehreren Pixeln –, wird es auf die volle Bildauflösung hochskaliert, um auf dieser Basis das künstliche Bokeh zu berechnen. Der Erzeugung der Unschärfe stößt dann wiederum auf Schwierigkeiten. Man kann eine realistische Unschärfe erzeugen, indem man jeden Punkt des Motivs als einen Unschärfekreis abbildet. Aus der Überlagerung aller Unschärfekreise – man kann sich das so vorstellen, dass ein blendenförmiger Pinsel für jeden Punkt der Szene jeweils einen ganz dünnen, durchscheinenden Farbkreis in das Bild setzt – entsteht dann ein unscharfes Bild. Als Ausgangspunkt einer Simulation dieser unscharfen Abbildung bräuchte man ein scharfes Bild mit sehr großem Dynamikumfang. Tatsächlich ist das Bild nicht immer völlig scharf – die Schärfentiefe ist groß, aber nicht unendlich –, aber durchweg macht das keinen so großen Unterschied. Problematischer ist der Dynamikumfang. Unschärfekreise werden immer dann als Kreise sichtbar, statt sich nur zu einer allgemeinen Unschärfe zu überlagern, wenn es kleine, gleißend helle Lichtpunkte gibt – typischerweise kleine Lichtquellen oder Reflexe. Damit ein erkennbarer Unschärfekreis entsteht, müssen diese Punkt sehr viel heller als die Umgebung sein, und dieser Unterschied überfordert den Dynamikumfang jedes Sensors. Die echte unscharfe Abbildung eines Objektivs mit geringer Schärfentiefe verteilt dieses sehr helle Licht auf eine große Fläche, so dass der Sensor die Helligkeit bewältigen kann, und deshalb können wir auch die Farbe der Lichtquelle erkennen. Wird der helle Lichtpunkt dagegen scharf abgebildet, wird er überbelichtet und erscheint weiß. Vor allem aber ist es unmöglich, einen bloß hellen, weißen Punkt sicher von einem gleißend hellen Punkt zu unterscheiden, der einen sichtbaren Unschärfekreis erzeugt, und daher ist die Nachbildung sichtbarer Unschärfekreise Glückssache. Das Ergebnis mag gar nicht mal schlecht aussehen, aber es sieht nicht so aus wie das echte Bokeh einer Vergleichsaufnahme derselben Szene.
  5. Hm, das ist wieder so eine Frage wie, soll ich Schuhgröße 44 oder 46 nehmen? Es kommt halt auf Deine Art zu fotografieren an. Meine Minimalausrüstung besteht aus dem 18-55 und dem 23/1.4. Das Zoom ist für alles am Tag. Die lichtstarke Festbrennweite kommt nachts und in schlecht beleuchteten Innenräumen zum Einsatz. Mein 12/2.0 ist die Nummer drei. Bei mir aber für spezielle Fälle. Da Du Dir aber das 10-24 schon als zweites Objektiv gekauft hast und Dir vermutlich etwas dabei gedacht hast, ist es wahrscheinlich die für Dich sinnvollere Universallinse, mit der Du meistens auskommen wirst.
  6. Yesterday
  7. Ohne Titel by Christian Pigan, auf Flickr
  8. Landschaft im "Upland" by Christian Pigan, auf Flickr
  9. Berlin, Pariser Platz X-E2 - Samyang 12mm Gruß Hendrik
  10. Der Ausdruck Retro (lat. retro rückwärts, retrograd rückwärts gewandt) Was man in diesen Begriff alles hineininterpretieren kann, überlasse ich jedem selbst. Schließlich wird mit dem Begriff heutzutage eine Menge Geld verdient. Aber eigentlich ist seine Definition einfach nur "rückwärts gewand" . In diesem Sinne wäre eine Fuji x100 nicht "Retro", da sie zwar von der Optik auf alt getrimmt ist, aber die neuste Technik beinhaltet. Deshalb spricht man auch nur vom "Retro-Look", da es nicht wirklich "Retro" ist. Fotografiere ich allerdings mit einer echten M3 noch so richtig analog und trotze der neuen Technik, so bin ich auf einem Retro-Trip mit einer echten Retro-Kamera, da diese nur bis 1968 hergestellt wurde. Da ich diesen Walkman auch noch benutze, ist er und bin ich diesbzüglich ganz klar "Retro" Auch der Plattenspeler ist im Zeitalter von mp3 und Streaming ganz klar "Retro". Da ich das aber alles nicht so eng sehe, finde ich auch alle anderen Meinungen zu diesem Thema o.k. PS: Wie kann man nur aus "Fleetwood Mac" Bandsalat machen ? 😉 Eckhard
  11. Berlin, DZ Bank Pariser Platz II X-E2 - Samyang 12mm Gruß Hendrik
  12. Berlin, DZ Bank Pariser Platz X-E2 - Samyang 12mm Gruß Hendrik
  13. Berlin, DZ Bank Pariser Platz II X-E2 - Samyang 12mm Gruß Hendrik
  14. Berlin, DZ Bank Pariser Platz X-E2 - Samyang 12mm Gruß Hendrik
  15. Ohne Pathos, aber eindrücklich
  16. Die Darstellerin der Maria ist für mich eine der authentischsten Figuren.
  17. @rachmaninov Sehr hilfreich ist folgendes Buch: https://www.rheinwerk-verlag.de/capture-one-pro-12_4878/ In Sachen Session oder Katalog, bzw. Zusammenspiel aus beidem kann ich dir folgendes Video an Herz legen: https://youtu.be/iHnwYa-P6to Eine der größten Hürden, wenn Du Noch nie mit C1 bearbeitest hast ist in meinen Augen, dass standardmäßig nicht alle Wekzeuge in Deinen Werkzeugregistern liegen. Für Sytles und Voreinstellungen gibt es ein eigens Werkzeugregister. Ich mach Dir mal, vielleicht nicht ganz legal, einen Screenshot aus dem o.a. Buch. Gib nicht auf! Es lohnt sich. Viele Grüße Thomas
  18. Mmmh... ich muss die offenbar mal probieren, aus Kostengründen vielleicht erstmal eine T. Die wird ja einerseits gehypt, andererseits ist das eingebaute 23er wohl etwas schwächer als das 23 3.0oder 23 1.4, wenn man dpreview trauen kann.
  19. michmarq

    Eisenbahn

    X-T10 mit XF 35/f1,4, f/8, 1/120, ISO 200
  20. michmarq

    Eisenbahn

    X-E2S mit Samy 12/f2, f/8 , 1/105, ISO 200
  1. Load more activity
  • Newsletter

    Want to keep up to date with all our latest news and information?

    Sign Up
×
×
  • Create New...