Der Hexar Geschrieben 25. April Share #51 Geschrieben 25. April Werbung (verschwindet nach Registrierung) Noch einmal die Frage: Warum wird nur 1/3 der Farbinformationen gespeichert? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige Geschrieben 25. April Geschrieben 25. April Hallo Der Hexar, schau mal hier Sind 10 MP genug? . Dort wird jeder fündig!
A. Garcia Geschrieben 25. April Share #52 Geschrieben 25. April vor 21 Stunden schrieb Schlonzbronz: Überschärfte Fotos sind mir persönlich ein Gräuel. Anders als bei Fotodrucken sind leicht überschärfte Fotos im Offsetdruck z.B. meist von Vorteil - insbes. bei Bildern mit feinen Details oder beim Einsatz auf mattem Papier. Ist am Ende vielleicht weniger eine emotionale Frage als eine techn. Abwägung hinsichtlich des Ausgabemediums … Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 25. April Share #53 Geschrieben 25. April (bearbeitet) vor 26 Minuten schrieb Der Hexar: Noch einmal die Frage: Warum wird nur 1/3 der Farbinformationen gespeichert? Das ist das technische Konzept von Sensoren mit CFA, also einem Color Filter Array oder Farbfiltermatrix. Der Sensor selbst ist ja nur monochrom, und mit einem Filter vor jedem Pixel wird dann nur eine der drei RGB-Farbkomponenten registriert und die beiden anderen weggefiltert. Deshalb gab es früher die Foveon-Idee, und damit erreichte eine Sigma Foveon Kamera mit knapp 12 MP im Endeffekt eine Detailtreue, für die man sonst eine Nikon D800 mit 36 MP verwenden musste, deren Bilder man dann für den Vergleich auf 12 MP herunterrechnete. Eine Nikon D700 kam da mit ihren ebenfalls 12 MP Bayer nicht heran. Eben deshalb scheint Sigma dieses Konzept bis heute nicht ganz beerdigen zu wollen, trotz aller technischen Umsetzungsprobleme. Da wir heute aber besseres Demosaicing dank KI haben, schwindet dieser Unterschied, und Oversampling wird weniger wichtig – was hier in diesem Thread deshalb auch immer wieder erwähnt wird, denn man sollte schon immer das Gesamtbild der Entwicklung im Auge haben und nicht nur einen einzelnen Aspekt. bearbeitet 25. April von Rico Pfirstinger Der Hexar hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Wachtelzüchter Geschrieben 25. April Share #54 Geschrieben 25. April (bearbeitet) vor 43 Minuten schrieb Der Hexar: Noch einmal die Frage: Warum wird nur 1/3 der Farbinformationen gespeichert? Vor jedem Pixel ist bei unseren Sensoren ein Farbfilter, der überwiegend nur eine Farbe (R-G-B) durchlässt. So gesehen kann man sagen, das ggf. nur 1/3 auf dem Pixel ankommt, weil die jeweils anderen Farben geblockt werden, das wäre bei weißem Licht so. Passt natürlich nur in dem Modell mit R G und B. Vielleicht baut jemand mal einen CMYK Sensor. SW-Senosren ohne Farbfilter sind da anders, auch die Foveons von Sigma. bearbeitet 25. April von Wachtelzüchter Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 25. April Share #55 Geschrieben 25. April Adobe hat das 2019 auch ganz gut erklärt, einige erinnern sich sicherlich: https://business.adobe.com/blog/the-latest/enhance-details Jürgen Heger und Der Hexar haben darauf reagiert 1 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #56 Geschrieben 25. April vor 3 Stunden schrieb Leicanik: Eine Kamera mit höherer Auflösung hätte allerdings ihre Vorteile, weil ich besser croppen und dadurch Objektive sparen könnte. (Also APS-C + Kleinbildformat in einer Kamera hätte) Kannst Du das näher erklären? Ausser mit dem "crop" habe ich so meine Probleme. Ein crop spart/ ersetzt ja keine Objektive (jedenfalls in so einigen Punkten nicht). Und das ein Crop jetzt auch noch verschiedene Sensorformate ersetzt? @Frank_vom_Niederrhein Dein Avatar ist eine Zumutung! Dafür sind selbst 1MP noch zu viel. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 25. April Share #57 Geschrieben 25. April Werbung (verschwindet nach Registrierung) vor einer Stunde schrieb Wachtelzüchter: Vielleicht baut jemand mal einen CMYK Sensor. CMY, wenn schon, denn K steht ja für Schwarz im Vierfarbdruck und ein Schwarzfilter vor einem Sensorpixel machte keinen Sinn. Ob nun mit RGB oder mit CMY, es geht bei Farbfiltermustern vor einem Sensor immer um die Erzeugung von Bildern in einem additiven Farbmodell, seien dessen Grundfarben nun Rot, Grün und Blau oder Cyan, Magenta und Gelb. Auch ein CMY-Sensor würde keine Bilder im subtraktiven CMYK-Farbmodell erzeugen, sondern im additiven CMY-Modell. Aber wahrscheinlich wollen wir ja am Ende RGB-Bilder haben, und wenn man die CMY-Daten in RGB umrechnet, würde dabei unweigerlich das Rauschen verstärkt, und das will ja auch keiner. Ich meine mich vage zu erinnern, dass jemand vor Jahrzehnten tatsächlich mal eine Kamera mit CMY-Sensor gebaut hat, aber das hat sich nicht durchgesetzt. Jürgen Heger hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 25. April Share #58 Geschrieben 25. April (bearbeitet) vor 2 Stunden schrieb pragmatiker: Ein crop spart/ ersetzt ja keine Objektive (jedenfalls in so einigen Punkten nicht). Und das ein Crop jetzt auch noch verschiedene Sensorformate ersetzt? Durch Beschneiden kann ich beliebige kleinere Sensorformate nachbilden; so weit ist es offensichtlich. Ein Beschnitt erzeugt auch die Bildwirkung einer längeren Brennweite, und das in allen ihren Aspekten. Auf der anderen Seite verzichtet man damit auf viele Sensorpixel und verliert somit an Sensorauflösung; außerdem reizt man das Auflösungsvermögen des Objektivs stärker aus und gelangt vielleicht an dessen Grenzen – der Beschnitt entspricht ja einer stärkeren Vergrößerung, wie es der Begriff „Ausschnittsvergrößerung“ auf den Punkt bringt: Man nimmt einen Ausschnitt und vergrößert diesen. Bei der GFX100RF funktioniert das recht gut, weil man bei 102 Millionen Pixeln leicht ein paar Pixel abgeben kann und das Objektiv eine sehr gute Kontrastübertragung auch für feinste Details hat. bearbeitet 25. April von mjh Leicanik, Jürgen Heger und herbert-50 haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 25. April Share #59 Geschrieben 25. April (bearbeitet) vor 40 Minuten schrieb pragmatiker: Und das ein Crop jetzt auch noch verschiedene Sensorformate ersetzt? Das ist genau das Konzept der GFX100RF: 9 verschiedene Sensorformate in einer einzelnen, handlichen Kamera, natürlich bezogen auf die JPEG-Ausgabe. Mit einem Schnellumschalterrad für Eilige, die das Format schnell wechseln möchten – und mit einem Live-View, der das Format inkl. Umgebung in unterschiedlichen Varianten darstellen kann, um die Bildkomposition zu erleichtern. Mit 100 MP und 4:3 Mittelformat als Ausgangsfläche hat man da ein ziemlich großes Spielfeld, das man aufteilen kann, ohne dass die verbleibende Sensorgröße oder Pixelanzahl (Auflösung) zu großen Einbußen führt – jedenfalls nicht, wenn am Ende ohnehin nur 4K oder weniger als Ausgabegröße vorgesehen ist. bearbeitet 25. April von Rico Pfirstinger Jürgen Heger und lichtschacht haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #60 Geschrieben 25. April vor 6 Minuten schrieb mjh: Durch Beschneiden kann ich beliebige kleiner Sensorformate nachbilden; so weit ist es offensichtlich. Da muss man dann aber viele Aspekte unter den Tisch fallen lassen wenn man das so vereinfacht? Ein 24MP crop aus einem 36MP KB Sensor ergibt doch dann nicht autom. das selbst Bild wie vom APS-C Sensor? Da muss man dann doch vom Objektiv bis hin zu den Sensoreigenschaften alles ausser Acht lassen? vor 10 Minuten schrieb mjh: Ein Beschnitt erzeugt auch die Bildwirkung einer längeren Brennweite, und das in allen ihren Aspekten. Die Bildwirkung (bei gleicher Perspektive), aber auch da muss man alle Objektiveigenschaften ausser acht lassen. Ausser acht wird dabei gelassen das ein Objektiv mit längerer Brennweite anders zeichnet, darauf besser optimiert ist usw. Ich habe das schon probiert. Wenn man nur über die üblichen "Kompressionswirkung durch Tele" Aspekte redet, dann ist der crop aus dem Weitwinkel identisch. Aber mit dem Tele entsteht trotzdem ein anderes Bild, abseits dieser Teilaspekte. Beim Crop mit einem Weitwinkel transportiert man mit dem Ausschnitt auch dessen optischen Eigenschaften in das "Crop-Tele". Das wird meiner Meinung nach unter den Tisch fallen gelassen. Es ist nicht nur allein eine Frage der Auflösung (die übrig bleibt). Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #61 Geschrieben 25. April vor 2 Minuten schrieb Rico Pfirstinger: Das ist genau das Konzept der GFX100RF: 9 verschiedene Sensorformate in einer Kamera, natürlich bezogen auf die JPEG-Ausgabe. Mit einem Schnellumschalterrad für eilige, die das Format schnell wechseln möchten Sensorformat (= Sensorgröße/ -Fläche) und Seitenverhältnis des Sensors sind für mich jetzt aber zwei verschieden Dinge. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 25. April Share #62 Geschrieben 25. April Gerade eben schrieb pragmatiker: Sensorformat (= Sensorgröße/ -Fläche) und Seitenverhältnis des Sensors sind für mich jetzt aber zwei verschieden Dinge. Der digitale TC ändert das Verhältnis nicht, nutzt aber auch nur einen Teil des Sensors. Mit den beiden TC-Einstellungen stellt die GFX100RF also insgesamt sogar 3x9=27 verschiedene Sensorgrößen zur Verfügung, jedes mit einer anderen Fläche. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #63 Geschrieben 25. April Die Sensoreigenschaften bleiben beim crop immer gleich. Die Objektiveigenschaften bleiben beim crop immer gleich. Wenn man die Hardware tauscht, also Objektiv oder einen anderen Sensor, dann gehen damit auch andere Eigenschaften einher. Die kann ein crop nicht ersetzen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Rico Pfirstinger Geschrieben 25. April Share #64 Geschrieben 25. April (bearbeitet) vor einer Stunde schrieb pragmatiker: Wenn man die Hardware tauscht, also Objektiv oder einen anderen Sensor, dann gehen damit auch andere Eigenschaften einher. Die kann ein crop nicht ersetzen. Wenn du ein KB-Objektiv an eine GFX hängst und nur den KB-Bereich des GFX-Sensors verwendest (Crop), sieht das auch nicht anders aus als mit einem normalen Sony KB-Sensor gleicher Bauart. Dass unterschiedliche Kameras unterschiedliche Bilder liefern, ist nicht wirklich neu – sogar dann, wenn die Modelle auf dem gleichen Sensortyp basieren und das gleiche Format haben. Es hängt eben doch noch einiges mehr an der Bildverarbeitungskette dran, und das eigentliche Bild entsteht auch zu einem Gutteil im Prozessor, Stichwort "Color Science". CFA-Dichte/Kolorierung, Mikrolinsen, Tiefpassfilter etc. spielen ebenfalls eine Rolle, deshalb wurde das in diesem Thread auch schon alles erwähnt. Vom Thema 10 MP lenkt das ab. Die Frage ist ja klar gestellt: Reicht eine effektive(!) Aufnahmeauflösung von 10 MP aus? Effektiv heißt, dass die fürs fertige Bild effektiv genutzte Sensorpixelzahl bei 10 MP liegt. Dass der Sensor dabei auch flächenmäßig effektiv kleiner wird, was den Dynamikumfang reduziert (also mehr Rauschen), ist klar. Deshalb liefert ein 50 MP Sensor im Smartphone im Single Shot Betrieb niemals die BQ des 50 MP Sensors in der GFX50S. Wenn ich aus dem GFX50-RAW allerdings eine Fläche herauscroppe, die so groß wie der Smartphone-Sensor ist, dann dürfte das Bild aus dem Smartphone besser aussehen, wegen Oversampling. bearbeitet 25. April von Rico Pfirstinger Jürgen Heger, Der Hexar und Leicanik haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 25. April Share #65 Geschrieben 25. April (bearbeitet) vor 2 Stunden schrieb pragmatiker: Ein 24MP crop aus einem 36MP KB Sensor ergibt doch dann nicht autom. das selbst Bild wie vom APS-C Sensor? Doch, genau so. Nicht selten ist es ja so, dass große und kleine Sensoren tatsächlich dieselbe Technologie nutzen; die Sensorpixel sind praktisch gleich, und nur deren Anzahl unterscheidet sich. So entspricht Sonys Mittelformatsensor mit 102 MP vier ihrer APS-C-Sensoren mit 26 MP (nur dass das Seitenverhältnis ein anderes ist). bearbeitet 25. April von mjh Der Hexar hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 25. April Share #66 Geschrieben 25. April vor 2 Stunden schrieb pragmatiker: Die Bildwirkung (bei gleicher Perspektive), aber auch da muss man alle Objektiveigenschaften ausser acht lassen. Ausser acht wird dabei gelassen das ein Objektiv mit längerer Brennweite anders zeichnet, darauf besser optimiert ist usw. Ich habe das schon probiert. Wenn man nur über die üblichen "Kompressionswirkung durch Tele" Aspekte redet, dann ist der crop aus dem Weitwinkel identisch. Aber mit dem Tele entsteht trotzdem ein anderes Bild, abseits dieser Teilaspekte. Beim Crop mit einem Weitwinkel transportiert man mit dem Ausschnitt auch dessen optischen Eigenschaften in das "Crop-Tele". Das wird meiner Meinung nach unter den Tisch fallen gelassen. Es ist nicht nur allein eine Frage der Auflösung (die übrig bleibt). Was sollte es sein, das da unter den Tisch fiele? Kannst Du das benennen, damit man es nachvollziehen könnte? Die Bildwirkung ist tatsächlich identisch, von der Perspektive bis zur Freistellung. Natürlich kann es sein, dass ein Objektiv mit längerer Brennweite ein sichtbar besser aufgelöstes Bild erzeugt, aber es muss nicht sein – wenn ein Objektiv so gerechnet ist, dass es eine an das Pixelraster angepasste Auflösungsleistung bringt, dann gilt das auch noch nach einem Beschnitt – die Pixel bleiben ja dieselben. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Leicanik Geschrieben 25. April Share #67 Geschrieben 25. April (bearbeitet) vor 12 Stunden schrieb pragmatiker: Kannst Du das näher erklären? Ausser mit dem "crop" habe ich so meine Probleme. Ein crop spart/ ersetzt ja keine Objektive (jedenfalls in so einigen Punkten nicht). Und das ein Crop jetzt auch noch verschiedene Sensorformate ersetzt? Ich war unterwegs und komme daher erst jetzt zum Antworten, aber @mjh und @Rico Pfirstinger sind ja dankenswerterweise bereits in die Bresche gesprungen. Ich meinte das folgendermaßen: Derzeit nutze ich z.B. bei Sony eine A7III (Kleinbild mit 24 MP) und eine A6600 (APS-C mit 24 MP). Die APS-C gerne dann, wenn ich lange Brennweiten brauche. Ich trage lieber die A6600 mit einem Sony 70-350mm APS-C-Objektiv als die A7III mit z.B. dem Sony 200-600mm oder einem Tamron 150-500mm. Ich könnte aber auch eine A7IVR nehmen, mit einem KB Sensor mit 61 MP. Die würde ich dann für die kürzeren oder mittleren Brennweiten mit der hohen Auflösung und KB-Objektiven nutzen, mir aber ein schweres großes KB-Tele sparen und das 70-350mm im APS-C-Modus der Kamera nutzen. Dabei nutzt sie eben nur den mittleren Teil des Sensors im Format APS-C aus, tut als so, als wäre sie eine APS-C-Kamera. Dadurch wird der Bildkreis des viel kompakteren APS-C-Teleobjektivs korrekt ausgeleuchtet. Das Ganze natürlich dann mit einer geringeren Auflösung. Aber von den 61 MP der Kamera bleiben immerhin 61:2,25=27 MP übrig, also sogar ein kleines bisschen mehr als mit meiner jetzigen APS-C-Kamera A6600 (in der Praxis dann vergleichbar, der kleine Unterschied ist nicht groß zu spüren). Insofern hätte ich dann beide Kameras in einer, wenn man so will. Mit so einer Lösung könnte ich z.B. auch mein kompaktes 1.8/85mm KB Objektiv normal im KB-Modus bei 61MP nutzen, aber auch durch Umschalten in den APS-C-Modus die Bildwirkung eines 2.8/135mm (KB) bei 27MP erzielen. Ich müsste nur ein Objektiv dafür einstecken und der Größenunterschied zwischen dem 1.8/85 und dem 2.8/135 ist außerdem sehr deutlich. bearbeitet 25. April von Leicanik Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Leicanik Geschrieben 25. April Share #68 Geschrieben 25. April vor 2 Stunden schrieb pragmatiker: Ein 24MP crop aus einem 36MP KB Sensor ergibt doch dann nicht autom. das selbst Bild wie vom APS-C Sensor? Nein, das wäre zu schön. Ein APS-C-großer Crop aus 36MP hat nur 16MP. Da der Cropfaktor 1,5 sich ja auf beide Kantenlängen bezieht, ist die Fläche um 1,5x1,5=2,25 kleiner. Um diesen Faktor verkleinert sich also die Zahl der MP. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #69 Geschrieben 25. April Gerade eben schrieb mjh: Nicht selten ist es ja so Damit kann ich dann widerum sehr gut leben und ruhig schlafen, wenn die Dinger tatsächlich identisch sind vom Aufbau wie Du es beschreibst. Dann hat man sozusagen schon auf dem Waver einen crop gemacht, physikalisch. Wenn ich das aber auf einen 100MP GFX Bayer und einen Digitalzoom auf einen 16MP x-trans APS-C beziehen soll, dann war ich doch etwas unruhig geworden. 😉 Am Ende hilft sowieso nur der Vergleich kompletter Systeme und derer jeweiligen Resultate. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 25. April Share #70 Geschrieben 25. April Um noch einmal auf einen Punkt hinzuweisen, den ich bereits in einem der GFX100RF-Threads erwähnt hatte … Normalerweise stellt man sich einen Beschnitt ja so vor, dass man aus einem weitwinkligen Bild einen kleineren Ausschnitt wählt, um den Blick auf einen Teil des Bildes zu konzentrieren. Wenn man aber schon vor der Aufnahme einen Ausschnitt wählt, funktioniert das auch umgekehrt: Man schaut sich seine Aufnahme im Raw-Konverter an und überlegt, dass man vielleicht doch besser etwas mehr vom Umfeld einbezogen hätte. Wenn man dann in Lightroom das Freistellungswerkzeug wählt, zeigt sich, dass die Kamera das vermisste Umfeld tatsächlich aufgenommen hatte und man auch einen etwas größeren Ausschnitt wählen kann. Vom Workflow her beschneidet man also nicht, sondern stückt an den Seiten an – aber nicht per KI, von der man sich etwas Umgebung im gleichen Stil hinzuerfinden ließe, sondern mit echten fotografierten Pixeln. Allradflokati und Funami haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #71 Geschrieben 25. April vor 15 Minuten schrieb mjh: Was sollte es sein, das da unter den Tisch fiele? Kannst Du das benennen, damit man es nachvollziehen könnte? Die Bildwirkung ist tatsächlich identisch, von der Perspektive bis zur Freistellung. Über diesen "ein Tele staucht mehr" Part brauchen wir nicht reden, der ist klar, Perspektive und so. Freistellung auch, für einen Test müsste man den Weitwinkel und das Tele dann auf einen ident. Blendenwert stellen. Und dann cropen und gucken was man sieht. vor 23 Minuten schrieb mjh: wenn ein Objektiv so gerechnet ist, dass es eine an das Pixelraster angepasste Auflösungsleistung bringt Das kann ich natürlich bei meinen Objektiven nicht sagen. Also ob mein 18er und mein 50er dann für einen Vergleich an dieser Stelle gleichziehen täten. Mir bleibt ja auch nichts anderes übrig als mit zwei Objektiven an einem Gehäuse zu testen. Bei der RF geht das gar nicht erst als Vergleich, da müsste man also eine GFX100 mit Tele ranziehen und mit dem crop vergleichen. Was da bei mir "unter den Tisch" fällt, das kann natürlich schon auflösungbezogen sein, zwischen dem 18mm und dem 50mm. Ich kann ja nur den Crop vom 18er nehmen, das 50er Bild auf diesen Auflösung herunterskalieren und dann vergleichen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
A. Garcia Geschrieben 25. April Share #72 Geschrieben 25. April vor 3 Stunden schrieb pragmatiker: Die Bildwirkung (bei gleicher Perspektive), aber auch da muss man alle Objektiveigenschaften ausser acht lassen. Ausser acht wird dabei gelassen das ein Objektiv mit längerer Brennweite anders zeichnet, darauf besser optimiert ist usw. So ist es. Ein Beschnitt simuliert lediglich den schmaleren Bildwinkel einer längeren Brennweite nicht jedoch alle anderen optischen und bildwirkungsspezifischen Eigenschaften eines entsprechenden Objektivs. Die Perspektive bleibt nur bei gleicher Aufnahmeposition unverändert … Tiefenschärfe, Lichtausbeute und Bokeh‐Charakteristik unterscheiden sich klar zwischen echtem Tele und purem Crop. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Tommy43 Geschrieben 25. April Share #73 Geschrieben 25. April 🍿🥤…. lichtschacht, nobbe, Leicanik und 1 weiterer haben darauf reagiert 1 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Gast Geschrieben 25. April Share #74 Geschrieben 25. April vor 7 Minuten schrieb A. Garcia: und Bokeh‐Charakteristik zum Beispiel. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Leicanik Geschrieben 25. April Share #75 Geschrieben 25. April Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Allradflokati hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dein Support für das Forum (Info) Hat dir das Forum geholfen? So kannst du das Forum unterstützen! Premium Mitglied werden | Spenden | Bei Amazon* oder eBay* kaufen Software: Topaz* | DxO Nik Collection* | Skylum Luminar* (–10€ mit Gutschein FXF) | * Affiliate Links
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden