Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor einer Stunde schrieb Wachtelzüchter:

Ich wünsche mir seit guten 10 Jahren einen weiteren Belichtungsmodus für Fotos, nämlich "möglichst viel auf dem Sensor", d.h. die Kamera belichtet so, dass (fast) nichts abgeschnitten wird, idealerweise konfigurierbar, so dass ich einstellen kann, ob im Zweifelsfall die Lichter oder Schatten erhalten bleiben sollen. Da die Kamera die Helligkeitsverteilung auf dem Bild kennt (siehe Histogramm), sollte das leicht umsetzbar sein. Den Rest mache in dann in der Nachbearbeitung.

Hm, hast du Dir schonmal den HDR Modus der Fuji Kameras angeschaut? Evtl. ist das genau das, was Du möchtest.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Wachtelzüchter:

Die Belichtungsautomatik

Nachdem hier der Wunsch nach einer weiteren Automatik aufgeploppt ist, wünsche ich mir vollkommen unrealistisch eine Kamera ganz ohne Auto. Nur Blende Zeit und ISO manuell einstellen, sonst nichts. Einzig der Autofokus dürfte bleiben.

Wo bleibt die persönliche Herausforderung und dementsprechende Befriedigung etwas selbst geschafft zu haben, wenn Automatiken uns alles abnehmen? Das ist irgendwie so, wie sich auf einen Berggipfel tragen zu lassen..

Fehlt noch die Kompositionsautomatik..

bearbeitet von uwe1956
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Dare mo:

Also warum soll Fujifilm eine solche Kamera für eine so kleine Minderheit bauen? Sind die monochromen Kameras der anderen Hersteller so schlecht? Denkt ihr das es Fujifilm noch viel besser kann?

sowas passt eigentlich nur in der GF Schiene .. und ja, da sehe ich wirklich Potential für eine Fuji Monochrome und auch die Leute, die dafür Geld ausgeben würden

Link zum Beitrag
Auf anderen Seiten teilen

vor 38 Minuten schrieb uwe1956:

Nachdem hier der Wunsch nach einer weiteren Automatik aufgeploppt ist, wünsche ich mir eine Kamera ganz ohne Auto. Nur Blende Zeit und ISO manuell einstellen, sonst nichts. Einzig der Autofokus dürfte bleiben.

Der kann auch weg😉

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 17 Minuten schrieb CMOS:

Ich wünsche mir, dass das was ich im optischen Sucher sehe,  ohne  Nachbearbeitung auch ausgegeben wird.

Also ich möchte mir bei einem Bild der Sonne nicht die Augen zukneifen müssen 😉.

Link zum Beitrag
Auf anderen Seiten teilen

vor 54 Minuten schrieb nightstalker:

sowas passt eigentlich nur in der GF Schiene .. und ja, da sehe ich wirklich Potential für eine Fuji Monochrome und auch die Leute, die dafür Geld ausgeben würden

Das hat sicherlich seine Käufer, wie man sieht, aber dass man sich da weit aus dem Fenster lehnt richtig investiert usw. würde sich nur lohnen, wenn es wieder ein Hype wird.

Früher hatte man die Wahl zwischen Farb-und s/w Film und auch da ging es mir so, dass ich das bereits schon auf zwei Kameras aufgeteilt habe. Natürlich kann man sich s/w auch ausdrücken und vielleicht auch komplett auf die Farbe verzichten, aber es gibt für mich Dinge, die man besser so zeigt wie man sie sieht, wo die Farbe auch ein wesentlicher Bild Bestandteil ist, der stark zur Wirkung beiträgt. Bei so einer digitalen Systemkamera hat man in der Regel die Wahl, obwohl ich es nicht unbedingt gut finde, was da jetzt an s/w herauskommt, aber man kann mit einem Knopfdruck einen Eindruck gewinnen, was besser wirkt, wie etwas überhaupt wirkt usw. Da sieht man gut, ob die Farbe jetzt ein Vorteil ist oder eben das s/w eigentlich die bessere Wahl darstellt.

Das was da jetzt pur aus diesen reinen monochromen  Kameras kommt und was ich da gesehen habe, konnte mich jetzt auch nicht überzeugen, wenn man es nicht nachbearbeitet. Die technischen Dinge mal ganz außer Acht gelassen, nur die Bildwirkung betrachtend. Ich jedenfalls habe da noch nichts gesehen, was ich mit NIK Silver Effex nicht auch bewerkstelligen könnte.

Und zur s/w Fotografie gehören dann eben  auch die Farbfilter die bei vielen Dingen auch indoor sehr viel Gestaltungspotential bieten, wie welche Farbe dargestellt wird und das macht in einem Bild viel aus, auch wenn man Licht verliert. 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb KeyserSoze:

Ja, in einem Punkt schränkst du dich stärker ein als früher mit verschiedenen analogen SW-Filmen, und zwar bei der Farbdifferenzierung.

Danke, so habe ich das auch vermutet. Da ich die anderen Variablen, die du genannt hast (Gradationskurve, Kontrastverlauf, Highlight-Roll-off, Mikrokontrast, lokale Anpassungen, Schärfung, Rauschverhalten und Korn) ja bei einer Farbkamera ebenfalls beeinflussen kann, bliebe für mich dann vermutlich lediglich die höhere Auflösung als Pluspunkt der Monochromkamera. Auf Farbfilter würde ich nicht verzichten wollen, womit der Empfindlichkeitsvorteil wieder aufgefressen wäre.

Und die weiter oben genannte (nicht von dir) Beschränkung als Vorteil kann ich zwar nachvollziehen, halte diese aber eigentlich für eine Frage der Selbstdisziplin – wenn ich es wirklich will, kann ich s/w ja auch mit der Farbkamera fotografieren, ohne dauernd doch wieder auf Farbe umzuschalten. Das sehe ich ähnlich wie mit dem Hybridsucher der Fuji: Die Verlockung ist da, doch zwischendurch wieder von OVF auf EVF umzuschalten. Aber ist das ein Nachteil oder ein Vorteil, weil flexibler? Ich sah es eine Zeit lang als Haken, weil ich nie konsequent beim OVF blieb. Aber inzwischen genieße ich den Komfort, mit dem OVF mit einem Wisch schnell mal das Histogramm einzublenden, welches dann auch das tatsächliche Bild im EVF zeigt, und dann wieder auf den OVF zurück zu schalten. Warum solle ich unbedingt puristischer sein, wenn es mir doch so die Arbeit erleichtert. Und wenn ich unbedingt wollte, könnte ich es auch puristisch handhaben, müsste dazu halt etwas Disziplin aufbringen. Wenn ich die nicht aufbringen kann, dann hat das vielleicht einen Grund, und ich sollte ich mich vielleicht doch mal  fragen, ob ich die puristische Variante wirklich besser finde. Aber das sind letztlich alles persönliche Geschmacksachen

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb hanshinde:

Höchste Zeit, diese ungemein spannende und originelle Diskussion erneut zu führen…😑

 

Da Sarkasmus hier für den einen oder anderen vielleicht schwer zu lesen ist:

Es ist ziemlich uncool, eine bereits üppig ausgebreitete Diskussion an anderer Stelle trotz Hinweis auf eine vorhandene Diskussion explizit zu diesem Spezialthema mit allen Details und Spitzfindigkeiten stur endlos zu wiederholen. 

Der Faden hier ist so alt und verfahren, dass es auf größere Abschweifungen nicht ankommen mag, aber gerade das Thema hatte einfach zu viel Potential für Diskussionsgift. Also bitte, den anderen Faden lesen, gern nochmal offene Fragen dort konkret (und sachlich-knapp statt episch-ausladend) platzieren und versuchen nett zu bleiben. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb CMOS:

Ich wünsche mir, dass das was ich im optischen Sucher sehe,  ohne  Nachbearbeitung auch ausgegeben wird.

Da kann man sich genauso (vergeblich) wünschen, dass das, was man isst, ohne Nachbearbeitung hinten auch wieder so rauskommt.

*facepalm*

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb KeyserSoze:

 „Fuji AF ist schlecht“ ist heute oft eher nachgeplappert als sauber eingeordnet.

Dann überlegen wir nochmal genau, aus welchem Zeitalter die unumstößliche und ewig geltende Weisheit stammt, dass ein monochromer Sensor soviele hundert Milliarden mal besser ist als ein farbsensor, der per Software auf s/w umgestellt wird.

Und wenn wir schon beim nachdenken sind: wie viele Hunderttausende an Fotografen warten denn mit bündeln von Geld in beiden Händen auf eine X100VIIm? Und wieso gehen die nicht zu Leica oder Pentax?

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Minuten schrieb Ronny1976:

Dann überlegen wir nochmal genau, aus welchem Zeitalter die unumstößliche und ewig geltende Weisheit stammt, dass ein monochromer Sensor soviele hundert Milliarden mal besser ist als ein farbsensor, der per Software auf s/w umgestellt wird.

👇🏻

vor 48 Minuten schrieb outofsightdd:

Es ist ziemlich uncool, eine bereits üppig ausgebreitete Diskussion an anderer Stelle trotz Hinweis auf eine vorhandene Diskussion explizit zu diesem Spezialthema mit allen Details und Spitzfindigkeiten stur endlos zu wiederholen. 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb Leicanik:

Meine Überlegung: Analog hatte ich die Wahl zwischen ganz verschiedenen SW-Filmen. Wenn mich nun eine digitale Monochromkamera stärker einschränken würde, wäre das ja ein großer Rückschritt. Als würde man eine analoge Kamera kaufen, in die lediglich eine einzige Sorte SW-Film eingelegt werden kann (mal abgesehen von der ISO). Ist das tatsächlich so?

Ja, das ist so. Und nicht nur „abgesehen von der ISO“, denn der Sensor hat ja keine frei wählbare Empfindlichkeit. Dank DCG hat er heute immerhin zwei Empfindlichkeiten, aber auch diese Analogie geht nicht so ganz auf, denn im Gegensatz zu den feinkörnigeren Emulsionen niedriger Empfindlichkeit ist die Sensorauflösung unabhängig vom Conversion Gain immer dieselbe. Der Effekt, der bei einer Digitalkamera durch die Wahl unterschiedlicher ISO-Werte entsteht, entspricht nicht der Wahl unterschiedlich empfindlichen Filmmaterials – der Sensor ist eben immer derselbe –, sondern ähnelt vielmehr einer Push- oder Pull-Entwicklung des Films – man belichtet den Film über beziehungsweise unter seiner nominellen Empfindlichkeit und gleicht das durch eine daran angepasste Entwicklung aus.

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb Wachtelzüchter:

Hintergrund ist zum einen, dass die Belichtung aufs mittlere Grau aus Filmzeiten kommt und man sich fragen kann, ob sie bei digitalen Sensoren erweitert werden sollte. Dann noch, dass ich immer wieder bei aufeinanderfolgenden Fotos am Belichtungsrad drehen muss, bzw. mich in der Bea ärgere, dass was abgeschnitten wurde.

Ich meine nicht direkt ETTR/L, sondern dass möglichst wenig Information verloren geht. Die Belichtungsautomatik soll auswerten, ob es links oder rechts ein großes Signal gibt, z.B. in den Schatten und dann länger belichten, so dass das Signal auf dem Sensor erfasst wird. Könnte auch nach einem Zonensystem geschehen.

Mittleres Grau ist doch eh von Gestern. Die Integral- und die Spotmessung orientieren sich zwar noch am mittleren Grau, gehen also davon aus, dass die durchschnittliche Helligkeit (Integralmessung) beziehungsweise die Helligkeit eines angemessenen Details (Spotmessung) einem neutralen Grauwert entspricht, und die Kamera belichtet dann so, dass am Ende, also im Bild, wieder ein mittlerer Tonwert herauskommt.

Die meisten arbeiten allerdings mit einer Matrixmessung, und die bildet durchweg keinen Durchschnitt ihrer über das gesamte Bildfeld verteilten Messfelder. Sonst wäre sie ja auch überflüssig, da die Integralmessung das bereits sehr gut erledigt. Mit den Messergebnissen einer Matrixmessung kann die Kamera vielmehr den Szenenkontrast und die Helligkeitsverteilung im Bild messen, und die Kamera kann die Belichtung darauf abstellen. Der mittlere Grauwert in der Szene mag dann sehen, wo er bleibt, und das wird am Ende nicht immer ein mittlerer Grauwert im Bild sein. Dabei können auch die Ergebnisse einer Szenen- und Motiverkennung berücksichtigt werden, damit die Kamera die Belichtung für das vermutlich bildwichtigste Motiv optimiert. Da man als Fotograf aber nicht so genau weiß, was die Kamera da jeweils macht, hat diese Intelligenz auch Nachteile; die Spot- wie die Integralmessung sind besser einzuschätzen und zu kontrollieren, und wenn man sowieso damit rechnet, in die Belichtung eingreifen zu müssen, fährt man damit besser. Will man aber die Hilfe einer mitdenkenden Kamera in Anspruch nehmen, muss man die Matrixmessung wählen.

Ein PetaPixel-Autor bemängelte jüngst, dass Kamerahersteller von Mehrfeldmessung, Matrixmessung oder evaluativer Messung reden – statt, wie er es bevorzugen würde, von einer Durchschnittsmessung („Average“) – siehe https://petapixel.com/2026/01/01/how-the-science-of-photography-can-lead-you-astray/. Aber das wäre Unsinn und es entspringt einem Missverständnis, denn die Mehrfeldmessung ist eben keine Durchschnittsmessung. (Wohlgemerkt: In vielen anderen Punkten stimme ich der in diesem Artikel vorgebrachten Kritik zu.)

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb Taloan:

Da kann man sich genauso (vergeblich) wünschen, dass das, was man isst, ohne Nachbearbeitung hinten auch wieder so rauskommt.

*facepalm*

Es wäre schön, wenn nur diejenigen einen Kommentar abgeben, die über einen optischen Sucher in ihrer Kamera zum Umschalten verfügen und diesen auch verwenden! 😉 

Link zum Beitrag
Auf anderen Seiten teilen

vor 4 Stunden schrieb CMOS:

Ich wünsche mir, dass das was ich im optischen Sucher sehe,  ohne  Nachbearbeitung auch ausgegeben wird.

Meinst du wirklich den optischen? Wie soll das gehen, der zeigt dir doch weder einen WA noch irgendwelche anderen bildbeeinflussenden Einstellungen (z.B. Filmsimulation, Belichtung, Sättigung ...). Das kann er ja auch gar nicht.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Leicanik:

Meinst du wirklich den optischen? Wie soll das gehen, der zeigt dir doch weder einen WA noch irgendwelche anderen bildbeeinflussenden Einstellungen (z.B. Filmsimulation, Belichtung, Sättigung ...). Das kann er ja auch gar nicht.

Und dann ist das, was man sieht, ja das, was das Gehirn daraus macht, und das greift dabei ganz kräftig ein. Die Kamera müsste also auch noch erraten, was im visuellen Kortex des Fotografen passiert ist, und das dann nachvollziehen. Für die Entwickler wäre das sicher ein Klacks; die sind bloß zu faul dazu … 😉

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Leicanik:

Meinst du wirklich den optischen? Wie soll das gehen, der zeigt dir doch weder einen WA noch irgendwelche anderen bildbeeinflussenden Einstellungen (z.B. Filmsimulation, Belichtung, Sättigung ...). Das kann er ja auch gar nicht.

ja klar, oder habe ich mich unklar ausgedrückt?  Der optische S. zeigt ja das, was ich  ohne Kamera auch sehen würde,  mal den Ausschnitt und den 3-D Eindruck unberücksichtigt gelassen.  

Link zum Beitrag
Auf anderen Seiten teilen

vor 38 Minuten schrieb CMOS:

ja klar, oder habe ich mich unklar ausgedrückt?  Der optische S. zeigt ja das, was ich  ohne Kamera auch sehen würde,  mal den Ausschnitt und den 3-D Eindruck unberücksichtigt gelassen.  

Ist das jetzt eine ernstgemeinte Forderung? 😳

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb CMOS:

ja klar, oder habe ich mich unklar ausgedrückt?  Der optische S. zeigt ja das, was ich  ohne Kamera auch sehen würde,

Ich bin nicht sicher, ob ich dich richtig verstehe: geht es dir um den richtigen Ausschnitt, oder tatsächlich darum, dass die Kamera das Bild komplett so ausgeben soll, wie du es live siehst? Letzteres ist unmöglich, denn es erfolgt ja immer irgendeine Art von Veränderung durch die eingestellten Werte und die Verarbeitung zum Bild. Oder geht es dir einfach darum, dass die Kamera eine möglichst realistische Farbwiedergabe haben soll?

bearbeitet von Leicanik
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Die Kamera müsste also auch noch erraten, was im visuellen Kortex des Fotografen passiert ist, und das dann nachvollziehen. Für die Entwickler wäre das sicher ein Klacks; die sind bloß zu faul dazu … 😉

Ja, wozu haben wir denn die KI? Die soll das jetzt mal machen… 😉

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...