Jump to content

Nikon Zf (off topic aus Fujifilm X-T5…)


Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 7 Minuten schrieb zoom:

Ah jaa, der Andreas @RAWky hat mir schon Mal vor 2 Jahren empfohlen.

Nutzen sollte ich es glaube ich jetzt immer. Sogenannte "lichterbetonte Messung" bei Nikon Kameras. Danke nochmal an Andreas! Dadurch werden Bilder generell zu dunkel aber dafür werden Lichter gerettet und die Schatten kann man ja im RAW Konverter schmerzlos hochziehen.

 

Vorsicht damit, nicht generell anwenden, nur in ganz schwierigen Situation mit extrem viel Licht im Himmel und Wolken. Habe das letzthin probiert bei bewölktem Himmel und unten extrem dunkel. Da hab ich viel Licht verschenkt. Unten dann schwarz und oben weit weg von vorsichtiger Belichtung. Heisst man muss dann Tiefen extrem raufziehen mit entsprechendem Rauschen. Daher würde ich das wirklich nur selten und wenn notwendig anwenden. Die Matrixmessung der Nikon ist von Hause aus schon sehr zurückhaltend. Viel mehr wie bei Fuji. Hab gerade gestern mal mit der T5 mit Belichtungsautomatik probiert. Matrixmessung, unten auch relativ dunkel und heller Himmel mit Wolken. Im Sucher hat dann trotz Matrixmessung kompletter Himmel schwarz geblinkt. Bin dann wieder auf manuell zurück. Bei Nikon hat man bei Matrix immer anständig Luft im Histogramm.

Link zum Beitrag
Auf anderen Seiten teilen

vor 13 Minuten schrieb zoom:

Sogenannte "lichterbetonte Messung" bei Nikon Kameras.

Die weiß auch nicht, welche Lichter bildwichtig sind. Und ohne Blinkies weißt du nicht, ob du nachkorrigieren kannst/musst. Leider kann/will mir niemand sagen, wie diese Messung im Modus M arbeitet. Sinnvollerweise sollte die Lichtwaage da auf 0 stehen, wenn gerade keine Lichter im Bild mehr ausfressen. Das entspräche dann einem Blinkie-freien Live-View (RAW-Histogramm). Aber ist das auch so? 

Link zum Beitrag
Auf anderen Seiten teilen

vor 23 Minuten schrieb Swisshead:

Matrixmessung, unten auch relativ dunkel und heller Himmel mit Wolken. Im Sucher hat dann trotz Matrixmessung kompletter Himmel schwarz geblinkt.

Fuji geht vielleicht davon aus, dass Leute, die nicht selbst belichten können, auch DR auf AUTO stellen, was dann 1 EV Spielraum oben gibt. Es ist ja etwas traurig, dass die Belichtungsmessung der Xacti-Kameras (X-T100 etc.) smarter ist als die der "Profi"-Modelle, wenn es um DR-AUTO geht. Während die teuren Kameras immer nur den Kontrastunterschied im Motiv an sich bewerten, berücksichtigen die billigen Xactis die eingestellte Belichtungskorrektur, schauen also, ob im konkreten Fall Lichter ausfressen würden oder nicht – und schalten DR200% dann entweder dazu oder wieder zurück auf DR100%. Die einen beziehen sich also aufs Motiv, die anderen auf die tatsächliche Belichtung. Letzeres ist natürlich besser.

Das war etwas, was ich schon vor vielen Jahren in Tokio moniert hatte, aber der Wunsch wurde bisher hartnäckig ignoriert, was seitdem zu Abermillionen unterbelichteten Bildern geführt hat. Das sehe ich bereits bei meinen Workshopkunden, die seit Jahren massenhaft Bilder schicken, die für DR100% auf die Lichter belichtet wurden (weil sie das mal irgendwo gelesen haben), dann aber via DR-Auto mit DR200% mindestens 1 EV unterbelichtet wurden. Mit den günstigen Xacti-Kameras passiert das ironischerweise nicht. Wohl dem, der also noch eine X-T200 hat. Die belichtet mit DR-Auto besser als etwa eine GFX100 oder andere "Billigmodelle". 🤪

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 27 Minuten schrieb RAWky:

Wenn mit „der Benutzer“ der konkrete Benutzer einer Kamera gemeint ist und diese die gemachten Bilder analysiert und eine interne KI für zukünftige Aufnahmen anlernt, dann ist „künftig“ noch sehr weit weg.

Warum so kompliziert? Die Kamera zeigt dem User beim Setup einfach ein Dutzend verschiedene Motive (Sonnenuntergang, Gegenlichtporträt, Landschaftsfoto etc.) in jeweils 4 Varianten, und der Benutzer wählt mit dem Finger die Variante aus, die ihm am besten gefällt. So wie beim Erfassen des Fingerabdrucks oder des Gesichts für die ID-Erkennung. Dabei geht es dann nicht nur um die Belichtung, sondern auch um die Bearbeitung und das Tone-Mapping an sich (Clarity, Gesichtsglättung etc.). 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

vor 27 Minuten schrieb RAWky:

Wenn z.B. Adobe (o.a.) diesen Job übernehmen und anhand der Bilder, die übernommen, entwickelt und nicht gelöscht wurden, und dann das Gelernte auf die Kamera übertragen, dann ist „künftig“ vielleicht nicht so weit weg,

Ich verstehe KI so, dass die Kamera (oder künftig die persönliche Cloud) "lernt", wie der jeweilige Fotograf in der jeweiligen Situation fotografiert, sprich belichtet etc.. Dann wäre die heimische Anschlusssoftware wurst.

bearbeitet von snow
Link zum Beitrag
Auf anderen Seiten teilen

Gerade eben schrieb snow:

Ich verstehe KI so, dass die Kamera (oder künftig die persönliche Cloud) "lernt", wie der jeweilige Fotograf in der jeweiligen Situation fotografiert, sprich belichtet.

Klar, das ist dann eine Zusatzfunktion in den Einstellungen. Die Kamera kann berücksichtigen, wie der Fotograf bestimmte Motive selbst korrigiert beim Fotografieren. Ist freilich nur für Leute interessant, wie wissen, was sie tun. Also werksseitig aus. Für die "Masse" reicht das obige Konzept mit den vorgelegten Beispielmotiven, das in 1 Minute abgearbeitet ist. 

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 6 Minuten schrieb Rico Pfirstinger:

Wohl dem, der also noch eine X-T200 hat.

Da war ich vor mal kurz davor, mir ein goldenes Exemplar zu greifen. Aber genau das hat mich zu lange zögern lassen (und weg war sie), dass es zum Teil wie die X-Trans-Fujis in der Kamera aussieht, sie aber im Hintergrund was anderes macht und ich das dann erst rausfinden muss.

Link zum Beitrag
Auf anderen Seiten teilen

vor 20 Minuten schrieb Rico Pfirstinger:

Die weiß auch nicht, welche Lichter bildwichtig sind. Und ohne Blinkies weißt du nicht, ob du nachkorrigieren kannst/musst. Leider kann/will mir niemand sagen, wie diese Messung im Modus M arbeitet. Sinnvollerweise sollte die Lichtwaage da auf 0 stehen, wenn gerade keine Lichter im Bild mehr ausfressen. Das entspräche dann einem Blinkie-freien Live-View (RAW-Histogramm). Aber ist das auch so? 

Ich werde mal in Zukunft meine NIKON bei solcher Messung (auch im "M") beobachten... Wo das Einsetzen sich lohnt.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb outofsightdd:

Da war ich vor mal kurz davor, mir ein goldenes Exemplar zu greifen. Aber genau das hat mich zu lange zögern lassen (und weg war sie), dass es zum Teil wie die X-Trans-Fujis in der Kamera aussieht, sie aber im Hintergrund was anderes macht und ich das dann erst rausfinden muss.

Die Filmsimulationen sind anders und haben außer den Namen oft wenig mit denen in den richtigen Fujis zu tun. Das sind tatsächlich ganz andere Kameras mit viel Panasonic-Technik und vergleichsweise wenig Fuji-Technik. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb zoom:

Ah jaa, der Andreas @RAWky hat mir schon Mal vor 2 Jahren empfohlen.

Nutzen sollte ich es glaube ich jetzt immer. Sogenannte "lichterbetonte Messung" bei Nikon Kameras. Danke nochmal an Andreas! Dadurch werden Bilder generell zu dunkel aber dafür werden Lichter gerettet und die Schatten kann man ja im RAW Konverter schmerzlos hochziehen.

 

So ist es…das mache ich mit meinen Sonys auch, da heisst es Highlightmessung. Ich ziehe lieber die Tiefen etwas rauf und habe dann auch meistens keine ausgefressenen Lichter. Und da ich generell etwas dunklere Bilder bevorzuge, kommt mir das entgegen.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Swisshead:

Vorsicht damit, nicht generell anwenden, nur in ganz schwierigen Situation

Ja. einfach die Methode auf eine Funktionstaste legen und diese dann drücken, dann wenn der Fujianer anfängt sich iterativ der "Alle Blinkies Aus"-Einstellung annähert. Für Landschaft ist das mit den Blinkies (ETTR) ja noch anwendbar, wenn es sich aber um (schnell) bewegte Motive, oder Schnappschüsse handelt- auch solche die sich mal in unterschiedliche Beleuchtungssituationen bewegen - Kind rennt aus Schatten in die Sonne - kann man damit die sog. Keeper-Rate mit Wahl dieser Messmethode signifikant erhöhen.

Nicht jeder werkelt vor dem Auslösen an seiner Kamera herum - oder will das. Ich denke auch nicht, dass das immer notwendig ist. Die Belichtungsmessung der Zf (und aktueller und neuerer Nikons) fusst ja nicht auf ISO als Konzept einer "Filmgeschwindigkeit", sondern eher auf der Analyse der Szenenluminaz. Und wie ein Sensor das Licht, das von der Szenerie auf den Sensor möglichst ohne Ausbrenner (in einem beliebigen Automatikmodus) einzufangen ist, weiss doch niemand (niemand!) besser als der Hersteller der Kamera, weil der muss dem Anwender ein brauchbares Bild liefern. Wenn ein Automatikmodus das (heutzutage) grundsätzlich nicht schafft (und für besondere Situationen es keine Alternativ zu wählende Automatik oder Messmethode gibt) ist der ständige Hinweis "man wisse ja auch nicht, was man tue" wenn das Foto "unzeigbar" belichtet ist im Grunde nur ein Hinweis darauf, dass der Kamerahersteller dem klassischen Belichtungsdreieck mit seiner fixen Vorstellung von "Was ist ISO" mehr Bedeutung zumisst, als es sein sollte. 

Wenn ich mit einem Handbelichtungsmesser eine gleichmässig beleuchtete Fläche ausmesse, mir den EV Wert notiere und dann der Fläche eine punktuelle Lichtquelle zufüge und die Restbeleuchtung so weit reduziere bis der vorher notierte EV Wert wieder erreicht ist, bedeutet das ja nicht, eine Kamera sollte beide Szenen (in einem Automatikmode) auch gleich in Sachen Belichtung bewerten, sondern die punktuelle Lichtquelle mit in die Bewertung einbeziehen. 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb RAWky:

Wenn mit „der Benutzer“ eine Summe von Benutzern gemeint ist, die ihre gelungenen Bilder mit den EXIF-Daten dem KI-Lernprozess zu Verfügung stellen, dann sind wir doch genau bei REI, einem (willkürlichen aber nicht grundlosem) Vorschlagsinstrument, wie man den größten Teil von Szenen belichtet, ohne auf den reinen Durchschnitt der Luminanz im gewähltem Bildausschnitt (Spott, Mittenbetont, Mehrfeld) angewiesen zu sein. 

Wobei REI eigentlich untrennbar mit einer Mehrfeldmessung verbunden ist. Mit der Spot- oder Integralmessung (ob mittenbetont oder nicht) ist die Kamera darauf zurückgeworfen, eine im Spotmessfeld oder dem gesamten Bildfeld gemessene durchschnittliche Helligkeit als mittleres Grau zu interpretieren und dann so zu belichten, dass am Ende wieder ein mittleres Grau dabei heraus kommt. Der einzige Spielraum liegt in der Gradationskurve: Wenn diese die Mitteltöne stärker anhebt, kann die Kamera knapper belichten und ein paar Lichter retten. Ob diese Lichter gerettet werden wollen/sollen, ist dann noch eine andere Frage, die die Kameraelektronik nicht beantworten kann; sie schaut ja nicht auf die Details der Szene, sondern berücksichtigt nur durchschnittliche Grauwerte.

Bei einer Mehrfeldmessung ist die Kamera nicht auf eine Durchschnittsbildung angewiesen – die sie zwar vornehmen könnte, aber das wäre die trivialste und unsinnigste Anwendung einer Mehrfeldmessung, denn dafür ist ja die Integralmessung da. Sie kann den Szenenkontrast messen (die zweittrivialste Anwendung) und ihn zu bewahren versuchen, und sie kann auch auf den Autofokus (worauf wurde fokussiert, also das vermutlich wichtigste Motiv), möglicherweise eine Tiefenkarte und eine Objekterkennung zurückgreifen (sind Menschen, Tiere, Fahrzeuge etc. im Bild, und wenn ja, wo?). Anhand dieser Informationen kann die Kamera darüber spekulieren, was für eine Belichtung ein Bild ergäbe, das dem Fotografen die größte Freude bereitete – was ja bei REI der Sinn der Sache ist. Ein Korpus erfreulicher Bilder als Trainingsmaterial eines neuronalen Netzes könnte solchen Spekulationen mehr Substanz geben, aber Ricos Idee, den Fotografen zwischen Varianten wählen zu lassen, ist wohl praktikabler. (Ich ertappe mich öfter dabei, dass ich Leuten fancy KI-Kram auszureden versuche, weil man mit einfachen und nachvollziehbaren Verfahren eher zum Ziel kommt.)

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Anhand dieser Informationen kann die Kamera darüber spekulieren, was für eine Belichtung ein Bild ergäbe, das dem Fotografen die größte Freude bereitete – was ja bei REI der Sinn der Sache ist. Ein Korpus erfreulicher Bilder als Trainingsmaterial eines neuronalen Netzes könnte solchen Spekulationen mehr Substanz geben, aber Ricos Idee, den Fotografen zwischen Varianten wählen zu lassen, ist wohl praktikabler.

ISO-REI hat doch nichts mit KI, Spekulationen und dem Fotografen Freude bereiten zu tun. Es ist doch nur die Idee, den ISO Wert nicht als "Filmgeschwindigkeit" zu interpretieren, sondern die Belichtung des Sensors aufgrund der Szenenluminanz zu bestimmen. Es ist einfach sinnvoll die hellste(n) Stelle(n) in der Szene zu kennen und diese Luminanz in Relation zum Rest zu setzen. Wie gesagt, wenn der Rest einer Szene im Schnitt noch 18% Helligkeit der hellsten Stelle erreicht ist diese nicht ausgefressen, aber dunkelt die Szene auch nicht ab, sondern die hellste Stelle ist dann (fast) weiss (siehe meine Reiher weiter oben), also in der RAW-Datei gerade noch nicht überbelichtet.

Das hat mit Fancy-Kram auch nichts zu tun. Eine spiegellose Kamera sollte heutzutage nur etwas mehr können als arbeite sie noch mit einem Handbelichtungsmesser, der alles auf ein mittleres Grau reduziert.

Nicht alles, was die anderen können (und machen) ist deshalb unsinnig, weil es die anderen können (und machen). 

Richtig ist natürlich, wenn die Automatik nur auf ein mittleres "Grau" (bzw. 0.461 des maximal möglichen, also 118 bei 8 bit) belichten kann, dann ist der Fotograf gefordert, um ein "richtig" belichtetes Foto zu erhalten. Das gilt auch für externe RAW-Entwickler, die mein Foto mit dem Reiher (<- RAW-Datei) ohne mit der Wimper zu zucken überbelichten. Es gibt aber Kameras, die schaffen solche Szenen ...

bearbeitet von RAWky
Link zum Beitrag
Auf anderen Seiten teilen

Was ich mich bei der aktuellen Diskussion hier frage: Schaut Ihr alle nicht durch den Sucher oder das Display?

Dort sieht man doch sofort, wenn die Lichter an die Grenze kommen und kann die Belichtung entsprechend korrigieren. Klar, wer auf manueller Belichtungseinstellung besteht, hat da etwas mehr Arbeit. Alle anderen korrigieren einfach die Belichtung somweit nach unten, dass es im EVF oder auf dem Display gut aussieht und macht den Rest im RAW-Konverter. Da die Kameraanzeige immer auf JPEGs beruht, ist man mit RAWs doch schnell und einfach auf der sicheren Seite.

Oder übersehe ich was?

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb mjh:

Wobei REI eigentlich untrennbar mit einer Mehrfeldmessung verbunden ist. Mit der Spot- oder Integralmessung (ob mittenbetont oder nicht) ist die Kamera darauf zurückgeworfen, eine im Spotmessfeld oder dem gesamten Bildfeld gemessene durchschnittliche Helligkeit als mittleres Grau zu interpretieren

Nicht generell. Die Nikon Zs machen das (REI) in allen Modi (Mehrfeld, Mittenbetont, Spot und Lichterbetont). 

Link zum Beitrag
Auf anderen Seiten teilen

vor 26 Minuten schrieb Mattes:

Schaut Ihr alle nicht durch den Sucher oder das Display?

Doch, natürlich. Aber ist es unbedingt notwendig (es geht ja hier um Nikon, insbesondere die Zf), die Auswirkungen der Einstellungen für WB, Belichtungskorrektur, Picture Control, … immer im Sucher dargestellt zu bekommen? Oder reicht es, durch den Sucher ein möglichst naturalistisches Bild des Motivs zu sehen?

Ich favorisiere die zweite Option, bisher ohne Entäuschungen in Bezug auf das, was die Nikon dann aufgenommen hat. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 57 Minuten schrieb Mattes:

Dort sieht man doch sofort, wenn die Lichter an die Grenze kommen und kann die Belichtung entsprechend korrigieren.

2014 haben wir das so gemacht: ProNegStd, SH -2, HL -2 -> Da konnte man halbwegs per Bildeindruck auf die Lichter belichten, hatte aber trotzdem noch das Problem, dass man höllisch auf die eingestellte Sucherhelligkeit achten musste, der bessere Sucher der X-T1 half einem dann auch besser zu belichten als bei der X-E2...

Oder man belichtet einfach mit massig Reserve (=zu dunkel), da braucht man dann auch zwingend KB um auf Ergebnisse zu kommen, die einem dank Blinkies und Co. bei APS-C oder sogar MicroFourThirds (ich habe eine 2013er Olympus mit Blinkis und LiveViewRGB-Histogramm) seit Jahren kinderleicht gemacht werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb Rico Pfirstinger:

Leider kann/will mir niemand sagen, wie diese Messung im Modus M arbeitet. Sinnvollerweise sollte die Lichtwaage da auf 0 stehen, wenn gerade keine Lichter im Bild mehr ausfressen. Das entspräche dann einem Blinkie-freien Live-View (RAW-Histogramm). Aber ist das auch so? 

Meine Z6 reduziert (leicht) die Belichtung wenn ich von Matrix auf lichterbetonte Matrixmessung umschalte selbst dann wenn gar keine Lichter im Motiv sind (also zum Beispiel nur grauer Stoff meiner Couch). Mich würde der Algo auch mal interessieren.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb RAWky:

ISO-REI hat doch nichts mit KI, Spekulationen und dem Fotografen Freude bereiten zu tun. Es ist doch nur die Idee, den ISO Wert nicht als "Filmgeschwindigkeit" zu interpretieren, sondern die Belichtung des Sensors aufgrund der Szenenluminanz zu bestimmen.

Nö, aber das sagte ich ja bereits. Mag sein, dass irgendein Hersteller REI so interpretiert – keine Ahnung –, aber es ist jedenfalls nicht so spezifiziert. Es gibt keine vorgegebene Methode, den REI-Wert zu bestimmen. Er wird einfach so gewählt, dass mit diesem Wert belichtete Aufnahmen zu Bildern führen, die dem Fotografen in der Mehrzahl der Fälle gefallen. Wie man so einen Wert findet, bleibt offen, und KI ist da ein ebenso guter Ansatz wie irgendein anderer.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb RAWky:

Die Nikon Zs machen das (REI) in allen Modi (Mehrfeld, Mittenbetont, Spot und Lichterbetont). 

Wie gesagt: Bei einer Spot- oder Integralmessung gibt es doch gar keinen fudge factor wie den REI. Auch Deine Methode, „die hellste(n) Stelle(n) in der Szene zu kennen und diese Luminanz in Relation zum Rest zu setzen“ wäre damit gar nicht anwendbar, denn dann wäre es keine Spot- oder Integralmessung mehr. Auch diese Methode setzt eine Mehrfeldmessung zwingend voraus, denn wie willst Du ohne diese erfahren, wo die hellste Stelle im Bildfeld ist?

 

vor 1 Stunde schrieb RAWky:

Eine spiegellose Kamera sollte heutzutage nur etwas mehr können als arbeite sie noch mit einem Handbelichtungsmesser, der alles auf ein mittleres Grau reduziert.

Sicher, aber auf jeden Fall muss sie die Basics beherrschen, also per Spot- oder Integralmessung auf ein mittleres Grau hin belichten können. Das sind ja die einzigen Messmethoden, bei denen man die Kontrolle behält – die Kamera stellt sich dumm, damit der Fotograf seine Intelligenz zur Geltung bringen kann. Dabei muss man sich darauf verlassen können, dass die Kamera stur das tut, was sie soll, und nicht versucht, selbst noch schlauer zu sein. Sie soll sich exakt wie ein Handbelichtungsmesser verhalten; das ist der Sinn der Sache. Wenn man dagegen auf die Intelligenz der Kamera setzten will, muss man die Mehrfeldmessung wählen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb mjh:

damit der Fotograf seine Intelligenz zur Geltung bringen kann

Da stellt sich mir die Frage, ob es komplexer ist, ein Foto zu machen oder den Führerschein. Beim Führerschein weiss ich, dass er nicht eines bestimmten Intellekts bedarf. Beim Fotografieren ist das sicher auch nicht anders. Im Übrigen habe ich nie wirklich das Gefühl irgendwas beim Auslöser drücken unter Kontrolle zu haben. Ich weiss nicht wirklich was in der Kamera passiert (OK ein Photon löst ein Elektron aus, das einen Kondensator entlädt, jedes Sensel hat einen Kondensator, ob die aber gleiche Kapazitäten haben? Bei x Photonen auf dem Sensor sind Wurzel(x) Photonen, die da nur rumvagabundieren und für Rauschen sorgen. Wenn ich das schreibe, bedeutet das dann, ich wüsste etwas?)

Woran erkenne ich, ob der Fotograf intelligenter handelt, als es seine Kamera auf anderen wegen versucht? Am Bild? Bisher sind ausgefressene Lichter und abgesoffene Schatten das Kriterium für die Beurteilung "Depp hinter Sucher", aber dann gilt auch für "Depperte Kamera vor dem Auge" ...

Mit eine falsch gewählten Automatik (in Sachen Belichtung) darf ich mir das Ergebnis schrotten, aber mit der passenden Automatik sollte ein Foto generell gelingen, sonst stimmt was nicht.

Gerade ist so ein schöner Mond. Ist M mit fester ISO wirklich nötig?

Link zum Beitrag
Auf anderen Seiten teilen

Ich finde das eine sehr schöne Diskussion, wobei auch durchaus interessante Ansichten, Erfahrungen und auch Wissen zu anderen Kameramarken mit einfließen. Vielleicht könnte man das verfestigen mit einem eigenen "breiteren" Thread, z.B. im Smalltalk.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn man ein blanko weißes oder schwarzes Blatt Papier formatfüllend fotografiert, in beiden Fällen kommt immer das mittelgraue matschige Bild aus der Kamera raus. Wie möchte man zukünftig Kameras es beibringen, erstens dass es ein farbneutrales- und zweitens dass es um ein Schwarzes oder Weißes Blatt handelt?

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Rakete:

Wie möchte man zukünftig Kameras es beibringen,

Kommunikation ist alles

am besten mit Alexa verbinden

bzw. mit Fuji-App und Sprach-Anbindung

so, sagt man seiner Kamera

-Weißes Blatt

-schwarzes Blatt

-Landschaft mehr blauer Himmel

und und und .......

Die Möglichkeiten sind unendlich

Link zum Beitrag
Auf anderen Seiten teilen

Gast
Dieses Thema wurde für weitere Antworten geschlossen.
×
×
  • Neu erstellen...