Jump to content

Was machen wir mit all unseren Kameras, wenn die rauschfreie kommt?


althaus

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

Woran erkennt man einen Veganer? — Er wird es Dir sagen.

Bei manchen ist es mit der Moral schon getan, wenn sie einen Fahrrad Helm haben, Bio kaufen (ggf. auch aus Neuseeland) und wichtig: vegan leben, ggf. auch der Hund. Der Rest der eigenen biolinks-Welt ist damit in der Regel dann legitimiert.

Aus moralischen Gründen fahre ich kein deutsches Auto, sondern ein amerikanisches mit 8 Zylindern, weil, kein Diesel!

Link zum Beitrag
Auf anderen Seiten teilen

  • Antworten 78
  • Created
  • Letzte Antwort

Mal zurück zur Technik: Die Offenblende des iPhones liegt doch bei f/1.8, wenn ich richtig informiert bin (zumindest war es beim X so). Warum schreiben die dann f/1.4 an eine butterweiche Bokehsimulation, müsste da nicht eher f/0,2 oder f/0,3 stehen? Und warum ist bei angeblichen f/4.5 das Bokeh immer noch da und weich? Man sieht an solchen vermeintlichen Kleinigkeiten, an wen sich die Geräte und das Marketing richten. Der informierte Fotograf ist es sicher nicht, auch wenn sich unter den Käufern sicher welche finden wie man sieht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 12 Stunden schrieb Crischi74:

Es zeigt die Richtung.  Vor allem sind es wieder 1000€ die wesentlich mehr Menschen für ein Smartphone ausgeben und nicht für eine konventionelle Kamera, um zu fotografieren.

Echt jetzt? 1000 EUR für ein Telefon mit Taschenrechner? 😵

 

vor 10 Stunden schrieb Crischi74:

Mit derart moralischen Bedenken müsste man auch auf Fleischkonsum, Nestle-Produkte und deutsche Autos verzichten, ansonsten macht man sich lächerlich.

Moral? Weiß nicht, aber dreimal Bingo! 😊

 

vor einer Stunde schrieb Lenz Moser:

Seit 15 Jahren kein Fleisch, wenn es irgendwie geht, nur echte Bioprodukte und "Fair Trade", die hat Nestle nicht und mein Auto kommt nicht aus Deutschland, sondern aus Bayern. :)

Nochmal Bingo! 😁

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Stunden schrieb Crischi74:

Mit derart moralischen Bedenken müsste man auch auf Fleischkonsum, Nestle-Produkte und deutsche Autos verzichten, ansonsten macht man sich lächerlich.

Das sind bestenfalls Sicherheitsbedenken, keine "moralischen Bedenken"; das ist doch was recht anderes. Ich verzichte zu 95% auf Fleisch, Nestle sowieso, da Bio- Deutscher, hab kein deutsches Auto. Aber wer meint, dass andere Autos "moralischer" sind, naja, viel Glück...

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb MEPE:

Mal zurück zur Technik: Die Offenblende des iPhones liegt doch bei f/1.8, wenn ich richtig informiert bin (zumindest war es beim X so). Warum schreiben die dann f/1.4 an eine butterweiche Bokehsimulation, müsste da nicht eher f/0,2 oder f/0,3 stehen? Und warum ist bei angeblichen f/4.5 das Bokeh immer noch da und weich? Man sieht an solchen vermeintlichen Kleinigkeiten, an wen sich die Geräte und das Marketing richten. Der informierte Fotograf ist es sicher nicht, auch wenn sich unter den Käufern sicher welche finden wie man sieht.

Vielleicht bezieht sich das Bokeh auf einen Kleinbildsensor ;) .

Der Sensor des iPhones ist doch viel kleiner und hat deshalb auch seines Cropfaktors entsprechend eine viel größere Schärfentiefe/Tiefenschärfe :) .

Die Blendenzahlen sollen dir nur suggerieren, was da errechnet wurde - und dein Gehirn reagiert darauf mit vorgefertigtem "Kopfkino"!

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Minuten schrieb Allradflokati:

Vielleicht bezieht sich das Bokeh auf einen Kleinbildsensor ;) .

Davon gehe ich aus, ja. Wenn sich das Publikum überhaupt etwas unter einer Lichtstärke vorstellen kann, dann bezieht es sie vermutlich auf das Kleinbildformat. 

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 2 Minuten schrieb mjh:

Davon gehe ich aus, ja. Wenn sich das Publikum überhaupt etwas unter einer Lichtstärke vorstellen kann, dann bezieht es sie vermutlich auf das Kleinbildformat. 

Ich dachte, KB wäre out... ;)😀

M.M.n. sollte der angegebene Blendenwert zum verwendeten System passen, wird ja sonst auch so gehandhabt.

Inkorrekte Brennweitenangaben sind schon merkwürdig, aber bei Blendenzahlen wird es komplett unseriös.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb MEPE:

Ich dachte, KB wäre out... ;)😀

M.M.n. sollte der angegebene Blendenwert zum verwendeten System passen, wird ja sonst auch so gehandhabt.

Inkorrekte Brennweitenangaben sind schon merkwürdig, aber bei Blendenzahlen wird es komplett unseriös.

Die ganzen Umrechnungen auf das Kleinbildformat werden ja nur gemacht, weil das Kleinbildformat im vergangenen Jahrhundert so lange das dominierende Format war und sich daher als Bezugsgröße eingebürgert hat.

In diesem Fall geht es aber nicht einmal um eine Umrechnung in äquivalente Werte, sondern um ein rein synthetisches Bokeh.

So ungewöhnlich sind solche Angaben nicht: Meine LED-Lampen haben eine Farbtemperatur von 2700 K, aber man kann sie gefahrlos anfassen – mit einer realen Temperatur hat das nichts zu tun, denn die Farbtemperatur besagt ja nur, dass die spektrale Verteilung der Strahlung eines idealen schwarzen Körpers mit der angegebenen Temperatur entspricht. In diesem Fall ist es so, dass das Bokeh annähernd dem eines Kleinbildobjektivs mit der angegebenen Lichtstärke entspricht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb mjh:

Die ganzen Umrechnungen auf das Kleinbildformat werden ja nur gemacht, weil das Kleinbildformat im vergangenen Jahrhundert so lange das dominierende Format war und sich daher als Bezugsgröße eingebürgert hat.

In diesem Fall geht es aber nicht einmal um eine Umrechnung in äquivalente Werte, sondern um ein rein synthetisches Bokeh.

So ungewöhnlich sind solche Angaben nicht: Meine LED-Lampen haben eine Farbtemperatur von 2700 K, aber man kann sie gefahrlos anfassen – mit einer realen Temperatur hat das nichts zu tun, denn die Farbtemperatur besagt ja nur, dass die spektrale Verteilung der Strahlung eines idealen schwarzen Körpers mit der angegebenen Temperatur entspricht. In diesem Fall ist es so, dass das Bokeh annähernd dem eines Kleinbildobjektivs mit der angegebenen Lichtstärke entspricht.

Naja. Es geht ja hier beim von Dir beschriebenen Beispiel um "Farbtemperatur", nicht "Temperatur", das ist ein Fachbegriff aus der Festkörperphysik, der eindeutig und immer so verwendet wird.

Im Fall von Kamerasystemen gibt man die Lichtstärke aller Regel nach für das vorhandene System an und nicht für ein KB-Bezugssystem. Man schreibt ja auch nicht über ein mft-System, dass ein Foto bei f/8 gemacht wurde, obwohl ein 300/f4 dranhing.

Die Angabe "das Bokeh entspricht annähernd dem eines KB-Objektivs mit der angegeben Lichtstärke" ist eigentlich auch wertlos, weil sie nichts über Brennweite, Motiv- und Hintergrundabstand sagt.

Apple hätte doch einfach dazuschreiben können, dass sich die Zahlen auf KB beziehen oder vielleicht einfach willkürliche Fantasiegrößen sind.

Es wird ja hier immer wieder betont, wie wichtig Apple und Co. auf dem Kameramarkt inzwischen sind. Dann sollten sie sich bitte auch an den Ansprüchen messen lassen, die man an einen seriösen Kamera- und Objektivhersteller hat.

Ich finde es immer wieder recht erstaunlich, wie hier Beiträge oft Wort für Wort auseinandergenommen und fachlich korrekte Sprache eingefordert werden, aber bei Produkten und Herstellern, die man mag, eine Art "laisser faire" betrieben wird.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb MEPE:

Die Angabe "das Bokeh entspricht annähernd dem eines KB-Objektivs mit der angegeben Lichtstärke" ist eigentlich auch wertlos, weil sie nichts über Brennweite, Motiv- und Hintergrundabstand sagt.

Herrjeh, Apple will iPhones an Leute verkaufen, die schöne Bilder machen wollen, und sie beschreiben die Fähigkeiten der neuen iPhones in einer Sprache, die die Kunden verstehen. Das war kein wissenschaftlicher Vortrag.

Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Minuten schrieb mjh:

Herrjeh, Apple will iPhones an Leute verkaufen, die schöne Bilder machen wollen, und sie beschreiben die Fähigkeiten der neuen iPhones in einer Sprache, die die Kunden verstehen. Das war kein wissenschaftlicher Vortrag.

 

vor 10 Minuten schrieb MEPE:

Die Angabe "das Bokeh entspricht annähernd dem eines KB-Objektivs mit der angegeben Lichtstärke" ist eigentlich auch wertlos, weil sie nichts über Brennweite, Motiv- und Hintergrundabstand sagt.

Natürlich stimmt das nicht mit den optischen Eigenschaften eines realen Objetives überein, aber das interessiert die allermeisten Smartphone-Knipser null-komma-nix ;) .
Die sehen nur, dass sie den "gleichen" Effekt der Freistellung durch Rechenpower erzielen lassen können, wie mit einer "Profi-Kamera".
Dass da sichtbare Unterschiede (noch) existieren, ist dabei egal - es ist vor und hinter dem Motiv unscharf, was jenen Smartphone-Usern für den "Bildlook" vollkommen ausreicht.

Das ist in etwa so wie mit den Geschmacksverstärkern - häufig genug konsumiert und der der natürliche Geschmack von Lebensmitteln wird von der Masse als zu laff und unnatürlich empfunden ;) .

Link zum Beitrag
Auf anderen Seiten teilen

Ehrlich gesagt finde ich, ein Foto unscharf zu machen, auch wenn es nur ein Teil davon sein soll, nicht als großartige Aufgabe von künstlicher Intelligenz und auch als keine großartige Leistung.

Dass ein Telefon zudem Bilder fälscht um vorzutäuschen, das Foto käme aus einer ordentlichen Kamera, halte ich zudem für eine Spielerei und auch für verzichtbar.

Link zum Beitrag
Auf anderen Seiten teilen

vor 41 Minuten schrieb Lenz Moser:

Dass ein Telefon zudem Bilder fälscht um vorzutäuschen, das Foto käme aus einer ordentlichen Kamera, halte ich zudem für eine Spielerei und auch für verzichtbar.

Das macht es auch nur, wenn wir es dem Telefon sagen ;)!

Ich bin auch kein Freund von nachträglicher Bildverfälschung im Sinne von Kreativität - zumal es ja vorgefertigte Algorithmen sind.
Aber das sind Diskussionen, die wir schon an anderer Stelle mehrfach durchgekaut haben ;) ...

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 17 Minuten schrieb Lenz Moser:

Ehrlich gesagt finde ich, ein Foto unscharf zu machen, auch wenn es nur ein Teil davon sein soll, nicht als großartige Aufgabe von künstlicher Intelligenz und auch als keine großartige Leistung.

Dass ein Telefon zudem Bilder fälscht um vorzutäuschen, das Foto käme aus einer ordentlichen Kamera, halte ich zudem für eine Spielerei und auch für verzichtbar.

Es hat auch wenig mit künstlicher Intelligenz zu tun, aber mit dem Wort "Algorithmus" gibt sich inzwischen keiner mehr zufrieden. Und es ist eine Spielerei, mehr nicht. Aber wer heute Kappes und Spielerei anbietet, hat bereits einen großen Kundenkreis, rapide steigend. Leider.

Ach ja, wer "blind" ist für Licht und Motiv, von Gestaltung keine Ahnung hat, der wird auch in Zukunft bei aller "KI" nichts auf den Teller kriegen, egal wie das Gerät heißt. Und mit einem Device ohne Sucher sowieso nicht, in der Sonne erst recht nicht; wäre es anders, es würde nicht mehr so viel Energie in gute Sucher oder EVF gesteckt. Das hat seinen Sinn!

Es geht um Piccis, Effekte, schnelles Posten, ebenso schnelles konsumieren beim Empfänger (2sek wisch und weg), like klicken, feddisch! Wer den tollsten hat (Bildeffekt), ist der KI-König. — Ausnahmen gibt es natürlich auch hier.

Link zum Beitrag
Auf anderen Seiten teilen

Ja KI war der falsche Begriff.  Es ist halt ein Prozessor mit neuronalem Netz und eine entsprechende Schnittstelle für Machime Learning (Core ML).  Am Ende ist es pure Rechenleistung, welche mit aktuellen Notebooks vergleichbar ist, die die Ausführung aufwändiger Algorithmen und parallele Prozesse in Echtzeit möglich macht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 11 Minuten schrieb JürgenJ:

Es hat auch wenig mit künstlicher Intelligenz zu tun, aber mit dem Wort "Algorithmus" gibt sich inzwischen keiner mehr zufrieden. Und es ist eine Spielerei, mehr nicht. Aber wer heute Kappes und Spielerei anbietet, hat bereits einen großen Kundenkreis, rapide steigend. Leider.

Ach ja, wer "blind" ist für Licht und Motiv, von Gestaltung keine Ahnung hat, der wird auch in Zukunft bei aller "KI" nichts auf den Teller kriegen, egal wie das Gerät heißt. Und mit einem Device ohne Sucher sowieso nicht, in der Sonne erst recht nicht; wäre es anders, es würde nicht mehr so viel Energie in gute Sucher oder EVF gesteckt. Das hat seinen Sinn!

Es geht um Piccis, Effekte, schnelles Posten, ebenso schnelles konsumieren beim Empfänger (2sek wisch und weg), like klicken, feddisch! Wer den tollsten hat (Bildeffekt), ist der KI-König. — Ausnahmen gibt es natürlich auch hier.

Die meisten Smartphone-Bilder werden zweifellos zum schnellen Herzeigen gemacht. Aber daran sind ja nicht die Geräte schuld, sondern die User. Man kann mit Smartphones auch "anspruchsvolle" Bilder machen: http://mobilephotoawards.com/2017-mpa-category-winners-honorable-mentions/
Und es sind sogar Bilder in der Sonne dabei, ganz ohne Sucher gemacht 😉

Link zum Beitrag
Auf anderen Seiten teilen

Bildinhalt und Bildgestaltung sind halt immer noch die Faktoren, welche ein Bild großartig machen.  Der Blick dafür und der Faktor „Zur rechten Zeit am rechten Ort“ sind oft entscheidender als die Aufnahmetechnik.

„Immer dabei“ und „Immer bereit“ erhöhen die Chancen, das Bild zu machen, wenn man zur rechten Zeit am rechten Ort ist.

Link zum Beitrag
Auf anderen Seiten teilen

Ein echt wirkendes Bokeh zu erzeugen, ist eben nicht so einfach. Man sieht ja, wie rudimentär das oft noch aussieht. Solange es um ein klar abgegrenztes Objekt vor weiter entferntem Hintergrund geht, funktioniert das noch einigermaßen. Aber ein gestaffelter Vorder- und/oder Hintergrund dazu und schon scheitert die Software kläglich.

Jemanden, der ab und zu mal Urlaubsschnappschüsse anschaut, kann man so beeindrucken, einen einigermaßen geübten Fotografen sicher nicht.

Keine Frage, die Algorithmen werden besser und besser, aber ganz ehrlich, will man so etwas als ambitionierter Fotograf? Ich eher nichtl

Link zum Beitrag
Auf anderen Seiten teilen

Die Sache ist, dass der bisherige Consumer-Kameramarkt tot wäre, wenn er nur ambitionierte Fotografen ansprechen würde.  Trotzdem gäbe es weiterhin einen Markt für Profis mit den geringeren Stückzahlen entsprechend höheren Preisen.

Heute habe ich einem Arbeitskollegen eine RX100 III eingestellt und erklärt. Wahrlich kein Profigerät, aber bei den verschachtelten Menüs war ich drauf und dran dem Kollege zu sagen: „nimm besser dein IPhone“ wenn’s schnell und gut werden soll.

Mein Gott. Wenn ich die Bedienung der RX100 mit der Fuji XQ1 oder gar mit einem Apple-Produkt vergleiche, merke ich dass Sony keinen Schimmer von intuitiven Bedienkonzepten hat. 

Ich werde diese Kamera niemandem empfehlen,  schon gar keinem Neueinsteiger.

Link zum Beitrag
Auf anderen Seiten teilen

Ja, das ist schwierig, die Sony-Menüs können einen zur Weißglut treiben. Wobei ich sagen muss, dass ich meine A7rII, als ich alle benötigten Funktionen auf Schnellzugriffe gelegt hatte, ebensogut bedienen konnte wie die Fujis. Auch die Gewöhnung spielt eine Rolle, nach ein paar Tagen ging das problemlos, manchmal wird die intuitive Bedienbarkeit auch überbewertet. Viel schlimmer finde ich manche ergonomische Macken, sei es bei Sony, Canon oder Fuji. Wobei ich Canon diesbezüglich in der Rückschau am überzeugendsten fand.

Und so schlecht verkauft sich die RX100 vermutlich nicht, es ist schon ein toller Kompromiss aus technischer Leistung und Kompaktheit.

Link zum Beitrag
Auf anderen Seiten teilen

Mein Huawei P10 kann auch diese Blendensimulation und die Blendenwerte werden auch für KB angegeben (von 0,95 bis 16).

Und natürlich kann man das alles doof finden und natürlich funktioniert das nicht so gut, wie ein "echtes" Bokeh.

Mir gefällt es trotzdem, weil es die fotografischen Möglichkeiten meines Handys aufwertet und der Effekt (aus meiner Sicht) in vielen Situationen schon sehr ansprechende Ergebnisse erzielt. Ich habe damit jedenfalls schon ein paar schöne Fotos gemacht, die ohne diese Simulation, nicht so schön gewesen wären.

Ein "echtes" Portraitshooting, würde ich damit natürlich nicht machen.

 

Link zum Beitrag
Auf anderen Seiten teilen

 

vor 12 Stunden schrieb lichtschacht:

Mir gefällt es trotzdem, weil es die fotografischen Möglichkeiten meines Handys aufwertet und der Effekt (aus meiner Sicht) in vielen Situationen schon sehr ansprechende Ergebnisse erzielt. Ich habe damit jedenfalls schon ein paar schöne Fotos gemacht, die ohne diese Simulation, nicht so schön gewesen wären.

Das sind natürlich auch die Gedanken der meisten "Handy-Knipser" ;) .

Die Analogie zu Geschmacksverstärkern hatte ich schon gezogen.
Und jetzt ziehe ich eine weitere: Das errechnete Bokeh ist ein "Look-Alike-Bokeh"!
Gerade als im Radio Adele lief, fiel mir diese Analogie ein.
Denn sie selber hat mal an einem Adele-Look-Alike-Wettbewerb teilgenommen - und den dritten Platz belegt :).

So ähnlich wird es bei den meisten "ungeschulten" Betrachtern ablaufen, dass eine künstlich gerechnete Bildanmutung gegenüber einer "natürlichen" (oder besser physikalischen) als besser oder gefälliger angesehen wird.

Ich bin bei der ganzen Sache eher konservativ eingestellt. Ich mag generell weniger solche Fotos, die erst durch Rechenleistung und auf Knopfdruck/Mausklick auf die "Kreativfilter" ihre Bildanmutung erhalten.

Dass sich der Trend dahin eh` nicht aufhalten lassen wird, steht auf einem anderen Blatt :) .

Link zum Beitrag
Auf anderen Seiten teilen

Kontrovers reingegrätscht- falls eine Kamera das Licht so einfangen soll wie es der Mensch wahrnimmt können wir von einem hohen Anteil von „Software“ seitiger Interpretation des gesehenen ausgehen. Die optische Leistung von den aktuellen Kameras übertrifft abgesehen vom Dynamikumfang die des Menschliche Auges? Ist es so das ein Foto dann echt aussieht wenn man das sieht was man erwartet zu sehen?

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb der-Flo:

Kontrovers reingegrätscht- falls eine Kamera das Licht so einfangen soll wie es der Mensch wahrnimmt können wir von einem hohen Anteil von „Software“ seitiger Interpretation des gesehenen ausgehen. Die optische Leistung von den aktuellen Kameras übertrifft abgesehen vom Dynamikumfang die des Menschliche Auges? Ist es so das ein Foto dann echt aussieht wenn man das sieht was man erwartet zu sehen?

Nö - mir geht es darum, dass bei der "Unscharf-Rechnerei" das Programm entscheidet, welche Bildanteile vor und welche hinter der Fokusebene liegen - und damit einen nicht unerheblichen Teil zur Bildanmutung beitragen.
Bei durch die Linsen direkt erzeugten Unschärfe liegt (nach Faustformel - und nicht allgemeingültig ;) ) die Bildschärfe etwa 1/3 vor und 2/3 hinter der eingestellten Fokusebene.
Wie soll ein Programm entscheiden, wie die zweidimensionalen Bilddaten in der Tiefe gestaffelt sind, um diesen "physikalischen" Schärfeverlauf zu erreichen?
Wenn eine Person in einer Umgebung steht, wo viele andere Objekte in der Tiefe gestaffelt sind und nur diese eine Person scharf abgebildet im errechneten Bild erscheint, ist es ein mehr als "unnatürlicher" Bildeindruck. Wenn Bildteile in der gleichen Entfernung unscharf und nicht scharf dargestellt werden, kann ich gleich einen Malkasten nehemen ;) .

So ähnlich wie bei den Mondbildern mit den von den Astronauten abgedeckten Kreuzen (Achtung - Verschwörungtheorie ;) ) .
Das man die menschliche Wahrnehmung anhand von Bildern leicht täuschen kann, hat M.C. Escher ja eindrucksvoll gezeigt.

Link zum Beitrag
Auf anderen Seiten teilen

Archiviert

Dieses Thema ist jetzt archiviert und für weitere Antworten gesperrt.

×
×
  • Neu erstellen...