Allradflokati Geschrieben 28. Juli 2024 Share #126 Geschrieben 28. Juli 2024 (bearbeitet) Werbung (verschwindet nach Registrierung) @frarie Diese Erfahrungen habe ich auch gemacht - bei wenig Licht hilft immer nur noch mehr Licht ! bearbeitet 28. Juli 2024 von Allradflokati Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Anzeige Geschrieben 28. Juli 2024 Geschrieben 28. Juli 2024 Hallo Allradflokati, schau mal hier Spekulationen zur Fujifilm X-T6 . Dort wird jeder fündig!
mjh Geschrieben 28. Juli 2024 Share #127 Geschrieben 28. Juli 2024 vor 5 Stunden schrieb meridian: Dazu wäre eine KI Entrauschung, wie in LR auf RAW-Ebene eine feine Sache. Fertig entrauschte RAWs direkt aus der Kamera. Bloß nicht! DST, Allradflokati, Konverter und 11 weitere haben darauf reagiert 6 8 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 28. Juli 2024 Share #128 Geschrieben 28. Juli 2024 vor 25 Minuten schrieb frarie: Ob das nun wissenschaftlich korrekt und belastbar ist als These, weiß ich nicht. Aber ich meine festgestellt zu haben, dass Bilder, die in Situationen entstehen, wo eigentlich genug Licht da ist und das Motiv gut ausgeleuchtet ist, aber viel ISO benötigt wird, weil die Belichtungszeit sehr kurz sein muss, viel schöner entrauscht aussehen als Bilder, die hohe ISO-Werte brauchen, um überhaupt Licht in die Szene zu bringen. https://digicam-experts.de/wissen/43 StefanTi, Konverter, 2prinz.de und 7 weitere haben darauf reagiert 3 7 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 28. Juli 2024 Share #129 Geschrieben 28. Juli 2024 vor 2 Stunden schrieb meridian: Dann darf die X-T6 gerne entrauschte RAWs oder DNGs zusätzlich extra abspeichern. Dann füllt sich die Speicherkarte mit riesigen Dateien, die redundant, also überflüssig wären – man könnte sie schließlich jederzeit bei Bedarf aus den echten Raw-Dateien erzeugen. Und wie langsam wäre die Kamera wohl, wenn man bedenkt, dass schon ein PC eine Weile mit dem Entrauschen beschäftigt ist, und der Kameraprozessor ja viel weniger leistungsfähig ist. vor 1 Stunde schrieb meridian: dazu kennt Fuji den eigenen Sensor besser als ein andere Hersteller, vielleicht wären die Ergebnisse sogar noch besser. Du meinst, Fuji – berühmt für die Qualität ihrer Software, wie wir wissen – könnte es besser als Hersteller, deren Entwickler viel Erfahrung mit dem KI-basierten Entrauschen haben? Weil sie ihren (also Sonys) Sensor so gut kennen? Dare mo, Ijay, 2prinz.de und 8 weitere haben darauf reagiert 10 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dare mo Geschrieben 28. Juli 2024 Autor Share #130 Geschrieben 28. Juli 2024 vor 25 Minuten schrieb mjh: Dann füllt sich die Speicherkarte mit riesigen Dateien, die redundant, also überflüssig wären – man könnte sie schließlich jederzeit bei Bedarf aus den echten Raw-Dateien erzeugen. Und wie langsam wäre die Kamera wohl, wenn man bedenkt, dass schon ein PC eine Weile mit dem Entrauschen beschäftigt ist, und der Kameraprozessor ja viel weniger leistungsfähig ist. Das ist ein wichtiger Aspekt, denn viele stören sich ja schon an der Gedenksekunde beim Speichern von JPEG, wenn Klarheit eingestellt ist. Wenn ich mir das als Grundlage vorstelle, wie lange würde dann wohl das Speichern einer RAW Datei dauern, wenn durch KI entrauscht werden soll? Denn das müsste ja, wie bei Klarheit auch, nach der Aufnahme und vor dem Speichern passieren. Ich gebe zu, dass ich an diesen Faktor noch nicht im Blick habe. Ich denke, dass du hier auf einen wichtigen Punkt bei dieser Idee hingewiesen hast. 👍 Jürgen Heger hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
DRS Geschrieben 28. Juli 2024 Share #131 Geschrieben 28. Juli 2024 vor 16 Minuten schrieb s.sential: Ok, Berufsfotografie - das kann ich null einschätzen. Ein Freund zeigte mir vor ein paar Tagen zwei Bildbände, einer war von Vivian Maier, der andere auch aus längst vergangener Zeit (70er/80er?) - die Bilder waren alles andere als digital technisch perfekt, aber sie sprechen sehr an. An sowas orietiere ich mich gerne. "Technisches Staunen" ergibt sich bei mir nur bei der Tierfotografie, die bei mir auch das einzige ist, wo ich wohl einen gewissen "Jagdinstinkt" habe. Wie Du freue ich mich aber auch jedes mal, wenn sich ein schöner Moment einer Tierbeobachtung einfach nur auf die Netzhaut brennt (das erlebe ich oft auf meinen Radtouren). Ansonsten nehme ich Rauschen oder zu wenig Auflösung gar nicht mehr wahr - das kenne ich eigentlich nur noch vom Smartphone, wenn das mal in sehr hohe ISO-Bereiche muss. Es gibt gerade in den Bereichen der künstlerischen Fotografie sehr alte Werke, die zwar auch vom Motiv leben, aber trotzdem keine schlechte BQ haben. Manchmal gehört das Korn eben zur Situation, aber man nimmt die Situation trotzdem wahr, weil das Bild einfach gut ist. Dazu kommt aber auch, dass neuartige Kameras oder auch Handys uns an mehr Schärfe gewöhnt haben und wir nehmen Unschärfe schon ganz anders wahr und viel früher. Und alles gehört eben in seine Zeit. Fuji erlebt ja auch durch das Retro Feeling einen Hype, viele Etiketten in der Wirtschaft sehen wieder so aus, als währen sie in den 60ern gemacht worden. Ich habe selbst große Kunden wie eine bekannte Bank, die von mir verlangt amateurhafter zu fotografieren, damit es so aussieht, als hätte es die Nachbarin ohne Fotowissen aufgenommen. ich habe Videos gedreht, wo explizit verlangt wurde, es frei Hand zu drehen, die Kamera auch mal nicht gerade zu halten usw. Wie gesagt kann man ja in der Bild Bearbeitung noch den Look anpassen, aber ein farbiges scharfes, rauscharmes Bild ist für meine Verhältnisse nicht die schlechteste Grundlage, auch wenn das Bild durch das Motiv schon strahlt. Heute versteht man ja auch unter eine guten Kamera was ganz anderes als früher wenn man sieht worüber wir uns hier aufregen können. Die einen wollen clean und scharf bis in die letzte Pore mit anschließender Falten Retusche, die anderen sehnen sich wieder nach authentischen Inhalten, aus dem echten Leben, machen Knacken in ihre Tonaufnahmen oder Korn in die Bilder. Ich persönlich mag es natürlich, fotogarfiere auch das, was andere im Studio machen meist vor natürlichen HG. Ich finde es auch schön, wenn mal ein Sonnenstrahl zu viel in den Gesichtern landet oder die blonden Haare überstrahlt sind von der echten Sonne und je nach Motiv. ich liebe es auch, wenn irgendwo bin und herumgehe, um mir den passenden Hintergrund zu wählen oder Vordergrund, der zu meinem Motiv passt und finde auch eigentlich immer was. Hier mal ein Beispiel aus der letzten Woche... Wohnmobil (umgebauter LKW der älteren Sorte mit Alu Wand) Die Lichter habe ich mit einem Sunbouncer da reingespiegelt, das Modell etwas weg von der Szenerie und für das weitere Shooting die beiden Camper dazu überredet noch mal ne Stunde hier zu bleiben, bis ich durch bin. Ist jetzt nur das Test/Einrichtungsbild Bild und auch von hinten, weil ich noch keine Freigabe habe und auch noch nichts groß bearbeitet. Wollte aber nur damit sagen: Bei gutem Ausgangsmaterial kann man da in der heutigen Zeit so ziemlich alles draus machen, bei schlechtem sinken die Möglichkeiten. Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Randyderzweite, Manzoni, Jürgen Heger und 1 weiterer haben darauf reagiert 3 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Tommy43 Geschrieben 28. Juli 2024 Share #132 Geschrieben 28. Juli 2024 (bearbeitet) Werbung (verschwindet nach Registrierung) Die Fujis haben ja einen internen Rawkonverter. Da wird ja auch entrauscht. Diese Entrauschung mit KI aufzubohren, und alles andere wie z.B. ein DNG oder entrauschtes RAW statt eines JPG zu erzeugen wäre ja nochmal unsinniger, ist schwierig bzw. problematisch. Man bräuchte ja einen Prozessor, der Grafikkarten in WIN-PCs oder zumindest M-Prozessoren von Apple ebenbürtig wäre. Wer die Grafikkartenmonster aus PCs kennt, weiß, was da an Größe, Leistung und damit auch Strom benötigt wird. Selbst die modernen M-Prozessoren mit integrierter GraKa bräuchten das. Und wenn man dann auch noch weiß, wie lange eine solche Entrauschung selbst bei potenten PCs dauern kann, der weiß auch, dass das für eine interne Verarbeitung in der Kamera ein kompletter Hemmschuh wäre. Da passen Ertrag und Aufwand in keinerlei Hinsicht zusammen. bearbeitet 28. Juli 2024 von Tommy43 MrFu hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dare mo Geschrieben 28. Juli 2024 Autor Share #133 Geschrieben 28. Juli 2024 (bearbeitet) Noch eine Anmerkung zum Thema Rauschen und dem Gedanken einer KI-Entrauschung. Natürlich gibt es Aufnahmesituationen wo man sich es wünschen würde, dass man sowas gleich vorab entgegenwirken könnte. Aber ich denke nicht, dass man sowas zusätzlich in der Kamera braucht, denn einmal gibt es ja in der Fujikameras die Funktion der Körnung künstlich zuzuführen. Also genau das Gegenteil von dem was eine Ki-Entrauschung machen würde. Zum anderen nutzen auch viele das Rauschen auch als Gestaltungsmittel. Als Beispiel möchte ich hier nur mal die JPEG-Rezepte von @Thomas B. Jones nennen. "Mullins", "Cross" und speziell "Pushing Tri-X" sind Rezepte, wo er bewusst durch einen hohen ISO-Wert ein echtes grobes Korn erzeugen möchte, als es über die Funktion "Körnungseffekt". Darum würde ich eine KI-Entrauschung eher bei der Postproduktion am PC ansiedeln und auch dort belassen und nicht in der Kamera. bearbeitet 28. Juli 2024 von Dare mo Thomas B. Jones hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
EchoKilo Geschrieben 28. Juli 2024 Share #134 Geschrieben 28. Juli 2024 Ein "entrauschtes RAW" (= bearbeitetes RAW) ist in meinen Augen ein Oxymoron wie "alter Knabe". Ein RAW sollte die Originaldaten des Sensors enthalten und nicht Zwischen- oder Endergebnis einer Verarbeitung sein. Nichts halt die Kamera davon ab, bei der darauffolgenden Erzeugung des JPEG auf alle möglichen Arten zu entrauschen (auch KI, wer hat und kann). Abgesehen davon wäre das bereits entrauschte RAW abgeschnitten von allen kommenden Verbesserungen der Entrauschungsroutinen. RedRobin, MrFu und Jürgen Heger haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lowrider82 Geschrieben 29. Juli 2024 Share #135 Geschrieben 29. Juli 2024 vor 21 Stunden schrieb Tommy43: Grafikkarten in WIN-PCs oder zumindest M-Prozessoren von Apple ebenbürtig wäre Graka und M-Prozessoren sind Allrounder. Also sie können nichts richtig.😉 Hier muß man eher Vergleiche ziehen, mit speziell für KI-Berechnungen ausgelegte Designs, also NPUs. Diese können wesentlich effizienter sein. Aber welvhe Rechenleistung wird da benötigt. Und wie sieht das in Leistungsaufnahme ausgelegt aus? Und jedes Watt mehr, möchte klarerweise gekühlt werden. Und deswegen: möchte ich sowas ständig mit haben? Nein. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 29. Juli 2024 Share #136 Geschrieben 29. Juli 2024 vor 2 Stunden schrieb lowrider82: Graka und M-Prozessoren sind Allrounder. Also sie können nichts richtig.😉 Hier muß man eher Vergleiche ziehen, mit speziell für KI-Berechnungen ausgelegte Designs, also NPUs. Grafikchips werden ja für KI-Aufgaben genutzt, weil es von den Anforderungen her große Überschneidungen gibt. GPUs sind eben keine Allrounder, sondern auf die schnelle Ausführung sehr einfacher Rechenaufgaben spezialisiert, das aber massiv parallel. Die einzelnen Kerne einer GPU sind viel simpler aufgebaut als die einer CPU und sie bekommen ihre Daten auf ganz andere Weise als ein CPU-Kern. Zufällig ist es genau das, was man auch für die Simulation neuronaler Netze braucht. So oder so können die Kameraprozessoren nicht mit denen von PCs mithalten, und werden das auch nie können – sie werden schneller werden, aber die PCs werden ihren Vorsprung behalten. Bislang tun sich die Kameras sowohl bei anspruchsvollen Grafikberechnungen (wie für „Klarheit“) wie bei einer KI-basierten Bildverarbeitung schwer. Dort, wo bereits mit KI gearbeitet wird, wie bei der Motiverkennung und -verfolgung, wird teilweise mit hochaufgelösten kleinen Bildausschnitten und teilweise mit herunterskalierten vollständigen Bildern gearbeitet, und damit kommen die Prozessoren so gerade noch zurecht. Für ein KI-basiertes Demosaicing mit Entrauschen müssten aber vollständige Bilder in voller Auflösung verarbeitet werden, und das schafft weder die aktuelle Hardware noch voraussichtlich deren nächste Generation. Ein anderer Punkt war bereits angesprochen worden, aber ich wiederhole es sicherheitshalber noch mal: Der technische Fortschritt im Bereich der KI-basierten Verfahren war schon bisher rasant und wird das noch eine Weile bleiben. Was immer man heute oder morgen in eine Kamera einbauen könnte, wird übermorgen schon wieder veraltet sein. Dann sollte man noch die originalen Rohdaten haben, um das bis Beste aus ihnen herauszuholen und die vereinzelten Artefakte zu vermeiden, die es heute noch gibt. Die in der Kamera entrauschten Halbroh-Dateien wären dann nur noch Ballast. Dare mo, Funami, Jürgen Heger und 4 weitere haben darauf reagiert 7 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Felix1220 Geschrieben 29. Juli 2024 Share #137 Geschrieben 29. Juli 2024 vor 18 Minuten schrieb mjh: Dort, wo bereits mit KI gearbeitet wird, wie bei der Motiverkennung und -verfolgung, Vielleicht ist meine Frage hier unpassend, aber da dauernd von KI die Rede ist... Ich dachte immer das die Fähigkeit zu lernen eine Hauptanforderung an eine KI ist. Macht das die Kamera dann? Ich meine speichert die irgendwelche "Eindrücke" oder was immer? Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Taloan Geschrieben 29. Juli 2024 Share #138 Geschrieben 29. Juli 2024 vor 22 Minuten schrieb Felix1220: Vielleicht ist meine Frage hier unpassend, aber da dauernd von KI die Rede ist... Ich dachte immer das die Fähigkeit zu lernen eine Hauptanforderung an eine KI ist. Macht das die Kamera dann? Ich meine speichert die irgendwelche "Eindrücke" oder was immer? Nein, denn Lernen entsteht nur durch: Verifikation & Falsifikation. d.h. die Kamera bräuchte jemanden, der sie trainiert. Und ich wüsste nicht, dass sich jemand nach einer Session hinsetzt und der Kamera bei jedem Bild sagt, wenn die Kamera ein vermeintlich erkanntes Motiv vorschlägt: hast brav gemacht oder Du Depp. Felix1220 und Dare mo haben darauf reagiert 1 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lowrider82 Geschrieben 29. Juli 2024 Share #139 Geschrieben 29. Juli 2024 vor 30 Minuten schrieb Felix1220: Macht das die Kamera dann? Nein. Was aktuell z.B. bei Fuji mit KI beworben wird, ist maximal mit KI trainierte Algorithmen, welche dann eigentlich stumpf ohne weitere Änderung bis zum nächsten Update ihre Arbeit machen. Oder: KI schrieb den Programmcode.😉 Felix1220 hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lowrider82 Geschrieben 29. Juli 2024 Share #140 Geschrieben 29. Juli 2024 vor 54 Minuten schrieb mjh: Simulation Es ist eben nur eine Simulation. Ja, GPUs sind da schon leistungsfähiger als CPUs. Sieht man ja bei dem enormen Leistungsvorsprung bei Nvidia mit ihrer aktuellen GPU-Sparte für KI-Anwendungen. Aber ich bin mir sicher, daß es aufgrund eben einer reinen Simulation noch wesentliche Effizienzsteigerungen geben wird. Aber egal wie diese aussehen: Wenn diese NPU oder wie auch immer diese heißt, auch nur 10 Watt benötigt, wollen diese ebenso gekühlt werden und sollen nichts nachteilig beeinflussen durch die Abwärme. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 29. Juli 2024 Share #141 Geschrieben 29. Juli 2024 (bearbeitet) vor einer Stunde schrieb Felix1220: Ich dachte immer das die Fähigkeit zu lernen eine Hauptanforderung an eine KI ist. Nein, keineswegs. Dass KI-Systeme lernfähig sind, ist eher die Ausnahme. Richtig ist, dass KI-Systeme auf der Basis neuronaler Netze in einem maschinellen Lernverfahren entstehen. Das heißt, maschinelles Lernen ist für KI-Systeme das, was die Programmierung für konventionelle Software ist. Und genauso wie die meiste konventionelle Software nicht programmieren kann, lernen die meisten KI-Systeme im Betrieb nichts mehr hinzu. bearbeitet 29. Juli 2024 von mjh Allradflokati, Felix1220 und outofsightdd haben darauf reagiert 1 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 29. Juli 2024 Share #142 Geschrieben 29. Juli 2024 vor 6 Minuten schrieb lowrider82: Aber ich bin mir sicher, daß es aufgrund eben einer reinen Simulation noch wesentliche Effizienzsteigerungen geben wird. „Simulation“ heißt in diesem Zusammenhang vor allem, dass die KI-Systeme auf stark vereinfachten Modellen biologischer neuronaler Netze basieren. Das, was eine Nervenzelle unseres Gehirns tut, ist weit komplexer als das Verhalten der simulierten Neuronen eines künstlichen neuronalen Netzes. Vermutlich könnte man ein ein künstliches neuronales Netz auch komplett in eine analoge Hardware gießen (die immer noch weit von realen Nervensystemen entfernt wäre), aber das wäre aufwendig und unflexibel; Updates wären ausgeschlossen. Und es würde die Ausführung auch nicht unbedingt beschleunigen; biologische Nervenzellen arbeiten tatsächlich nicht besonders schnell. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 29. Juli 2024 Share #143 Geschrieben 29. Juli 2024 vor 28 Minuten schrieb Taloan: Nein, denn Lernen entsteht nur durch: Verifikation & Falsifikation. d.h. die Kamera bräuchte jemanden, der sie trainiert. Und ich wüsste nicht, dass sich jemand nach einer Session hinsetzt und der Kamera bei jedem Bild sagt, wenn die Kamera ein vermeintlich erkanntes Motiv vorschlägt: hast brav gemacht oder Du Depp. Und selbst wenn: Die üblichen Lernverfahren setzen voraus, dass die KI-Systeme im Training mit Millionen von Bildern (oder was auch immer) konfrontiert werden und sich millionenmal daran probieren können. Das ist ungleich aufwendiger als nachher das austrainierte System in der Praxis anzuwenden. Schon die bloße Anwendung bringt Kameraprozessoren an ihre Grenzen, aber für das Training sind große Serverfarmen (und viel elektrische Energie) nötig. Über Stable Diffusion hieß es vor einem Jahr, dass deren Modell auf 32 Servern mit je acht Nvidia A100 GPUs (für rund 4,5 Millionen Euro) trainiert worden war, und damit würde man 2024 schon nichts mehr reißen können. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
lowrider82 Geschrieben 29. Juli 2024 Share #144 Geschrieben 29. Juli 2024 vor 9 Minuten schrieb mjh: analoge Hardware gießen Wer weiß. Vielleicht kommt man hier vom digitalen in den analogen Weg zurück, da effizienter. Die qBits kippen ja auch noch nicht in so rauen Mengen. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
mjh Geschrieben 29. Juli 2024 Share #145 Geschrieben 29. Juli 2024 vor 1 Minute schrieb lowrider82: Wer weiß. Vielleicht kommt man hier vom digitalen in den analogen Weg zurück, da effizienter. Die qBits kippen ja auch noch nicht in so rauen Mengen. Dazu müsste man erst einmal einen analogen Prozess mit den benötigten Eigenschaften finden, der wirklich schneller ist. Biologische Nervenzellen erfüllen diese Anforderung nicht, wie gesagt; sie sind tatsächlich vielfach langsamer als digitale Recheneinheiten. Sie tun dabei zwar auch viel mehr, aber erstens verstehen wir das noch nicht so genau und zweitens haben wir keine dafür geeigneten Lernverfahren. Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Pictus Geschrieben 5. September 2024 Share #146 Geschrieben 5. September 2024 Ich habe mal ChatGPT befragt, wie denn eine X-T7 aussehen könnte. Hier die zumindest optische Prognose. Die technischen Einzelheiten werden (typisch Erlkönig) noch nicht verraten. Deshalb auch die nicht zu erkennenden Beschriftungen der Einstellräder. Nach all den technischen Kommentaren hier mal wieder Foto. Man nehme es mit Humor. Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! stmst2011, didole, naturfotofan und 1 weiterer haben darauf reagiert 1 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dare mo Geschrieben 5. September 2024 Autor Share #147 Geschrieben 5. September 2024 (bearbeitet) vor 1 Stunde schrieb Pictus: Ich habe mal ChatGPT befragt, wie denn eine X-T7 aussehen könnte. Hier die zumindest optische Prognose. Die technischen Einzelheiten werden (typisch Erlkönig) noch nicht verraten. Deshalb auch die nicht zu erkennenden Beschriftungen der Einstellräder. Nach all den technischen Kommentaren hier mal wieder Foto. Man nehme es mit Humor. Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen… Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder! Also eine Kamera mit so krummen Ösen, schrecklichen Auslöser, verschrumpelten vorderen Einstellrad und Fokushebel möchte ich sicherlich nicht haben. Sieht aus, als wenn sie schon drei Waschgänge bei 90°C samt Schleudern hinter sich hätte. 😱 Hier sieht man doch die Grenzen einer KI. Eine schöne Kamera kann sie jedenfalls nicht bauen. Gott sei Dank gibt es bei Fuji noch Menschen, wenn es mal nicht mehr so sein sollte, kann die KI ihren Ausschuss gerne behalten. Da kann noch soviel SuperDuperHyperGeile Weiterentwicklung des AF und Motiverkennung mit Ameisenaugenerkennung drin sein. 😉 bearbeitet 5. September 2024 von Dare mo outofsightdd und Pictus haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Pictus Geschrieben 5. September 2024 Share #148 Geschrieben 5. September 2024 vor 2 Minuten schrieb Dare mo: Also eine Kamera mit so krummen Ösen, schrecklichen Auslöser, verschrumpelten vorderen Einstellrad und Fokushebel möchte ich sicherlich nicht haben. Sieht aus, als wenn sie schon drei Waschgänge bei 90°C samt Schleudern hinter sich hätte. 😱 Das ist das, was ChatGPT voraussieht. Vielleicht ein neuer Trend. Das Bild ist übrigens nicht von mir. ChatGPT kann auch alleine Bilder erzeugen. Mein Hinweis mit dem Humor war tatsächlich ernstgemeint. 😉 gscholz, dopaul und tomtom66 haben darauf reagiert 3 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Allradflokati Geschrieben 6. September 2024 Share #149 Geschrieben 6. September 2024 vor 15 Stunden schrieb Pictus: Deshalb auch die nicht zu erkennenden Beschriftungen der Einstellräder. Wieso - das ist doch klingonisch ... Dare mo und outofsightdd haben darauf reagiert 2 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
berndscheu1 Geschrieben 6. September 2024 Share #150 Geschrieben 6. September 2024 Selbst wenn es so wäre...wie lange müssten wir darauf warten, wenn ich an die 100 VI denke. Ich meine die sollten ertstmal die bereits vorgestellten Kameras liefern. naturfotofan hat darauf reagiert 1 Link zum Beitrag Auf anderen Seiten teilen More sharing options...
Dein Support für das Forum (Info) Hat dir das Forum geholfen? So kannst du das Forum unterstützen! Premium Mitglied werden | Spenden | Bei Amazon* oder eBay* kaufen Software: Topaz* | DxO Nik Collection* | Skylum Luminar* (–10€ mit Gutschein FXF) | * Affiliate Links
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde dich hier an.
Jetzt anmelden