Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 1 Minute schrieb uli_II:

Wenn Vögel und Autos erkannt werden, warum dann noch wählen?

Sicherlich könnte man zusätzlich auch noch einen Automatik-Modus anbieten, in dem die Kamera dann selbst entscheidet, ob sie auf ein Gesicht, ein Fahrrad, ein Motorrad, ein Auto, die Straßenbahn, eine Taube oder einen Hund fokussiert – was durchaus alles gleichzeitig im Bild sein kann, wenn man die Kamera auf eine typische Straße richtet. Es gibt sicherlich Motive, die inhaltlich spartanischer sind, da könnte so ein Automatik-Modus durchaus praktikabel sein.

Link zum Beitrag
Auf anderen Seiten teilen

Bei KI muss man eigentlich zwischen Systemen, die die Arbeit nur erleichtern und welchen die sie komplett übernehmen, unterscheiden. Ich denke, dass die zweite Kategorie vorerst eine große Gefahr für die Mittelmäßigkeit darstellt. Das gilt sicher für alle Bereiche der Arbeit. Wenn ein KI-gesteuerter Bewerbungsfoto-Automat gleich gute Ergebnisse liefert wie der Mitarbeiter einer Fotokette, dann wird es eng für ihn. Das trifft aber auch auf den Kundenberater einer Versicherung zu. 

Wer extrem aufwendige Bildbearbeitung oder Grafiklayout erstellt, der wird noch lange nicht von KI ersetzt. Man darf das Thema aber nicht unterschätzen. Durch maschine-learning wird sie immer besser werden und vielleicht sogar so etwas wie Kreativität beherrschen. 

Eigentlich ist der Wettbewerb Mensch gegen Maschine ja nichts neues. Heute würde niemand mit einer Feile gegen eine 5-Achs-CNC-Fräse antreten und trotzdem gibt es Menschen, die viel Geld für, nicht so perfekte, aber handgemachte Artikel ausgeben. Die KI ersetzt nun eben nicht Handarbeit, sondern geistige Arbeit. 

Fazit: Am Ende haben wir alle ganz viel Zeit zum Fotografieren.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb uli_II:

Die meisten jungen Leute unserer Zeit sehen die Tiere, Insekten und viele Motive schon mal einfach nicht :).

Sehen es die meisten Alten ?

Also...Ich kenne viele Junge, die viel sehen. Ist vielleicht auch stark davon abhängig ob man in der Stadt oder auf dem Land wohnt.

übrigens: ich gehöre nicht mehr zu den "Jungen", insofern ist mein Kommentar frei von eigenem Bedarf.

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb uli_II:

Wenn die KI der H2 jetzt ab und zu mal einen Vogel "findet" ist das für mich total unzuverlässig und na ja eventuell ein netter Anfang einer Entwicklung.

Sieht wohl eher so aus, dass die KI auch Vögel erkennt, die ich mit bloßem Auge übersehe …. Und nein, ich komme vom Land, kenne Tiere und kann auch noch gut gucken 👀

bearbeitet von Tommy43
Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb mjh:

Wenn wir maschinelles Lernen mit einbeziehen wollen, ist diese Definition zu eng gefasst. Einsicht und Verständnis gibt es da nicht – ebensowenig wie bei der Evolution.

Oder wir haben über der Begeisterung bezüglich der Möglichkeiten unserer Maschinen angefangen, den Begriff "Lernen" zu sehr auszuweiten (zu verwässern?) ...

Link zum Beitrag
Auf anderen Seiten teilen

  • 3 weeks later...

Werbung (verschwindet nach Registrierung)

 

KI in der Kamera: 🤔

Also Birdeye- oder Animaleye-Tracking allgemein finde ich, ist eine feine und wünschenswerte Sache. Da wird am Bild selbst ja nichts verändert und die Funktion ist ungemein hilfreich. Sorgt im Endeffekt für mehr schärfere Bilder und man kann sich mehr auf's Composing konzentrieren.

Schade, so ein Tracking vermisse ich an meiner S10. Ob das wohl noch irgendwann als FW-Update nachgereicht wird, 🤩 bzw. ob überhaupt die Power des Prozessor reicht? Bei Personen klappt es ja schon...

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb Black Bird:

Schade, so ein Tracking vermisse ich an meiner S10. Ob das wohl noch irgendwann als FW-Update nachgereicht wird, 🤩 bzw. ob überhaupt die Power des Prozessor reicht? Bei Personen klappt es ja schon...

Dafür ist ein Koprozessor nötig, den die X-S10 nicht hat … Übrigens unterstützt der nicht nur den Autofokus, indem er Motive durch das Bildfeld verfolgt, sondern hilft auch beim Weißabgleich. Vielleicht auch auf anderen Gebieten, aber das sind die Anwendungen, die Fuji genannt hat.

Link zum Beitrag
Auf anderen Seiten teilen

  • 1 month later...

In den vergangenen Wochen durfte ich gefühlt 50-80x lesen, dass der Job des Fachjournalisten und Übersetzers fortan überflüssig wird, weil ChatGPT das künftig alles übernimmt – und zwar schneller, besser, billiger. Das fand ich super, denn dann könnte ja ChatGPT das englische X-T5-Buch für mich schreiben. Also habe ich mich vorhin eingeloggt, um ChatGPT ein paar simple Fragen zum Thema zu stellen – quasi als Einstellungstest. Es sind Fragen, die ich auch jedem Bewerber stellen würde, der für mich als X-T5-Buch-Ghostwriter einspringen möchte.

Los geht's!

Rico: Good morning! Please explain the concept of ISOless photography and exposure.

ChatGPT: ISOless photography refers to the ability of a digital camera to produce images that are free from noise (grain) at any ISO setting. This is achieved by using advanced image processing algorithms to remove noise from the image while preserving image quality. In traditional digital cameras, increasing the ISO setting would result in more noise in the image, but with ISOless cameras, this is not the case. Exposure is the amount of light that reaches the camera sensor. It is controlled by adjusting the aperture (f-stop), shutter speed, and ISO. Aperture controls the amount of light entering through the lens, shutter speed controls the amount of time the sensor is exposed to light, and ISO controls the sensitivity of the sensor to light. A proper exposure is achieved when the right combination of aperture, shutter speed, and ISO are used to produce a well-exposed image.

Sehr interessant. ChatGPT gibt das exakte Gegenteil der korrekten Antwort – und wird dabei nicht rot, sondern trägt das Ganze ernst und überzeugend vor. In ähnlicher Diktion würde das System wohl auch erläutern, dass die Erde flach ist und Wasser aufwärts fließt. Den Zusammenhang zwischen ISOloser Fotografie und Belichtung versteht das System offenbar ebenfalls nicht und gibt stattdessen zusammenhangslos eine Definition von Belichtung, wie man sie auch in Wikipedia finden würde.

Aber gut, jede(r) hat mal einen schlechten Tag, also geben wir dem System noch eine Chance. Vielleicht kann es ja mit ISO-Invarianz mehr anfangen?

Rico: What's ISO invariance and how is it different from ISOless sensors?

ChatGPT: ISO invariance refers to the ability of a camera to produce images with similar levels of noise and image quality at different ISO settings. In other words, when a camera is ISO invariant, increasing the ISO setting does not result in a significant increase in noise or decrease in image quality.

ISOless sensors, on the other hand, refer to sensors that are capable of producing images with little to no noise at any ISO setting. This is achieved through advanced image processing algorithms that remove noise from the image while preserving image quality.

In summary, ISO invariance is the ability to produce similar image quality at different ISO settings while ISOless sensors are the ability to produce images with little to no noise at any ISO setting.

Oh Freude, der erste Satz der Antwort ist richtig! Aber zu früh gefreut, denn bereits im zweiten Satz verbreitet das System erneut Unsinn – und zeigt dabei, dass es den korrekten ersten Satz selbst gar nicht verstanden hat. Denn das ist offenbar das Problem dieses Systems: ChatGPT versteht nichts, es reproduziert vielmehr Versatzstücke, die irgendwann irgendwo eingespeichert wurden und setzt sie in einer Art und Weise zusammen, die sachlich und fachlich überzeugend klingt, wenn man als Leser selbst nicht viel von der Sache versteht. Der Unfug setzt sich dann im dritten Satz fort, im unsinnigen vierten Satz – und in der Folge ist auch die Zusammenfassung insgesamt gesehen Quatsch, denn das System versteht nicht den Zusammenhang zwischen ISO-Invarianz und ISOlosen Sensoren. Stattdessen leitete es aus meiner Frage (how is it different) einen Unterschied ab und versuchte, einen solchen Unterschied zu konstruieren. Dabei kommt es ins schwurbeln, da es kein Verständnis dafür hat, dass ISOlose Sensoren schlicht und einfach eine notwendige Voraussetzung für ISO-Invarianz sind.

ChatGPT ist offenbar brandgefährlich, da es Unwahrheiten und Falschinformationen in sachlicher und scheinbar logisch schlüssiger Form verbreitet – und dabei durchaus überzeugend klingt. Gefüttert wurde es vermutlich mit den Unmengen an Quatsch und Falschinformationen, die im Netz verbreitet werden – und die dort oft häufiger auftreten, als die korrekten Informationen. Gerade bei Themen, zu denen es noch nicht viel "gesicherte Literatur" gibt, ist das ein Problem. Nur sollte man das System dann nicht damit beauftragen, dazu selbst etwas "gesichertes" zu schreiben.

Link zum Beitrag
Auf anderen Seiten teilen

Gerade eben schrieb Allradflokati:

Und mit so etwas machen gerade die Schüler ihre Hausaufgaben - bzw. lassen sie machen ;) !
Nicht auszudenken, was da bei einem Geschichtsreferat heraus kommt 😵 ...

Das Problem ist wirklich, dass man dem System offenbar nichts glauben darf – selbst in Details und Nebensätzen stecken Falschinformationen. Diese Falschinformationen erkennt man aber natürlich nur, wenn man selbst ohnehin schon alles über das Thema weiß. Sobald ich etwas nicht genau weiß oder Lücken habe, darf ich ChatGPT aber nicht trauen, mein Wissen aufzufrischen oder diese Lücken zu füllen – obwohl es dabei logisch und überzeugend klingt.

 

Link zum Beitrag
Auf anderen Seiten teilen

ChatGPT ist mit Menschendaten trainiert. Es wird daher nie in der Lage sein, besser als Median Mensch zu sein. Angesichts des gigantischen Trainingsdatenbedarfs ist hier auch keine große kuratierung möglich. 

Hoffnung besteht, dass kleineren Trainingsdaten-Subsets höhere Glaubwürdigkeit angeheftet werden. Das passiert auch schon zum Teil, und hilft schon enorm. 

Es bleibt aber eine enorme Herausforderung, solche echtweltige Metainformationen (Bewertungen) zu generieren. Dies ist aber bitter nötig um Dinge zu lehren wie Glaubwürdigkeit, Zeitzusammenhänge, Kulturrelevanz, oder konkurrierende Interpretationen. 

Mehr dazu in diesem schön lesbaren Paper: Why AI is Harder Than We Think

Link zum Beitrag
Auf anderen Seiten teilen

Diese KI hat offenbar keine Einsicht und versteht nicht, von was sie spricht. Sie durchdringt die Themen nicht mit eigenem Verständnis. Sie kann also nicht selbständig Fehler in der eigenen Argumentationskette erkennen und aus ihnen lernen. Menschen können das, die typischen "Halt, das kann so nicht stimmen"-Momente, oder die Aha-Momente.

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Minuten schrieb Rico Pfirstinger:

Sie kann also nicht selbständig Fehler in der eigenen Argumentationskette erkennen und aus ihnen lernen. Menschen können das, die typischen "Halt, das kann so nicht stimmen"-Momente, oder die Aha-Momente.

Dann wäre es ja auch keine Künstliche Intelligenz, sondern eine künstliche "Lebensform" - so wie in Startrek-Discovery die Sphärendaten im Bordcomputer, welche auf einmal Gefühle entwickelt und sich damit fast gegen ihre "Erschaffer" wendet.
Wenn eine KI so weit ist, dass sie eigene Fehler erkennt, ist es nicht mehr weit, bis sie bemerkt, dass wir als Menschen das Problem sind!
Schöne neue Welt ;) !

Link zum Beitrag
Auf anderen Seiten teilen

Möglichst fehlerfreie Ergebnisse sind nur möglich, wenn der Erzeuger (oder eine andere Instanz in der Kette) die Fehler bemerken und korrigieren kann. Von mir aus kann eine andere KI die Texte von ChatGPT ja gerne Korrektur lesen, aber irgendeine Instanz muss es dafür geben, sonst ist das System für die Katz. Und natürlich muss das Feedback einer erfolgten Korrektur dafür sorgen, dass die Fehler künftig nicht mehr gemacht werden.

Wie sagte mein erster Chef damals so schön: "Rico, du kannst bei uns gerne Fehler machen – auch solche, die uns Geld kosten. Aber jeden Fehler nur einmal."

Link zum Beitrag
Auf anderen Seiten teilen

Markus Hofstätter hat auf seinem Blog auch ein paar schöne Beispiele veröffentlicht. In die Sony alpha 7 kann man sogar einen analogen Film einlegen:

https://blog.markus-hofstaetter.at/2023/01/an-analog-portrait-photographers-view-of-the-upcoming-year-2023-why-ai-is-not-the-end-and-how-to-load-analog-film-into-a-sony-a7/?wt_mc=nl.red.foto.foto-nl.2023-01-14.link.link
 

Link zum Beitrag
Auf anderen Seiten teilen

Den letzten Satz kenne ich aus den Anfängen meiner Tätigkeit im.kundendienst . Hatte in einer schriftlichen tech. Anfrage-Antwort einen  wichtigen Ausschlusshinweise nicht reingeschrieben.

Und 600t stahl Fertigmaterial wurden reklamiert.

Es gab einen fur beide Seiten fairen Kompromiss, den ich auch aushandeln musste.(" Chef, das bleibt dann ewig im Kopf")

Danach wurde es mein Lieblingskunde über 25 Jahre, fair , sachlich , innovativ und sehr persönlich....

😀

 

 

bearbeitet von axel g
Link zum Beitrag
Auf anderen Seiten teilen

vor 40 Minuten schrieb Rico Pfirstinger:

Diese KI hat offenbar keine Einsicht und versteht nicht, von was sie spricht. Sie durchdringt die Themen nicht mit eigenem Verständnis. Sie kann also nicht selbständig Fehler in der eigenen Argumentationskette erkennen und aus ihnen lernen. Menschen können das, die typischen "Halt, das kann so nicht stimmen"-Momente, oder die Aha-Momente.

Nun ja. Ich testete kürzlich mit einem Freund ChatGPT. ..

Der Bot sollte mir einen kanadischen Erbonkel mit gut gefülltem Konto erfinden.

Das tat er, mit Namen, Lebenslauf, Wohnort und Beruf einschl. sozialer Kontakte.

Nächste Frage war: wie komme ich in den Genuß einer monatlichen Apanage?

In der Antwort wurden wir drauf hingewiesen, dass eine Apanage nur privilegierten Personen ohne eig. Einkommen, also z.B. Mitgl von Fürsten-oder Königshäusern gewährt wird. Normalsterbl. hätten sich selbst zu kümmern etc.

Präzisere Frage: wie komme ich in den Genuss einer monatlichen Zuwendung durch Jack Thompson (so heißt der erfundene Onkel).

Antwort verkürzt: Gar nicht, da J.Th. eine fiktive, vom Bot erfundene Person darstelle, die nicht in der Lage sei usw.usf.

Und wieder der Hinweis: Kümmere dich selbst!

 

Immerhin hat der Bot zw. erster und dritter Frage einen Kontext hergestellt, obwohl eine andere Frage ohne direkten Bezug dazwischenlag. Ich finde das schon allerhand!

Und irgendwie auch ein wenig gruselig. Die Ausformulierungen waren gramm. exakt und hätten auch von einer Person stammen können. Zwischen Frage und Antwort vergingen nur wenige Sekunden.

Link zum Beitrag
Auf anderen Seiten teilen

Wenn in Presseartikeln zu diesem Thema nicht behauptet wird, ChatGPT könne fast alle Fragen der Welt (richtig) beantworten, mache Google und Wikipedia überflüssig und würde Schülern künftig gute Noten garantieren, indem es ihnen die Aufsätze diktiert, heißt es höchstens einschränkend, dass man die Ergebnisse noch einmal überprüfen solle. Aber wenn die KI Unsinn schreibt, was sie doch ziemlich oft tut, muss man den Text durchweg komplett selbst schreiben – und vorher natürlich selbst recherchieren, falls man sich nicht bereits mit der Thematik auskennt. Und wenn ChatGPT gar rechnen soll, muss man das Ergebnis in jedem Fall nachrechnen, so dass man sich keine Arbeit spart. Ich habe selten zu einem Thema so viel Unsinn gelesen, wie jetzt zu ChatGPT. Aber vielleicht hat ja bereits ChatGPT diese Artikel geschrieben …

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Minuten schrieb mjh:

Wenn in Presseartikeln zu diesem Thema nicht behauptet wird, ChatGPT könne fast alle Fragen der Welt (richtig) beantworten, mache Google und Wikipedia überflüssig und würde Schülern künftig gute Noten garantieren, indem es ihnen die Aufsätze diktiert, heißt es höchstens einschränkend, dass man die Ergebnisse noch einmal überprüfen solle. Aber wenn die KI Unsinn schreibt, was sie doch ziemlich oft tut, muss man den Text durchweg komplett selbst schreiben – und vorher natürlich selbst recherchieren, falls man sich nicht bereits mit der Thematik auskennt. Und wenn ChatGPT gar rechnen soll, muss man das Ergebnis in jedem Fall nachrechnen, so dass man sich keine Arbeit spart. Ich habe selten zu einem Thema so viel Unsinn gelesen, wie jetzt zu ChatGPT. Aber vielleicht hat ja bereits ChatGPT diese Artikel geschrieben …

In meiner Firma wurden im letzten Jahr Botschaften an die Belegschaft automatisch übersetz, damit Alle Mitarbeiter global erreicht werden, mit wenig Aufwand. Heraus kamen Texte, die in Deutschland teils bedenkliches Vokabular verwendet haben. Z.B. sehr spezielle Bezeichnungen für Vorgesetzte, politisch unkorrekt -  hat wohl Niemand Korrektur gelesen. Das wurde ganz schnell wieder eingestellt.

bearbeitet von Maikäfer
Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...