Jump to content

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 31 Minuten schrieb uwe1956:

Ich gehe eher davon aus, dass das die Bearbeitungssoftware selbst automatisch erledigen wird. Anders liesse sich das ja überhaupt nicht bewerkstelligen.

Ja und dann exportierst du das RAW aus Lr zum AI Demosaicing an PureRAW (AI), bearbeitest das Ergebnis in Lr und ggf. PS mit AI Tools weiter (der Lichtschalter muss weg 😉) dann noch zu Topaz Photo AI für ein paar Optimierungen und weil es auch in SW sehr schön wäre geht es dann noch mal NIK Silver Efex bevor am Ende der Export aus Lr ansteht. 
Und das wird alles von Adobe feinsäuberlich und nachvollziehbar dokumentiert? Ich hätte da Zweifel. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 9 Minuten schrieb Windfall:

Wenn künftig die Bildbearbeitungsssoftware mittels "KI" vorgenommenen Veränderungen in irgendeiner Form in den Metadaten dokumentiert, wäre der Kennzeichnung ja bereits Rechnung getragen, so dass jeder Nutzer solcher Fotos (Kunde, Agentur, Redaktion, etc.) ja in der Lage ist zu erkennen, ob das Foto nun durch "KI" bearbeitet bzw. "manipuliert" wurde oder nicht. 

Der wesentliche Punkt ist, dass Social Media oder auch Forensoftware wie diese einen hochgeladenen Content als KI erkennen und kennzeichnen können. Sonst sind wir schon in 1-2 Jahren so weit, dass wir fast nur noch Bilder und Videos bekommen, die real und authentisch wirken sollen, jedoch frei erfunden oder massiv manipuliert sind und irgendeiner kommerziellen, kriminellen oder politischen Agenda dienen. Letzteres kann Staatsformen zerstören und sogar Kriege (oder Bürgerkrieg) auslösen.

 

bearbeitet von Rico Pfirstinger
Link zum Beitrag
Auf anderen Seiten teilen

Möglicherweise bin ich ja blöd, aber normalerweise muss, rechtlich gesehen, immer von einem Anklagenden dem Beschuldigten die jeweilige "Schuld" nachgewiesen werden. Ein Abmahnwelle bei Forumsbildern sehe ich eigentlich überhaupt nicht. Aktuell ist es wohl so, dass XMP, IPTC und Exif Daten im Forum nach dem Upload mitveröffentlicht werden. Für mich empfiehlt es sich daher künftig wohl die IPTC Daten und die Exif Daten sicherheitshalber nicht mit dem Bild hochzuladen und Blende, Iso, Zeit  und Brennweite gesondert im Text zu dem Bild anzugeben. Bei großen Manipulationen aber mittels KI (erweiterter Deepfake-Begriff, wie das wohl im Gesetz formuliert ist), würde ich persönlich das sicherheitshalber dann einfach mitangeben. Das Gesetz sieht jedoch wohl nur vor, dass die Angaben lediglich "offensichtlich erkennbar" angegeben werden müssen - im Bild müssen sie nicht erkennbar sein. Also eigentlich kein Stress. Bei Ronnys Bild ist das übrigens wunderbar auslebar: Im IPTC steht, editiert mit "Google KI" und ist dann noch im Text angegeben - damit ist m.E. alles bestens absolut erledigt. Mich erinnert das Ganze an den etwas lächerlichen Zusatz bei Fernsehproduktionen im Abspann: "klimaschonend produziert".  Da könnte man vielleicht der Einfachheit und Sicherheit halber, bei eigentlich jedem Upload eines Bildes im Forum den Zusatz anhängen: "mit Unterstützung von KI bearbeitet". 

Sachen gibt es...

Link zum Beitrag
Auf anderen Seiten teilen

vor 15 Minuten schrieb Rico Pfirstinger:

Es halt darum, dass zum Beispiel so etwas nicht ohne Kennzeichnung durchgeht. 

Hallo, lieber Besucher! Als Forumsmitglied (kostet nix) würdest du hier ein Bild sehen…

Einfach hier registrieren – Wir freuen uns immer über neue Mitglieder!

Was hier in einer KI-Prompt-Gruppe als harmloses Beispiel diskutiert wird, ist auf YouTube und in Social Media längst Alltag: Es wird gelogen und beschissen, dass sich die Balken biegen. Das war früher auch schon so, aber nun kann es jeder machen. Jederzeit. Bequem am Rechner, mit ein paar Zeilen Prompt. Früher mussten sich die Influencer noch in Privatjet-Attrappen setzen oder einen Ferrari mieten und diesen als ihren eigenen ausgeben, um "toll" zu wirken. In Zukunft springen sie wie Tom Cruise ohne Fallschirm aus dem Flieger, galoppieren ohne Zaum und Sattel den Karibikstrand entlang oder erschaffen gleich eine hübschere und sportlichere und begehrenswertere Variante von sich selber und gehen dann mit diesem Avatar in der virtuellen Welt hausieren. 

Und wie man weiß, nehmen die meisten User diesen Leuten das auch einfach ab. Oder sie glauben irgendwann gar nichts mehr, weil buchstäblich ALLES irgendwie manipuliert, gefälscht, verändert, erfunden, geschönt etc. sein kann – und oft auch ist.

Die Diskussion, wie sie hier gerade geführt wird, ist ein bisschen lachhaft. So als würde ein riesige Asteroid gerade auf die Erde zustürzen, aber im Sterneforum reden sie seitenweise darüber, ob das dazu führen könnte, dass der Brocken dabei ein paar Sterne verdeckt, die man gerne fotografiert hätte.

Das das Thema gesellschaftlich und politisch wichtig und regelungsbedürftig ist steht außer Frage.
Aber das Kind sollte halt nicht mit dem Bade ausgeschüttet werden.

Die Sorgen der „Sternbeobachter“ ist doch auch nicht abwegig, zumindest nicht abwegiger als jeglicher Aufenthalt hier im Forum, während woanders Kriege toben, Naturkatastrophen über Menschen hereinbrechen usw.. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 21 Minuten schrieb AS-X:

Ja und dann exportierst du das RAW aus Lr zum AI Demosaicing an PureRAW (AI), bearbeitest das Ergebnis in Lr und ggf. PS mit AI Tools weiter (der Lichtschalter muss weg 😉) dann noch zu Topaz Photo AI für ein paar Optimierungen und weil es auch in SW sehr schön wäre geht es dann noch mal NIK Silver Efex bevor am Ende der Export aus Lr ansteht. 
Und das wird alles von Adobe feinsäuberlich und nachvollziehbar dokumentiert? Ich hätte da Zweifel. 

Naja, irgendwie muss die Kennzeichnung ja auch standardisiert und realisiert werden. Ich schreibe ja sicher händisch nicht in irgendwelche frei beschreibbare Metadaten "Lichtschalter oben links durch KI entfernt" rein. Und das ganze noch in 27 Sprachen, damit es jeder lesen kann. Das wäre manuell ja nicht mehr zu bewerkstelligen. Aber das ist ja jetzt alles Spekulation, solange nicht wirklich klar ist, was wie gekennzeichnet werden muss. Ich gehe daher einfach mal davon aus, dass es Software Lösungen dafür geben wird, bei denen die Hersteller sich übergreifend der Standards bedienen.

bearbeitet von uwe1956
Link zum Beitrag
Auf anderen Seiten teilen

vor 26 Minuten schrieb Windfall:

Aus meiner Sicht wäre es völlig ausreichend, wenn ein Foto, welches als "authentisch" deklariert wird, eine fälschungssichere und nicht entfernbare Signatur der Kamera aufweisen würde mit Aufnahmezeitpunkt und Ort und *jede* Bildbearbeitungssoftware bei Abwesenheit "KI"-basierter Veränderungen einen vergleichbaren Eintrag vornehmen würde.

was bitte ist denn heute fälschungssicher? Was sagt dir, dass es nicht nächste Woche etwas gibt, was genau das zu umgehen imstande ist, vielleicht sogar mit Hilfe der KI? Es gibt außerdem wirklich heute schon zahlreiche Möglichkeiten nach Motiven im Internet zu suchen oder nach einem bestimmten Bild, dass man jetzt nicht nur allein aufgenommen hat. da gibt es schon reichlich Futter für die Anwälte und auch wenn man sich im Recht wähnt, kann das sehr nervig sein, Geld und Zeit kosten.

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 18 Minuten schrieb AS-X:

Die Sorgen der „Sternbeobachter“ ist doch auch nicht abwegig, zumindest nicht abwegiger als jeglicher Aufenthalt hier im Forum, während woanders Kriege toben, Naturkatastrophen über Menschen hereinbrechen usw.. 

Das dazu passende Sprichwort ist das mit dem Wald, den einige vor lauter Bäumen nicht mehr sehen. 🥳

Link zum Beitrag
Auf anderen Seiten teilen

Ich denke auch, dass sich ein technischer Weg etablieren wird, der das protokolliert (oder zumindest als "mittels KI bearbeitet" kennzeichnet). Erst wird es nur in einem Ökosystem (z.B. nur Adobe), dann übergreifend möglich sein.

Die Internet-Meldestellen werden dann ihren Aufgaben-Spektrum einfach erweitern: "Eine Künstliche KI-Welt ist ja praktisch auch Desinformation". Dann wird man sich an die Plattformbetreiber halten, die dann die Forderungen an den User weitergeben werden. Den man natürlich kennen muß... Am Ende wird man praktisch kein Bild ohne Exif (und dem KI-Flag ja/nein - platt gesprochen) mehr hochladen können. Verboten ist es zwar nicht, aber der Plattformbetreiber wird sich die Unsicherheit und den Aufwand der Meldungsbehandlung nicht antun.

Interessant wird es, wenn man KI Bilder mit künstlichen EXIFs versieht. Oder sie als Scans von Analog-Bildern "tarnt". 

Nachvollziehbar und sinnvoll ist das Ganze für mich eigentlich nur für Nachrichten-Bilder und zum Urheberschafts-Nachweis etc.. Aber wenn die Werkzeuge erstmal da sind, dann wird man sie auch nutzen wollen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Minuten schrieb EchoKilo:

Ich denke auch, dass sich ein technischer Weg etablieren wird, der das protokolliert (oder zumindest als "mittels KI bearbeitet" kennzeichnet). Erst wird es nur in einem Ökosystem (z.B. nur Adobe), dann übergreifend möglich sein.

Dass dem "Adobe-Ökosystem" da eine kostenpflichtige Lösung einfallen wird, wird niemand bezweifeln.

vor 58 Minuten schrieb Mike_Puc:

Möglicherweise bin ich ja blöd, aber normalerweise muss, rechtlich gesehen, immer von einem Anklagenden dem Beschuldigten die jeweilige "Schuld" nachgewiesen werden. Ein Abmahnwelle bei Forumsbildern sehe ich eigentlich überhaupt nicht.

"Abmahnung" bedeutet grob gesagt einmal: Entweder man bezahlt die Abmahngebühr oder man lässt es
auf einen Rechtsstreit ankommen. Erst bei diesem wird die Schuldfrage geklärt. So wird das bei Formverstößen
(etwa Fehler im Impressum eines Internetauftritts) oder Urheberrechtsverletzungen gehandhabt.

* * *

Was ich eigentlich vermeiden wollte: Jetzt habe ich mich doch wieder festgelesen. In dem DOCMA-Artikel,
auf den @Don Pino eingangs hingewiesen hat, heißt es:

„Die zentrale Frage lautet dabei: Was genau muss gekennzeichnet werden? Die Antwort des Gesetzgebers ist eindeutig:
Inhalte, die künstlich erzeugt oder manipuliert wurden, müssen als solche erkennbar gemacht werden.
Sobald also KI-generierte Pixel ins Bild kommen, die nicht durch ein Objektiv erfasst wurden, greift die Pflicht.“

Unter „Eindeutigkeit“, mit Verlaub, verstehe ich etwas anderes. „Künstlich erzeugt“ und „manipuliert“ kann man
mit einigem gutem Willen noch als „eindeutige“ Aussagen auffassen. Aber dann geht’s mit begrifflicher Schlamperei weiter:
Was ist unter „KI-generierten Pixeln“ überhaupt zu verstehen? Wodurch unterscheiden sich KI-generierte
von Nicht-KI-generierten Pixeln? Mischt bei der Umwandlung von RGB in Graustufen KI mit oder nicht?
Tut sie das seit jeher oder erst in Software-Versionen neueren Datums? Eine verbindliche Aussage dazu findet sich
in der von mir genutzten Software nicht. Wer wollte da zu einer „Kennzeichnung“ in der Lage sein, solange niemand eindeutig definiert,
wann bei einem Bearbeitungsvorgang KI im Spiel ist und wann nicht? Und selbst wenn neuere Photoshop-Versionen
in der Lage sein sollten, den Bearbeitungsverlauf fälschungssicher zu protokollieren: Was geschieht dann
mit bereits früher bearbeitetem Bildmaterial, gar mit retuschierten analogen Schwarzweißaufnahmen? (Ich weiß,
Letztere fallen durchs Raster, weil sie überhaupt keine Pixel enthalten. Also darf man mit ihnen die Realität verzerren, so viel man will?)

Und überhaupt: Wird meine Weigerung, teure, weil auf professionellen Einsatz ausgerichtete Software zu abonnieren,
meiner geliebten, wenngleich laienhaft betriebenen Fotografie den Garaus machen?

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb Windfall:

Aus meiner Sicht wäre es völlig ausreichend, wenn ein Foto, welches als "authentisch" deklariert wird, eine fälschungssichere und nicht entfernbare Signatur der Kamera aufweisen würde mit Aufnahmezeitpunkt und Ort und *jede* Bildbearbeitungssoftware bei Abwesenheit "KI"-basierter Veränderungen einen vergleichbaren Eintrag vornehmen würde.

Meine Aufnahmestandorte gebe ich nur vage an, um meine "Plätze", welche ich mir erarbeitet habe so gut es halt geht zu schützen. Es ist leider so, dass es an vielen bekannt gewordenen "Fotospots" zugeht, wie auf dem Rummelplatz und man schon froh ist, wenn einem keine Drohne gegen den Kopf fliegt - trotz Flugverbot in Naturschutzgebieten etc. Wenn dann die "Instakids" abziehen bleibt deren Müll und das schale Gefühl das alles mitzuunterstützen zurück. Ein erzwungenes Preisgeben des Standortes mittels Implementierung der GPX Daten wäre für mich ein Grund keine Bilder mehr öffentlich zu zeigen. Aber vielleicht sehe ich ja den Wald vor lauter Bäumen nicht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb Alsbald:

Und überhaupt: Wird meine Weigerung, teure, weil auf professionellen Einsatz ausgerichtete Software zu abonnieren,
meiner geliebten, wenngleich laienhaft betriebenen Fotografie den Garaus machen?

Ich sehe das nicht so kompliziert. Software, die keine KI Elemente zum Austausch von Pixeln enthält, benötigt auch keine Kennzeichnungspflicht. Und die Software, die KI Elemente enthält, baut das entsprechend ein. Also wenn da der Austausch von KI generierten Pixeln erfolgt, macht die Software einen entsprechenden Vermerk in den Metadaten. Also back to the roots und das Problem ist keines mehr. 

bearbeitet von uwe1956
Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Minuten schrieb Alsbald:

Was ist unter „KI-generierten Pixeln“ überhaupt zu verstehen? Wodurch unterscheiden sich KI-generierte
von Nicht-KI-generierten Pixeln?

Das steht doch auch in dem Artikel. Pixel, die nicht durch ein Objektiv erzeugt wurden. Wenn du in LR also Elemente mit Hilfe von KI entfernst bzw. ersetzt werden diese ja "künstlich" erzeugt und eingesetzt. Also kennzeichnungspflichtig. Wenn Elemente entfernt werden mit Bildteilen aus anderen Bereichen des Fotos, dann ist das nicht kennzeichnungspflichtig. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb uwe1956:

Wenn du in LR also Elemente mit Hilfe von KI entfernst bzw. ersetzt werden diese ja "künstlich" erzeugt und eingesetzt.

Das, worauf meine Frage abzielt, sthet eben doch nicht in dem Artikel. Nämlich: Wie finde ich heraus,
ob das Entfernen oder Ersetzen mit Hilfe von KI geschieht oder nicht? ("KI" ist ja keineswegs die einzige Möglichkeit,
solche Manipulationen vorzunehmen.)

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb uwe1956:

Das steht doch auch in dem Artikel. Pixel, die nicht durch ein Objektiv erzeugt wurden. Wenn du in LR also Elemente mit Hilfe von KI entfernst bzw. ersetzt werden diese ja "künstlich" erzeugt und eingesetzt. Also kennzeichnungspflichtig. Wenn Elemente entfernt werden mit Bildteilen aus anderen Bereichen des Fotos, dann ist das nicht kennzeichnungspflichtig. 

Also back to the roots. Mit dem guten alten Stempelwerkzeug kann man sich also nach Herzenslust austoben. Auch andere Elemente aus einem anderen Foto, welches ich aufgenommen habe (sind ja auch mit einem Objektiv aufgenommen), kann ich verwenden. Was man damit so alles "zusammenfrickeln" kann, steht den meisten Ergebnissen, die die KI (heute) liefern kann, nicht weit nach - wenn überhaupt. Muss man nicht verstehen. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb uwe1956:

Ich sehe das nicht so kompliziert. Software, die keine KI Elemente zum Austausch von Pixeln enthält, benötigt auch keine Kennzeichnungspflicht. Und die Software, die KI Elemente enthält, baut das entsprechend ein. Also wenn da der Austausch von KI generierten Pixeln erfolgt, macht die Software einen entsprechenden Vermerk in den Metadaten. Also back to the roots und das Problem ist keines mehr. 

Darin unterscheiden wir uns, ich sehe das nämlich insofern schon kompliziert, als ich nicht weiß
und nach derzeitigem Stand auch nicht wissen kann, ob die von mir verwendete Software KI-Elemente verwendet
und ich somit auch nicht weiß, und wissen kannob ich mein Bild nun mit KI-Werkzeugen bearbeitet habe.
Sobald mir jemand definitiv darlegen kann, dass etwa Lightroom Classic bis Version 9 oder Photoshop bis Version 22
oder die Nik Collection bis Version 2 garantiert KI-frei sind, wechsle ich in dein Lager und sehe es auch nicht mehr so kompliziert.
(Hintergrund: Ich werkle mit alten Software-Versionen, die ich, nachdem ich sie nicht mehr beruflich eingesetzt habe,
auf den seinerzeitigen Stand belassen, also nicht upgedated habe.)

bearbeitet von Alsbald
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb Alsbald:

Lightroom Classic bis Version 9 oder Photoshop bis Version 22
oder die Nik Collection bis Version 2

naja, das müsste ja durchaus aus den Change Logs herauszubekommen sein. Ich weiss nicht mehr mit welcher LR Version genau die KI Entfernungstools eingebaut wurden, aber ich denke, es müsste die 14 gewesen sein. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 19 Minuten schrieb Al Garb:

Muss man nicht verstehen. 

Ich denke, es ist so geregelt, weil der grundsätzliche Ansatz wesentlich allgemeiner gedacht ist. Im Endeffekt geht es ja insgesamt um die Glaubwürdigkeit digitaler Inhalte. Es macht halt einen Unterschied, ob ich z.B. einen Text von der KI erstellen lasse, oder ob ich mir Wort für Wort aus anderen Texten per Copy und Paste zusammenstelle, die nicht von einer KI erstellt wurden. 

Link zum Beitrag
Auf anderen Seiten teilen

vor 27 Minuten schrieb Alsbald:

Wie finde ich heraus,
ob das Entfernen oder Ersetzen mit Hilfe von KI geschieht oder nicht?

Ich kann es jetzt nur für LR sagen. Da entscheidest du es ja selbst, ob du das Entfernen per KI oder per Stempel wählst.

Aber ansonsten gehe ich immer noch davon aus, dass das die Software dann von sich aus das Foto entsprechend kennzeichnet, wenn KI Elemente der Software angewendet werden.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Minute schrieb uwe1956:

naja, das müsste ja durchaus aus den Change Logs herauszubekommen sein. Ich weiss nicht mehr mit welcher LR Version genau die KI Entfernungstools eingebaut wurden, aber ich denke, es müsste die 14 gewesen sein. 

Ob ich jetzt etwas wegstempele oder die KI benutze führt ja in manchen Fällen zum gleichen Ergebnis. Das eine ist keine KI, das andere zählt als solche.  Viele Dinge , die in den alten Versionen bereits möglich waren wurden ja quasi nur vereinfacht. ich empfinde da die Grenzen als sehr fließend. man kann ja schließlich auch eine falsche Nachricht erzeugen, wenn man etwas weglässt oder fotografisch gesehen wegretuschiert. Man kann sogar ein Motiv so fotografieren und ganz ohne KI ein falsches Bild in den Köpfen erzeugen. Wie gesagt ich finde solche oberflächlichen Gesetze sinnfrei, als auch die Tatsache, dass man es erst einmal im vollen Umfang auf die Menschheit los lässt, obwohl man schon wissen kann, wozu das alles fähig sein wird. dazu kommt noch der Umstand, dass es alles andere als perfekt funktioniert und quasi noch halbgar ist, was es ja noch gefährlicher macht.

Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Minuten schrieb DRS:

wurden ja quasi nur vereinfacht

Das ist ja wohl der entscheidende Punkt. Es ist jetzt ohne grossen Aufwand von jedem machbar. Ich könnte ja ein Bild auch komplett manuell erstellen, indem ich Pixel für Pixel händisch generiere. Ist halt nur ein Haufen Arbeit. 

Bei der KI weiss ich vorher nur nie, was dabei rauskommt. 

 

Link zum Beitrag
Auf anderen Seiten teilen

Meine favorisierte Idee wäre, dass Fotos (und eventuell auch weitere Medien wie Audioaufnahmen) *fakultativ* mit Hilfe einer Blockchain Ort, Zeit, technisches Gerät zur Erzeugung (in unserem Fall z.B. die klassischen Informationen aus den Exif-Daten) sowie die zur Bearbeitung eingesetzten Programme (samt Klassifizierung der Bearbeitungsschritte) dokumentieren *können*. In einem erweiterten Schritt könnte man auch daran denken, die Publikationshistorie in der Blockchain zu hinterlegen (Letzteres hatte m.E. die New York Times 2020 (?) in die Diskussion eingebracht). Die Herkunft derart "zertifizierter* Fotos wäre dann völlig transparent. Und Fotos ohne diese "Zertifizierung" wären dann eben nicht zweifelsfrei authentisch. Entsprechende Medienkompetenz der Rezipienten vorausgesetzt (hier haben aus meiner Sicht die Schulen noch extremen Nachholbedarf) hätte ich persönlich keine Bedenken, dass gesellschaftliche und/oder politische Entscheidungen durch ver- bzw. gefälschte Medien beeinflusst werden. 

Link zum Beitrag
Auf anderen Seiten teilen

Ein interessanter Diskurs. Vielleicht bin ich ja etwas zu gutgläubig, aber ich kann hier gerade wirklich keinen Phantomschmerz entwickeln. 
Die Diskussion der rechtlichen Sachverhalte hierzu berührt mich überhaupt nicht. Am Ende kann niemand davor sicher von irgendjemanden zur irgendwas verklagt zu werden. Und wenn es eine schief geschnittene Hecke ist. Das gehört zum allgemeinen Lebensrisiko. Das kann man wohl leider nicht ändern. 

bearbeitet von Schlonzbronz
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb uwe1956:

Ich sehe das nicht so kompliziert. Software, die keine KI Elemente zum Austausch von Pixeln enthält, benötigt auch keine Kennzeichnungspflicht. Und die Software, die KI Elemente enthält, baut das entsprechend ein. Also wenn da der Austausch von KI generierten Pixeln erfolgt, macht die Software einen entsprechenden Vermerk in den Metadaten. Also back to the roots und das Problem ist keines mehr. 

Leider ein Trugschluss - es muss bei bestimmten Fällen vor allem außerhalb des Bildes vermerkt werden, dass KI eingesetzt wurde! Bei journalistischen Texten gibt es inzwischen fast immer auch diesen textlichen "Wurmfortsatz", oft kursiv gesetzt. Es muss "offensichtlich" erkennbar sein, nicht erst durch das Herauslesen von irgendwelchen JPG Begleitdaten. Es geht bei dem Gesetz im Kern um Deepfakes, lasst Euch nicht verwirren . Der entsprechende EU Gesetzestext ist hier:

https://eur-lex.europa.eu/eli/reg/2024/1689/oj

.... Neben den technischen Lösungen, die von den Anbietern von KI-Systemen eingesetzt werden, sollten Betreiber, die ein KI-System zum Erzeugen oder Manipulieren von Bild-, Audio- oder Videoinhalte verwenden, die wirklichen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise echt oder wahr erscheinen würden (Deepfakes), auch klar und deutlich offenlegen, dass die Inhalte künstlich erzeugt oder manipuliert wurden, indem sie die Ausgaben von KI entsprechend kennzeichnen und auf ihren künstlichen Ursprung hinweisen. Die Einhaltung dieser Transparenzpflicht sollte nicht so ausgelegt werden, dass sie darauf hindeutet, dass die Verwendung des KI-Systems oder seiner Ausgabe das Recht auf freie Meinungsäußerung und das Recht auf Freiheit der Kunst und Wissenschaft, die in der Charta garantiert sind, behindern, insbesondere wenn der Inhalt Teil eines offensichtlich kreativen, satirischen, künstlerischen, fiktionalen oder analogen Werks oder Programms ist und geeignete Schutzvorkehrungen für die Rechte und Freiheiten Dritter bestehen. In diesen Fällen beschränkt sich die in dieser Verordnung festgelegte Transparenzpflicht für Deepfakes darauf, das Vorhandenseins solcher erzeugten oder manipulierten Inhalte in geeigneter Weise offenzulegen, die die Darstellung oder den Genuss des Werks, einschließlich seiner normalen Nutzung und Verwendung, nicht beeinträchtigt und gleichzeitig den Nutzen und die Qualität des Werks aufrechterhält.

 

Also, don't panic

bearbeitet von Mike_Puc
Link zum Beitrag
Auf anderen Seiten teilen

vor 21 Minuten schrieb Mike_Puc:

es muss außerhalb des Bildes vermerkt werden!

In welcher Form bzw. wie soll das aussehen?

Nichtsdestotrotz kann die Bildbearbeitungssoftware eine Kennzeichnung in der Form ja auch generieren. Bzw. macht das dann halt die Software auf dem Server, auf den die Bilder hochgeladen und veröffentlicht werden. Die liest die entsprechenden Metadaten aus und kennzeichnet das Bild dann entsprechend. Das sehe ich jetzt nicht als Hindernis.

bearbeitet von uwe1956
Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Minuten schrieb Mike_Puc:

Leider ein Trugschluss - es muss außerhalb des Bildes vermerkt werden! Bei journalistischen Texten gibt es inzwischen fast immer auch diesen textlichen "Wurmfortsatz", oft kursiv gesetzt. Es muss "offensichtlich" erkennbar sein, nicht erst durch das Herauslesen von JPG Begleitdaten. Da lauert tatsächlich eine kleine Chance für Abmahnungen, wenn man sich nur auf die Mitteilung von EXIF und anderen Daten im JPG verlässt.

bei der Oberflächlichkeit mit der man heutzutage Informationen verbreitet, aber auch wahrnimmt müsste man auf KI generierten Dingen einen riesigen Störer "KI generiert" platzieren, was den Leuten dann wieder das Gefühl vermittelt, dass sie hier einer Fälschung gegenüberstehen. Ist aber nicht immer so, denn wo fängt das an und wo hört das auf... Ab wann kennzeichnet irgendeine App, dass KI benutzt wurde? Ab der "Staub auf dem Sensor Retusche" oder wenn man mutwillig Inhalte austauscht. Wo ist der schmale Grad zwischen Kunst und Müll, zwischen völlig normal und völlig falsch? Es gibt ja beides.  Man kann dieses Werkzeuge auch dazu benutzen, um Gutes zu tun, Dinge in dem Licht erscheinen lassen, wo sie hingehören oder durch deren Einsatz gezielt auf Missstände hinweisen, Menschen bewegen, abgefahrene Kunstprojekte  usw. In der Werbung zeigt man seit Jahrzehnten Dinge in einer Form, die den Kunden anspricht. So ein "Big MAC" in Natura, hat schon viel an seiner beworbenen Schönheit eingebüßt, wenn er in der Pappschachtel landet. Für meine Verhältnisse kann man auch schon mit herkömmlicher Fototechnik,  dem richtigen Standpunkt, Licht und Perspektive bis hin zur gezielten Auswahl des Motivs die Blickrichtung und den Inhalt bis zur absoluten Unkenntlichkeit so verändern, dass man mit der Wahrheit und einem Bild völlig ohne KI auch Unwahrheit verbreitet.

Jetzt tut man wieder so, als wäre man durch Zufall auf die Gefahr gestoßen, die es mit Ansage schon bei der Erfindung gab. Abseits der Nachrichten besteht für mich die größte Gefahr, dass Menschen damit Dinge tun, von denen sie absolut keine Ahnung haben und es demzufolge auch nie überprüfen können, ob es stimmt. das landet dann an dem Ort, woher die KI ihre Infos wieder bezieht und so weiter... Ich male mir mal das Ende dieser Geschichte nur dunkelgrau aus.

Auch wenn es früher nicht jeder konnte hatte man gerade in Bezug auf Nachrichten und Manipulation wohl wenigstens einen davon in der Nähe, der wusste wie das geht. Da ging es schließlich nicht darum den fürs Bild überschüssigen Paprika aus der Facebook Bolognese zu entfernen, obwohl letzteres jetzt auch keinen weh tun würde.

 

Link zum Beitrag
Auf anderen Seiten teilen

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden
×
×
  • Neu erstellen...