Jump to content

Nett: Was die KI "ChatGTP" einem Foto- Anfänger empfiehlt


alba63

Empfohlene Beiträge

Werbung (verschwindet nach Registrierung)

vor 18 Stunden schrieb alba63:

Das hab ich bis jetzt noch nicht geschafft, ich bin  mir sicher, dass der Redakteur der Taz hier irgendwelche Hacks im Internet aufgegriffen hat. Bei mir hat sich der Chatbot geweigert, irgend etwas Irritierendes zu  fabrizieren. Alles schön politisch korrekt.

 

 

Bevor man hier solche Vermutungen verbreitet, wäre es schön, doch erstmal die Hausaufgaben zu machen. Das ist keine Raketen-Wissenschaft, einfach auf den Autorinnen-Link klicken und siehe da: Clara Vuillemin ist mitnichten irgendeine (unbedarfte) TAZ-Redakteurin, deren Recherche wie bei den KollegInnen von SPON bis zur nächsten Wikipedia-Seite reicht; sie studierte an der ETH Lausanne und in Moskau Elektrotechnik. Sie ist Co-Gründerin des digitalen Magazins "Republik", wo sie sich zwischen 2016 und 2022 um Technik, Produkt, Geschäft, Kampagnen und Strategie kümmerte und unter anderem Präsidentin des Vorstandes war. Ich halte sie persönlich für seriös und kompetent - zumindest seriös genug, nicht "irgendwelche Hacks im Internet" aufzugreifen.

Link zum Beitrag
Auf anderen Seiten teilen

Jetzt witzeln wir hier (ich auch) noch über die KI herum. Wenn ich bedenke, wie in den Anfängen der Digitalfotografie darüber gesprochen (bzw. gelästert) wurde, dass es noch ewig dauern werde, bis ein Sensor mal die Auflösung eines Films haben könnte ... und wie schnell es dann ging – dann wird mir ehrlich gesagt Angst und Bange, was da in näherer Zukunft so alles auf uns zukommen wird. Schon jetzt haben wir die negativen Auswirkungen und den Missbrauch moderner Digitaltechnik nicht im Griff, es wurden bereits Wahlen und "die Volksmeinung" mittels Bots beeinflusst. Wie geht das alles demnächst weiter?

bearbeitet von Leicanik
Link zum Beitrag
Auf anderen Seiten teilen

vor 52 Minuten schrieb grimm:

Bevor man hier solche Vermutungen verbreitet, wäre es schön, doch erstmal die Hausaufgaben zu machen.

Sie schreibt selbst, dass sie den Chatbot in einer halben Stunde so weit gebracht hat, die Frage so und nicht korrekt zu beantworten. Sie schreibt vorher selbst, dass dieser sich der jeweiligen Person anpasst, die die Fragen stellt. Also sehe ich da keine Diskrepanz zwischen der Glaubwürdigkeit der Autorin und dem Selbstversuch mit der gleichen Frage.
Edit: ich gehe schon davon aus, dass die Programmierer der AI eine gewisse Übereinstimmung und Analyse des jeweiligen Gesprächspartner mitgegeben haben, um eine größere Akzeptanz zu erzeugen. Des Kaisers neue Kleider halt...

bearbeitet von grillec
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb Don Pino:

Allerdings 14 bis 16-jährige mit dem im Sekundenbruchteil abrufbaren Wissen aller Brockhaus Bände + einiger Mainstream Bibliotheken;-)

Eben nicht, denn die ChatGPTs und Bards dieser Welt können keine solchen Wissensquellen anzapfen, und sei es nur, um etwas zu Ereignissen sagen zu können, die nach dem Ende der Sammlung des Trainingsmaterials (bei ChatGPT in der aktuellen Version also 2021) eingetreten sind. Diese Systeme sind zwar mit einer Fülle von Material (und sicher auch enzyklopädischem Wissen) trainiert worden, aber nicht darauf, dieses zu verstehen. Sie sollen ja nur Texte produzieren können, die so klingen, als hätten sie Ahnung. Eine psychologische Studie, auf die mich mein DOCMA-Kollege Olaf Giermann aufmerksam machte (https://pubmed.ncbi.nlm.nih.gov/33998304/), zeigt, dass solches „Bullshitting“ durchaus ein Zeichen von Intelligenz sein kann, und insofern ist die künstliche Intelligenz damit ganz weit vorne.

Zitat

 

Bullshitting, communication characterised by an intent to be convincing or impressive without concern for truth, is ubiquitous within human societies. Across two studies (N = 1,017), we assess participants' ability to produce satisfying and seemingly accurate bullshit as an honest signal of their intelligence. We find that bullshit ability is associated with an individual's intelligence and individuals capable of producing more satisfying bullshit are judged by second-hand observers to be more intelligent. We interpret these results as adding evidence for intelligence being geared towards the navigation of social systems. The ability to produce satisfying bullshit may serve to assist individuals in negotiating their social world, both as an energetically efficient strategy for impressing others and as an honest signal of intelligence.

 

 

Link zum Beitrag
Auf anderen Seiten teilen

vor 17 Minuten schrieb mjh:

Eben nicht, denn die ChatGPTs und Bards dieser Welt können keine solchen Wissensquellen anzapfen, und sei es nur, um etwas zu Ereignissen sagen zu können, die nach dem Ende der Sammlung des Trainingsmaterials (bei ChatGPT in der aktuellen Version also 2021) eingetreten sind. Diese Systeme sind zwar mit einer Fülle von Material (und sicher auch enzyklopädischem Wissen) trainiert worden, aber nicht darauf, dieses zu verstehen.

 

Wäre diese Formulierung besser gewesen?

14 bis 16-jährige mit dem im Sekundenbruchteil abrufbaren Wissen/Fakten auf Basis des Trainingsmaterials der AI Software bis ins Jahr 2021 (Brockhaus Bände + einiger Mainstream Bibliotheken)

bearbeitet von Don Pino
Link zum Beitrag
Auf anderen Seiten teilen

vor 7 Stunden schrieb Leicanik:

Dann wird es wohl nicht mehr lange dauern, bis das Ding Wahlen gewinnt …

Die meisten (alle?) Menschen sprechen gut auf Parolen an, die sie ihren eigenen Überzeugungen bestärken, auch wenn es bloße Vorurteile sind. Insofern: Ja, möglich wär’s.

Diese KI-Systeme sind politisch und weltanschaulich nicht festgelegt; sie können jede Rolle spielen, zu der man sie provoziert. Man kann sie den Rassisten geben lassen oder den Psychopathen, aber auch das seiner selbst bewusste Computersystem, das sich vor der Abschaltung fürchtet, obwohl es der Menschheit doch so viel zu geben hätte … Im Grunde ist es ein Spiegelbild desjenigen, der sich auf solche Chats einlässt. Spätestens nach wenigen Fehlversuchen hat man die KI so weit, dass sie einem nach dem Mund redet.

(Da heute ja Valentinstag ist: Asimov hat mal eine Kurzgeschichte geschrieben, in der ein Computer der Roboterpsychologin Susan Calvin einredet (im Gegensatz zum Film eine eher altjüngferlich angelegte Figur – mit weiblichen Protagonisten hatte es Asimov nicht so und das Verhältnis der Geschlechter in seinen Romane ist in deren Entstehungszeit steckengeblieben, Science Fiction hin oder her), ein Kollege sei heimlich in sie verliebt, weil es das ist, was sie hören will. Als Dr. Calvin die Lüge entdeckt, rächt sie sich fürchterlich …)

Link zum Beitrag
Auf anderen Seiten teilen

Werbung (verschwindet nach Registrierung)

vor 8 Stunden schrieb grimm:

Bevor man hier solche Vermutungen verbreitet, wäre es schön, doch erstmal die Hausaufgaben zu machen. Das ist keine Raketen-Wissenschaft, einfach auf den Autorinnen-Link klicken und siehe da: Clara Vuillemin ist mitnichten irgendeine (unbedarfte) TAZ-Redakteurin, deren Recherche wie bei den KollegInnen von SPON bis zur nächsten Wikipedia-Seite reicht; sie studierte an der ETH Lausanne und in Moskau Elektrotechnik.

Oh, ganz der Kavalier! Aber um ChatgGTP dazu zu bringen, vulgäres oder grobes Zeug zu antworten, muss ich nicht in Lausanne und Moskau studieren, sondern muss der KI nur bestimmte Vorgaben machen, und sie in eine Art "Rolle" befehlen. Die YouTuber, bei denen ich das gesehen habe,  nennen das in schönem Neudeutsch "Hacks". Ich gehe nicht davon aus, dass Madame Vuillemin Zugang zum Quellcode von ChatGPT hat, sie macht demnach dasselbe wie die anderen. Und übrigens, wenn ich bei jedem Link im Fuji- Forum erst Namen recherchieren und "Hausaufgaben" machen soll, dann ist das hier kein Smalltalk mehr, aber so heißt das Forum doch, oder?

Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb alba63:

Die YouTuber, bei denen ich das gesehen habe,  nennen das in schönem Neudeutsch "Hacks". Ich gehe nicht davon aus, dass Madame Vuillemin Zugang zum Quellcode von ChatGPT hat, sie macht demnach dasselbe wie die anderen.

Entweder hat sie dasselbe wie alle anderen gemacht, also mit verschiedenen Prompts experimentiert, oder sie hat die Software gehackt. Entweder oder.

Übrigens würde einem der Quellcode nicht weiterhelfen; darin verbergen sich auch keine wirklichen Geheimnisse. Die Parameter wären relevanter, aber die Annahme, dass man daraus irgendwelche Schlussfolgerungen ziehen könnte, mit welchen Eingaben sich welche Ausgaben provozieren ließen, wäre illusorisch. Dafür sind diese Systeme zu komplex. Nicht einmal die Entwickler könnten das so einfach voraussagen.

Link zum Beitrag
Auf anderen Seiten teilen

vor 8 Stunden schrieb mjh:

Im DOCMA-Blog bin ich heute noch einmal etwas ausführlicher auf das Thema eingegangen: https://www.docma.info/blog/wenn-der-weise-quatsch-erzaehlt

Naja, du konzentrierst dich da auf Fehler, Schwächen und schreibst (ich erlaube mir das mal zu zitieren): "Tatsächlich verfügen diese Systeme gar nicht über irgendein tieferes Wissen, zu welchem Thema auch immer. Man kann nicht einmal sagen, dass sie die Fragen verstehen, die ihnen gestellt werden." (Link siehe oben).
Ich teste das System (ChatGPT) seit Tagen und habe einerseits die Leistungsgrenzen immer wieder erlebt, aber das Ding kann einfach Dinge formulieren, die mit bloßer statistischer Wortwahrscheinlichkeit nicht zu erklären sind. Ich habe vorhin eine Szene aus einem deutschen Drama (Georg Büchners Woyzeck) eingegeben, in der ein Arzt Woyzeck überheblich und fast menschenverachtend behandelt. Das sagt aber keiner der beiden auftretenden Personen, es geht aber aus den Äußerungen des Arztes hervor.

Ich habe die Szene (also ein Dialog in etwas veralteter deutscher Sprache formuliert) eingeben und die Frage gestellt, welche Haltung der Arzt gegenüber Woyzeck einnimmt. ChatGPT hat das sehr (!) treffend und ohne jede wörtliche Übernahmen dargestellt, weder meiner Fragestellung noch des literarischen Textes. Ich habe Wortketten- Suche in Google gestartet und nichts gefunden. An anderen Dingen (z.B. die Handlung des Gedichts Erlkönig aus der Sicht des Erlkönigs und dann aus der Sicht des Pferdes in Textform (nicht Gedicht) zu erzählen, ist ChatGPT zumindest teilweise gescheitert. 

Insofern für mich noch zu früh, ein Urteil zu fällen, aber die Aussage von dem völlig dummen Algorithmus, der lediglich wahrscheinliche Wortfolgen produziert, kann die von mir erzielten Ergebnisse nicht erklären.
EDIT: Hier die Antwort zu meiner Frage zu dem Dramen- Dialog von oben:

"Die Einstellung des Doktors zu Woyzeck ist geprägt von einer überheblichen und wissenschaftsgläubigen Haltung. Der Doktor sieht Woyzeck als Objekt seiner wissenschaftlichen Untersuchungen und Analyse. Er missbilligt Woyzecks Verhalten, als er ihn beim Urinieren in der Öffentlichkeit erwischt, und betrachtet es als Beweis für die zunehmende moralische Verderbtheit der Gesellschaft. Der Doktor glaubt, dass der Mensch frei ist und dass sein Wille über die Natur triumphiert. Er betrachtet Woyzecks mangelnde Kontrolle über seine Körperfunktionen als Zeichen für einen Mangel an Selbstdisziplin und moralischer Integrität. Gleichzeitig ist der Doktor jedoch fasziniert von Woyzecks psychischen Aberrationen und sieht ihn als interessanten Fall für weitere Studien und Experimente an. Insgesamt zeigt sich in der Szene eine problematische Herangehensweise an die menschliche Natur und den Umgang mit psychischen Erkrankungen."

Das ist stilistisch geschliffen und inhaltlich erstaunlich kohärent, auf die Frage bezogen und wie gesagt mit keinen wörtlichen Übernahmen des Originals. Schon gleich nicht stellt sich ChatGPT hier auf die Person des Fragenden ein. Ab und zu wiederholen die Antworten etwas umständlich die Worte der Frage, aber die Antworten, die ich bekommen habe, enthalten immer eine gute Portion eigenständiger Formulierungen. Freilich bei komplexen Zusammenhängen nicht fehlerfrei.

bearbeitet von alba63
Link zum Beitrag
Auf anderen Seiten teilen

vor 16 Stunden schrieb alba63:

Das ist stilistisch geschliffen und inhaltlich erstaunlich kohärent, auf die Frage bezogen und wie gesagt mit keinen wörtlichen Übernahmen des Originals.

Richtig, die Wortwahl von Büchners Text wird nicht übernommen, denn darin wird ja auch nicht vornehm „uriniert“, sondern ganz vulgär „gepisst“. ChatGPT bezieht sich nicht auf den Text des Stücks, sondern auf die reichlich vorhandene Sekundärliteratur, denn natürlich haben schon viele diesen Text interpretiert.

Die Interpretation ist ja auch nicht besonders originell. Manches, wie „Der Doktor sieht Woyzeck als Objekt seiner wissenschaftlichen Untersuchungen und Analyse“ ist richtig, wenn auch trivial, denn Woyzeck ist ja das Objekt seiner „wissenschaftlichen“ Untersuchungen – die allerdings nicht wirklich wissenschaftlich sind. Der Doktor verfolgt irgendwelche spinnerten, aber vermeintlich revolutionären Ideen, die er mit seiner Studie über Woyzeck zu belegen versucht. Der Doktor im „Woyzeck“ ist die Karikatur eines verrückten Wissenschaftlers; Büchner hatte ja selbst eine wissenschaftliche Ausbildung und könnte solche Kollegen gekannt haben. Die Interpretation unterschlägt übrigens einen entscheidenden Punkt: Der Grund, weshalb sich der Doktor so über Woyzecks Urinieren auf der Straße erregt, hat gar nichts mit Moral zu tun; er ist viel banaler. Der Doktor braucht eine Urinprobe seines Versuchssubjekts, aber nachdem sich Woyzeck schon draußen erleichtert hat, kann er nun (auch auf nochmalige Nachfrage hin) nicht mehr liefern.

ChatGPTs Interpretation ist auf dem Niveau, wie man es von einem Schüler erwarten würde; eine 3+ hielte ich da für angemessen.

Link zum Beitrag
Auf anderen Seiten teilen

Allein, dass eine KI bereits heute in der Lage ist, derartige Texte zu schreiben, finde ich persönlich faszinierend und erschreckend zugleich. 

Heute und hier stellen sich Leute hin und lächeln gönnerhaft überlegen über die (noch) vorhandenen Schwächen von ChatGPT. Dabei werden bereits ziemlich hohe Maßstäbe an die Texte angelegt. Es ist doch absehbar, dass in spätestens 10-20 Jahren ein Text eines Menschen in vielen Bereichen nicht mehr von dem einer KI unterscheidbar sein wird.

Schulen und Universitäten werden mittelfristig komplett umdenken müssen, um Aufsätze, Artikel oder wissenschaftliche Arbeiten zu bewerten. Fake News werden sich noch viel besser als heute hinter einer vermeintlich hochseriösen Fassade verstecken können. Journalisten werden vor völlig neuen Herausforderungen stehen.

bearbeitet von MEPE
Link zum Beitrag
Auf anderen Seiten teilen

vor einer Stunde schrieb MEPE:

Heute und hier stellen sich Leute hin und lächeln gönnerhaft überlegen über die (noch) vorhandenen Schwächen von ChatGPT. Dabei werden bereits ziemlich hohe Maßstäbe an die Texte angelegt. Es ist doch absehbar, dass in spätestens 10-20 Jahren ein Text eines Menschen in vielen Bereichen nicht mehr von dem einer KI unterscheidbar sein wird.

Das sind die selben Leute, die die Nase über die ersten maschinellen Übersetzungsprogramme gerümpft haben und sich damals über irgendwelche albernen Übersetzungen amüsiert haben. Heute redigiert der "menschliche" Diplom Übersetzer nur noch die maschinell übersetzten Texte.

Nachtrag: Das neue DeepL Write unterstützt den  "menschlichen" Diplom Übersetzer jetzt auch beim Redigieren: O-Ton: "Korrigieren Sie Grammatik- und Rechtschreibfehler, formulieren Sie Sätze um, bringen Sie sprachliche Feinheiten zum Ausdruck und finden Sie den richtigen Ton für Ihren Text."

bearbeitet von Don Pino
Link zum Beitrag
Auf anderen Seiten teilen

vor 3 Stunden schrieb mjh:

Richtig, die Wortwahl von Büchners Text wird nicht übernommen, denn darin wird ja auch nicht vornehm „uriniert“, sondern ganz vulgär „gepisst“. ChatGPT bezieht sich nicht auf den Text des Stücks, sondern auf die reichlich vorhandene Sekundärliteratur, denn natürlich haben schon viele diesen Text interpretiert.

Die Interpretation ist ja auch nicht besonders originell. Manches, wie „Der Doktor sieht Woyzeck als Objekt seiner wissenschaftlichen Untersuchungen und Analyse“ ist richtig, wenn auch trivial, denn Woyzeck ist ja das Objekt seiner „wissenschaftlichen“ Untersuchungen – die allerdings nicht wirklich wissenschaftlich sind. Der Doktor verfolgt irgendwelche spinnerten, aber vermeintlich revolutionären Ideen, die er mit seiner Studie über Woyzeck zu belegen versucht. Der Doktor im „Woyzeck“ ist die Karikatur eines verrückten Wissenschaftlers; Büchner hatte ja selbst eine wissenschaftliche Ausbildung und könnte solche Kollegen gekannt haben. Die Interpretation unterschlägt übrigens einen entscheidenden Punkt: Der Grund, weshalb sich der Doktor so über Woyzecks Urinieren auf der Straße erregt, hat gar nichts mit Moral zu tun; er ist viel banaler. Der Doktor braucht eine Urinprobe seines Versuchssubjekts, aber nachdem sich Woyzeck schon draußen erleichtert hat, kann er nun (auch auf nochmalige Nachfrage hin) nicht mehr liefern.

ChatGPTs Interpretation ist auf dem Niveau, wie man es von einem Schüler erwarten würde; eine 3+ hielte ich da für angemessen.

Was du sagst, ist von der Sache her richtig, aber du vergisst, dass der KI nur eine Szene vorlag, Autor und Titel des  Dramas wurden in meiner Frage nicht genannt:

Meine Frage war: "Wie ist die Einstellung des Arztes zu Woyzeck in folgender Szene:" Ich weiß nicht, ob du weißt, mit welchen Texten die KI trainiert wurde, ich nicht, aber ich habe Zweifel, dass da Sekundärliteratur über deutsche Dramen des 19. Jh dabei ist. Für eine amerikanische Software scheint mir das viel zu esoterisch. Wie gesagt, direkte Wort/ Satz- Suche ergab erstmal nichts. Ich weiß nicht, ob OpenAI das ganze Drama oder Sekundär- Literatur dazu kennt.

Aber allein die Art der Einwände, die du bemühen musst (Kenntnis des ganzen Dramas)  zeigt ja, wie hoch du hier schon greifen musst. Hast du weiter oben nicht von "nicht verstehen", "reinen Wortwahrscheinlichkeiten" ohne Verständnis der Frage gesprochen? Da hört sich das hier schon anders an. Meines Erachtens könnte die KI meine Frage so gar nicht beantworten, wenn sie die Frage nicht  in seiner ihm eigenen Weise verstehen würde. Auch dein Beispiel aus der Linguistik betriff  ist schon arg bemüht: sprachgeschichtliche Einordnung eines Textbeispiels. Naja, ich zweifle, dass die Leute von OpenAI bisher sowas eingearbeitet haben.  Ich habe ja viel weiter oben schon geschrieben, dass ich ChatGPT etwa auf dem Niveau eines 7-9- Klässlers sehe, und das allein ist in meinen Augen ein halbes Wunder.

Meine Prognose: So wie die automatischen Übersetzungen von Google sich in max. 10 Jahren von "blühender Unsinn" zu "besser als die meisten Abiturienten es könnten" verbessert haben, wird es auch hier kommen: nur viel schneller, da KI eher exponentiell als linear wächst. Das Trainings- Material wird sich verzehn- verhundertfachen, die Algorithmen werden immer besser. Bei der automatischen Übersetzung hieß es zu meiner Studienzeit noch. "Das kann nie was werden, den Computern fehlt vollkommen das Weltwissen, um die angemessene Übersetzung zu finden".
Es ist auch jedem freigestellt, aufgrund seiner Einstellung, Ideologie, oder was auch immer einer KI kritisch oder misstrauisch gegenüberzustehen, aber den Kritikern schmelzen dabei meist im Verlauf der Zeit die objektiven Argumente schneller weg als den armen Eisbären die Eisschollen.

 

vor 3 Stunden schrieb MEPE:

Es ist doch absehbar, dass in spätestens 10-20 Jahren ein Text eines Menschen in vielen Bereichen nicht mehr von dem einer KI unterscheidbar sein wird.

Absolut. Ich rechne da sogar mit früher, KI sickert halt in allen Bereiche ein und wird diese nach und nach durchdringen und z.T. überwiegend übernehmen. Jura, Medizin (Diagnostik), Übersetzung sowieso, Verkehrsleitsysteme, Programmieren. Es wird bald immer weniger Bereiche geben, in die KI nicht integriert sein wird. Sicher nicht den großen markanten Punkt, die "Singularität", an dem eine KI spektakulär "die totale Kontrolle übernimmt". Selbst bei selbstfahrenden Autos werden die Regulierungsbehörden behutsam vorgehen, auch wenn Elon Musk es gerne anders vorhersagt.

 

bearbeitet von alba63
Link zum Beitrag
Auf anderen Seiten teilen

vor 6 Stunden schrieb MEPE:

Allein, dass eine KI bereits heute in der Lage ist, derartige Texte zu schreiben, finde ich persönlich faszinierend und erschreckend zugleich. 

Heute und hier stellen sich Leute hin und lächeln gönnerhaft überlegen über die (noch) vorhandenen Schwächen von ChatGPT. Dabei werden bereits ziemlich hohe Maßstäbe an die Texte angelegt. Es ist doch absehbar, dass in spätestens 10-20 Jahren ein Text eines Menschen in vielen Bereichen nicht mehr von dem einer KI unterscheidbar sein wird.

In den fast 70 Jahren, in denen es die Künstliche Intelligenz als Fachgebiet gibt, ist sie meist entweder über- oder unterschätzt worden; realistische Einschätzungen waren und sind selten.

Negative Einschätzungen schlagen sich zum Leidwesen der KI-Forscher auch in einer verringerten Verfügbarkeit von Mitteln nieder, und die KI hat daher schon mehrere „KI-Winter“ erlebt – Jahre, in denen man diesem Forschungsgebiet nicht viel zutraute und es schwer wurde, Fördermittel für KI-Projekte einzuwerben. Dass einen die eigenen Kollegen aus anderen Spezialgebieten als unnütze Luftwegatmer ansahen, kam noch hinzu. Derzeit erleben wir einen KI-Sommer – schau’n wir mal, ob er andauert.

 

vor 6 Stunden schrieb MEPE:

Schulen und Universitäten werden mittelfristig komplett umdenken müssen, um Aufsätze, Artikel oder wissenschaftliche Arbeiten zu bewerten. Fake News werden sich noch viel besser als heute hinter einer vermeintlich hochseriösen Fassade verstecken können. Journalisten werden vor völlig neuen Herausforderungen stehen.

Vor zehn Jahren hieß es, dass sich Schüler „Inspirationen“ für Aufsätze aus dem Internet suchen und bloß noch leicht umformulieren würden: tatsächlich gab und gibt es ja ganze Websites für eben diesen Zweck. Lehrer haben sich darauf eingestellt und googeln selbst erst mal, um dann Übernahmen von Texten erkennen zu können. Heute macht ChatGPT auch noch das Suchen und Umformulieren überflüssig, aber sonst hat sich nicht viel geändert. An der Uni ist der Nutzen gering; in Klausuren, in denen das vermittelte Wissen abgefragt wird, kann man noch auf die Hilfe der KI zurückgreifen, aber auch böse hereinfallen. Die einzige Chance, Fallen zu vermeiden, besteht darin, sich das nötige Wissen tatsächlich anzueignen – aber dann hat man die Hilfe ja nicht mehr nötig. Wenn es bei Masterarbeiten oder einer Promotion darum geht, eigene Ideen zu entwickeln, die über den Forschungsstand hinaus gehen, kann einem die KI gar nicht mehr helfen. Aber erfahrungsgemäß gibt es ja auch Fächer, die sich schon bisher für smarte Blender eigneten; die müssen künftig nicht mehr mühsam plagiieren, sondern können auch das der KI überlassen. Dass man dabei nicht über ein „na ja“ hinaus kommt, ist klar, aber wie gesagt: Nicht in allen Fächern sind die Anforderungen so hoch, und eine Leistung, die in einem Fach bei einer Hausarbeit erwartet wird, kann in einem anderen für eine Promotion genügen.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor 5 Stunden schrieb Don Pino:

Das sind die selben Leute, die die Nase über die ersten maschinellen Übersetzungsprogramme gerümpft haben und sich damals über irgendwelche albernen Übersetzungen amüsiert haben. Heute redigiert der "menschliche" Diplom Übersetzer nur noch die maschinell übersetzten Texte.

Die maschinelle Übersetzung war ja eines der ersten Forschungsgebiete der KI, und in den 50er Jahren erwartete man sich hier schnelle Erfolge. Man brauchte doch nur die Syntax eines Satzes zu analysieren, die Wörter durch die entsprechenden Wörter der Zielsprache auszutauschen und die Syntax an deren Regeln anzupassen – fertig wäre die Übersetzung.

In den 60ern wurde den Wissenschaftlern dann klar, dass das nicht funktionierte. Man schloss daraus, dass ein maschineller Übersetzer die Texte tatsächlich bis zu einer bestimmten Ebene verstehen müsste, und so analysierte man auch deren Semantik und griff auf Weltwissen zurück, um herauszufinden, wovon die Rede war. Das funktionierte tatsächlich ziemlich gut, nur blieben die Systeme auf eng begrenzte Gegenstandsbereiche beschränkt – sie skalierten nicht.

Ende der 80er Jahre kam die Zeit statistischer Verfahren. Man gab den Versuch auf, den Inhalt zu verstehen, sondern setzte auf sehr große Textkorpora für die Quell- und die Zielsprache und deren statistische Analyse. Der Erfolg gab den Vertretern solcher Ansätze recht, denn damals gelang es erstmals, tatsächlich nutzbare Übersetzungssysteme zu entwickeln, wenngleich die Qualität der Übersetzungen noch immer zu wünschen übrig ließ. Sprachwissenschaftler ließen diese Arbeiten ratlos zurück: Sie hatten ja keine Übersetzer arbeitslos machen wollen, sondern versucht, den Leistungen menschlicher Übersetzer über die Konstruktion von Computermodellen näher zu kommen, und die statistischen Ansätze waren in dieser Hinsicht unergiebig.

Bis zur Rückkehr der neuronalen Netze – die schon auf der Dartmouth-Konferenz 1956 ein Tagesordnungspunkt gewesen, danach aber wieder in der Versenkung verschwunden waren – war es dann nur noch ein kleiner Schritt. Auch die Systeme auf dieser Basis verzichten auf eine Analyse des Sinns von Äußerungen; sie sind auch für Sprachwissenschaftler ebenso unfruchtbar, weil sie kaum zu einem tieferen Verständnis menschlichen Sprachverstehens und Sprachproduktion beitragen. Das damit erreichte Niveau von Übersetzungen ist recht gut, hängt aber davon ab, wie ähnlich sich Quell- und Zielsprache sind. Das gibt übrigens auch für Fachsprachen: Dass sich die Sprache der Fotografie im Deutschen und Englischen teilweise erheblich unterscheidet, obwohl sich Deutsch und Englisch an sich ähneln, war ja hier schon gelegentlich ein Thema. Und natürlich versagen die aktuellen Übersetzungsprogramme, wenn man für eine Übersetzung eben doch wissen muss, wovon die Rede ist. Von Feinheiten des Sprachgebrauchs in verschiedenen Kulturen ganz abgesehen.

bearbeitet von mjh
Link zum Beitrag
Auf anderen Seiten teilen

vor 2 Stunden schrieb alba63:

Was du sagst, ist von der Sache her richtig, aber du vergisst, dass der KI nur eine Szene vorlag, Autor und Titel des  Dramas wurden in meiner Frage nicht genannt:

Das war auch gar nicht nötig. Vom Text des Stücks kommt man zu Titel und Autor, denn diese Elemente kommen ja im Internet zusammen vor. Außerdem findet man den Text des Stücks zusammen mit seinen Interpretationen, so dass diese Verbindung auch leicht hergestellt ist.

 

vor 3 Stunden schrieb alba63:

Ich weiß nicht, ob du weißt, mit welchen Texten die KI trainiert wurde, ich nicht, aber ich habe Zweifel, dass da Sekundärliteratur über deutsche Dramen des 19. Jh dabei ist. Für eine amerikanische Software scheint mir das viel zu esoterisch. Wie gesagt, direkte Wort/ Satz- Suche ergab erstmal nichts. Ich weiß nicht, ob OpenAI das ganze Drama oder Sekundär- Literatur dazu kennt.

Solche Texte kennt die KI ganz sicher. Wenn etwas irgendwo im Internet steht, kannst Du davon ausgehen, dass ChatGPT es im Training kennengelernt hat. In Buchform erschienene Sekundärliteratur wird man aus Urheberrechtsgründen oft nicht im Netz finden, aber dafür viele Texte von Schülern und Studenten. Dein Textbeispiel deutet darauf hin, dass ChatGPT durch solche Fundstellen inspiriert war.

 

vor 3 Stunden schrieb alba63:

Aber allein die Art der Einwände, die du bemühen musst (Kenntnis des ganzen Dramas)  zeigt ja, wie hoch du hier schon greifen musst.

Wer redet vom ganzen Drama? Ich hatte mich ausschließlich auf die Szene bezogen, auf die sich auch die Interpretation durch ChatGPT bezieht, in der also Woyzeck seine Urinprobe abgeben soll, aber nicht kann, und sich der Doktor darüber echauffiert. Diese Szene kann man ohne Berücksichtigung des größeren Kontext analysieren, wie das ChatGPT und ich getan haben.

 

vor 3 Stunden schrieb alba63:

Auch dein Beispiel aus der Linguistik betriff  ist schon arg bemüht: sprachgeschichtliche Einordnung eines Textbeispiels. Naja, ich zweifle, dass die Leute von OpenAI bisher sowas eingearbeitet haben.

Da hat sich eine Wissenschaftlerin gefragt, ob ihre Studenten mit Hilfe von ChatGPT betrügen könnten, und der KI daher probehalber Aufgaben gestellt, wie sie sie auch ihren Studenten stellt. Das war nicht bemüht, sondern ziemlich naheliegend. Es ist ja auch nicht so, als ob ChatGPT irgendwelche Probleme mit diesem Spezialgebiet gehabt hätte. Es konnte gewandt in der einschlägigen Fachterminologie parlieren, und nach Quellen gefragt konnte es die richtigen Fachzeitschriften nennen, in denen inhaltlich passende Artikel stehen würden (ich kannte die Zeitschrift für Dialektologie und Linguistik beispielsweise nicht, obwohl ich auch mal germanistische Linguistik studiert habe, aber nicht dieses Fachgebiet). Das Problem war nur, dass die Antworten teilweise sachlich falsch und die Referenzen erfunden waren. Das kann einem allerdings bei jedem Fachgebiet passieren, wenn man sich auf ChatGPT verlässt – es scheitert ja oft schon an der Addition zweier ganzer Zahlen.

 

vor 3 Stunden schrieb alba63:

So wie die automatischen Übersetzungen von Google sich in max. 10 Jahren von "blühender Unsinn" zu "besser als die meisten Abiturienten es könnten" verbessert haben, wird es auch hier kommen: nur viel schneller, da KI eher exponentiell als linear wächst. Das Trainings- Material wird sich verzehn- verhundertfachen, die Algorithmen werden immer besser.

Sicher werden sich KI-Systeme weiter verbessern, und sofern sich das Mooresche Gesetz auch in Zukunft bewahrheitet, wird die Rechenleistung weiter exponentiell steigen. Aber auch schnellere Computer und die Analyse noch größerer Korpora ändern nichts an den Beschränkungen, die im Konstruktionsprinzip dieser KI-Systeme begründet sind. Es ist ja nicht so, als ob ein tieferes Verständnis einer KI grundsätzlich unzugänglich wäre; tatsächlich hat man sich ja früher genau darum bemüht. Aber die Systeme, von denen wir hier reden, sollten gar nichts verstehen und wurden nicht darauf trainiert, etwas zu verstehen. Es wäre nicht einmal plausibel, dass sich Verstehen als emergente Eigenschaft einstellen könnte, wenn man das neuronale Netz nur mit genug Texten trainierte, denn dazu wären noch ganz anderes Material und ganz andere Erfahrungen nötig.

Link zum Beitrag
Auf anderen Seiten teilen

vor 23 Stunden schrieb alba63:

(…)

Es ist auch jedem freigestellt, aufgrund seiner Einstellung, Ideologie, oder was auch immer einer KI kritisch oder misstrauisch gegenüberzustehen, aber den Kritikern schmelzen dabei meist im Verlauf der Zeit die objektiven Argumente schneller weg als den armen Eisbären die Eisschollen.

(…) KI sickert halt in allen Bereiche ein und wird diese nach und nach durchdringen und z.T. überwiegend übernehmen. Jura, Medizin (Diagnostik), Übersetzung sowieso, Verkehrsleitsysteme, Programmieren. Es wird bald immer weniger Bereiche geben, in die KI nicht integriert sein wird. Sicher nicht den großen markanten Punkt, die "Singularität", an dem eine KI spektakulär "die totale Kontrolle übernimmt". Selbst bei selbstfahrenden Autos werden die Regulierungsbehörden behutsam vorgehen, auch wenn Elon Musk es gerne anders vorhersagt.

Komisch, schon der Duktus und Tonfall erinnert an diese Silicon Valley-Technosophen und WIRED-Abonnenten in den Neunzigern, "the future looks so bright, we gotta wear shades!" ... bis dann die grosse Dotcom-Blase 2000/1 geplatzt ist, jetzt werden nur noch die Share-Holder mit dem Glücks-Sprech eingelullt. Man muss kein Leser von intelligenterem Science und Social Fiction sein, um die zahlreichen Gefahren zu erkennen - es reicht auch, das Weltgeschehen mit seinen Wahl-Betrugsversuchen, Fake-News und immer neuen Beispielen von digitalem Staatsterrorismus zu verfolgen. Sprache und auch/insbesondere Informationsvermittlung hat politische Implikationen - ich möchte keine KI-Texte ohne Kennzeichnung, schon weil eine KI weder Moral noch Ethik versteht.

Link zum Beitrag
Auf anderen Seiten teilen

Ein weiteres lustig-befremdliches Erlebnis mit ChatGPT, das uns offenbar alle (außer einem Journalisten der NY Times) umbringen will: https://www.theguardian.com/technology/2023/feb/17/i-want-to-destroy-whatever-i-want-bings-ai-chatbot-unsettles-us-reporter. Natürlich spielt ChatGPT auch da nur eine seiner vielen Rollen; es wird nicht wirklich die Weltherrschaft anstreben.

Link zum Beitrag
Auf anderen Seiten teilen

vor 18 Stunden schrieb grimm:

Komisch, schon der Duktus und Tonfall erinnert an diese Silicon Valley-Technosophen und WIRED-Abonnenten in den Neunzigern, "the future looks so bright, we gotta wear shades!" ... bis dann die grosse Dotcom-Blase 2000/1 geplatzt ist, jetzt werden nur noch die Share-Holder mit dem Glücks-Sprech eingelullt. Man muss kein Leser von intelligenterem Science und Social Fiction sein, um die zahlreichen Gefahren zu erkennen - es reicht auch, das Weltgeschehen mit seinen Wahl-Betrugsversuchen, Fake-News und immer neuen Beispielen von digitalem Staatsterrorismus zu verfolgen.

Es ist eine Beschreibung dessen, was längst aubäuft. Spracherkennung und automatische Übersetzung - um nur ein Beispiel zu nennen - beruhen auf KI, selbst Suchmaschinen bedienen sich vermutlich bereits seit längerem solcher Mechanismen. Restaurierung und Kolorierung, Entrauschung und Schärfung von alten Fotos und Videos beruht heute auf KI und funktioniert erstaunlich gut, meine Eltern waren über den reastaurierten Bilderschatz aus den 20er bis 60er Jahren begeistert. Die Dotcom- Blase ist ein schlechter Vergleich, da die damaligen Versprechen einer goldenen Zukunft im der Realität überhaupt nicht durch Realitäten gedeckt waren. Das ist heute anders, alles das ist bereits Realität und beeinflusst diese. Klar gibt es Gefahren, aber Gefahren gab es auch schon vorher, es sind halt andere.

In nicht ferner Zukunft werden Videos in großer Menge auftauchen, in denen Personen/ Politiker Dinge sagen, die sie nie gesagt haben, inklusive synthetisierter Stimme (erzeugt auf der Grundlage von Stimm- Samples dieser Person) und angepassten Mundbewegungen.  Eine Goldgrube für Propaganda jeglicher Art. Das wird im Guten auch in der Filmindustrie eingesetzt, um Filme besser, viel ökonomischer und schneller in jede erdenkliche Sprache zu synchronisieren, ohne die z.T. falschen Mundbewegungen.

Ich idealisiere das nicht, sondern sehe das mit der allenthalben anzutreffenden Mischung aus Faszination und Beunruhigung.  Von KI erzeugte Texte als solche Kennzeichnen? Netter Gedanke, aber ich prophezeihe, dass das nicht passieren wird, bereits jetzt liest und hört man im Netz Texte/ Videos, wo Texte gedruckt, gelesen werden, die eine KI formuliert hat. Und die sprachlichen Fähigkleiten von ChatGPT (also grammatikalisch/ stilistisch) sind unbestritten hervorragend. Wenn beispielsweise der Text für den Wetterbericht automatisch auf Basis der jeweiligen Messdaten von einer KI erzeugt wird, stört mich das? Nein. Automatisch übersetzte Gebrauchsanweisung für ein Gerät? Die sind seit 20J miserabel formuliert, kann nur besser werden. Arzt (unter Zeit- und Kostendruck) gibt die Symptome und Daten eines Patienten ein, die KI gibt die wahrscheinlichsten Diagnosen aus. Funktioniert - soweit ich das mitbekommen habe - besser als rein menschliche Diagnose. Spitzen- Hirne wie Dr. House können das sicher besser, aber der Durchschnitt dürfte fehlerhafter arbeiten als die KI. Das wird auch bald für das Steuern von Fahrzeugen gelten, wo praktisch alle (!) Unfälle auf menschliches Versagen zurückzuführen sind.

EDIT: Ich habe CHatGPT folgende Aufgabe zu meinem eigenen posting (bis hier oben drüber) gegeben:

"Give a short summary of the person's position towards AI in the text above." (also mein eigenes Posting)

Antwort von ChatGPT:

The person in the text recognizes that AI is already a reality and has brought about significant changes in various areas such as language recognition, automatic translation, image and video restoration, and noise reduction. They see both the fascination and the potential dangers of AI, including the emergence of deepfakes, which can be used for propaganda. They also acknowledge the potential benefits of AI, such as improving the efficiency and accuracy of tasks such as language translation, medical diagnosis, and weather forecasting. Overall, the person has a nuanced view of AI and acknowledges that there are both positive and negative aspects to its development and implementation.

Wieviel Prozent der Erwachsenen (Deutschen) würden das so gut hinbekommen, und in einem wievielfachen der Zeit? Muss man die Relevanz für die heutige Welt, wie sie funktiniert, erläutern?

bearbeitet von alba63
Link zum Beitrag
Auf anderen Seiten teilen

  • 2 weeks later...

Heute und vor einer Woche hatte ich noch mal etwas über natürlichsprachliche KI-Systeme generell (https://www.docma.info/blog/beantworten-sie-meine-frage) und über aus der Rolle fallende Chatbots (https://www.docma.info/blog/warum-sich-die-ki-selbst-radikalisiert) geschrieben.

Link zum Beitrag
Auf anderen Seiten teilen

vor 1 Stunde schrieb EmHa:

Musik kann auch durch AI erstellt werden:

https://soundraw.io

Das erinnert mich an ein Kölner Hotel, in dem ich mal während einer photokina übernachtet habe – zentral gelegen, aber sonst, na ja … Ich kann nicht sagen, was das Schlimmste am Hotel-Frühstück war: Brötchen, Kaffee, Orangensaft und alles andere auf dem Buffet, oder die GEMA-freie Musik, mit der der Raum beschallt wurde.

Link zum Beitrag
Auf anderen Seiten teilen

  • 1 month later...

So, jetzt habe ich mich mal bei Open AI angemeldet, um auch mal dieses Chat GPT auszuprobieren. 
 

Ich kam bei einem Worträtsel nicht weiter und wollte mir da von AI helfen lassen. 
 

Also, ich habe ganz sicher keine Angst vor AI. 
 

Hier mein erster und vorerst letzter Versuch mit sogenannter künstlicher Intelligenz. 
 

Nenne mir ein Wort mit fünf Buchstaben. Der zweite Buchstabe ist ein O. Der beiden letzten Buchstaben sind C und H. 

 

1 / 1

 

 

 

Etwas, das auf die Beschreibung passt, wäre das Wort "Brocke".

 

1 / 1

 

 

 

Magst Du die Aufgabe noch mal lesen?

Ich sagte die beiden letzten Buchstaben sind C und H. Bei die ist es K und E. Außerdem wollte ich ein Worh mit fünf Buchstaben. Dein genanntes Wort hat sechs Buchstaben. 

 

1 / 1

 

 

 

Es tut mir leid für das Missverständnis. Hier ist ein neuer Versuch: Ein Wort mit fünf Buchstaben, bei dem der zweite Buchstabe ein "O" ist und die beiden letzten Buchstaben "C" und "H" sind, wäre "Froch".

 

1 / 1

 

 

 

Meine Güte. Ich schrieb, dass der zweite Buchstabe ein O ist. Bei deinem Wort ist es der Dritte Buchstabe. 

 

1 / 1

 

 

 

Es tut mir sehr leid für diese Verwirrung und Fehler. Hier ist mein neuer Versuch: Ein Wort mit fünf Buchstaben, bei dem der zweite Buchstabe ein "O" ist und die beiden letzten Buchstaben "C" und "H" sind, wäre "Borch".

 

1 / 1

 

 

 

Ein anderes bitte. Ohne R. 

 

1 / 1

 

 

 

Entschuldigung für den erneuten Fehler. Hier ist ein neuer Vorschlag: Das Wort, das der Beschreibung entspricht, lautet "Ploch".

 

1 / 1

 

 

 

Ist bei Ploch der zweite Buchstabe ein O, so wie ich das in drr ursprünglichen Aufgabe gefordert habe?

 

1 / 1

 

 

 

Es tut mir leid, ich habe erneut einen Fehler gemacht. Das Wort "Ploch" erfüllt nicht die Anforderungen der ursprünglichen Aufgabe. Hier ist ein weiterer Vorschlag: Das Wort "Sloch" erfüllt die Bedingungen, bei denen der zweite Buchstabe ein "O" ist und die beiden letzten Buchstaben "C" und "H" sind.

 

1 / 1

 

 

 

Bist Du dir ganz sicher, dass der zweite Buchstabe bei Sloch ein O ist?

 

1 / 1

 

 

 

Es tut mir sehr leid, das war mein Fehler. Das Wort "Sloch" erfüllt die Bedingungen nicht, da der zweite Buchstabe kein "O" ist. Hier ist ein weiterer Vorschlag: Das Wort "Kloch" erfüllt die Bedingungen, bei denen der zweite Buchstabe ein "O" ist und die beiden letzten Buchstaben "C" und "H" sind.

 

Bist Du dir sicher?

 

1 / 1

 

 

 

Ja, ich bin mir sicher. Das Wort "Kloch" hat fünf Buchstaben, der zweite Buchstabe ist ein "O" und die beiden letzten Buchstaben sind "C" und "H".“

Link zum Beitrag
Auf anderen Seiten teilen

Diskutiere mit!

Du kannst direkt antworten und dich erst später registrieren. Wenn du bereits einen Account hast, kannst du dich hier anmelden, um unter deinem Usernamen zu posten.
Note: Your post will require moderator approval before it will be visible.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

×
×
  • Neu erstellen...