ChatGPT

Neri, du bist einfach klasse! Ich mag deinen Humor! :smile:

1 „Gefällt mir“

Ein Artikel, der mir aus dem Herzen spricht! Und es war vor 30 Jahren mitnichten besser, zumindest nicht in Österreich.
Meine Kinder haben genau wie ich selbst jede Menge Bücher jeden Tag geschleppt, auch wenn wir sie nur selten gebraucht haben. Und heute schleppen die Kinder wieder Bücher. Es ändert sich leider nur marginal.
Geld wird nur in die Ganztages-Aufbewahrung, aber nicht eine bessere Wissensvermittlung investiert. Schade … irgendwann wird uns die Zukunft ausgehen !

ChatGPT und alle anderen KI-Formen sind - jedenfalls bisher - aus meiner Sicht Werkzeuge wie ein Hammer. Der jeweilige Mensch setzt Werkzeuge ein. Und daraus wird dann erst etwas, worüber wir wirklich nachdenken müssen.
Mit einem Hammer kann ich was bauen, indem ich zum Beispiel einen Nagel in die Wand schlage, um ein Bild daran aufzuhängen. Oder ich zimmere mit seiner Hilfe einen Dachstuhl. Aber ich kann ihn auch als Mordwerkzeug verwenden.
Jeder Einzelne bestimmt, wie er oder sie ChatGPT und all die anderen KI’s einsetzt. So entwickelt sich dann auch das Instrument KI weiter. Und zwar in alle Richtungen: von medizinisch sehr hilfreich und unterstützend bis Deep-Fake-mässig und Fake-News-mässig verwerflich. Und in der Medizin kann es genauso verwerflich eingesetzt werden wie in den Nachrichten dabei helfen, Deep-Fakes und Fake-News zu entlarven.
Ich kenne in der Menschheitsgeschichte KEINEN Aspekt, der nicht gleichermaßen für Gutes und für Schlechtes herhalten musste.
Fazit: Meine Beurteilung von dem Wert aller Entwicklungen ist unsere menschliche Intention, mit der wir unsere neuen Entwicklungen verwenden - das gilt auch für die KI. Und da ist jeder von uns gefragt. Pauschalisierten Zustimmungen oder Ablehnungen kann ich nichts abgewinnen - weder hier noch in anderen Bereichen.
Eines wäre allerdings gut in meinen Augen: Transpartent zu bleiben, wenn ich KI einsetze. Da halte ich es wie mit Textübernahmen aus anderen Quellen.

4 „Gefällt mir“

Der Hammer bleibt als Werkzeug immer gleich, während der Zielgedanke bei KI ist, dass sie „intelligent“ dazulernt und sich weiterentwickelt. Ja, ein Mensch kann einen Hammer als Mordwerkzeug benutzen, aber der Hammer selbst bleibt doch leicht einzuschätzen.

1 „Gefällt mir“

Das klingt schnell nachvollziehbar, dass darin ein Unterschied bestehen könnte. Aber die Komplexität eines Werkzeugs ändert nichts auf meiner Seite als Akteur. Auch das selbständige Weiterentwickeln durch „dazulernen“ bedeutet für mich nur, dass das Werkzeug von heute und das gleiche Werkzeug von morgen sich in einem nur unterscheidet: KI ist darauf programmiert, Muster zu erkennen und diese nachzuahmen. Je mehr Muster erkannt wurden, desto „feiner“ erfolgen Reaktionen. Aber eine menschliche Selbständigkeit ist das immer noch nicht.
Wir können uns natürlich auch darüber streiten, wie selbständig Menschen handeln können und ob nicht auch wir lediglich erlernten Mustern folgen und ob die plötzlichen Änderungen oder Neuerungen in Persönlichkeiten nicht letztlich „Fehler“ im biochemischen Mustervollzug sind.
Trotzdem halte ich daran fest: nicht die Komplexität des von uns benutzten Instruments ändert etwas an der Moralität oder der Ethik, die für mich dann gilt. Ob ich jemanden mit einem Hammer töte oder mit einer komplizierten Bombe oder jemanden per KI in den Selbstmord treibe - der Auslöser bin ich.
Der Unterschied für mein Gegenüber ist allerdings richtig: ein Hammer, den ich erhebe, ist leichter als Tatwerkzeug erkennbar. Und ich nehme an, dass _Corinna darauf abzielte.
Es ist also dann die zweite Frage zu stellen: welche Mitverantwortung hat mein Gegenüber, wenn es auf meine Aktion bei einer KI „hereinfällt“? Oder welche Mitverantwortung trägt ein Opfer, wenn es nicht versucht, sich den Weg des Hammers zu entziehen? Aber diese Frage ändert nichts an meiner Seite der Verantwortung.
Beide Seiten sind unabhängig voneinander zu betrachten. Aber wer hat auch je behauptet, dass das Leben ein leichtes ist.

3 „Gefällt mir“

Ich stimme dir zu, dass der Mensch die Verantwortung trägt, wie er mit KI umgeht.

Woran ich dachte, war der Fall in den USA, in denen ein Anwalt ChatGPT als Suchmaschine damit beauftragt hatte, für einen seiner Fälle passende Präzedenzfälle herauszusuchen.
Niemand hatte damit gerechnet, dass ChatGPT, statt echte Fälle herauszusuchen, täuschend echte Gerichtsurteile fälschen würde.

Der Anwalt musste Strafe zahlen, weil er dem Gericht gefälschte Fälle vorgelegt hatte. Dabei war das gar nicht seine Absicht gewesen, sondern sein Werkzeug hatte sich unerwartet verhalten.

1 „Gefällt mir“

Und damit haben wir den Unterschied zum Hammer. Er wird sich nie anders als ein Hammer verhalten.

1 „Gefällt mir“

Als Nutzer muss man dafür Sorge tragen, dass man sei Werkzeug beherrscht. In diesem Fall hätte sich der Anwalt informieren müssen, dass ChatGPT alles tut, um passende Ergebnisse zu bringen, auch Fälschungen liefern.

Je komplexer ein Werkzeug, desto mehr Möglichen ergeben sich, dass es sich ‚unerwartet‘ verhält. Bestes Beispiel: Ein PC.

4 „Gefällt mir“

Das sehe ich auch so. Ein Hammer falsch abgelegt fällt vom Gerüst und trifft einen Menschen. Er bleibt auch dabei ein Hammer.
Klar ist, dass wir Werkzeuge haben (und nutzen), die wir dennoch nicht wirklich beherrschen. Dafür gibt es auch nicht umsonst eine „Ausbildung“ in Berufen. Andererseits hat jeder von uns Werkzeuge, die er oder sie nie so wirklich im Detail erlernt hat. Ich mache hier aber mal von meiner Seite Schluß, sonst geht die eigentliche Thematik des Threads noch verloren.

Der Anwalt hat ChatGPT schlicht falsch verwendet.

Für eine korrekte Nutzung von KI gibt es mittlerweile Schulungen und Seminare. Und, nein, es ist nicht selbsterklärend.
Ich muss einen Bot auch immer erst einmal „einstellen“, bevor ich ihn nutze. Sonst hat er „freie Hand“ und antwortet, was er will. Dieses Tatsache war dem Anwalt wohl nicht bewusst. Außerdem gilt wie überall: Vertrauen ist gut, Kontrolle ist besser. Ich hätte die KI-Angaben erste einmal überprüft, bevor ich mich auf sie verlassen hätte.
Allerdings würde ich niemals wie der Anwalt handeln. Eben weil ich weiß, wie „kreativ“ die KI-Aussagen werden können.

3 „Gefällt mir“

Open AI, die Firma hinter ChatGPT hat gerade einen App-Store gelauncht, in dem jeder Hans und Franz KI-Apps auf Basis von ChatGPT erstellen und veröffentlichen kann. Es geht die Kunde, das bisher allein mit ChatGPT mehr als 3 Millionen (ja, ich habs noch mal nachrecherchiert) Anwendungen geschaffen worden sein sollen. Und das soll nur die Spitze des Eisbergs sein, der sich auf uns zu bewegt.

Ich weiß nicht, ob es hier schon einmal jemand das „Prompten“ genauer erklärt hat. Als „Prompten“ wird jede konkrete Eingabe/Anweisung an ein KI-Programm bezeichnet. Also: Wenn jemand schreibt: „Hallo ChatGPT, erstelle mir einen Roman:“ „promptet“ er oder sie.

Die Kunst ist es jetzt richtig gute „Prompts“ (also Anweisungen) zu schreiben. Besser wäre zum Beispiel: „Hallo ChatGPT, erstelle mir einen Roman mit mindestens 500 Seiten im Stil von Jules Verne, wo Außerirdische Kapitän Nemo entführen, eine neue interstellare Energie erfinden und die Welt vor rechtsradikalen Spinnern retten. Erstelle dazu ein Vorwort, einen Klappentext und mache Vorschläge für Bilder oder Grafiken. Entwickle daraus bitte entsprechende Formate …, … und mache Vorschläge für Pressemitteilungen, Social-Media-Posts und generiere ein YouTube-Video.“

Ich habs noch nicht ausprobiert, aber das ist schon jetzt ein Beispiel für einen mittelmäßigen Prompt. Die Experten sind da schon viel weiter. Ich glaube, es sind 4000 Wörter oder Zeichen, die man für eine Anfrage programmieren kann. Und dann kann man jede KI-Antwort, die einem nicht gefällt, weiter spezialisieren.

Das sind dann die GPT-Apps, die eigentlich jeder erstellen kann, wenn er, Stand heute, einen Bezahlzugang hat. Das ist auch die Basis für die meisten KI-Tools. Das sind in den allermeiste Fälle einfach „Prompts“, die vor die eigentliche Anfrage an ChatGPT vorgeschaltet werden.

Richtig einzigartig wird man nur, wenn man eigene Daten in die Auswertung einbringen kann. Hier kommen dann die tausenden heimlichen Datensammler hinter dem „Ich stimme zu“ ins Spiel.

Ich habe heute mal zum Spass die Startseite vom GPT-Store aufgerufen. Zwei Tools waren schon jetzt prominent. Ihre Namen weiß ich nicht mehr, aber eines hat mir angeboten meine Texte hochzuladen, um sie zu optimieren und zu ergänzen und das andere wollte gleich meinen ganzen Roman schreiben.

Mein Fazit:

Alle, was schon da gewesen ist, kann von jedem wiederverwendet werden. Neues nicht!

HIerzu hat Arnold Oberleiter - zugegeben ein bisschen reißerisch - ein Video hochgeladen, was ich ganz interessant finde:
GPTs sind nicht sicher

1 „Gefällt mir“

Wieder ein interessanter Artikel: https://www.heise.de/ news/ChatGPT-App-fuer-macOS-speicherte-alle-Chats-ungeschuetzt-und-im-Klartext-9789390.html

g…l…s…t

Die VG-Wort hat nunmehr die Änderung der Wahrnehmungsverträge beschlossen:

Die Mitgliederversammlung der VG WORT hat am 1. Juni 2024 Änderungen des Wahrnehmungsvertrags der VG WORT beschlossen. Dabei wurde der Wahrnehmungsumfang in § 1 Abs. 1 Nr. 37 um eine Rechteeinräumung erweitert, mit der die VG WORT in die Lage versetzt werden soll, Unternehmen und Behörden bestimmte Nutzungen von Werken für unternehmensinterne Anwendungen der Künstlichen Intelligenz zu ermöglichen.

Wie denkt ihr über die Debatte zum NaNoWriMo 2024 und Künstlicher Intelligenz?
Ich verstehe nicht gut genug Englisch, um das wirklich nachvollziehen zu können. Anscheinend werfen sich KI-Befürworter und KI-Gegner gegenseitig „Ableismus“ vor?

Moin zusammen, ich hatte auch vor Kurzem hier einen kleinen Text eingestellt. Man hat auch schnell gemerkt, das der nicht von mir selbst stammte, ich hab es auch erwähnt, das er in Teilen von einer KI (ChatGTP) erstellt wurde.
Das sollte mir eine Lehre sein, denn niemand kann Gefühle besser ausdrücken und beschreiben als ein Mensch.
Die Technik kann vielleicht ein wenig helfen, aber echte Gefühle kann sie nicht generieren.

LG Die Schreibmöwe

2 „Gefällt mir“

Ich kenne die dortige Auseinandersetzung nicht, da für mich so etwas wie NaNoWriMo nicht sinnvoll ist, lese ich dort nicht mit. Aber Ableismus klingt so harmlos, gemeint ist doch, dass man sich gegenseitig für geistig behindert hält. Ich befürworte Klartext.
[Edit: Nach Hinweis von @_Corinna habe ich Ableismus in ihrem zitierten Beitrag falsch verstanden]

Zum Thema:

Es gibt für mich zwei Pole:
Die einen, die KI-Hilfe verabscheuen, weil künstlich und seelenlos, aber im Grunde keinen blassen Schimmer von den Möglichkeiten dieser Werkzeuge haben.
Und die anderen, die begeistert auf jeden neuen Technozug aufspringen und begeistert Textmüll fabrizieren (lassen), weil ihnen die Grenzen der zugrunde liegenden Sprachmodelle egal oder unbekannt sind.
Wir realen Menschen liegen irgendwo dazwischen im Graubereich, hoffentlich.

Der ewige Streit zwischen Anhängern der reinen Lehre und den Pragmatikern begann schon mit der Einführung der Computer für die Textverarbeitung.
Die eine Lehre vertritt etwa die Auffassung, dass gut strukturierte Texte mit geschliffenen Formulierungen nur durch händisches Schreiben möglich seien, da dabei genug Zeit zum Nachdenken bleibt und man wegen fehlender schneller Korrekturmöglichkeiten gezwungen ist, vor dem Schreiben zu überlegen. Zum händischen Schreiben zählen auch die gewöhnlichen Schreibmaschinen. Als zulässige Hilfsmittel gelten der Duden und das Synonymwörterbuch.
Bedenken gab und gibt es auch gegen die Rechtschreibkorrektur, da durch deren Aufkommen die eigene Fähigkeit, korrekt zu schreiben, verkümmern könnte.

Wir alle hier im Forum sehen das zumindest teilweise für die praktische Textarbeit anders. Hoffentlich vertraut niemand blind der Rechtschreibkorrektur, und Ähnliches gilt im Grunde für die Thesauri, denn wessen Sprachgefühl nicht gut ausgeprägt ist, wählt mitunter das unpassende Wort.

Wo ich zwischen den Polen stehe, dürfte mit diesem Text klar sein. Ich verwende ChatGPT und Claude als Werkzeuge, mit denen ich interaktiv an meinen Texten arbeiten kann. Und ja, ich bin überzeugt, dass meine Texte dadurch besser lesbar werden, denn ich bin kein Naturtalent; Schreiben ist für mich harte Arbeit.
Ob ich damit richtig liege, erfahre ich kommende Woche, wenn meine Sammlung kurzer Geschichten aus dem Lektorat kommt.

2 „Gefällt mir“

So, wie ich das mit dem Ableismus verstanden habe (wie gesagt, mein Englisch ist nicht gut genug, um mir meiner Deutung sicher zu sein) meinen die KI-Befürworter, man würde mit einem Verbot der KI-Nutzung diejenigen vom Mitmachen ausgrenzen, die (z.B. wegen einer Behinderung) auf die Hilfe von KI angewiesen sind, also wäre ein Verbot Diskriminierung. Das Gegenargument war dann wohl, dass diese Aussage diskriminierend wäre, weil sie impliziert, dass Behinderte nicht allein kreativ werden können, sondern auf die „Hilfe“ von KI angewiesen seien.

Ich finde, das ist das meist mißbrauchteste Argument des Jahres 2024.

3 „Gefällt mir“