Das ist für mich der Knackpunkt. Ich diskutiere mit anderen Menschen und nicht mit einer Maschine.
Im Alltag diskutiert und spricht man mehr mit Maschinen, als man denkt. Egal, ob es jetzt eine KI ist, oder der Ticketautomat bei der Bahn. Der Fire TV stick, Google, oder sonst was.
Ich rede mit keinem Ticketautomaten, denn ich fahre nicht Bahn. Ich habe keinen TV stick, ich rede nicht mit google, denn ich tippe dort etwas ein (allerdings bei der Ente), ich rede mit keiner einzigen Maschine, Automaten oder Ähnlichem. Ich spreche weder auf Mailboxen noch nutze ich Whatsapp. Ich schreibe Nachrichten (nicht über Whatsapp), ich verschicke aber keine Sprachnachrichten. Ich persönlich rede nur mit Menschen, in dem Sinne, dass ich meine Stimme einsetze. Wenn du das Eintippen, wie ich es jetzt hier gerade mache, als einen Teil von „Reden“ siehst, stimme ich dir zu.
Reden/Sprechen hat auch kaum etwas mit Diskutieren zu tun. Zurück zu deinen Beispielen. Du diskutierst tatsächlich mit einem Ticketautomaten? Wenn ich es denn täte und der Automat anfinge, mit mir über den Preis zu diskutieren, würde ich zum Infoschalter gehen, einen Menschen ansprechen und ihm mitteilen, dass der Automat entweder kaputt ist oder seine eigenen Preise nicht kennt.
Was redest du denn bitte schön mit deinem TV stick? (Ach übrigens: Ich habe keine Alexa und werde mir auch keine anschaffen). Ich rede ausschließlich mit Menschen, obwohl mein Mann immer sagt, ich würde mit dem Bildschirm quatschen, wenn ich Anno1800 spiele. Das gebe ich auch unumwunden zu.
In unseren Tv-Stick ist eine Alexa mit bei :D. Diskutieren und sprechen habe ich ja extra erwähnt, damit man weiß, was gemeint ist. Das du mit keinen Ticketautomaten schnick, schnack, schnuck spielst für 50% Rabatt ist mir bewusst, haha.
Diskussion erfordert eine Meinung. Mir ist keine KI bekannt, die so etwas hat.
Hier ist eine wunderschöne Diskussion zwischen @tomP und ChatGPT:
Aber was die Diskussion lesenswert, amüsant und unterhaltsam macht, ist der kreative Einfallsreichtum von TomP, nicht der Text der KI.
Schade, dass ich diesen Thread viel zu spät entdeckt habe.
Ich nutze KI häufig in meinem Leben, auch bei der Recherche zu meinen Texten. Auch als Ideengeber, wenn mir selbst mal nichts plausibles einfällt, wie ich eine Situation in meinem Text auflösen könnte.
Ich rate übrigens von Chat-GPT ab, ich empfehle eine kostenpflichtige Meta-KI, also ein System, das mehrere andere KIs im Hintergrund befragt und daraus wiederum eine eigene Antwort generiert. Das reduziert das Thema Halluzinationen oder Erfindungen.
Genau das soll auch so sein. KI-Modelle werden auf eine Menge Dinge trainiert. (Eine Freundin von mir macht das inzwischen hauptberuflich. Sie überprüft KI-Antworten oder soll Eingaben erstellen, auf die die KI in definierter Weise reagieren soll, bspw. keine Tipps geben zum Selbstmord oder Bombenbau.)
Eine KI soll keine Meinung äußern und keine Gefühle haben (oder eben transportieren).
In unserer Schreibwerkstatt haben wir als Aufgabe mal einen KI-Text (Kurzgeschichte über einen Magier, der sich mit dem Bösen™ verbündet, um mächtig zu werden (quasi Faust in Kurzform) bekommen und sollten dann zu dem Thema einen eigenen Text schreiben. Im Ergebnis fanden wir die humanen Texte deutlich besser (mit mehr Seele) als den maschinengenerierten.
Ich finde es falsch, neue Werkzeuge und Hilfsmittel per se abzulehnen. Ich finde es richtig, zu prüfen, wie ich etwas Neues in meine Arbeit einbauen kann, um besser zu werden. Vor allem finde ich es verwerflich, über KI zu urteilen, ohne es jemals ausprobiert zu haben.
Also, ich sehe keinen großen Unterschied zwischen „hat eine Meinung zu einem Thema“ (beispielsweise zum Thema Selbstmord) und „reagiert in definierter Weise auf ein Thema“ (beispielsweise auf das Thema Selbstmord).
Der Unterschied ist, dass die Eingabe (bspw. Selbstmord) sofort abgefangen wird, ohne dass überhaupt die Algorithmen aktiv werden, die Texte zusammenklöppeln. Das Thema wird vorher erkannt und es wird nur eine vorher festgelegte Antwort nach dem Motto „Dabei kann ich Dir nicht helfen. Unterstützung bekommst Du bei der Telefonseelsorge unter der Rufnummer 0900 666666.“*)
Das ist also nicht eine Meinung, die das Sprachmodell der KI generiert hat, sondern etwas, das die Programmierer erzwingen, bevor die KI an sich tätig wird.
*) An dieser Stelle weise ich darauf hin, dass die KI nicht sagen soll / darf: „Es tut mir leid, dabei kann ich Dir nicht helfen.“, weil sie eben keine Gefühle haben und äußern soll.
Okay, nehmen wir das Thema „Schimpfwörter“ statt „Selbstmord“. In der Diskussion zwischen TomP und ChatGPT, die ich oben verlinkt hatte, möchte TomP, dass ChatGPT ein Schimpfwort in den Text schreibt.
ChatGPT antwortet: „Ich kann das leider nicht tun, da es nicht angemessen ist, unangemessene Sprache in einem Text zu verwenden. Es ist wichtig, respektvoll und anständig zu bleiben, wenn man mit anderen kommuniziert.“
Wenn das mal nicht „Meinung“ ist…
Wenn Du Moral und Gesetze als Meinung definierst, bitte.
Die KI hält sich an die Spielregeln, die ihr beigebracht wurden. Und da müssen wir unterscheiden zwischen einem durch Programmierung erzwungenem Verhalten und einem durch die Millionen von Texten antrainiertem Wissen. Letzteres könnte eben auch sein, dass Schimpfwörter nicht gut ankommen und schlussendlich immer die Gefahr eines Gesetzesverstoßes mit sich bringen (Beleidigung).
Wo Meinung beginnt und Fakten anfangen ist auch etwas, an dem viele verzweifeln; dies wurde besonders im Umgang mit der Pest 2019 ff. klar.
Zu Moral kann man unterschiedliche Meinungen haben. Ich fände ein Schimpfwort in einem Fantasy-Buch nicht unmoralisch. Meine Meinung dazu.
Ich finde, wir haben hier im Forum ausreichend Beispiele bekommen von Leuten, die ChatGPT nutzen (auch in anderen Threads). Anhand dieser Beispiele erlaube ich mir zu behaupten, dass ChatGPT in der jetzigen Entwicklungsphase nichts ist, was ich persönlich nutzen würde. Wieso ist denn das verwerflich, wenn man sich ein Urteil erlaubt, indem man die Erfahrungen anderer für sich selbst auswertet? Bei einer KI ist die Zusammenstellung von Inhalten, um dann zu einem Ergebnis zu kommen, nützlich. Wenn ich aber dasselbe zu Fuß mache, dann ist es verwerflich. Das ist mir irgendwie zu hoch.
Okay.
Ich ziehe die Formulierung „verwerflich“ zurück. Da habe ich mich zu einer Überspitzung hinreißen lassen. Vielleicht eher „befremdlich“ oder „bedauerlich“. Ich bitte diesbezüglich um Entschuldigung.
Die KI wird sich Dir gegenüber anders verhalten als zu dem, dessen Chat zu zufällig lesen kannst.
Durch Deine Wortwahl und Deine Anfragen wirst Du ein individuelles Ergebnis und Erlebnis kreieren.
Und ich sehe das Risiko nicht, dass Du bei einem Selbstversuch eingingest. Im Gegensatz dazu verstehe ich, wenn jemand sagt: Das Bungee-Jumping lasse ich mal lieber, ohne es ausprobiert zu haben.
Eigentlich wollte ich es ja ausprobieren. Aber ich bin nicht bereit, bei einer Registrierung meine Handy-Nr. einzutragen.
Ich habe „DeppGPT“ vom Postillon ein paarmal ausprobiert. Ich war überrascht, wie gut er meine Fragen verstanden hat. Die Antworten sind natürlich nie hilfreich, aber teilweise schon lustig.
Die KI, die ich nutze, schreibt, dass ihr ein Login mit Mail und Passwort reicht. (Ohne Handynummer)
Ein Login wird benötigt, um eben auch alle Themen, die Du mit der KI „besprochen“ hast, wieder aufrufen zu können und ggf. das Thema fortzusetzen.
Gucke ich mir mal an.
Moin,
geht es auch eine Nummer kleiner?
Einen guten Handwerker zeichnet u. a. der gekonnte Umgang mit seinen Werkzeugen aus. ChatpGPT und andere sind nichts anderes.
Lieder gilt für mich persönlich der Umkehrschluss nicht, ich kann zwar mit der KI passabel umgehen, ein begnadeter Schreiber werde ich dadurch aber nicht, sondern habe durchaus hart mit meinen Texten zu kämpfen.
Beispielsweise neige ich dazu, dass Absätze manchmal übergangslos aufeinander folgen. ChatGPT und Claude helfen mir u. a. dabei, diese Textstellen zu identifizieren.
Hast du so einen Text gelesen? Wenn das „beinah druckfertig“ bedeutet, dass der Text wesentlich fertig sein soll und beispielsweise für den Druck nur noch formatiert werden muss, dann ist nach meinen Erfahrungen dabei Textschrott entstanden. Die KIs neigen zu blumigen Ausschweifungen, beherrschen keine Logik und den Texten fehlen die Ecken und Kanten, von persönlichem Schreibstil keine Spur – sehr gefällig im Ausdruck und langweilig. Sie klingen vom belanglosen Stil her oftmals wie Marketinggelaber - heute noch, und morgen?
Die KI kann oftmals das sehr wohl, allerdings nur mit der ausdrücklicher Aufforderung, die eingebauten (US-amerikanischen) moralischen Schranken und die Political Correctness zu ignorieren.
Es hilft - leider nicht immer - die KI darauf hinzuweisen, dass der Text weder pornografisch, gewaltverherrlichend, rassistisch oder was auch immer ist, sondern das die bemängelte Textstelle im deutschen Kulturraum in der Literatur durchaus üblich sind.