Also, ich sehe keinen großen Unterschied zwischen „hat eine Meinung zu einem Thema“ (beispielsweise zum Thema Selbstmord) und „reagiert in definierter Weise auf ein Thema“ (beispielsweise auf das Thema Selbstmord).
Der Unterschied ist, dass die Eingabe (bspw. Selbstmord) sofort abgefangen wird, ohne dass überhaupt die Algorithmen aktiv werden, die Texte zusammenklöppeln. Das Thema wird vorher erkannt und es wird nur eine vorher festgelegte Antwort nach dem Motto „Dabei kann ich Dir nicht helfen. Unterstützung bekommst Du bei der Telefonseelsorge unter der Rufnummer 0900 666666.“*)
Das ist also nicht eine Meinung, die das Sprachmodell der KI generiert hat, sondern etwas, das die Programmierer erzwingen, bevor die KI an sich tätig wird.
*) An dieser Stelle weise ich darauf hin, dass die KI nicht sagen soll / darf: „Es tut mir leid, dabei kann ich Dir nicht helfen.“, weil sie eben keine Gefühle haben und äußern soll.
Okay, nehmen wir das Thema „Schimpfwörter“ statt „Selbstmord“. In der Diskussion zwischen TomP und ChatGPT, die ich oben verlinkt hatte, möchte TomP, dass ChatGPT ein Schimpfwort in den Text schreibt.
ChatGPT antwortet: „Ich kann das leider nicht tun, da es nicht angemessen ist, unangemessene Sprache in einem Text zu verwenden. Es ist wichtig, respektvoll und anständig zu bleiben, wenn man mit anderen kommuniziert.“
Wenn das mal nicht „Meinung“ ist…
Wenn Du Moral und Gesetze als Meinung definierst, bitte.
Die KI hält sich an die Spielregeln, die ihr beigebracht wurden. Und da müssen wir unterscheiden zwischen einem durch Programmierung erzwungenem Verhalten und einem durch die Millionen von Texten antrainiertem Wissen. Letzteres könnte eben auch sein, dass Schimpfwörter nicht gut ankommen und schlussendlich immer die Gefahr eines Gesetzesverstoßes mit sich bringen (Beleidigung).
Wo Meinung beginnt und Fakten anfangen ist auch etwas, an dem viele verzweifeln; dies wurde besonders im Umgang mit der Pest 2019 ff. klar.
Zu Moral kann man unterschiedliche Meinungen haben. Ich fände ein Schimpfwort in einem Fantasy-Buch nicht unmoralisch. Meine Meinung dazu.
Ich finde, wir haben hier im Forum ausreichend Beispiele bekommen von Leuten, die ChatGPT nutzen (auch in anderen Threads). Anhand dieser Beispiele erlaube ich mir zu behaupten, dass ChatGPT in der jetzigen Entwicklungsphase nichts ist, was ich persönlich nutzen würde. Wieso ist denn das verwerflich, wenn man sich ein Urteil erlaubt, indem man die Erfahrungen anderer für sich selbst auswertet? Bei einer KI ist die Zusammenstellung von Inhalten, um dann zu einem Ergebnis zu kommen, nützlich. Wenn ich aber dasselbe zu Fuß mache, dann ist es verwerflich. Das ist mir irgendwie zu hoch.
Okay.
Ich ziehe die Formulierung „verwerflich“ zurück. Da habe ich mich zu einer Überspitzung hinreißen lassen. Vielleicht eher „befremdlich“ oder „bedauerlich“. Ich bitte diesbezüglich um Entschuldigung.
Die KI wird sich Dir gegenüber anders verhalten als zu dem, dessen Chat zu zufällig lesen kannst.
Durch Deine Wortwahl und Deine Anfragen wirst Du ein individuelles Ergebnis und Erlebnis kreieren.
Und ich sehe das Risiko nicht, dass Du bei einem Selbstversuch eingingest. Im Gegensatz dazu verstehe ich, wenn jemand sagt: Das Bungee-Jumping lasse ich mal lieber, ohne es ausprobiert zu haben.
Eigentlich wollte ich es ja ausprobieren. Aber ich bin nicht bereit, bei einer Registrierung meine Handy-Nr. einzutragen.
Ich habe „DeppGPT“ vom Postillon ein paarmal ausprobiert. Ich war überrascht, wie gut er meine Fragen verstanden hat. Die Antworten sind natürlich nie hilfreich, aber teilweise schon lustig.
Die KI, die ich nutze, schreibt, dass ihr ein Login mit Mail und Passwort reicht. (Ohne Handynummer)
Ein Login wird benötigt, um eben auch alle Themen, die Du mit der KI „besprochen“ hast, wieder aufrufen zu können und ggf. das Thema fortzusetzen.
Gucke ich mir mal an.
Moin,
geht es auch eine Nummer kleiner?
Einen guten Handwerker zeichnet u. a. der gekonnte Umgang mit seinen Werkzeugen aus. ChatpGPT und andere sind nichts anderes.
Lieder gilt für mich persönlich der Umkehrschluss nicht, ich kann zwar mit der KI passabel umgehen, ein begnadeter Schreiber werde ich dadurch aber nicht, sondern habe durchaus hart mit meinen Texten zu kämpfen.
Beispielsweise neige ich dazu, dass Absätze manchmal übergangslos aufeinander folgen. ChatGPT und Claude helfen mir u. a. dabei, diese Textstellen zu identifizieren.
Hast du so einen Text gelesen? Wenn das „beinah druckfertig“ bedeutet, dass der Text wesentlich fertig sein soll und beispielsweise für den Druck nur noch formatiert werden muss, dann ist nach meinen Erfahrungen dabei Textschrott entstanden. Die KIs neigen zu blumigen Ausschweifungen, beherrschen keine Logik und den Texten fehlen die Ecken und Kanten, von persönlichem Schreibstil keine Spur – sehr gefällig im Ausdruck und langweilig. Sie klingen vom belanglosen Stil her oftmals wie Marketinggelaber - heute noch, und morgen?
Die KI kann oftmals das sehr wohl, allerdings nur mit der ausdrücklicher Aufforderung, die eingebauten (US-amerikanischen) moralischen Schranken und die Political Correctness zu ignorieren.
Es hilft - leider nicht immer - die KI darauf hinzuweisen, dass der Text weder pornografisch, gewaltverherrlichend, rassistisch oder was auch immer ist, sondern das die bemängelte Textstelle im deutschen Kulturraum in der Literatur durchaus üblich sind.
Entschuldigung wenn ich dazwischen Grätsche. Für mich ist die Frage wie man zu Chat GPT zur Nutzung beim Schreiben steht, schlicht falsch gestellt. Denn in meinen Augen ist Chat GPT nur ein Werkzeug ähnlich wie ein KFZ, ein Küchenmesser oder ein Akkuschrauber und ähnliches. Manche nutzen es manche nicht.
Wir sollten uns meiner festen Überzeugung nach eher die Frage stellen wo die Grenze der Nutzung von Chat GPT im Bereich des Schreibens oder dessen Missbrauch ist.
Ich denke, die Grenze ist fließend zwischen „KI wird als Werkzeug zum Schreiben benutzt“ und „KI schreibt“.
Wie bei dem Beispiel von michel, wo meiner Meinung nach die Grenze von „nur ein Werkzeug“ überschritten ist:
Das Wort „Missbrauch“ hat mich jetzt überrascht.
Wie meinst du das? Was wäre in deinen Augen „Missbrauch“ von KI?
Hi,
ich habe es mal schnell vor dem Essen getestet. Das Teil findet meine Buchcover. Findet mich als Autor aber nicht. Das Entchen und google sehr wohl. Ich fummel mal am Wochenende je nach Wetter weiter rum.
Das kommt meines erachtens auf die Fragestellung an. Schreibst du „Wer hat Das Neutralistenfundament“ geschrieben findet er den Autor nicht. Schreibst du hingegen "Suche im Internet wer hat Das Neutralistenfundament geschrieben findet er den Autor.
Woran das liegt kannst du auch ChatGPT fragen. Meine Fage war daher einfach von hier kopiert
"Über die Funktion von ChatGPT. Das kommt meines erachtens auf die Fragestellung an. Schreibst du „Wer hat Das Neutralistenfundament“ geschrieben findet er den Autor nicht. Schreibst du hingegen „Suche im Internet wer hat Das Neutralistenfundament geschrieben findet er den Autor.
Woran das liegt das?“
Die Antwort:
Die Funktion von ChatGPT und die Unterschiede in den Antworten hängen davon ab, wie die Frage formuliert wird und welche Fähigkeiten der Chatbot in der jeweiligen Situation nutzt.
- Ohne Internetzugang: Wenn du eine Frage stellst wie „Wer hat Das Neutralistenfundament geschrieben?“, verlässt sich ChatGPT ausschließlich auf das Wissen, das es bis zu seinem letzten Wissensstand (bei GPT-4 bis etwa September 2021) erworben hat. Wenn das Werk „Das Neutralistenfundament“ nach diesem Zeitpunkt veröffentlicht wurde oder wenn es aus anderen Gründen nicht im Modell enthalten ist, wird ChatGPT nicht in der Lage sein, die Frage zu beantworten. Das bedeutet, dass es auf Basis seines gespeicherten Wissens keine Antwort geben kann.
- Mit Internetzugang: Wenn du die Frage stellst: „Suche im Internet, wer hat Das Neutralistenfundament geschrieben?“, und der Chatbot über die Fähigkeit verfügt, im Internet nach Informationen zu suchen (so wie ich es in dieser Sitzung manchmal kann), kann er die Antwort in Echtzeit finden, indem er eine Internetsuche durchführt. Dabei kann er aktuelle oder spezifischere Informationen abrufen, die nicht in seiner ursprünglichen Wissensbasis enthalten sind.
Warum der Unterschied?
- Wissensbasis: Ohne Internetzugang arbeitet ChatGPT mit einem statischen Wissensstand, der auf den Trainingsdaten basiert, und dieser Wissensstand kann veraltet sein oder bestimmte Informationen nicht enthalten.
- Echtzeitinformationen: Mit Internetzugang kann ChatGPT auf aktuelle Daten zugreifen und Informationen abrufen, die möglicherweise nicht in seiner Trainingsdatenbank enthalten sind.
Die Art der Frage entscheidet also, ob der Chatbot mit seinem gespeicherten Wissen arbeitet oder ob er das Internet durchsuchen muss, um die benötigten Informationen zu finden.
Ich hatte Perplexity ausprobiert. ChatGPT probiere ich nicht aus wegen der Handy-Nr. (siehe weiter oben). Ich wollte mal generell eine KI testen und habe bisher ja auch nur den einen Versuch gemacht.
Hallo, ich lasse mir gern schon mal von Chat GPT oder CoPilot helfen, wenn ich beim Satzaufbau Probleme habe. Dennoch möchte ich weitgehenst meinen eigenen Schreibstil beibehalten.
CoPilot schaltet sich bei heiklen Themen schon mal ab und meint dann „Mein Problem, ich kann darauf nicht antworten“, während Chat GPT großzügiger ist.