Geld verdient man in meinen Augen eher durch geschicktes Marketing. Ist genauso wie bei Musik. Davon, dass etwas hochwertig ist, verkauft es sich noch nicht. Und zum Schluss ist „da, da, da“ auf Platz 1.
Momentan vielleicht noch. Wir stehen aber noch ganz am Anfang.
Ich habe ChatGPT mal Situationen geschildert mit der Bitte, mir Vorschläge zu machen, wie man die am besten beschreiben kann. Das Problem dabei war, dass alle Vorschläge klischeehaft waren. Das ist auch logisch, denn klischeehaft ist das, was häufig vorkommt und da KIs mit Statistik arbeiten und das sagen, was statistisch gesehen am wahrscheinlichsten ist, treffen sie eben am ehesten die Klischees.
Deswegen sind KIs zum Schreiben ungeeignet, außer, man will das schreiben, was schon 1000 Mal geschrieben wurde. Darum erwarte ich in absehbarer Zeit auch keine echten Meisterwerke von KIs.
KIs sind aber gut zur Recherche. Ja, sie können auch Unwahrhreiten sagen, aber sie können einem überhaupt erstmal einen Blick auf gewisse Dinge eröffnen, die man in der Geschwindigkeit sonst nirgends bekommen hätte.
Ich empfehle euch hier innerhalb von ChatGPT mal auf „GPTs erkunden“ und dort auf „Consensus“ zu gehen. Consensus schaut nur in Wissenschaftsdatenbanken. Sehr interessant, was man da in Sekunden erfahren kann und zumindest die Quellen sind sauber ausgewählt. Man kann dann in den Studien selbst noch was nachlesen. Ihr findet Consensus auch unter https://consensus.app/
Nicht beabsichtigt reicht mir nicht. Und ich werde mit Sicherheit niemals Aufwand betreiben, für etwas, das ich nur mal ausprobieren möchte. Wenn ich es nach einem Test kaufen möchte, sieht das wieder ganz anders aus.
Außerdem glaube ich keiner Maschine, die mir auf skeptische Fragen in ihrem Sinne antwortet. Ich sage nur HAL. Damals war es Science Fiction, heute ist es nicht mal mehr Science, sondern „nur“ noch Technik und Fiction nur noch bedingt.
Ich habe ChatGPT mal zur Vorrecherche für wissenschaftliche Texte ausprobiert. Das war so grottenschlecht und selbst dann, als ich den Prompt so formuliert hatte, dass mir wissenschaftliche Quellen angeboten wurden, war das Ergebnis gruselig. Es geht für mich schneller und qualitativ deutlich hochwertiger, wenn ich es selbst schreibe. Außerdem möchte ich „meine“ Bücher schreiben. ChatGPT kann sich selbst mit eigenen Büchern verwirklichen
Wenn ich nicht alles lesen soll, was das Ding schreibt, warum hast du es dann gepostet?
Wie dem auch sei. Ich werde es jedenfalls erst dann ausprobieren, wenn keine Handynummer mehr verlangt wird. Sollte sich das nicht ändern - was wahrscheinlich ist - dann werde ich es eben nicht ausprobieren. Du testest das Teil ja zur Genüge. Und da du uns stets daran teilhaben lässt, verpasse ich ja auch nichts.
Ich habe Schwierigkeiten gehabt, mir meine Feinde vorzustellen. Weil ich was anderes als Orks haben wollte, hatte ich mir eine Art Echsenmenschen erschaffen. Die konnte ich aber schlecht beschreiben, weil sie in meiner Vorstellung immer langweilig aussahen. Also hab ich (wirklich passiert) den kompletten Text eines Kapitels, in dem diese Wesen vorgestellt werden, bei ChatGPT abgeworfen. Das hat daraufhin in DALL-E Bilder meiner Feinde ausgegeben. Und die sahen dann auch tatsächlich gruselig aus. So hat also ChatGPT über den Bildgenerator DALL-E mir ein besseres Verständnis über meine eigenen Kreationen gegeben.
Nur bedingt. Ich würde mich da auf nichts verlassen.
Das liegt ja dann an mir. Aber aus dem, was schon 1000 Mal geschrieben wurde, könnte ich ja wieder Inspirationen erhalten. Geht mir zumindest so.
Ich würde ChatGPT nicht nach Wissen fragen, das ich nicht selbst habe.
Was ich mir aber bei wissenschaftlichen Arbeiten vorstellen könnte, wäre z. B. durch ChatGPT eine Gliederung erstellen zu lassen und die dann mit meiner abzugleichen. Ich könnte auch mein Inhaltsverzeichnis hochladen und fragen, ob ich was vergessen habe. Oder ich könnte Strukturen in meinem Buch diskutieren.
Ich verwende ChatGPT für die Vorrecherche. Zum Beispiel schreibe ich einen historischen Roman, der um 1820 in Wien spielt. Die Stadt sollte möglichst der Zeit entsprechend wiedergegeben werden. Ich benötige für den Roman einen Bücherladen. Also gebe ich in ChatGPT „Wien, um 1820 welche Bücherläden gab es“ ein. Es werden mir sechs Bücherläden angezeigt, und gleich der erste „der Trattnerhof“ klingt interessant. Die nächste Frage lautet: „Erzähle mir mehr über den Trattnerhof“. Dann erhält man das Rundumpaket mit Informationen über Geschichte, Architektur, Lage, Tod des Gründers und Erbe. Zum Schluss überprüfe ich das Ergebnis mit Google und habe innerhalb weniger Minuten meine Recherche abgeschlossen, mit genügend Hintergrundinfos, die ich in meinem Roman verwenden kann. Ich möchte auf dieses Hilfsmittel nicht mehr verzichten.
Gerade für solche Arten von Recherche sind KIs wirklich Gold wert. Man nimmt ja nicht den Output der KI, sondern benutzt sie wie eine Suchmaschine, nur eben mit konkreten Fragen. Die KI durchforstet auf Befehl dann ihre Trainingsdaten und wirft aus, was sie hat. Das Durchforsten kann man sich dann selbst sparen, man muss nur noch überprüfen, ob das auch stimmt.
Nebenbei: Auf Wikipedia kann jeder was schreiben, da kann auch Unsinn stehen. So wie auf jeder Webseite. Selbst wissenschaftliche Studien können falsche Ergebnisse liefern. Und wenn 5 Nachrichtenseiten das Gleiche berichten, haben sie vielleicht auch nur aus der einen Quelle der DPA abgeschrieben, die ungenau sein könnte.
Auch dafür kann man sie benutzen. Ich schrieb ja von konkreten Textvorschlägen. Die würde ich nicht nehmen, aber schauen, wie andere das machen, kann man natürlich schon.
Alles in allem sind KIs tolle Werkzeuge - nur nicht zum Generieren von Text für einen eigenen Roman.
Ich verstehe nicht, warum alle immer auf Textvorschläge kommen. Ich will doch selbst schreiben - das ist doch der Spaß dabei. Manchmal haperts halt nur an Ideen oder einem fehlt irgendeine Inspiration. Sowas diskutiert man dann ja auch häufig mal mit anderen Personen. Und genau dieses Diskutieren kann ChatGPT ziemlich gut, weil es ein sehr breites Spektrum an Wissen hat. Dieses Wissen darf man halt nur nicht ungeprüft übernehmen.
Weil das unsere Ängste anspricht, die Sorge durch KI ersetzt zu werden. Oder, weil es unsere Gier anspricht, weil wir hoffen, ohne Arbeit reich und berühmt zu werden. Deswegen denken wir als erstes daran (denke ich).
Im Alltag diskutiert und spricht man mehr mit Maschinen, als man denkt. Egal, ob es jetzt eine KI ist, oder der Ticketautomat bei der Bahn. Der Fire TV stick, Google, oder sonst was.
Ich rede mit keinem Ticketautomaten, denn ich fahre nicht Bahn. Ich habe keinen TV stick, ich rede nicht mit google, denn ich tippe dort etwas ein (allerdings bei der Ente), ich rede mit keiner einzigen Maschine, Automaten oder Ähnlichem. Ich spreche weder auf Mailboxen noch nutze ich Whatsapp. Ich schreibe Nachrichten (nicht über Whatsapp), ich verschicke aber keine Sprachnachrichten. Ich persönlich rede nur mit Menschen, in dem Sinne, dass ich meine Stimme einsetze. Wenn du das Eintippen, wie ich es jetzt hier gerade mache, als einen Teil von „Reden“ siehst, stimme ich dir zu.
Reden/Sprechen hat auch kaum etwas mit Diskutieren zu tun. Zurück zu deinen Beispielen. Du diskutierst tatsächlich mit einem Ticketautomaten? Wenn ich es denn täte und der Automat anfinge, mit mir über den Preis zu diskutieren, würde ich zum Infoschalter gehen, einen Menschen ansprechen und ihm mitteilen, dass der Automat entweder kaputt ist oder seine eigenen Preise nicht kennt.
Was redest du denn bitte schön mit deinem TV stick? (Ach übrigens: Ich habe keine Alexa und werde mir auch keine anschaffen). Ich rede ausschließlich mit Menschen, obwohl mein Mann immer sagt, ich würde mit dem Bildschirm quatschen, wenn ich Anno1800 spiele. Das gebe ich auch unumwunden zu.
In unseren Tv-Stick ist eine Alexa mit bei :D. Diskutieren und sprechen habe ich ja extra erwähnt, damit man weiß, was gemeint ist. Das du mit keinen Ticketautomaten schnick, schnack, schnuck spielst für 50% Rabatt ist mir bewusst, haha.
Schade, dass ich diesen Thread viel zu spät entdeckt habe.
Ich nutze KI häufig in meinem Leben, auch bei der Recherche zu meinen Texten. Auch als Ideengeber, wenn mir selbst mal nichts plausibles einfällt, wie ich eine Situation in meinem Text auflösen könnte.
Ich rate übrigens von Chat-GPT ab, ich empfehle eine kostenpflichtige Meta-KI, also ein System, das mehrere andere KIs im Hintergrund befragt und daraus wiederum eine eigene Antwort generiert. Das reduziert das Thema Halluzinationen oder Erfindungen.
Genau das soll auch so sein. KI-Modelle werden auf eine Menge Dinge trainiert. (Eine Freundin von mir macht das inzwischen hauptberuflich. Sie überprüft KI-Antworten oder soll Eingaben erstellen, auf die die KI in definierter Weise reagieren soll, bspw. keine Tipps geben zum Selbstmord oder Bombenbau.)
Eine KI soll keine Meinung äußern und keine Gefühle haben (oder eben transportieren).
In unserer Schreibwerkstatt haben wir als Aufgabe mal einen KI-Text (Kurzgeschichte über einen Magier, der sich mit dem Bösen™ verbündet, um mächtig zu werden (quasi Faust in Kurzform) bekommen und sollten dann zu dem Thema einen eigenen Text schreiben. Im Ergebnis fanden wir die humanen Texte deutlich besser (mit mehr Seele) als den maschinengenerierten.
Ich finde es falsch, neue Werkzeuge und Hilfsmittel per se abzulehnen. Ich finde es richtig, zu prüfen, wie ich etwas Neues in meine Arbeit einbauen kann, um besser zu werden. Vor allem finde ich es verwerflich, über KI zu urteilen, ohne es jemals ausprobiert zu haben.