Ich hatte nur angemerkt das Papyrus keine KI verwendet und nicht ab wann man die Urheberschaft verliert. Ansonsten bin ich der Meinung das jede Verwendung von KI angegeben werden sollte. Dann kann der Potentielle Leser entscheiden ob er das Werk liest oder ob ihm das zu viel KI ist.
Indirekt gibt dir aber ein Testleser oder eine Testleserin doch Verbesserungsvorschläge.
Das ist zum Beispiel der Fall, in dem eine Textstelle oder ein Terminus von ihm oder ihr irgendwie beanstandet wird oder eine Erklärung verlangt. Dann werde ich als Autor diesen Hinweis ganz gewiss nicht einfach an mir vorüberziehen lassen. Und jede Veränderung, die ich danach an meinem Text vornehmen sollte, entspricht einem indirekten Verbessungsvorschlag.
Übrigens, wenn Papyrus meinen Text auf Grammatik, Orthografie, Wortwiederholungen, Lesbarkeit und mit weiteren Hilfsmitteln untersucht, gibt auch dieses Computerprogramm mir direkte und indirekte Hinweise zu Textverbesserungen. Von denen werde ich mir dann einige entweder zu Herzen nehmen oder in meinen geistigen Autoren-Papierkorb werfen. Ww
Nicht ganz richtig, was das Verständnis dessen angeht, was eine KI aka generatives Large Language Model tut: Sie errechnet anhand der aus ihren trainierten (teils illegalen) Daten sich ergebenden Statistiken, welche Tokens mit der höchsten Wahrscheinlichkeit aufeinanderfolgen. Tokens ergeben Wörter. Wörter ergeben Sätze. Den Kontext, in dem diese Tokens/Sätze/Wörter stehen, „versteht“ sie nicht. Trotzdem ist sie mit dieser Methodik in der Lage, sinnvoll erscheinende Sätze zu generieren und dem Nutzer zu „verkaufen“. Dies wiederum anhand der einprogrammierten Regeln einer nutzerzugewandten Rhetorik, die sich anhand eigener Prompts in einem gewissen Umfang beeinflussen lässt.
Insofern würde ich eine aktuelle KI nicht als ein Werkzeug wie jedes andere bezeichnen. Sondern als eine Art statistischen Mainstream-Generator mit Eigeninteressen (der Techkonzerne). Für Autorinnen und Autoren, die ihr Handwerk beherrschen, eher als ergänzendes Recherche- und Zusammenfassungstool nutzbar (immer mit manueller Verifikation der Ergebnisse, um die systembedingten 30 bis 40 Prozent Fehlerquote auszumerzen).
Ab der Verwendung als Inputgeber für ein „begleitetes Schreiben“ halte ich den Einsatz unter dem Aspekt der eigenen Autorenschaft für bedenklich. Aber schlussendlich muss das jeder für sich entscheiden.
Es gab genau einen Fall (Anthropic) und der kam vor Gericht. Es gab einen Vergleich. Da muss ich mal eine harte Kritik üben. Dies immer wieder zu behaupten, die Daten wären illegal, ist Schwurbelei
So funktionieren LLMs nicht.
Wenn das so wäre, warum nutz die Industrie und Forschung LLMs. Vielleicht weil deine Ansicht falsch ist.
Können wir denn da sicher sein, dass es nur der eine Fall war oder ist nur der eine Fall an die Öffentlichkeit gelangt? Ich meine die Frage ernst. Ich weiß es einfach nicht.
Es geht hier um sehr viel Geld. Es warten nur die Anwälte darauf zuzuschlagen. Und geheim halten kann man das nicht. Wie heißt es so schön: Wenn drei Leute ein Geheimnis bewahren wollen, müssen zwei erschossen werden.
Ja, das liebe Geld. Ich bleibe dennoch skeptisch und hoffe, dass ich mich irre und du recht behalten wirst.
Anthropic zahlte 1,5 Milliarden Dollar. Selbst wenn man jetzt das Minimum der Anwaltskosten nimmt, sind das 15 %. Also 225 Millionen Dollar. Was würde einen Anwalt davon abhalten, einem Informanten ein bis zwei Millionen Dollar zu zahlen, wenn er für einen solchen Fall Beweise liefern würde?
Das mag ja als Beruhigungspille momentan noch viele Autoren besänftigen. Dennoch bin ich fest davon überzeugt, dass ki-generierte Schriften ZUKÜNFTIG den Literaturmarkt weitgehend beherrschen werden.
KI-gesteuerte Roboter haben viele Fließbandarbeiten in Fabriken übernommen. Selbst das Management bedient sich bereits potenter betriebswirtschaftlicher, ki-erstellter Programme für neue oder bessere Verkaufs- und Produktionsstrategien. KI hat der Physik „geniale“ Berechnungen vorgestellt, deren Lösungen perfekt, für unseren menschlichen Geist aber momentan noch zu „hoch“ sind.
Andere KI-Programme haben heute schon vielen Übersetzern fast die Butter vom Brot genommen.
Und für Autoren, die sich erst noch einen Namen machen müssen, schmiedet die KI bereits ein Damokles-Schwert. Damit müssen wir uns irgendwann endlich abfinden. Ww
Eigentlich nichts. Ich bin gespannt, ob noch weitere Fälle aufgedeckt werden.
Zum Thema Training mit teils illegalen Daten:
Gegen den Begriff der Schwurbelei verwahre ich mich. Solange noch nicht juristisch final geklärt ist, ob das grenzenlose Verwenden von ansonsten urheberrechtsgeschützten Druckwerken zum Trainieren eines kommerziellen LLMs rechtens ist, bleibt dieser Verdacht im Raum. Ungeachtet der Armeen von hochbezahlten Anwälten, mit denen die Metas, OpenAIs und Googles der Welt versuchen, ihren „Raubzug“ zu verteidigen.
Zum Thema LLMs:
Bitte erkläre mir in halbwegs einfachen Worten (vielleicht so, wie Alke Martens, Professorin für praktische Informatik an der Uni Rostok, dies so vorbildlich tut), wie deiner Meinung nach ein LLM funktioniert. Vielleicht habe ich da etwas falsch verstanden?
Zum Thema LLMs in Wissenschaft und Forschung:
Da reden wir nicht über die vorläufig noch kostenlosen Feld-, Wald- und Wiesen-KIs für Konsumenten, sondern über eine ganz andere Kategorie, die in der Tat große Fortschritte in kürzester Zeit ermöglicht. Allerdings zugleich auch zunehmend die gängigen Fachpublikationen mit teils halluzinierten Fachbeiträgen verstopft. Worauf gerade kürzlich ein Beitrag in NATURE anhand einer Metastudie hingewiesen hat. Im übrigen hoffe ich darauf, dass die sich ankündigenden World Model KIs (siehe Yann LeCun von AMI Labs uind andere) viele dieser LLM-typischen Einschränkungen hinter sich lassen werden.
In den USA ist es geklärt. Die Firma kauft ein Buch, scannt es ein und vernichtet das Buch. Damit ist es rechtens.
Bei der EU ist es noch nicht final geklärt, aber es wird nicht wesentlich anders sein. Ansonsten könnte sich die EU generell aus der künstlichen Intelligenz verabschieden.
Zurück zum Thema.
Ein jeder Nutzer von KI sollte über eines nachdenken.
Jede KI signiert ihre Werke. Bei Bildern sind es Microsignaturen und nicht nur das Label.
Bei Musik und Sprache sind es Tonfolgen (Artefakte) die selten auch hörbar (leichtes Hintergrundknacken) sind.
In Texten bekommen Satzzeichen eine Markierung. (Nicht alle)
Das wurde eingebaut, damit die Modelle nicht von sich selbst lernen. Aber ein findiger Programmierer oder Institut findet diese Marker ebenfalls.
Nur ein Printprodukt ist da außer vor.
Das Label KI frei kann also geprüft werden. Meine Hoffnung ist, es wird irgendwann vorgeschrieben.
Ja, es wird auch dann Wege geben. Die sind aber mit Arbeit verbunden und filtern hoffentlich die ganzen Billig- Schneeball-Müllbücher aus dem Markt.
Wieder so eine Geschichte aus dem Paulanergarten.
Sonderzeichen kann man mit jedem einfachen Editor, wie Notepad++, herausfinden und löschen.
Die Geschichte kam auf, weil das Modell O1 von OpenAI Sonderzeichen in den Text reinbrachte. Am Ende stellte sich heraus, dass es die Sonderzeichen deshalb brachte, weil es mit Texten aus dem Bankenbereich gefüttert wurden, in denen diese Sonderzeichen wirklich verwendet werden.
Warum schwierig, wenn es auch einfach geht?
Für den Paulanergarten fehlt mir leider der richtige Bierdurst. Ich als Sachse habe da ein differenzierten Biergeschmack.
Es ist kein Mythos, hab es selbst geprüft.
Ja mit einem einfach Editor lässen sich diese Artefakte erkennen und auch austauschen.
Aber der grosse Teil der Nutzer wird das nicht auf dem Schirm haben.
Ich trage nur sehr selten einen Aluhut (nur wenn ich meinen Bunker verlasse) aber das klingt geradezu nach einer Ausrede. Nochnicht einmal sehr einfallsreich.
Wie wahrscheinlich ist es, dass eine KI Bilder, Musik und Sprache markiert und ihr Hauptgeschäft (Text) nicht?
Wenn ich mir Programmschnipsel schreiben lasse, dann sehe ich oft Kleinigkeiten, die mir schleierhaft muten.
Klingt schon etwas nach Alu-Hut
. Bei einem Satz, den die KI ausspuckt, sind manche Satzzeichen markiert, wenn ich den gleichen Satz aber in meinem Schreibprogramm tippe, ist damit alles ok?
Wenn du den Text eintippst, benutzt du »deine Fonts«
Wenn du kopierst dann bekommst du zu deinen Fonts, die auch dargestellt werden noch etwas, sagen wir mal Info im Hintergrund.
Das ist, wie gesagt nicht dazu gedacht, das man als Außenstehender KI Inhalte erkennt.
Die Idee dahinter ist einfacher, die KI-DNS zeigt der KI, das ist von mir, Google, oder anderen Maschinen. Ist für sie extrem wichtig für den Lernprozess, um zu verhindern, dass sie endlos von sich selbst lernen muss und sich dadurch nicht entwickelt.
Im Grunde sehr logisch, aber ein Aluhut schütz bekanntlich auch vor Regen.
Kann KI selbst Urheberrecht für sich beanspruchen? Anbei ein Artikel, der (auch) dies thematisiert. Hier geht es um den juristischen Bereich, mögliche Auswirkungen auf den literarischen Bereich sind leicht vorstellbar.
![]()
Wenn es Ki Influencer gibt … also imaginäre Persönlichkeiten, könnte man nicht eine KI Partei gründen, mit KI Persönlichkeiten (keine Sorge, brauchen keine Wohnung und keinen Dienstwagen nur fettes Internet). Die wirken auch ganz natürlich und folgen nur indirekt meinen Wünschen, der tief in ihren Code versteckt ist ![]()
Der Text den ein Chatbot ausgibt, ist UTF-8. Da gibt es keine Fonts. Kopiere einfach deinen Text in Notepad++. Gehe einfach unter Ansicht/ Symbole anzeigen/Alle Zeichen anzeigen. Und, oh Wunder, es gibt keine magischen Zeichen im Text.
Kannst du mir die Quelle angeben, woher du diese Informationen hast?