Nachdem @Tapio gestern was ähnliches gepostet hat:
Ich habe einen meiner Texte, ca 4 Seiten A4 genommen und ChatGPT gegeben und gesagt: überarbeite mir das im Stil von „George R.R. Martin.“ In einem zweiten Chat sagte ich: überarbeite mir das im Stil von „Stephen King.“
Am Ende hab ich zwei Texte bekommen, die von der Grundstruktur ident waren, aber sich doch unterschiedlich gelesen haben.
Weil es mich interessiert hat, habe ich mir dann erläutern lassen, worauf es bei der Überarbeitung meines Textes geachtet hat.
Also zurück zu deiner Frage: Ja, ich denke schon.
Übrigens btw nur so ein Gedankenanstoß:
KI hat mehr Text generiert, als die Menschheit gesamt seit seinem Bestehen geschaffen hat. Das war der Stand Frühjahr 2024. Jetzt, fast ein Jahr später, wird es das x-fache sein. Ich kann das weder überprüfen noch sonst was, also glaub ich das jetzt einfach. Hab ich auch schon mehrfach von vielen unterschiedlichen Stellen vernommen.
Von daher hab ich jetzt unglaublich wenig Angst, dass ich die KI da mit meinem Text „gefüttert“ hab. Das spielt weniger eine Rolle, als das bisschen Baby-Pippi am Meeresstrand im Vergleich zu den Ozeanen.
Das ist eine interessante Idee.
Die Texte und Erklärungen interessieren mich jetzt brennend, also muss ich das wohl auch mal versuchen und schauen, was dabei heraus kommt.
Das glaube ich nun wieder nicht. Für mich ist das eine Art Gütesiegel und ich habe es an meinen letzten Roman auch „drangeschrieben“ und werde das zukünftig auch weiter so handhaben.
Erwarte dir nicht zuviel. An manchen Stellen ist es ganz treffend, an anderen wieder nicht.
Nicht unbedingt, dass der KI das Gefühl dafür fehlt. Ganz im Gegenteil, ein Large Language Model ist genau dafür geschaffen. Aber da und dort is es einfach… too much.
Ja Geschmackssache. Mein Fall wär es nicht unbedingt? Mir fehlt jetzt das richtige Wort dafür… Ich fänd es kleinlich. Jetzt nicht im wertenden Sinn, sondern dass ich unbedingt auf einen Fakt hingewiesen werde.
So wie die hausgemachten Grammelknödel im Wirtshaus. Im besten Fall merke ich eh, dass sie hausgemacht sind. Aber im Normalfall sind sie zu 90 % TK von Metro, egal was auf der Karte steht.
Eine KI liefert bei gleichem Prompt und gleichem Seed auch immer die gleiche Antwort. Eine KI ist nichts anderes als ein monströser Algorithmus. Ein Unterschied ist vielleicht, dass wir Menschen bei einem Algorithmus noch einigermaßen leicht nachvollziehen können, warum ein bestimmtes Ergebnis herauskommt. Bei den KIs verstehen wir den Zusammenhang nicht mehr. Auch hier wird geforscht, mal sehen wohin uns das bringt.
Meine Erfahrung ist hier eine andere. Das wäre, eben, wenn eine KI einfach nur ein Algorithmus wäre, wie du sagst.
Ja, das ist ja eigentlich das faszinierende und erschreckende zugleich, dass wir gar keine Ahnung haben, was die Milliarden Transistors in dieser Blackbox eigentlich machen.
Ein Algorithmus ist für mich ein festgeschriebenes Programm, das eben bei jeder gleichen Eingabe das gleiche Ergebnis ausspuckt.
Das ist eben bei KI eben nicht der Fall, sondern sie lernt aus ihren „Erfahrungen“ und passt sich entsprechend selbstständig an. Die Entwickler fügen nach meinem Verständnis in aller erster Linie zusätzliche Transistors hinzu. Was die KI damit aber macht, bleibt im Wesentlichen ihr überlassen?
Allerdings bin ich auch kein KI Experte Mir reicht es, wenn die KI bei uns läuft und ich keine Arbeit damit habe, zu Beginn vor 1-2 Jahren hab ich mich halt mal ein bisschen damit beschäftigt, damit ich den ungefähren Aufbau verstehe, aber das ist vielleicht auch schon wieder ein alter Hut.
Ich bin auch kein KI-Experte, habe aber ein anderes Verständnis davon. KI ist ein Algorithmus (im wesentlichen jedenfalls), der in der Lage ist, aus und mit den zur Verfügung gestellten Daten neue Verknüpfungen zu generieren, die ein Mensch nicht einmal ahnen würde.
Natürlich bleibt es der KI überlassen, was sie mit diesen Daten macht, aber genau dieses „Machen“ ist der Algorithmus. Ob das Lernen ist?
Ein bisschen (sehr) salopp ausgedrückt, ist eine KI nichts anderes als die Weiterentwicklung der DataMining-Programme, die es bereits vor 25 Jahren gab. Auch das waren nur Algorithmen, die aus den verfügbaren Daten Zusammenhänge hergestellt haben, die ein Mensch nicht erkennen hätte können.
Jeder, der mit KI arbeitet, erklärt mir, dass künstliche Intelligenz eben genau das nicht ist. Sonst könnte sie die Dinge nicht, die sie eben kann (eben weit mehr, als generieren von Texten). Aber vielleicht sind das auch nur Schaumschläger, was weiß ich
Bei den KI-Projekten, wo ich eingebunden war, war meine Tätigkeit nicht im IT-Bereich bzw in der Umsetzung, sondern eher im Organisatorischem. Ein paar mehr Einblicke wären vielleicht spannend gewesen, aber mein Wissen ist dazu sowieso zu gering.
Ich hab leider meine Arbeitsunterlagen zu dem Thema nicht mehr, weil ich in ein paar Wochen endgültig von hier weg bin und sich das ein für allemal erledigt hat. Aber da war einmal der springende Punkt beschrieben, ab wann man noch von Software sprechen kann, und ab wann von KI.
Ohne dass ich die Fachbegriffe im Kopf hab: einfache LLMs - also vereinfachte KI ohne Kurzzeitgedächtnis - sind so Sachen wie Siri und Alexa. Komplexere LLMs verfügen über ein „Kurzzeitgedächtnis“, die Information wird von Transistor zu Transistor weitergeben, dabei verändert, ohne dass aber der rote Faden verlorengeht.
Aber das hat jetzt mit deinem Verständnis von Algorithmus natürlich nichts zu tun. Vermutlich ist die Grenze auch schwimmend.
Ja, ich hab ja auch in dem Bereich circa 50-150 Einheiten Fortbildung absolviert. Das war am Ende aber nur so an der Oberfläche knabbert und je länger und intensiver es gedauert hat, desto mehr war der Eindruck: es ist doch recht komplex ^^
Von daher war ich dann recht froh, dass ich mich aus dem operativem Bereich ausklinken konnte und mich mehr in den Planungsbereich verabschieden durfte.
Also zumindest für die heutigen Bildgenerierungs KIs kann ich es mit Sicherheit sagen: Gleicher Prompt + gleicher Seed = immer gleiches Ergebnis.
Bei den LLMs gibt es soweit ich weiß im Hintergrund auch Seeds, die zufällig variiert werden, damit die Antworten nicht immer gleich sind. Irgendwo habe ich auch gelesen, dass es einen Paramter gäbe der „Temperature“ heisst und darüber bestimmt, wie viel Zufall man bei der Generierung zulassen möchte. Bei Temperature=0 ist das Modell komplett deterministisch (also so wie ich geschrieben habe) bei höheren Werten wird Zufall durch Zufallsgeneratoren hineingerechnet, um das Spektrum der möglichen Antworten abzubilden. Aber auch in jeden Algorithmus könnte man an beliebiger Stelle Zufallsgeneratoren einbauen, ich sehe da also keinen wesentlichen Unterschied.
Die bisherigen LLMs lernen übrigens (noch) nicht live aus ihren Erfahrungen. Sie werden teilweise monatelang trainiert. Und das fertige Modell ist dann das was wir Nutzen können. Das ändert sich aber durch unsere Nutzung nicht, es ändert sich erst, wenn der Hersteller ein neues Modell trainiert (neue Daten oder neue Modellstruktur).
Der Unterschied liegt meiner Meinung nach eher in der Komplexität dieses Algorithmus und darin, dass ihn kein Mensch „eingetippt“ hat, sondern er durch „Training“ an empirischen Daten entstanden ist. Das faszinierende für mich ist, dass dadurch quasi emergente Fähigkeiten entstanden sind, die nichtmal die Programmierer (heißen die dann überhaupt noch so) erahnen konnten.