KI ist nicht Google. Es reicht nicht ein paar Wörter wie bei der Websuche reinzuschmeißen. Eine KI kann keine Gedanken lesen.
Je mehr Kontext sie bei der Anfrage hat, desto besser kann sie Antworten. Auch ist nicht KI gleich KI. Wer einen Google-Ersatz sucht ist am besten mit Perplexity aufgehoben. Rechtschreibfehler kann 4O gut und wissenschaftliches Wissen O3. Als Lektorersatz nehme ich Claude 3.7 Sonnet Reasoning.
Um die Fehlerquote (Halluzination) zu drücken, gibt es ein großartiges Tool: KI. Lasst die Antworten von der KI überprüfen.
Die Vorstellung, die manche haben, dass KI ohne Mehrwert, nur alte Informationen (und die auch noch falsch) rausgibt, halte ich für falsch.
Schon jetzt hat KI die Wissenschaft vorangebracht. In der Mathematik wurde ein neuer Algorithmus für die Matrixmultiplikation gefunden (an diesem Problem wurde schon während meiner Studienzeit vor 35 Jahren geforscht). Neue Proteinstrukturen wurden in der Biochemie gefunden. Das soll mal Google und Wikipedia schaffen.
Ich habe heute einmal ChatGPT 5 ausprobiert. Problem, wie bekomme ich eine Information in einen Textausschnitt. Ich war begeistert.
Wenn für die Wissenschaft keine Kreativität gebraucht wird, wo dann? Es hat schon einen Grund warum die Welt die Namen Newton, Heisenberg, Tesla und Einstein kennen und ich mich in jungen Jahren aus der Physik herausgezogen habe.
Man muss nur an den fallende Apfel von Newton, wie Tesla im Park von Budapest seine Gleichungen aufstellte, während er Gothes „Faust“ rezitierte und Einstein die Relativitätstheorie in der Straßenbahn fand, als er zur Arbeit (Patentamt von Bern) fuhr, denken. Auch wenn nicht alle Anekdoten stimmen. Diese Geschichten haben sich erhalten, weil sie glaubhaft sind.
Die „Kreativität“ der wissenschaftlich eingesetzten und trainierten KI liegt schlicht darin, in den gigantischen Datenmengen Muster erkennen und Verknüpfungen herstellen zu können, die der menschlichen Analyse bisher entgangen sind.
Einziger positiver Effekt von GPT5 ist es, dass das Modell selbstständig zwischen herkömmlichem und Reasoning Modus umschalten kann und die Halluzinationswahrscheinlichkeit auf unter 5% drückt (wenn OpenAIs Angaben stimmen). Das ist in der Tat ein Fortschritt.
Für mich der die KI regelmäßig benutzt ist der größere Speicher der Erinnerungen der größte Fortschritt.
Merkte man früher bei 40-50 Normseiten das die Ki Handlungen vergisst ist es jetzt mehr Erinnerungvermögen. Wieviel mehr kann ich derzeit noch nicht sagen.
Halluzinationen bzw Bereichnungsprobleme hatte ich gleich bei meiner ersten Anfragean GPT5 zum Lohn eines Projektkoordinators wo einfach die Lohnsteuer und Sozialabgaben falsch berechnet wurden.
Interessanter Artikel. Ich glaube der grosse Wurf der allgemeinen KI ist vorbei. Spezielle Modelle werden ihren Platz finden. Die allgemeine KI eher ein schnelleres Wiki oder ein Speisekartenübersetzer für den Urlaub. Wir werden sehen.
Naja, nach 48h erwarte ich kein glaubhaftes Feedback von Irgendwem. Bei meinem privaten Versuchen (beim Programmieren und beim Erstellen einer vermuteten Wachstumskurve) war das Ergebnis besser. Der Grund lag, dass er anhand der Komplexität der Frage selber entscheidet ob er eine Form von „Länger drüber Nachdenkens“ einsetzt, dass man sonst immer erst aktivieren musste.
Wie KI eingesetzt wird, hängt stark vom Nutzer ab. Man bedenke die Fähigkeit, dass die KI dem User Fragen stellen kann. Z.b ist es ein leichtes „Klausurfragen einzugeben“ und dem Nutzer abzufragen (so wie Karteikarten ) nur kann die KI analysieren, ob sie Schwächen als Muster beim User entdeckt und z.b das Training darauf anpasst.