Rechtschreibprüfung mit KI - Best Practice für Mac

Sollten noch andere KIs verwenden, um ihr Zeugs auf Rechschreibung zu prüfen, hab ich für euch hier eine Lösung, die zwar (wie alle) nicht perfekt ist. Aber die endlich eine gewisse Leichtigkeit mitbringt.

Wer nicht weiß, wovon ich spreche. Ihr könnt in aller Regel euer Buch nicht einfach bei der KI abwerfen. Die kann so viel Text nicht verarbeiten und nimmt ihn entweder gar nicht erst an (Copilot) oder sie nimmt ihn an und fasst ihn zusammen (ChatGPT). Nur ist halt eine Rechtschreibprüfung an einem von der KI bearbeiteten Text kaum noch sinnvoll.

Ballert man sich dann in Häppchen durch seine komplette Story, dauert das gefühlt ewig. Bei mir geht eine Prüfung meistens über 2 Tage.

Ich bin bei meiner Reise durch die KIs inzwischen bei Claude angekommen. In Claude Cowork muss man sich ein wenig reinfinden. Geht meines Wissens nur auf dem Mac.

Mein Workflow ist nun Folgender:

  1. Ich erstelle aus Papyrus eine HTML-Datei meines Romans.
  2. Diese Datei lege ich in ein für Cowork definiertes Eingangsverzeichnis
  3. Um das Problem mit dem Zusammenfassen zu umgehen, habe ich mir von Claude ein Pytonscript schreiben lassen, dass den Roman automatisch anhand der Überschriftentags aus HTML in Einzeldateien trennt. Man braucht sich da nicht viel Gedanken zu machen. Claude schlägt sowas selbst vor und kümmert sich um alles.
  4. Auf diese gesplitteten Dateien schickt Cowork dann wohl 4 synchrone Agenten, die sich durch alle Einzeldateien durchballern.
  5. Am Ende fasst Claude alles zusammen und wirft es als Markdown-Datei aus.

Dauer eines Durchgangs: ca. 5-10 Minuten.

Claude findet (wie die anderen auch) niemals alle Fehler. Aber es denkt außerordentlich stark mit. Bei mir hat es einen Namen korrigiert (der hieß doch im letzten Kapitel noch anders), eine komplette direkte Rede ohne Anführungszeichen gefunden und auch Anredefehler erkannt (Sie groß/klein). Auch Kasusfehler, Kommafehler, Leerzeichen zu viel oder zu wenig.

Für gute 20 Euro für einen Monat kann man sich sowas ja mal leisten.

Nachdem das Ding ja meinen kompletten Roman geschluckt hat, hab ich Claude auch mal nach einem Alternativvorschlag für meinen Klappentext gefragt. Das war jetzt bei mir nicht so total überzeugend. Da bleibe ich lieber bei meinem eigenen.

Wer jedenfalls das Rechtschreibthema mit KIs abfrühstücken will, sollte sich Claude unbedingt mal ansehen. Bei Youtube gibts jede Menge Videos zu Claude Cowork. Wenn man da mal ne halbe Stunde investiert und ein bisschen experimentierfreudig ist, kommt man relativ schnell rein.

7 „Gefällt mir“

Ich habe mir sowas mühsam über Monate selbst programmiert. Aber die Vorgehensweise ist ähnlich - Mein Programm chunkt den Text in 500 Wörtern Abschnitten und korrigiert sie. Ich arbeite mit lokaler KI, daher dauert das bei mir eher 10h :wink:

Mein Problem war immer, dass KI gerne mal umformuliert. Claude ist natürlich x100 klüger als meine lokalen Modelle, aber es besteht Gefahr.
Meine App zeigt daher Änderungen im Text an (im Sinne durchgestrichenes Wort, Ersatz dahinter) damit ich eine Chance habe, zu verstehen, was er ändert (und es Ablehnen kann)

4 „Gefällt mir“

Grüße, bin auch immer ein Fan von praktischen Lösungen für Probleme die in mir ein Gefühl des Dadaismus auslösen.
Ich schaue mir Claude cowork mal an.

@tomP wie sieht dein Fazit zur Rechtschreiberkennung aus? Erfasst Claude alle gängigen deutschen Rechtschreibregeln und zeigt sie zuverlässig in deinem Text auf? (Die Frage bezieht sich nur auf die Zuverlässligkeit des Programms, nicht auf die Intension das Gehirn abzuschalten :nerd_face:)

1 „Gefällt mir“

Als ich den ersten Test mit Cowork durchgeführt habe, hat es mittendrin begonnen, mit sich zu sprechen, dass meine Regeln zu restriktiv sind. Wir haben das dann danach besprochen :slight_smile:

Copilot muss ständig im Zaum gehalten werden. Claude sagte von sich selbst, dass es sehr viel stringenter die Anweisungen befolgt. Ich musste also die Regeln lockern.

Sowas kommt dabei heraus - da kann man doch nicht meckern.

Fehlerlog_MOOYAN1.md (14,5 KB)
Fehlerlog_MOOYAN2.md (10,9 KB)
Fehlerlog_MOOYAN1 10.14.26.md (14,7 KB)

Du kannst dir ja auch mal die Fehlerdateien ansehen. Es hat jedenfalls einiges gefunden. Und es hat eigentlich nichts gefunden, das falsch ist - das ist auch was.

Allerdings findet es niemals alles. Man muss es mehrfach laufen lassen. Wenn aber ein Durchlauf nur noch eine Viertelstunde dauert, ist das eigentlich vernachlässigbar.

Ich hab hier drei Bände und hab jeden Band in den letzten Tagen vielleicht fünfmal mit Claude Sonnet geprüft. Nun findet auch Claude Opus nichts mehr.

Aber von den Prüfungen, die ich bisher durchgeführt habe, war die von Claude sicher die beste. Sein Gehirn darf man halt nie abschlalten. Und egal, was ich da veröffentliche - ich habe natürlich selbst die Verantwortung.

1 „Gefällt mir“

Ich hätte ein schlechtes Gefühl, mein ganzes Buch zur Korrektur zu geben.
Mein Ansatz ist da kürzer gefasst. Wenn ich ein Kapitel fertig habe, dann schau ich erstmal selbst.
Danach vertonen ich es, meine Ohren sind bei weitem empfindlicher , als das Auge.

Die reine Quantität ist für mich wenig hilfreich. Ich schreibe ja nicht ein 300 Seiten Wälzer fluffig weg und bin dann aus Zeitmangel angehalten, eine hochmaschinelle Korrektur zu erbitten, auf die ich mich nochnichteinmal zu 100 Prozent verlassen kann.

Mich würde interessieren, warum man so arbeiten sollte.
Alte Bücher überarbeiten, oder eher neues?

Ich weiß, ihr habt alle schlechte Gefühle. Dafür wird dein Buch dann auf irgendwelchen Scamseiten kostenlos angeboten und von dort eingescannt. Das ist alles ärgerlich, aber so ist die Welt wohl.

Wenn ich meine Texte durch die KI schicke, dann, weil ich das Verhältnis von dem was ich lernen kann, zu dem, was die KI davon hat, zu meinen Gunsten auslege.

Ich habe mir vor 12 Jahren Papyrus geleistet und eins der Haupt-Entscheidungskriterien war der Duden Korrektor. Ich schreibe ohne Stilprüfung, aber die Rechschreibprüfung ist bei mir immer an. Jeder, der meine Texte liest, sagt mir, dass sie sehr sauber sind.

Ich kann mir kein Lektorat oder Korrektorat leisten. Also habe ich mich auf Testleser verlassen, bei denen einige sich gern auf die Rechtschreibung gestürzt haben. Außerdem habe ich mein Zeug mehrfach über verschiedene Medien gelesen (Kindle, iPad, Ausdruck und zum Schluss auch fertiges Taschenbuch).

Als ich im August Band 3 mit der Überarbeitung meiner Fantasygeschichte durch war, hab ich zur Sicherheit nochmal Band 1 gelesen und bin aus allen Wolken gefallen. Ich hatte mich weiterentwickelt. Das sprachliche Niveau von Band 3 und einige Entscheidungen zu Beschreibungen im Text fand ich so viel besser, dass ich daraufhin Band 1 und 2 nochmal komplett überarbeitet habe.

Und wie es so ist, willst du dann halt fertigwerden und so hatten sie nicht die gleiche rechtschreibtechnische Reifezeit wie vorher. Darum bin ich ausgesprochen dankbar dafür, dass mich die Rechtschreibprüfung über KIs hier unterstützt.

Und du glaubst gar nicht wie frustrierend es ist, wenn sie dich bei einem Durchlauf auf sowas wie die fehlenden Anführungszeichen einer direkten Rede aufmerksam macht, die du nicht erst jetzt, sondern schon vor Jahren übersehen hast.

So bin ich also in der Situation, dass ich tatsächlich alte Bücher überarbeitet habe – aber eben mit Blick darauf, dass es sich um einen Fünfteiler handelt. Sonst hätte ich das vermutlich nicht getan.

2 „Gefällt mir“

Nein, das meine ich nicht. Mein Gefühl ist eher Kontrollverlust.
Ich habe nicht das gesamte Buch im Kopf, da müsste ich auf die KI vertrauen, dass sie nicht eigenmächtig Ohren Stil reindrückt., und ich das übersehe.
Deshalb sind für mich kleine Schritte der bessere Weg.

Ja so etwas hab ich mir beinahe gedacht.
Und wenn ich meinen Erstling von letztem Jahr nun betrachte, würde ich auch viele Dinge um Längen besser hinbekommen.

Meine Frau sprach zu diesem Thema ein Machtwort, welches ich unmöglich ignorieren in der Lage bin.

Sie betonte mit Vehemenz: »Sei stolz auf das, was du geschaffen hast, ich würde es genau so lassen.«

Tja, nun sitz ich da, ich armer Tropf. Aber zurück zum Claude.
Wenn ich diesen Pfad beschreiten würde, wäre ich mir nicht sicher, ob ich und mein neuer französischer Freund jeden grammatischen und orthopädischen Fauxpas zu enthüllen vermocht haben.
Zu viel Input für meine kleine Murmel, wenn man so will.

Ich habe sehr gute Erfahrungen damit gemacht, die KI auch mal Dinge über größere Strecken bewerten zu lassen. Die ist in Sekunden mit Textmengen durch, an denen ich 2 Stunden lesen würde. Dafür muss ich halt selbst entscheiden, wie ich mit den Ergebnissen umgehen will. Das muss ich bei Testlesern aber auch, denn deren Ansichten sind mitunter auch sehr … interessant :slight_smile:

Das kann man auch so sehen. Aber irgendwie sollen Bände auch zueinanderpassen. Mich hatte eine Testleserin bei Band 1 auf Dinge aufmerksam gemacht, die ich offengestanden erst bei Band 3 verinnerlicht hatte. So ist es halt manchmal.

Ein menschlicher Korrektor findet auch nicht alles. Bin mir nicht sicher, aber ich glaube, deren Ziel ist es, 90 % der Fehler zu finden. Mehr ist da wohl auch nicht drin.

Was mache ich also: Ich lasse Claude laufen. Wenn es Fehler findet, korrigiere ich die. Und wenn ich ihn irgendwann das dritte Mal drüberlaufen lasse und er nichts findet, veröffentliche ich das Buch. Und wenn er in einem Monat dort noch nicht angekommen ist, zahle ich halt nochmal 20 Euro für einen Monat.

Aber Apple macht auch irgendwas über Siri und Gemini 3. Mag also sein, dass aus der Ecke dieses Jahr auch noch was Spezielles für den Mac kommt.

1 „Gefällt mir“

Daran ist nichts auszusetzen.
Und für Schreiber, die vieles zu Prüfen haben auch sinnvoll.
Ich möchte da auch darauf hinweisen, das die reine Korrektur auch von den üblichen KI Detektoren nicht beanstandet wird, da die erkennbaren KI Strukturen im Text nicht vorhanden sind. Also auch da keine Gefahr in Verruf zu kommen.

Ich bin zufällig an dem selben Thema und habe die gleiche Erfahrung gemacht. Nur kurze sehen bzw. Abschnitte an die KI übergeben. Je länger der Text, desto schlechter die Korrektur.
Allerdings habe ich mich dazu entschieden in Markdown zu konvertieren. Das gebe ich dann an ChatGPT weiter. Anschließend vergleiche ich die Änderungen mit WinMerge und übernehme nur die validen Anpassungen.

Niemals ohne Kontrolle übernehmen!!!

Bei mir hat Claude ITler zu Hitler korrigiert :smile:
Dazu muss man sagen, dass es ein humorvoller Text ist und die Annahme es wäre ein Witz war nicht zu weit hergeholt.

Genau so ist es.

Kann man machen. Aber Markdown geht aus Papyrus heraus nicht. Warum also nicht ein Format nehmen, das Markdown (zumindest wenn man es nicht selbst zum Eingeben verwendet) überlegen ist und das Papyrus erstellen kann?

Nein, er hat „Itler“ zu dem netten Herrn konvertiert. Das sieht tatsächlich wie ein Tippfehler aus. Ich würde wahrscheinlich „IT-ler“ schreiben. Das korrigiert er bestimmt nicht.

Das sage ich immer wieder. Niemals der KI etwas glauben. Allerdings ist bei sowas wie der Rechtschreibprüfung in 95 % der Fälle auf Anhieb klar, ob es sich um einen echten Fehler handelt.

@Tapio Das Thema lokale KI zur Textanalyse interessiert mich auch. Ich habe nur oberflächlich recherchiert bzw. ChatGPT gefragt, aber mir wurde von ihm gesagt, es braucht mindestens 64GB RAM, um Modelle sauber laufen zu lassen, selbst wenn man Zeit hat und es nur zur Analyse ist. Wenn man weniger als 64GB hat, muss man auf schlechtere (kleinere) Modelle zurückgreifen.

Wie machst du das? Welche Hardware hast du und welche Modelle nutzt du?

1 „Gefällt mir“

Brutal :joy:

Ich habe vor ein paar Tagen Gemini gefragt, wann Windows 12 kommt. Es wurde eine Antwort mit mehreren Spiegelstrichen gegeben, eine davon sinngemäß: Im Jahr 2024 wird es nicht kommen. Das ist formal zwar richtig, aber… :man_facepalming:

Hey :slight_smile: Wenn du neu im Thema bist, kann man es ungefähr so erklären:

Lokale Modelle haben immer einen Namen, eine Parameterzahl, eine Quantisierung und eine Größe in Gigabyte.

Der Name ist meist der Entwickler oder die Firma, zum Beispiel Qwen, Aya, Mistral oder Llama.

Die Parameterzahl beschreibt vereinfacht die Größe des Modells. 8B heißt 8 Milliarden Parameter, 32B heißt 32 Milliarden. Grundsätzlich können alle Modelle chatten, aber unter 12B wirken sie oft eher simpel. Ab etwa 32B werden sie in vielen Fällen wirklich brauchbar.

Die Quantisierung ist eine Verkleinerung des Modells. F16 ist nah am Original und wird privat eher selten genutzt. Üblich sind Varianten von Q8 bis Q2. Q8 liefert meist die beste Qualität unter den quantisierten Versionen, Q2 ist oft schon grenzwertig. Ein 32B Modell kann in Q8 etwa 40 GB groß sein, in Q3 aber nur noch etwa 21 GB.

Ob man besser ein großes Modell stark schrumpft oder ein kleineres Modell nur wenig, ist für Laien meist einfach Ausprobieren.

Wichtig sind zwei Grundregeln:

Erstens: Du brauchst mindestens so viel RAM, wie das Modell groß ist, plus Reserve für das Betriebssystem. Ein 46 GB großes Modell braucht also mehr als 46 GB Arbeitsspeicher.

Zweitens: Wenn das Modell komplett in den VRAM der Grafikkarte passt, wird es massiv schneller. Dann rechnet die GPU mit ihren vielen parallelen Kernen. Passt das Modell nicht komplett in den VRAM, wird es deutlich langsamer. Wenn aber ein Teil hineinpasst, ist es meist noch immer spürbar schneller als nur über normalen RAM.

Die Geschwindigkeit wird in Token pro Sekunde gemessen. Vereinfacht kann man sagen: Das ist die Antwortgeschwindigkeit. Je höher der Wert, desto schneller schreibt das Modell.

Dann gibt es noch zwei grobe Modellarten: Thinking Modelle und Instruct Modelle. Thinking Modelle erzeugen erst eine interne Denkphase und antworten dann. Instruct Modelle antworten direkt. Für viele Textanalysen reichen Instruct Modelle völlig aus. Für schwierigere inhaltliche Fragen können Thinking Modelle interessant sein.

Was nutze ich selbst?

Für Textarbeit nutze ich Aya Expanse 32B in Q8 mit rund 48 GB Größe. Für 500 Wörter große Textabschnitte braucht das Modell etwa 4 bis 5 Minuten. Nach viel Ausprobieren scheint Aya Expanse für Deutsch bei mir am besten zu funktionieren.

Für andere Aufgaben nutze ich Qwen 3.5 35B MOE in Q6 als Thinking Modell mit etwa 22 GB Größe. MOE bedeutet Mixture of Experts. Dabei wird nicht immer das ganze Modell aktiv, sondern nur ein Teil. Das macht es auf schwächerer Hardware nutzbarer, kann aber etwas Qualität kosten. Das Thinking gleicht davon wieder etwas aus.

Mein Rechner ist von letztem Jahr: ein aktueller Ryzen 9, 64 GB RAM und eine Geforce 5080 mit 16 GB VRAM. Im Nachhinein hätte ich lieber direkt 128 GB RAM genommen.

Mit 16 GB VRAM laufen Modelle, die komplett hineinpassen, sehr schnell. Ein Mistral 12B kann dann nahezu sofort antworten. Sobald ein Modell nicht mehr vollständig in den VRAM passt, fällt die Geschwindigkeit deutlich ab.

Mein Aya Expanse 32B ist über 40 GB groß. Davon passen nur 16 GB in den VRAM. Entsprechend läuft es schon eher zäh. Noch größere Modelle wie Hermes 4 70B in Q4 mit etwa 50 GB kann ich zwar starten, aber dann schaut man dem Modell beim Arbeiten eher zu. Besser als Aya war die Qualität bei mir dabei nicht. Vieles ist in dem Bereich einfach Testfeld.

Ein normaler PC ohne starke Grafikkarte, aber mit viel RAM, kann solche Modelle oft zwar starten, aber nicht wirklich angenehm nutzen. Ich habe selbst unterschätzt, wie wichtig VRAM ist.

Wenn man es ausprobieren will, geht das recht einfach:
Die kostenlose Software LM Studio installieren, dort ein Modell auswählen, zum Beispiel Mistral 12B, herunterladen und im Chat testen. Dann sieht man schnell, was lokal schon möglich ist.

LM Studio bietet außerdem einen eigenen API Zugang. Das ist praktisch, weil meine Python Apps direkt auf LM Studio und das dort geladene Modell zugreifen können.

3 „Gefällt mir“

Danke für die ausführliche Antwort. Meine Hardware wird für Anwendungen, die mehr als nur Spaß sein sollen, wohl nicht ausreichen. Aber es gibt ja bestimmt bald (oder schon jetzt) externe KI Einheiten, die man über USB 4 anschließen kann. Vielleicht kann ich da in Zukunft nachrüsten.

Vielleicht fuchse ich mich zum Spaß aber mal ein wenig rein, ist schon spanned, was du da schreibst.

Wow - eine sehr verständliche Erläuterung, die ich mir gerne (bis auf den persönlichen Teil, natürlich) für mich und meine Kollegen herauskopieren würde, wenn Du damit einverstanden bist.

1 „Gefällt mir“

Na klar,
Wenn das jemanden Kopfschmerzen erspart immer gern.

Ich habe ein bisschen „verdichtet“ hier und da, damit es verständlich bleibt.

Und für den Neugierigen:

Einfach mal Aya-Expanse-8b
probieren. Das ist kleiner als 9 GB groß und passt auch in einen schwachen PC. Nicht so klug, aber passabel chat-fähig :wink: