Worthäufigkeitsstatistik - Anwendungsfall

Hallo!

Als Autorenneuling stehe ich mit einer gewissen Unerfahrenheit vor dem Problem zu entscheiden, wo in meinem Text noch Schwachstellen stecken. Papyrus bietet mir mit der Lesbarkeits- und Stilanalyse hierfür ja schon zwei sehr gute Werkzeuge an.

Mir stellt sich nun aber die Frage, ob evtl. ein drittes Werkzeug ebenfalls hilfreich wäre. Und zwar das einer globalen und lokalen Worthäufigkeitsstatistik, die in Papyrus vom Prinzip her ja schon angelegt ist. Was mir jedoch fehlt, ist ein Bewertungsmaßstab bzw. eine Möglichkeit, dieses Tool direkt bei der Überarbeitung des Textes zu nutzen.

Ich stelle mir das z.B. so vor: Das Wörtchen “und” kommt in meinem Text mit einer Häufigkeit von 4% vor. Ist das - gemessen am durchschnittlichen Sprachgebrauch - nun viel, normal oder wenig (gut, letzteres wohl eher nicht…)? Ein übermäßig häufiger oder seltener Gebrauch der z.B. 100 im Deutschen häufigsten Worte kann einen Text für einen Außenstehenden unnatürlich wirken lassen. Meist ohne, dass dieser benennen kann, woran das liegt. (Entsprechende Untersuchungen zu Häufigkeitsverteilungen gibt es, z.T. auch nach Textarten und -stilen unterteilt. Ich habe nur leider keinen Zugriff auf die entsprechenden Veröffentlichungen.)

Beim Aufruf der (globalen) Texthäufigkeitsstatistik hätte ich also gerne eine Art farbliche Kennzeichnung im Text, wenn die globale Häufigkeit eines Wortes zu sehr aus dem Rahmen des Gewohnten fällt.

Es wäre auch schön, diese Auswertung z.B. auf die umliegenden 10 Seiten (relativ zur Position der Markierung) lokal anwenden zu können. Dort könnte - ähnlich wie bei der Stilanalyse - farblich hervorgehoben werden, wenn eines dieser Standartwörter in der Verwendung zu sehr abweicht. Als Referenz hierfür sollte man entweder eine Art “Durchschnittsgebrauch” oder die globale Statistik des Dokuments verwenden können. Damit könnte man gewollte oder (aufgrund der Tagesform) ungewollte Schwankungen im Wortgebrauch visualisieren.