Gendern und KI

Hi,

vorab: Ich frage nach Expertenwissen, nicht nach Meinungen zu Gendern und / oder den Einsatz von KI.

Warum mache ich das? Weil ich gerade an einem Roman arbeite, der im Jahr 2081 angesiedelt ist.
Mich interessiert, ob Gendern in der heutigen Form eine KI durcheinanderbringen könnte.

Ein Beispiel: In jedem der Sätze ist die Studentin Martina gemeint, also immer dieselbe Person.
Der Student fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Der Studierende fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Die Studierende fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Die Studentin fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Das Student:in fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Das Student/in fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Das Student*in fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Das Student_in fährt gerade zur Uni. Er muss unbedingt verhaftet werden.
Das Studenty fährt gerade zur Uni. Er muss unbedingt verhaftet werden.

Nun meine hypothetische Frage dazu:
Die Polizei bekommt einen Hinweis auf ein frisch ausgeübtes Verbrechen durch einen Studenten. Eine KI überwacht den Polizeifunk und bekommt über ein Netzwerk die Aufgabe, umgehend zur verdächtigen Studentin zu fahren, um sie zu verhaften. Nun bedienen sich alle Beteiligten einer anderen Ausdrucksweise. Wir Menschen würden in dem Beispiel immer wissen, dass Martina gemeint ist. Doch würde ein humanoider Roboter aus heutiger Sicht auch wissen können, dass es sich bei den vielen Bezeichnungen um ein und dieselbe Person handelt oder würde das zum „Absturz“ oder unerwartetem Verhalten führen?

1 „Gefällt mir“

lassen wir doch KI antworten

Das ist eine faszinierende und wichtige Frage, besonders in Bezug auf die Rolle von KI in unserer Gesellschaft. Gendergerechte Sprache hat zweifellos Auswirkungen auf die Verarbeitung durch KIs, besonders in solchen kritischen Szenarien, wie du beschrieben hast. Moderne KIs, die auf maschinellem Lernen und natürlicher Sprachverarbeitung basieren, sind durchaus in der Lage, verschiedene Formen gendergerechter Sprache zu verstehen und zu verarbeiten. Sie wurden darauf trainiert, verschiedene Schreibweisen und die dahinter stehenden Bedeutungen zu erkennen, so wie der Unterschied zwischen „der Student“, „die Studentin“ und „derdie Studentin“. Jedoch sind sie nicht unfehlbar. In einem so kritischen Szenario, wie du es beschreibst, könnte die KI potenziell Schwierigkeiten haben, die korrekte Person zu identifizieren, wenn sie mit zu vielen verschiedenen Formen und Schreibweisen konfrontiert wird, die sie nicht eindeutig zuordnen kann. Es hängt stark von der Qualität und Vielfalt des Trainingsdatensatzes ab, ob die KI in der Lage ist, solche Verwirrung zu vermeiden. Falls eine KI auf eine völlig unbekannte oder nicht standardisierte Form trifft, könnte sie tatsächlich „durcheinandergeraten“, was zu unerwartetem Verhalten oder einem Fehler führen könnte. Daher ist es wichtig, sicherzustellen, dass KIs regelmäßig mit aktuellen und vielfältigen Datensätzen trainiert werden, die die gesamte Bandbreite menschlicher Ausdrucksweisen abdecken. In der Realität wäre es aber immer ratsam, eine menschliche Überprüfung und Entscheidungsfindung als Backup zu haben, besonders in sicherheitskritischen Situationen.

du kannst aber davon ausgehen, dass es erstens in 2081 kein Problem und zweitens der ganze Ablauf ein anderer sein wird.

2 „Gefällt mir“

Ich habe das mal an einen Experten weitergeleitet. Hier ist die Anwort von ChatGpt 4o mini:

Das ist eine sehr interessante und komplexe Frage! In der von dir beschriebenen Situation könnte eine KI möglicherweise Probleme beim Verständnis haben, insbesondere wenn sie darauf angewiesen ist, Sprache auf eine sehr präzise und kontextabhängige Weise zu interpretieren. Hier sind einige Faktoren, die in dieser hypothetischen Situation eine Rolle spielen würden:

1. Sprachverständnis von KIs und Kontextualisierung

KI-Systeme, wie sie heute existieren (insbesondere Sprachmodelle und maschinelles Lernen), haben grundsätzlich die Fähigkeit, Sprache zu verstehen und Kontext zu erfassen. Sie können oft aus dem Gesamtzusammenhang einer Konversation oder eines Textes ableiten, wer oder was gemeint ist. In deinem Beispiel, in dem es sich immer um die gleiche Person handelt, würde eine KI in der Theorie verstehen, dass „Martina“ gemeint ist, weil der Kontext des Satzes sich auf dieselbe Person bezieht. Moderne Sprach-KIs sind in der Lage, durch den Zusammenhang (wie vorherige Erwähnungen des Namens oder durch die grammatikalische Struktur) zu erkennen, dass eine wiederholte Verwendung unterschiedlicher Bezeichner auf dieselbe Entität hinweist.

Allerdings könnte die Vielzahl an Formen, wie „Student:in“, „Studierende“, „Student/in“ und so weiter, für eine KI problematisch sein, wenn sie diese Formen nicht explizit trainiert wurde, korrekt zu interpretieren. Das liegt daran, dass diese unterschiedlichen Formen in unterschiedlichen Kontexten oder auch in verschiedenen sprachlichen Systemen unterschiedliche Bedeutungen oder Konnotationen haben können.

2. Probleme durch Mehrdeutigkeit

Mehrdeutigkeit ist eine Herausforderung für KI-Systeme, besonders wenn es um sehr spezifische, teils sogar sprachlich konstruierte oder gesellschaftlich neue Konzepte geht (wie gendergerechte Sprache). In deinem Beispiel könnte eine KI, die nicht darauf trainiert wurde, den Kontext von Genderbegriffen korrekt zu interpretieren, Schwierigkeiten haben, die verschiedenen Formen zu verknüpfen. Wenn die KI ausschließlich die Form „Student:in“ oder „Studierende“ analysiert, könnte sie Probleme haben, diese Bezeichner zu verbinden, wenn sie intern nicht auf die gleiche Weise aufgelöst werden.

Beispiel: Wenn eine KI darauf angewiesen ist, nach einem „Studenten“ zu suchen, und sie trifft auf „Das Student:in“, könnte sie in einem aktuellen System möglicherweise keinen direkten Bezug zu „Martina“ herstellen, da der Ausdruck grammatikalisch ungewöhnlich und semantisch nicht eindeutig zu einem bestimmten Subjekt führt. Auch „Das Student/in“ oder „Das Student_in“ sind unorthodox und könnten zu Missverständnissen führen, vor allem, wenn die KI nicht für solche Konstrukte trainiert wurde. Auch die Formulierung „Das Studenty“ ist aus linguistischer Sicht unklar und könnte eine KI weiter verwirren.

3. Kontextualisierung und Prioritätensetzung

Die KI würde in einer realistischen Einsatzsituation natürlich versuchen, anhand des Kontextes (also der vorherigen Hinweise und der Situation) zu verstehen, welche „Studentin“ gemeint ist. Wenn sie jedoch auf eine Vielzahl von Formulierungen stößt, könnte sie Schwierigkeiten haben, zu entscheiden, welche der vielen Bezeichner wirklich zur relevanten Person gehört. Hier würde der Kontext eine große Rolle spielen, aber je nach Komplexität und Qualität der KI-Modelle könnte es zu Missverständnissen oder sogar Fehlschlüssen kommen.

4. Verfügbarkeit von Trainingsdaten

Ein weiterer wichtiger Punkt ist, ob die KI mit genügend Beispielen für gendergerechte Sprache und die verschiedenen Formen von „Student“ in ihren Trainingsdaten konfrontiert wurde. Wenn sie darauf trainiert wurde, mit genderneutraler Sprache und allen Formen des Genderns umzugehen, könnte sie die Bedeutung trotz der unterschiedlichen Bezeichner korrekt entschlüsseln. Wenn die KI jedoch nicht entsprechend trainiert wurde oder die Daten unzureichend sind, könnte sie Schwierigkeiten haben, solche Satzkonstrukte zu entschlüsseln und möglicherweise das falsche Geschlecht oder die falsche Person zu identifizieren.

5. Echtzeit-Verarbeitung und Präzision

In einem Szenario, in dem die KI in Echtzeit eine Entscheidung treffen muss (wie etwa eine Polizei-KI, die eine verdächtige Person verhaften soll), wäre sie darauf angewiesen, schnell eine präzise Entscheidung zu treffen. Wenn sie mehrdeutige oder unklare Ausdrücke in ihren Eingaben erhält, könnte dies ihre Leistung beeinträchtigen. Ein robustes System würde entweder versuchen, den Unsicherheiten mit Wahrscheinlichkeiten zu begegnen oder durch Rückfragen/Validierung von anderen Quellen auf eine genauere Antwort zu kommen. Eine weniger ausgereifte KI könnte jedoch aufgrund der Unklarheiten in den Formulierungen Fehler machen, wie etwa „verwirrte“ Entscheidungen zu treffen oder zu den falschen Schlussfolgerungen zu kommen.

6. Langfristige Entwicklung von KI-Systemen

Angenommen, die KI hat Zugriff auf eine große Menge an zeitgenössischen Daten aus dem Jahr 2081, in denen gendergerechte Sprache weit verbreitet ist und klar strukturiert wird, könnte sie in der Lage sein, auf die unterschiedlichen Formen von „Studentin“ zuverlässig zu reagieren. Die Entwicklung und das Verständnis von gendergerechter Sprache würde hier eine entscheidende Rolle spielen. Es könnte auch sein, dass KIs im Jahr 2081 weiterentwickelt sind, um nicht nur die Bedeutung von Geschlechtern zu verstehen, sondern auch flexibler mit den vielfältigen Ausdrucksweisen von Identitäten umzugehen.

Fazit:

Aktuell, in der heutigen Form der KI und je nach den verwendeten Trainingsdaten, könnte eine KI, die mit den von dir genannten Beispielen konfrontiert wird, durchaus Schwierigkeiten haben, zu verstehen, dass es sich immer um dieselbe Person handelt. Besonders in einem Szenario, in dem viele unterschiedliche sprachliche Varianten miteinander vermischt werden, könnte es zu Verwirrung kommen, was entweder zu einer falschen Identifikation oder einem Fehler in der Ausführung führen könnte. Die Fähigkeit der KI, mit solchen Ambiguitäten umzugehen, hängt stark von der Komplexität ihres Sprachmodells, der Qualität der Trainingsdaten und der spezifischen Aufgabe ab.

Falls du an einer KI im Jahr 2081 denkst, die viel weiter entwickelt ist, könnte sie auf eine solche Situation besser reagieren – vorausgesetzt, sie ist auf den Umgang mit variantenreichen, gendergerechten Ausdrücken gut trainiert.

Schade. Dann muss ich mich wohl von meiner Idee verabschieden.

Noch 1995 war die Transformationsgrammatik von Noam Chomsky davon ausgegangen, dass die Tiefenstruktur der Sprache es einer Maschine unmöglich machen würde Sprache zu verstehen. „Flying planes can be dangerous“ war ein berühmter Beispielsatz, der zeigen sollte, dass
A) Flugzeuge zu fliegen kann gefährlich sein
B) Fliegende Flugzeuge können gefährlich sein
künstlich unmöglich kontextuell erfasst werden können.

Heute lacht sich jede KI darüber kaputt und übersetzt Dir das in jede Sprache, malt Dir ein Bild dazu oder dichtet es um.

Kurz: 2081 geht das mit Sicherheit.

2 „Gefällt mir“

Ps mein Post ist ausschließlich mit Mi und Me verfasst.
Michels intelligence und
Michels Erfahrungen

2 „Gefällt mir“

Das spricht wohl auch dafür, dass ich mich von meiner Idee verabschieden muss.

Mist. Ich muss mir tatsächlich was Anderes ausdenken.

Nein. Da spricht gar nichts gegen! Fiktion ist fiktiv. Vielleicht gibt es ja 2082 nicht mal mehr Studenten, KI oder echte Unis…

Andererseits könnte ich die Trainingsdaten ja verbieten, vielleicht im Jahr 2060. Doch wird das vermutlich auch nicht viel nützen …
Ihr habt mir mal wieder sehr weitergeholfen. Danke.

Ja. Leider doch. Oder nein. Mein Beispiel entstammt natürlich nicht meinem Roman. Das Szenario ist deutlich anders. Aber das möchte ich jetzt noch nicht verraten.

1 „Gefällt mir“

Wenn es darum geht eine KI zu verwirren. Da wird es viele Möglichkeiten geben. Kennst du die DNA Bombe? So etwas gab es auch für das www.
Anstatt Daten zu verschleiern wurde so viele zur Verfügung gestellt, dass es nicht möglich war ein sinnstiftendes Profil einer Person zu erstellen.
Ich muss das Experiment mal raussuchen…

Au ja.

Das was wir generell unter KI verstehen, sind LLMs (Large Language Model), auch generative KI genannt. Die ersten LLMs wurden tatsächlich bereits in den 1960ern und 1970ern entwickelt. Eine Vorstufe von LLMs sind dann so Sachen wie Siri (NLP = Natural Language Processing). Deren Anwendung ist in erster Linie das Verstehen von natürlicher Sprache.

Nachdem LLMs eine Weiterentwicklung von NLPs sind, dürfte eine KI im Jahr 2081 keinerlei Probleme haben, gesprochene Worte von Menschen deuten zu können, ohne dabei „abzustürzen“. Weil gerade auf das Verstehen der Hauptfokus von KI und der KI-Entwicklung gelegt wird.

Ich würde überlegen, ob es gendermäßig nicht dann noch viel mehr Möglichkeiten gibt. Je größer die Vielzahl der Möglichkeiten, umso schwerer für die KI.

Das wäre vielleicht eine Möglichkeit. Oder in Kombi mit einer anderen sprachlichen Eigentümlichkeit oder einem anderen menschlichen Verhalten. Ich muss mal gucken, ob so etwas in meine Szene passen könnte.

Ich wollte eher auf eine Fehlfunktion hinaus, in die Richtung, dass mein Roboter möglicherweise nicht zur Uni fährt sondern Schlittschuh läuft, weil das arme Ding völlig überfordert ist.

1 „Gefällt mir“

bezweifel ich, dass es mit Post-Quantencomputing und KI in wenigen Jahren ein Problem ist. Seriöserweise schauen wir ja nicht weiter als 10 Jahre in die Zukunft. Also wenns es um Auswirkungen von Technologien ins Real Life geht

@Suse 2081 ist eine schwierige Übungsanlage - du kannst da alles und nichts behaupten. Mit technischen Restriktionen würde ich nicht arbeiten. Wenn dann eher etwas, was aus der Governance kommt.

Wenn aber die Restriktionen dahingehend wären, dass KI möglichst problemlos mit den Menschen zusammenarbeiten kann? Oder denke ich da zu sehr in Richtung „menschliches Kopfverbiegen“?

Wie auch immer, ich habe mal wieder jede Menge Anregungen von euch bekommen. Die muss ich jetzt sinnvoll in meine Notizen quetschen und finde dabei hoffentlich die Lösung für mein „Problem“. :grinning:

1 „Gefällt mir“