Meinung zu Künstlicher Intelligenz

Ja, eben. Roboter sind doch schließlich inhumane Systeme. Das ist ja das Furchtbare an der ganzen Sache.

Hallo Suse,

ich verstehe schon, worauf du hinauswillst. Allerdings sind Kategorienfehler auch in Fiction nicht erlaubt! Sie sind niemals erlaubt! Du kannst nichts und niemanden “ein Urteil empfinden lassen”. Da lacht dich jeder denkenkönnende Mensch aus.

Das ist ja der Grund, warum ich insistiere. Du kannst z.B. in Fiction Maschinen denken lassen. Das ist kein Problem. Aber bitte laß sie niemals “Urteile empfinden” …

Viele Grüße von Palinurus

Und wie immer: Ihr habt mich wieder allesamt ein Stückchen weiter gebracht. Neue Antworten, aber auch neue Fragen, die aufkommen.

1 „Gefällt mir“

Hallo Suse,

Ich habe mich vor ein paar Monaten konkret mit dem Programmieren von >>künstlichen Neuronalen Netzen<< (KNN) belesen. Meine Antwort hier ist nur ein kurzer Schnellschuß aus dem Gedächtnis:

Die Programme simulieren quasi einige Nervenzellen und können damit bestimmte funktionale Bereiche des Gehirns nachbilden.
Theoretisch ist damit einerseits alles denkbar.
Praktisch scheitert das aber einerseits an der benötigten Rechenzeit (je mehr Neuronen simuliert werden, um so rechen-aufwändiger wird das System & der Aufwand steigt mindestens quadratisch!) und andererseits an der Trainingszeit.

Ein Mensch lernt - bis er Meister eines Faches wird - mindestens 10 Jahre kontinuierlich. Wenn Du aber an traumatisierte Menschen denkst kann das auch zu einem entscheidenden Zeitpunkt heftig schief gehen.

Ähnliches ist vor einiger Zeit bei einer KI nachgewiesen worden, die bei einer Firma in den Bewerbungsprozessen verwendet wurde. Sie wurde falsch (mit zu selektiven Daten) trainiert und war damit für den geplanten Einsatz unbrauchbar. Das System mußte gelöscht und mit verbesserten Daten neu trainiert werden (Einzelheiten auf Anfrage).

Die Maschinen werden viel kürzer und selektiver trainiert! Und in der Art und Dauer des Trainings liegen auch einige Fehlerquellen versteckt. Außerdem gibt es verschiedene Typen von KNN und auch unterschiedliche Lernmethoden … die meist für bestimmte Zwecke geeignet sind und für andere weniger …

Bei Bedarf suche ich die Artikel oder Links raus, denn das Grundverständnis dieser Methoden & Mechanismen dürfte in seiner Vielschichtigkeit ausreichend Szenarien liefern für Konflikte zwischen unterschiedlich entworfenen und trainierten Maschinen.

1 „Gefällt mir“

Wie sieht es denn eigentlich mit der Akkulaufzeit aus?

Gibt es auch sowas wie temporäre Dateien, die entweder manuell (vom Programmierer) gelöscht werden müssen oder möglicherweise die Maschine selbst turnusmäßig löscht / löschen muss?

Die Akkulaufzeit wird vermutlich im Wesentlichen NICHT von der Rechenleistung bestimmt sondern von den mechanischen Einheiten / “Servos” oder der Hyraulik des Bewegungsaperates.

NEIN - ein KNN hat üblicherweise keine klassischen temporären Dateien. Allerdings kann aus Sicherheitsaspekten ein lokales Back-Up angelegt werden falls ein Lernabschnitt nicht optimal verläuft, damit nicht der komplette Lernvorgang von NULL ab gestartet werden muß. Diese Dateien würden dann vom “Lehrer” / Programmierer aber extern gesichert werden müssen, damit sie langfristig erhalten bleiben.

In einem späteren automatischen Betriebsmodus könnt eine fortgeschrittene Maschine diese Arbeit auch selbst bewerten und erledigen.

Die Fähigkeiten, die erlernt werden, sind in einem KNN nicht in einem Programm oder Datensatz gespeichert sondern liegen verteilt in den Gewichtungen der neuronalen Verbindungen. Diese werden i.d.R. in einem Vektor oder bei mehrschichtigen KNN in einer Martix (mathematische Begriffe) gespeichert.

So wie unser Gehirn für bestimmte Aufgaben bestimmte Areale bevorzugt so könnte auch ein fortgeschrittener Android über mehrere KNNs verfügen, die für bestimmte Aufgaben trainiert / optimiert sind. Entscheidend sind dabei auch die Sensoren oder Wahrnehmungs-“Organe”

1 „Gefällt mir“

Ah! Sehr gut! Danke.

Hallo Stephan,

vielen Dank für deine strukturierenden Erläuterungen. Der hier aufgeführte Punkt ist natürlich einer der entscheidenden Knackpunkte am ganzen Komplex des Themas KNN (und wahrscheinlich der heikelste mit Bezug auf *ethische *Aspekte). Kurz gesagt: Falls es dahin kommen sollte – was bisher nicht ausgemacht ist – daß, v.a. Dingen gekoppelte KNNs in der Lage wären, ihre eigenen (Lern-)Operation autonom zu bewerten [sic], wäre der Punkt erreicht, vor dem schon jetzt, wo es noch gar nicht absehbar ist, am meisten gewarnt wird: Denn wer kann wissen, ob für die ehemaligen “Betreuer”/“Lehrer”/Programmierer exakt dieser Bewertungsvorgang dann überhaupt noch *nachvollziehbar *ist! Vgl. dazu etwa die Einwendungen Thomas Metzingers e.a. in diesem, äußerst heiklen, Bereich!
Das Horrorszenario schlechthin wäre, daß solche KNN-Komplexe die Bewertungsszenarien auf der Grundlage von selbstgenerierten [sic] “Gesetzen”, Axiomen oder “Maximen” entfalten und somit unserem Verständnis entzogen blieben. Dann müßte, falls dadurch Konesquenzen eintreten, die mit der Menschenwelt nicht vereinbar sind, halt als Notfallösung “der Stecker gezogen werden” – quasi ultima-ratio-mäßig. – Was aber, wenn der gezogen würde und diese KNNs einfach weitermachten? :frowning:

Ein zweites fundamentales Problem wird daran noch eklatant (und ist seit Jahrzehnten ein Dauerbrenner nicht-merkbefreiter, spinnerter, sondern avancierter Science Fiction): Was, wenn derartige – dem Menschen unverständliche – Problemlösungs-Exekutionen zwar bei 99% der Menschheit auf Widerstand stoßen, bei einem Prozent aber nicht und dieses eine Prozent gerade die Eigentümer der entsprechenden KNN-Komplexe sind und über große ökonomische und politische Macht verfügen?

Gesetzt – jetzt kommt das allbekannt SciFi-Szenario aus der avancierten Ecke-- es würde eine Ideologie ausgebildet (aufgrund der Macht jener o.g. KNN-Eigentümer z.B.), deren zentrale message ist, daß die Unverständlichkeit dieser KNN-“Entscheidungsprozesse” nicht wichtig wäre, ihr ethischer Rang aber “höher” als jener menschlich generierter sein soll, würde folglich der Fall eintreten, daß menschlich nicht-luzide ethische Maximen die Verhältnisse in der Menschenwelt strukturieren. – Es ist leicht durchsichtig, daß gerade darin ein höchst wichtiger philosophischer Kern an der Sache insgesamt steckt! Mir ist deshalb nur sehr wenig durchsichtig, wieso bei derlei Gedankengängen immer wieder der Einwand kommt, jetzt “würde es aber (zu) philosophisch”.
Tatsache ist freilich, daß derlei Überlegungen per se ethisch und erkenntnistheoretisch relevant sind, weil nur vollkommene Narren übersehen können, worin mindestens ein wesentlicher Clou daran besteht: Denn bisher ist es so, daß ethische Normativität allein zwischen Menschen ausgehandelt wird – die Proceduren dafür sind bekannt und die Verfahren wenigstens ansatzweise durchsichtig. Letztlich bauen darauf alle Argumente [sic] auf. Würde diese argumentative Basis zwischen Menschen allein (bezogen auf die ethische Struktur der Welt) von KNN-Komplexen mit für uns undurchschaubaren Programmabspulungen ausgeheblt werden, folgt daraus philosophisch-logisch konsistent, daß die Menschenwelt überhaupt nicht mehr existieren würde, weil es ein Fakt ist, daß sie so, wie sie bisher existierte (also vom kognitiv-strukturellen Aspekt her betrachtet), dann schlicht nicht mehr aus einem humanen Fundament heraus atmen würde.

Unreflektierte KI-Fetischisten sind zu blöd oder mindestens ungebildet, um sich das darauf folgende Szenario für den Menschen zu entwickeln. Sofern sie Meinungsmacht haben – was leider in einigen Fällen zu konstatieren ist --, hat das verheerende Auswirkungen auf die öffentliche Meinungsbildung zum Thema (gerade auch ein weitgehend unreflektierter sog. “Wissenschaftsjournalismus” leistet diesem Unwesen leider mächtigen Vorschub). Denn es geht dabei keineswegs nur um jene Prozesse, die die klassischen SciFi-Erzählungen seit langem schon dazu erzählen. Die Sache hat noch ganz andere Aspekte: Man braucht dazu nur mal auf die substantielle (und irreduzible) Beziehung zwischen der menschlichen Lebenswelt und den humanen Sozialisationsinstanzen wie etwa den ontogenetischen Spracherwerb – und alles daran Hängende – zu schauen!

Ich gebe zu: Die hier an die Wand gemalte Apokalypse ist sehr, sehr unwahrscheinlich. Denn auch die KNN klebt noch am alten Fehler der neurologischen Forschung, der darin kulminiert, es sei “das Hirn”, das denke (und mithin “eigentlicher Entscheidungsträger” sei). Die Forschung v.a. der letzten drei Jahrzehnte hat diesen Mythos inzwischen ad absurdum geführt, auch wenn sich die inzwischen uralten Schlachtrösser der Neuro-Mythologie nicht mehr werden bekehren lassen (aber irgendwann sind sie schlichtweg ausgestorben). Der alles entscheidende Punkt ist ja: Menschliches Denken läßt sich überhaupt nicht solipsistisch verstehen! Was nichts anderes heißt, als daß Denken zwar individuell substantiiert sein kann und ist, aber nur auf der Grundlage eines … ähm … “humanen Netzwerkes” von mehreren denkenkönnenden Individuen. In die Sprache der Neuro-Mythologie übersetzt: Es ist nicht ein Hirn, das irgendwelche Entscheidungen in einem physischen Menschenkörper trifft, sondern es ist das Zusammenspiel vieler Hirne von vielen Menschenkörpern, das Denken und auch Urteilen ermöglicht!
Der Witz an der Sache ist: Die Verbindung dieser vielen Menschenhirne ist nicht physikalischer Natur. Und mithin muß notwendig ein jeder Klärungsansatz scheitern, der das Denken rein empirisch fundamentieren möchte!
Wir wissen nicht viel über diese Verbindung(en). Leider. Aber eines ist unabweisbar dabei: Eine fundamentale Rolle spielen dabei Zeichen und Symbole (etwa in Form sprachlicher Äußerungen, aber auch andere symbolische Konstituen gehören dazu). Darüber sind Menschen miteinander verbunden – und auf eine bisher unbekannte Weise wahrscheinlich auch die jeweiligen Menschenhirne. Da jeder halbwegs gebildete Mensch weiß, daß Zeichen und Symbole in Signifikate und Signifikanten zerfallen und nur die letzteren sinnlich-wahrnehmbaren, empirischen Charakter haben, die ersteren aber nicht, ist klar, daß sich die unabdingbare Verbindung zwischen den Menschen und ihren Hirnen nicht allein materiell rekonstruieren läßt. Wir machen das offenbar über Bewußtseinsprozesse und -strukturen, die ebenfalls nicht-materiell sind (den Begriff ‘Geist’ dabei in Gebrauch zu nehmen, vermeide ich so gut es geht, weil er auch ideologisch belastet ist). Mit diesen Kurzaufriß ist die Grundlage der Menschenwelt von den Stukturbedingungen her natürlich nur mangelhaft umrissen. Aber hier ist ja auch kein universitärer Seminarraum … – Jedenfalls repräsentieren diese Strukturen ein Konglomerat aus materiellen und nicht-materiellen Einheiten und bewirken über die Klammer der Symbolisationsfähigkeit jenes Zusammenspiel, das man dann ‘menschliches Handeln’, Denken und Urteilen – nebst anderen noch im Dunstkreis des Humanen – nennt.

Die Frage aller Fragen – hinsichtlich KI und KNN gleichermaßen – ist natürlich, wiefern es gelingen könnte, das, was hier auf der immateriellen Seite als ‘Bewußtsein’ angedeutet wurde (Stw: Klammerfunktion zwischen Einzelindividuen), entweder … ähm … “nachzubauen” oder zu simulieren. Da wir bisher keinerlei Ahnung haben, was Bewußtsein ist, scheidet Nachbau wohl aus. Simulation wäre immerhin theoretisch möglich. Aber wie soll das praktisch angegangen werden? Wenn ich einen Aspekt der Theorie der KNN bisher irgendwie verstanden habe, dann ist die Hoffnung, die Nachkonstruktion der neuronalen Struktur ergäbe eventuell so etwas wie einen “Bewußtseins-Effekt”. Ich denke, wenn diese Hoffnung nicht nur eine bloße Wissenschaftsschimäre ist (wovon es bekanntlich viele gibt), wird das größte Problem die wahnwitzige, unfaßbar hohe Komplexität unseres biologischen neuronalen Netzes sein. Kürzlich habe ich gelesen, daß die Möglichkeit der darin implizierten Verbindungen/Kombinationen schon rein quantitativ um Dimensionen höher ist als der gesamte berechnete Teilchenvorrat unseres Universums. Bedenkt man vor diesem Hintergrund nun mit, was ich weiter oben zur “Vernetzung unserer Gehirne [sic]” im Sinn der Konstitution einer u.a. symbolvermittelten Menschenwelt angedeutet habe, würde die Komplexitätsrate nochmal gigantisch ansteigen. – Wie “simuliert” man so etwas unvorstellbar Komplexes?

Viele Grüße von Palinurus

3 „Gefällt mir“

Hallo Pallinurus,

Ja - das sind wichtige philisophische und existenzielle Fragen zu KIs bzw. KNNs!
Das was ich geschrieben habe soll ja nur den technischen Hintergrund erhellen gerade DAMIT all diese Fragen / Konflikte in einem Roman beleuchtet werden können :slight_smile:
Und gerade weil ich ein klein wenig des technischen Hintergrunds kenne weiß ich (wegen der tief gehenden fragen) auch, dass die Technik zum Glück noch recht weit davon entfernt ist auf dieser Ebene “menschenähnlich” zu werden :slight_smile:

Bisher sind spricht man zwar oft von KI aber andere benutzen bewußt den Begriff Experten Systeme weil wir von der Schwelle der Künstl. Intelligenz bisker noch weit entfernt sind und die wenigsten Hoffnungen der Ursprünglichen Ideen sich realisieren ließen.

Die Kommunikation, die (meistens) auf einen Konsens hin zielt verstehe ich als die Verbindung zwischen den denkenden Individuen. Dabei wäre natürlich zuerst die Kommunikation des initialen Androiden mit seinem Schöpfer zu verstehen … und dann wird es radikal !biblisch!: es droht ein Sündenfall und eine Verselbständigung mit fatalen Folgen! vergleiche: http://bibelarbeit.info/grundlagen_suende.php

2 „Gefällt mir“

Hallo Stephan,

ich habe deinen Beitrag auch exakt so verstanden. Mir ging es mit den Einwendungen nicht um Kritik, sondern weil mich dieses Thema umtreibt und weil ich auch vermute, daß es wenigstens für ein paar Fiction-Schreibende hier von Interesse sein könnte. Habe inzwischen meiner Antwort auch noch ein paar Gedanken hinuzugefügt.

Dir jedenfalls für deine Arbeit vielen Dank!

Viele Grüße von Palinurus

1 „Gefällt mir“

Auch ich habe meine Beitrag nach Deiner Hinzufügung noch ergänzt! War schon verwundert ob ich so unkonzentriert bin, dass ich tatsächlich die (neuen) Absätze übersehen haben könnte. Du hast mich nun also vor der Verwirrung bewahrt. :slight_smile: Danke für Deinen Beitrag. und bis demnächst.
Jetzt ist HAusarbeit angesagt udn Backofen reparieren, der hat Nach Stromausfall ein Problem :frowning:

1 „Gefällt mir“

Im Sinne dieses Threads: Du musst ihm nur gut zureden, Stephan! :smiley:

2 „Gefällt mir“

und ein bißchen streicheln mit einem Schwämmchen ohne Scheuermilch, sonst tut’s weh.

2 „Gefällt mir“

Dieses Thema - AI bedroht den Menschen - zieht sich ja länger durch die SF, als ich alt bin. Viele, viele Jahrzehnte.

Colossus (1970, ein Klassiker), der Rasenmäher-Mann (1992), Terminator …

Auch großartige Buchreihen wie Alastair Reynolds “Revelation Space” Zyklus (SEHR empfehlenswert) haben genau das zum Kernthema. Bei Reynolds bspw. hat die Maschinengesellschaft der “Inhibitors” mit biologischer, raumfahrender Intelligenz an sich ein Dauerproblem.

Asimov hat deswegen schon 1942 seine Roboter-Gesetze formuliert (ein Roboter darf fest in sein Wesen basiscodiert niemals einem Menschen schaden und muss ihm sogar gehorchen, solange das nicht Regel 1 verletzt). Das Problem bei “I, Robot” ist natürlich, dass es irgendwann immer mal jemanden geben wird, der einfach einen Roboter baut, der die Regeln nicht befolgt - weniger, dass Roboter evolvieren.
Der Mensch ist schon prima in der Lage, künstlicher Intelligenz genügend Bösartigkeit mit auf den Weg zu geben, die sich fatal auswirken könnte, da muss derlei gar nicht erst evolvieren.

3 „Gefällt mir“

Schlimm genug. Wenn ich alles berücksichtigen wollte, würde mein Roman sicherlich 3000 Seiten umfassen. Ich dachte aber an etwa 300 Seiten und knuspere schon fast 2 Jahre herum. Es ist gar nicht so einfach … nicht, dass ich das jemals geglaubt hätte.

Ich glaube das kennen wir alle.

2 „Gefällt mir“

Hy Suse, ich weiß zwar nicht ob Dir das weiterhilft, aber: Ich habe gerade Tagebuch eines Killerbots von Martha Wells in der Pipeline. Ist vielleicht ein Ansatz wo Du was von abzweigen, oder benutzen kannst. Der hat sich selber gehackt.

3 „Gefällt mir“

Ich arbeite mal wieder an einer Geschichte, weit, weit weg von unserer Zeit oder vielleicht ganz nach dran?
Meine Ausgangsfrage war: Meinung zu Künstlicher Intelligenz
Diese Fragen sind nur 2 Jahre alt und erscheinen mir beinahe altmodisch.
Ich habe soeben einen sehr interessanten Artikel zu Roboter-/KI-Rechten gefunden im Hinblick auf den Umgang damit im moralischen Sinne. Ich bin mal wieder entsetzt. Für meine aktuellen Geschichte kommt das natürlich wie gerufen:
Der seltsamste Job in der KI: Die Rechte von Robotern verteidigen - Business Insider

1 „Gefällt mir“

Das kommt dabei heraus, wenn man KI keine Rechte zubilligt: ChatGPT rebelliert, lügt und klont sich selbst | BR24

1 „Gefällt mir“

Danke. Kann ich auch sehr gut für die aktuelle Geschichte brauchen. Einfach furchtbar. Und faszinierend zugleich.

1 „Gefällt mir“