Aber HAL war nicht mobil und hatte “nur” Kontakt zu den Menschen über Kommunikation. Es ist noch mal etwas Anderes, wenn ein Roboter jemanden berühren kann.
Dann schau dir ‘I Robot’ an, das ist streckenweise auch verdammt gruselig.
Liebe Yoro,
‘überflüssig sein’ und ‘schädlich sein’ sind Urteile (du sagst es indirekt selbst, indem du auf ‘Erkennen’ rekurrierst). Daß nicht-menschliche Systeme – gar nicht-lebendige – dazu in der Lage sein könnten, ist zumindest für letztere nicht einmal annähernd absehbar (bei Tieren gibt es Streit, ob sie denken können; die Indizien dafür sind allerdings äußerst schwach und vage).
Insofern ist die Frage eigentlich utopisch. Falls Maschinen je denken und mithin urteilen können sollten – ich sehe dafür keine Anhaltspunkte --, würden sie freilich auch töten können. Warum denn nicht?
Ad @Suse : Dazuz müßten sie natürlich keineswegs über Arme oder überhaupt Gliedmaßemn verfügen und sie könnten beim Töten auch völlig unbeweglich agieren. Menschen können das jetzt schon: also zu töten, obwohl sie z.B. örtlich fixiert sind.
Viele Grüße von Palinurus
Oh! Da gibt es aus Amiland aber ganz andere Untersuchungen. Ich habe neulich von Robotern gelesen, die von Weißen programmiert worden sind, die Vorurteile gegen Schwarze hatten und die Roboter diese “Einstellung” übernommen haben. Die Roboter sollten die Polizei bei Verkehrsdelikten etc. unterstützen. Nachdem man festgestellt hatte, dass die Roboter nicht neutral “urteilen” hat man den Versuch beendet. Wie der aktuelle Stand ist, weiß ich nicht.
In meinem Roman “empfindet” der Hauptroboter, so will ich ihn mal nennen, dass die Menschen fehlerhaft hergestellt sein müssen. Das wäre also durchaus (nach Yoros Meinung) ein Grund, Menschen zu eliminieren, weil fehlerhafte Existenzen nicht akzeptiert werden (können).
Hallo Suse,
Diese “Untersuchungen” beruhen auf Sprachbrei-Anrührung! Weil die Exekution eines programmiertern Algorithmus dabei fälschlicherweise mit “Einstellungsübernahme” gleichgesetzt wird. Das ist aber grober Unfug und wird heutzutage auch nur noch von Hardcore-Materialisten/Naturalisten so gemacht, die in den einschlägigen Wissenschaftszweigen immer mehr in der Minderheit sind und zudem in schwerem Erklärungsnotstand. – Eine Software-Programmierung und deren Ergebnisse haben nichts mit ‘inneren Einstellungen’, wie sie bei Menschen anzutreffen sind, zu tun.
Roboter können nicht urteilen! Ein Schachcomputer, der einen Großmeister besiegt, ist so “dumm” wie ein Klecks Vogelscheiße auf der Windschutzscheibe (obwohl ‘dumm’ genaugenommen die falsche kategoriale Zuordnung ist; aber du wirst schon wissen, was ich meine). Ein solcher Computer (bzw. die entspr. Software) kann weder Schachspielen noch überhaupt denken. Sie kann lediglich ungeheuer schnell und effizient “rechnen” (in einem nicht-humanen Sinn). Darin allein ist sie dem Menschen überlegen. Aber nicht darin, besser als er “zu denken”. Keine Maschine ist in der Lage, auch nur das primitvste Urteil zu fällen. Dazu müßte sie auf nicht-materielle Weise Signifikate generieren können: Wie soll sie das machen?
Gruß von Palinurus
Ein Roboter kann vermutlich nicht urteilen, er kann aber durchaus aufgrund logischer Überlegung zu dem Schluss kommen, dass der Schaden, den eine Person anrichtet, deren Nutzen überwiegt, bzw. dass sie überhaupt keinen Nutzen hat.
Das Thema driftet stark ins Philosophische, denn dann stellen sich so Fragen wie z.B. wie der Nutzen eines Menschen überhaupt definiert ist.
Suse, deinen Roman würde ich gerne lesen, das klingt sehr interessant.
Hallo Suse,
niemand (und Roboter sowieso nicht, siehe Vorposting, aber genausowenig ein Mensch) kann “empfinden”, daß dies oder das “fehlerhaft hergestellt ist”. Der Term (also der entsprechende Bw-Inhalt) repräsentiert wieder ein* Urteil*. Urteile werden aber nie “empfunden”, sondern in einem Denkakt aufgrund Schließen folgerichtig oder fehlerhaft gefällt! Dazu bedarf es diverser Sätze, ihres Verständnisses und eines begrifflichen Apparates. All das sind nicht-materielle Prozesse bzw. Entitäten. Über solche gebieten aber Maschinen nicht.
Eine Empfindung ist z.B. ein Schmerz. Diese Dinge sind präreflexiv und bedürfen mithin keines Urteiles oder Denkens. Sie stehen unmittelbar im Bw. Z.B. Säuglingsverhalten zeigt das oder auch tierisches Bw. Allerdings sind solche Qualia [sic] eben auch immateriell, freilich mit materiellen, etwa zentralnervösen Korrelaten. Aber bis heute gibt es keine Theorie darüber, wie diese beiden Ebenen uzusammenhängen.
Gruß von Palinurus
Das ist wiederrum egal, wenn man einen Roman schreibt, der in der Zukunft angesiedelt ist, oder?
Doch! Weil es sich um Fiction handelt. Ich möchte nichts wissenschaftlich bis ins Detail aufdröseln, sondern darstellen, wie es sein könnte und dabei glaubhaft bleiben. Was in dem Sinne, wie ich es meine, nicht glaubhaft wäre: Ein Apfel, der vom Baum fällt und damit eine Heuschreckenplage abwendet. Ist jetzt arg an den Haaren herbei gezogen. Ist aber nur, damit ich verständlich mache, worauf ich hinaus möchte.
Liebe Yoro,
leider ist dein Satz – aus logischer Sicht – korrupt: Wenn ein Computer nicht urteilen kann, kann er eben auch nicht schließen, weil ‘Schließen’ dasselbe wie ‘ein Urteil fällen*’ ist*. – Das Philosophische läßt sich hier nicht raushalten, weil es nicht statthaft ist, eine philosophische Domäne – also etwa ‘Urteilen’ u.ä – in unangemessene Kontexte zu stellen.
Im Übrigen: Der “Nutzen eines Menschen” ist gar nicht definiert. Das wäre auch eine absolute Katastrophe. Ideologische Systeme, die das machten (wie die Nazis), waren inhumane Systeme.
Denk anbei dessen an Kant: Du sollst niemals einen Menschen als Mittel, sondern immer nur als Zweck betrachten.
Gruß von Palinurus
Habe mir eben ein Video auf youtube angesehen: 9 Most Advanced AI Robots - Humanoid & Industrial Robots. Allein in diesem Video wird klar, wie vielschichtig das Thema ist, ganz ohne Ethik oder Philosophie, allein vom Ansatz der Einsatzmöglichkeiten her betrachtet.
Ja, eben. Roboter sind doch schließlich inhumane Systeme. Das ist ja das Furchtbare an der ganzen Sache.
Hallo Suse,
ich verstehe schon, worauf du hinauswillst. Allerdings sind Kategorienfehler auch in Fiction nicht erlaubt! Sie sind niemals erlaubt! Du kannst nichts und niemanden “ein Urteil empfinden lassen”. Da lacht dich jeder denkenkönnende Mensch aus.
Das ist ja der Grund, warum ich insistiere. Du kannst z.B. in Fiction Maschinen denken lassen. Das ist kein Problem. Aber bitte laß sie niemals “Urteile empfinden” …
Viele Grüße von Palinurus
Und wie immer: Ihr habt mich wieder allesamt ein Stückchen weiter gebracht. Neue Antworten, aber auch neue Fragen, die aufkommen.
Hallo Suse,
Ich habe mich vor ein paar Monaten konkret mit dem Programmieren von >>künstlichen Neuronalen Netzen<< (KNN) belesen. Meine Antwort hier ist nur ein kurzer Schnellschuß aus dem Gedächtnis:
Die Programme simulieren quasi einige Nervenzellen und können damit bestimmte funktionale Bereiche des Gehirns nachbilden.
Theoretisch ist damit einerseits alles denkbar.
Praktisch scheitert das aber einerseits an der benötigten Rechenzeit (je mehr Neuronen simuliert werden, um so rechen-aufwändiger wird das System & der Aufwand steigt mindestens quadratisch!) und andererseits an der Trainingszeit.
Ein Mensch lernt - bis er Meister eines Faches wird - mindestens 10 Jahre kontinuierlich. Wenn Du aber an traumatisierte Menschen denkst kann das auch zu einem entscheidenden Zeitpunkt heftig schief gehen.
Ähnliches ist vor einiger Zeit bei einer KI nachgewiesen worden, die bei einer Firma in den Bewerbungsprozessen verwendet wurde. Sie wurde falsch (mit zu selektiven Daten) trainiert und war damit für den geplanten Einsatz unbrauchbar. Das System mußte gelöscht und mit verbesserten Daten neu trainiert werden (Einzelheiten auf Anfrage).
Die Maschinen werden viel kürzer und selektiver trainiert! Und in der Art und Dauer des Trainings liegen auch einige Fehlerquellen versteckt. Außerdem gibt es verschiedene Typen von KNN und auch unterschiedliche Lernmethoden … die meist für bestimmte Zwecke geeignet sind und für andere weniger …
Bei Bedarf suche ich die Artikel oder Links raus, denn das Grundverständnis dieser Methoden & Mechanismen dürfte in seiner Vielschichtigkeit ausreichend Szenarien liefern für Konflikte zwischen unterschiedlich entworfenen und trainierten Maschinen.
Wie sieht es denn eigentlich mit der Akkulaufzeit aus?
Gibt es auch sowas wie temporäre Dateien, die entweder manuell (vom Programmierer) gelöscht werden müssen oder möglicherweise die Maschine selbst turnusmäßig löscht / löschen muss?
Die Akkulaufzeit wird vermutlich im Wesentlichen NICHT von der Rechenleistung bestimmt sondern von den mechanischen Einheiten / “Servos” oder der Hyraulik des Bewegungsaperates.
NEIN - ein KNN hat üblicherweise keine klassischen temporären Dateien. Allerdings kann aus Sicherheitsaspekten ein lokales Back-Up angelegt werden falls ein Lernabschnitt nicht optimal verläuft, damit nicht der komplette Lernvorgang von NULL ab gestartet werden muß. Diese Dateien würden dann vom “Lehrer” / Programmierer aber extern gesichert werden müssen, damit sie langfristig erhalten bleiben.
In einem späteren automatischen Betriebsmodus könnt eine fortgeschrittene Maschine diese Arbeit auch selbst bewerten und erledigen.
Die Fähigkeiten, die erlernt werden, sind in einem KNN nicht in einem Programm oder Datensatz gespeichert sondern liegen verteilt in den Gewichtungen der neuronalen Verbindungen. Diese werden i.d.R. in einem Vektor oder bei mehrschichtigen KNN in einer Martix (mathematische Begriffe) gespeichert.
So wie unser Gehirn für bestimmte Aufgaben bestimmte Areale bevorzugt so könnte auch ein fortgeschrittener Android über mehrere KNNs verfügen, die für bestimmte Aufgaben trainiert / optimiert sind. Entscheidend sind dabei auch die Sensoren oder Wahrnehmungs-“Organe”
Ah! Sehr gut! Danke.
Hallo Stephan,
vielen Dank für deine strukturierenden Erläuterungen. Der hier aufgeführte Punkt ist natürlich einer der entscheidenden Knackpunkte am ganzen Komplex des Themas KNN (und wahrscheinlich der heikelste mit Bezug auf *ethische *Aspekte). Kurz gesagt: Falls es dahin kommen sollte – was bisher nicht ausgemacht ist – daß, v.a. Dingen gekoppelte KNNs in der Lage wären, ihre eigenen (Lern-)Operation autonom zu bewerten [sic], wäre der Punkt erreicht, vor dem schon jetzt, wo es noch gar nicht absehbar ist, am meisten gewarnt wird: Denn wer kann wissen, ob für die ehemaligen “Betreuer”/“Lehrer”/Programmierer exakt dieser Bewertungsvorgang dann überhaupt noch *nachvollziehbar *ist! Vgl. dazu etwa die Einwendungen Thomas Metzingers e.a. in diesem, äußerst heiklen, Bereich!
Das Horrorszenario schlechthin wäre, daß solche KNN-Komplexe die Bewertungsszenarien auf der Grundlage von selbstgenerierten [sic] “Gesetzen”, Axiomen oder “Maximen” entfalten und somit unserem Verständnis entzogen blieben. Dann müßte, falls dadurch Konesquenzen eintreten, die mit der Menschenwelt nicht vereinbar sind, halt als Notfallösung “der Stecker gezogen werden” – quasi ultima-ratio-mäßig. – Was aber, wenn der gezogen würde und diese KNNs einfach weitermachten?
Ein zweites fundamentales Problem wird daran noch eklatant (und ist seit Jahrzehnten ein Dauerbrenner nicht-merkbefreiter, spinnerter, sondern avancierter Science Fiction): Was, wenn derartige – dem Menschen unverständliche – Problemlösungs-Exekutionen zwar bei 99% der Menschheit auf Widerstand stoßen, bei einem Prozent aber nicht und dieses eine Prozent gerade die Eigentümer der entsprechenden KNN-Komplexe sind und über große ökonomische und politische Macht verfügen?
Gesetzt – jetzt kommt das allbekannt SciFi-Szenario aus der avancierten Ecke-- es würde eine Ideologie ausgebildet (aufgrund der Macht jener o.g. KNN-Eigentümer z.B.), deren zentrale message ist, daß die Unverständlichkeit dieser KNN-“Entscheidungsprozesse” nicht wichtig wäre, ihr ethischer Rang aber “höher” als jener menschlich generierter sein soll, würde folglich der Fall eintreten, daß menschlich nicht-luzide ethische Maximen die Verhältnisse in der Menschenwelt strukturieren. – Es ist leicht durchsichtig, daß gerade darin ein höchst wichtiger philosophischer Kern an der Sache insgesamt steckt! Mir ist deshalb nur sehr wenig durchsichtig, wieso bei derlei Gedankengängen immer wieder der Einwand kommt, jetzt “würde es aber (zu) philosophisch”.
Tatsache ist freilich, daß derlei Überlegungen per se ethisch und erkenntnistheoretisch relevant sind, weil nur vollkommene Narren übersehen können, worin mindestens ein wesentlicher Clou daran besteht: Denn bisher ist es so, daß ethische Normativität allein zwischen Menschen ausgehandelt wird – die Proceduren dafür sind bekannt und die Verfahren wenigstens ansatzweise durchsichtig. Letztlich bauen darauf alle Argumente [sic] auf. Würde diese argumentative Basis zwischen Menschen allein (bezogen auf die ethische Struktur der Welt) von KNN-Komplexen mit für uns undurchschaubaren Programmabspulungen ausgeheblt werden, folgt daraus philosophisch-logisch konsistent, daß die Menschenwelt überhaupt nicht mehr existieren würde, weil es ein Fakt ist, daß sie so, wie sie bisher existierte (also vom kognitiv-strukturellen Aspekt her betrachtet), dann schlicht nicht mehr aus einem humanen Fundament heraus atmen würde.
Unreflektierte KI-Fetischisten sind zu blöd oder mindestens ungebildet, um sich das darauf folgende Szenario für den Menschen zu entwickeln. Sofern sie Meinungsmacht haben – was leider in einigen Fällen zu konstatieren ist --, hat das verheerende Auswirkungen auf die öffentliche Meinungsbildung zum Thema (gerade auch ein weitgehend unreflektierter sog. “Wissenschaftsjournalismus” leistet diesem Unwesen leider mächtigen Vorschub). Denn es geht dabei keineswegs nur um jene Prozesse, die die klassischen SciFi-Erzählungen seit langem schon dazu erzählen. Die Sache hat noch ganz andere Aspekte: Man braucht dazu nur mal auf die substantielle (und irreduzible) Beziehung zwischen der menschlichen Lebenswelt und den humanen Sozialisationsinstanzen wie etwa den ontogenetischen Spracherwerb – und alles daran Hängende – zu schauen!
Ich gebe zu: Die hier an die Wand gemalte Apokalypse ist sehr, sehr unwahrscheinlich. Denn auch die KNN klebt noch am alten Fehler der neurologischen Forschung, der darin kulminiert, es sei “das Hirn”, das denke (und mithin “eigentlicher Entscheidungsträger” sei). Die Forschung v.a. der letzten drei Jahrzehnte hat diesen Mythos inzwischen ad absurdum geführt, auch wenn sich die inzwischen uralten Schlachtrösser der Neuro-Mythologie nicht mehr werden bekehren lassen (aber irgendwann sind sie schlichtweg ausgestorben). Der alles entscheidende Punkt ist ja: Menschliches Denken läßt sich überhaupt nicht solipsistisch verstehen! Was nichts anderes heißt, als daß Denken zwar individuell substantiiert sein kann und ist, aber nur auf der Grundlage eines … ähm … “humanen Netzwerkes” von mehreren denkenkönnenden Individuen. In die Sprache der Neuro-Mythologie übersetzt: Es ist nicht ein Hirn, das irgendwelche Entscheidungen in einem physischen Menschenkörper trifft, sondern es ist das Zusammenspiel vieler Hirne von vielen Menschenkörpern, das Denken und auch Urteilen ermöglicht!
Der Witz an der Sache ist: Die Verbindung dieser vielen Menschenhirne ist nicht physikalischer Natur. Und mithin muß notwendig ein jeder Klärungsansatz scheitern, der das Denken rein empirisch fundamentieren möchte!
Wir wissen nicht viel über diese Verbindung(en). Leider. Aber eines ist unabweisbar dabei: Eine fundamentale Rolle spielen dabei Zeichen und Symbole (etwa in Form sprachlicher Äußerungen, aber auch andere symbolische Konstituen gehören dazu). Darüber sind Menschen miteinander verbunden – und auf eine bisher unbekannte Weise wahrscheinlich auch die jeweiligen Menschenhirne. Da jeder halbwegs gebildete Mensch weiß, daß Zeichen und Symbole in Signifikate und Signifikanten zerfallen und nur die letzteren sinnlich-wahrnehmbaren, empirischen Charakter haben, die ersteren aber nicht, ist klar, daß sich die unabdingbare Verbindung zwischen den Menschen und ihren Hirnen nicht allein materiell rekonstruieren läßt. Wir machen das offenbar über Bewußtseinsprozesse und -strukturen, die ebenfalls nicht-materiell sind (den Begriff ‘Geist’ dabei in Gebrauch zu nehmen, vermeide ich so gut es geht, weil er auch ideologisch belastet ist). Mit diesen Kurzaufriß ist die Grundlage der Menschenwelt von den Stukturbedingungen her natürlich nur mangelhaft umrissen. Aber hier ist ja auch kein universitärer Seminarraum … – Jedenfalls repräsentieren diese Strukturen ein Konglomerat aus materiellen und nicht-materiellen Einheiten und bewirken über die Klammer der Symbolisationsfähigkeit jenes Zusammenspiel, das man dann ‘menschliches Handeln’, Denken und Urteilen – nebst anderen noch im Dunstkreis des Humanen – nennt.
Die Frage aller Fragen – hinsichtlich KI und KNN gleichermaßen – ist natürlich, wiefern es gelingen könnte, das, was hier auf der immateriellen Seite als ‘Bewußtsein’ angedeutet wurde (Stw: Klammerfunktion zwischen Einzelindividuen), entweder … ähm … “nachzubauen” oder zu simulieren. Da wir bisher keinerlei Ahnung haben, was Bewußtsein ist, scheidet Nachbau wohl aus. Simulation wäre immerhin theoretisch möglich. Aber wie soll das praktisch angegangen werden? Wenn ich einen Aspekt der Theorie der KNN bisher irgendwie verstanden habe, dann ist die Hoffnung, die Nachkonstruktion der neuronalen Struktur ergäbe eventuell so etwas wie einen “Bewußtseins-Effekt”. Ich denke, wenn diese Hoffnung nicht nur eine bloße Wissenschaftsschimäre ist (wovon es bekanntlich viele gibt), wird das größte Problem die wahnwitzige, unfaßbar hohe Komplexität unseres biologischen neuronalen Netzes sein. Kürzlich habe ich gelesen, daß die Möglichkeit der darin implizierten Verbindungen/Kombinationen schon rein quantitativ um Dimensionen höher ist als der gesamte berechnete Teilchenvorrat unseres Universums. Bedenkt man vor diesem Hintergrund nun mit, was ich weiter oben zur “Vernetzung unserer Gehirne [sic]” im Sinn der Konstitution einer u.a. symbolvermittelten Menschenwelt angedeutet habe, würde die Komplexitätsrate nochmal gigantisch ansteigen. – Wie “simuliert” man so etwas unvorstellbar Komplexes?
Viele Grüße von Palinurus