Ich finde es zutiefst erschreckend, obwohl mich Technik im Allgemeinen durchaus begeistert. Habe selber auch einen Saugroboter. Hat sogar einen Namen bekommen, weil ich das Ding so super finde.
Nein. Nicht wissenschaftlich. Dazu bin ich gar nicht in der Lage. Ich denke an Grenzen, die möglicherweise überschritten werden, zu dem was machbar ist und dem, wovon man lieber die Finger weglassen sollte. Dazu fällt mir ganz spontan „Der Mann mit den Röntgenaugen“ eine. Das war eine sehr schlechte Idee. Leider stellt der „Mann mit den Röntgenaugen“ das erst am Ende fest.
Androiden in einer technisierten Welt, in der der Mensch auf der Strecke bleibt.
Ja. Um die Gefühle der Bewohner und die Androiden, die sich kaum noch vom Menschen unterscheiden. Einige mehr, andere weniger.
Meine Androiden sind computergesteuert. Bei HAL dachte ich auch mehr an sein „Innenleben“ und dass er nicht mehr „gehorcht“. Alles, was ich hier an Beispielen aufgezählt habe, kommt überhaupt nicht vor, sondern habe ich nur im Hinterkopf, z. B. zur Charakterisierung meiner Haupt-Menschmaschine. Auch den Begriff „Mensch-Maschine“ werde ich nicht verwenden, sonst wird Ralf Hütter wahrscheinlich sehr böse.
Ja.
Eben. Philosophie und Technik sind gar nicht weit voneinander entfernt. Eben in Hinblick darauf, wie weit man gehen darf, wenn es entsprechende Möglichkeiten gibt / gäbe.
Gerade deshalb will ich es in der Zukunft platzieren. Meine Mutter hat sich, als ich noch ipselig klein war, über Farbfernseher aufgeregt. Das bräuchte kein Mensch. Wer Farbe sehen will, soll nicht in den Kasten gucken, sondern in den Garten gehen …
Oh doch! Und ob sie ein Motiv hat! Sie kann es, weil es zukünftig möglich sein wird, zumindest in meinem Roman. Ich will eben nur nicht übertreiben. Oder ist das schon übertrieben?
Es tauchen immer wieder neue Fragen, statt Antworten auf. Ich fürchte, ich muss 2.000 Seiten schreiben. Ihr seid unwerfend! Wahrscheinlich sind jedoch immer noch nicht alle Aspekte beleuchtet.
An dieser Stelle hätte ich immer noch die Bitte an Ulli, mal zu überlegen, ob nicht doch mehrere Denkbretter pro Datei sinnvoll wären.
Will ich mich in Zukunft lieber von einem seelenlosen Androiden pflegen lassen, der aber niemals müde, böse, schlecht gelaunt oder grob wird, oder doch lieber von einem lebendigen Menschen mit all seinen Fehlern, dafür aber mit Empathie. Wobei sich die Frage stellt, ob Mitgefühl angeboren oder anerzogen ist, also theoretisch auch programmierbar wäre. Ach herrje, ich verliere mich schon wieder in den Weiten der Philosophie …
Aber ganz mein Thema. Bin schon gespannt. Also einen Leser hast du schon mal.
Wäre es denkbar, dass KI/AI ohne Einfluss des Menschen tötet? Ich denke an Sophia, die mich fasziniert und gleichzeitig erschreckt. Nun hat besagte Dame weder Arme noch Beine und ist somit “ungefährlich”, aber es wenn sie es hätte … und warum würde sie es tun?
möglich war/ist das schon lange/heute, wozu es nicht einmal KI bedarf (und folglich könnte es KI erst recht). Denke z.B. an sog. Selbstschußanlagen. Die haben tatsächlich Menschen getötet, auf rein mechanischem Weg, ohne daß ein Mensch dazu etwas beigetragen hätte (außer der initialen Installation natürlich).
HAL 9000 in Arthur C. Clarkes ‘Odyssee im Weltraum’ konnte es, aber er entwickelte auf der Reise zum Jupiter auch ein mehr und mehr neurotisches Verhalten.
In dem Film ‘I Robot’ versuchen Roboter, die Macht zu übernehmen, um die Menschheit quasi vor sich selbst zu schützen. Dabei wird auch der Tod einzelner Individuen in Kauf genommen (Asimovs nulltes Gesetz).
Ich denke, eine KI, die intelligent genug ist, zu erkennen, dass ein Mensch in ihren Augen überflüssig oder sogar schädlich ist, wäre auch in der Lage, ihn zu töten.
Aber HAL war nicht mobil und hatte “nur” Kontakt zu den Menschen über Kommunikation. Es ist noch mal etwas Anderes, wenn ein Roboter jemanden berühren kann.
‘überflüssig sein’ und ‘schädlich sein’ sind Urteile (du sagst es indirekt selbst, indem du auf ‘Erkennen’ rekurrierst). Daß nicht-menschliche Systeme – gar nicht-lebendige – dazu in der Lage sein könnten, ist zumindest für letztere nicht einmal annähernd absehbar (bei Tieren gibt es Streit, ob sie denken können; die Indizien dafür sind allerdings äußerst schwach und vage).
Insofern ist die Frage eigentlich utopisch. Falls Maschinen je denken und mithin urteilen können sollten – ich sehe dafür keine Anhaltspunkte --, würden sie freilich auch töten können. Warum denn nicht?
Ad @Suse : Dazuz müßten sie natürlich keineswegs über Arme oder überhaupt Gliedmaßemn verfügen und sie könnten beim Töten auch völlig unbeweglich agieren. Menschen können das jetzt schon: also zu töten, obwohl sie z.B. örtlich fixiert sind.
Oh! Da gibt es aus Amiland aber ganz andere Untersuchungen. Ich habe neulich von Robotern gelesen, die von Weißen programmiert worden sind, die Vorurteile gegen Schwarze hatten und die Roboter diese “Einstellung” übernommen haben. Die Roboter sollten die Polizei bei Verkehrsdelikten etc. unterstützen. Nachdem man festgestellt hatte, dass die Roboter nicht neutral “urteilen” hat man den Versuch beendet. Wie der aktuelle Stand ist, weiß ich nicht.
In meinem Roman “empfindet” der Hauptroboter, so will ich ihn mal nennen, dass die Menschen fehlerhaft hergestellt sein müssen. Das wäre also durchaus (nach Yoros Meinung) ein Grund, Menschen zu eliminieren, weil fehlerhafte Existenzen nicht akzeptiert werden (können).
Diese “Untersuchungen” beruhen auf Sprachbrei-Anrührung! Weil die Exekution eines programmiertern Algorithmus dabei fälschlicherweise mit “Einstellungsübernahme” gleichgesetzt wird. Das ist aber grober Unfug und wird heutzutage auch nur noch von Hardcore-Materialisten/Naturalisten so gemacht, die in den einschlägigen Wissenschaftszweigen immer mehr in der Minderheit sind und zudem in schwerem Erklärungsnotstand. – Eine Software-Programmierung und deren Ergebnisse haben nichts mit ‘inneren Einstellungen’, wie sie bei Menschen anzutreffen sind, zu tun.
Roboter können nicht urteilen! Ein Schachcomputer, der einen Großmeister besiegt, ist so “dumm” wie ein Klecks Vogelscheiße auf der Windschutzscheibe (obwohl ‘dumm’ genaugenommen die falsche kategoriale Zuordnung ist; aber du wirst schon wissen, was ich meine). Ein solcher Computer (bzw. die entspr. Software) kann weder Schachspielen noch überhaupt denken. Sie kann lediglich ungeheuer schnell und effizient “rechnen” (in einem nicht-humanen Sinn). Darin allein ist sie dem Menschen überlegen. Aber nicht darin, besser als er “zu denken”. Keine Maschine ist in der Lage, auch nur das primitvste Urteil zu fällen. Dazu müßte sie auf nicht-materielle Weise Signifikate generieren können: Wie soll sie das machen?
Ein Roboter kann vermutlich nicht urteilen, er kann aber durchaus aufgrund logischer Überlegung zu dem Schluss kommen, dass der Schaden, den eine Person anrichtet, deren Nutzen überwiegt, bzw. dass sie überhaupt keinen Nutzen hat.
Das Thema driftet stark ins Philosophische, denn dann stellen sich so Fragen wie z.B. wie der Nutzen eines Menschen überhaupt definiert ist.
Suse, deinen Roman würde ich gerne lesen, das klingt sehr interessant.
niemand (und Roboter sowieso nicht, siehe Vorposting, aber genausowenig ein Mensch) kann “empfinden”, daß dies oder das “fehlerhaft hergestellt ist”. Der Term (also der entsprechende Bw-Inhalt) repräsentiert wieder ein* Urteil*. Urteile werden aber nie “empfunden”, sondern in einem Denkakt aufgrund Schließen folgerichtig oder fehlerhaft gefällt! Dazu bedarf es diverser Sätze, ihres Verständnisses und eines begrifflichen Apparates. All das sind nicht-materielle Prozesse bzw. Entitäten. Über solche gebieten aber Maschinen nicht.
Eine Empfindung ist z.B. ein Schmerz. Diese Dinge sind präreflexiv und bedürfen mithin keines Urteiles oder Denkens. Sie stehen unmittelbar im Bw. Z.B. Säuglingsverhalten zeigt das oder auch tierisches Bw. Allerdings sind solche Qualia [sic] eben auch immateriell, freilich mit materiellen, etwa zentralnervösen Korrelaten. Aber bis heute gibt es keine Theorie darüber, wie diese beiden Ebenen uzusammenhängen.
Doch! Weil es sich um Fiction handelt. Ich möchte nichts wissenschaftlich bis ins Detail aufdröseln, sondern darstellen, wie es sein könnte und dabei glaubhaft bleiben. Was in dem Sinne, wie ich es meine, nicht glaubhaft wäre: Ein Apfel, der vom Baum fällt und damit eine Heuschreckenplage abwendet. Ist jetzt arg an den Haaren herbei gezogen. Ist aber nur, damit ich verständlich mache, worauf ich hinaus möchte.
leider ist dein Satz – aus logischer Sicht – korrupt: Wenn ein Computer nicht urteilen kann, kann er eben auch nicht schließen, weil ‘Schließen’ dasselbe wie ‘ein Urteil fällen*’ ist*. – Das Philosophische läßt sich hier nicht raushalten, weil es nicht statthaft ist, eine philosophische Domäne – also etwa ‘Urteilen’ u.ä – in unangemessene Kontexte zu stellen.
Im Übrigen: Der “Nutzen eines Menschen” ist gar nicht definiert. Das wäre auch eine absolute Katastrophe. Ideologische Systeme, die das machten (wie die Nazis), waren inhumane Systeme.
Denk anbei dessen an Kant: Du sollst niemals einen Menschen als Mittel, sondern immer nur als Zweck betrachten.
Habe mir eben ein Video auf youtube angesehen: 9 Most Advanced AI Robots - Humanoid & Industrial Robots. Allein in diesem Video wird klar, wie vielschichtig das Thema ist, ganz ohne Ethik oder Philosophie, allein vom Ansatz der Einsatzmöglichkeiten her betrachtet.