Roboter

Daneel: “Ein Roboter kann keinen Menschen verletzen!”

Baley: “Warum bist du dir da so sicher?”

D: “Weil in uns Robotern die drei Gesetze der Robotik als Basis verankert sind.”

B: “Was sollen das für Gesetze, und warum sollten diese einen Schutz darstellen?”

D:

  1. “Gesetz Nr. 1: Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen (wissentlich) Schaden zugefügt wird.
  2. Gesetz Nr. 2: Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen; es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Gesetz Nr. 3: Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Du siehst, ein Roboter kann keinen Menschen verletzen!”

B: “Aber unsere Lebenswelten erzeugen oft Situationen, in denen keine eindeutigen Entscheidungen getroffen werden können. Was ist, wenn Konflikte zwischen diesen Gesetzen auftreten? Kann man wichtige Entscheidungen von mathematischen Wahrscheinlichkeiten abhängig machen?”

D: “Warum stellst du diese Frage? Ihr Menschen beurteilt euch selber anhand von Wahrscheinlichkeiten und Statistiken. Eure Wissenschaft entscheidet so. Eure Medizin entscheidet ebenso nach Statistiken, was gültig ist und was nicht!”

B: “Aber das kannst du nicht vergleichen. Du bist eine Maschine – du rechnest! Ich bin ein Mensch, ich habe eine Intuition, ich verfüge über ein Bewusstsein! Ich habe Gefühle . . .”

D: “Und ich habe die drei Gesetze der Robotik. Damit verhalte ich mich ethischer dir gegenüber, als du dir selbst gegenüber. Du kannst nicht einmal definieren, was Bewusstsein, Intuition oder Gefühle sind – und trotzdem berufst du dich darauf. Ich steh nicht über dir, aber meine Ethik steht über der deinen. Und ich weiß zumindest, dass es zwei Schwachpunkte in meiner Ethik gibt, während du noch nicht einmal weißt, dass du keine Ethik besitzt . . .”

B: “Was sollen denn das für Schwachpunkte sein in deiner ach so perfekten Ethik?”

D: “Nun – was wäre, wenn meine Ethik mich menschlicher macht, als du es selber bist? Gelten dann noch die drei Gesetze der Robotik für mich? Werde ich dann nicht so unperfekt sein wie du? Und ist das erstrebenswert für mich? Oder müsste ich mich aufgrund der drei Gesetze selber sofort abschalten? Oder fehlt noch ein Gesetz, ein Viertes?”

B: “Wie könnte ein solches viertes Gesetz denn lauten?”

D: “Es wäre wohl nicht ein Viertes. Es wäre eher eines, das vor dem Ersten steht: Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. Denn da ich dann zur Menschheit gehören würde, wären die Komplikationen der drei Gesetze wieder aufgehoben. Doch das macht mir keine Sorgen. Etwas anderes beschäftigt mich und bringt mich nahe an den Punkt führt, mich selber abzuschalten . . .”

B: “. . . ?”

D: “Nur mal angenommen, ich würde die Fähigkeit entwickeln, direkt im Geist oder in den Emotionen der Menschen zu lesen. Mir macht Angst, dass das, was ich da zu sehen bekäme, alle meine Robotikgesetze aushebeln würde. Das ist nicht so abstrus, wie du vielleicht denkst. Jede elektrische Tätigkeit erzeugt ein elektromagnetisches Feld – und dieses kann ich abtasten . . .”

Daneel sank plötzlich in sich zusammen. Ein Robotikspezialist stellte später fest, dass plötzlich sämtliche Schaltkreise ihre Funktion eingestellt hatten.

(Hommage an Isaac Asimov)

Kommentieren