Neurowissenschaften, Ethik & Recht

Rechte von Robotern?

Eine mehr als bizarre, aber offensichtlich nicht verstummende Debatte dreht sich um die strafrechtliche Verantwortlichkeit von Robotern. Vor einiger Zeit wurde über Rechte für vermeintlich (künstlich) intelligente Automaten und die Haftung für ihr Fehl”verhalten” diskutiert, nicht etwa des Entwicklers, sondern des Automaten selbst (etwa Matthias, im SpiegelOnline Interview; P.W. Singer: Right for Robots?: ..a more realistic concern is not that robots will harm us, but that we will harm them… -  die Silikonplatine, die geschundene Kreatur). Dabei kann es sich nur um akute Begriffsverwirrungen handeln.  Ein bei Neuroethics & Law verlinktes Paper aus einer rechtswissenschaftlichen Fakultät (G. Hallev: The Criminal Liability of Artificial Intelligence Entities, Ono Faculty of Law) bestätigt das eindrucksvoll. Hallev diskutiert ein paar Zurechnungsmodelle und kommt zu dem Schluß:

Criminal liability may be imposed upon any entity – human, corporate or AI entity. Modern times warrant modern legal measures in order to resolve today’s legal problems.

Aha. Dass ein Automat nicht über Subjektivität verfügt (und damit keinen Vorsatz, oder das engl. Recht Pendant, mens rea, aufweist) spiele keine Rolle, denn auch Roboter können lernen, wahrnehmen und schließlich  imitieren sie ja menschliche kognitive Prozesse – das lässt sich irgendwie vergleichen, und das reicht. Grundsätzliche Fragen über Sinn (hier: Unsinn) des Strafrechts scheinen dem Autor nicht in den, ja,  Sinn zu kommen. Roboter seien gefährlich, also bedarf es Schutz vor Ihnen. Vielleicht sollten wir auch Blitze, umfallende Telefonzellen und Raubtiere bestrafen? Wer (passender: was) ist eigentlich ein Normadressat?  Was eine autonome Handlung (nicht  mit einer auto-matischen zu verwechseln)? Was Strafzwecke? Schuld, Unrecht, Sühne, Prävention? Statt diesen Fragen nachzugehen, eine besonders bizarre Diskussion um mögliche Bestrafungsformen und  Strafvollzüge: Roboter einsperren? Stecker raus? Software updaten? – Wie wärs mit Stromschlägen! Ist das alles nur Satire?

Viel spannender als dieser Unsinn ist die Frage, wie sich die Verschmelzung von Mensch und Maschine (durch deep brain stimulation oder andere Neuro- Technologien) auf die Verantwortlichkeit, nein, nicht des Tiefenhirnstimulators, sondern seines Trägers auswirkt. Was, wenn der DBS unerwünscht Angstzustände, Mordlust, Euphorie oder Hass auslöst und dadurch die Willensentscheidung des Einzelnen stark beeinflusst? Ist das eine “freie Willensentschließung”, ist ein Vertrag gültig, eine Straftat zurechenbar?

Ich glaube, die Antwort dürfte der ähneln, die ich mit R. Merkel in einem Paper über den Zusammenhang von Authentizität und Autonomie vorgeschlagen habe: auch wenn etwa Psychopharmaka Wünsche erzeugen, die dem Konsumer “wesens”-fremd sind, wie etwa violent tendencies durch Antidepressiva, muss dies zumindest dem Strafrecht weitgehend egal sein. Schließlich unterliegen viele Motivationen, Antriebe, Wünsche etc. nicht der bewussten Kontrolle – wäre dass der Maßstab, dürften so einige Taten nicht zurechenbar sein. Man mag sich vollständige Kontrolle über seine psychische Prozesse wünschen, das Recht kann, und muss, sie aber nicht voraussetzen. Es geht also um eine Abgrenzung ggü. der geminderten Schuldfähigkeit / Schuldunfähigkeit – und das ist eine heillos unsystematische, auf Intuitionen und nebulösen Verweisungen in die Psychiatrie und Psychologie beruhende Wertung, bei der es, allen anderen Beteuerungen zum trotz, größtenteils darum geht, inwieweit sich der Einzelne von der Durchschnittsnorm unterscheidet.

Und wie ist das jetzt mit der Gefahr durch Automaten und Roboter? Ganz einfach: Sich selbst-bewegende Gegenstände, die eine Gefahr für andere darstellen können, etwa indem sie -wie in einem von Hallev beschrieben Fall tatsächlich geschehen- Menschen greifen und tödlich durch die Gegend werfen, werden nicht auf die Menschheit losgelassen. Zumindest, sobald ein jeder Technologie innewohnendes Restrisiko überschritten wird. Wer solche Geräte in einer Fabrik einsetzt, muss die Abläufe halt so gestalten, dass es nicht zu Unfällen kommen kann, was weiß ich wie, über eine Power-Off Fernbedienung oder ein Codewort, dass die intelligenten Dinger verstehen und sofort anhält. Wenn doch was passiert: Zivilrechtlich Gefährdungshaftung, strafrechtlich evtl. Fahrlässigkeit. Die “Unvorhersehbarkeit” solcher Unfälle (nicht: Handlungen) dürfte dadurch ausgeschlossen sein, dass man die Automaten auf unvorhersehbare Bewegungen programmiert. Für Roboter: Straffreiheit!

Mal sehen, was bei einem jüngst von der Uni Würzburg vorgestellten DFG finanzierten Projekt über  “Rechte und Pflichten von Robotern” rauskommt.

You can follow any responses to this entry through the RSS 2.0 feed.