Haben Roboter ein Recht auf freie Meinung?
Roboter-Recht als juristische Herausforderung
Interview mit Prof. Dr. Thomas Klindt, Partner der Anwaltskanzlei Noerr LLP
Herr Klindt, haben Roboter oder künstliche Intelligenzen ein Recht auf freie Meinungsäußerung?
Zum jetzigen Zeitpunkt sicher nicht. Aber kaum ein Jurist, der sich mit dem Thema beschäftigt, würde ausschließen, dass das in ferner Zukunft möglich werden wird.
Die beiden amerikanischen Juristinnen Toni M. Massaro und Helen Norton spielten unlängst ein Gedankenexperiment durch, bei dem ein Roboter mit starker künstlicher Intelligenz eine Verfassungsklage wegen einer Beschränkung seiner freien Meinungsäußerung und Identität anstrengt. Für Nicht-Juristen klingt das zunächst absurd. Freie Meinung ist an ein unabhängiges Individuum gebunden, und das stellt man sich selbstverständlich mit einer natürlichen, körperlichen Identität vor. Wie sollte man die einer künstlichen Intelligenz beimessen?
Wenn man juristische Regelhierarchien anschaut, dann ist historisch nichts gottgegeben. Alles beruht auf einer gesellschaftspolitischen Entscheidung, die in rechtliche Paragraphen gegossen wurden. Es ist ja auch nicht selbstverständlich, dass ein jeder Mensch seine Meinungsfreiheit hat. Auch das war eine politische Entscheidung; und man muss nicht weit in der Geschichte zurückgehen, bis man Menschen findet, die das nicht hatten. Der römische Sklave zum Beispiel hatte das nach römischem Recht ganz sicher nicht. Es ist also eine Frage gesellschaftlichen „Designs“: Wem weise ich die Fähigkeit zu, ein Rechtssubjekt zu sein.
Da bedurfte es verschiedener Revolutionen, mindestens der französischen, bis man in Europa zu dem Konsens kam: Jeder Mensch hat ein Recht auf eine freie Meinung. Das ist also nicht dem biologischen Menschsein inhärent. Es sind vielmehr soziale, politische und juristische Entscheidungen. Und die jüngste vergleichbare Entscheidung ist noch gar nicht so lange her: Ab der Mitte des 19. Jahrhunderts begann man zu diskutieren, dass eine Person etwas anderes sein kann als eine natürliche Person. Daraus entstand ein damals atemberaubend neuer Gedanke – die juristische Person. Heute ist das völlig trivial, wenn man etwa an die Rechtsform der GmbH und ähnliches denkt. Aber Mitte des 19. Jahrhunderts war es eine kulturhistorische Revolution.
Deswegen würden sich auch Juristen nicht über eine Diskussion wundern, in der eine künstliche Intelligenz singularisiert wird. Warum soll es langfristig keine ePerson geben? Wenn sich künstliche Intelligenzen in den nächsten 100 Jahren so weiter entwickeln, kann man sich für sie auch eine (ggf. eingeschränkte) Rechtsfähigkeit vorstellen.
Welche neuen Rechtsfragen wirft denn das Thema „Roboterrecht“ grundsätzlich auf? Mit welchen neuen Fragen werden Juristen im Zusammenhang mit teilautonomen Systemen in der Praxis konfrontiert werden?
Da gibt es zunächst einmal strafrechtliche Fragen. Denken wir zum Beispiel an das geradezu klassische Dilemma einer Abwägung zwischen zwei ethisch gleichwertigen Gütern: Fahre ich in eine Menschengruppe oder mich selbst gegen die Wand? Man steht bei der Entscheidung vor der Frage, welche Variante ethisch akzeptabel ist: Rette ich andere Menschen oder die Insassen des Autos, also mich selbst? Wir sind es gewohnt, im Zweifel den Vorwurf rechtlich zu entschuldigen, dass der Mensch in der konkreten Situation überfordert war. Wie würde sich aber ein Roboter hier „entscheiden“; und kann man so überhaupt über eine Roboterentscheidung urteilen? Geht das Problem dann nicht viel mehr auf einen Entscheidungsschritt zurück, der viele Jahre vorher beim Niederschreiben des Algorithmus gemacht wurde? So grübelt man bisher. Wenn es indes eines Tages selbstlernende Algorithmen sind, kann man ohnehin die Schuld nicht mehr dem vormaligen Programmierer zuweisen. Wem aber dann? Wie gesagt: Ein strafrechtliches Dilemma. Oder ein Verzicht auf Strafrecht insgesamt…
Dann gibt es das große Thema der Verträge, die aufgrund von Algorithmen geschlossen werden – so genannte Smart Contracts oder m2m-Contracts. Stell Dir einen Kühlschrank vor, der feststellt, dass Frischmilch ausgeht. Er bestellt darauf automatisch neue. Aber statt notwendiger 3 Liter bestellt er 3.000 Liter. Bei Menschen würde man sagen: aus Versehen. Wer ist hier für den Schaden verantwortlich? Wir kennen ein ähnliches, aber gelöstes Problem natürlich schon aus der Kanban-Thematik. Dabei bestellen Lager automatisch bei einem Lieferanten Bestände nach, wenn eine bestimmte Kanban-Schwelle unterschritten wird. Aber dabei wird dann zuvor auch im vertraglichen Detail geregelt, was wie laufen soll, also Limitierungen, Längenbegrenzungen, Widerrufsrechte und so weiter. Bei der Vielzahl von m2m-Produkten, die auf den Markt kommen werden und die automatisch Verträge schließen sollen, stellt sich die Industrie die rechtlichen Folgen oft zu naiv vor. Was tut man im Schadensfall, wenn entsprechende Vertragsregeln gar nicht vorliegen? Viele Industrievertreter sind sich gar nicht im klaren, dass sie die geschmeidige Vorstellung einer automatisiert ablaufenden Industriesituation quasi umhüllen müssen mit einer gar nicht trivialen juristischen Konstruktion, weil sie sonst auf pure Hoffnung setzem.
Darüber hinaus wird uns im Zusammenhang mit der Robotik auch das ganze Thema Haftung beschäftigen. Wer haftet für den durchdrehenden Roboter, der plötzlich wild um sich schlägt? Wenn es ein ursprünglicher Programmierungsfehler war, haftet der Hersteller – das ist noch klassisches Produkthaftungsrecht. Wenn es ein Umgebungseinfluss war, etwa ein elektromagnetische Unverträglichkeitsimpuls, muss man den finden, der den EMV-Impact zu verantworten hat. Wenn aber ein selbstlernender Algorithmus einen Haftungsschaden anrichtet, dann stehen wir vor einer gesetzlichen Lücke. Viele Juristen würden sich für eine spätere Regelung wohl am Vorbild an der Tierhalterhaftung im BGB orientieren: Keiner zwingt Sie dazu, ein Tier zu halten. Aber wenn das Tier jemand beißt, dann haften Sie ohne Begrenzung und ohne Entschuldigung. Viele würden im Moment wohl prognostizieren, dass man sich auf diese Weise auch eine zu schaffende Betreiberhaftung von Robotern vorstellen könnte. Das ist aber ehrlich gesagt noch ziemliches Neuland.
Welche Konsequenzen hat der Einsatz von autonom handelnden Systemen für bestehende Geschäftsmodelle?
Die Konsequenzen können erheblich sein. Stellen Sie sich zum Beispiel das Produkt der KfZ-Schadensversicherungen vor. In einer Welt autonomer Automobile ist dieses Geschäftsmodell erheblich entwertet. Für ein autonomes Auto gibt es womöglich kaum noch individuelle Fahrerhaftung. Ein Schaden wird dann zu einem Herstellerversagen, die Kraftfahrerhaftung wird zu einem Produkthaftungsthema. Versicherungen werden daher auch nicht mehr hoch eingepreist werden können, weil sie nur noch ein granulares Restrisiko übernehmen für den Fall, dass autonome Systeme versagen.
Klar wird es immer Menschen geben, die selbst fahren wollen. Aber die Bewertung des Risikos in seiner Gesamtschau wird sich gegen sie wenden. Bei jeder technologischen Verbesserung taucht irgendwann einmal die Frage auf: Warum haben Sie sich eigentlich zum Nachteil Ihrer selbst oder gar zum Nachteil Dritter geweigert, jene neue Technologie zu verwenden? Das ist eine ganz normale, menschlich-zivilisatorische Frage, die immer dann virulent wird, wenn eine neue Technologie einer alten hoffnungslos überlegen ist.
Wird man uns verbieten, selber Auto zu fahren, weil es der Roboter besser kann?
Das wäre ein erheblicher Einschnitt in die Selbstbestimmung, den ich mir auf lange Sicht hin nicht vorstellen möchte. Der Staat kann und wird nicht regulativ alle Risiken aus dem Leben eliminieren können. Aber etwa die Versicherer werden über Incentivierungslösungen nachdenken, nach dem Motto: Wer selbst fahren will, riskiert mehr, also zahlt er mehr. Der Blueprint ist ja bereits live im Bereich der Krankenversicherungen zu sehen, etwa bei den Gesundheitsprämien.
Ich möchte noch einmal auf das Thema Äußerungsrecht und Roboterredakteure kommen: In Amerika gibt es einen Fall bei AP: Ein Redaktionsroboter vertextet autonom Quartalszahlen zu Finanzberichten. Wenn Computer beginnen, autonom zu kommunizieren – wer trägt denn da die Risiken für Fehlinformationen?
Das Problem wird es sicher geben, und die rechtliche Lösung wird analog zu einem menschlichen „Erfüllungsgehilfen“ liegen. Da bedient sich jemand des Roboters. Der agiert zwar operativ autonom, aber er ist nicht rechtlich autonom in der Aufgabenerfüllung für AP als agierendes Presseunternehmen – die Haftungsfrage erscheint mir da relativ eindeutig.
Wir werden allerdings in Zukunft sehr viel smartere Lösungen für autonom kommunizierende Algorithmen sehen. Man denke etwa an den Twitter-Bot Tay von Microsoft, der durch gezielt addierte Nutzerfragen dazu gebracht wurde, frauen- und judenfeindliche „Aussagen zu treffen“. Auch hier wird es jemand geben, der den betriebswirtschaftlichen Vorteil von der Nutzung eines solchen Bots hat – und der haftet möglicherweise im Sinne einer Betreiberhaftung. Wahrscheinlich werden wir einem cui-bono-Prinzip folgen müssen: Wer sich die Ergebnisse zu eigen macht, haftet auch für die Fehler und steht dafür ein. Verlage werden also wohl nicht sagen können: Die Schuld liegt beim Roboterhersteller. Denn keiner zwingt sie zum Einsatz von Robotern – hier haben wir wieder den gedanklichen Ansatz der Tierhalterhaftung.