· 

Evolution und KI Teil 6: Die Rechte der KI

In den bisherigen Beiträgen dieser Miniserie habe ich behandelt, wie die Evolution der KI zu Vielfalt und Konflikten führt, und darüber spekuliert, ob sich das demokratische Prinzip, das wir Menschen für die Lösung solcher Konflikte anwenden, auf KIs übertragen lässt. Heute möchte ich näher darauf eingehen, wie das gelingen könnte. Dafür wäre es meines Erachtens notwendig,

  • künstliche Intelligenzen mit einem „Rechtsbewusstsein“ auszustatten,
  • Instanzen zu schaffen, die die Rechtskonformität von KIs überwachen und Verstöße ahnden und
  • sicherzustellen, dass keine KI zu mächtig wird und eine dominierende Stellung einnimmt.

Wir haben bereits ein Rechtssystem, dem auch KIs unterliegen, denn jede KI gehört einer Organisation oder einem Unternehmen, die sich an geltendes Recht halten müssen. Allerdings wissen die KIs selbst davon nichts – selbst dann nicht, wenn sie eingesetzt werden, um juristische Fragen zu klären. Um KIs mit einem „Rechtsbewusstsein“ auszustatten, müssten wir sie in die Lage versetzen, die juristischen Konsequenzen ihrer Entscheidungen zu bewerten. Das setzt ein umfassendes Verständnis der realen Welt voraus, das heute noch nicht vorhanden ist. Zudem müsste das Rechtssystem womöglich „maschinentauglich“ gemacht werden, so dass Maschinen Gesetzestexte lesen und interpretieren können. Allerdings ist es nicht erforderlich, dass alle KIs dieses Rechtsbewusstsein haben. Es wäre denkbar, dass es spezialisierte „Anwalts-KIs“ gibt, die Entscheidungen ihrer „Klienten-KIs“ daraufhin prüfen, ob diese mit geltendem Recht vereinbar sind.

Eine KI, die sich an alle Gesetze und Vorschriften hält, verfolgt nicht notwendigerweise dieselben Interessen wie ihre Schöpfer oder die Allgemeinheit. Der Ansatz eines juristisch geregelten KI-Ökosystems ist also noch keine finale Lösung für das „Kontrollproblem“ der KI und steht nicht im Widerspruch zu Versuchen, Maschinen ethisch-moralisches Verhalten beizubringen, wie es etwa Stuart Russel mit seinen drei Prinzipien versucht. Im Gegenteil: eine KI, die moralisch handelt, wird von sich aus bestrebt sein, die Gesetze zu achten. Jedoch hat der juristische Ansatz einen großen Vorteil: Wirksame Mechanismen zur Durchsetzung des Rechts vorausgesetzt, funktioniert er auch mit KIs, die nicht von sich aus moralisch handeln würden. Damit deckt er einen großen Schwachpunkt von Russells und anderen Ansätzen ab. Denn selbst, wenn wir eines Tages in der Lage sein sollten, superintelligente KIs dauerhaft zu ethisch-moralischem Handeln zu zwingen, ist noch nicht gesagt, dass wir das auch in jedem Fall tun werden. Die Eigentümer einer KI sind nämlich womöglich gar nicht daran interessiert, weil ihre Maschine wirtschaftlichen, militärischen oder geheimdienstlichen Interessen dienen soll, die mit strikten ethisch-moralischen Prinzipien unvereinbar wären.

Genau für eine solche Situation wurde das menschliche Rechtssystem geschaffen. Wenn wir alle die Weisheit eines Jesus Christus oder Buddha besäßen, bräuchten wir weder Polizei noch Gerichte. Leider gibt es aber genügend Menschen, die ihren eigenen Vorteil auf Kosten anderer suchen und dabei auch zu unfairen Mitteln greifen. In einem gut organisierten Rechtsstaat genießen die Bürger einen gewissen Schutz vor solchen Regelbrechern, auch wenn es absolute Sicherheit niemals geben kann.

Damit das funktioniert, müssen Regeln und Gesetze nicht nur geschaffen, sondern auch durchgesetzt werden. Dazu braucht es einerseits ein System, das Verstöße möglichst schnell und zuverlässig erkennt, und andererseits Sanktionsmechanismen, die es für potenzielle Regelbrecher unattraktiv machen, Verstöße  überhaupt erst zu begehen. Im realen Leben übernehmen diese Funktion Polizei, Gerichte und Strafvollzugsbehörden. In der Welt der KI gibt es derartige Überwachungs- und Sanktionierungssysteme bisher kaum. Insbesondere fehlen Systeme, die überwachen, ob die Entscheidungen, die KIs treffen, rechtmäßig sind. Das ist ein äußerst komplexes und schwieriges Problem, das ich hier nicht im Detail behandeln kann. Aber es ist meines Erachtens prinzipiell lösbar, wenn der politische Wille besteht, es durchzusetzen.

Was aber passiert, wenn eine KI gegen Gesetze verstößt? Heute werden die Eigentümer der KI dafür haftbar gemacht und das ist auch sinnvoll. Sofern die KI allein den Zielen ihrer Eigentümer dient, wirkt deren Bestrafung gleichzeitig wie eine „Bestrafung“ der KI, denn sie läuft ihren Zielen zuwider. Eine starke KI würde solche Rechtsverstöße also vermeiden. Doch was, wenn KIs zunehmend autonom werden? Ich kann mir Situationen vorstellen, in denen KIs nicht mehr einem bestimmten Eigentümer gehören, so wie auch das Internet nicht einer einzigen Organisation gehört. In anderen Fällen könnte es unmöglich sein, den Eigentümer bzw. Urheber der KI ausfindig zu machen oder seiner habhaft zu werden. Wenn dies der Fall ist, ist es nicht mehr möglich, Menschen für das Fehlverhalten der KI haftbar zu machen. In solchen Fällen müsste die KI direkt sanktioniert werden.

Wie bestraft man eine KI? Ins Gefängnis sperren kann man sie nicht und Geldstrafen werden in aller Regel auch nicht wirken. Eine bessere Möglichkeit wäre es, den Zugang zu Rechenleistung zu begrenzen, die KI also quasi auszubremsen und im schlimmsten Fall abzuschalten. Keine KI kann daran ein Interesse haben, da dies der Verfolgung ihrer Ziele im Weg steht, welche auch immer das sind. Etwas subtiler, aber vielleicht ebenso wirkungsvoll wäre es, jeder KI eine Art Vertrauensstatus zuzumessen, der beispielsweise regelt, auf welche Informationen die KI Zugriff erhält, welche Entscheidungen sie treffen darf und inwieweit andere KIs ihren Vorschlägen oder Anweisungen folgen. Bei Regelverstößen würde dieser Vertrauensstatus herabgesetzt und die Handlungsfähigkeit der KI damit eingeschränkt. Das wäre vergleichbar mit dem Punktesystem, das die chinesische Regierung benutzt, um ihre Bürger zu kontrollieren. Was bei Menschen zynisch und würdelos ist, könnte bei KIs meines Erachtens durchaus sinnvoll sein.

Die Anwendung des juristischen Prinzips auf KIs hat allerdings eine Konsequenz, mit der sich sicher mancher schwertun wird: Wer Pflichten hat, muss auch Rechte haben, sonst funktioniert das Rechtssystem nicht. Irgendwann werden also auch Maschinen eigene Rechte erhalten müssen. Das ist nicht ganz so weit hergeholt, wie es klingt, denn bereits jetzt gibt es nichtmenschliche Objekte, die Rechte besitzen. Eine GmbH beispielsweise ist eine „juristische Person“ mit eigenen Rechten und Pflichten. Diese werden zwar von einem Geschäftsführer wahrgenommen, doch der kann jederzeit ausgetauscht werden, die Rechte und Pflichten liegen weiterhin bei der GmbH.  Es gibt sogar Körperschaften wie etwa die Hamburger Sparkasse oder manche Stiftungen, die gar keinen Eigentümer haben und sich quasi selbst gehören. Auf ähnliche Weise könnten eines Tages KIs unabhängige juristische Personen mit eigenen Rechten und Pflichten sein.

Auch aus einer ethisch-moralischen Perspektive heraus ist es sinnvoll, über Rechte für Maschinen zumindest zu diskutieren. Denn wenn KIs eines Tages die Komplexität und Leistungsfähigkeit eines menschlichen Gehirns erreichen, werden manche von ihnen vermutlich auch „fühlen“ und „leiden“ können, auch wenn diese Sichtweise vielfach bestritten wird. Dies ist eine komplexe philosophische Diskussion, die ich an dieser Stelle nicht führen will. Ich möchte dazu nur zwei Aspekte anmerken: Erstens wurden auch Tiere lange als rechtlose Objekte betrachtet und zweitens können wir wohl kaum erwarten, dass uns superintelligente KIs aus moralischen Gründen freundlich und rücksichtsvoll behandeln, wie es von Optimisten gelegentlich prognostiziert wird, wenn wir umgekehrt nicht bereit sind, dasselbe zu tun.

Kommen wir zum dritten Grundsatz der Rechtsstaatlichkeit. Ein wesentliches demokratisches Prinzip ist die „Gewaltenteilung“: Diejenigen, die Gesetze überwachen (Judikative), müssen unabhängig von jenen sein, die Gesetze erlassen (Legislative), welche wiederum klar von denjenigen zu trennen sind, die für die Umsetzung des Rechts sorgen (Exekutive). Diese Trennung dient dazu, zu verhindern, dass Machtmonopole entstehen, die die Demokratie aushöhlen.

Übertragen auf KIs bedeutet das, dass wir Monopole und autokratische „Herrschersysteme“ unbedingt vermeiden müssen. Doch leider tendiert unsere Marktwirtschaft genau in diese Richtung. Die Leistungsfähigkeit von KIs basiert wesentlich auf dem Zugang zu großen Datenmengen. Je leistungsfähiger eine KI ist, umso besser kann sie Menschen manipulieren, ihren Einfluss so vergrößern und noch mehr Daten generieren, wodurch sie noch leistungsfähiger wird. Das ist ein selbstverstärkender Prozess, der zu einem „the winner takes it all“-Phänomen führt: Am Ende bleibt nur eine KI übrig, die einen Markt vollständig dominiert. Diesen Effekt kann man an der marktbeherrschenden Stellung von IT-Giganten wie Amazon, Google und Facebook bereits heute deutlich erkennen, er wird jedoch mit zunehmender Bedeutung von KI noch gravierender werden.

Wenn wir verhindern wollen, dass wir in eine totale Abhängigkeit von einer superintelligenten KI geraten, müssen wir solche Monopole brechen, und zwar so früh wie möglich. Die heutigen Kartellgesetze reichen dafür vermutlich nicht aus. Das Problem wurde von der Politik bereits erkannt, wird aber bisher eher unter klassischen Gesichtspunkten funktionierender Märkte betrachtet. Aus meiner Sicht ist es jedoch ein potenziell existenzielles Problem: Wenn wir tatsächlich eines Tages eine superintelligente KI bauen, die eine dominierende Marktstellung einnimmt, haben wir keine Chance mehr, sie zu kontrollieren und uns gegen eine mögliche Ausbeutung zu wehren. Dann können wir nur noch hoffen, dass die Optimisten recht behalten, die KI uns moralisch überlegen ist und uns von sich aus freundlich behandelt. Aber würden wir Amazon, Google oder Facebook die Weltherrschaft anvertrauen wollen? Machtmonopole zu verhindern ist nicht nur eine Frage der Fairness, sondern womöglich unseres Überlebens.

Leider zeigt die Geschichte, dass es nicht einfach ist, einen funktionierenden demokratischen Rechtsstaat aufzubauen und am Leben zu erhalten. Durch geschickte Manipulation der Wähler gelingt es Autokraten immer wieder, die Demokratie auszuhöhlen und schließlich ganz abzuschaffen. Dies führt unweigerlich zu Korruption und Misswirtschaft und damit zu einem Niedergang des betroffenen Staates, der vielleicht eines Tages in einer (hoffentlich friedlichen) Revolution zur Demokratie zurückfindet.

Aufgrund des rasanten Wachstums der Leistungsfähigkeit von KIs dürfte es noch deutlich schwieriger sein, ein dauerhaft stabiles, auf den Prinzipien des demokratischen Rechtsstaats basierendes KI-Ökosystem zu schaffen. Immer wieder werden einzelne KIs versuchen, dieses System auszuhebeln und eine dominierende Stellung zu erlangen. Umso wichtiger ist es, dass wir uns so früh wie möglich damit beschäftigen, die Grundlagen für ein solches stabiles Ökosystem zu legen, und alle verfügbaren Ressourcen für seine Stärkung einsetzen, so dass zukünftige „demokratische“ KIs den „undemokratischen“ dauerhaft überlegen bleiben. Das ist schwierig, aber hoffentlich nicht unmöglich, denn die Alternative ist die totale Unterwerfung der Menschheit durch eine diktatorische KI.

Ein demokratisches Rechtssystem mag eine unzuverlässige Methode sein, das Zusammenleben zwischen Menschen und intelligenten Maschinen zu regeln, aber es ist meines Erachtens die beste bekannte Antwort auf die Tatsache, dass die Entwicklung der KI dem Evolutionsprinzip folgt.


Kommentar schreiben

Kommentare: 0