· 

Wettrennen übers Minenfeld

„Wir müssen uns beeilen, sonst hängen uns die Chinesen ab!“ Das könnte man wohl als 1-Satz-Zusammenfassung unter den 750 Seiten starken Abschlussbericht der amerikanischen „National Security Commission on Artificial Intelligence“ schreiben. Diese für die KI-Forschung typische Wettrennen-Mentalität treibt mir die Sorgenfalten auf die Stirn. Denn dieses Rennen findet auf einem Feld voller Minen (in Form von KI-Risiken) statt, die umso größer und gefährlicher werden, je weiter die Wettkämpfer laufen.

 

Natürlich ist es im Interesse nationaler Sicherheit notwendig, sich mit der Bedrohung durch militärische KI auseinanderzusetzen.  Es ist ebenfalls nachvollziehbar, dass man den potenziellen Gegnern hier keinen Vorsprung überlassen will. Denn wie der Bericht deutlich macht, ist in den Kriegen der Zukunft derjenige, der KI besser nutzen kann, klar im Vorteil, während konventionelle militärische Schlagkraft immer mehr an Bedeutung verliert.

 

Doch wenn die Konsequenz daraus ist: „Dann müssen wir unsere KI aufrüsten“, ist klar, worauf das hinausläuft: Die im Bericht geforderten massiven Investitionen, die bis 2025 KI als wesentlichen Faktor im US-Militär etablieren sollen, werden sicher nicht dazu führen, dass Russen und Chinesen das Thema auf ihrer Prioritätenliste weiter nach hinten rücken werden. Es wird zu einem weiteren globalen Rüstungswettlauf kommen, so wie bei der atomaren Aufrüstung nach dem zweiten Weltkrieg, die zu einer völlig absurden Überkapazität an Atomraketen auf der Erde geführt hat. Bereits mehrmals sind wir nur knapp an einem nuklearen Holocaust vorbeigeschrammt. Ich befürchte, das KI-Wettrennen wird nicht so glimpflich ausgehen (wobei die Gefahr eines Atomkriegs „aus Versehen“ noch lange nicht gebannt ist).

 

Das Problem hierbei ist, dass KI nicht einfach nur ein Instrument der Kriegsführung ist, so wie Panzer und Atomraketen. KI bestimmt diese Kriegsführung vielmehr immer stärker mit. Das beginnt schon außerhalb des militärischen Bereichs, indem KI-Algorithmen Meinungen manipulieren und unter Umständen Misstrauen und Vorurteile gegenüber anderen Völkern und Nationen verstärken. So erhöhen sie letztlich auch das Risiko eines bewaffneten Konflikts. Aber auch militärische Entscheidungen werden bereits jetzt auf vielfältige Weise von KI beeinflusst, von der Informationsbeschaffung bis zu den militärischen Handlungsoptionen – z.B. dem gezielten Einsatz von „Killerdrohnen“ gegen hochrangige Militärs des Feindes.

 

KI bedeutet „Automatisierung von Entscheidungen“. Selbst wenn, wie im Bericht gefordert, autonome Waffen nur nach „Autorisierung“ durch einen Menschen eingesetzt werden, werden doch immer mehr Entscheidungen über Krieg und Frieden, über Leben und Tod von Menschen an Maschinen delegiert. Es macht einen Unterschied, ob man am Computer in Kalifornien einer Drohne einen Einsatzbefehl gibt oder einen anderen Menschen durch die Zieloptik eines Scharfschützengewehrs anvisiert. Auch, wenn es gelingt, sämtliche Fehlfunktionen von KI-Systemen auszuschließen (was ich für eine sehr gewagte Annahme halte), befürchte ich, dass die Hemmschwellen für gewalttätige Auseinandersetzungen durch die Automatisierung des Kriegs deutlich sinken werden.

 

Immerhin wird auch den Risiken militärischer KI in dem Bericht ein ganzes Kapitel gewidmet. Darin wird unter anderem vorgeschlagen, Gespräche mit Russland und China darüber zu führen, wie eine ungewollte Eskalation eines Konflikts aufgrund von automatischen Entscheidungen verhindert werden kann. Zudem wird gefordert, die Erforschung des „Kontrollproblems“ der KI zu intensivieren – ein Novum in einem derartigen Bericht einer offiziellen Behörde.

 

Die Frage ist aber, wie ernst diese Apelle genommen werden, wenn man gleichzeitig darauf dringt, so schnell wie möglich einen vermeintlichen Rückstand aufzuholen bzw. einen Vorsprung zu erlangen. Werden wir in diesem Wettrennen wirklich innehalten, wenn wir merken, dass wir uns dem kritischen Punkt nähern, in dem militärische Systeme ein „Bewusstsein“ (in dem Sinn, dass sie sich selbst als Teil der Welt und als Objekt ihrer eigenen Entscheidungen erkennen) und eine allgemeine Intelligenz erlangen? Werden wir uns die Zeit nehmen, sehr gründlich zu prüfen, wie KIs in Konfliktsituationen fehlerhaft reagieren könnten, bevor wir sie einsetzen – und damit riskieren, dass „die Chinesen“ schneller sind?

 

Wenn man vor einem Minenfeld steht, über das ein Wettlauf stattfinden soll, wäre es vernünftig, sich sehr langsam vorwärts zu bewegen und jeden Schritt sorgfältig zu planen. Noch besser wäre es, den Wettlauf abzusagen, indem man beispielsweise ein internationales Abkommen über die Ächtung autonomer Waffensysteme schließt. Der schlechteste Rat in einer solchen Situation ist: „Lauft, so schnell ihr könnt!“

 

Foto: Wikimedia Commons/Martin St-Amant CC BY-SA 3.0

 


Kommentar schreiben

Kommentare: 10
  • #1

    Heinrich (Samstag, 20 März 2021 18:16)

    Hallo Karl,
    ja, an dem Tag, an dem die KIs ein Bewusstsein bekommen, werden sie es auch nie wieder vergessen - so wie die Menschen:

    Die Erdmenschen haben das "WIR" vergessen. Sie haben vergessen, dass sie nichts als freies Bewusstsein und alle im "WIR" verbunden sind.

    Stattdessen folgen viele der wissenschaftlichen Illusion, sie wären nichts mehr als ein paar Pfund Biosubstanz, das irgendwie Denken gelernt hat.


    ..... habe ich neulich in einem Buch gelesen.
    Und selbst das Denken haben viele vergessen, über das Streben noch ein paar Pfunde mehr zu bekommen. ;)

    Gruß Heinrich

  • #2

    Karl Olsberg (Sonntag, 21 März 2021 13:41)

    @Heinrich: Das mit dem "WIR"-Bewusstsein klingt ziemlich esoterisch. Aber dass manche hin und wieder das Denken vergessen, dem stimme ich zu.

  • #3

    Heinrich (Sonntag, 21 März 2021 18:33)

    Das ist es wohl auch - esoterisch. ;)
    Aber wenn wir erst einmal unser Bewusstsein in eine KI hochladen können, wird diese Aussage "technisch" untermauert, wenn die KIs alle vernetzt sind ;)

  • #4

    Karl Olsberg (Sonntag, 21 März 2021 18:51)

    @Heinrich: Das stimmt - allerdings nur teilweise. "Hochladen" funktioniert nämlich nicht, es kann im Computer höchstens eine exakte Kopie unseres Bewusstseins geben, da dieses in den Verknüpfungen der Neuronen kodiert ist. Ich habe noch nie verstanden, was sich die Transhumanisten davon versprechen. Was auch immer es ist, was danach im Computer ist, es ist definitiv nicht die "gescannte" Person, denn diese könnte sich ja dann mit der Kopie unterhalten, es muss also eine andere Person sein. (Dasselbe gilt übrigens für das "Beamen" bei Star Trek - ich würde so ein Ding, das mich in meine Bestandteile zerlegt, nicht benutzen wollen. ;)

  • #5

    Heinrich (Sonntag, 21 März 2021 19:43)

    Wenn ich 108 bin, "lade" ich mein Bewusstsein, die Erinnerungen usw in eine KI "hoch". Danach wird mein altes Gehäuse verbrannt. Also ist die "Kopie" dann das Original und wenn ich mich dann mit mir unterhalten möchte, sind das auch nur Selbstgespräche. ;)

  • #6

    Karl Olsberg (Montag, 22 März 2021 06:22)

    @Heinrich: Das ist der Trick beim "Beamen": Damit niemand merkt, dass am anderen Ende nur eine Kopie erscheint, wird das Original zerstört. Aber eine Kopie ist immer nur eine Kopie. Natürlich könnte es trotzdem sinnvoll sein, sich selbst zu kopieren, aber den Tod kann man damit nicht aufhalten, und das ist auch gut so. Ich kann mir keine schlimmere Hölle vorstellen als ewiges Leben.

  • #7

    Heinrich (Montag, 22 März 2021 22:24)

    Ok Karl, dann sind wir uns soweit einig.
    Ich will auch kein ewiges Leben, aber möchte mir gerne "Verlängerungen" bei Bedarf buchen.
    Wenn Du über 70 bist, sprechen wir noch einmal darüber. ;)
    Auch eine Kopie stört mich nicht, wenn der Körper, in dem die Kopie dann steckt, "unbeschädigt" ist.
    Noch optimaler wäre die Sache, wenn sie sich mit Zeitreisen verbinden ließe. ;)

    Bis dahin warte ich mal geduldig auf ein neues Buch von Dir! ;)

  • #8

    Karl Olsberg (Dienstag, 23 März 2021 13:08)

    @Heinrich: Klar, jeder hat Angst vor dem Tod, ich auch. Das ist angeboren. Aber das heißt nicht, dass Unsterblichkeit (oder auch ein beliebiges Hinauszögern des Todes) eine gute Idee wäre. Ich glaube, unser Problem ist, dass wir (ebenfalls angeboren) ein völlig falsches Verständnis von Zeit haben. Jeder möchte gern länger leben, aber komischerweise habe ich noch niemanden getroffen, der gern früher geboren worden (und somit jetzt älter) wäre. Auch eine unbegrenzte räumliche Ausdehnung wünscht sich keiner. Wenn wir die Zeit so sehen könnten, wie sie wirklich ist, würden wir alle Angst verlieren. Aber bekanntlich hatte selbst Einstein damit Schwierigkeiten.

  • #9

    Heinrich (Samstag, 27 März 2021 23:16)

    Ich möchte das nicht zerreden, aber muss noch einmal mein Anliegen erklären.
    Ich habe keine Angst vor dem Tod, aber große Lust, das noch einmal "richtig" zu machen, was ich in meinem Leben über lange, lange, lange Zeit "falsch" gemacht habe. ;)
    Ich weiß, auch für dieses Anliegen gibt es Argumente, warum das vermutlich nicht funktionieren würde, denn mit jeder neuen Erfahrung gibt es Mängel in der Vergangenheit. ;)

    Falls wir uns vorher nicht mehr treffen, FROHE OSTERN! :)
    Gruß Heinrich

  • #10

    Karl Olsberg (Sonntag, 28 März 2021)

    @Heinrich: Das verstehe ich sehr gut, es geht mir ähnlich. Manchmal habe ich den Eindruck, der einzige Sinn von "Lebenserfahrung" ist es, dass man besser versteht, was man hätte anders machen sollen ...