· 

Was ist eigentlich das Problem?

Ich habe die Probleme, die durch Künstliche Intelligenz verursacht werden können, in drei grobe Klassen unterteilt. Ich habe das in erster Linie getan, um die enorme Bandbreite der KI-Risiken zu veranschaulichen: Es geht nicht nur um „falsch programmierte“ KI, die nicht das tut, was ihre Schöpfer eigentlich wollten, sondern auch um Missbrauch, Ungleichheit und langfristige Nebenwirkungen. Doch diese Unterteilung ist nicht besonders hilfreich für die Lösungsfindung, denn sie sagt nicht viel über die konkreten Problemursachen aus und liefert somit kaum Hinweise für deren Bekämpfung.

Zum Glück arbeiten viele Menschen, die sehr viel mehr von KI verstehen als ich, bereits an diesen Problemen („viele“ ist allerdings relativ – sehr, sehr viel mehr Menschen arbeiten momentan daran, immer stärkere KIs zu entwickeln, um den Wettlauf mit „den Chinesen“ oder „den Amerikanern“ zu gewinnen, und scheren sich nicht besonders um Risiken und Nebenwirkungen). Einer davon ist Rohin Shah, dessen exzellenten Newsletter (auf Englisch) ich regelmäßig lese, um mir einen Überblick über die aktuellen Diskussionsthemen zu verschaffen. Ein Beitrag in der jüngsten Ausgabe hat mir zu denken gegeben. Darin weist er auf einen jüngst veröffentlichten wissenschaftlichen Artikel hin, der als eine Aufforderung verstanden werden kann, gründlicher als bisher über die potenziellen Probleme der KI nachzudenken.

Der Artikel mit dem sperrigen Titel „‘Solving for X?’ Towards a problem-finding framework to ground long-term governance strategies for artificial intelligence“ von Hin-Yan Liu et al beschäftigt sich mit der Frage, wie (rechtliche) Regelungen für die Entwicklung und Anwendung von KI gestaltet werden sollten. Die Autoren sind der Ansicht, dass dabei üblicherweise zu wenig über die potenziellen, noch unbekannten Probleme der KI nachgedacht wird. Ich habe den Artikel nicht in Gänze gelesen (mir fehlt der theoretische Hintergrund, um ihn voll zu verstehen), deshalb gebe ich hier nur Rohin Shahs Zusammenfassung wieder.

Die Autoren argumentieren demnach, der typische Prozess bei der Entwicklung von Regelungen sei wie folgt: Zuerst werde eines der bekannten ungelösten Probleme ausgewählt, dann betrachte man mögliche Lösungsansätze und zuletzt wähle man den geeignetsten aus. Klingt für mich erst einmal sehr vernünftig. Doch die Sache hat mehrere Haken, wie die Autoren weiter erläutern:

  1. Dieser Ansatz verführt dazu, bestehende Analogien und Metaphern auf das Problem anzuwenden, auch wenn diese nicht hilfreich oder sogar irreführend sind.

  2. Probleme, die in den bisherigen Regelungssystemen gar nicht enthalten oder nicht offensichtlich sind, werden nicht erkannt und folglich auch nicht gelöst.

  3. Typischerweise bauen Problemlösungen nach dem klassischen Vorgehen auf bereits vorhandenen Lösungen für bereits früher gelöste, ähnliche Probleme auf. Doch dies schafft Abhängigkeiten und verstellt den Blick für ganz neue Lösungsansätze.

  4. Mit dem herkömmlichen Vorgehen ist es schwierig, zwischen Ursachen und Symptomen zu unterscheiden, da in der Regel keine Analysen quer über verschiedene Probleme gemacht werden, sondern man sich auf das zu lösende Problem konzentriert.

  5. Vor allem führt die Konzentration auf bereits bekannte Probleme zu einem falschen Gefühl der Sicherheit, weil man glaubt, die wesentlichen Probleme bereits zu kennen, und unbewusst annimmt, wenn diese gelöst seien, gäbe es keine Gefahr mehr.

Die Autoren schlagen stattdessen vor, nicht gleich nach Lösungen, sondern zunächst systematisch nach Problemen zu suchen, die mit den bisherigen Regelungsmechanismen (noch) nicht erfasst werden. Sie unterteilen die Entwicklung von neuen Regelungsmechanismen in vier Stufen:

  • Auf Stufe 0 („Business as usual“) werden die bestehenden Regelungen nicht angepasst, weil man davon ausgeht, dass sie ausreichen, um alle bestehenden und zukünftigen Probleme zu lösen. Dies dürfte auf die meisten KI-Risiken kaum zutreffen.

  • Stufe 1 („Puzzle-solving“) entspricht dem bisherigen Ansatz, sich eng auf die Suche nach Lösungen für bekannte Probleme zu konzentrieren, mit den obigen Problemen.

  • Stufe 2 („Disruptor finding“) sucht dagegen gezielt nach potenziellen Eigenschaften von KI-Systemen, die mit den bisherigen Regelungen nicht abgedeckt würden. Dies könnte man vielleicht mit einer systematischen Schwachstellensuche in der IT-Sicherheit vergleichen.

  • Stufe 3 („Charting macrostrategic trajectories“) geht noch darüber hinaus, indem auch die indirekten Auswirkungen der KI systematisch analysiert werden – das, was ich in meiner Klassifizierung das „Ungleichheitsproblem“ und das „Midas-Problem“ nenne, sowie weitere mögliche Problemklassen, die ich vielleicht nicht erkennen kann. Im Prinzip versucht man dabei, die Frage zu beantworten: „Wie verändert sich der Lauf der Welt durch ein solches System?“ Diese Frage stelle ich gerne in meinen Romanen, allerdings begnüge ich mich dabei in der Regel mit einem konkreten Problem und einer möglichen Antwort darauf.

Als Beispiel für Stufe 2 und 3 können Autonome Waffensysteme („Killerdrohnen“) dienen. Diese können nicht nur außer Kontrolle geraten (was man mit Stufe 1 erkennen und behandeln könnte), sondern haben auch indirekte Auswirkungen auf die Geopolitik, indem sie die politischen, militärischen und monetären Kosten für eine Aggression verringern. Beispielsweise erleichtern es „Killerdrohnen“, Angriffe durchzuführen, bei denen der Urheber nicht oder kaum zurückverfolgt werden kann. Dies hat nicht nur unmittelbare Auswirkungen auf die Gefahr eines „heimlichen Krieges“, sondern könnte auch zu Gegenreaktionen in ganz anderen Bereichen führen, z.B. indem ein technisch unterlegenes Land mit einem konventionellen Angriff reagiert und so die Kriegsgefahr insgesamt steigt.

Der Beitrag zeigt mir vor allem eines: Uns bleibt nicht mehr allzu viel Zeit, um uns auf superintelligente KI vorzubereiten, doch wir haben noch nicht einmal ansatzweise die daraus resultierenden möglichen Probleme verstanden. Wir müssen intensiver als bisher danach suchen.


Kommentar schreiben

Kommentare: 0