· 

Was ist eigentlich das Problem?

Ich habe die Probleme, die durch Künstliche Intelligenz verursacht werden können, in drei grobe Klassen unterteilt. Ich habe das in erster Linie getan, um die enorme Bandbreite der KI-Risiken zu veranschaulichen: Es geht nicht nur um „falsch programmierte“ KI, die nicht das tut, was ihre Schöpfer eigentlich wollten, sondern auch um Missbrauch, Ungleichheit und langfristige Nebenwirkungen. Doch diese Unterteilung ist nicht besonders hilfreich für die Lösungsfindung, denn sie sagt nicht viel über die konkreten Problemursachen aus und liefert somit kaum Hinweise für deren Bekämpfung.

Zum Glück arbeiten viele Menschen, die sehr viel mehr von KI verstehen als ich, bereits an diesen Problemen („viele“ ist allerdings relativ – sehr, sehr viel mehr Menschen arbeiten momentan daran, immer stärkere KIs zu entwickeln, um den Wettlauf mit „den Chinesen“ oder „den Amerikanern“ zu gewinnen, und scheren sich nicht besonders um Risiken und Nebenwirkungen). Einer davon ist Rohin Shah, dessen exzellenten Newsletter (auf Englisch) ich regelmäßig lese, um mir einen Überblick über die aktuellen Diskussionsthemen zu verschaffen. Ein Beitrag in der jüngsten Ausgabe hat mir zu denken gegeben. Darin weist er auf einen jüngst veröffentlichten wissenschaftlichen Artikel hin, der als eine Aufforderung verstanden werden kann, gründlicher als bisher über die potenziellen Probleme der KI nachzudenken.

Der Artikel mit dem sperrigen Titel „‘Solving for X?’ Towards a problem-finding framework to ground long-term governance strategies for artificial intelligence“ von Hin-Yan Liu et al beschäftigt sich mit der Frage, wie (rechtliche) Regelungen für die Entwicklung und Anwendung von KI gestaltet werden sollten. Die Autoren sind der Ansicht, dass dabei üblicherweise zu wenig über die potenziellen, noch unbekannten Probleme der KI nachgedacht wird. Ich habe den Artikel nicht in Gänze gelesen (mir fehlt der theoretische Hintergrund, um ihn voll zu verstehen), deshalb gebe ich hier nur Rohin Shahs Zusammenfassung wieder.

Die Autoren argumentieren demnach, der typische Prozess bei der Entwicklung von Regelungen sei wie folgt: Zuerst werde eines der bekannten ungelösten Probleme ausgewählt, dann betrachte man mögliche Lösungsansätze und zuletzt wähle man den geeignetsten aus. Klingt für mich erst einmal sehr vernünftig. Doch die Sache hat mehrere Haken, wie die Autoren weiter erläutern:

  1. Dieser Ansatz verführt dazu, bestehende Analogien und Metaphern auf das Problem anzuwenden, auch wenn diese nicht hilfreich oder sogar irreführend sind.

  2. Probleme, die in den bisherigen Regelungssystemen gar nicht enthalten oder nicht offensichtlich sind, werden nicht erkannt und folglich auch nicht gelöst.

  3. Typischerweise bauen Problemlösungen nach dem klassischen Vorgehen auf bereits vorhandenen Lösungen für bereits früher gelöste, ähnliche Probleme auf. Doch dies schafft Abhängigkeiten und verstellt den Blick für ganz neue Lösungsansätze.

  4. Mit dem herkömmlichen Vorgehen ist es schwierig, zwischen Ursachen und Symptomen zu unterscheiden, da in der Regel keine Analysen quer über verschiedene Probleme gemacht werden, sondern man sich auf das zu lösende Problem konzentriert.

  5. Vor allem führt die Konzentration auf bereits bekannte Probleme zu einem falschen Gefühl der Sicherheit, weil man glaubt, die wesentlichen Probleme bereits zu kennen, und unbewusst annimmt, wenn diese gelöst seien, gäbe es keine Gefahr mehr.

Die Autoren schlagen stattdessen vor, nicht gleich nach Lösungen, sondern zunächst systematisch nach Problemen zu suchen, die mit den bisherigen Regelungsmechanismen (noch) nicht erfasst werden. Sie unterteilen die Entwicklung von neuen Regelungsmechanismen in vier Stufen:

  • Auf Stufe 0 („Business as usual“) werden die bestehenden Regelungen nicht angepasst, weil man davon ausgeht, dass sie ausreichen, um alle bestehenden und zukünftigen Probleme zu lösen. Dies dürfte auf die meisten KI-Risiken kaum zutreffen.

  • Stufe 1 („Puzzle-solving“) entspricht dem bisherigen Ansatz, sich eng auf die Suche nach Lösungen für bekannte Probleme zu konzentrieren, mit den obigen Problemen.

  • Stufe 2 („Disruptor finding“) sucht dagegen gezielt nach potenziellen Eigenschaften von KI-Systemen, die mit den bisherigen Regelungen nicht abgedeckt würden. Dies könnte man vielleicht mit einer systematischen Schwachstellensuche in der IT-Sicherheit vergleichen.

  • Stufe 3 („Charting macrostrategic trajectories“) geht noch darüber hinaus, indem auch die indirekten Auswirkungen der KI systematisch analysiert werden – das, was ich in meiner Klassifizierung das „Ungleichheitsproblem“ und das „Midas-Problem“ nenne, sowie weitere mögliche Problemklassen, die ich vielleicht nicht erkennen kann. Im Prinzip versucht man dabei, die Frage zu beantworten: „Wie verändert sich der Lauf der Welt durch ein solches System?“ Diese Frage stelle ich gerne in meinen Romanen, allerdings begnüge ich mich dabei in der Regel mit einem konkreten Problem und einer möglichen Antwort darauf.

Als Beispiel für Stufe 2 und 3 können Autonome Waffensysteme („Killerdrohnen“) dienen. Diese können nicht nur außer Kontrolle geraten (was man mit Stufe 1 erkennen und behandeln könnte), sondern haben auch indirekte Auswirkungen auf die Geopolitik, indem sie die politischen, militärischen und monetären Kosten für eine Aggression verringern. Beispielsweise erleichtern es „Killerdrohnen“, Angriffe durchzuführen, bei denen der Urheber nicht oder kaum zurückverfolgt werden kann. Dies hat nicht nur unmittelbare Auswirkungen auf die Gefahr eines „heimlichen Krieges“, sondern könnte auch zu Gegenreaktionen in ganz anderen Bereichen führen, z.B. indem ein technisch unterlegenes Land mit einem konventionellen Angriff reagiert und so die Kriegsgefahr insgesamt steigt.

Der Beitrag zeigt mir vor allem eines: Uns bleibt nicht mehr allzu viel Zeit, um uns auf superintelligente KI vorzubereiten, doch wir haben noch nicht einmal ansatzweise die daraus resultierenden möglichen Probleme verstanden. Wir müssen intensiver als bisher danach suchen.


Kommentar schreiben

Kommentare: 4
  • #1

    Heinrich (Samstag, 06 März 2021 21:45)

    Hallo Karl,
    als ich in diesem Artikel gelesen habe, dass Entwickler von KIs sich nicht besonders um Risiken und Nebenwirkungen scheren, dachte ich an die Pharmaindustrie.
    Das dahingebrabbelte "Fragen sie Ihren Arzt oder Apotheker......" nach jedem Werbespot nimmt doch niemand mehr wahr.
    Allerdings habe ich auch bezüglich der Coronaimpfung überlegt, dass ich immer abschätzen muss, ob ich einen "schweren Verlauf" oder irgendwelche Nebenwirkungen in Kauf nehme.
    So könnte ich das auch bei den KIs betrachten. Wir werden ohne sie nicht auskommen, außer wir bomben uns in die Steinzeit zurück. Wenn der Nutzen der KIs mehr wert ist, als die Nebenwirkungen Schaden anrichten, könnte das mit allen anderen Lebensbereichen verglichen werden, die ja alle nicht perfekt sind, nie perfekt sein können, da Menschen beteiligt sind.

    Gruß Heinrich
    P.S. Lo hat sich gegen Erdbeben impfen lassen - ihn erschüttert nichts mehr. ;)
    Vielleicht kann man sich auch gegen Klimaerwärmung und KI-Nebenwirkungen impfen lassen? ;)

  • #2

    Karl Olsberg (Sonntag, 07 März 2021 11:36)

    @Heinrich: Das Beispiel mit der Pharmaindustrie ist gut. Natürlich hat die Industrie selbst nur ein begrenztes Interesse daran, die Nachteile ihrer Produkte in den Vordergrund zu rücken. Aber deshalb gibt es ein sehr umfangreiches gesetzliches Regelungswerk. Pharmaunternehmen müssen ihre Arzneien jahrelang sehr sorgfältig auf Nebenwirkungen testen und diese explizit in die Packungsbeilage schreiben. Davon sind wir z.B. in Bezug auf soziale Netzwerke noch Lichtjahre entfernt, obwohl die Risiken und Nebenwirkungen hier ähnlich schwerwiegend sind wie bei manchen Psychopharmaka. Die Pharmaindustrie ist insofern für mich ein Positivbeispiel dafür, wie wir zukünftig mit KI umgehen sollten.

    Wo genau kann man sich gegen Erdbeben impfen lassen? Gibt es vielleicht auch eine Impfung gegen menschliche Dummheit? Ohne die wäre künstliche Intelligenz nämlich gar kein Problem. ;)

  • #3

    Heinrich (Sonntag, 07 März 2021 19:57)

    @Karl, eine Impfung gegen menschliche Dummheit gibt es nicht, jedenfalls nicht mit Spritze oder Schluckimpfung. Die Resistenz gegen Dummheit wird (ähnlich wie Corona) über die Atemwege übertragen. Besonders in guten Elternhäusern, Schulen, Unis und Bibliotheken ist die Luft stark mit diesem Wirkstoff angereichert. Man atmet es einfach ein und bleibt/wird nicht dumm.
    Leider gibt es Menschen, die genbedingt immun gegen diese IQ-Aerosole sind, oder wenn Hirn und Kleinhirn schon mit der Verwaltung der Grundkörperfunktionen (Flasche zum Mund führen usw) dermaßen belastet sind, dass sie sich nicht um die Aufnahme dieser Stoffe kümmern können.
    Vermutlich sind Lern- und Lesestoffe auch davon betroffen, die werden bei solchen Menschen sogar vom Immunsystem bekämpft und vernichtet.
    Eine einmal erworbene Dummheit bleibt in der Regel erhalten. Es gibt genug im Fernsehen, Internet und ausgesuchten Gemeinschaften, das bei Bedarf die Dummheit immer wieder auffrischt und auch mal versehenlich durchgeschlüpfte IQ-Aerosole erfolgreich vernichtet. Dafür muss man nicht einmal FFP2 Masken tragen!
    Gruß Heinrich

  • #4

    Karl Olsberg (Montag, 08 März 2021 12:06)

    @Heinrich: Ja, es ist tragisch, dass die Dummheit auf demselben Weg übertragen wird wie die Klugheit. Aber darin liegt ja vielleicht auch eine Chance. Versuchen wir einfach, möglichst viele Immun-Wirkstoffe zu verbreiten!

    Ich glaube übrigens nicht, dass die Art von Dummheit, über die wir hier reden, viel mit der angeborenen Intelligenz zu tun hat. Sie hängt meines Erachtens viel mehr davon ab, ob man in einem gesunden Umfeld aufwächst oder nicht, wem man zuhört und wessen Anerkennung man sich ersehnt. Auch das ist aus meiner Sicht eher eine gute Nachricht: Wenn es uns gelingt, ein gesundes Umfeld für die geistige Entwicklung zu schaffen, dann ist ein geringer IQ kein Problem. Leider gibt es aber Menschen, die zu ihrem eigenen Vorteil sehr bewusst genau das Gegenteil anstreben. Einer davon ist gerade abgewählt worden, aber es sind noch mehr als genug übrig ...