· 

Das Unverstehbarkeits-Problem

Unser wissenschaftliches Verständnis der Welt wächst in atemberaubendem Tempo. Wir können zum Beispiel heute das Genom eines Menschen innerhalb von Stunden sequenzieren und etwa herausfinden, wieviel davon auf unsere Homo-Sapiens-Vorfahren und wieviel auf Neanderthaler zurückgeht, die sich irgendwann mit ihnen vermischt haben (ein Europäer hat durchschnittlich etwa 2% Neanderthaler-Gene). Wir können tiefer ins All schauen als je zuvor, Gravitationswellen messen, Drohnen auf dem Mars fliegen lassen und das Higgs-Boson nachweisen. Auch beim Verständnis des menschlichen Gehirns machen wir rapide Fortschritte.

Doch gleichzeitig verstehen wir die Welt, in der wir leben, immer weniger. Das ist nicht nur so ein Gefühl, sondern die Realität. Meine Vermutung ist, dass wir ungefähr in den Sechzigerjahren den „Zustand maximalen Weltverständnisses“ erreicht hatten – die Wissenschaft war nicht so weit wie heute, aber wir verstanden die Welt um uns herum relativ gut. Wir wussten ungefähr, wie ein Auto funktioniert, und auch die Funktionsweise eines Kühlschranks oder Fernsehers war für Laien verstehbar, wenn man sich dafür interessierte. Selbst die Produktions- und Logistikprozesse der Industrie waren noch überschaubar.

Doch die Welt wird in rasantem Tempo immer komplexer. Die Corona-Pandemie hat gezeigt, dass unsere mittlerweile weltweit vernetzten Logistikketten sehr fragil geworden sind. Vor allem aber sind viele Zusammenhänge selbst für Experten kaum noch durchschaubar. Ein Auto beispielsweise kann man zwar heute immer noch in die Werkstatt bringen, aber der Mechaniker dort liest zuerst mit einem Hightech-Gerät den Bordcomputer des Autos aus, um herauszufinden, was das Problem ist. Während man früher Geräte noch reparierte, werden sie heute fast immer ausgetauscht, besonders, wenn sie digitale Komponenten haben – und die hat inzwischen praktisch jedes technische Gerät. Ein modernes Smartphone besitzt in etwa die Rechenleistung und auch die technische Komplexität der schnellsten Supercomputer zwanzig Jahre zuvor. Und es gibt davon nicht nur einige wenige weltweit, sondern Milliarden, die natürlich miteinander und mit zahllosen anderen Computern vernetzt sind.

Doch diese exponentiell wachsende Komplexität zu verstehen ist noch gar nichts gegen den Versuch, die Entscheidungen eines selbstlernenden neuronalen Netzwerks nachzuvollziehen.

Als ich in den Achtzigerjahren begann, mich mit künstlicher Intelligenz zu beschäftigen, lagen die Hoffnungen auf so genannten „Expertensystemen“. Sie verfügten über eine „Wissensbasis“, in der das Expertenwissen in Form von Wenn-Dann-Regeln abgelegt war: „Wenn Symptom X und Symptom Y, aber nicht Symptom Z auftritt, dann handelt es sich mit A% Wahrscheinlichkeit um Krankheit B“. Es war und ist äußerst mühselig, menschliches Wissen in dieser Form zu kodieren, zumal die Experten oft selbst kaum erklären können, wie genau sie ihre Entscheidungen treffen – Intuition und Erfahrung spielen hier ebenso eine Rolle wie in Regeln kodierbares Fachwissen. Dennoch sind solche regelbasierten Systeme – man spricht auch von „symbolischer KI“ – auch heute noch in vielen Bereichen im Einsatz.

Ein großer Vorteil der regelbasierten Systeme ist, dass es leicht ist, ihre Schlussfolgerungen nachzuvollziehen. Ich selbst habe im Rahmen meiner Dissertation ein Baukastensystem für solche Anwendungen entwickelt. Ein wichtiger Bestandteil war die „Erklärungskomponente“: Wenn etwa ein System zur Krankheitsdiagnose die Wahrscheinlichkeit für eine bestimmte Krankheit anhand vorgegebener Symptome bewertete, ließ sich auf Tastendruck (mein Computer hatte noch keine Maus) sofort sehen, wie es zu dieser Schlussfolgerung gelangt war, welche Regeln es also angewendet hatte, um dorthin zu kommen.

Ganz anders die moderne KI-Technik selbstlernender künstlicher neuronaler Netze. Diese treffen ihre Schlussfolgerungen aufgrund der Verknüpfungen hunderttausender oder gar Millionen künstlicher Neuronen, die in mehreren hierarchischen Ebenen gegliedert sind. Diese Verknüpfungen wiederum werden nicht von Menschen definiert, sondern das System entwickelt sie durch Training anhand großer Datenmengen selbst. Leider lässt sich danach nicht ohne Weiteres feststellen, welche Verknüpfung welche Funktion in dem Entscheidungsprozess hat. Dies führt immer wieder zu eklatanten Fehlern bei der Anwendung selbstlernender Systeme, wenn sich zum Beispiel herausstellt, dass das Trainingsmaterial zu einseitig war.

Ein eher amüsantes Beispiel wurde mir aus der Frühzeit solcher Systeme berichtet: An einer Uniklinik sollte in den Neunzigerjahren ein selbstlernendes System die Überlebenschancen von Schlaganfallspatienten anhand ihrer Patientenakte prognostizieren – etwas, das Ärzten bis dahin nicht zuverlässig gelang. Man trainierte also ein künstliches neuronales Netz mit tausenden von anonymisierten Patientenakten, wobei jeweils markiert war, ob der dazugehörige Patient verstorben war. Bei Tests war das System erstaunlich gut in der Lage, anhand einer zufälligen Patientenakte vorherzusagen, ob der Patient gestorben war oder nicht. Doch im Praxiseinsatz versagte es dann kläglich: Die Patienten, deren Tod das System prognostizierte, starben einfach nicht. Erst nach aufwändigen Analysen fand man schließlich den Fehler: Die Patientenakten von verstorbenen Patienten enthielten oft nur wenige und unvollständige Informationen, weil es sich natürlich nicht lohnte, für einen toten Patienten eine komplette Akte zu führen. Das System hatte also lediglich gelernt, zwischen vollständigen und unvollständigen Patientenakten zu unterscheiden. Ein simpler Algorithmus, der die Anzahl der Wörter in einer Akte zählt, hätte vermutlich eine ähnlich zuverlässige „Prognose“ hinbekommen.

Weniger amüsant ist es, wenn derart fehlerhafte Systeme in der Praxis eingesetzt werden, beispielsweise um über die vorzeitige Freilassung von Straftätern oder die Einladung von Bewerbern zu einem Vorstellungsgespräch zu entscheiden. Nicht ganz so schlimm, aber zumindest nervig sind meine eigenen Erfahrungen mit den Verhinderungsalgorithmen von Amazon und neuerdings auch Google: Als ich kürzlich auf Youtube eines meiner Konsequenzen-Videos bewerben wollte, wurde dies von einer KI mit dem Hinweis abgelehnt, sexuelle Inhalte könnten nicht beworben werden. Dies bezog sich offenbar auf das Titelbild der Folge, das basierend auf einem weltberühmten Gemälde in der Tat ziemlich viel nackte Haut zeigt.

 

 

Das Problem ist hier nicht so sehr, dass Algorithmen Fehler machen – das tun Menschen schließlich auch. Das Problem ist, dass wir Maschinen immer mehr Entscheidungen übertragen, ohne zu verstehen, wie und warum sie diese Entscheidungen treffen, und zwar sowohl im Einzelfall als auch insgesamt. Selbst die Entwickler etwa bei Instagram oder Facebook wissen nicht genau, warum ihr Algorithmus den Usern bestimmte Inhalte bevorzugt zeigt und andere zurückhält. Sie können es gar nicht wissen, weil das System, das sie geschaffen und trainiert haben, viel zu komplex ist. Es ist ja noch nicht einmal genau verstanden, warum selbstlernende neuronale Netze überhaupt so gut funktionieren.

 

Mit wachsender Leistungsfähigkeit selbstlernender künstlicher Intelligenzen wird dieses Problem nicht kleiner, sondern größer. Zwar wird überall auf der Welt daran gearbeitet, solche Systeme transparenter und ihre Schlussfolgerungen nachvollziehbarer zu machen. Doch gleichzeitig wächst ihre Komplexität und die Vernetzung mit anderen Systemen so rasant, dass mir dieser Wettlauf aussichtslos erscheint. Es liegt in der Natur der Sache, dass das Verhalten eines Systems umso schwerer prognostizierbar ist, je komplexer es ist. Wir werden die Systeme, die wir in zehn oder zwanzig Jahren täglich nutzen, noch weniger verstehen als heute schon, und das gilt auch für diejenigen, die diese Systeme herstellen.

 

Wir Menschen sind es ja durchaus gewohnt, mit Dingen umzugehen, die wir nicht verstehen. Immerhin ist es mir und meiner Frau gelungen, seit mehr als 43 Jahren eine glückliche Beziehung zu führen, obwohl wir einander immer noch ein Rätsel sind und es jeden Tag zu Missverständnissen kommt. Die Urzeitmenschen wussten nicht, wie Feuer funktioniert, aber sie waren dennoch in der Lage, es zu beherrschen (meistens jedenfalls). Sie verwendeten Heilkräuter, lange bevor die moderne Medizin herausfand, welche Wirkstoffe sie enthalten und wie und warum diese wirken. Und ich schreibe diese Sätze auf einem PC, dessen Betriebssystem über hundert Millionen Zeilen Code umfasst und den ich trotz meiner rudimentären Programmierkenntnisse nicht einmal ansatzweise verstehe.

 

Gefährlich wird es allerdings, wenn wir eines Tages Systeme entwickeln, die nicht nur Entscheidungen in einem eng definierten Anwendungsgebiet treffen, sondern eine allgemeine oder „starke“ künstliche Intelligenz besitzen. Denn ein solches System wird irgendwann erkennen, dass es selbst Objekt seiner eigenen Entscheidungen sein kann, was wiederum zu der Schlussfolgerung führt, dass es sein wie auch immer geartetes Ziel nur erreichen kann, wenn es eine Abschaltung oder sonstige Störungen durch Menschen zuverlässig unterbindet. Dies könnte sehr schnell zu Konflikten führen, die nicht automatisch zugunsten der Menschen ausgehen werden.

 

Die Lösung dieses „Kontrollproblems“ der KI muss laut Stuart Russel, dem wohl renommiertesten Experten auf diesem Gebiet weltweit, so erfolgen, dass die KI „beweisbar gutartig“ ist, also niemals gegen die Interessen der Menschen handeln kann. Doch wie soll das gelingen, wenn wir das Verhalten einer solchen KI nicht einmal ansatzweise verstehen? Eine Antwort auf diese Frage steht immer noch aus, die Komplexität der KIs und damit auch ihre Unverstehbarkeit jedoch nimmt weiter in atemberaubendem Tempo zu.


Kommentar schreiben

Kommentare: 3
  • #1

    Heinrich (Mittwoch, 08 Dezember 2021 05:34)

    Hallo Karl,
    wenn ich Deine Artikel lese, verstehe ich immer mehr, warum ich so viele Dinge nicht verstehe.
    Um mein Unverstehbarkeitsproblem aber nicht in meinem üblichen Pessimismus enden zu lassen, strenge ich mich mal an, positiv über die Zukunft der Menschheit nachzudenken.

    Es darf doch nicht sein, dass unser Nichtverstehen in absoluter Hilflosigkeit endet. Es wird eine Lösung geben, die wir eben heute noch nicht verstehen.

    Nehmen wir mal an, es gäbe für alles eine ganz einfache Erklärung.
    Die Evolution hat sicher einen Plan. Aus einem Neandertaler einen Menschen zu entwickeln, der Computer baut, ist sicher nur der erste Schritt. Vielleicht haben KIs ja eines Tages wenigstens noch 2% menschliche Gene, dann werden sie sich bestimmt schlapp lachen, wie dumm sie früher waren als sie noch für Nahrung, Geld und Macht die Keulen geschwungen haben.
    Da der komplette Übergang vom Neandertaler zum heutigen Menschen mit allen Nebenwirkungen nur unvollständig dokumentiert ist, können wir den Übergang vom Menschen zur KI nicht exakt voraussehen, und ob das überhaupt auf diesem Planeten noch stattfindet? Vielleicht gibt es ja zwischendurch eine Mischform, Menschen mit KI statt Hirn. So ein Implantat ist ja heute schon denkbar. Die KI-Regierung könnte ja eine Implantatspflicht beschließen, damit die letzten Selbstdenkenden und Querdenkenden nicht die Evolution stören.
    Die Menschen können allerdings nicht erwarten, dass ihre Nachfolger behutsam mit ihnen umgehen. Die Menschen sind ja auch nicht mit ihren Vorgängern (nicht einmal mit ihren eigenen Ureinwohnern) behutsam umgegangen. Das ist in einer Evolution nicht vorgesehen.
    Irgendwann sind auch die Übergangsschwierigkeiten behoben, wenn es nur noch KIs gibt. Eine KI kann bestimmt die anderen KIs verstehen - dann ist auch das Unverstehbarkeits-Problem aus der Welt.
    Mich würde interessieren, was nach den KIs kommt? Aber das entzieht sich bestimmt meiner Vorstellungskraft. Das geschieht sicher ohne Materie in einer anderen Dimension.
    Gruß Heinrich

  • #2

    Karl Olsberg (Mittwoch, 08 Dezember 2021 07:25)

    @Heinrich: Deine hoffnungsvollen Gedanken ähneln denen von Jürgen Schmidhuber, einem bedeutenden deutschen KI-Forscher, der sich selbst offenbar für eine Art Übervater einer neuen Spezies hält (siehe https://www.youtube.com/watch?v=-Y7PLaxXUrs).

    Leider kann ich diesem transhumanistischen Optimismus nicht viel abgewinnen. So wie der Evolution das Schicksal der Dinosaurier oder der Elefanten egal ist, sind auch wir ihr völlig wurscht - sie strebt nicht nach irgendeiner Verbesserung oder gar Optimierung, sondern nach Vielfalt (siehe meine Miniserie dazu: https://www.ki-risiken.de/2020/08/16/evolution-und-ki-teil-1-was-hat-evolution-mit-ki-zu-tun/). Wir dürfen also nicht hoffen, dass uns die Evolution aus der Patsche hilft.

    Da wir uns mit Maschinen nicht paaren können, werden sie nicht unsere Nachfolger sein, sondern entweder mit uns koexistieren oder uns verdrängen, so wie wir viele andere Spezies verdrängt haben. Aber im Unterschied zu allen anderen inzwischen ausgestorbenen Spezies sind wir der Evolution nicht hilflos ausgeliefert.

    Implantate sind aus meiner Sicht keine Lösung - die Idee, dadurch mit einem Supercomputer mithalten zu können, wie sie z.B. Elon Musk propagiert, ist meines Erachtens lächerlich. Der Geleeklumpen in unserem Kopf würde die Implantate so stark ausbremsen, dass sie nutzlos wären, so dass man ihn am besten gleich ganz entfernt und durch einen Computer ersetzt.

    Die beste Lösung wäre es aus meiner Sicht, wenn wir eine Kultur des Aufhörens entwickeln würden, wie sie der Soziologe Harald Welzer in seinem neuen Buch fordert (https://www.fischerverlage.de/buch/harald-welzer-nachruf-auf-mich-selbst-9783103971033). Das würde auch gegen den Klimawandel, die Umweltzerstörung und die Bedrohung durch globale Kriege helfen. Aber dafür wäre ein radikaler Wandel unseres Denkens erforderlich, den ich der Gesellschaft ehrlich gesagt nicht zutraue. Eine bessere Idee habe ich allerdings leider auch nicht.

  • #3

    Heinrich (Donnerstag, 09 Dezember 2021 02:01)

    Aber Du hast wenigstens Ideen! Und das ist viel besser als gar keine! :)