· 

Künstliche Dummheit trifft menschliche Ignoranz: Das Kompetenzproblem der KI

Von den drei fundamentalen Problemklassen der KI ist das Kompetenzproblem momentan das am weitesten verbreitete und vielleicht auch dringlichste. Vereinfacht gesagt besteht es darin, dass die KI Fehler macht, weil sie nicht die nötige Kompetenz für die Entscheidung besitzt, die ihr übertragen wird. Doch das Problem ist nur scheinbar ein technisches: Die Fehlentscheidung wird nämlich nicht von der KI verursacht, sondern von dem Menschen, der ihr die Entscheidung übertragen hat.

 

Beispiele für das Kompetenzproblem gibt es zuhauf. Der Unfall eines Tesla, dessen automatische Steuerung einen querstehenden Laster nicht erkannte, zählt ebenso dazu wie der Absturz zweier Boeing 737-800 MAX, deren Flugautomatik aufgrund eines ausgefallenen Sensors falsche Entscheidungen traf, oder die „rassistischen“ Entscheidungen einer KI, die über die vorzeitige Entlassung von Straftätern entscheiden sollte.

 

Natürlich kann jedes technische System versagen, wenn zum Beispiel ein Bauteil ausfällt. Doch diese Art von Fehler ist hier nicht gemeint, denn die Steuerungssysteme haben in den jeweiligen Situationen völlig normal funktioniert. Ihre Algorithmen haben Daten ausgewertet und daraus Entscheidungen abgeleitet. Dass diese Entscheidungen falsch waren, lag an falschen Daten und/oder nicht ausreichend gut entwickelten Entscheidungsalgorithmen. Das gilt auch für die Flugzeugabstürze: Zwar war dort jeweils ein Sensor ausgefallen, doch die Steuerung selbst hatte keine technische Störung. Die falsche Entscheidung entstand durch eine Fehlinterpretation der durch den Ausfall des Sensors verzerrten Daten – das System war einfach nicht „intelligent“ genug, um in dieser Situation richtig zu reagieren.

 

Keines der genannten Systeme war vollständig autonom. Die Steuerung des Tesla war ausdrücklich nicht dafür gedacht, das Fahrzeug unbeaufsichtigt fahren zu lassen – der Fahrer sollte die Hände am Lenkrad lassen und auf die Straße achten, was er jedoch nicht tat. Die Piloten der beiden Boeing-Flugzeuge hatten es deutlich schwerer, ihre Flugzeuge im Griff zu halten, da die automatische Steuerung ihre eigenen Stabilisierungsversuche ständig konterkarierte. Doch das Hauptproblem war hier, dass die Piloten gar nicht wussten, warum das Flugzeug so reagierte. Hätten sie die automatische Steuerung abgeschaltet, wäre ihre Maschine vermutlich noch beherrschbar gewesen. Die „rassistische“ KI machte nur Vorschläge, denen die Richter jedoch oft ohne weitere Prüfung folgten – ähnlich wie das französische Ehepaar, das aufgrund einer falsch interpretierten Anweisung seines Navigationssystems den Wagen auf die U-Bahntreppe steuerte.

 

Letztlich war die Problemursache in allen genannten Fällen zu großes Vertrauen in die Kompetenz der Entscheidungsautomatik. Das hat viele Gründe: Falsche Versprechungen der Hersteller, Bequemlichkeit und eine fehlgeleitete menschliche Intuition – wir Menschen bewerten unwahrscheinliche, aber dennoch vorhandene Risiken notorisch zu gering; wenn es fünfmal hintereinander gutgeht, folgern wir intuitiv, dass es immer gutgehen wird.

 

Allerdings kommt gerade bei selbstlernenden KI-Systemen eine weitere Schwierigkeit hinzu: Selbst diejenigen, die das System entwickelt haben, wissen nicht, wie gut es funktioniert. Es ist nämlich nahezu unmöglich, nachzuvollziehen, wie selbstlernende Systeme konkrete Entscheidungen treffen. Uns fehlen noch die mathematischen Modelle, um im Einzelnen zu erklären, wie selbstlernende neuronale Netze ihre „Erkenntnisse“ entwickeln. Dies hat dazu geführt, dass manche sinnbildlich von „Alchemie“ oder gar „Magie“ sprechen.

 

Es mag seltsam erscheinen, dass man „intelligente“ Systeme bauen kann, wenn man gar nicht weiß, wie sie im Detail funktionieren. Aber das ist das Wesen menschlichen Erfindungsgeistes: Lange, bevor wir den Aufbau der Moleküle und die chemische Reaktion der Verbrennung verstanden haben, konnten wir Feuer machen. Irgendwann haben wir durch Versuch und Irrtum herausgefunden, dass man vorsichtig sein sollte, wenn man bestimmte Dinge ins Feuer wirft, weil es manchmal knallt oder eine Stichflamme gibt, und wenn man nicht aufpasst, kann es auch mal zu Haus- oder Waldbränden kommen. Doch wir lernten auch mit der Zeit, das Feuer in Öfen zu bändigen, seine zerstörerische Kraft in Waffen zu nutzen oder damit Dampfmaschinen anzutreiben – und das, bevor wir im Detail verstanden, wie Feuer eigentlich genau funktioniert.

 

So ähnlich probieren wir momentan mit KI herum und gucken, was passiert, wenn wir diesen Algorithmus auf jene Daten loslassen. Oft sind diese Experimente harmlos, etwa, wenn eine KI eine Schildkröte aufgrund winziger Pixeländerungen für ein Gewehr hält, oder peinlich, wenn ein Microsoft-Chatbot plötzlich Nazisprüche klopft. Aber sie können auch sehr gefährlich werden, zum Beispiel, wenn Social-Media-Algorithmen die Nutzer radikalisieren.

 

Im Extremfall kann das Kompetenzproblem verheerende Folgen haben, nämlich dann, wenn eine superintelligente KI (aus unserer Sicht) falsche Entscheidungen trifft. Nick Bostroms Büroklammeroptimierer ist dafür ein vereinfachtes Beispiel: Die KI ist zwar "superintelligent" in dem Sinn, dass sie all unsere Versuche, sie aufzuhalten, verhindert, doch sie ist nicht kompetent genug, um den Kontext unserer Anweisung zu verstehen, und setzt sie ohne Rücksicht auf Verluste um. Auch hier begeht der Mensch den eigentlichen Fehler, indem er die Fähigkeit der KI, "zwischen den Zeilen zu lesen", überschätzt, ihre Kompetenz in Bezug darauf, brutal ihr Ziel zu verfolgen, aber unterschätzt.

 

Um es deutlich zu sagen: Das Kompetenzproblem bedeutet nicht, dass KI generell nicht gut funktioniert oder gar pauschal „gefährlich“ ist. Trotz der spektakulären Unfälle funktioniert die Fahrzeugsteuerung von Tesla bereits jetzt erstaunlich gut und mittelfristig werden autonome Fahrzeuge unsere Straßen deutlich sicherer machen, so wie es Autopiloten im Flugverkehr bereits getan haben. Gefährlich wird es vor allem dann, wenn sich die Nutzer und menschlichen Entscheider der (möglichen) Beschränkungen der KI nicht bewusst sind.


Kommentar schreiben

Kommentare: 0