· 

Wie funktioniert eigentlich KI?

Wie ich bereits deutlich gemacht habe, geht es bei „künstlicher Intelligenz“ nicht darum, menschliches Denken nachzuahmen (obwohl unser Gehirn immer wieder Inspiration liefert und KI umgekehrt auch dazu beiträgt, es zu verstehen). Stattdessen versucht man, komplexe Entscheidungen, die bisher Menschen getroffen haben, auf Maschinen zu übertragen. Aber wie genau macht man das?

Ganz grob kann man zwei Klassen von KIs unterscheiden: So genannte „wissensbasierte Systeme“ (oft auch „Expertensysteme“ genannt) und selbstlernende „neuronale Netzwerke“.

Wie der Name andeutet, wird bei den wissensbasierten Systemen menschliches Wissen in Form von Wenn-Dann-Regeln kodiert und vom System angewendet. Die ersten dieser Systeme entstanden in den Siebzigerjahren, in den Achtzigern schrieb ich meine Doktorarbeit darüber und entwickelte damals auch selbst ein solches „Expertensystem“ zur Beratung von Unternehmensgründern. Der Nachteil dieser Systeme ist, dass es sehr aufwändig ist, die Wissensbasis zu erstellen und zu pflegen. Der Hype in den Achtzigerjahren ebbte deshalb relativ schnell wieder ab. Dennoch findet man wissensbasierte Systeme heute in sehr vielen Bereichen, von „intelligenten“ Motorsteuerungen über Chatbots bis zur Autokorrektur in Word.

Selbstlernende „neuronale Netzwerke“ dagegen „lernen“ ihr Wissen selbst, indem sie große Datenmengen analysieren und nach Zusammenhängen durchsuchen. So kann ein neuronales Netzwerk zum Beispiel lernen, auf Fotos eine Katze zu erkennen, wenn es zuvor mit sehr vielen Bildern trainiert wurde, die ein Mensch entsprechend gekennzeichnet hat. Der Nachteil solcher selbstlernenden Systeme ist, dass man anders als bei wissensbasierten Systemen nicht ohne Weiteres nachvollziehen kann, was genau das System eigentlich gelernt hat, woran es also zum Beispiel eine Katze erkennt. Die Qualität der Entscheidungen steht und fällt mit den Trainingsdaten. Wenn auf den Bildern beispielsweise immer nur schwarze Katzen zu sehen sind, würde es eine weiße oder gestreifte Katze nicht erkennen. In einem konkreten Fall sollte zum Beispiel ein neuronales Netz lernen, getarnte Panzer zu erkennen. Im Test funktionierte das System fehlerfrei, in der Praxis versagte es jedoch kläglich. Es stellte sich heraus, dass die Trainingsbilder mit Panzern darauf alle bei bewölktem Himmel fotografiert worden waren, die ohne Panzer dagegen bei Sonnenschein. Statt Panzern konnte das System nur das Wetter erkennen.

Während die Schlussfolgerungen wissensbasierter Systeme einfach nachvollziehbar sind, können wir bei selbstlernenden Systemen nicht genau wissen, wie sie zu einer bestimmten Schlussfolgerung kommen, und dementsprechend auch nicht überprüfen, ob diese stimmt (jedenfalls nicht im Voraus). Versuche, die Systeme dazu zu bringen, sich selbst zu erklären, können sogar nach hinten losgehen, wie Wissenschaftler kürzlich feststellten: Der Mensch neigt dazu, einem System, das ihm eine Erklärung liefert, mehr zu vertrauen – selbst, wenn er die Erklärung gar nicht versteht!

Wer mehr über die Funktionsprinzipien von künstlicher Intelligenz wissen möchte, dem kann ich den kostenlosen Online-Kurs Elements of AI nur wärmstens empfehlen. Entwickelt von der Universität Helsinki und unter Schirmherrschaft des Bundeswirtschaftsministeriums ins Deutsche übertragen, vermittelt der Kurs in 6 Lektionen auf unterhaltsame und anschauliche Weise die Grundlagen der KI, wobei der Schwerpunkt auf selbstlernende Systeme gelegt wird und auch die Nachteile solcher Systeme nicht verschwiegen werden. Spezifische Vorkenntnisse sind nicht erforderlich, allerdings sollte man keine große Angst vor Mathematik auf Schulniveau haben. Leider ist die Übersetzung ins Deutsche stellenweise nicht ganz gelungen, so dass man an einer Stelle sogar eine falsche Musterantwort bekommt (dies wird im zugehörigen Reddit-Forum klargestellt). Doch von diesen kleinen Schwächen abgesehen macht der Kurs wirklich Spaß.

Man lernt dabei vor allem eines: Die Grundlagen moderner KI sind eigentlich ziemlich einfach. Ihre enorme Leistungsfähigkeit beziehen selbstlernende Systeme nicht aus komplizierten Programmen, sondern aus großer Rechenleistung und vielen Daten. Das ist nur logisch, schließlich besteht auch unser Gehirn aus vergleichsweise simplen Zellen, die für sich genommen in keiner Weise „intelligent“ sind. Dennoch entsteht aus dem komplexen Zusammenspiel vieler Milliarden solcher Zellen so etwas Faszinierendes und Mysteriöses wie Bewusstsein und die Fähigkeit, sich an die Vergangenheit zu erinnern und sich die Zukunft vorzustellen. Wie genau das geschieht, ist immer noch unbekannt, und das gilt auch für viele Fähigkeiten künstlicher neuronaler Netze. Wir wissen, dass sie funktionieren, aber wir haben keine exakte Theorie, die erklären würde, warum.

Solange sich das nicht ändert, sollten wir mit einer gesunden Portion Skepsis an selbstlernende Systeme herangehen und es uns genau überlegen, welche Entscheidungen wir ihnen übertragen, damit wir nicht in die Falle des Kompetenzproblems tappen.

 


Kommentar schreiben

Kommentare: 2
  • #1

    Heinrich (Mittwoch, 12 Februar 2020 00:29)

    Frage:
    Sind selbstlernende „neuronale Netzwerke“ nur mit Quantencomputern sinnvoll oder gar nur möglich?

  • #2

    Karl Olsberg (Mittwoch, 12 Februar 2020 08:46)

    @Heinrich: Danke für die Frage! Nein, künstliche neuronale Netzwerke haben nichts mit Quantencomputern zu tun, obwohl Letztere womöglich extrem leistungsfähige neuronale Netze simulieren können, wenn sie denn irgendwann zuverlässig funktionieren. Künstliche neuronale Netze gibt es schon seit den Fünfzigerjahren, allerdings ist erst seit einigen Jahren die Rechenleistung der Computer stark genug, um damit wirklich etwas anfangen zu können. Heute ist fast immer, wenn von "künstlicher Intelligenz" die Rede ist, ein selbstlernendes "neuronales Netz" im Spiel, z.B. beim Autonomen Fahren oder bei der Gesichtserkennung.