Über „künstliche Intelligenz“ (KI) wird viel geredet, aber wie so oft bei Wörtern, die gerade en vogue sind, meint jeder etwas anderes damit. Während die einen von „intelligenten“ oder „selbstlernenden“ Algorithmen z.B. für die Analyse von Texten oder Datenmengen reden, verstehen andere darunter „Denken wie ein Mensch“. Auch beim Menschen ist der Begriff „Intelligenz“ nicht klar definiert und es existieren sehr unterschiedliche Vorstellungen davon, was man darunter zu verstehen hat.
Mir wäre es deshalb am liebsten, den Begriff KI gar nicht zu verwenden und stattdessen von der „Automatisierung von Entscheidungen“ zu sprechen. Denn genau darum geht es: Entscheidungen, die heute noch von Menschen getroffen werden („Gasgeben oder bremsen?“, „Links abbiegen oder weiter geradeaus?“, "Ist das ein bösartiger Tumor oder ein harmloses Geschwür?"), sollen in Zukunft von automatischen Systemen getroffen oder zumindest entsprechende Empfehlungen gegeben werden. Dafür braucht man je nach Komplexität der Entscheidung und des Umfelds mehr oder weniger „Intelligenz“, was immer das genau ist.
Es kommt aber nicht darauf an, wie genau die Entscheidung getroffen wird - ob eine Maschine dabei ähnlich vorgeht wie ein Mensch oder völlig anders ist egal, so lange die Entscheidung am Ende genauso gut oder besser ist. So, wie ein Auto nicht deshalb schneller ist, weil es längere Beine hat, und ein Flugzeug nicht mit den Flügeln schlägt, kann auch die Automatisierung von Entscheidungen ganz anders funktionieren als das menschliche Gehirn. Es geht also bei KI NICHT darum, Computern beizubringen, „so zu denken wie ein Mensch“ oder den so genannten „Turing-Test“ zu bestehen.
Das Licht einzuschalten, wenn eine Person den Raum betritt, ist eine sehr einfache Entscheidung, vergleichbar dem Reflex beim Menschen, das Augenlid zu schließen, wenn sich ein Fremdkörper nähert. Sie benötigt gar keine „Intelligenz“. Einen Go-Stein so auf dem Feld zu platzieren, dass man dadurch die Siegchance gegen einen kompetenten Gegner erhöht, ist schon wesentlich schwieriger. Es gibt eine deutlich größere Zahl von Handlungsmöglichkeiten (ein Go-Spielbrett hat 361 Positionen, an die man einen Stein setzen kann) und es ist extrem schwierig, zu bewerten, welche Züge die Gewinnchance erhöhen, da die Zahl der möglichen Spielverläufe astronomisch ist. Deshalb benötigt das Meistern von Go ein hohes Maß an Intelligenz und Erfahrung. Verglichen damit, sich im Straßenverkehr einer Stadt zurechtzufinden, ist die Problemsituation bei Go geradezu lächerlich simpel, dafür muss man aber auch nicht gegen einen hinterlistigen Gegner gewinnen, sondern „nur“ sicher von A nach B kommen.
Allgemein kann man sagen: Ein Entscheidungsproblem erfordert umso mehr „Intelligenz“, je mehr Handlungsmöglichkeiten es gibt und je schwieriger es ist, die Konsequenzen der Handlungen zu bewerten. Entsprechend ist es je nach Situation mal einfacher, mal schwieriger, Entscheidungen zu automatisieren.
„Automatisieren“ bedeutet nicht zwingend, dass die KI autonom handeln können muss. Oft macht sie lediglich Vorschläge. Allerdings neigen wir Menschen dazu, diese Vorschläge kritiklos zu übernehmen, wenn wir uns einmal daran gewöhnt haben, dass die KI meistens recht hat. So kommt es immer wieder vor, dass Autofahrer blind den Anweisungen des Navis folgen und erst viel zu spät merken, dass sie das falsche Ziel eingeben haben. Auch mir ist das schon passiert. Im Extremfall kann das zu Situationen führen wie der des französischen Ehepaars, das in der Kölner Innenstadt die Anweisung „jetzt rechts“ etwas zu wörtlich nahm und ihr Auto die Treppe zur U-Bahn hinuntersteuerte statt in die Parkhauseinfahrt.
KIs, die Entscheidungskompetenz in bestimmten Gebieten, aber nur dort besitzen, finden sich heute in vielen Bereichen, vom Navi bis zum autonomen Fahrzeug. Unabhängig von ihrer tatsächlichen Leistung werden sie als „schwache“ KI bezeichnet. Als „heiliger Gral“ der KI wird jedoch die so genannte „allgemeine“ oder „starke“ KI angesehen. Sie soll prinzipiell ALLE Entscheidungen mindestens so gut treffen können wie ein kompetenter Mensch. Man kann darüber diskutieren, ob man eine solche allgemeine KI überhaupt braucht – ein Netzwerk von spezialisierten KIs, die ihre jeweiligen Aufgabengebiete beherrschen und effizient miteinander kommunizieren können, würde im Prinzip dasselbe leisten. Wenn es sie aber eines Tages geben sollte, wäre eine solche KI per Definition in der Lage, sich selbst zu verbessern und mit dieser verbesserten Version eine noch bessere zu entwickeln – die so genannte „Intelligenzexplosion“ oder auch „technische Singularität“, bei der wir nur noch staunend daneben stehen und zugucken können, wäre unvermeidlich.
Kommentar schreiben