· 

Wie gefährlich ist KI?

Im Sommer 1978 fuhr ich mit einem Schulfreund und meinem Bruder im offenen VW-Käfer-Cabrio durch meine Heimat, das Sauerland. Mein Freund steuerte den Wagen, mein Bruder saß angeschnallt auf dem Beifahrersitz, ich ohne Gurt auf der Rückbank.  Wir fuhren mit viel zu hoher Geschwindigkeit in eine 90-Grad-Kurve. Der Wagen geriet ins Schleudern, stürzte eine Böschung hinab und überschlug sich, wobei ich aus dem Auto geschleudert wurde. Ich hätte mir ohne Weiteres das Genick brechen oder unter den sich überschlagenden Wagen geraten können, doch ich hatte Glück und kam mit einer Platzwunde davon. Auch mein Bruder hatte Glück im Unglück und brach sich „nur“ das Schlüsselbein, obwohl das Auto keinen Überrollbügel hatte und er ebenfalls leicht hätte sterben können. Mein Schulfreund blieb körperlich unversehrt, erlitt aber einen Schock.


Der Grund für den Unfall war jugendlicher Leichtsinn, könnte man sagen. Man kann es aber auch anders sehen: Der Grund für den Unfall war, dass Autofahren inhärent gefährlich ist und der Fahrer diese Gefahr trotz einer aufwändigen Führerscheinausbildung und einiger Fahrpraxis nicht richtig einschätzen konnte.

 

Seit der Erfindung des Automobils ist mehr als ein Jahrhundert vergangen. Dennoch sterben jedes Jahr weltweit mehr Menschen im Straßenverkehr als durch Kriege und Terror zusammen. Hinzu kommen erhebliche negative Umweltauswirkungen. Man kann dafür den Fahrern die Schuld geben und tatsächlich passieren die meisten Autounfälle aus Leichtsinn oder Unaufmerksamkeit. Doch die Wahrheit ist, dass Autofahren immer noch gefährlich ist – man bewegt einen Stahlkoloss mit einer Geschwindigkeit, bei der ein direkter Aufprall sofort tödlich ist und die menschliche Reaktionszeit bei unvorhergesehenen Zwischenfällen oft viel zu lang. Jeder Fehler kann schlimme Folgen haben und Menschen machen nun mal Fehler.

 

Wir haben uns viel Mühe gegeben, die Technik in den Griff zu bekommen und sie sicherer zu machen, aber perfekt beherrschen wir sie immer noch nicht. Trotzdem fahren wir jeden Tag mit dem Auto. Wir sind uns des Unfallrisikos (mehr oder weniger) bewusst, nehmen es aber in Kauf, weil es uns klein genug erscheint. Künstliche Intelligenz kann und wird hoffentlich dabei helfen, dieses Problem zu lösen und die Zahl der Verkehrstoten drastisch zu reduzieren. Aber künstliche Intelligenz ist ebenso wie das Autofahren inhärent gefährlich, und zwar nicht nur dann, wenn KI ein Auto steuert.

 

Für fast alle Technologien gilt, dass der mögliche Schaden, der durch falsche Anwendung entstehen kann, viel größer ist als der maximale Nutzen. Das fing schon mit dem Feuer an: Unsere Vorfahren konnten damit im besten Fall Suppe kochen und sich warm halten, im ungünstigsten Fall aber ein Haus oder gar ein ganzes Dorf niederbrennen. Eine Überdosis eines Medikaments hat meistens weit schlimmere Auswirkungen, als es die bestmögliche Heilwirkung rechtfertigen würde. Autos und Flugzeuge können Menschen günstigstenfalls schnell zum Ziel transportieren, aber wenn etwas schiefgeht, können sie sie schlimmstenfalls töten. Selbst Küchenmesser können zum Zwiebelschneiden benutzt oder als Mordwaffe missbraucht werden.

 

Dass wir trotzdem eine Zivilisation errichten konnten, liegt vor allem daran, dass wir gelernt haben, die Risiken der jeweiligen Technologie zu erkennen und einzudämmen, indem wir Sicherheitsmaßnahmen einführten. Doch bis dahin war es oft ein langer und steiniger Weg. Die ersten Autos waren zwar langsam, aber auch sehr unsicher. Es sind zahllose Unfälle passiert, bevor wir ausgeklügelte Verkehrsregeln, Anschnallgurte, Überrollbügel, Airbags und Bremsassistenten entwickelt haben. Etliche Flugzeuge sind abgestürzt, bevor wir lernten, sie durch professionelle Steuerungs- und Kontrollsysteme zum sichersten Verkehrsmittel zu machen. Die Pharmaindustrie muss heute aufwändige und langwierige, gesetzlich vorgeschriebene Testverfahren durchführen, bevor ein neues Medikament zugelassen wird – auch das war nicht immer so.

 

In der Regel hatten wir ausreichend Zeit, um uns auf die neuen Technologien einzustellen. Menschen sind gestorben, aber es waren vergleichsweise wenige, denn es dauerte Jahrzehnte, bis sich neue Technologien entwickelten und durchsetzten. Gleichzeitig waren die Risiken meistens relativ leicht zu erkennen, weil wir die Technologien gut genug verstanden haben. Beim Autofahren beispielsweise spielen relativ simple physikalische Prozesse eine Rolle und man kann sich leicht ausrechnen, was passiert, wenn ein Auto mit 100 Km/h gegen eine Mauer kracht.

 

Tückisch wird es allerdings, wenn die Probleme nicht sofort sichtbar sind, wie das zum Beispiel bei den Spätfolgen der Industrialisierung – Klimawandel und Umweltzerstörung – der Fall ist. Hier spielen äußerst komplexe Zusammenhänge eine Rolle, die im 19. Jahrhundert überhaupt noch nicht bekannt waren. Je später man solche Probleme erkennt, umso schwieriger wird es, die Folgen einzudämmen, wie wir gerade erleben. Hätten wir von Anfang an bedacht, dass qualmende Fabrikschlote langfristig eine schlechte Idee sind, und rechtzeitig umweltschonendere Verfahren entwickelt, hätten wir heute vielleicht kein Problem mit der Klimaerwärmung.

 

Noch schwieriger wird es, wenn nicht nur die Folgen erst verzögert erkennbar werden, sondern die Technik selbst sich so schnell weiterentwickelt, dass wir sie kaum noch verstehen und mit der Bekämpfung der Folgen gar nicht hinterherkommen. Nehmen wir als Beispiel dafür die so genannten sozialen Medien.

 

Wir wissen noch längst nicht genau, welche Risiken und Nebenwirkungen Facebook, Instagram, Twitter etc. haben. Allerdings zeichnet sich bereits ab, dass sie zur Polarisierung und Spaltung der Gesellschaft beitragen, indem sie die Verbreitung von Desinformation und Verschwörungstheorien fördern. Zudem ist erkennbar, dass zwischenmenschliche Beziehungen unter dem ständigen Zwang, nur mal kurz aufs Smartphone zu gucken, leiden. Oft schon musste ich mitansehen, wie Mütter gebannt aufs Handy starrten, während ihre kleinen Kinder verzweifelt versuchten, ihre Aufmerksamkeit zu erregen. Welche Traumata hier entstehen, werden wir frühstens in fünfzehn bis zwanzig Jahren wissen.

 

Wie Medikamente haben auch soziale Medien erhebliche Risiken und Nebenwirkungen, können wahrscheinlich sogar Depressionen bis hin zur Suizidgefahr verursachen oder sie zumindest verschlimmern. Doch anders als bei Medikamenten gibt es keine Regeln und Prozeduren, um diese Gefahren zu verstehen und zu dokumentieren, bevor das Produkt auf den Markt kommt. Wir führen gerade ein Experiment an der Gesamtbevölkerung durch, dessen gesellschaftliche Folgen unabsehbar sind. Und selbst, wenn wir wüssten, wie sich das Facebook des Jahres 2021 auf seine Nutzer auswirkt, wäre diese Erkenntnis in dem Moment, wo wir sie erlangen, bereits veraltet. Denn die Algorithmen des Netzwerks entwickeln sich permanent weiter und es kommen immer neue Konkurrenten auf den Markt.

 

Was für soziale Medien gilt, trifft ebenso auf alle anderen Anwendungsbereiche der KI zu. Fast überall ist der Schaden, den KI anrichten kann, größer als der Nutzen, auch wenn das nicht immer auf den ersten Blick erkennbar ist. Wir haben keine Ahnung, welche mittel- und langfristigen Effekte der Einsatz von KI hat. Wir verstehen ja nicht einmal wirklich, wie genau die Systeme funktionieren, die bereits im Einsatz sind. Trotzdem entwickeln wir die Technik mit Hochdruck weiter und setzen sie oft kritik- und planlos ein. Das ist so, als würden wir immer schnellere Autos bauen, bevor wir uns Gedanken über Verkehrsregeln oder Anschnallgurte machen.

 

Das, was man gemeinhin etwas irreführend als „künstliche Intelligenz“ bezeichnet, ist in Wahrheit die Automatisierung von Entscheidungen, die zuvor Menschen getroffen haben. Bereits heute werden zahllose Entscheidungen automatisch getroffen – von den Autopiloten in Flugzeugen bis zu selbstfahrenden Fahrzeugen, von Produktempfehlungen bis zu Personalentscheidungen, von Aktienkäufen bis zur Kreditvergabe, von der automatisierten Überwachung bis zur Entscheidung über die vorzeitige Freilassung von Straftätern. Noch sind solche automatischen Entscheidungssysteme jeweils auf eng begrenzte Einsatzgebiete beschränkt, doch in ihrer Summe erobern sie immer größere Teile unseres Lebens, und zwar in atemberaubender Geschwindigkeit.

 

Ich weiß, dass die Entwicklungsgeschwindigkeit kaum zu bremsen ist. Aber wir können die Anwendung von KI regulieren, so wie wir es bei Medikamenten tun. Wir können zum Beispiel Unternehmen zwingen, automatische Entscheidungen – etwa über unseren Newsfeed – offenzulegen und zu erklären, wie die Algorithmen, die diese Entscheidungen treffen, genau funktionieren. Wir können verbieten, bestimmte Entscheidungen überhaupt zu automatisieren. Das sind unpopuläre Maßnahmen, besonders in der IT-Industrie. Aber wenn wir es der Pharmaindustrie allein überlassen würden, ob und wie sie die Risiken und Nebenwirkungen von Medikamenten vorher testet, hätten wir wahrscheinlich weit schlimmere Probleme als die ohnehin bereits vorhandenen Fälle von Medikamentenabhängigkeit. Und ein Bericht des MIT Technology Review darüber, wie bei Facebook mit dem Problem der Desinformation umgegangen wird, zeigt, dass auch die Anbieter sozialer Medien nicht von allein dafür sorgen werden, dass schon irgendwie alles gutgeht.

 

Für die meisten dieser Technologien gilt, was ich über Medikamente, Autos und Küchenmesser schrieb: der potenzielle Schaden bei falscher Anwendung ist größer als ihr potenzieller Nutzen. Wir sollten uns größte Mühe geben, diese Gefahren zu verstehen und einzudämmen, bevor wir noch mehr Entscheidungen automatisieren.


Kommentar schreiben

Kommentare: 2
  • #1

    Heinrich (Samstag, 10 April 2021 15:58)

    [zitat]Wir sollten uns größte Mühe geben, diese Gefahren zu verstehen und einzudämmen, bevor wir noch mehr Entscheidungen automatisieren. [/zitat]

    Dann gehört dieses Thema m.E. schon in die Schule. Wo sonst lernen Menschen freiwillig, um etwas zu verstehen? (oder gibt es das schon?)

    Vor Jahren durfte ich noch mit meinen Drohnen überall fliegen. Nun muss ich einen Drohnenführerschein machen, mich registrieren und viele Auflagen erfüllen.

    Wenn ich mich so im Internet umschaue, wünsche ich mir schon lange, es gäbe einen Internetführerschein, den man bestehen muss um "teilnehmen" zu dürfen. ;)

    Dann könnte das Thema KI auch einen wichtigen Teil der "Internetschulung" ausmachen.

    Aber das wird es ebenso wenig geben wie einen Küchenmesserführerschein.

  • #2

    Karl Olsberg (Samstag, 10 April 2021 16:16)

    @Heinrich: Ja, ich glaube auch, dass die Schule ein guter Ort ist, um Menschen auf die potenziellen Gefahren von KI (z.B. Desinformation in sozialen Medien) vorzubereiten. Ich glaube, das passiert auch teilweise schon. Ich sehe aber die Verantwortung hier nicht in erster Linie bei uns Anwendern, sondern bei denjenigen, die Algorithmen benutzen, um uns zu beeinflussen oder Entscheidungen zu automatisieren, die uns betreffen. Hier brauchen wir meines Erachtens deutlich mehr staatliche Regulierung.