Diese Woche gab es ein bemerkenswertes öffentliches Statement, das nur aus einem einzigen Satz bestand: "Die Minderung des Risikos einer Auslöschung durch KI sollte eine globale Priorität sein, ebenso wie andere gesellschaftliche Risiken von solchem Ausmaß wie Pandemien und Atomkriege." (Übersetzung durch ChatGPT) Unterschrieben wurde es u.a. von Geoffrey Hinton und Yoshua Bengio, die für ihre Grundlagenarbeit zu maschinellem Lernen den Turing Award gewannen, von OpenAI-CEO Sam Altman und Deepmind-Gründer Demis Hassabis sowie von hunderten weiteren namhaften Persönlichkeiten, die meisten davon international renommierte KI-Experten, darunter sehr viele Universitätsprofessoren.
Ich persönlich war zugegebenermaßen etwas enttäuscht, als ich das kurze und nicht besonders konkrete Statement zum ersten Mal las. Doch ich habe seine Wirkung unterschätzt – dieser eine Satz hat offensichtlich eine Menge verändert und wird zum Beispiel Thema des nächsten Treffens zwischen Großbritanniens Premierminister Rishi Sunak und US-Präsident Joe Biden sein. Entscheidend ist dabei die Formulierung „Risiko einer Auslöschung“, die erstmals in dieser Deutlichkeit die enorme Tragweite der Gefahr anspricht, die von fortgeschrittener KI ausgeht: Es geht nicht nur um Fehlurteile, ungerechte Behandlung oder Jobverlust – es geht um das Risiko, dass die Menschheit durch KI vollständig vernichtet werden könnte. Der Satz mag kurz und so etwas wie der kleinste gemeinsame Nenner für alle Unterzeichner sein, aber diese Wucht hätte ein längeres Statement vermutlich nicht entfaltet. Insofern ziehe ich meinen Hut vor Dan Hendrycks, dem Gründer des gemeinnützigen Centers for AI Safety und Initiator des Statements.
Offensichtlich wurden wir hier in Deutschland von dieser Aussage kalt erwischt. Während die Staatslenker Großbritanniens, Frankreichs, der USA und anderer Länder den Hinweis aufgenommen haben, gibt es kein offizielles Statement der Bundesregierung dazu. Immer noch gibt es hierzulande kein etabliertes Forschungsinstitut, das sich mit existenziellen KI-Risiken ernsthaft auseinandersetzt. Stattdessen glauben wir offenbar, besser zu wissen, was das „eigentliche“ Problem ist: In Wahrheit ist das Statement nämlich bloß „Werbung“, PR, ein Marketing-Gag, oder auch „vorauseilende Schuldabwehr“. Und weil auch die an dem Statement beteiligten Professoren in der Vergangenheit oft falsch lagen (indem sie die Entwicklungsgeschwindigkeit der KI unterschätzten), muss man nun auch diese Warnung nicht ernst nehmen. Das jedenfalls meint der von mir sonst sehr geschätzte SPIEGEL-Kolumnist und IT-Experte Sascha Lobo, und er ist damit nicht allein.
Zweifel an der Aufrichtigkeit derjenigen, die mit der Entwicklung hochentwickelter KI sehr viel Geld verdienen und gleichzeitig zur Vorsicht mahnen, sind sicher zulässig und womöglich berechtigt, nicht nur aufgrund der Doppelzüngigkeit eines Elon Musk. Schließlich könnten sie selbst das Risiko einer Auslöschung durch KI deutlich reduzieren, indem sie einfach damit aufhörten, eine solche gefährliche KI zu entwickeln (ja, ich weiß, „dann würde es ein anderer machen“, aber das ist kein gutes Argument, sondern eine Ausflucht). Und natürlich weiß niemand, wie die Zukunft aussieht. Aber die Argumentation, dies sei nur "Werbung mit dem Weltuntergang“ oder auch „Panikmache“, hat eine gravierende Schwäche: Sie basiert nicht auf Fakten und Logik, sondern auf so genannten Heuristiken, die im Wesentlichen auf vergangenen Erfahrungen beruhen.
Ohne Heuristiken und Intuitionen, oft auch „Bauchgefühl“ genannt, wären wir kaum in der Lage, unseren Alltag zu bewältigen. Sie helfen uns, Situationen blitzschnell einzuschätzen, und meistens liegen wir damit genau richtig. Nur leider nicht immer. Solche „Denkabkürzungen“ versagen nämlich häufig in ungewöhnlichen oder völlig neuen Situationen und führen uns dann in die Irre.
Eine solche Denkfalle ist die „Verfügbarkeitsheuristik“. Sie besagt, dass wir ein Ereignis für umso wahrscheinlicher halten, je leichter wir es aus der Erinnerung abrufen können. Klar, wenn wir schon mal erlebt haben, dass ein Glas zerbricht, wenn es auf den Boden fällt, können wir uns das gut vorstellen und sind eben das nächste Mal vorsichtiger. Wenn dagegen etwas noch nie zuvor passiert ist, wenn es dazu noch sehr weitreichende Auswirkungen hat und uns eine gravierende Veränderung unseres Handelns abverlangt, kommt es uns unwahrscheinlich vor und wir fragen uns, was derjenige, der so etwas behauptet, wohl damit erreichen will. So war es zum Beispiel zu Beginn der Corona-Pandemie. Auch damals sprachen viele von „Panikmache“, manche behaupten noch heute, die Pharma-Industrie hätte Covid nur erfunden, um das schnelle Geld zu machen. Oder auch beim Klimawandel: Erst, als das Ahrtal überflutet wurde, haben viele Menschen begriffen, dass diese Katastrophe in Zeitlupe tatsächlich geschieht, und auch hier gibt es immer noch Zweifler.
Heuristiken sind für eine sachliche, rationale Diskussion über die Zukunft ungeeignet. Denn es sind keine Argumente, sondern auf vergangenen Erfahrungen basierende Vermutungen, die im Einzelfall zwar durchaus zutreffen können, aber in einer Situation wie der jetzigen, wo wir kurz vor der gravierendsten Erfindung in der Geschichte der Menschheit stehen, unbrauchbar und irreführend sind.
Ich würde mir sehr wünschen, dass mir jemand mit Fakten und rationalen Argumenten erklärt, warum ich mir um die Zukunft meiner drei Söhne keine Sorgen machen muss. Stattdessen höre ich immer wieder bloß „ach was, das ist alles bloß Hype/PR/Angstmacherei“ oder „das dauert noch lange, es gibt Dringenderes“. Ersteres ist in meinen Augen durch die vielen seriösen Stimmen klar widerlegt. Letzteres kann sein, aber die aktuelle Entwicklung spricht eindeutig dagegen, und selbst, wenn die Chance des KI-Weltuntergangs in den nächsten Jahren sehr gering sein sollte (z.B. 1%), wäre sie noch viel zu hoch. Außerdem finde ich es unsinnig, Probleme gegeneinander aufzurechnen - dass wir erwiesenermaßen bereits heute konkrete KI-Probleme, Klimawandel etc. haben, die dringend gelöst werden müssen, heißt doch nicht, dass wir das existenzielle Problem deswegen ignorieren können, und umgekehrt.
Ich würde mir sehr wünschen, dass wir auch hier in Deutschland die Warnung der führenden KI-Experten sehr ernst nehmen und endlich damit anfangen, unseren Beitrag zur Lösung zu leisten.
Kommentar schreiben
Heinrich (Samstag, 10 Juni 2023 00:20)
Hallo Karl,
es stimmt, nicht nur Sascha Lobo verbreitet die PR-Gag-Theorie. Auch andere Journalisten, deren Artikel ich bisher gerne gelesen habe, retten sich in ihrer Hilflosigkeit in diese Ecke.
Übrigens, eine KI muss gar nicht die Menschen ausrotten, um die Probleme dieser Welt zu lösen. Sie muss nur die Leitung von Wirtschaft, Politik und Medien global übernehmen. ;)
Gruß Heinrich
Mischa (Montag, 19 Juni 2023 21:06)
Hallo Karl,
es sind ja nicht nur die Fortschritte bei der Entwicklung der KI, die das eigentliche Problem extrem befeuern werden. Die Rechenleistung, die KIs in den nächsten Jahren zur Verfügung haben werden, wird durch Quantentechnologie quasi explodieren. Auch hier ist nur die Frage wann und nicht ob...
VG Mischa
Karl Olsberg (Dienstag, 20 Juni 2023 10:09)
@Mischa: Ja, das ist einer der vielen unvorhersehbaren Faktoren in dieser Situation. Ich glaube allerdings, dass unkontrollierbare KI auch ohne Quantencomputer möglich ist und vermutlich vorher auftauchen wird. Aber das ist ein selbstverstärkender Prozess: eine starke KI entwickelt dann die Technik für einen Quantencomputer (oder eine ganz andere, noch unbekannte Technologie), der sie dann noch stärker macht.