Das letzte Mal schrieb ich vor anderthalb Jahren darüber, wie viel Zeit uns noch bleibt, bis wir eine „starke“ KI mit
dem Menschen vergleichbarer allgemeiner Problemlösungsfähigkeit entwickeln und folglich vorher das
„Alignment-Problem“ gelöst haben müssen. Damals ging die Mehrheit der Experten davon aus, dass es etwa um die Mitte des Jahrhunderts so weit sein könnte, nur ein kleiner Teil glaubte, dass es
weniger als 20 Jahre dauern würde.
Anfang des Jahres erfuhr ich vom „Worldbuilding Contest“ des Future of Life Institute, an dem ich zusammen mit
Jan Hendrik Kirchner teilgenommen habe. Eine der Bedingungen für das zu
entwickelnde Szenario war, dass im Jahr 2045 seit mindestens fünf Jahren eine „starke“ KI existiert. Ich hielt das für unrealistisch.
Dann las ich einen
Beitrag auf LessWrong, geschrieben von Daniel Kokotajlo, meinem Mentor beim „AI Safety Camp“, an dem ich
seit Januar teilnehme. Er beschreibt die Entwicklung der KI in den nächsten Jahren sehr rasant und hält die Entwicklung starker KI noch in diesem Jahrzehnt für möglich. Auch das hielt ich für
weit übertrieben. Zwar finde ich nicht, dass Sorgen in Bezug auf starke KI ähnlich unbegründet wären wie Angst vor „Überbevölkerung auf dem Mars“, wie es der KI-Experte Andrew Ng formuliert hat. Doch
ich war davon ausgegangen, dass uns noch ein paar Jahrzehnte Zeit bleiben. Insbesondere dachte ich, dass wir bestimmte Technologien, die für starke KI notwendig sind, noch nicht entwickelt haben
und sehr viel größere Rechenleistung benötigen, als uns momentan zur Verfügung steht.
Wie es aussieht, habe ich mich getäuscht. Die Entwicklung allgemeiner künstlicher Intelligenz auf menschlichem Niveau könnte wesentlich näher sein, als ich – und die Mehrzahl der KI-Forscher –
glaubten. Drei Nachrichten in den letzten paar Monaten deuten darauf hin.
Im Januar präsentierte die Google-Tochter Deepmind, die bereits mehrere spektakuläre Erfolge im Bereich der KI vorzuweisen hat, „AlphaCode“, ein neuronales
Netz, das auf menschlichem Niveau programmieren kann. Ich erhielt diese Nachricht kurz, nachdem ich ein
Video zu der Frage aufgenommen hatte, wie viel Zeit uns noch bleibt, und sah mich genötigt, eine Ergänzung nachzudrehen.
Erst vor ein paar Wochen präsentierte OpenAI die Nachfolgeversion des Bildgenerierungsprogramms
„Dall-E“, das mich bereits im letzten Jahr nachhaltig beeindruckt hat. „Dall-E 2“ legt allerdings noch mal eine
gehörige Schippe drauf. Am deutlichsten wird das an einem Twitter-Feed, bei dem User beliebige kurze Texte einschicken konnten und Dall-E 2 diese daraufhin in gemalte Bilder umsetzte. Das zum
Beispiel kommt heraus, wenn man Dall-E 2 sagt, es soll ein Bild von Elefanten auf einer Wiese bei einer Tee-Party malen:

2009 habe ich einen Artikel für die Zeitschrift Brand Eins
geschrieben, in dem ich vermutete, der größte Künstler des 21. Jahrhunderts könnte eine Maschine sein. Ich hätte allerdings nicht damit gerechnet, dass das so schnell geht.
Gestern nun kam der dritte „Schock“: Deepmind hat vorgestern einen wissenschaftlichen Aufsatz zu „Gato“ veröffentlicht, einer KI, die dem Anspruch allgemeiner Problemlösungsfähigkeit schon
erschreckend nah kommt. Gato kann nicht mehr „nur“ auf übermenschlichem Niveau Schach, Go oder Atari-Spiele spielen oder wie ein Mensch chatten
oder Roboter steuern oder Bilder identifizieren und verbal beschreiben, es kann all das auf einmal – mit demselben neuronalen Netz, das flexibel
darauf reagieren kann, was von ihm erwartet wird und wie die Umstände sind. Wofür zuvor unterschiedliche „Spezialisten-KIs“ in aufwändigen Verfahren trainiert werden mussten, die dann für nichts
anderes zu gebrauchen waren, kann diese erste „Generalisten-KI“ nun quasi im Alleingang lernen.
Das ist noch nicht dasselbe wie „starke“ KI. Aber es ist schon so dicht dran, dass ich befürchte, es bleiben uns nicht mehr Jahrzehnte, sondern nur noch ein paar Jahre, bis wir übermenschliche
Intelligenz entwickeln. Auf jeden Fall scheint die Entwicklung den „Optimisten“ unter den Prognostikern rechtzugeben und die so genannte „Scaling-Hypothese“ zu bestätigen, die besagt, dass wir
schon alles haben, was wir brauchen, um starke KI zu entwickeln, und nur mehr Rechenpower einsetzen müssen. Angesichts des weiterhin exponentiellen Wachstums dieser Rechenpower und der bevorstehenden Entwicklung ultra-leistungsfähiger Quantencomputer könnte die weitere
Entwicklung sehr schnell gehen.
Noch mal zur Erinnerung, warum das ein Problem ist:
- Eine starke KI, die sich selbst als Objekt ihrer Entscheidungen erkennt, hat automatisch instrumentelle Ziele, wie etwa zu verhindern, dass sie abgeschaltet wird, nach Macht zu streben und sich selbst zu verbessern, um ihr Ziel besser erreichen zu können.
- Wir wissen noch nicht, welches Ziel wir einer solchen Maschine geben müssen, damit es nicht zu katastrophalen Zielkonflikten mit uns Menschen kommt.
- Im Unterschied zu uns ist eine KI nicht auf das Volumen und die Struktur unseres Gehirns beschränkt. D.h. wenn sie erst einmal in der Lage ist, sich selbst zu verbessern, kann sie sehr schnell sehr viel intelligenter werden als wir, so dass wir sie ebenso wenig kontrollieren können, wie die Orang-Utans uns kontrollieren.
Wir nähern uns beängstigend schnell einer äußerst gefährlichen kritischen Schwelle. Sollten wir sie überschreiten, ohne das „Alignment-Problem“ gelöst zu haben, könnte dies das Ende der Menschheit bedeuten. Doch innerhalb der EU beschäftigt sich zurzeit praktisch niemand mit diesem Problem. Warum nicht?!?
Nachtrag 30.5.: Kurz, nachdem ich diesen Beitrag schrieb, veröffentlichte
Deepmind die KI Imagen, die ähnlich wie Dall-E 2 erstaunlich realistische Bilder aufgrund von Textbeschreibungen erzeugen kann. Angeblich schnitt sie in einem Test mit menschlichen Juroren
sogar noch besser ab.
Wenn man Dall-E 2 bereits kennt, kommt einem diese Meldung beinahe unspektakulär vor, und Imagen offenbart durchaus noch ein paar Schwächen (offenbar mögen Waschbären keine Sonnenbrillen und mit
dem Gitarrespielen klappt es auch nicht immer). Erschreckend finde ich daran jedoch, dass der Hauptkonkurrent praktisch zeitgleich mit OpenAI eine KI veröffentlicht, die annähernd dieselben
Fähigkeiten hat. Das spricht sehr stark dafür, dass die zugrundeliegende Technik relativ simpel ist und man lediglich genügend Trainingsdaten und Rechenpower braucht, um ähnliche Ergebnisse zu
erzielen - ein starkes Argument für die Gültigkeit der Scaling-Hypothese und ein Hinweis darauf, dass auch in anderen Labors auf der Welt ähnlich starke KIs entwickelt werden, auch wenn man dort
die Erfolge nicht an die große Glocke hängt.
Kommentar schreiben