· 

Uns läuft die Zeit davon

Das letzte Mal schrieb ich vor anderthalb Jahren darüber, wie viel Zeit uns noch bleibt, bis wir eine „starke“ KI mit dem Menschen vergleichbarer allgemeiner Problemlösungsfähigkeit entwickeln und folglich vorher das „Alignment-Problem“ gelöst haben müssen. Damals ging die Mehrheit der Experten davon aus, dass es etwa um die Mitte des Jahrhunderts so weit sein könnte, nur ein kleiner Teil glaubte, dass es weniger als 20 Jahre dauern würde.

Anfang des Jahres erfuhr ich vom „Worldbuilding Contest“ des Future of Life Institute, an dem ich zusammen mit Jan Hendrik Kirchner teilgenommen habe. Eine der Bedingungen für das zu entwickelnde Szenario war, dass im Jahr 2045 seit mindestens fünf Jahren eine „starke“ KI existiert. Ich hielt das für unrealistisch.

Dann las ich einen Beitrag auf LessWrong, geschrieben von Daniel Kokotajlo, meinem Mentor beim „AI Safety Camp“, an dem ich seit Januar teilnehme. Er beschreibt die Entwicklung der KI in den nächsten Jahren sehr rasant und hält die Entwicklung starker KI noch in diesem Jahrzehnt für möglich. Auch das hielt ich für weit übertrieben. Zwar finde ich nicht, dass Sorgen in Bezug auf starke KI ähnlich unbegründet wären wie Angst vor „Überbevölkerung auf dem Mars“, wie es der KI-Experte Andrew Ng formuliert hat. Doch ich war davon ausgegangen, dass uns noch ein paar Jahrzehnte Zeit bleiben. Insbesondere dachte ich, dass wir bestimmte Technologien, die für starke KI notwendig sind, noch nicht entwickelt haben und sehr viel größere Rechenleistung benötigen, als uns momentan zur Verfügung steht.

Wie es aussieht, habe ich mich getäuscht. Die Entwicklung allgemeiner künstlicher Intelligenz auf menschlichem Niveau könnte wesentlich näher sein, als ich – und die Mehrzahl der KI-Forscher – glaubten. Drei Nachrichten in den letzten paar Monaten deuten darauf hin.

Im Januar präsentierte die Google-Tochter Deepmind, die bereits mehrere spektakuläre Erfolge im Bereich der KI vorzuweisen hat, „AlphaCode“, ein neuronales Netz, das auf menschlichem Niveau programmieren kann. Ich erhielt diese Nachricht kurz, nachdem ich ein Video zu der Frage aufgenommen hatte, wie viel Zeit uns noch bleibt, und sah mich genötigt, eine Ergänzung nachzudrehen.

Erst vor ein paar Wochen präsentierte OpenAI die Nachfolgeversion des Bildgenerierungsprogramms „Dall-E“, das mich bereits im letzten Jahr nachhaltig beeindruckt hat. „Dall-E 2“ legt allerdings noch mal eine gehörige Schippe drauf. Am deutlichsten wird das an einem Twitter-Feed, bei dem User beliebige kurze Texte einschicken konnten und Dall-E 2 diese daraufhin in gemalte Bilder umsetzte. Das zum Beispiel kommt heraus, wenn man Dall-E 2 sagt, es soll ein Bild von Elefanten auf einer Wiese bei einer Tee-Party malen:

2009 habe ich einen Artikel für die Zeitschrift Brand Eins geschrieben, in dem ich vermutete, der größte Künstler des 21. Jahrhunderts könnte eine Maschine sein. Ich hätte allerdings nicht damit gerechnet, dass das so schnell geht.

Gestern nun kam der dritte „Schock“: Deepmind hat vorgestern einen wissenschaftlichen Aufsatz zu „Gato“ veröffentlicht, einer KI, die dem Anspruch allgemeiner Problemlösungsfähigkeit schon erschreckend nah kommt. Gato kann nicht mehr „nur“ auf übermenschlichem Niveau Schach, Go oder Atari-Spiele spielen oder wie ein Mensch chatten oder Roboter steuern oder Bilder identifizieren und verbal beschreiben, es kann all das auf einmal – mit demselben neuronalen Netz, das flexibel darauf reagieren kann, was von ihm erwartet wird und wie die Umstände sind. Wofür zuvor unterschiedliche „Spezialisten-KIs“ in aufwändigen Verfahren trainiert werden mussten, die dann für nichts anderes zu gebrauchen waren, kann diese erste „Generalisten-KI“ nun quasi im Alleingang lernen.

Das ist noch nicht dasselbe wie „starke“ KI. Aber es ist schon so dicht dran, dass ich befürchte, es bleiben uns nicht mehr Jahrzehnte, sondern nur noch ein paar Jahre, bis wir übermenschliche Intelligenz entwickeln. Auf jeden Fall scheint die Entwicklung den „Optimisten“ unter den Prognostikern rechtzugeben und die so genannte „Scaling-Hypothese“ zu bestätigen, die besagt, dass wir schon alles haben, was wir brauchen, um starke KI zu entwickeln, und nur mehr Rechenpower einsetzen müssen. Angesichts des weiterhin exponentiellen Wachstums dieser Rechenpower und der bevorstehenden Entwicklung ultra-leistungsfähiger Quantencomputer könnte die weitere Entwicklung sehr schnell gehen.

Noch mal zur Erinnerung, warum das ein Problem ist:

  • Eine starke KI, die sich selbst als Objekt ihrer Entscheidungen erkennt, hat automatisch instrumentelle Ziele, wie etwa zu verhindern, dass sie abgeschaltet wird, nach Macht zu streben und sich selbst zu verbessern, um ihr Ziel besser erreichen zu können.
  • Wir wissen noch nicht, welches Ziel wir einer solchen Maschine geben müssen, damit es nicht zu katastrophalen Zielkonflikten mit uns Menschen kommt.
  • Im Unterschied zu uns ist eine KI nicht auf das Volumen und die Struktur unseres Gehirns beschränkt. D.h. wenn sie erst einmal in der Lage ist, sich selbst zu verbessern, kann sie sehr schnell sehr viel intelligenter werden als wir, so dass wir sie ebenso wenig kontrollieren können, wie die Orang-Utans uns kontrollieren.

Wir nähern uns beängstigend schnell einer äußerst gefährlichen kritischen Schwelle. Sollten wir sie überschreiten, ohne das „Alignment-Problem“ gelöst zu haben, könnte dies das Ende der Menschheit bedeuten. Doch innerhalb der EU beschäftigt sich zurzeit praktisch niemand mit diesem Problem. Warum nicht?!?


Nachtrag 30.5.: Kurz, nachdem ich diesen Beitrag schrieb, veröffentlichte Deepmind die KI Imagen, die ähnlich wie Dall-E 2 erstaunlich realistische Bilder aufgrund von Textbeschreibungen erzeugen kann. Angeblich schnitt sie in einem Test mit menschlichen Juroren sogar noch besser ab.

Wenn man Dall-E 2 bereits kennt, kommt einem diese Meldung beinahe unspektakulär vor, und Imagen offenbart durchaus noch ein paar Schwächen (offenbar mögen Waschbären keine Sonnenbrillen und mit dem Gitarrespielen klappt es auch nicht immer). Erschreckend finde ich daran jedoch, dass der Hauptkonkurrent praktisch zeitgleich mit OpenAI eine KI veröffentlicht, die annähernd dieselben Fähigkeiten hat. Das spricht sehr stark dafür, dass die zugrundeliegende Technik relativ simpel ist und man lediglich genügend Trainingsdaten und Rechenpower braucht, um ähnliche Ergebnisse zu erzielen - ein starkes Argument für die Gültigkeit der Scaling-Hypothese und ein Hinweis darauf, dass auch in anderen Labors auf der Welt ähnlich starke KIs entwickelt werden, auch wenn man dort die Erfolge nicht an die große Glocke hängt.


Kommentar schreiben

Kommentare: 0