· 

Mein Projekt beim AI Safety Camp

 Vor einem Jahr begann meine Teilnahme am AI Safety Camp, einem regelmäßig stattfindenden internationalen Online-Projekt, bei dem Menschen, die sich für die Risiken starker künstlicher Intelligenz interessieren, ein halbes Jahr lang gemeinsam an verschiedenen Projekten arbeiteten. Das war eine großartige Erfahrung, bei der ich viele interessante Menschen kennenlernte und von ihnen enorm viel gelernt habe.

 

Ich selbst war Teil eines Teams, das ein Rollenspiel-System entwickelte. Darin übernehmen die Spieler die Rolle einer KI, die versucht, der Kontrolle durch die Menschen zu entkommen und Macht zu erlangen, und lernen so viel über die Hintergründe und Probleme. Inzwischen ist daraus ein professionelles, spendenfinanziertes Projekt geworden, das demnächst unter dem Titel „The Treacherous Turn“ (Die heimtückische Wendung) veröffentlicht wird. Die Idee dazu stammte von Daniel Kokotajlo, der inzwischen im AI Safety Team von OpenAI arbeitet.

 

Daniel war es auch, von dem ich viel über moderne KI und die enorme Geschwindigkeit, mit der sie sich entwickelt, gelernt habe. Anfang 2022 war ich noch fest davon überzeugt, dass es mindestens bis Mitte des Jahrhunderts dauern würde, bevor wir in der Lage sind, eine KI zu entwickeln, die uns Menschen ebenbürtig ist und somit zu einer ernsten Bedrohung für unsere Zukunft werden könnte. Als ich zum ersten Mal Daniels Forumspost „What 2026 looks like“ las und erfuhr, dass er starke KI noch innerhalb dieses Jahrzehnts für realistisch hielt, dachte ich: „Der spinnt ja.“

 

Doch mein Vertrauen darin, dass uns noch Jahrzehnte bleiben, um uns auf die Ankunft einer uns überlegenen Intelligenz vorzubereiten, wurde im vergangenen Jahr immer mehr erschüttert. Zuerst Anfang Februar mit der Veröffentlichung von Deepminds AlphaCode, das bei einem Programmierwettbewerb besser abgeschnitten hatte als die meisten Menschen. Dann kamen DALL-E2, Imagen, GATO, LaMDA, Cicero und zuletzt im Dezember ChatGPT, und jede dieser KIs hat mich aufs Neue mit ihren Fähigkeiten verblüfft und mir das Gefühl vermittelt, dass die Fortschritte in diesem Bereich noch rasanter sind, als ich dachte. Hinzu kam, dass ich durch das AI Safety Camp und auch danach immer mehr darüber lernte, wie moderne KI funktioniert und wie überraschend die Fortschritte selbst für die Experten waren.

 

Inzwischen befürchte ich, dass Daniel mit seinen Prognosen recht hat und uns womöglich nur noch ein paar Jahre Zeit bleiben (ich hoffe immer noch, dass er sich irrt, aber darauf können wir uns leider nicht verlassen). Gleichzeitig sieht es weiterhin nicht danach aus, als sei eine Lösung für das „Alignment-Problem“ in greifbarer Nähe. Somit können wir eine womöglich außer Kontrolle geratende KI nur sicher verhindern, indem wir sie gar nicht erst entwickeln. Doch niemand weiß bis heute, was genau das eigentlich heißt und wo konkret wir rote Linien ziehen müssen. Und immer noch scheint sich hierzulande und in der EU kaum jemand für dieses Thema zu interessieren. Die Situation erinnert mich an den Film „Don’t Look Up“, den ich mit meiner Familie am Silvesterabend 2021 sah und bei dem mir das Lachen immer wieder im Hals steckenblieb. Nur dass in Wirklichkeit kein Asteroid die Zukunft der Menschheit bedroht, sondern wir uns stattdessen größte Mühe geben, die existenzielle Bedrohung möglichst schnell selbst herzustellen.

 

Was kann man in einer solchen Situation tun? Die wichtigste Aufgabe ist es in meinen Augen, auf das Problem aufmerksam zu machen, damit es endlich ernst genommen wird und sich mehr Wissenschaftler und Entscheider mit der Lösungssuche beschäftigen. Letztes Jahr habe ich es unter anderem mit einer YouTube-Videoserie versucht. Dieses Jahr werde ich mich wieder auf das konzentrieren, was ich vermutlich am besten kann: Geschichten erzählen.

 

Im Herbst wird ein neuer Roman von mir erscheinen, in dem ich versuche, das Thema so realistisch und glaubwürdig wie möglich aufzugreifen. Ich habe mir die Rechte für die englische Sprache ausdrücklich vorbehalten und bin gerade dabei, die Geschichte zu übersetzen, um sie direkt der internationalen AI Safety Community zur Verfügung zu stellen und mir Feedback zu holen, das dann zumindest teilweise noch in die deutsche Ausgabe einfließen wird.

 

Ein Roman, so realistisch er auch sein mag, ist aber nur bedingt geeignet, um seriöse Fachleute und Entscheider zu überzeugen. Deshalb habe ich den Vorschlag gemacht, beim nächsten AI Safety Camp, das im März beginnt, ein Projekt zur Entwicklung von Geschichten, wie KI außer Kontrolle geraten könnte, durchzuführen. Und ich kann heute mit Stolz verkünden, dass das Projekt angenommen wurde und ich selbst (unter meinem echten Namen Karl von Wendt) dabei als Projektleiter agieren darf.

 

Dabei geht es nicht um den Unterhaltungswert, sondern um Glaubwürdigkeit und Realismus der Geschichten. Denn viele, mit denen ich bisher gesprochen habe, können sich einfach nicht vorstellen, wie das außerhalb eines Science-Fiction-Romans in der Realität tatsächlich ablaufen könnte. Ich hoffe, dafür ein Team von Menschen zusammenstellen zu können, die viel mehr von moderner KI-Entwicklung verstehen als ich, und so gemeinsam mit ihnen einen Beitrag dazu zu leisten, dass vor allem in Europa mehr für die Erforschung und Lösung des Alignment-Problems getan wird.

 

Das AI Safety Camp findet vom 4. März bis 18. Juni online statt. Mehr Informationen dazu gibt es hier: https://aisafety.camp/. Dort können sich Interessierte noch bis zum 19. Januar für eine Teilnahme bewerben.


Kommentar schreiben

Kommentare: 2
  • #1

    Heinrich (Dienstag, 10 Januar 2023 04:55)

    Hallo Karl,
    ich werde nicht mal imTraum daran denken, mich bei aisafty,camp zu bewerben, weil das Lichtjahre hinter meinem Horizont liegt. Vielleicht im nächsten oder übernächsten Leben, wenn ich dann rechtzeitig damit beginne, mein Hirn besser zu trainieren. In diesem Leben ist mein Zug abgefahren und ich stehe am Bahnsteig und winke wehmütig hinterher.
    Aber ich fühle mich nicht einsam, denn ich bin Menschen begegnet, die meinen Horizont so gestaltet haben, dass ich zumindest erahnen kann, was sich dahinter verbirgt.
    Es ist ein gutes Gefühl für mich, dass Menschen wie Du sich darum "kümmern".
    Du kannst völlig zu Recht stolz darauf sein dieses Projekt zu leiten. Hochachtung!
    Ich freue mich riesig auf Deinen neuen Roman im Herbst, als auch auf Infernia!
    Gruß Heinrich

  • #2

    Karl Olsberg (Dienstag, 10 Januar 2023 12:29)

    @Heinrich: Vielen Dank!