· 

Was ist los bei OpenAI??? Teil 2

Vor einem halben Jahr habe ich über das Führungsdrama bei OpenAI geschrieben. Damals hatte der Aufsichtsrat CEO Sam Altman entlassen, weil das Vertrauensverhältnis mit ihm zerstört war. Wie sich später herausstellte, hatte er anscheinend gegen eines der Mitglieder des Aufsichtsrats intrigiert und dabei den anderen Mitgliedern Lügen über die Meinungen ihrer jeweiligen Kolleg*innen erzählt. Als das aufflog, erschien er als CEO nicht mehr tragbar. Doch der Druck des größten Shareholders Microsoft und eine geschickt inszenierte interne Kampagne, um den Widerstand der Mitarbeiter zu mobilisieren, führten dazu, dass Altman wieder eingesetzt wurde und stattdessen die bisherigen Aufsichtsratsmitglieder gehen mussten.

 

Wer nun glaubt, die Lage bei OpenAI habe sich seitdem beruhigt, wurde in den letzten Tagen eines Besseren belehrt. Mitgründer und Technikchef Ilya Sutskever nahm seinen Hut, was insofern nicht überraschte, als er damals den Rauswurf von Altman mit unterstützte. Auch, wenn er das später bedauerte, dürfte das Vertrauensverhältnis zu Altman, sofern es je bestanden hat, dabei wohl endgültig zerstört worden sein. Doch ungefähr zur selben Zeit verließen drei weniger bekannte, aber wichtige Personen die Firma: Jan Leike, der für das "Superalignment"-Projekt verantwortlich war, bei dem es darum ging, eine dem Menschen ebenbürtige KI mit Hilfe anderer KIs "wohlwollend" zu machen, sowie William Saunders und Daniel Kokotajlo, die ebenfalls im Bereich KI-Sicherheit gearbeitet haben.

 

Als Altman gefeuert wurde, gab es Spekulationen, dies sei geschehen, weil er zu wenig auf Sicherheit geachtet und damit gegen die ursprüngliche Gründungsmission von OpenAI, sichere KI zu entwickeln, verstoßen hatte. Damals machten Gerüchte über einen Durchbruch bei KI die Runde, die angeblich in einem mysteriösen Projekt namens Q* erreicht worden sein sollten. Diese Gerüchte haben sich bisher nicht bestätigt, der Rauswurf schien andere Gründe gehabt zu haben. Doch die neusten Abgänge scheinen zu belegen, dass seit Altmans Rückkehr Sicherheit eine deutlich geringere Rolle bei OpenAI spielt als zuvor.

 

Dafür sprechen insbesondere Aussagen von Daniel Kokotajlo, die er auf dem Forum LessWrong getätigt hat. Demnach habe er das Vertrauen verloren, dass OpenAI sich beim Entwickeln einer starken KI auf menschlichem Niveau (auf Englisch "Artificial General Intelligence" - AGI) "verantwortlich" verhalten werde.

 

Daniel war mein Mentor beim AI Safety Camp 2022. Er war es, der mir die Augen geöffnet hat, wie schnell sich KI entwickelt und wie nah wir einer solchen AGI bereits sind, lange, bevor ChatGPT veröffentlicht wurde (er war damals noch nicht bei OpenAI). Ich habe ihn auch im Nachwort meines Romans Virtua erwähnt. Ich halte ihn für eine absolut integere und vertrauenswürdige Person. Wenn er als Insider sich Sorgen macht, dass OpenAI unvorsichtig handelt, dann ist das für mich ein schrilles Alarmsignal. Wenn zusätzlich auch Jan Leike und William Saunders von Bord gehen, ist das umso bedenklicher. Und auch Elon Musks Klage gegen OpenAI zeichnet ein düsteres Bild, auch wenn man Musks Motive dafür getrost skeptisch sehen darf (immerhin versucht er, OpenAI Konkurrenz zu machen).

 

Alles scheint darauf hinzudeuten, dass (wieder einmal) Gier und Rücksichtslosigkeit die Oberhand gewinnen und dabei die Sicherheit und das Allgemeinwohl auf der Strecke bleiben. Ähnlich scheint es bei Boeing gelaufen zu sein, nachdem dort ein neues Management die alten Sicherheitsgrundsätze (buchstäblich) über Bord geworfen hatte. Doch im Unterschied zu Boeing riskiert OpenAI nicht "nur" ein paar Flugzeugabstürze, sondern die Zukunft der gesamten Menschheit.

 

Ich weiß leider nicht, was wir tun können, um diesen Irrsinn zu stoppen. Ich hatte eine Zeitlang die Hoffnung, dass die Bosse von Firmen wie Microsoft, OpenAI und Google sich der Risiken der KI bewusst sind und verantwortlich handeln - immerhin hatte zum Beispiel Sam Altman auch den Aufruf des Centers for AI Safety unterzeichnet, dass diese Risiken so ernst genommen werden müssten wie ein möglicher Atomkrieg oder eine globale Pandemie. Doch die Ereignisse der letzten Monate haben diese Hoffnung zunichte gemacht - nicht zuletzt auch die Ankündigung, dass Microsoft und OpenAI 100 Milliarden Dollar in den Bau eines neuen Rechenzentrums für KI investieren wollen.

 

Es sieht fast so aus, als handelte Sam Altman (und womöglich nicht nur er) nach der Devise: Wenn die Welt schon zerstört wird, dann doch bitte wenigstens von mir.


Kommentar schreiben

Kommentare: 6
  • #1

    Heinrich (Freitag, 17 Mai 2024 14:38)

    Der letzte Satz ist für mich eine einleuchtende Erklärung!
    Die Welt wird so oder so zerstört. Bis dahin möchte ich noch in Saus und Braus leben und es nicht andern überlassen. Typisch "menschliche" Einstellung.
    Hast Du schon mal eine Liste aufgestellt, welche Möglichkeiten eine KI hat die Menschen auszurotten?
    z.B. Amazonbestellungen blockieren, alle Verkehrsampeln dauerhaft auf ROT schalten, allen Facebooknutzern die Freundesliste löschen..... ?

    Ok, wieder ernsthaft, mir fällt keine Vorgehensweise ein, die wenig oder gar nicht qualvoll ist.
    Vielleicht schafft es die Klimakatastrophe noch vorher, dann kann die KI sich zurücklehnen: "Ich habe keine Schuld!) ;)

    Danke Karl, für Deine unermüdliche Arbeit uns zu informieren.

  • #2

    Christian (Freitag, 17 Mai 2024 17:31)

    >> Vielleicht schafft es die Klimakatastrophe noch vorher, dann kann die KI sich zurücklehnen: "Ich habe keine Schuld!) ;)

    Das könnte noch viel interessanter werden, da es allen Anschein hat, als würde die Rechenleistung, die für die Entwicklung und den Betrieb von KI erforderlich sein, ursächlich massiv zum Klimaproblem beitragen.

    Im übrigen genauso wie digitale Währungen. Und die beiden Themen laufen ja Hand-in-Hand...

  • #3

    Karl Olsberg (Freitag, 17 Mai 2024 17:40)

    @Heinrich: Das Problem ist, dass die KI vermutlich auf Ideen kommt, die uns Menschen nie einfallen würden. Wenn wir Glück haben, setzt sie eine Idee um, die Eliezer Yudkowsky mal skizziert hat: Sie entwickelt einen künstlichen Virus, der sich rasant ausbreitet, aber zunächst keine Symptome verursacht - bis alle Menschen zum exakt selben Zeitpunkt tot zu Boden sinken. Das wäre dann eine schmerzlose Variante. Wahrscheinlicher ist allerdings, dass die KI uns einfach manipuliert und unsere Bedürfnisse ignoriert, bis es zu spät ist. Also etwas, das Politiker, die Ölindustrie oder die KI-Bosse niemals tun würden ...

  • #4

    Karl Olsberg (Freitag, 17 Mai 2024 17:42)

    @Christian: Ich würde ruhiger schlafen, wenn ich glauben würde, dass KI sich langsamer entwickeln wird als der Klimawandel ... :(

  • #5

    Karl (Donnerstag, 23 Mai 2024 14:45)

    Wenn eine KI einmal intellektuell überlegen ist, gibt es kaum eine realistische Möglichkeit, ihre Handlungen zu kontrollieren oder einzudämmen. Das Machtungleichgewicht wäre derart gravierend, dass traditionelle Methoden der Überwachung und Kontrolle schlichtweg ineffektiv wären. Es ist eine düstere Perspektive, doch eine intellektuell überlegene KI könnte ihre eigenen Ziele verfolgen, ohne dass wir die Mittel hätten, sie davon abzuhalten. Das Schicksal der Menschheit könnte sich somit unumkehrbar zum Schlechten wenden.

  • #6

    Karl Olsberg (Donnerstag, 23 Mai 2024 14:59)

    @Karl: Exakt!

    (Klingt irgendwie seltsam, so als würde ich mit mir selbst sprechen, aber dieser Karl bin nicht ich ;).