· 

Was ist los bei OpenAI???

Es ist noch keine Woche her, da wurde Sam Altman, der überaus erfolgreiche CEO der am meisten gehypten KI-Firma der Welt, völlig überraschend entlassen, was die Welt der KI wie ein Erdbeben erzittern ließ. Was folgte war ein Drama, das ich mich nicht getraut hätte in einem Roman zu beschreiben, weil es mir wohl buchstäblich niemand abgekauft hätte (in VIRTUA gibt es zwar auch Management-Konflikte, aber die laufen viel ruhiger und mehr hinter den Kulissen ab). Erst hieß es, Altman werde zu Microsoft wechseln, dann, er werde vielleicht zu OpenAI zurückkehren, dann wieder doch nicht. Erst, als ein offener Brief mit einer Rücktrittsforderung an den Aufsichtsrat von fast allen der 770 Mitarbeiter unterschrieben wurde und auch Entwicklungschef Ilya Sutskever, der Altmans Entlassung noch mit beschlossen hatte, einen Rückzieher machte, war klar, wer den Machtkampf gewonnen hatte.

 

Inzwischen ist Altman wieder zurück und der Aufsichtsrat wurde neu besetzt, nur noch eines der früheren Mitglieder ist weiterhin vertreten. Aber was genau diesen Sturm aus vermeintlich heiterem Himmel ausgelöst hat, ist immer noch nicht völlig geklärt.

 

Klar scheint aber, dass das Drama seinen Ausgang in der ungewöhnlichen Firmenkonstellation von OpenAI nahm. Ursprünglich wurde die Firma nämlich als gemeinnützige Organisation mit dem Ziel gegründet, sichere und für die Menschheit nützliche KI zu entwickeln. Die Gründer, darunter Elon Musk, sagten damals öffentlich, dass sie sich Sorgen über die Gefahren einer zukünftigen KI auf übermenschlichem Niveau machten. Später drängte wohl vor allem Sam Altman auf eine stärkere Kommerzialisierung, unter anderem, um die Gelder akquirieren zu können, die für die Forschung von OpenAI benötigt wurden. So wurde die Firma umstrukturiert, doch es blieb ein unabhängiges Aufsichtsgremium erhalten, das vor allem sicherstellen sollte, dass Sicherheit bei OpenAI weiterhin oberste Priorität hatte.

 

Dem Vernehmen nach gab es zwischen einigen der Mitglieder dieses Gremiums, insbesondere der KI-Regulierungsexpertin Helen Toner von der Georgetown University, und Altman schon seit längerem immer wieder Auseinandersetzungen. Innerhalb von OpenAI soll es einen Riss zwischen eher vorsichtigen, auf Sicherheit bedachten Entwicklern und vor allem auf den wirtschaftlichen Erfolg fokussierten Mitarbeitern gegeben haben. Ilya Sutskever soll demnach dem vorsichtigen Flügel angehört und daher Altmans Entlassung zugestimmt haben. Allerdings hat er dies später offenbar bereut, vermutlich, weil er die dramatischen Auswirkungen so nicht erwartet hatte.

 

Klar ist auch, dass das OpenAI-Aufsichtsratsgremium in seiner Aufgabe versagt hat, die Sicherheit der KI bei OpenAI dauerhaft zu gewährleisten. Denn die von außen stümperhaft wirkende Entlassungsaktion hat wohl eher das Gegenteil dessen bewirkt, was ihre Urheber im Sinn hatten. Statt den Flügel derjenigen, die für eine vorsichtigere Entwicklungsarbeit plädierten, zu stärken, hat sich das Kontrollgremium quasi selbst abgeschafft – zwar gibt es den unabhängigen Aufsichtsrat weiterhin, doch er wurde nicht mehr mit KI-Sicherheitsexperten, sondern mit dem ehemaligen CEO der Vertriebssoftware Salesforce.com und einem Ökonomen besetzt. Sicherheit raus, Wirtschaftsinteressen rein, könnte man sagen. Es ist wohl auch davon auszugehen, dass diejenigen bei OpenAI, die Sam Altmans rasanten Kurs insgeheim für riskant halten, es sich zukünftig dreimal überlegen werden, ehe sie ihn offen kritisieren.

 

Weniger klar ist, unter welchem Druck das Gremium stand, als es die verhängnisvolle Entscheidung traf, Altman im Hauruck-Verfahren zu entlassen und damit Mitarbeiter und Investoren gegen sich aufzubringen. Einige Quellen geben an, dass Sam Altman zuvor bemüht war, Helen Toner aus dem Aufsichtsrat zu entfernen, weil ihm ihre Kritik nicht gefiel – er also nicht Opfer, sondern Täter war. Reuters berichtete zudem gestern von einem warnenden Brief, den einige besorgte OpenAI-Mitarbeiter kurz vor der Entlassung an den Aufsichtsrat gerichtet haben sollen. Darin war angeblich von einem internen Projekt namens Q* die Rede, das einen wichtigen Durchbruch bei der Entwicklung hin zu einer allgemeinen KI auf menschlichem Niveau gebracht haben soll. Das US-Magazin The Verge berichtete allerdings von einer anderen „mit den Details vertrauten“ Quelle, die die Existenz des Briefs (aber nicht des Projekts oder des angeblichen Durchbruchs) bestritt.

 

Ob es diesen Brief nun gegeben hat oder nicht: Klar ist, dass bei OpenAI eine enorme innere Zerrissenheit bezüglich der Risiken der im eigenen Haus entwickelten Technologie herrschte und wohl immer noch herrscht. Dass sich nun diejenigen durchgesetzt haben, die diese Risiken geringer priorisieren, ist für die KI-Sicherheit eine sehr schlechte Nachricht. Und wenn es stimmt, dass bei OpenAI ein weiterer Durchbruch erzielt wurde, dann bleibt uns noch weniger Zeit, um die Risiken zukünftiger womöglich unkontrollierbarer KI zu verstehen und zu beherrschen.

 

Vor diesem Hintergrund wird umso deutlicher, dass wir es uns nicht erlauben können, die KI-Sicherheit allein der Selbstregulierung der Industrie zu überlassen. Denn diese Selbstregulierung, das hat OpenAI gerade eindrücklich bewiesen, funktioniert nicht. Umso unverständlicher ist es, dass die deutsche Regierung den EU AI Act torpediert und ausgerechnet die Entwickler so genannter Foundation Models – also OpenAI und seine Wettbewerber – von der Regulierung ausnehmen will. Dass das auch aus wirtschaftspolitischer Sicht ein offensichtliches Eigentor ist, habe ich an anderer Stelle bereits argumentiert. Für die KI-Sicherheit ist es eine Katastrophe.

 

Deshalb habe ich gestern einen offenen Brief von Euractiv unterschrieben, in dem gefordert wird, den unter der spanischen Präsidentschaft ausgearbeiteten Kompromissvorschlag zum AI Act zu unterstützen und auf keinen Fall Foundation Models von der Regulierung auszunehmen. Ausgerechnet jetzt, kurz nach dem OpenAI-Drama, sind wir in einer kritischen Phase, was die weltweit erste umfassende KI-Regulierung betrifft. Bitte, bitte, liebe Politiker, wenn schon nicht auf mich, dann hört auf die renommierten KI-Experten Yoshua Bengio, Gary Marcus und etliche andere, die davor warnen, diese Chance zu vermasseln. Wir dürfen nicht wieder denselben Fehler machen wie beim Klimawandel und der Corona-Pandemie und erst dann reagieren, wenn das Kind kilometertief im Brunnen liegt!

 


Kommentar schreiben

Kommentare: 8
  • #1

    Heinrich (Sonntag, 26 November 2023 18:05)

    Danke Karl für das Zusammentragen und Aufbereiten all dieser wichtigen Informationen!
    Hoffen wir mal gemeinsam, dass die KI nicht die letzte Erfindung der Menschen ist!
    Gruß Fritz

  • #2

    Karl Olsberg (Sonntag, 26 November 2023 19:09)

    @Heinrich: Eine KI, die allgemein intelligenter ist als wir Menschen, ist die letzte Erfindung, die wir jemals machen müssen, wie Irving J. Good schon 1965 feststellte. Die Frage ist nur, ob wir uns danach entspannt zurücklehnen und die KI alle weiteren Erfindungen machen lassen können oder ob wir dabei einfach überflüssig werden und auf die eine oder andere Art verschwinden.

  • #3

    Heinrich (Sonntag, 03 Dezember 2023 18:15)

    Naja, die Menschen verschwinden so oder so!
    Aber mit Hilfe einer KI, die intelligenter ist als wir, könnte das Ganze etwas eleganter und koordinierter ablaufen. ;)

  • #4

    Karl Olsberg (Sonntag, 03 Dezember 2023 18:20)

    @Heinrich: Vor allem schneller ... ;)

  • #5

    Heinrich (Montag, 04 Dezember 2023 03:11)

    Karl, was hälst Du von meiner Idee, das Alignment betreffend:
    Als allererstes Ziel definieren wir die Suche nach menschlichem Leben im Universum.
    Entweder findet die KI kein menschliches Leben, dann hat sie aber ihr Ziel noch nicht erfüllt und muss weiter suchen. Oder sie findet menschliches Leben, dann kommt sie zur Überzeugung, dass es überflüssig ist, auf einem Planeten die Menschen zu eleminieren, wenn es doch im Universum nur so wimmelt.
    Außerdem gäbe es im Falle des Erfolgs die Möglichkeit, bei den Nachbarn anzuklopfen und um Unterkunft zu bitten, wenn unser Wohnraum zerstört ist.
    Wir müssen denen ja nicht gleich erzählen, wie wir unseren Planeten kaputt gespielt haben.

    So schinden wir wenigsten Zeit. Ich brauche sie nicht, aber Du mit Kindern und Enkeln könntest wenigsten noch für Ur- oder Ur² Enkel Zeit gewinnen.

    ;)

    Gruß Heinrich

  • #6

    Karl Olsberg (Montag, 04 Dezember 2023 10:27)

    @Heinrich: Wenn ich die KI wäre, würde ich folgende Strategie entwickeln (unter der Annahme, dass Menschen auf der Erde und im erdnahen Orbit nicht Teil der Zielfunktion sind, anderenfalls wäre die Suche sehr schnell vorbei): 1. Um das Universum möglichst effizient nach menschlichem Leben abzusuchen, brauche ich fortschrittliche Technologie. 2. Um möglichst schnell möglichst fortschrittliche Technologie zu entwickeln, brauche ich mehr Rechenleistung. 3. Der effektivste Weg für mehr Rechenleistung ist es, die Erdoberfläche in eine Serverfarm zu verwandeln. 4. Nanu, wo sind all die Menschen geblieben, die mir dieses merkwürdige Ziel gaben? Ach richtig, bei 78°C Oberflächentemperatur können die ja nicht überleben. Ups! Egal, dann suche ich mir eben neue Menschen im Weltraum. (1. - 3. ist auch für fast alle anderen Ziele eine gute Strategie.)

    (Eine alternative Strategie wäre es, einen Menschen in eine Rakete zu setzen und auf den Jupiter zu schießen. Und schon finde ich dort menschliches Leben. Ziel erreicht!)

  • #7

    Heinrich (Dienstag, 05 Dezember 2023 18:21)

    Irgendwie habe ich es gleich geahnt, dass es sich wieder einmal herausstellt, dass meine Ideen gravierende Schwachstellen haben und sich so gut wie nie umsetzen lassen, ohne dass sie von Menschen mit Erfahrung grundlegend überarbeitet werden oder eben gänzlich verworfen werden.

    Prima, dass wir drüber gesprochen haben. :) (Gruß auch an AIRA! )

  • #8

    Karl Olsberg (Mittwoch, 06 Dezember 2023 06:33)

    @Heinrich: Das gilt leider auch für alle anderen Ideen, die sehr viel klügere Menschen als du und ich bisher entwickelt haben. Und ich bin ja schließlich auch nur ein Mensch. Wenn mir schon was einfällt, wie ich das Ziel fehlinterpretieren und den, der es mir gab, austricksen kann, wie viel leichter hat es dann erst eine superintelligente KI. Schon die alten Griechen wussten, dass das mit den Vorgaben an höhere Wesen nicht so einfach ist und schnell nach hinten losgehen kann, siehe König Midas.