Erst vor wenigen Tagen habe ich über den Exodus wichtiger Führungskräfte bei OpenAI geschrieben, die für die Sicherheit der KI verantwortlich waren. Jetzt hat einer von ihnen, Jan Leike, der Leiter des "Superalignment"-Teams, Klartext gesprochen. Er hat dafür, dass er frei sprechen kann, wahrscheinlich auf seine Anteile an OpenAI verzichten müssen, die viele Millionen Dollar wert sein dürften. Das allein zeigt, wie ernst die Situation ist.
Es lohnt sich, den Text seiner Warnung, den er gestern auf X gepostet hat, in voller Länge zu lesen. Ich habe ihn hier ins Deutsche übersetzt [Anmerkungen in eckigen Klammern sind Ergänzungen von mir, die ich dem Kontext entnommen habe]:
Gestern war mein letzter Tag als Leiter der KI-Sicherheit, Leiter des Superalignment-Teams und Führungskraft bei OpenAI.
Die letzten rund drei Jahre waren eine aufregende Reise. Mein Team hat mit InstructGPT das erste Sprachmodell gelauncht, das mit RLHF [Reinforcement Learning from Human Feedback, einer Methode, um unerwünschte Aussagen zu unterbinden] trainiert wurde, das erste skalierbare Überwachungssystem für ein Sprachmodell veröffentlicht und bei der automatischen Interpretation und Schwach-zu-Stark-Generalisierung Pionierarbeit geleistet. Mehr spannende Neuerungen folgen in Kürze.
Ich liebe mein Team. Ich bin so dankbar für die vielen außergewöhnlichen Menschen mit denen ich arbeiten durfte, sowohl innerhalb als auch außerhalb des Superalignment-Teams. OpenAI hat so viele außergewöhnlich kluge, liebenswürdige und produktive Talente.
Diesen Job aufzugeben war eines der schwierigsten Dinge, die ich je getan habe, weil wir dringend herausfinden müssen, wie wir KI-Systeme, die viel intelligenter sind als wir, steuern und kontrollieren können.
Ich habe bei OpenAI angefangen, weil ich glaubte, dies sei der beste Platz auf der Welt, um diese Art von Forschung zu betreiben. Allerdings hatte ich mit dem OpenAI-Management schon seit einiger Zeit Meinungsverschiedenheiten über die Prioritäten der Firma, die nun zu einem endgültigen Bruch führten.
Ich glaube, ein viel größerer Teil unserer Kapazität sollte dafür verwendet werden, uns auf die nächste Generation von KI-Modellen vorzubereiten - in Bezug auf Sicherheit, Überwachung, Prävention, Robustheit gegen Missbrauch, (Super-)Alignment [Zielkonformität], Vertraulichkeit [Datenschutz], Auswirkungen auf die Gesellschaft und ähnliche Themen.
Diese Probleme sind sehr schwierig in den Griff zu bekommen und ich befürchte, dass wir nicht auf dem richtigen Weg dorthin sind.
In den vergangenen Monaten hat mein Team eine Menge Gegenwind bekommen. Manchmal mussten wir um die für uns verfügbare Computerleistung kämpfen und es wurde immer schwieriger, diese wichtige Forschung zu betreiben.
Maschinen zu bauen, die intelligenter sind als Menschen, ist ein inhärent gefährliches Unterfangen. OpenAI trägt eine enorme Verantwortung gegenüber der gesamten Menschheit.
Doch im Verlauf der letzten Jahre rückten Sicherheitskultur und -Prozesse gegenüber glanzvollen Produkten immer mehr in den Hintergrund.
Es ist längst überfällig, die Implikationen einer AGI [Artificial General Intelligence, allgemeine oder "starke" KI auf menschlichem oder übermenschlichem Niveau] äußerst ernst zu nehmen. Wir müssen die bestmögliche Vorbereitung darauf an erste Stelle setzen. Nur dann können wir sicherstellen, dass AGI tatsächlich der gesamten Menschheit dient.
OpenAI muss eine AGI-Firma werden, bei der Sicherheit an erster Stelle steht.
Allen OpenAI-Mitarbeiterinnen und Mitarbeitern möchte ich sagen:
Lernt, AGI zu fühlen.
Handelt mit der Ernsthaftigkeit, die dem, was ihr da baut, angemessen ist.
Ich glaube, ihr könnt den kulturellen Wandel schaffen, der nötig ist.
Ich verlasse mich auf euch.
Die ganze Welt verlässt sich auf euch.
:openai-heart:
Mich erschüttert dieser Text zutiefst, auch wenn ich geahnt habe, dass es so ähnlich in den Köpfen der Menschen aussieht, die OpenAI in dieser kritischen Phase verlassen. Dass Jan Leike sich trauen würde, die Wahrheit so klar und deutlich auszusprechen, habe ich nicht erwartet. Ich bin ihm von ganzem Herzen dankbar dafür.
Wenn diese mehr als deutliche Warnung nicht endlich Politiker, Sicherheitsbehörden und die Allgemeinheit auch in Deutschland wachrüttelt, weiß ich nicht, was uns noch helfen kann.
Kommentar schreiben
Paul Newsman (Donnerstag, 23 Mai 2024 14:29)
Schätzungsweise ist den Verantwortlichen in Politik/Legislative aufgrund der in den letzten Jahren bewiesenen mangelnden Intelligenz und Kompetenz, insbesondere in für das Fortbestehen der Menschheit relevanten Themenbereichen, nicht möglich die Tragweite derart komplexer KI-Problematiken zu erkennen und in adäquate Handlung/Vorgaben umzusetzen...
Die vermuteten Entscheider sind vielmehr selbst Befehlsempfänger, als ethisch selbständige und bewusste Mitmenschen, und ihre Spielräume sind durch zahlreiche Sachzwänge wie z.B. die Geldpolitik systematisch gebunden. Insofern erscheint mir eine Einflussnahme über die nationalpolitisch regulatorische Ebene schwierig, wie man jüngst am Beispiel des WHO Pandemievertrags global vorgeführt bekommt...