
Am 10. Januar 2020 erschien auf dieser Seite der erste Beitrag über die damals noch verbreiteten Vorurteile über KI (z.B. sie könne nicht kreativ sein, das hört man in letzter Zeit nicht mehr so oft). Wir erinnern uns: Die Corona-Pandemie breitete sich bereits aus, wurde aber in Deutschland noch nicht ernst genommen. Und auch KI war noch kein großes Thema - GPT-3 war noch nicht öffentlich verfügbar, von ChatGPT ganz zu schweigen. Im Rückblick kann ich kaum glauben, dass das erst fünf Jahre her ist!
In den Blogbeiträgen spiegeln sich sowohl die rasante Entwicklung der KI als auch mein eigener Lernprozess wieder. 2020 war ich noch vermessen genug, zu glauben, ich hätte bessere Ideen als Stuart Russell, um das Alignment-Problem zu lösen (zu meiner Kritik an seinen Vorschlägen stehe ich aber immer noch). Ich unterteilte die Risiken der KI damals in drei Klassen - das Kompetenzproblem, das man heute "halluzinieren" nennen würde, das Ungleichheitsproblem, das sich in der Art, wie KI die Meinungen beeinflusst, heute sehr deutlich zeigt, und das "Midas-Problem", das ich heute eher "Unkontrollierbarkeitsproblem" nennen würde. Ich glaubte, das Midas-Problem sei noch lange nicht akut, und rechnete frühestens um die Mitte des Jahrhunderts mit einer KI auf annähernd menschlichem Niveau.
Im Oktober 2020 schrieb ich zum ersten Mal einen Artikel mit dem Titel "Wieviel Zeit bleibt uns noch?". Die herrschende Meinung war damals, dass eine "AGI" um das Jahr 2050 zu erwarten sei, und das war auch meine Sicht. Aber ich wies schon damals darauf hin, dass es durchaus auch schneller gehen könnte. Wobei ich mit "schneller" eher das Jahr 2040 meinte.
Den ersten kleinen Realitätsschock erlebte ich drei Monate später, im Januar 2021, als OpenAI Dall-E veröffentlichte. Verglichen mit dem, was generative KI heute kann, wirken die damals von der KI erzeugten Bilder geradezu armselig, aber mich versetzten sie in Erstaunen. Und ich ahnte, dass die Entwicklung schneller gehen könnte, als ich gedacht hatte. Auch damals gab es schon Anzeichen für ein "Wettrennen übers Minenfeld" zwischen den KI-Supermächten USA und China, das mir Sorgen machte. Aber es war bei weitem noch nicht so extrem wie heute.
Im Januar 2022 begann ich meine YouTube-Videoserie "Konsequenzen der KI", um auch dort auf die Gefahren aufmerksam zu machen. Leider erreichten die Videos jedoch keine große Reichweite. Kurz darauf kam der nächste Schock: Deepmind bewies mit AlphaCode, dass KI (relativ simple) Programmieraufgaben auf menschlichem Niveau lösen konnte! Damit kamen wir der (Horror-)Vision einer sich selbst weiterentwickelnden KI einen großen Schritt näher.
Parallel dazu nahm ich am "AI Safety Camp" teil, wo ich meinen Teamleiter Daniel Kokotajlo kennenlernte, der später zu OpenAI ging und die Firma 2024 unter großen finanziellen Opfern wieder verließ, weil er mit der Vernachlässigung der KI-Sicherheit nicht einverstanden war. Er sagte uns in einem der ersten Online-Meetings, dass er bereits 2028 mit einer KI auf menschlichem Niveau rechne. Ich dachte: "Der spinnt!" Allerdings lernte ich im Verlauf des Camps sehr viel über die rasante Entwicklung der KI und begriff allmählich, dass ich meinen Erwartungshorizont weiter verkürzen musste.
Im November 2022 passierte dann etwas, das mich wirklich erschreckte: Eine KI von Meta gewann in einem Turnier des Brettspiels "Diplomacy", bei dem derjenige siegt, der die anderen am besten belügt, manipuliert und austrickst. Ich frage mich bis heute, was sich die Verantwortlichen dabei gedacht haben, ausgerechnet dieses Spiel auszuwählen und es dann auch noch so darzustellen, als sei Diplomacy ein "kooperatives" Brettspiel. Ich kann nur aus eigener Erfahrung sagen, man sollte es nicht mit guten Freunden spielen.
Wenn ich gedacht hatte, mehr Überraschungen könnten in dem Jahr nicht kommen, wurde ich schon eine Woche später eines Besseren belehrt. OpenAI veröffentlichte ChatGPT, das die Welt im Sturm eroberte. Auch ich war fasziniert, versuchte, mit der KI einen Roman zu schreiben (was zum Glück kläglich misslang) und fand schnell heraus, wie man die Schutzmechanismen austricksen konnte, mit denen Missbrauch verhindert werden sollte. Kurz darauf kam dann Microsoft etwas übereilt mit Bing Chat, das auf dem Grundmodell von GPT-4 basierte. Die anfänglichen verbalen Ausfälle der KI, die sich gelegentlich selbst "Sydney" nannte, sind legendär. Sie zeigen immer noch, dass unter der freundlichen Oberfläche der heutigen Chatbots etwas zutiefst Fremdartiges liegt. Aber Bing Chat konnte nicht nur schimpfen, beleidigen und drohen, sondern auch auf Kommando verdammt gute Kurzgeschichten schreiben. Das gab mir wieder einmal zu denken.
Im Frühjahr 2023 leitete ich selbst ein Projekt beim AI Safety Camp, bei dem es darum ging, realistische Szenarien zu entwickeln, wie KI außer Kontrolle geraten könnte. Dabei lernte ich von den Teammitgliedern enorm viel über KI. Auf die Projektergebnisse "Agentisches Chaos" und "Ein freundliches Gesicht" bin ich immer noch stolz.
Im März 2023 nahm ich an einer Online-Konferenz der Gesellschaft für Informatik teil. Dort hörte ich einen Vortrag eines "KI-Experten", der mir zu erklären versuchte, GPT-4 sei gar nicht "wirklich intelligent", ebenso wenig wie das legendäre Programm "Eliza", auf das in den Sechzigerjahren viele Menschen hereingefallen waren. Als jemand, der selbst 1998 den ersten kommerziellen Chatbot in deutscher Sprache programmiert hat, kannte ich den Unterschied allerdings genau und war ziemlich entsetzt von der Ahnungslosigkeit der deutschen KI-Szene. Mir wurde klar, dass wir in Deutschland buchstäblich "den Schuss nicht gehört" haben, was sich leider zumindest bis zum Sommer 2024 kaum geändert hat.
Im Sommer 2023 erschien mein Roman "Virtua", dessen Handlung und Nachwort ich mehrfach hatte ändern müssen, weil zwischen dem ersten Entwurf im Oktober 2022 und der Drucklegung im April 2023 so viel passiert war. Mein Versuch, mit der satirischen KI "AIRA" Aufmerksamkeit für die Risiken der KI zu wecken, schlug grandios fehl. Dafür lieferte die Bundesregierung im November ein trauriges Stück Realsatire: In dem Irrglauben, der heimischen KI-Industrie etwas Gutes zu tun, versuchte sie, den AI Act der EU, die weltweit erste und immer noch weitreichendste Regulierung von KI-Modellen wie ChatGPT, zu torpedieren. Zum Glück schlug auch diese Posse fehl. Auch, wenn der AI Act uns nicht wirklich vor den existenziellen Risiken der KI schützt, bin ich froh, dass es ihn gibt.
Auch OpenAI lieferte im November 2023 Entertainment der düsteren Art. Sam Altman wurde (völlig zu recht, wie sich inzwischen herausgestellt hat) vom damaligen Aufsichtsrat gefeuert und kurz darauf wieder eingestellt. Wenn noch jemand Zweifel daran hatte, dass man den KI-Firmen nicht allein die Kontrolle über unsere Zukunft anvertrauen darf, dann hätten sie spätestens jetzt ausgeräumt sein sollen. Immerhin hatten sich im Sommer 2023 ja auch die führenden KI-Forscher mit deutlichen Warnungen zu Wort gemeldet, womit ich Anfang des Jahres nicht gerechnet hatte. Kurz keimte damals in mir die Hoffnung, dass die Welt doch noch rechtzeitig zur Vernunft kommen würde. Ganz aufgegeben habe ich sie immer noch nicht, aber sie ist inzwischen deutlich geschrumpft, nicht zuletzt, weil Donald Trump vor Kurzem alle Bemühungen seines Vorgängers, KI zumindest ansatzweise zu regeln, wieder aufgehoben hat und statt seines vermeintlichen Buddys Elon Musk ausgerechnet Sam Altman aufs KI-Podium hob.
Das Jahr 2024 brachte zunächst keine großen neuen KI-Modelle (von der spektakulären Video-KI Sora abgesehen), dafür aber einen Führungskräfte-Exodus bei OpenAI, der der mutigen Entscheidung des Aufsichtsrats im November zuvor nachträglich Rechtfertigung verlieh. Besonders Jan Leike, Chef des "Superalignment-Teams", erregte mit einer eindringlichen Warnung Aufmerksamkeit. Mit fast 70.000 Aufrufen ist mein spontan angefertiges Video dazu mit weitem Abstand das meistgesehene auf meinen YouTube-Kanal und inspirierte mich, doch wieder mehr Videos zu den KI-Risiken zu machen.
Nachdem GPT-5 weiter auf sich warten ließ, verstiegen sich einige "Experten" zu der Aussage, der KI-Fortschritt sei nun zum Erliegen gekommen, es drohe womöglich sogar ein neuer "KI-Winter". Doch wieder war es die Firma OpenAI, die sie eines Besseren belehrte: die neue KI o1 zeigte, dass es nicht nur auf den Aufwand und die Daten beim Training eines neuronalen Netzes ankommt. Auch das "Nachdenken" während der Beantwortung einer Frage kann einen deutlichen Qualitätssprung bewirken, besonders bei anspruchsvollen Aufgaben wie Mathematik oder Programmieren. Deepmind hatte bereits zuvor mit einer Silbermedaille bei der Mathe-Olympiade gezeigt, dass KI auch auf diesem Gebiet rasante Fortschritte gemacht hat. Leider stieg mit der Fähigkeit, mathematische Aufgaben zu lösen, aber auch das Geschick darin, Menschen zu täuschen und sich menschlicher Kontrolle zu entziehen. Im Dezember veröffentlichte die Firma Apollo Research eine Studie, derzufolge alle großen Modelle bereits ziemlich gut tricksen können.
Kaum hatte ich den o1-Schreck verdaut, kam OpenAI kurz vor Weihnachten mit der Ankündigung von o3 (der Doppel-Versionssprung geschah angeblich mit Rücksicht auf den Telefonanbieter O2). Und zum allgemeinen Entsetzen der amerikanischen KI-Elite veröffentlichte die chinesische Firma DeepSeek zwei Modelle, die GPT-4 und o1 nahezu ebenbürtig sind, aber nur einen Bruchteil des Trainingsaufwands benötigten und noch dazu frei verfügbar sind. Das heizte natürlich das Wettrennen übers Minenfeld nur noch mehr an.
Anfang Januar diesen Jahres tönte Altman, man wisse jetzt, wie man eine "AGI" - eine KI auf menschlichem Niveau - entwickeln könne und fokussiere sich fortan auf "Superintelligenz". Auch, wenn man seine Worte nun wirklich nicht auf die Goldwaage legen darf, befürchte ich, dass er das ernst meinen könnte. Dafür spricht auch die von Trump stolz angekündigte 500-Milliarden-Investition. Wesentlich mehr Sorgen macht mir allerdings, worauf Yoshua Bengio in einem Interview hinwies: Die großen KI-Firmen haben eine Zeitlang exklusiven Zugriff auf ihre Top-Modelle und nutzen sie, um Trainingsdaten für die folgende Generation zu erzeugen. Mit anderen Worten: KI entwickelt inzwischen selbst KI, wenn auch noch mit menschlicher Hilfe.
Wohin das führt, ist leider absehbar. Wir nähern uns mit großen Schritten dem Punkt, an dem uns die Kontrolle über KI unwiderruflich entgleiten könnte. Das wäre höchstwahrscheinlich eine existenzielle Katastrophe nicht nur für die gesamte Menschheit, sondern auch für die meisten Tier- und Pflanzenarten. Und immer noch tun wir in Deutschland so, als wäre das alles nur Hype und Panikmache. Ich werde weiterhin versuchen, das zu ändern. Deshalb habe ich dieser Website einen Neuanstrich verpasst und ein neues Video erstellt, das als Einführung in das Thema dienen soll.
Die letzten fünf Jahre waren im Rückblick wie ein Orkan, der durch die Welt der KI gefegt ist. In den 40 Jahren, die ich mich mittlerweile mit dem Thema beschäftige, habe ich nichts auch nur ansatzweise Vergleichbares erlebt. Und ich befürchte, der Sturm wird an Geschwindigkeit noch zunehmen. Trotzdem habe ich die Hoffnung noch nicht ganz aufgegeben, dass die Welt doch noch irgendwie zur Vernunft kommt - oder etwas Unerwartetes passiert, das uns im letzten Moment rettet. Die Hoffnung stirbt bekanntlich zuletzt.
Ich danke allen, die dieses Blog in den letzten fünf Jahren besucht haben, und hoffe auf die weitere Unterstützung bei meinem zunehmend verzweifelten, aber nichtsdestotrotz notwendigen Kampf - nicht gegen künstliche Intelligenz, sondern gegen die menschliche Dummheit.
Kommentar schreiben
Heinrich (Mittwoch, 29 Januar 2025 00:06)
Danke Karl!
Danke für Deine Arbeit, und danke dass dieser 5-Jahres Rückblick kein Epilog in dem Sinne ist, dass die Geschichte endet. Ich habe Dir zu verdanken, dass ich vieles besser verstehe und einordnen kann. Auch wenn ich mir immer wieder meiner Machtlosigkeit bewusst bin, bleibt die Hoffnung.
Gruß Heinrich
Karl Olsberg (Mittwoch, 29 Januar 2025 10:26)
@Heinrich Dir danke ich für die Unterstützung und Begleitung in all dieser Zeit! Das hilft mir sehr und damit bist du auch nicht ganz "machtlos". In einer Demokratie hat der Einzelne immer das Gefühl, nicht viel bewirken zu können. Aber jeder kann andere inspirieren, mitreißen oder unterstützen, und genau das brauchen wir!
CaptnSteve (Montag, 03 Februar 2025 20:32)
@KarlOlsberg
Danke für deine Arbeit, die mir viele interessante Aspekte der KI-Thematik näher brachte, welche ich noch nicht so richtig durchdachte. Übrigens: ist deinerseits demnächst ein weiterer Buchroman zum Thema zu erwarten oder in Planung?
Gruß, CS :)
Karl Olsberg (Dienstag, 04 Februar 2025 10:25)
@CaptnSteve: Vielen Dank! Ja, ein neuer Roman zum Thema ist in Arbeit, aber noch in einem frühen Stadium. Ich bin nicht sicher, ob ich ihn noch veröffentlichen kann, bevor wir AGI erreichen ... :(