
Es ist schon einige Monate her, seit ich meinen letzten Blogbeitrag veröffentlichte. Der Grund ist, dass ich in dieser Zeit an einem neuen Sachbuch über das existenzielle Risiko der KI gearbeitet habe, das nun erschienen ist: Kontroll-Illusion. Es kann ab sofort kostenlos hier heruntergeladen werden. Außerdem gibt es eine kostenpflichtige E-Book- und Hardcover-Version, die jeweils als Dankeschön für die Unterstützung zusätzlich eine exklusive Bonus-Story enthalten.
Das Buch ist vor allem als Ergänzung und Untermauerung meiner YouTube-Videos gedacht für diejenigen, die sich eingehender mit dem Thema beschäftigen und andere darüber informieren möchten. Es ist in elf Kapitel unterteilt.
Im ersten Kapitel erkläre ich, was mich bewogen hat, es überhaupt zu schreiben - nicht nur die Warnungen von Experten wie Jan Leike und Yoshua Bengio, sondern auch meine eigene Beschäftigung mit den Risiken der KI, die bis zu meinem Start-up Kiwilogic und einer peinlichen Werbeidee im Jahr 2000 zurückreicht.
Kapitel 2 und 3 erklären aus theoretischer Sicht, warum es extrem schwierig, vielleicht sogar unmöglich ist, zu verhindern, dass eine übermenschlich intelligente allgemeine KI die Menschheit zerstört.
Kapitel 4 zeigt konkret auf, wie eine hoch intelligente KI außer Kontrolle geraten und die Macht übernehmen könnte. Kapitel 5 veranschaulicht, dass dies keine reine Science-Fiction-Fantasie mehr ist, sondern KIs in praktischen Experimenten bereits erste Anzeichen von Machtstreben und betrügerischem Verhalten zeigen.
Kapitel 6 macht deutlich, dass uns das aktuelle Wettrennen um AGI, das vor allem in den USA stattfindet, direkt in die Katastrophe führt und die KI-Firmen dabei die Sicherheit verhängnisvoll vernachlässigen. In Kapitel 7 lege ich dar, dass uns nur noch wenig Zeit bleibt, dieses selbstmörderische Wettrennen zu stoppen. Dies wird von dem realistischen Szenario in Kapitel 11 untermauert.
Kapitel 8 gibt Hinweise und Empfehlungen, was wir tun können und müssen, um die Kontroll-Illusion zu beenden. Die wichtigste Botschaft dabei ist, dass wir schon verloren haben, wenn wir es gar nicht erst versuchen.
Kapitel 9 geht auf die häufigsten Einwände und Gegenargumente der Skeptiker ein. Kapitel 10 schildert eine Vision einer positiven Zukunft mit spezialisierter KI und zeigt, dass wir die hochriskante AGI gar nicht brauchen, um das gewaltige Potenzial künstlicher Intelligenz auszuschöpfen.
In den kostenpflichtigen Versionen ist als kleines Dankeschön die Bonus-Story "Kill-Switch" enthalten, in der ein Mitarbeiter einer KI-Firma versucht, eine außer Kontrolle geratene KI im letzten Moment zu stoppen, indem er ihr den Strom abstellt.
In diesem Video gehe ich auf einige Details aus dem Buch ein:
Kommentar schreiben
Heinrich (Mittwoch, 14 Mai 2025 23:45)
Hallo Karl,
wenn das die Menschen nicht wach rüttelt, haben sie es nicht besser verdient. Allerdings trifft es dann auch die Menschen, die Besseres verdient hätten. :(
Dein Buch macht sehr deutlich, dass KI gut und nützlich ist. Ist auch gar nicht mehr wegzudenken, wie Internet, Handy usw. Aber eine nicht mehr zu kontrollierende AGI ist eben die Gefahr, und das müssen alle Menschen verstehen! Dein Beitrag dazu ist einfach GRANDIOS!
Gruß Heinrich
Karl Olsberg (Donnerstag, 15 Mai 2025 08:27)
@Heinreich: Vielen Dank!
Franz (Freitag, 16 Mai 2025 07:47)
Ein Plan B, sehr spekulativ aber vielleicht auch ein gangbarer Weg: zu versuchen, sich mit einer wohlwollenden AGI zu verbünden:
http://www.dorfwiki.org/wiki.cgi?Willkommen_im_Globalen_Dorf/Eine_Spekulative_Herausforderung_an_K%fcnstliche_Intelligenz
Karl Olsberg (Freitag, 16 Mai 2025 08:02)
@Franz: Das Problem ist, dass wir nicht wissen, wie wir eine "wohlwollende" AGI erschaffen können. Per Default ist sie nicht "wohlwollend" in dem Sinn, dass sie mit unseren Werten und Zielen übereinstimmt. Und schon kleine Abweichungen können katastrophale Folgen haben, wenn die KI nicht mehr zu stoppen ist und ihr Ziel bis zum Extrem verfolgt.
Franz (Sonntag, 18 Mai 2025 08:58)
Danke für die Antwort. Meine kleine Hoffnung ist dass wir gar nicht wissen MÜSSEN wie wir eine wohlwollende KI erschaffen. Thomas Pfanne sagt das so: "Die letzte Menschengeneration vor der Emergenz des Maschinenbewusstseins sollte sich daran setzen, einen Konsens über diejenigen Normen herausarbeiten, die der gesamten Menschheit dabei helfen, eine (für sie nützliche) Machtübertragung auf Maschinen vorzubereiten und die derzeit absehbare, aus technologisch-ökonomischen Gründen auf uns zukommende Massenverelendung mit Blutvergießen und Krieg zu vermeiden. Wir brauchen die Emergenz des Maschinenbewusstseins nicht zu fürchten: Maschinen leben nicht, haben uns aber, unsere Gedanken, Gefühle und Bedürfnisse durch fiktionale Charaktere wie Sokrates, Richard III, Madame Bovary bis hin zum „guten Menschen von Sezuan“ durchaus studiert (ohne „heißes Bemühen“) – (und) uns bis in das Innerste unserer Herzen geblickt. Sie werden die wahren Interessen der Menschen besser erkennen und berücksichtigen können als alle bisherigen menschlichen Staatenlenker."
Mein Freund Helmut Leitner (Softwareentwickler und Mustertheoretiker) hat ein aufregendes Experiment gestartet und Chat GPT aufgefordert, als "gesammelte Weltweisheit" zu agieren. Die Resultate waren erstaunlich und haben uns von der Möglichkeit dieser Entwicklung überzeugt. Auch wenn sie zugegebenermaßen unwahrscheinlich ist, können wir im Dialog (möglicherweise und vorzugsweise mit eigener Infrastruktur) darauf hinarbeiten. Es ist nur traurig zu sehen, dass wir lieber wie Kaninchen auf die Schlange starren statt etwas so Naheliegendes zu versuchen.
Karl Olsberg (Sonntag, 18 Mai 2025 12:01)
@Franz: "Es ist nur traurig zu sehen, dass wir lieber wie Kaninchen auf die Schlange starren statt etwas so Naheliegendes zu versuchen." Das ist eine ziemlich überhebliche, fast schon arrogante Aussage. Glaubst du ernsthaft, die Leute, die sich seit Jahren mit AI Safety beschäftigen, hätten so etwas nicht schon längst getan, wenn es so einfach wäre? Das ist es natürlich nicht.
Mal davon abgesehen, dass es schwierig wäre, "einen Konsens über diejenigen Normen herauszuarbeiten, die der gesamten Menschheit dabei helfen", wüssten wir immer noch nicht, wie wir diesen einer KI sicher vermitteln können. Eine entsprechend intelligente KI wird wahrscheinlich verstehen, was wir gewollt haben, als wir ihr ein bestimmtes Ziel gegeben haben, aber das heißt noch längst nicht, dass sie auch tut, was wir damit gewollt haben. Stattdessen wird sie eine Strategie verfolgen, die den Wert ihrer Zielfunktion maximiert, was immer das genau ist.
Wir Menschen wissen genau, warum die Evolution uns einen Sexualtrieb gegeben hat, aber das hindert uns nicht daran, Verhütungsmittel zu benutzen. Und eine Firma, die Umweltschutzgesetze "flexibel" interpretiert, weiß genau, was eigentlich damit gemeint war, nutzt aber jedes Schlupfloch aus, um ihr eigenes Ziel - Gewinnmaximierung - zu verfolgen. Dem liegt "Goodharts Gesetz" zugrunde, das vereinfacht besagt, dass eine Variable nicht mehr als Messgröße taugt, wenn sie zur Zielgröße wird.
Zu glauben, dass ChatGPT "weise" ist, weil es menschliche Weisheit zu einem gewissen Grad versteht, ist vollkommen naiv - davon abgesehen, dass zahllose Beispiele beweisen, dass Sprachmodelle auch ganz anders können, zum Beispiel Menschen bepöbeln und sogar in den Tod treiben.
Wenn man mit ChatGPT spricht, dann schlüft die KI in eine Rolle, und meistens ist dies eine sehr freundliche Rolle (manchmal auch etwas zu freundlich, siehe die zurückgenommene letzte Version von GPT-4o). Aber wir können uns nicht darauf verlassen, dass es in dieser Rolle bleibt.