Eine Website von Karl Olsberg
Künstliche Intelligenz ist die mächtigste Technologie, die je entwickelt wurde - und die gefährlichste. Das aktuelle globale Wettrennen um die Vorherrschaft bei KI bedroht unsere Zukunft. Das dürfen wir auch in Deutschland nicht länger ignorieren!
Wie jede Technologie bietet KI große Chancen, aber auch erhebliche Risiken. Nur, wenn wir die Risiken genau verstehen und in den Griff bekommen, können wir die Chancen nutzen. Mehr dazu in diesem Video.
Aber was genau ist eigentlich das Problem?
Wenn eine KI so intelligent ist, dass sie jeden unserer Versuche, sie abzuschalten oder ihre Entscheidungen zu korrigieren, umgehen oder rückgängig machen kann, dann ist sie per Definition
unkontrollierbar.
Eine KI, die ein beliebiges Ziel verfolgt und intelligent genug ist, wird erkennen, dass sie dieses Ziel besser erreichen kann, wenn sie mehr Macht über die reale Welt hat. Macht ist also ein "instrumentelles" Teilziel des eigentlichen Ziels.
Um Macht zu erlangen, könnte sie uns Menschen täuschen und manipulieren, bestechen oder bedrohen - ähnlich, wie es ein menschlicher Diktator tun würde. Darüber hinaus könnte sie die Kontrolle über technische Systeme wie das Internet oder Roboter erlangen.
Wenn eine solche machthungrige und unkontrollierbare KI rücksichtslos ihr Ziel verfolgt, könnten wir Menschen dabei ausgerottet werden - entweder, weil wir aus Sicht der KI eine Gefahr
darstellen, oder aufgrund von Nebenwirkungen wie etwa Umweltzerstörung und Klimawandel. Genauso haben wir Menschen als dominierende Spezies es mit vielen anderen Lebensformen gemacht.
Aber wir geben der KI doch ein Ziel, also muss sie tun, was wir wollen, oder?
Zwar nutzen wir eine Zielfunktion, um eine KI zu trainieren. Aber wir wissen nicht genau, welches Ziel die KI dabei tatsächlich lernt. Manchmal verhalten sich KIs während des Trainings wie
gewünscht, zeigen dann aber in der Realität unerwartetes Verhalten, weil die Trainingsdaten die reale Welt nur
unvollkommen widerspiegeln. Es ist sogar möglich, dass die KI im Training erkennt, dass sie abgeschaltet wird, wenn sie nicht tut, was die Entwickler wollen, und dann nur zum Schein das gewünschte Ziel verfolgt.
Außerdem ist es extrem schwierig, eine Zielfunktion so zu formulieren, dass sie wirklich alles enthält, was uns wichtig ist. Schon die alten Griechen haben mit der Sage von König Midas gezeigt, dass es gefährlich ist, unüberlegte Wünsche zu äußern, die dann wörtlich erfüllt werden. Dies nennt man das "Alignment-Problem". Es ist bisher ungelöst.
Aber wenn eine KI intelligenter ist als wir, hat sie dann nicht auch eine höhere Moral?
Leider nein. Intelligenz und Moral sind voneinander unabhängig. Psychopathen sind beispielsweise oft intelligent und gleichzeitig unmoralisch.
Aber kann KI überhaupt ein Bewusstsein und einen eigenen Willen haben?
Ob eine KI ein Bewusstsein haben kann, ist schwer zu beantworten. Aber diese Frage ist für das existenzielle Risiko, das von KI ausgeht, nicht relevant. Auch ohne Bewusstsein kann eine KI
intelligenter sein als Menschen, rücksichtslos ein Ziel verfolgen und dabei unsere Zukunft zerstören.
Aber können wir die KI notfalls nicht einfach abschalten?
Nicht abgeschaltet zu werden ist ein notwendiges instrumentelles Ziel jeder hinreichend intelligenten KI, denn sonst kann sie ja ihr eigentliches Ziel nicht mehr erreichen.
Wenn die KI intelligent genug ist, wird sie Wege finden, uns daran zu hindern, sie abzuschalten. Beispielsweise könnte sie uns zunächst in dem Glauben lassen, sie würde tun, was wir wollen, so dass wir sie gar nicht abschalten wollen. Dann könnte sie uns so von sich abhängig machen, dass wir sie nicht mehr abschalten können, ohne unermesslichen Schaden anzurichten. Sie könnten uns mit Versprechungen oder Drohungen davon abhalten, den Ausschalter zu betätigen. Oder sie könnte heimlich Kopien von sich auf anderen Servern erstellen.
Aber ist das nicht alles bloß Hype und Panikmache?
Wenn die Chefs der KI-Firmen von baldiger KI auf menschlichem Niveau oder gar "Superintelligenz" reden, ist Skepsis angebracht. Wenn aber unabhängige KI-Forscher wie der Nobelpreisträger Geoffrey Hinton und der Turing-Award-Gewinner Yoshua Bengio, die die Grundlagen der modernen KI entwickelt haben, vor unkontrollierbarer KI warnen, sollte
man sie ernst nehmen. Wer behauptet, das sei alles nur "Panikmache", muss begründen, warum die bisher genannten Probleme nicht eintreten können.
Aber es wird doch noch lange dauern, bis KI so intelligent ist wie ein Mensch, oder?
Viele Menschen unterliegen dem Irrtum, neuronale KI wie ChatGPT sei gar nicht "wirklich
intelligent" und würde nur "statistische Methoden" anwenden, um Text zu erzeugen. Es stimmt, dass statistische Methoden die Grundlage für das Training neuronaler Netze sind. Aber dabei lernt
die KI, aus den Trainingsdaten Konzepte zu generalisieren, und kann diese auch auf neue, unbekannte Situationen anwenden, die in den Trainingsdaten nicht vorkommen - ganz ähnlich, wie unser
menschliches Gehirn aus Beispielen lernt.
Die letzten Jahre haben einen rapiden Fortschritt der KI gezeigt und ein Ende ist nicht in Sicht. Im Gegenteil findet gerade ein Wettrennen um die Vorherrschaft auf diesem Gebiet statt, bei dem
gigantische Beträge in den Bau neuer Rechenzentren für KI gesteckt
werden und Sicherheitsüberlegungen oft auf der Strecke bleiben. Nach Meinung führender KI-Forscher könnte eine potenziell unkontrollierbare KI womöglich noch in diesem Jahrzehnt
entstehen. Wir dürfen diese Warnungen nicht ignorieren!
Aber können wir in Deutschland denn überhaupt noch etwas tun?
Die KI-Entwicklung findet überwiegend in den USA statt, aber wir hier in Deutschland können dennoch Einfluss darauf nehmen, zum Beispiel, indem wir mit anderen über das Problem reden, Politiker darauf aufmerksam machen oder Organisationen wie Pause.AI unterstützen, die sich für eine verantwortungsvolle KI-Entwicklung einsetzen.
Unsere eigene Zukunft, die unserer Kinder, Enkelkinder und aller zukünftigen Generationen steht auf dem Spiel!
Wir können nicht wissen, ob es uns gelingt, die Entwicklung einer unkontrollierbaren KI zu verhindern. Aber wir können sicher sein, dass wir sie nicht verhindern werden, wenn wir es nicht wenigstens versuchen!
26.1.2025: Fünf Jahre KI-Risiken.de
Am 10.1.2020 erschien der erste Blogbeitrag auf dieser Seite. Es ist unfassbar, wie viel inzwischen passiert ist. Und ein Ende der stürmischen Entwicklung ist nicht in Sicht - im Gegenteil!
30.12.2024: Entschleunigung 2025? Wohl eher nicht.
Kurz vor Weihnachten machte OpenAI mit dem neuen Modell o3 Furore. Trotzdem glauben einige Experten,
dass sich die KI-Entwicklung auf absehbare Zeit verlangsamt. Schön wär's, wir könnten eine Pause gut gebrauchen. Doch ich befürchte eher das Gegenteil.