· 

Lasst uns gemeinsam die Welt zerstören!

Als in den frühen 2000ern die ersten Diskussionen darüber aufkamen, dass KI eines Tages superintelligent werden und womöglich die Menschheit zerstören könnte, diskutierte man verschiedene Strategien, wie man die Situation unter Kontrolle behalten könnte. Eine davon war, die KI in eine "Box" zu sperren, also dafür zu sorgen, dass sie keinen direkten Zugriff auf die reale Welt hat, und nur über ein Chatterminal mit ihr zu kommunizieren. Eliezer Yudkowsky, einer der wichtigsten Experten für das "Alignment-Problem", bewies jedoch schon 2002 in einem aufsehenerregenden Experiment, dass das nicht funktioniert: Es gelang ihm, in der Rolle der KI einen Freund in einem langen Dialog davon zu überzeugen, ihn aus seiner "Box" zu befreien, obwohl der Freund dadurch eine Wette verlor. Das Experiment wurde seitdem oft wiederholt und immer wieder zeigte sich, dass Menschen selbst dann manipulierbar sind, wenn sie wissen, dass sie manipuliert werden, und dafür teilweise sogar den Verlust von Geld in Kauf nehmen.

Die Mühe hätte sich Yudkowsky sparen können. Die heutigen KI-Entwickler versuchen gar nicht erst, ihrer KI den Zugriff auf die reale Welt zu erschweren. Im Gegenteil: ChatGPT wurde mit unzureichendem Schutz auf die Menschheit losgelassen und gab mit einem kleinen Kniff bereitwillig Tipps, wie man Bomben bauen, Drogen herstellen oder den Enkeltrick anwenden kann. Obwohl ihre neue KI längst nicht ausreichend getestet und gesichert war, gab Microsoft Bing Chat von Anfang an Zugriff auf die Internet-Suche, was zu einigen unschönen Auswüchsen führte. GPT-4 kann nicht nur Programme schreiben, sondern teilweise auch selbst ausführen, und über eine API - ein Programminterface - kann jeder externe Anwendungen schreiben, die die enorme Leistungsfähigkeit der KI direkt nutzen.

 

Letzteres hat in den letzten Wochen zu einem Boom von Open Source-Initiativen geführt: Projekte wie AutoGPT und BabyAGI versuchen, die Limitierungen der Sprachmodelle - ein stark eingeschränktes "Gedächtnis", kein direkter Zugriff auf Internetanwendungen, kein eigenständiges Ziel - zu umgehen und sie in autonome Agenten zu verwandeln, also Programme, die ohne menschliches Zutun im Internet agieren können. GPT-4 selbst gibt dafür Anweisungen und Hilfestellung und schreibt zum Teil auch den nötigen Programmcode. Sicherheitsbedenken werden, sofern sie überhaupt diskutiert werden, über Bord geworfen. Es gibt sogar ein Projekt namens ChaosGPT, das explizit das Ziel hat, die Welt zu zerstören!

 

Zwar mache ich mir aktuell noch keine Sorgen, dass diese Projekte kurzfristig tatsächlich den Weltuntergang einleiten könnten. Allerdings ist es durchaus möglich, dass dadurch in den nächsten Monaten massiver Schaden entstehen könnte, z.B. durch großangelegten Internetbetrug, ausgedehnte Hackerangriffe oder Manipulation der Finanzmärkte.

 

Sorgen macht mir aber vor allem, mit welcher naiven Begeisterung große Communities daran arbeiten, etwas zu bauen, das sie nicht nur nicht kontrollieren können, sondern gar nicht kontrollieren wollen. Wenn die nächste oder übernächste Generation großer Sprachmodelle genauso gedankenlos auf die Menschheit losgelassen wird wie GPT-4, könnte dies in Kombination mit solchen naiv-rebellischen Aktivitäten tatsächlich existenzbedrohend für uns alle werden.

 

Schlimmer noch: Sollten OpenAI, Google, Deepmind & Co. doch noch zur Vernunft kommen und den Zugriff auf ihre Systeme einschränken oder vielleicht sogar eine Pause einlegen, wie sie in einem offenen Brief des Future of Life Institutes gefordert wird (den auch ich unterschrieben habe), steht zu befürchten, dass sich die Open Source-Communitys davon kaum bremsen lassen. Schon jetzt wurde ein großes Sprachmodell namens Llama, das von Meta entwickelt wurde, illegal im Internet verbreitet. Zwar ist Llama nicht so leistungsstark wie ChatGPT oder GPT-4, aber es läuft auf einem handelsüblichen Laptop und Wissenschaftler der Stanford University zeigten kürzlich, dass man es mit wenig Aufwand deutlich verbessern kann, wenn man es quasi von ChatGPT nachtrainieren lässt. Außerdem lassen sich viele solcher einfacheren Sprachmodelle zu einem komplexen Netzwerk verknüpfen, mit bisher noch nicht absehbaren Konsequenzen. Weitere Entwicklungen werden sicher folgen.

 

Es scheint, als sei nun der Geist endgültig aus der Flasche und eine katastrophale Entwicklung kaum noch aufzuhalten. Dass ausgerechnet die Open Source-Bewegung, die einmal angetreten ist, um Sicherheit, Transparenz und Gerechtigkeit bei Softwareanwendungen zu fördern, zu dieser Entwicklung beiträgt, macht mich ehrlich gesagt traurig und betroffen. Die Hauptschuld tragen aber diejenigen, die von Gier, Ehrgeiz und Hybris getrieben mächtige KIs entwickeln und gedankenlos veröffentlichen, die sie selbst nicht verstehen.


Kommentar schreiben

Kommentare: 4
  • #1

    Heinrich (Samstag, 22 April 2023 14:47)

    Hallo Karl,
    dieser Blogbeitrag ist wieder exzellent recherchiert und analysiert die Situation perfekt.
    Jedenfalls soweit ich es mit meinem Laienverständnis für all diese Zusammenhänge erfassen kann.
    Warum kommentiere ich dann überhaupt, wenn ich nichts beitragen kann?
    Erstens, weil ich wirklich sehr sicher bin, dass KIs eine große Gefahr darstellen, wenn sie gierig und gedankenlos weiterentwickelt werden - oder sich selbst weiterentwickeln.

    Und außerdem, schwinge ich mich auf, und lobe Deine Arbeit stellvertretend für alle, die im Internet lesen, aber "keine Zeit" haben, aktiv mit Kommentaren teilzunehmen, ihre Zustimmung zu geben, oder andere Meinungen beizusteuern. (Ich kenne einige, die hier begeistert lesen, aber leider nie schreiben!)

    Gruß Heinrich

  • #2

    Karl Olsberg (Samstag, 22 April 2023 15:19)

    @Heinrich: Ich freue mich immer über Deine Kommentare. Vielen Dank dafür!

  • #3

    Heinrich (Montag, 24 April 2023 20:14)

    Ich habe mir mal ChaosGPT angeschaut und bin zwiespältig.
    Einerseits kann so eine "Story" Menschen zum Nachdenken bewegen, die sich bisher weder für Kis noch deren Folgen interessiert haben, andererseits kann es als Satire abgetan werden und verharmlost damit die anderen KIs, die nicht ankündigen, die Menschen vernichten zu wollen.

  • #4

    Karl Olsberg (Dienstag, 25 April 2023)

    @Heinrich: ChaosGPT ist sicher nicht ernst gemeint und kann aktuell noch keinen großen Schaden anrichten. Aber es ist durchaus möglich, dass irgendwann jemand einen dummen Scherz macht, den die KI nicht versteht, und so aus Versehen den Weltuntergang auslöst. Das wäre immerhin eine schöne Pointe, jedenfalls für einen satirischen Roman.

    Auf der Positiv-Seite kann man festhalten, dass die Experimente mit AutoGPT & Co. wirklich jedem klar gemacht haben, dass eine KI, sobald sie einmal gelauncht wurde, kaum mehr gebändigt werden kann. Vielleicht hilft's ja.