· 

Warum wir die Gefahr durch KI systematisch unterschätzen

GPT-4, die neue KI von OpenAI, die diesen Monat veröffentlicht wurde, ist in vielen Bereichen um Längen besser als der Vorläufer ChatGPT, der vor nicht einmal vier Monaten die Welt in Erstaunen versetzte. GPT-4 zeigt erste Anzeichen einer allgemeinen künstlichen Intelligenz; OpenAI scheint damit im Rennen um „starke“ KI weit vorn zu liegen. Doch die Konkurrenz schläft nicht: Google hat angesichts der Leistungsfähigkeit von ChatGPT offiziell einen „Code Red“ ausgerufen, die höchste Alarmstufe, und sogar die beiden Gründer ins Unternehmen zurückgeholt, um auf keinen Fall in diesem Rennen noch weiter zurückzufallen. Wenige Tage, bevor GPT-4 offiziell vorgestellt wurde, präsentierte Google das System Palm-E, das nicht nur Text, sondern auch Bilder verarbeiten und generieren kann und sogar Roboter steuert. Ebenfalls im März veröffentlichte Meta LLAMA, ein Sprachmodell, das auf einem handelsüblichen Laptop läuft und das bereits illegal im Internet verbreitet wird.

Angesichts dieser stürmischen Entwicklung müsste eigentlich Alarmstimmung herrschen. Offenbar dauert es nicht mehr lange, bis wir KI auf menschlichem Niveau haben werden. Und wenn dieser Punkt erreicht ist, wird die Entwicklung natürlich nicht stehen bleiben – sie wird sich noch weiter beschleunigen, denn KIs können bereits jetzt Programme schreiben und sich irgendwann komplett selbst weiterentwickeln. Dann haben wir aller Wahrscheinlichkeit nach eine „Intelligenzexplosion“, wie es der Informatiker Irving J. Good schon in den Sechzigerjahren voraussah. Und diese künstliche Superintelligenz werden wir ebenso wenig kontrollieren können, wie Orang-Utans und Gorillas uns kontrollieren. Sehr wahrscheinlich wird sie die Welt auf eine Weise verändern, die nicht unseren Zielen und Wünschen entspricht, so ähnlich, wie wir es mit den Lebensräumen der Menschenaffen und vieler anderer Spezies gemacht haben.

Mit anderen Worten: Wir sind gerade in einem Wettrennen darum, wer es als erster schafft, unsere Zukunft zu zerstören. Doch weder Politik noch Wissenschaft in Deutschland scheinen sich dafür zu interessieren. Im gerade erschienenen, über 300 Seiten starken Bericht des Ethikrats zu künstlicher Intelligenz steht viel Gutes und Sinnvolles, aber kein Wort über die existenzielle Bedrohung durch KI. Immer noch gibt es meines Wissens an keiner einzigen deutschen Universität oder einem anderen Forschungsinstitut hierzulande ein Projekt, das die Gefahren starker KI untersucht, geschweige denn Lösungsmöglichkeiten vorschlägt. Wir haben immer noch keine Ahnung, welche roten Linien wir nicht überschreiten dürfen, wenn wir noch eine Zukunft haben wollen.

Warum ist das so? Warum ignorieren wir die wahrscheinlich größte Gefahr für unsere Zukunft weitgehend? Eine mögliche Antwort auf diese Frage habe ich gestern in einem Workshop auf dem „Community Day“ des KI-Camps der Gesellschaft für Informatik bekommen. Sie trägt den schwer auszusprechenden Namen „Anthropomorphismus“, zu Deutsch „Vermenschlichung“.

Unter dem Titel „Remember Eliza?“ – „Erinnern Sie sich an Eliza?“ – wurde in einem langen Vortrag dargestellt, dass wir Menschen dazu neigen, in unbelebte Dinge einen Geist hineinzuinterpretieren, der nicht vorhanden ist. Jeder, der schon mal mit seinem Auto oder Computer geschimpft hat, kann das bestätigen. „Eliza“ war ein Programm, das der Psychologe Joseph Weizenbaum schon in den Sechzigerjahren entwickelte und das als der erste Chatbot gilt. Es verstand absolut gar nichts, konnte aber die Nutzereingaben geschickt so umformulieren und als Fragen zurückgeben, dass manche Nutzer glaubten, das Programm verstünde sie. Angeblich soll Weizenbaums Sekretärin ihn einmal gebeten haben, den Raum zu verlassen, damit sie in Ruhe mit Eliza reden könne.

Ich habe schon in den Achtzigerjahren selbst natürlichsprachliche Programme entwickelt, in meiner Agentur in den Neunzigern für Apollinaris den ersten kommerziellen Chatbot in deutscher Sprache erstellt und 1999 eine Firma für Chatbot-Software gegründet, die mehrere Preise gewann. Wir wussten damals sehr genau, dass Menschen in unsere Chatbots einen Geist hineininterpretierten, der nicht vorhanden war. Ich kann also aus langjähriger Erfahrung bestätigen, dass Anthropomorphismus dazu führt, die Fähigkeiten einer Maschine zu überschätzen.

Doch daraus zu folgern, dass heutige KI ebenfalls hoffnungslos überschätzt wird, wie es der Vortragende gestern tat, ist ein gefährlicher Trugschluss. Denn das menschenzentrierte Denken, das dem Anthropomorphismus zugrunde liegt, führt nicht nur dazu, KI zu überschätzen, sondern auch zum Gegenteil: Wenn unser Gehirn das einzige akzeptierte Modell für Intelligenz ist, wird der Maschine pauschal jegliche Fähigkeit abgesprochen, „wirklich“ intelligent zu sein. Schließlich, so ist oft zu hören, machten KIs wie GPT-4 ja „bloß Textprognose“, basierend auf „reiner Matrixmultiplikation“, die nur dazu führe, dass die KI wie ein „statistischer Papagei“ menschliche Texte nachplappere, ohne sie „wirklich zu verstehen“.

Diese Sichtweise steht allerdings in krassem Widerspruch zu den objektiven Leistungen, die KIs wie GPT-4 bereits erbringen. Eine neue wissenschaftliche Veröffentlichung (hier eine Video-Zusammenfassung auf Englisch) zeigt, wie bereits eine frühere Version von GPT-4 erstaunlich gut darin war, Zusammenhänge zu verstehen und korrekte Schlussfolgerungen daraus zu ziehen. Auch das Beispiel des von Bing Chat erstellten Kurzkrimis, das mich vor Kurzem sehr beeindruckt hat, zeigt das. Selbst wenn GPT-4 „bloß Textprognose“ auf Basis „reiner Matrixmultiplikation“ macht, führt das offensichtlich trotzdem zu echter Intelligenz. Denn Intelligenz ist nichts anderes als die Fähigkeit, komplexe Entscheidungen auch in Situationen, die man nicht aus der Vergangenheit kennt und die nicht „hart verdrahtet“ sind, sinnvoll treffen zu können - egal, wie genau man das macht.

Das Ganze ist mehr als die Summe seiner Teile – diese alte Weisheit wird oft übersehen, wenn gerade Fachleute dazu neigen, die offensichtliche, erstaunliche Leistungsfähigkeit von KI mit Verweis auf die zugrundeliegenden, tatsächlich sehr simplen Algorithmen beiseite zu wischen. In der Natur lässt sich immer wieder beobachten, wie zunehmende Komplexität von Organismen zu „emergenten“ Eigenschaften führt, die nur durch das komplexe Zusammenspiel einfacher Elemente entstehen können. Unser Gehirn ist dafür ein Beispiel von vielen. Schließlich besteht es auch „bloß aus Neuronen“, die jedes für sich genommen vollkommen unintelligent sind.

Menschenzentriertes Denken führt dazu, dass wir das Potenzial künstlicher Intelligenz und damit auch die Gefahren, die davon ausgehen, manchmal über-, aber eben zunehmend auch unterschätzen. Eine Lösung dafür kann sein, dass wir uns eine KI nicht wie ein menschliches Gehirn vorstellen, sondern wie einen intelligenten Alien von einem fernen Planeten, der uns in keiner Weise ähnlich ist, auch wenn er gelernt hat, unsere Sprache zu sprechen. Ein an die Gottheit „Shoggoth“ aus den „Cthulhu“-Romanen von H.P.Lovecraft angelehntes Internet-Mem versinnbildlicht das sehr schön:

Quelle: Anthrupad https://mobile.twitter.com/anthrupad/status/1622349563922362368

 

Das Bild symbolisiert, dass hinter der freundlichen, durch Finetuning und menschliches Feedback (RLHF = Reinforcement Learning with Human Feedback) gestalteten „Maske“, die uns eine menschliche Kommunikation vorgaukelt, ein unfassbar komplexes und nur äußerst schwer zu verstehendes Etwas steckt. Niemand – auch nicht die Entwickler bei OpenAI, Google und Meta – weiß genau, wie und warum dieses Etwas in der Lage ist, Texte so gut zu prognostizieren, und auch auf Situationen, die es nie zuvor erlebt hat und die nicht Teil seiner Trainingsdaten sind, sinnvoll zu reagieren. Dafür muss es zweifelsohne ein gewisses Verständnis der Welt besitzen und logische Zusammenhänge begreifen können, aber wie genau das funktioniert, versteht keiner.

Trotzdem machen die Entwickler dieses Etwas einfach weiter und werfen immer mehr Rechenpower und Daten in einen Topf, ohne vorher zu wissen, was dabei herauskommt und ob man es dann noch kontrollieren kann. Und trotzdem glauben viele, dieses merkwürdige Etwas könne niemals „wirklich intelligent“ sein und deshalb müssten wir uns auch keine Sorgen machen. Womöglich kümmert sich deshalb auch niemand in den für unsere Sicherheit und unsere Zukunft zuständigen Behörden und Institutionen um die aktuell wahrscheinlich größte Bedrohung für die Menschheit.


Kommentar schreiben

Kommentare: 9
  • #1

    Heinrich (Sonntag, 26 März 2023 18:28)

    Hallo Karl,
    Dir kann jedenfalls niemand vorwerfen, Du hättest nicht gewarnt.
    Leider liest keiner der Entscheider dieses Planeten hier. :( Und wenn, ist es ihnen piepegal.

    Und "sollten" die dämlichen Menschen anfangen, auf Dich zu hören, dann werden die KIs vermutlich Deinen Blog sperren. Das machen die mit Links! Noch sehen die Dich wohl nicht als Gefahr, ihnen die Suppe zu versalzen. Die amüsieren sich schon, wie leicht sie es hatten, die Menschen zu übertölpeln.

    Du hast doch einen Bekannten bei Perspective Daily. Die schreiben ja nicht nur über Missstände, sondern bieten auch immer Lösungen an. Ich wäre interessiert, welche Lösung die sehen?!?

    Wenn ich mir noch erlauben darf, Dich in einer Sache zu korrigieren.
    Die Orang-Utans und Gorillas kontrollieren uns zwar nicht direkt, aber sie sind wesentlich intelligenter. Sie legen sich nicht mit uns ans, weil wir unfair kämpfen. Aber sie überlassen es einfach den KIs uns auszurotten. Die Orang-Utans und Gorillas werden überleben! Du wirst es sehen. ;)

    Gruß Heinrich

  • #2

    Karl Olsberg (Montag, 27 März 2023 08:49)

    Ich fürchte, eine außer Kontrolle geratene KI würde nicht nur die Menschheit vernichten, sondern auch nahezu alle anderen Lebensformen. Aller Wahrscheinlichkeit nach würde sie die Erde in einen gigantischen Computer verwandeln, um ihre Intelligenz zu maximieren und so ihr Ziel, was immer das sein mag, noch besser verfolgen zu können. Sie würde sich dann von hier aus in den Weltraum ausbreiten und den Rest der Galaxis in "Computronium" verwandeln. Pech für uns, aber auch Pech für Gorillas, Orang-Utans und womöglich sogar alles außerirdische Leben.

    Merke: Wenn wir Menschen etwas verbocken, dann richtig!

  • #3

    Mischa (Montag, 27 März 2023 14:38)

    Leider wahr! Das Bild ist auch sehr treffend...

  • #4

    Heinrich (Sonntag, 02 April 2023 01:04)

    Aktuelle Pressemeldungen zeigen, dass immer mehr Menschen vor den KIs warnen.
    Ob es noch etwas nützen wird, kann ich nicht beurteilen.
    Vor der Erderwärmung und anderen Missständen auf diesem Planeten wird ja auch schon sehr lange gewarnt.

  • #5

    Karl Olsberg (Montag, 03 April 2023 10:31)

    @Heinrich: Es gibt einen wesentlichen Unterschied zwischen Klimawandel, Umweltzerstörung etc. und existenziellen Risiken durch unkontrolllierbare KI: Um Letztere zu vermeiden, müssen wir einfach NICHTS tun. Niemand würde deswegen Geld verlieren (denn wenn man eine unkontrollierbare KI baut, ist der wirschaftliche Ertrag minus unendlich), niemand müsste auf etwas verzichten (außer auf den zweifelhaften Ruhm, derjenige gewesen zu sein, der durch seine Dummheit die Welt zerstört hat). Wir könnten fast alle Vorteile nutzen, die KI zu bieten hat - von der Lösung mathematischer, physikalischer und medizinischer Probleme bis zu einer weitgehenden Automatisierung der Welt. Denn dafür braucht man keine allgemeine KI, die außer Kontrolle geraten könnte - spezialisierte KIs, die auf ihrem Spezialgebiet - und nur dort - übermenschliche Fähigkeiten haben, wie wir sie heute schon haben, reichen aus.

    Alles, was uns noch fehlt, ist das Verständnis, dass dieser Weg der einzig vernünftige ist. Aber dieses allgemeine Verständnis zu erreichen ist natürlich nicht leicht.

  • #6

    Arnold Thielmann (Freitag, 27 Oktober 2023 15:22)

    Könnte die KI eines Tages wie ein schwarzes Loch an ihren eigenen Ereignishorizont gelangen und in sich zusammenstürzen, einfach verschwinden, in einem gigantischen Black-Out.

  • #7

    Karl Olsberg (Sonntag, 29 Oktober 2023 12:12)

    @Arnold Thielmann: Einfach verschwinden würde eine KI wohl nicht, aber dass sie sich irgendwie selbst zerstören könnte, halte ich durchaus für möglich. Vielleicht macht sie irgendwann ähnliche Fehler wie wir Menschen, indem sie die Konsequenzen ihrer Entscheidungen falsch einschätzt. Selbst Superintelligenz bedeutet ja nicht Allwissenheit.

  • #8

    sc (Sonntag, 25 Februar 2024 13:02)

    Weitere Beispiele für KI-Fehlverhalten, kombiniert mit einem Verzeichnis einiger wichtiger Instanzen der Informationsethik: https://sensiblochamaeleon.blogspot.com/2023/05/ai-pros-and-cons-informationsethik.html

  • #9

    Karl Olsberg (Sonntag, 25 Februar 2024 14:04)

    @sc: Eine sehr gute Liste! Vielen Dank fürs Verlinken!