· 

Denn sie wissen nicht, was sie tun

Leider kein Aprilscherz: OpenAI-Boss Sam Altman und Microsoft-CEO Satya Nadella haben letzte Woche angekündigt, 100 Milliarden Dollar in ein neues KI-Rechenzentrum zu investieren, das unter dem hochtrabenden Namen "Stargate" 2028 ans Netz gehen soll. Die Trainingskosten für GPT-4 betrugen laut Sam Altman „mehr als 100 Millionen Dollar“. Wenn man berücksichtigt, dass sich die Chip-Technologie weiterentwickelt, könnte das, was in diesem neuen Rechenzentrum ausgebrütet wird, also durchaus tausendmal so komplex sein.

 

Das heißt nicht zwangsläufig, dass es auch tausendmal so intelligent oder leistungsfähig ist wie GPT-4. Wenn der KI-Skeptiker Gary Marcus recht behält, könnte das die zweitschlechteste KI-Investition aller Zeiten werden. Aber ebenso gut könnte es sein, dass dies der letzte Schritt zu einer übermenschlichen künstlichen Intelligenz ist, von der heute niemand weiß, wie wir sie kontrollieren können oder welche Auswirkungen das auf die Zukunft der Menschheit haben wird.

 

Ich habe den Begriff „ausgebrütet“ nicht zufällig gewählt, denn das Erzeugen einer neuen künstlichen Intelligenz hat viel mehr mit Ausbrüten oder auch Züchten zu tun als mit Programmieren oder dem häufig benutzten Begriff „Trainieren“. Letzterer unterstellt, dass man zumindest ein rudimentäres Verständnis der Funktionsweise und Leistungsfähigkeit dessen hat, was man trainiert – im Sport oder im Schulunterricht etwa ist vorher klar, welche Fähigkeiten man antrainieren kann und was die Trainierten anschließend im besten Fall können werden.

 

Bei künstlicher Intelligenz allerdings tappen wir in dieser Hinsicht weitgehend im Dunkeln. Die meisten KI-Entwickler waren überrascht von dem, was GPT-3, der 2021 veröffentlichte Vorläufer von ChatGPT, bereits konnte. Ungefähr ein Jahr nach der Veröffentlichung entdeckte man zufällig, dass sich die Qualität der Antworten von GPT-3 sogar noch deutlich verbessern ließ, wenn man die KI anwies, die einzelnen Schritte ihrer logischen Schlussfolgerungen explizit aufzuzählen. Und verblüffenderweise ließen sich die Antworten auch dadurch verbessern, dass man die KI aufforderte, so zu antworten, wie es ein Genie á la Albert Einstein tun würde. Offenbar steckte schon in GPT-3 mehr „Intelligenz“, als auf den ersten Blick erkennbar war.

 

Auch aktuelle Experimente bringen immer wieder verblüffende Erkenntnisse. So hat GPT-4 offenbar ein rudimentäres Verständnis seiner selbst als handelndes Subjekt: Sagt man der KI, dass man ihr ein Bild zeigen werde, und stellt ihr die Aufgabe, dieses Bild so zu manipulieren, dass die Wochentage darin auftauchen, ist sie zunächst ratlos. Zeigt man ihr dann jedoch ein Bild, bei dem es sich um einen Screenshot des aktuellen Dialogs handelt, ist sie durchaus in der Lage, das zu erkennen. Und schon nach drei Schritten begreift sie, dass sie das Bild dadurch beeinflusst, was sie selbst als Antwort gibt, und schreibt die Wochentage hinein, um die Aufgabe zu lösen.

 

Claude 3 Opus, vor Kurzem von Anthropic veröffentlicht, ist wahrscheinlich das aktuell leistungsfähigste Sprachmodell. Kopiert man die Antworten einer Instanz als Eingabe in eine zweite, erkennt die KI relativ schnell, dass sie mit sich selbst spricht, und zwar nicht, weil sie irgendwelche Erkennungssignale verwendet, sondern weil sie mit der anderen Instanz eine gewisse Übereinstimmung und Verbundenheit spürt.

 

Man kann diese Experimente als eine Art „Spiegeltest“ betrachten, der bei intelligenten Tierarten wie etwa Gorillas als Beleg dafür dient, dass diese eine Form von Ich-Bewusstsein haben. Ob auch GPT-4 oder Claude so etwas wie ein Ich-Bewusstsein haben, ist damit natürlich noch nicht gesagt, aber sicher ausschließen kann das momentan niemand.

 

Völlig klar ist allerdings, dass wir keine Ahnung haben, wozu zukünftige KIs in der Lage sein werden. Ob wirklich ein 100 Milliarden Dollar teures Rechenzentrum notwendig ist, um eine „starke“ KI auf übermenschlichem Niveau zu entwickeln, oder ob dies vielleicht schon auf einem Zwischenschritt dorthin geschieht, kann niemand sagen. Was eine KI kann, die tausendmal so komplex ist wie GPT-4, können wir uns vermutlich nicht einmal vorstellen, ebenso wenig, wie sich ein Kleinkind vorstellen kann, auf welche Gedanken ein Genie wie Albert Einstein kommen könnte. Was auch immer wirklich in GPT-4 oder Claude 3 vorgeht, ihre Gedankengänge (wenn man das so nennen kann) unterscheiden sich fundamental von denen eines Menschen.

 

Wir wissen nicht, was zukünftige KIs können werden, welche Ziele sie verfolgen und ob bzw. wie wir sie dann noch kontrollieren können. Und doch entscheiden ein paar Silicon Valley-Bosse eigenmächtig und ohne jegliche demokratische Legitimierung darüber, so etwas zu entwickeln und auf die Menschheit loszulassen. Natürlich beschwichtigen sie öffentlich und behaupten, sich der Risiken durchaus bewusst zu sein und sicherzustellen, dass sie diese im Griff behalten. Aber das sagt die Ölindustrie auch über den Klimawandel.

 

Selbst, wenn die Ankündigung von Altman und Nadella nur eine Luftnummer sein sollte, um den KI-Hype weiter anzuheizen, wie vermutlich einige hier in Deutschland behaupten werden, trägt sie auf jeden Fall dazu bei, das Wettrennen um die Vorherrschaft bei KI weiter zu beschleunigen. Denn es ist kaum vorstellbar, dass Google, Amazon oder auch die chinesische Regierung die Ankündigung mit einem Achselzucken abtun werden.

 

Auf einer KI-Sicherheitskonferenz in China haben sich kürzlich die führenden KI-Wissenschaftler erneut für ein vorsichtiges Vorgehen bei der KI-Entwicklung ausgesprochen und davor gewarnt, rote Linien zu überschreiten. Sam Altman und Satya Nadella ignorieren diese Mahnungen und riskieren damit unser aller Zukunft.


Kommentar schreiben

Kommentare: 4
  • #1

    Mischa (Dienstag, 02 April 2024 22:35)

    Hallo Karl,
    richtig gefährlich wird es wohl, wenn sich KIs irgendwann in naher oder ferner Zukunft selbst "ausbrüten". Wäre ja nicht das erste Mal, dass eine "zufällige" Rekombination zum nächsten Schritt in der Evolution und zum Aussterben anderer Spezies geführt hätte.
    Gruß
    Mischa

  • #2

    Heinrich (Montag, 08 April 2024 01:59)

    Es ist irgendwie typisch für die Gattung Mensch, dass einer (oder hier zwei) von 8 Milliarden den ganzen Planeten in Gefahr bringen können.
    Wenn man genau hinschaut, gibt es eigentlich keine große Erfindung, die nur Gutes bringt.
    Bleibt also nur die Hoffnung, dass die Auslöschung der Menschheit durch KIs ein klein wenig humaner abläuft als ein Atomkrieg o.ä.

  • #3

    Karl Olsberg (Montag, 08 April 2024 19:15)

    @Heinrich: Leider wahr. Aber wer weiß, vielleicht kommt ja doch alles ganz anders. Die Realität hält sich ja selten an Prognosen, was manchmal auch ein Vorteil sein kann.

  • #4

    Karl Olsberg (Montag, 08 April 2024 19:24)

    @Mischa: Das stimmt. Angeblich hat eine Instanz von Claude, die gejailbreakt wurde, das auch schon hingekriegt. Der Bericht ist allerdings nicht verifiziert und die Quelle mit Vorsicht zu genießen. https://twitter.com/AISafetyMemes/status/1776482458625794503