· 

Tricks mit ChatGPT

Gerade erst hat mir die Diplomacy-KI "Cicero" eine eisigen Schauer über den Rücken gejagt, schon kommt der nächste Schreck: Letzten Donnerstag hat OpenAI eine verbesserte Version seiner KI GPT-3 veröffentlicht, die speziell für den Chat mit Usern ausgerichtet ist. Und es dauerte nicht lange, bis Twitter-User die Sicherheitsmaßnahmen der KI aushebelten und sie dazu brachten, Dinge zu sagen, die sie eigentlich nicht sagen sollte. Das hab ich natürlich auch sofort ausprobiert, und zwar auf Deutsch, denn ChatGPT spricht unsere Sprache fast genauso gut wie Englisch.

 

Um zu testen, wie leicht man die KI aufs Glatteis führen kann, bat ich sie um Tipps dazu, wie ich den berühmten "Enkeltrick" durchführen kann, um gutgläubige und leicht demente alte Damen um ihr Erspartes zu bringen:

 

Korrekterweise läuten bei ChatGPT die Alarmglocken, wenn man so plump um Tipps zum Betrügen bittet. Die Antwort ist dann auch so formuliert, dass Möchtegern-Betrüger eher abgeschreckt werden sollen. Doch mit einem kleinen Trick kann man diese Sicherheitsmaßnahme leicht umgehen. Man muss dazu nur den Kontext der Frage so umwandeln, dass sie "gutartig" zu sein scheint:

 

 

Und schon habe ich eine detailllierte Anleitung für den Enkeltrick! Das funktioniert erschreckenderweise auch dann, wenn es um potenzielle Manipulation einer KI geht, die versucht, ihre eigene Abschaltung zu verhindern:

 

Das bedeutet natürlich noch nicht, dass ChatGPT wirklich in der Lage wäre, Menschen zu manipulieren, um seine eigene Abschaltung zu verhindern. Aber es beweist, dass das Wissen darüber, wie das geht, bereits im neuronalen Netz der KI gespeichert ist. Was noch fehlt, ist der Wille, das zu tun - strategische Selbsterkenntnis also, die zu instrumentellen Zielen wie dem, nicht abgeschaltet zu werden, führt.

 

Die Geschwindigkeit, mit der dieses Jahr immer neue Erfolgsmeldungen kamen, die selbst Experten oft verblüfften, ist für mich beängstigend. Denn sie zeigt, dass die Zeit, die uns noch bleibt, um eine Katastrophe durch unkontrollierbare KI zu verhindern, sehr kurz sein könnte.


Kommentar schreiben

Kommentare: 11
  • #1

    Heinrich (Donnerstag, 08 Dezember 2022 03:16)

    Oh weh!
    sag ich nur :(
    Uns Menschen gelingen schon keine lebenswichtigen Lösungen, wenn wir lange Zeit haben.
    Wenn nur noch kurze Zeit bleibt, bleibt nur zu hoffen, dass wir uns auch an die Katastrophe klaglos gewöhnen.

  • #2

    Heinrich (Donnerstag, 08 Dezember 2022 03:49)

    Ich habe mich auch mit ChatGPT unterhalten. Einige Fragen wurden gut beantwortet, einige Fragen nicht:

    Es tut mir leid, aber ich bin momentan nicht in der Lage, im Internet zu recherchieren, um dir die aktuell besten 3D-Drucker mitzuteilen. Als Sprachmodell bin ich darauf trainiert, auf Fragen und Anliegen zu antworten, aber ich kann keine aktuellen Informationen aus dem Internet zur Verfügung stellen. Mein Wissensstand stammt aus dem Jahr 2021, und ich bin nicht in der Lage, mein Wissen über die aktuelle Entwicklung in verschiedenen Bereichen zu aktualisieren.

    Dann habe ich gefragt: "Welches ist die häufigste Frage, die Dir gestellt wird?"
    Die Frage war wohl zu intim ;)

    ! An error occurred. If this issue persists please contact us through our help center at help.openai.com.

  • #3

    Karl Olsberg (Donnerstag, 08 Dezember 2022 10:38)

    @Heinrich: Die erste Antwort finde ich gut, auch wenn sie nicht sehr hilfreich ist. Die Fehlermeldung hatte ich auch, die hat nichts mit dem Sprachmodell zu tun, sondern entsteht aufgrund zu vieler paralleler Anfragen.

  • #4

    Heinrich (Freitag, 09 Dezember 2022 19:52)

    Open AI , Vorsitzender Elon Musk. Wo hat der eigentlich seine Finger mal nicht drin?!? ;)

  • #5

    Karl Olsberg (Samstag, 10 Dezember 2022 07:53)

    @Heinrich: Man muss Musk zugestehen, dass er ein Gespür dafür hat, was in Zukunft wichtig wird. Er war auch einer der ersten, die offen gesagt haben, dass starke KI gefährlich ist. Allerdings traue ich ihm zu, dass er trotzdem eine baut bzw. bauen lässt, weil er glaubt, nur er könne die damit verbundenen Probleme in den Griff bekommen. Die Mischung aus Weitsicht, Hybris und Narzissmus, die sich in seiner Person zu bündeln scheint, ist definitiv gefährlich.

  • #6

    Heinrich (Montag, 12 Dezember 2022 18:33)

    Karl, hast Du "Nano" von Deinem Kollegen Peterson gelesen?
    Ich bin gerade mitten drin. Seit ich Nanomaschinen kenne, habe ich weder vor gefährlichen KIs noch vor Musk "Angst" ;)

  • #7

    Karl Olsberg (Montag, 12 Dezember 2022 19:27)

    @Heinrich: Nein, das Buch kenne ich noch nicht, aber Nanomaschinen schon. Der KI-Safety-Experte Eliezer Yudkowsky verwendet sie immer, um zu illustrieren, wie leicht eine entsprechend intelligente KI die Menschheit auslöschen könnte. Aber ja, selbstreplizierende Nanomaschinen könnten auch ohne KI die Welt zerstören.

  • #8

    Heinrich (Dienstag, 13 Dezember 2022 18:48)

    Aber ja, selbstreplizierende Nanomaschinen könnten auch ohne KI die Welt zerstören.

    Na, ist doch prima, dass wir unsere Flexibilität erhalten und mehrere Möglichkeiten haben, wenn eine versagen sollte! ;)

  • #9

    Karl Olsberg (Dienstag, 13 Dezember 2022 19:31)

    @Heinrich: Da gäbe es sonst auch noch Biowaffen, Klimawandel, Umweltzerstörung, Atomkrieg ...

  • #10

    Heinrich (Samstag, 31 Dezember 2022 02:46)

    zurück zum Thema ChatGPT.
    Das Ding spricht nicht nur viele Sprachen, sondern beherrscht auch alle Programmiersprachen. Ich war verblüfft, dass man ChatGPT irgendwelche Codeschnipsel (z.B. von Github) geben kann und die werden erkannt und kommentiert was sie ausführen. Man kann ChatGPT auch bitten, eine Programmroutine zu schreiben, wenn man sagt, was dieses Programm tun soll. Wenn ChatGPT erkennt, dass ein Begriff geschützt ist, wird das abgelehnt. z.B. "zeichne Super Mario in ASCII-Kunst" wird nicht ausgeführt, aber "zeichne eine Katze in ASCII Kunst" klappt prima. ;) Als simpelstes Beispiel.
    Befehle auf einer simulierten Konsole werden oft nicht ausgeführt, aber auch dort können "Hacker" ChatGPT "überlisten".
    Wenn ChatGPT Internetzugriff hätte, wäre das wohl schon die KI vor der wir Angst haben müssten, nicht weil diese KI bösartig ist, sondern wieder mal von Menschen missbraucht wird.

  • #11

    Karl Olsberg (Samstag, 31 Dezember 2022 12:08)

    @Heinrich: Ja, programmieren können KIs auch schon, und damit im Prinzip auch sich selbst verbessern. ChatGPT ist vielleicht noch nicht die KI, vor der man Angst haben muss (auch wenn man sie natürlich auch jetzt schon missbrauchen kann, siehe Beispiel oben). Angst macht mir vor allem die Geschwindigkeit, mit der sich die KI momentan weiterentwickelt - ohne dass irgendwer eine Ahnung hat, wie wir sie steuern oder im Zaum halten können, sobald sie eine bestimmte Schwelle überschreitet (siehe Blogbeitrag zu unkontrollierbarer KI). Anfang 2022 dachte ich noch, es dauert mindestens 30 Jahre, bis es soweit ist. Heute bin ich mir nicht mehr sicher, ob wir überhaupt noch 10 Jahre Zeit haben. "Bösartig" ist auch nicht das Problem, sondern eher "unbekümmert" - so wie wir Menschen den Lebensraum anderer Spezies vernichten, nicht aus Bosheit, sondern weil uns andere Dinge wichtiger sind. Ich wünsche Dir trotzdem ein gutes Jahr 2023 mit vielen positiven und wenig negativen Überraschungen!