Probleme · 25. März 2023
GPT-4, die neue KI von OpenAI, die diesen Monat veröffentlicht wurde, ist in vielen Bereichen um Längen besser als der Vorläufer ChatGPT, der vor nicht einmal vier Monaten die Welt in Erstaunen versetzte. GPT-4 zeigt erste Anzeichen einer allgemeinen künstlichen Intelligenz; OpenAI scheint damit im Rennen um „starke“ KI weit vorn zu liegen. Doch die Konkurrenz schläft nicht: Google hat angesichts der Leistungsfähigkeit von ChatGPT offiziell einen „Code Red“ ausgerufen, die...

Probleme · 17. Februar 2023
Die Serie an beeindruckenden KI-Fortschritten reißt nicht ab. Im Gegenteil habe ich den Eindruck, dass sich das Tempo weiter beschleunigt, nicht zuletzt wegen des sich zuspitzenden Wettrennens übers Minenfeld zwischen Microsoft und Google. Vor wenigen Tagen hat Microsoft Bing AI vorgestellt, das die Suchmaschine um eine Chatfunktion erweitert und damit das Suchmaschinen-Monopol von Google angreifen soll. Wie nicht anders zu erwarten, haben die Tester, die Zugriff auf die KI hatten, bereits...

Lösungsideen · 08. Januar 2023
Vor einem Jahr begann meine Teilnahme am AI Safety Camp, einem regelmäßig stattfindenden internationalen Online-Projekt, bei dem Menschen, die sich für die Risiken starker künstlicher Intelligenz interessieren, ein halbes Jahr lang gemeinsam an verschiedenen Projekten arbeiteten. Das war eine großartige Erfahrung, bei der ich viele interessante Menschen kennenlernte und von ihnen enorm viel gelernt habe. Ich selbst war Teil eines Teams, das ein Rollenspiel-System entwickelte. Darin...

Probleme · 05. Dezember 2022
Gerade erst hat mir die Diplomacy-KI "Cicero" eine eisigen Schauer über den Rücken gejagt, schon kommt der nächste Schreck: Letzten Donnerstag hat OpenAI eine verbesserte Version seiner KI GPT-3 veröffentlicht, die speziell für den Chat mit Usern ausgerichtet ist. Und es dauerte nicht lange, bis Twitter-User die Sicherheitsmaßnahmen der KI aushebelten und sie dazu brachten, Dinge zu sagen, die sie eigentlich nicht sagen sollte. Das hab ich natürlich auch sofort ausprobiert, und zwar auf...

Probleme · 24. November 2022
Wenn „Krieg die Fortsetzung der Politik mit anderen Mitteln“ ist, wie es der große Stratege Carl von Clausewitz geschrieben hat, dann kann man Diplomatie und Krieg als zwei Seiten derselben Medaille ansehen. Denn beide dienen dazu, die eigenen Interessen gegenüber anderen Staaten durchzusetzen, in der Regel mit dem Ziel, mehr Macht und Einfluss zu erlangen oder zumindest die bestehende Macht zu sichern. So ist auch der russische Angriffskrieg gegen die Ukraine ein Beispiel dieser...

Probleme · 09. Oktober 2022
Heute habe ich erneut einen Beitrag in englischer Sprache auf dem Forum LessWrong gepostet, das von vielen, die sich für KI-Sicherheit interessieren, zum Austausch genutzt wird. Darin formuliere ich vier Hypothesen zu "unkontrollierbarer" KI: Bestimmte Arten von künstlicher Intelligenz (KI) sind unkontrollierbar. Eine unkontrollierbare KI, die das falsche Ziel verfolgt, stellt ein existenzielles Risiko dar. Es ist unklar, wie das Ziel einer unkontrollierbaren KI so formuliert werden kann,...

Lösungsideen · 05. August 2022
Heute habe ich einen Beitrag in englischer Sprache auf dem Forum LessWrong gepostet, das von vielen, die sich für KI-Sicherheit interessieren, zum Austausch genutzt wird. Hier kommt die deutsche Übersetzung: Das Alignment-Problem bleibt weiterhin äußerst schwierig und die Zeit bis zur Entwicklung starker KI scheint immer kürzer zu werden. Vor diesem Hintergrund müssen wir uns mit der Möglichkeit auseinandersetzen, dass wir innerhalb der nächsten 20 Jahre in der Lage sein werden, eine...

Grundlagen · 10. Juni 2022
Vor Kurzem habe ich einen Beitrag über die Geschwindigkeit der KI-Entwicklung geschrieben und darin auch die beeindruckende KI DALL-E 2 erwähnt. Heute habe ich die Gelegenheit bekommen, selbst auszuprobieren, wie gut DALL-E 2 funktioniert. Und die Ergebnisse sind wirklich eindrucksvoll. Diese Bilder zum Beispiel hat die KI innerhalb weniger Sekunden aufgrund der Vorgabe "Ein Schriftsteller gibt eine Lesung vor einer Klasse von Fröschen" generiert:

Probleme · 14. Mai 2022
Das letzte Mal schrieb ich vor anderthalb Jahren darüber, wie viel Zeit uns noch bleibt, bis wir eine „starke“ KI mit dem Menschen vergleichbarer allgemeiner Problemlösungsfähigkeit entwickeln und folglich vorher das „Alignment-Problem“ gelöst haben müssen. Damals ging die Mehrheit der Experten davon aus, dass es etwa um die Mitte des Jahrhunderts so weit sein könnte, nur ein kleiner Teil glaubte, dass es weniger als 20 Jahre dauern würde. Anfang des Jahres erfuhr ich vom...

Lösungsideen · 26. Februar 2022
Aktuell nehme ich am AI Safety Camp teil, einer Online-Arbeitsgruppe, die sich in verschiedenen Unterthemen mit den Risiken "starker" künstlicher Intelligenz und deren Lösungsmöglichkeiten beschäftigt. Dabei habe ich Jan Hendrik Kirchner kennengelernt, der gerade seine Promotion über Computational Neuroscience abschließt und ein sehr lesenswertes englischsprachiges Blog betreibt. Gemeinsam haben wir dort sowie im Forum LessWrong gestern einen Artikel über eine Idee gepostet, die wir im...

Mehr anzeigen