Probleme · 24. Juli 2024
Spätestens seit dem Aufruf des Centers for AI Safety im letzten Jahr sind die existenziellen Risiken der KI Gesprächsthema in der internationalen Politik. Der britische Premierminister Rishi Sunak organisierte dazu letztes Jahr eine Konferenz in London. Auch Kamala Harris, die wahrscheinliche Präsidentschaftskandidatin der US-Demokraten, hat ihre Besorgnis zum Ausdruck gebracht, KI könne eine existenzielle Bedrohung für die Menschheit sein. Man sollte meinen, dass zumindest auch einige...

Probleme · 07. Juli 2024
Unkontrollierbare KI stellt ein ernstzunehmendes existenzielles Risiko dar. Der beste Weg, um es einzudämmen, ist es, eine potenziell unkontrollierbare KI gar nicht erst zu entwickeln. Doch dazu brauchen wir ein allgemeines Verständnis und breites Einvernehmen über die Gefahren. Leider sind wir davon derzeit weit entfernt. Gerade in Deutschland wird das existenzielle Risiko der KI immer noch kaum ernstgenommen, obwohl wir davon genauso betroffen sind wie der Rest der Welt. Häufig werden...

Probleme · 02. Juni 2024
In einem neuen Video lese ich Auszüge aus einem Blogbeitrag vor, in dem der international führende KI-Forscher Yoshua Bengio beschreibt, wie sich seine Einstellung zu den existenziellen Risiken der KI geändert hat. Jedem, der Warnungen vor diesen Risiken als "Hype" oder "Panikmache" abtut, kann ich nur empfehlen, seinen Beitrag zu lesen. Hier meine Übersetzung des vollständigen Textes.

Grundlagen · 21. Mai 2024
Dass Jan Leike OpenAI verlassen hat und so offen über die mangelnde Priorisierung der KI-Sicherheit beim Entwickler von ChatGPT berichtete, ist erschreckend. Aber was genau hat er dort eigentlich gemacht, und wieso braucht man überhaupt ein „Superalignment“-Team? Jede Technologie hat zwei Seiten: Sie bietet Chancen und Risiken. Autos zum Beispiel bringen uns Mobilität, bergen aber auch die Gefahr von Unfällen und tragen zum Klimawandel bei. KI ist eine sehr mächtige und universelle...

Lösungsideen · 20. Mai 2024
Die klaren Worte des ehemaligen Leiters der KI-Sicherheit bei OpenAI, Jan Leike, haben eines sehr deutlich gemacht: Wir können uns nicht darauf verlassen, dass OpenAI und andere von selbst dafür sorgen, dass ihre Produkte sicher sind. Das ist nicht sonderlich überraschend, denn in anderen Industrien ist es ja ähnlich. So betreibt die Ölindustrie weiterhin massives Lobbying gegen Umweltschutzauflagen und die Automobilindustrie hat sich in den Achtzigerjahren mit Händen und Füßen gegen...

Probleme · 18. Mai 2024
Erst vor wenigen Tagen habe ich über den Exodus wichtiger Führungskräfte bei OpenAI geschrieben, die für die Sicherheit der KI verantwortlich waren. Jetzt hat einer von ihnen, Jan Leike, der Leiter des "Superalignment"-Teams, Klartext gesprochen. Er hat dafür, dass er frei sprechen kann, wahrscheinlich auf seine Anteile an OpenAI verzichten müssen, die viele Millionen Dollar wert sein dürften. Das allein zeigt, wie ernst die Situation ist. Es lohnt sich, den Text seiner Warnung, den er...

Probleme · 15. Mai 2024
Vor einem halben Jahr habe ich über das Führungsdrama bei OpenAI geschrieben. Damals hatte der Aufsichtsrat CEO Sam Altman entlassen, weil das Vertrauensverhältnis mit ihm zerstört war. Wie sich später herausstellte, hatte er anscheinend gegen eines der Mitglieder des Aufsichtsrats intrigiert und dabei den anderen Mitgliedern Lügen über die Meinungen ihrer jeweiligen Kolleg*innen erzählt. Als das aufflog, erschien er als CEO nicht mehr tragbar. Doch der Druck des größten Shareholders...

Probleme · 01. April 2024
Leider kein Aprilscherz: OpenAI-Boss Sam Altman und Microsoft-CEO Satya Nadella haben letzte Woche angekündigt, 100 Milliarden Dollar in ein neues KI-Rechenzentrum zu investieren, das unter dem hochtrabenden Namen "Stargate" 2028 ans Netz gehen soll. Die Trainingskosten für GPT-4 betrugen laut Sam Altman „mehr als 100 Millionen Dollar“. Wenn man berücksichtigt, dass sich die Chip-Technologie weiterentwickelt, könnte das, was in diesem neuen Rechenzentrum ausgebrütet wird, also durchaus...

Grundlagen · 17. März 2024
Ich freue mich, in der aktuellen Ausgabe des Magazins "Technikfolgenabschätzung in Theorie und Praxis" mit einen Interview vertreten zu sein. Ich empfinde es als Auszeichnung, dass meinen Sorgen um die Risiken einer möglicherweise unkontrollierbaren KI in einem so renommierten wissenschaftlichen Magazin Raum gegeben wird. Das Interview ist aus meiner Sicht eine gute Einführung in die existenziellen Risiken der KI und erklärt, warum ich diese Risiken sehr ernst nehme. Es ist auf Deutsch...

Grundlagen · 17. Februar 2024
Im Januar 2021 hat mir OpenAI mit Dall-E einen Schreck eingejagt – eine KI konnte zum ersten Mal halbwegs überzeugende Bilder auf Kommando generieren. Sieht man sich an, was mit der vorgestern von OpenAI präsentierten generativen KI Sora möglich ist, kann man sich kaum vorstellen, dass das gerade mal drei Jahre her ist. Sora kann bis zu einer Minute lange Videos generieren, die auf den ersten Blick nicht als KI-generiert erkennbar sind. Die Bewegungen, das Licht, die Kamerafahrten, alles...

Mehr anzeigen