Probleme · 30. Dezember 2024
Wie erwartet hat das Jahr 2024 eine Menge neue Entwicklungen in der KI gebracht. AlphaProof gewann eine Silbermedaille bei der Mathe-Olympiade und hat in meinen Augen gezeigt, dass wir auch ohne eine allgemeine KI, die in jeder Hinsicht so intelligent ist wie ein Mensch, ein gigantisches Potenzial ausschöpfen können – und zwar ohne, dass wir dabei riskieren, die Kontrolle über unsere Zukunft zu verlieren. Anthropics ChatGPT-Konkurrent „Claude“ hat mit seiner verblüffend emotionalen...

Probleme · 25. Oktober 2024
Eine Geschichte über KI und Macht für den "Superintelligence Imagined"-Wettbewerb des Future of Life Institutes

Probleme · 16. September 2024
Gerade hier in Deutschland wird immer wieder behauptet, die Warnungen vor den existenziellen Risiken der KI seien „bloß Hype“, um die Börsenkurse der KI-Firmen noch höher zu treiben, die Mahner werden sogar als „nützliche Idioten“ der KI-Industrie bezeichnet. Es ist verständlich, dass man Menschen wie Elon Musk oder Sam Altman misstraut, wenn sie vor den Gefahren der KI warnen, denn sie haben es schon öfter mit der Wahrheit nicht so genau genommen und tun oft das Gegenteil dessen,...

Lösungsideen · 11. August 2024
In diesem Blog geht es um die Risiken der KI, insbesondere das existenzielle Risiko einer unkontrollierbaren KI. Aber das bedeutet nicht, dass ich generell gegen KI wäre. Im Gegenteil sehe ich in KI große Chancen, seit ich mich in den Achtzigerjahren zum ersten Mal damit beschäftigt und darüber promoviert habe. Ich habe u.a. den ersten kommerziellen Chatbot in deutscher Sprache mitentwickelt und 1999 ein Start-up für Chatbot-Software gegründet, das u.a. mit dem "E-Conomy-Award" der...

Probleme · 24. Juli 2024
Spätestens seit dem Aufruf des Centers for AI Safety im letzten Jahr sind die existenziellen Risiken der KI Gesprächsthema in der internationalen Politik. Der britische Premierminister Rishi Sunak organisierte dazu letztes Jahr eine Konferenz in London. Auch Kamala Harris, die wahrscheinliche Präsidentschaftskandidatin der US-Demokraten, hat ihre Besorgnis zum Ausdruck gebracht, KI könne eine existenzielle Bedrohung für die Menschheit sein. Man sollte meinen, dass zumindest auch einige...

Probleme · 07. Juli 2024
Unkontrollierbare KI stellt ein ernstzunehmendes existenzielles Risiko dar. Der beste Weg, um es einzudämmen, ist es, eine potenziell unkontrollierbare KI gar nicht erst zu entwickeln. Doch dazu brauchen wir ein allgemeines Verständnis und breites Einvernehmen über die Gefahren. Leider sind wir davon derzeit weit entfernt. Gerade in Deutschland wird das existenzielle Risiko der KI immer noch kaum ernstgenommen, obwohl wir davon genauso betroffen sind wie der Rest der Welt. Häufig werden...

Probleme · 02. Juni 2024
In einem neuen Video lese ich Auszüge aus einem Blogbeitrag vor, in dem der international führende KI-Forscher Yoshua Bengio beschreibt, wie sich seine Einstellung zu den existenziellen Risiken der KI geändert hat. Jedem, der Warnungen vor diesen Risiken als "Hype" oder "Panikmache" abtut, kann ich nur empfehlen, seinen Beitrag zu lesen. Hier meine Übersetzung des vollständigen Textes.

Grundlagen · 21. Mai 2024
Dass Jan Leike OpenAI verlassen hat und so offen über die mangelnde Priorisierung der KI-Sicherheit beim Entwickler von ChatGPT berichtete, ist erschreckend. Aber was genau hat er dort eigentlich gemacht, und wieso braucht man überhaupt ein „Superalignment“-Team? Jede Technologie hat zwei Seiten: Sie bietet Chancen und Risiken. Autos zum Beispiel bringen uns Mobilität, bergen aber auch die Gefahr von Unfällen und tragen zum Klimawandel bei. KI ist eine sehr mächtige und universelle...

Lösungsideen · 20. Mai 2024
Die klaren Worte des ehemaligen Leiters der KI-Sicherheit bei OpenAI, Jan Leike, haben eines sehr deutlich gemacht: Wir können uns nicht darauf verlassen, dass OpenAI und andere von selbst dafür sorgen, dass ihre Produkte sicher sind. Das ist nicht sonderlich überraschend, denn in anderen Industrien ist es ja ähnlich. So betreibt die Ölindustrie weiterhin massives Lobbying gegen Umweltschutzauflagen und die Automobilindustrie hat sich in den Achtzigerjahren mit Händen und Füßen gegen...

Probleme · 18. Mai 2024
Erst vor wenigen Tagen habe ich über den Exodus wichtiger Führungskräfte bei OpenAI geschrieben, die für die Sicherheit der KI verantwortlich waren. Jetzt hat einer von ihnen, Jan Leike, der Leiter des "Superalignment"-Teams, Klartext gesprochen. Er hat dafür, dass er frei sprechen kann, wahrscheinlich auf seine Anteile an OpenAI verzichten müssen, die viele Millionen Dollar wert sein dürften. Das allein zeigt, wie ernst die Situation ist. Es lohnt sich, den Text seiner Warnung, den er...

Mehr anzeigen