Ressourcen

Eine unvollständige Übersicht hilfreicher Materialien und Online-Ressourcen, die ich nutze.

Websites und Blogs

Lesswrong ist ein offenes Diskussionsforum in englischer Sprache, das sich mit Rationalität und philosophischen sowie mathematischen Problemen beschäftigt. Das auf die Probleme starker KI spezialisierte AI Alignment Forum ist auf der Lesswrong-Plattform aufgesetzt.


Das Center for Human-Compatible Artificial Intelligence an der University of California in Berkeley wurde u.a. von Stuart Russell gegründet, um die Grundlagen für die Entwicklung gutartiger starker KI zu legen.


Das Machine Intelligence Research Institute wurde explizit mit dem Ziel gegründet, das schwierige "Wertgleichheits-Problem" starker KI zu lösen. Dabei konzentriert man sich weniger auf technische als auf fundamentale, mathematische Ansätze.


Gegründet u.a. von MIT-Professor Max Tegmark und unterstützt unter anderem von Elon Musk, beschäftigt sich das Future of Life-Institute mit existenziellen Fragen der Menschheit, wie starker KI, Klimawandel und der Gefahr eines nuklearen Holocausts. Die Beiträge sind allgemeinverständlich, aber auf Englisch.


Die gemeinnützige OpenAI-Initiative wurde unter anderem von Elon Musk und Microsoft gegründet und beschäftigt sich ebenfalls mit der Weiterentwicklung von KI und der Frage, wie diese dauerhaft zum Wohl der Menschheit genutzt werden kann.


Die deutsche gemeinnützige Organisation Algorithmwatch beobachtet und analysiert kritisch den Einsatz von Algorithmen, die bereits heute immer mehr unser Leben bestimmen und massiv in die gesellschaftliche Ordnung eingreifen.


Die gemeinnützige Stiftung Neue Verantwortung beschäftigt sich mit den Auswirkungen der Digitalisierung auf die Gesellschaft.


Das Forum soziale Technikgestaltung im DGB Baden-Württemberg betreibt das Blog Zukunft der Arbeit, in dem u.a. die Auswirkungen von KI auf das Arbeitsumfeld betrachtet werden.


Rohin Shah arbeitet unter Stuart Russell am CHAI und gibt den lesenswerten "Alignment Newsletter" heraus, der jeweils aktuelle Diskussionspunkte zum Thema Sicherheit starker KI aufgreift und kommentiert.


Bücher

Stuart Russell, Professor an der Universität of California in Berkeley und einer der Gründer des CHAI, dürfte der bedeutendste Wissenschaftler in Bezug auf Sicherheitsprobleme mit KI sein. Obwohl ich seine "3 Prinzipien für gutartige KI" in einem Blogbeitrag kritisiere, ist sein Buch Human Compatible Pflichtlektüre für jeden, der sich ernsthaft mit den Risiken von KI auseinandersetzen möchte. Leider aktuell nur auf Englisch erhältlich.


Max Tegmark ist Professor für Physik am renommierten MIT und Mitbegründer des Future of Life Institute, das sich mit existenziellen Problemen der Menschheit beschäftigt. In seinem Buch "Our Mahtematical Universe" (Unser mathematisches Universum) hat er mich mit der These fasziniert, dass zwischen dem physischen Universum und seiner mathematischen Beschreibung in Wahrheit gar kein Unterschied besteht, wir also de facto "Mathematik" sind. In "Leben 3.0" beschreibt er die Chancen und Risiken einer Zukunft, in der superintelligente KIs auf die eine oder andere Art unser Schicksal bestimmen. Er entwirft verschiedene Szenarien, die mal mehr, mal weniger gruselig, aber alle erschreckend plausibel sind.


Nick Bostrom ist Wissenschaftsphilosoph und Leiter des Future of Humanity Institute der Universität Oxford. In seinem Buch "Superintelligenz" legt er überzeugend dar, wie komplex und schwierig das "Value Alignment-Problem" ist, also der Versuch, eine uns in jeder Hinsicht überlegene KI dazu zu bringen, das zu tun, was wir wollen (bzw. wollen sollten). Anhand seines bekannten Beispiels des Büroklammeroptimierers illustriert er, was passieren kann, wenn wir das nicht rechtzeitig hinbekommen. Bostrom hat mich außerdem mit seinem "Simulationsargument" und kürzlich mit der "Verletzliche Welt-Hypothese" nachdenklich gemacht.