Spätestens seit dem Aufruf des Centers for AI Safety im letzten Jahr sind die existenziellen Risiken der KI Gesprächsthema in der internationalen Politik. Der britische Premierminister Rishi Sunak organisierte dazu letztes Jahr eine Konferenz in London. Auch Kamala Harris, die wahrscheinliche Präsidentschaftskandidatin der US-Demokraten, hat ihre Besorgnis zum Ausdruck gebracht, KI könne eine existenzielle Bedrohung für die Menschheit sein.
Man sollte meinen, dass zumindest auch einige Politiker hierzulande das Thema ernstnehmen. Aber bisher war aus dem Bundestag nichts dazu zu hören. Deshalb habe ich vor vier Wochen über die Plattform Abgeordnetenwatch eine Frage an Kai Gehring, den Vorsitzenden des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung, gestellt.
Meine Frage lautete:
"Sollten sich der Deutsche Bundestag und insbesondere der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung zeitnah mit den existenziellen Risiken künstlicher Intelligenz beschäftigen?
Im Mai 2023 haben mehr als 200 renommierte KI-Forscher, darunter die Turing-Preisträger Geoffrey Hinton und Yoshua Bengio, einen Aufruf des Centers for AI Safety unterzeichnet, demzufolge die
existenziellen Risiken der KI ebenso ernst genommen werden müssen wie die eines Atomkriegs oder einer globalen Pandemie (https://www.safe.ai/work/statement-on-ai-risk).
Soweit mir bekannt ist, waren die existenziellen Risiken der KI bisher noch nicht Thema im Deutschen Bundestag. Dabei hätte eine womöglich unkontrollierbare KI extreme Auswirkungen bis hin zur
vollständigen Auslöschung der Menschheit. Angesichts der rasanten technischen Entwicklung könnte eine solche Situation nach Meinung von Yoshua Bengio, dem meistzitierten KI-Forscher der Welt, und
anderer Experten bereits innerhalb dieses Jahrzehnts eintreten (https://yoshuabengio.org/2023/06/24/faq-on-catastrophic-ai-risks/).
Ich wäre Ihnen sehr dankbar für eine kurze Einschätzung hierzu."
Gestern kam Kai Gehrings Antwort (Hervorhebung in fetter Schrift durch mich):
"Die Chancen und von Risiken von KI diskutieren wir auch im Deutschen Bundestag intensiv und kontrovers auf allen Ebenen. Dem folgen zahlreiche Maßnahmen, wie Sie an den nachfolgenden Beispielen
exemplarisch sehen können:
Bis 2025 investieren wir mehr als 1,6 Milliarden Euro in die KI-Forschung. Dazu gehören u.a. 150 zusätzliche KI-Professuren.
Zuletzt fand am 15. Mai 2024 eine öffentliche Anhörung zum Thema KI in unserem Ausschuss für Bildung, Forschung und Technikfolgenabschätzung statt.
Am 19. April 2024 hat die Grüne Bundestagsfraktion eine eigene KI-Konferenz veranstaltet, die sich dem Thema in umfassender Weise gewidmet hat. Dazu zählte der Austausch mit zahlreichen
Stakeholder*innen aus Forschung, Politik und Wirtschaft. Ich selbst habe auch daran teilgenommen.
Im Oktober 2023 widmete sich die Konferenz des europäischen Netzwerks parlamentarischer Einrichtungen zur Technikfolgenabschätzung (EPTA) explizit den Herausforderungen, die sich durch generative
KI für politische Entscheidungsträger, Zivilgesellschaft und Regulierungsbehörden ergeben. Von deutscher Seite nahmen hieran sowohl unsere Büro für Technikfolgen-Abschätzung, mehrere Abgeordnete
sowie ich selbst teil.
Als Ausschuss für Bildung, Forschung und Technikfolgenabschätzung haben wir bereits im Februar 2023 ein Gutachten über ChatGPT und andere KI-gestützte Sprachmodelle in Auftrag gegeben und dazu
einer Sachverständigen-Anhörung abgehalten.
Schon in der letzten Wahlperiode haben wir uns als Bundestag in der Enquete-Kommission „Künstliche Intelligenz“ mit den Herausforderungen von KI auseinandergesetzt und weiterführende
Forschungsfragen adressiert.
Wie Sie an dieser ersten Übersicht bereits ablesen können, ist KI eines der Themen, das so breit und kontrovers diskutiert wird, wie vermutlich nur wenige andere im Deutschen Bundestag.
Aus den bisherigen Erfahrungen ziehe ich selbst den Rückschluss, dass wir uns weniger vor KI, sondern vielmehr vor Menschen fürchten sollten, die diese Technik
missbrauchen.
Unsere Haltung bei KI-Systemen muss daher sein, Neutralität und Transparenz sicherzustellen. Wir müssen dafür Sorge tragen, dass KI muss mit unseren Menschen-, Grund- und Freiheitsrechten im
Einklang steht."
Leider geht Gehring gar nicht wirklich auf meine Frage ein. Stattdessen berichtet er ausführlich darüber, dass Chancen und Risiken der KI im Allgemeinen schon häufig Thema im Bundestag und
darüber hinaus waren. Die existenziellen Risiken der KI erwähnt er jedoch nicht.
Nur der von mir fett markierte Satz lässt erkennen, dass er meine Frage verstanden hat. Demnach hält er das existenzielle Risiko der KI allerdings im Vergleich zum Missbrauchsrisiko für weitaus geringer.
Das ist beim heutigen Stand der Technik nachvollziehbar. Allerdings hatte ich ja explizit nach dem Risiko einer zukünftigen, potenziell unkontrollierbaren KI gefragt. Darüber macht man sich im für Technikfolgenabschätzung zuständigen Bundestagsausschuss offensichtlich aktuell keine Gedanken.
Das ist schade, aber nicht wirklich überraschend. Immerhin weiß ich jetzt, wie die Sicht des Vorsitzenden dieses Ausschusses ist, und bin ihm insofern dankbar für seine Antwort. Vielleicht hat ihn meine Frage ja doch ein wenig zum Nachdenken gebracht. Immerhin deutet er an, dass sich seine Einschätzung auf die "bisherigen Erfahrungen" bezieht und sich somit vielleicht noch ändern könnte.
Ich sehe Kai Gehrings Antwort als einen möglichen Anknüpfungspunkt für einen weiteren Dialog, wobei noch unklar ist, ob und ggf. wie ich diesen führen kann.
Kommentar schreiben
Mischa (Freitag, 26 Juli 2024 17:37)
Hallo Karl,
der politische Wille, etwas wie KI stark zu regulieren ist momentan ein Risiko, da populistische und waghalsige Akteure jegliche gesetzliche Regulierung angreifen und aufweichen werden. Die Ausnahmen beim AI Act sind hier wohl das beste Beispiel. Wenn es also auf europäischer Ebene nicht gelingt, US-Firmen wie OpenAI zu bremsen, dann ist der Einfluss auf China kaum der Rede wert.
Ob Klimadiktatur, Impfdiktatur oder alle anderen Arten von rigorosen Vorgaben sind in unserer modernen Welt, in der kurzfristiger Profit der wichtigste Faktor bei Entscheidungen ist, nur schwer umsetzbar.
Karl Olsberg (Freitag, 26 Juli 2024 19:02)
@Mischa: Das Aufweichen von Regulierungen scheint mir momentan nicht aus einer bestimmen politischen Richtung zu kommen, sondern von den Lobbyisten der KI-Firmen getrieben zu sein. Interessanterweise ist z.B. in den USA die Zahl der Menschen, die die eine stärkere Regelung von KI unterstützen, bei Republikanern und Demokraten ungefähr gleich groß (und eine deutliche Mehrheit). Ich hoffe, dass das so bleibt und wir einen Konsens erreichen können, der unabhängig von sonstigen politischen Vorstellungen ist.
Heinrich (Samstag, 27 Juli 2024 20:21)
Wenn wir Glück haben, legen CrowdStrike und andere Updatefehler unsere Infrastruktur weltweit lahm, bevor eine KI das machen kann. ;)
Karl,
noch eine ernsthafte Frage. Hätte es wohl Zweck, Kai Gehring darauf hinzuweisen, dass er den wesentlichen Punkt seiner Antwort ausgelassen hat?
Vermutlich nicht. Selbst wenn er ehrlich antworten würde, dass es niemanden im Bundestag interessiert, welche Risiken "irgendwann" mal schwerwiegende Konsequenzen haben werden, ändert es nichts.
Ich vermute, so weit will niemand denken. Auch andere, mögliche Katastrophen für die Menschheit werden ja erfolgreich verdrängt.
Unsere Bundestagsabgeordneten haben ja einen harten Arbeitstag und viel um die Ohren. Sind ja keine Computer. Die Vielfalt der Probleme, um die sie sich kümmern müssen ist gewaltig. Da sind mögliche Katastrophen für die Menschheit nur ein winziger Ausschnitt. Befragt der Abgeordnete Gemini, bekommt er folgende Antwort:
####
Die Menschheit steht vor einer Vielzahl von potenziellen Katastrophen, die sowohl natürlichen als auch menschlichen Ursprungs sein können. Hier sind einige der am häufigsten diskutierten Szenarien:
Naturkatastrophen
Klimawandel: Erhöhte Temperaturen, extreme Wetterereignisse wie Dürren, Überschwemmungen und Stürme, sowie der Anstieg des Meeresspiegels bedrohen Lebensgrundlagen und können zu Massenmigrationen führen.
Pandemien: Ähnlich wie COVID-19 könnten neue, hochansteckende Krankheiten entstehen und sich weltweit ausbreiten.
Naturkatastrophen wie Erdbeben, Vulkanausbrüche und Tsunamis: Diese Ereignisse können in bestimmten Regionen erhebliche Schäden verursachen und zu großen Verlusten an Menschenleben führen.
Asteroideneinschläge: Obwohl selten, könnten große Asteroiden bei einem Einschlag auf der Erde globale Auswirkungen haben.
Menschgemachte Katastrophen
Kernkraftwerksunfälle: Ein schwerer Unfall in einem Kernkraftwerk könnte zu einer großflächigen radioaktiven Kontamination führen.
Biologische oder chemische Waffen: Der Einsatz solcher Waffen könnte zu Massenopfern und langfristigen Umweltschäden führen.
Cyberangriffe: Große Cyberangriffe könnten kritische Infrastrukturen wie Stromnetze, Finanzsysteme oder Kommunikationssysteme lahmlegen.
Künstliche Intelligenz: Eine unkontrollierte Entwicklung von KI könnte zu unvorhergesehenen Folgen führen, beispielsweise wenn KI-Systeme eigenständig Entscheidungen treffen, die für Menschen gefährlich sind.
Soziale und politische Instabilität: Konflikte, Kriege und politische Unruhen können zu humanitären Katastrophen führen und die globale Stabilität gefährden.
Existenzielle Risiken
Künstliche Intelligenz: Wie bereits erwähnt, könnte eine superintelligente KI, die ihre eigenen Ziele verfolgt, eine Bedrohung für die Menschheit darstellen.
Nanotechnologie: Selbstreplizierende Nanobots könnten sich unkontrolliert vermehren und die Umwelt oder sogar Lebewesen schädigen.
Biotechnologie: Die Entwicklung von gefährlichen Pathogenen oder die gezielte Veränderung von Ökosystemen könnte unvorhersehbare Folgen haben.
Es ist wichtig zu betonen, dass nicht alle dieser Szenarien gleich wahrscheinlich sind. Die Wahrscheinlichkeit und die möglichen Auswirkungen hängen von einer Vielzahl von Faktoren ab, die sich ständig ändern.
Was können wir tun?
Die Vorbereitung auf mögliche Katastrophen ist von entscheidender Bedeutung. Dazu gehören:
Forschung und Entwicklung: Investitionen in Forschung zur Früherkennung und Bewältigung von Risiken.
Internationale Zusammenarbeit: Gemeinsame Anstrengungen zur Bekämpfung globaler Herausforderungen wie dem Klimawandel.
Risikomanagement: Entwicklung von Frühwarnsystemen und Notfallplänen.
Bildung und Bewusstsein: Die Bevölkerung über mögliche Risiken aufzuklären und zu befähigen, sich angemessen darauf vorzubereiten.
#####
So einfach ist das!
Und die Aufklärung der Bevölkerung haben sie nun Dir überlassen. Nun fehlt nur noch die angemessene Vorbereitung.
Karl Olsberg (Sonntag, 28 Juli 2024 09:22)
@Heinrich: Danke für den langen und guten Kommentar!
"Hätte es wohl Zweck, Kai Gehring darauf hinzuweisen, dass er den wesentlichen Punkt seiner Antwort ausgelassen hat?" Ich denke, das ist ihm bewusst, wie der fettgedruckte Satz andeutet. Der Zweck meiner Frage war auch weniger, eine zufriedenstellende Antwort zu bekommen, als Kai Gehring die Frage bzw. das Thema ins Bewusstsein zu bringen. Ob das viel gebracht hat, ist fraglich, aber es war einen Versuch wert.
Heinrich (Montag, 29 Juli 2024 23:08)
Es gibt eventuell eine kleine Chance, dass KI-Risiken etwas ernster genommen werden.
Durch "KI-Unfälle" noch bevor eine unkontrollierbare Superintelligenz gebaut wird.
Ich stelle mir folgende Szenarien vor:
Amazon hat die meisten Mitarbeiter und Mitarbeiterinnen im Kundendienst und der Logistik durch KIs ersetzt. Eines Tages bekommen alle Kunden ein falsches Paket. (Ist mir schon passiert, dass statt Tesafilm in meinem Amazon-Locker-Fach ein Handy lag.) Die KI räumt die Amazonlager leer und verschickt alles an Kunden, die irgendwann mal etwas bestellt haben.
Die KI des Finanzamtes erstattet sämtliche Steuerbeträge statt sie einzuziehen.
Sämtliche Verkehrsampeln werden auf ROT gestellt.
Kreuzfahrtschiffe navigieren bei Ebbe ins Wattenmeer.
Naja, ich könnte mir noch etwas peinlichere KI Unfälle ausmalen, will es aber nicht übertreiben.
Immerhin hat Deutschland auf Kernkraftunfälle reagiert.
Aber auch hier sagt man, was nützt es, wenn die Nachbarn und der Rest der Welt nicht mitmachen. ;)