· 

KI-Regulierung: Deutschland stürmt aufs eigene Tor

Es ist kein Geheimnis, dass europäische KI-Firmen insbesondere den US-amerikanischen Konkurrenten weit hinterherhinken. Man sollte meinen, dass von ihnen daher auch keine große Gefahr für unsere Zukunft ausgeht. Doch das ist leider ein Trugschluss, denn der deutsche KI-Hoffnungsträger Aleph Alpha und sein französischer Konkurrent Mistral versuchen gerade mit Unterstützung unserer Politiker, den geplanten AI Act der EU aufzuweichen und damit die potenziell wichtigste KI-Regulierung der Welt zum zahnlosen Tiger zu machen. So kam es vor einer Woche in einem wichtigen Ausschuss zu einer Blockade des aktuellen Entwurfs, die wohl vor allem auf das intensive Lobbying dieser beiden Firmen zurückgeht.

 

Konkret geht es um so genannte Foundation Models – Grundlagen-KI-Modelle, auf deren Basis konkrete Anwendungen entwickelt werden können. Dazu zählen auch große Sprachmodelle wie OpenAIs GPT-4, Googles PaLM und Metas Llama. Das Lobbying der KI-Firmen – nicht nur der europäischen – zielt darauf ab, diese Foundation Models von der Regulierung auszunehmen und nur die konkreten Anwendungen solcher Modelle zu regulieren. De facto würden dann Firmen wie Aleph Alpha und Mistral, die ebenfalls Foundation Models entwickeln, aber auch OpenAI etc. gar nicht reguliert, nur ihre Kunden und Anwender müssten sich noch an den AI Act halten.

 

Das ist aus KI-Risiko-Sicht eine außerordentlich dumme Idee. Denn die Risiken liegen größtenteils in der hoch komplexen Struktur der neuronalen Netze der Foundation Models. Beispielsweise ist bekannt, dass man mit ein paar cleveren Tricks ChatGPT dazu bringen kann, einem Tipps zum Bombenbau oder zum Betrug alter Damen zu geben. Foundation Models können auch dabei helfen, tödliche Viren und Gifte zu entwickeln, IT-Systeme zu hacken oder überzeugende Fake News zu generieren. Zukünftige Modelle könnten gar unkontrollierbar werden. Diese Risiken kann ein Unternehmen, das z.B. ChatGPT in einer Anwendung oder in den internen Prozessen einsetzt, nicht eindämmen – das kann nur OpenAI. Wenn nun ausgerechnet der Hersteller, in dessen System solche Gefahren verborgen sind, von der EU-Regulierung ausgenommen wird, ist sie praktisch wirkungslos.

 

Das Gegenargument von Aleph Alpha, die gerade mit einer für deutsche Verhältnisse riesigen Investitionssumme von 500 Millionen Euro ausgestattet wurden (das sind gerade mal 5% des Geldes, das OpenAI dieses Jahr von Microsoft bekommen hat), lautet, dass durch eine zu restriktive Regulierung die gerade erwachende europäische KI-Landschaft im Keim erstickt würde. Doch genau das Gegenteil ist – nicht nur aus meiner Sicht – der Fall.

 

Der EU AI Act soll KI-Anwendungen innerhalb der EU regeln. Man könnte also denken, dass europäische Unternehmen stärker davon betroffen wären als z.B. amerikanische. Doch aufgrund des so genannten „Brüssel-Effekts“ wirken europäische Regelungen, etwa zum Datenschutz, weit über die EU hinaus. Europa ist ein zu wichtiger Markt, als dass amerikanische, chinesische und andere Unternehmen ihn einfach ignorieren könnten. In der Regel lohnt es sich aber nicht, zwei verschiedene Versionen einer Software zu entwickeln – eine für die strengeren Regeln der EU und eine für die weniger strengen außerhalb. Deshalb werden die EU-Regeln oft für Anwendungen auf der ganzen Welt adaptiert, die EU hat hier also eine prägende Vorreiterrolle.

 

Zwar kommt es vor, dass außereuropäische Unternehmen wie zuletzt mutmaßlich Twitter aka X hin und wieder damit drohen, sich aus dem europäischen Markt zurückzuziehen, weil die Regulierungen hier zu strikt seien. Doch meist passiert das nicht, und wenn, dann ist es eher zum Vorteil der europäischen Verbraucher. Außerdem würde ein solcher Rückzug aus Europa die Wettbewerbsposition der europäischen Unternehmen nicht verschlechtern, sondern eher verbessern - sie hätten dann innerhalb Europas einen Konkurrenten weniger und außerhalb Europas gegenüber diesem Konkurrenten zumindest ein gutes Verkaufsargument, da sie sich an strengere Sicherheits- und Datenschutzrichtlinien halten.

 

Wenn der EU AI Act Foundation Models ausklammerte, würde das bedeuten, dass z.B. OpenAI sich nicht an die Europäischen Sicherheitsnormen halten müsste. An dem Vorsprung der Firma gegenüber europäischen Wettbewerbern wie Aleph Alpha würde das natürlich nichts ändern. Es würde aber die Verantwortung für die Sicherheit auf die Kunden von OpenAI & Co. übertragen, die diese kaum bzw. überhaupt nicht garantieren können. Dies würde gerade europäische Unternehmen viel härter treffen als nichteuropäische.

 

Würde der EU AI Act jedoch wie geplant auch Foundation Models regulieren, müssten sich OpenAI & Co. überlegen, wie sie ihre zukünftigen Modelle so sicher machen, dass sie den EU-Richtlinien entsprechen, denn es würde sich nicht lohnen, mit enormem Rechenaufwand zwei verschiedene Foundation Models zu trainieren. Die EU-Regulierung wäre also für die ganze Welt ein wichtiger Schritt, weshalb sie auch außerhalb Europas sehr aufmerksam verfolgt wird.

 

Der EU AI Act ist somit eine große und wahrscheinlich einmalige Chance für Europa, trotz unseres technischen Rückstands der zukünftigen KI einen europäischen Stempel aufzudrücken und sie insgesamt sicherer zu machen. Wir sind jedoch gerade in falsch verstandenem nationalem Egoismus dabei, diese Chance zu verpassen und damit aus einer KI-Risikobetrachtung und auch aus wirtschaftspolitischer Sicht ein gigantisches Eigentor zu schießen.

 

Update 23.11.: Ich habe einen offenen Brief von Euractiv unterschrieben, in dem gefordert wird, die von Spanien vorgeschlagene Regulierung beizubehalten. Das Führungschaos der letzten Tage bei OpenAI macht umso deutlicher, wie dringend die Regulierung gerade auch der Foundation Models ist.


Kommentar schreiben

Kommentare: 3
  • #1

    Mischa (Samstag, 18 November 2023 14:51)

    Hallo Karl,
    es ist schon bedenklich, dass sich so oft kurzfristige Wirtschaftsinteressen durchsetzen, obwohl viele Experten eindeutig vor den Folgen warnen.
    Von der Zulassung umstrittener Pestizide, über Konzepte zur nachhaltigen Transformation bis hin zur Regulierung der KI-Entwicklung, scheinen die demokratischen Entscheidungsmechanismen leicht manipulierbar.
    Da wünscht man sich manchmal eine starke KI, die über alle gierigen, egoistischen Menschen richtet und sie für ihre Verfehlungen büßen lässt...
    VG Mischa

  • #2

    Mischa (Samstag, 18 November 2023 14:53)

    Sollte eigentlich nur ein Kommentar werden! ;-)

  • #3

    Karl Olsberg (Sonntag, 19 November 2023 09:51)

    @Mischa: Dein Kommentar "es ist schon bedenklich, dass sich so oft kurzfristige Wirtschaftsinteressen durchsetzen, obwohl viele Experten eindeutig vor den Folgen warnen." war geradezu prophetisch. Offenbar gab es bei OpenAI einen heftigen Streit zwischen Ilya Sutskever und Sam Altman über die Ausrichtung des Unternehmens, der zu Altmans unerwarteter Entlassung führte. Dem Vernehmen nach ging es Sutskever, der sich um die KI-Sicherheit sorgt, viel zu schnell mit der Vermarktung der OpenAI-Technologie. Doch wie es aktuell aussieht, machen die Investoren Druck, dass Altman als CEO zurückkehrt. Das wäre ein schwerer Schlag für die KI-Sicherheit in dem einzigen KI-Unternehmen, das zumindest in Teilen eine gemeinnützige Struktur hat. So oder so ein alarmierendes Signal.