Deutschland und die EU sind nicht gerade bekannt dafür, einen Mangel an Regeln und Vorschriften zu haben. Die „Regelungswut“ der Behörden wird von der Wirtschaft immer wieder als Standortnachteil
im globalen Wettbewerb beklagt. In den Medien werden angeblich „absurde“ Gesetze zitiert, die allerdings bei näherem Hinsehen nicht ganz so absurd sind. Kaum jemand aber würde wohl die Sinnhaftigkeit der umfangreichen gesetzlichen Regelungen zur Zulassung von Arzneimitteln bezweifeln. Immerhin können die gefährliche
Risiken und Nebenwirkungen haben, wie jeder weiß.
In Bezug auf künstliche Intelligenz und digitale Medien gibt es ein derartiges Zulassungsverfahren nicht. Stattdessen haben wir die Datenschutzgrundverordnung, die aber im Wesentlichen nur
Zustimmungs- und Auskunftsrechte der Nutzer regelt. Damit verschiebt sie die Verantwortung für das, was auf Basis unserer Daten mit uns passiert, ein Stück weit von den Unternehmen auf die
Nutzer. Das ist ein bisschen so, als würde ein Pharmahersteller seinen Kunden die Pillen zusammen mit einer Liste der Inhaltsstoffe in die Hand drücken und sagen: „Entscheidet selbst, ob ihr das
nehmen wollt.“
Die DSGVO regelt insbesondere nicht, was die Unternehmen mit den Daten machen dürfen und welche Entscheidungen sie auf dieser Basis treffen dürfen, sobald der Nutzer der Verarbeitung einmal
zugestimmt hat. Die implizite Grundannahme dabei ist, dass die Verarbeitung und Nutzung dieser Daten im Grunde harmlos ist, aus der Nutzung der auf diesen Daten basierenden Systeme also
anders als bei Medikamenten keine schwerwiegenden Schäden entstehen können. Doch diese Grundannahme darf man getrost in Zweifel ziehen. Automatische Entscheidungssysteme haben weitreichende
„Risiken und Nebenwirkungen“, die allerdings in keiner „Packungsbeilage“ aufgelistet sind.
Soziale Netzwerke begünstigen beispielsweise die „Extremisierung“ von Meinungen und die Verbreitung von Falschinformationen und Verschwörungstheorien. Dies wird durch die selbstlernenden
Empfehlungsalgorithmen getrieben, die Nutzern Inhalte danach vorschlagen, wie wahrscheinlich es ist, dass sie diese „interessant“ finden. Den Wahrheitsgehalt der Inhalte oder etwaige schädliche
Auswirkungen können die Algorithmen nicht berücksichtigen, weil sie den Inhalt nicht verstehen – sie sehen nur die Reaktion anderer Menschen. So erklärt sich, dass zum Beispiel Youtube automatisch immer radikalere und extremere Videos
vorschlägt.
Ein weiteres Problem ist die Verrohung der Kommunikation, die durch die Anonymität sozialer Netzwerke, aber auch durch die beschriebene Radikalisierung vorangetrieben wird. Beides in Kombination
führt zu einer zunehmenden Spaltung der Gesellschaft, wie man am Samstag am Beispiel der „Corona-Demonstration“ in Berlin sehen konnte, aber auch daran, dass die SPD-Vorsitzende Saskia Esken die Teilnehmer als
„Covidioten“ bezeichnete - eine Beleidigung, die ich zwar nachvollziehen kann, die aber nicht hilfreich ist, weil sie die Spaltung nur vertieft und auf Twitter teils noch extremere Reaktionen provozierte.
Auch jenseits von politischer Radikalisierung haben soziale Netzwerke einen fragwürdigen Einfluss auf unser Verhalten. Wie Algorithmwatch feststellt, bevorzugt beispielsweise der
Instagram-Algorithmus Bilder mit nackter Haut, verhält sich also sexistisch und zwingt Contentproduzenten indirekt, sich diesem „Selektionsdruck“ anzupassen und mehr nackte Haut zu zeigen
(Facebook widerspricht, ohne allerdings Belege zu liefern).
Zudem sind soziale Medien – bewusst oder unbewusst – so gestaltet, dass sie Verhaltenssüchte auslösen und fördern. Kleine Belohnungen in Form von Likes oder Rankings und das permanente Gefühl,
etwas zu verpassen, wenn man nicht online ist, führen zu einer ungesunden und übertriebenen Nutzung. Dies kann zu einem sich selbst verstärkenden Kreislauf führen, weil dadurch Kontakte in der
realen Welt vernachlässigt werden und Nutzer in eine immer größere Abhängigkeit von der emotionalen Bestätigung durch soziale Netzwerke geraten.
Doch nicht nur soziale Netzwerke nutzen Algorithmen, die erheblichen gesellschaftlichen Schaden anrichten können. Ein bekanntes Problem ist, dass selbstlernende Systeme implizit Vorurteile entwickeln, wenn sich dies aus den Trainingsdaten ergibt.
Wenn solche Systeme dann unkritisch eingesetzt werden, um Personalentscheidungen zu treffen,
Kredite zu vergeben, über die vorzeitige Entlassung von Straftätern zu entscheiden oder „vorhersagende Polizeiarbeit“ zu leisten, sind Diskriminierung und grobe Ungerechtigkeit die
zwangsläufige Folge.
Das Problem ist nicht, dass solche Ansätze grundsätzlich falsch wären. Prinzipiell können Maschinen in nahezu allen Bereichen bessere Entscheidungen treffen als Menschen. Aber eben nur, wenn sie
gut genug sind und sich an ethische Grundsätze sowie gesetzliche Vorgaben halten. Das jedoch sicherzustellen ist schwierig, weil selbst die Entwickler in aller Regel nicht verstehen, wie
genau selbstlernende Systeme Entscheidungen treffen. Die Forderung nach einer Überwachung durch den Menschen greift
zu kurz, da diese in der Praxis oft schlampig ausgeführt wird oder ganz unterbleibt – Menschen verlassen sich gern auf automatische Systeme und billigen ihnen oft mehr Kompetenz zu, als
gerechtfertigt ist.
Aufgrund der Tragweite der Entscheidungen in den genannten Gebieten wäre es meines Erachtens dringend nötig, die Qualität automatischer Entscheidungssysteme gründlich und vor allem unabhängig zu
bewerten, bevor sie eingesetzt werden. Aber das geschieht kaum. Auch die ethischen Richtlinien, die in vielen Unternehmen formuliert wurden, um Diskriminierung und Fehlverhalten zu verhindern,
erweisen sich in der Regel als zahnlose Tiger.
Ich plädiere hier nicht dafür, die IT-Industrie pauschal denselben strengen Regeln zu unterwerfen wie die Pharmaindustrie. Aber wir brauchen meines Erachtens dringend eine breite Diskussion
darüber, wie die gesellschaftlichen und persönlichen Risiken und Nebenwirkungen moderner Technik früher erkannt und effektiver unterbunden werden können. Dies allein den Anbietern dieser
Technologien zu überlassen, wird nicht funktionieren.
Kommentar schreiben