· 

Sie wissen, wer du bist

Im gestrigen Blogbeitrag habe ich mich mit dem "Value Alignment"-Problem beschäftigt, also mit der Frage, wie wir superintelligente KIs daran hindern können, aus Versehen die Welt zu zerstören. Das klingt vielleicht noch sehr weit weg (obwohl niemand weiß, wie weit).

 

Dass wir bereits heute massive Probleme mit künstlicher Intelligenz haben, kann man an einem vor Kurzem erschienenen Artikel in der New York Times sehen. Heimlich, still und leise hat ein amerikanisches Start-up namens Clearview.ai drei Milliarden Fotos von Facebook, Twitter, Youtube etc. zusammengerafft und stellt diese nun amerikanischen Polizeibehörden zur Verfügung, um darauf Straftäter zu identifizieren. Damit verstößt die Firma gegen die Nutzungsbedingungen der Dienste, von denen die Bilder heruntergeladen wurden, doch das scheint dort niemanden ernsthaft zu stören. Vielleicht auch deshalb nicht, weil einer der Investoren von Clearview der Milliardär Peter Thiel ist, zufällig auch Facebook-Anteilseigner und -Aufsichtsrat sowie Investor der Firma Palantir, einem wichtigen Softwarelieferanten für Geheimdienste.

 

Professor Al Gidari von der Stanford Law School meint dazu: "Es ist gruselig, was die da machen, aber es gibt sicher noch viele andere solcher Firmen. Es gibt nun mal kein Monopol auf Mathematik. Ohne ein sehr starkes Datenschutzgesetz sind wir aufgeschmissen."

 

Genau das ist eines der fundamentalen Probleme der KI: Anders als Atomwaffen oder Biotechnologie braucht man keine komplizierten Labore dafür. Jeder halbwegs kompetente Entwickler kann einen Webcrawler schreiben, der automatisch öffentlich zugängliche Bilder von Websites herunterlädt, und Algorithmen für Gesichtserkennnung sind frei verfügbar. Damit ist prinzipiell jeder auf Fotos identifizierbar. Man muss nicht einmal selbst in den sozialen Medien aktiv sein, es reicht schon, wenn andere Fotos posten, auf denen man irgendwie erkennbar ist. Beispielsweise wurde mit Clearview ein Verdächtiger identifiziert, der auf einem Foto einer anderen Person in einem Fitnessstudio im Hintergrund in einem Spiegel zu sehen war.

 

Besonders gruselig finde ich folgende Stelle in dem Bericht: Als der Journalist Kashmir Hill den Artikel für die New York Times recherchierte und mehrere Polizisten bat, ein Foto von ihm über Clearview zu identifizieren, wurden die Polizeibehörden kurz darauf von Vertretern der Firma kontaktiert, die wissen wollten, "ob man mit den Medien rede". Nicht nur die Polizei hat also Zugriff auf die hochgeladenen Fotos laufender Ermittlungen, sondern auch die Mitarbeiter der Firma (und wer weiß wer sonst noch).

 

Natürlich ist es gut, wenn gefährliche Straftäter identifiziert und verfolgt werden können. Doch die Missbrauchsgefahr ist immens, denn Clearview verleiht denjenigen, die darauf Zugriff haben, eine beängstigende Macht und schafft so eine gefährliche Ungleichheit. Im Artikel wird z.B. das Szenario beschrieben, dass ein auf Abwege geratener Polizist die Software nutzen könnte, um eine hübsche Frau zu identifizieren, deren Schnappschuss er in der U-Bahn gemacht hat, und sie dann zu stalken. Ebenso können z.B. Teilnehmer von Demos identifiziert werden. Dass Clearview-Investor Thiel ein bekennender Trump-Anhänger ist, lässt da Schlimmes befürchten. Thiel ist übrigens auch der Ansicht, dass Freiheit und Demokratie unvereinbar wären. Wenn jemand wie er die erste starke KI finanziert, dann gute Nacht!

 

Die Zeit, in der wir sicher anonym bleiben konnten, ist vorbei und wird auch nicht wiederkommen. Irgendwer weiß immer, wer du bist.

 

Edit 22.1.: In der ursprünglichen Version dieses Artikels habe ich geschrieben, die App verstieße auch gegen europäisches Datenschutzrecht. Dass diese Behauptung leider nicht auf Tatsachen basierte, zeigt ein entsprechender Artikel auf netzpolitik.org. Das zeigt, dass "gefühlter" Schutz nicht dasselbe ist wie realer Schutz.


Kommentar schreiben

Kommentare: 0