Stellen wir uns vor, wir empfingen eines Tages eine mysteriöse Botschaft von einem fremden Stern, die in hundertfünfzig menschlichen Sprachen nur die Worte „Wir kommen!“ enthält. Wir wüssten, dass die Botschaft von Außerirdischen stammen muss, die uns haushoch überlegen sind, weil sie erstens offenbar interstellare Raumschiffe haben und zweitens unsere Sprachen beherrschen, während wir nicht einmal wussten, dass es sie gibt. Wir wüssten jedoch nicht, wann diese Aliens die Erde erreichen, weil wir die Geschwindigkeit ihrer Raumschiffe nicht kennen, und manche würden vielleicht bezweifeln, dass sie überhaupt jemals eintreffen werden.
Sollten wir einfach herumsitzen und abwarten, bis es so weit ist? Sollten wir hoffen, dass alles gut geht, weil die Aliens intelligenter sind als wir und deshalb automatisch nett zu uns sein werden? Oder sollten wir uns auf diese Begegnung von womöglich existenzieller Tragweite so gut wie möglich vorbereiten und sicherheitshalber davon ausgehen, dass sie uns vielleicht nicht freundlich gesinnt sind?
Ein Grund dafür, dass viele die Gefahren künstlicher Intelligenz nicht ernst genug nehmen, ist der permanente Vergleich mit uns selbst als absolutem Maßstab für Intelligenz. Das geht schon mit dem Begriff KI los – würde man es „Automatisierung komplexer Entscheidungen“ nennen, klänge es weniger spektakulär, aber es wäre auch sofort klar, dass diese Automatisierung nicht zwingend nach dem Vorbild des menschlichen Gehirns erfolgen muss. Schließlich haben Autos auch keine Beine und Flugzeuge keine Federn.
Stattdessen jedoch diskutieren wir darüber, wann Computer eine „mit dem Menschen vergleichbare“ Intelligenz erreichen, und verschieben diesen Zeitpunkt mit Verweis auf die enorme Komplexität des menschlichen Gehirns, das wir nicht einmal ansatzweise verstehen, immer wieder in die ferne Zukunft. Die Einwände mancher Philosophen und Neurologen gegen die Idee, dass auch Maschinen ein „Bewusstsein“ haben können, basieren ebenfalls auf dieser anthropozentrischen Sichtweise: „Aber nein, Maschinen werden niemals so denken wie ein Mensch!“
Zumindest eine Teilschuld an diesem Missverständnis trägt kein Geringerer als Alan Turing, den man als Vater der KI ansehen kann. In seinem berühmten Aufsatz von 1950, in dem er den nach ihm benannten „Turing-Test“ beschreibt, macht er künstliche Intelligenz daran fest, ob sich ein Computer in einem Dialog überzeugend als ein Mensch ausgeben kann. Doch wenn das der Maßstab für Intelligenz wäre, dann würde jeder intelligente Außerirdische durchfallen. Außerdem zeigen meine eigenen Erfahrungen mit der Entwicklung von Chatbots, dass der Turing-Test eher die Intelligenz der Testperson misst als die der Maschine.
Ich halte die Begegnung mit einer überlegenen Alien-Spezies aus diesem Grund für eine bessere Metapher für das Auftreten „starker“ künstlicher Intelligenz als den Vergleich mit dem Menschen. Denn dieses Bild macht deutlich, wie wenig wir über zukünftige künstliche Intelligenz tatsächlich wissen: Wir kennen weder ihre exakte Leistungsfähigkeit noch ihre Grenzen. Wir können nicht davon ausgehen, dass sie unsere Werte und sozialen Gepflogenheiten teilt oder dass sie weiß, was wir eigentlich meinen, wenn wir sagen: „Stelle möglichst viele Büroklammern her“. Wir wissen nur, dass sie uns in vieler Hinsicht haushoch überlegen sein wird.
Indem wir den Blick darauf richten, was Maschinen im Vergleich zum Menschen alles noch nicht können, übersehen wir die enormen Vorteile, die Computer bereits jetzt uns gegenüber haben.
Beispielsweise braucht ein Mensch viele Jahre intensiven Trainings, um ein Go-Meister zu werden. AlphaGo Zero hat das ohne fremde Hilfe in drei Tagen geschafft. Mehr noch, sein Wissen könnte in Sekundenschnelle auf eine
andere Maschine übertragen werden, denn Computer können untereinander viel schneller und effizienter kommunizieren als Menschen. Die Verarbeitung von Informationen geschieht ebenfalls sehr viel
schneller als im menschlichen Gehirn und es gibt keinen „Schädel“, der die Größe des digitalen „Gehirns“ begrenzt – eine Verdoppelung der Hardware führt im Prinzip zu einer Verdoppelung der
Rechenleistung. Wenn es gelingt, einen Computer zu konstruieren, der in etwa so intelligent ist wie ein Mensch, dann wird er sofort jedem Menschen haushoch überlegen sein, denn er könnte
womöglich in einer Sekunde die Denkprozesse durchführen, für die ein Mensch eine Stunde braucht.
Ein weiterer enormer Vorteil von Computern ist es, dass sie ihre eigene Software verbessern können. Ein Mensch kann zwar neue Fähigkeiten erlernen, aber er kann die Funktionsweise und Leistungsfähigkeit seines Gehirns nicht grundlegend verändern. Für einen hinreichend intelligenten Computer wäre es dagegen beispielsweise möglich, die Leistungsfähigkeit seines neuronalen Netzes durch Optimierung seiner Algorithmen zu steigern und sich so selbst noch intelligenter zu machen. Mit dieser erhöhten Intelligenz könnte er sich dann weiter verbessern, im Prinzip ad Infinitum. Manche sprechen in diesem Zusammenhang von einer „technologischen Singularität“, weil eine solche Maschine uns in kurzer Zeit so weit voraus wäre, dass wir sie nicht einmal mehr ansatzweise verstehen würden.
Daniel Gerritzen schildert in seinem Buch „Erstkontakt“, zu dem ich ein Vorwort beisteuern durfte, eindrücklich die Gefahren, die ein Kontakt mit einer intelligenten außerirdischen Spezies für die Menschheit mit sich bringen würde. Zum gegenwärtigen Zeitpunkt wissen wir allerdings nicht einmal, ob es überhaupt Außerirdische gibt, auch wenn vieles dafürspricht. Wir können jedoch mit einiger Sicherheit sagen, dass die Begegnung mit einer uns Menschen sehr unähnlichen, uns in vieler Hinsicht überlegenen Intelligenz in nicht allzu ferner Zukunft bevorsteht – womöglich lange, bevor wir konkrete Hinweise auf die Existenz außerirdischer Zivilisationen finden werden.
Wir selbst werden diese „Aliens“ bauen, aber das heißt nicht, dass wir sie auch verstehen oder gar kontrollieren werden. Noch können wir beeinflussen, wie sie beschaffen sein werden, welche Macht sie haben und an welchen Werten sie ihre Entscheidungen ausrichten. Allerdings befürchte ich, dass diejenigen, die sich zurzeit mit ihrer Konstruktion beschäftigen, gerade ein Wettrennen übers Minenfeld durchführen und sich daher wenig um die möglicherweise verheerenden Konsequenzen dieser Begegnung kümmern.
Das darf nicht so bleiben. Das Schicksal der Menschheit steht auf dem Spiel!
Kommentar schreiben
Heinrich (Sonntag, 21 März 2021 18:47)
[zitat] Wir wüssten, dass die Botschaft von Außerirdischen stammen muss, die uns haushoch überlegen sind, weil sie erstens offenbar interstellare Raumschiffe haben und zweitens unsere Sprachen beherrschen,[/zitat]
Ok, das mit den interstellaren Raumschiffen sehe ich ein, aber die 150 Sprachen haben sie einfach bei Google nachgeschlagen. ;)
Spass beiseite, ich will nicht rumblödeln, dafür sind diese Themen zu ernst und zu wichtig. Mir fehlt nur das Wissen und die Intelligenz ernsthaft darüber diskutieren zu können. Ich lese gerne Sience-Fiction Romane, die aber hauptsächlich die Phantasie der Autoren widerspiegeln, gespickt mit ein paar vermuteten Zukunftsvisionen.
Ich hoffe, ich treffe die Aliens erst, wenn ich über 100 bin. Dann ist es nicht mehr tragisch, wenn dieses Treffen mein Lebensende bedeutet. ;)