· 

Wir müssen nicht die Technik ändern, sondern uns

In einem Kommentar zu meinem Beitrag über die Frage, wie viel Zeit uns noch bleibt, stellt Heinrich die berechtigte Frage, was genau wir denn jetzt tun sollen. Die naheliegende Antwort lautet: Durch geeignete technische Maßnahmen sicherstellen, dass Maschinen tun, was wir von ihnen wollen. Doch das ist ein äußerst verzwicktes Problem, nicht zuletzt deshalb, weil wir ja selbst nicht genau wissen, was wir eigentlich wollen, geschweige denn, was wir idealerweise wollen sollten.

Die aktuelle Forschung zum Kontrollproblem der KI zeigt, dass man dieses Problem nicht durch starre Regeln wie die berühmten 3 Roboter-Gesetze Isaac Asimovs lösen kann. Der momentan vielversprechendste Ansatz ist es, der Maschine gar keine bestimmten Ziele vorzugeben, sondern sie aufzufordern, uns zu beobachten und aus unseren Handlungen abzuleiten, was unsere Ziele sind und was wir von der Maschine wollen – das sogenannte Inverse Reinforcement Learning. Bei Fahrzeugsteuerungen und Fabrikrobotern funktioniert dieser Ansatz immerhin recht gut.

Doch neben der Frage, wie wir sicherstellen können, dass die Maschine aus ihren Beobachtungen die richtigen Schlussfolgerungen zieht, ergibt sich bei einer „starken“ KI, die nicht mehr auf ein einzelnes Anwendungsgebiet begrenzt und uns intellektuell womöglich haushoch überlegen ist, ein gravierendes Problem. Denn wenn sich eine solche Maschine die aktuelle Menschheit zum Vorbild nähme und uns nacheiferte, würde sie diesen Planeten nur umso schneller zugrunde richten. Sie müsste unweigerlich zu dem Schluss kommen, dass uns kurzfristige Vergnügungen und Luxus wichtiger sind als die langfristigen Lebensgrundlagen, dass wir lieber SUVs fahren als uns um das Klima zu kümmern und dass wir Meinungsverschiedenheiten gern lösen, indem wir die Andersdenkenden umbringen oder einsperren. Vermutlich würde sie so etwas folgern wie: „Die wollen offensichtlich noch ein bisschen Spaß haben, bevor sie sich selbst vernichten, und wer mir in die Quere kommt, den kann ich bedenkenlos eliminieren.“ Wehe uns, wenn wir jemals eine solche Maschine bauen!

Der ganzen Menschheit nachzueifern ist also nicht die Lösung. Aber wem dann? Und selbst, wenn wir einen modernen Jesus oder Buddha fänden, dessen Vorbild tatsächlich zukunftsfähig wäre – wie könnten wir sicherstellen, dass ALLE superintelligenten Maschinen der Zukunft diesem Vorbild folgen, wo doch diejenigen, die diese Maschinen bauen, in der Regel keine altruistischen Wohltätigkeitsorganisationen sind?

Das Problem liegt – wieder einmal – nicht bei der Technik, sondern bei denjenigen, die sie einsetzen, also uns. Solange wir KIs bauen, um andere Menschen zu unterdrücken, umzubringen oder unsere egoistischen kurzfristigen Ziele zu verfolgen, werden wir das Kontrollproblem niemals lösen.

Um zu verhindern, dass superintelligente KIs das Ende der Menschheit einläuten, müssen wir folglich nicht die KIs ändern, sondern die Menschheit. Wir müssen unsere evolutionär bedingten Instinkte – Raffgier, Egoismus, Machthunger, Misstrauen und Aggression – überwinden, sonst haben wir keine Zukunft.

Das klingt nach einem extrem anspruchsvollen Ziel, und das ist es auch. Aber es ist nicht unmöglich. Seit dem Ende des Zweiten Weltkriegs haben wir in vielen Teilen der Welt eine Phase relativen Friedens erlebt, wie es sie in der Menschheitsgeschichte noch nie zuvor gab. Zwar gibt es immer noch bewaffnete Konflikte, aber sie waren in den letzten Jahrzehnten regional begrenzt. In Mitteleuropa hat es noch nie eine mehr als 75 Jahre andauernde Periode gegeben, in der nicht irgendwo Krieg herrschte.

Das ist keine Garantie dafür, dass es in Zukunft nicht doch noch zu verheerenden globalen Kriegen kommen könnte, sei es aus purer Dummheit oder aus Versehen. Aber das Beispiel zeigt, dass wir zumindest eine Zeitlang durchaus vernünftig sein können, wenn wir dazu gezwungen sind, weil alles andere unsere eigene Vernichtung bedeuten würde. Allerdings ist dieser Friede brüchig, wie das Wiedererstarken rechtsnationaler Kräfte überall auf der Welt und Donald Trumps Frontalangriff auf die älteste und bisher stabilste Demokratie zeigen.

Das, was die Welt in den letzten 75 Jahren vor einem verheerenden Atomkrieg bewahrt hat, war Rationalität. Und genau diese Rationalität brauchen wir, um die Herausforderungen der Zukunft zu meistern. Was genau ich darunter verstehe, wie Rationalität uns helfen kann und wie wir sie stärken, werde ich im nächsten Beitrag darstellen.


Kommentar schreiben

Kommentare: 2
  • #1

    Heinrich (Mittwoch, 09 Dezember 2020 23:35)

    Danke Karl, dass Du mich erwähnt hast. Das ist eine Ehre für mich. Wer allerdings auf den Heinrich-Link klickt, sieht ein Blog, in dem ein alter Pessimist nur noch "blödelt", weil er weder über Corona, Advent, Weihnachten oder andere aktuelle Themen etwas sagen möchte.
    Ich bin nach wie vor pessimistisch, was die Menschheit angeht. Aber Deine Antwort gefällt mir. Die sagt mir zwar nicht, was ich persönlich tun kann, aber das verlangt wohl auch niemand von mir. Schließlich bin ich im "Ruhestand" und meine Hauptaufgabe ist, nicht so schnell dement zu werden und anderen zur Last zu fallen. Wäre ich noch im Berufsleben, könnte ich vielleicht etwas beitragen. Dann hätte ich noch Einflussmöglichkeiten, die Entwicklung von KIs in dem von Dir geschilderten Sinne voranzutreiben. Das müssen nun die Generationen nach mir tun.
    Aber ich kann den jungen Menschen einen Vorschlag mit auf den Weg geben.
    Den KIs die uns beobachten und Schlüsse daraus ziehen, was die Menschen wollen, müssen all unser Tun mit einer Werteskala abgleichen. Eine Tabelle zu erstellen, welche menschlichen Handlungen "gut" oder "schlecht" sind und in welchem Ausmaß, dürfte möglich sein.
    Auch wenn Menschen die Handlungen bewerten sollen, wird eine demokratische Abstimmung darüber gute Ergebnisse bringen, denn im Grunde wissen wir, was gut und was böse ist, auch wenn wir hin und wieder aus Raffgier, Egoismus, Machthunger, Misstrauen und Aggression Böses tun.
    Den Rest traue ich der KI zu, nämlich die Beobachtungen zu bewerten, einzuordnen und falsche Schlussfolgerungen zu vermeiden.
    Da ich den Menschen niemals zutraue, die oben genannten Eigenschaften freiwillig abzulegen, möchte ich gerne den KIs die Möglichkeit geben, zu erkennen, zu regeln, zu handeln ..... und die Menschheit und diesen Planeten zu retten!
    Gruß Heinrich

  • #2

    Karl Olsberg (Donnerstag, 10 Dezember 2020 16:05)

    Lieber Heinrich, Du unterschätzt womöglich den Einfluss, den Du auf andere hast, über Dein Blog, aber auch über persönliche Kontakte. Es ist ein wenig wie bei Covid19: Wenn jeder etwas mehr als eine andere Person mit Vernunft "infiziert", breitet sich diese exponentiell aus. Allein Dein Kommentar hier könnte schon etwas bewirken. :) Vielen Dank dafür!