In seinem sehr empfehlenswerten „Alignment Newsletter“ gibt Rohin Shah einen regelmäßigen Überblick über den
Forschungsstand zum „Kontrollproblem“ der KI. In der aktuellen Ausgabe berichtet er von vorläufigen Ergebnissen einer interessanten neuen Studie. Ajeya Cotra von der gemeinnützigen Organisation Open Philanthropy stellt darin Hypothesen auf, wie lange es
noch dauern könnte, bis eine „Transformative KI“ entwickelt wird. Gemeint ist damit eine „starke“ KI, die mindestens das Leistungsniveau des menschlichen Gehirns erreicht. Cotra versucht, anhand
zahlreicher Einflussfaktoren abzuschätzen, wie viel Rechenleistung für den Betrieb und vor allem auch das Training einer solchen starken KI erforderlich wäre und wann wir sowohl technisch als
auch ökonomisch dazu in der Lage wären, diese zur Verfügung zu stellen (sie geht davon aus, dass eine Nation wie die USA dafür bis zu 1% ihres Volkseinkommens – etwa das Zweieinhalbfache des
Manhattan-Projekts – investieren würde).
Das Ergebnis hängt davon ab, a) wie rechenaufwändig die Simulation eines Gehirns ist, b) inwieweit der exponentielle Trend der Computerleistung in Zukunft anhält, c) wie viel effizienter die
Algorithmen zur Abbildung neuronaler Netze noch werden und d) wie viel Trainingsdaten und -zeit benötigt werden, um dem resultierenden neuronalen Netz eine Art allgemeines Weltverständnis zu
vermitteln. Da dies sehr unsichere Faktoren sind, ergibt sich eine Wahrscheinlichkeitsverteilung mit einer sehr breiten Streuung für den Zeitpunkt des möglichen „Tag X“, die noch dazu mit
verschiedenen zugrundeliegenden Modellen sehr unterschiedliche Werte annimmt.
Der gewichtete Durchschnitt aller eingesetzten Modelle führt zu einer ca. 50%-Wahrscheinlichkeit, dass Tag X um das Jahr 2050 herum liegt. Die große Streuung lässt sich daran ablesen, dass im
Durchschnitt aller Modelle bereits für das Jahr 2030 eine knapp 10%ige Wahrscheinlichkeit ermittelt wird, während mit mehr als 20% Wahrscheinlichkeit Tag X in diesem Jahrhundert überhaupt nicht
mehr eintreten wird. Dies entspricht in etwa dem Ergebnis einer Befragung von 350
Experten im Jahr 2017. Das „optimistischste“ Rechenmodell sieht für 2030 bereits über 40% Wahrscheinlichkeit für eine „starke“ KI, während der pessimistischste Ansatz für das Jahr 2050 nur
eine Wahrscheinlichkeit von 10% ergibt. Mit anderen Worten: Wir haben keine Ahnung, wann wir in der Lage sein werden, eine KI zu bauen, die es mit dem menschlichen Gehirn aufnehmen kann. Es
könnte in 10 Jahren soweit sein oder erst in 100. Vielleicht auch nie.
Können wir uns also entspannt zurücklehnen, frei nach dem Motto: „Was ich nicht weiß, macht mich nicht heiß“? Definitiv nein! Selbst eine Wahrscheinlichkeit von „nur“ 10%, dass wir schon in zehn
Jahren eine KI bauen könnten, die dem menschlichen Gehirn ebenbürtig ist, sollte uns den Schweiß auf die Stirn treiben. Denn wir haben noch immer keine überzeugenden Ansätze, wie wir sicherstellen können, dass sich diese KI so verhält, wie wir es
wünschen bzw. wie es gut für uns wäre (was nicht notwendigerweise dasselbe ist). „Tag
X“ wäre zudem kein einmaliges Ereignis, sondern nur der Auftakt einer „Intelligenzexplosion“, die gerne auch als „technische Singularität“ bezeichnet wird. Wie es Jack Good bereits 1965 festgestellt hat: Eine Maschine, die intelligenter und
leistungsfähiger ist als ein Mensch, wäre in der Lage, sich selbst zu verbessern, und würde somit immer schneller immer intelligenter werden, bis sie uns haushoch überlegen ist, so wie wir etwa
einem Schimpansen oder einem Hund überlegen sind. Es wäre die letzte Erfindung, die die Menschheit machen müsste.
Die große Frage ist aus meiner Sicht aber, ob „Tag X“ überhaupt eine so große Bedeutung hat. Wir Menschen neigen dazu, uns selbst zum Maß aller Dinge zu erklären. Dementsprechend glauben wir,
dass eine künstliche Intelligenz, die die Welt fundamental verändert, erst dann entstehen kann, wenn sie die Leistungsfähigkeit des menschlichen Gehirns erreicht. Doch das ist in meinen Augen ein
Trugschluss.
„Künstliche Intelligenz“ ist der Versuch, Entscheidungen in komplexen Umfeldern zu automatisieren, die bisher von Menschen getroffen werden mussten. Dazu ist es in der Regel nicht erforderlich,
dass die KI genauso universell einsetzbar sein muss wie ein Mensch. Die Geschichte der Technik zeigt, dass wir mehr und mehr mechanische Tätigkeiten durch Maschinen automatisiert haben, die
jeweils für eine bestimmte Anwendung optimiert sind. Zwar gibt es gelegentlich Maschinen, die unterschiedliche Dinge können, wie etwa eine Universal-Küchenmaschine, aber meistens sind sie nur auf
einem Gebiet wirklich gut. Ein Bagger taugt beispielsweise nicht dazu, den Rasen zu mähen oder eine Herzoperation durchzuführen, und fliegen kann er auch nicht. Wozu auch?
In ihrer Summe können die Maschinen jedoch inzwischen nahezu jede physische Tätigkeit viel besser ausführen als ein Mensch: Sie können sich viel schneller fortbewegen, viel präziser schneiden
oder löten, viel schwerere Lasten tragen und sogar durch den Weltraum fliegen. Diese physischen Maschinen haben die Welt in den letzten zweihundert Jahren tiefgreifender verändert als der Mensch
in den zweihunderttausend Jahren davor, Klimawandel inklusive. Zumindest in den Industrienationen werden immer weniger Menschen für körperliche Arbeit bezahlt, und wenn doch, werden sie dabei in
der Regel von Maschinen unterstützt.
Die bereits begonnene Revolution der künstlichen Intelligenz wird dafür sorgen, dass Maschinen auch immer mehr Entscheidungen besser treffen können als Menschen. Sie können bereits heute besser
Flugzeuge und Autos steuern, Gesichter erkennen und Krankheiten diagnostizieren. Es gibt aus meiner Sicht keinen Grund, anzunehmen, dass nicht irgendwann alle Entscheidungen von Maschinen besser
getroffen werden können als von Menschen. In Vorträgen verwende ich dafür gern das Bild einer Hügellandschaft. Die einzelnen Entscheidungsfelder sind unterschiedlich hohe Erhebungen in dieser
Landschaft, der „Wasserstand“ entspricht der Leistungsfähigkeit bzw. Entscheidungskompetenz der Summe aller KIs. Nach und nach steigt der Pegel und immer mehr Entscheidungen, die bisher von
Menschen getroffen wurden, werden „überflutet“.
Spätestens, wenn „Tag X“ erreicht ist, wäre überall „Land unter“. Doch Probleme bekommen wir bereits viel früher. Schon jetzt spüren wir die positiven und negativen Auswirkungen der
Entscheidungsautomatisierung in vielen Bereichen. Zum Beispiel werden Maschinen immer geschickter darin, unsere Aufmerksamkeit zu fesseln und unsere Entscheidungen zu manipulieren. Sie lernen
immer besser, unsere „Gehirne zu hacken“, wie Juval Harari es ausdrückt.
Über die Konsequenzen habe ich bereits an anderer Stelle geschrieben.
Lange, bevor wir „Tag X“ erreichen, werden einzelne Maschinen in der Lage sein, aus unserem Verhalten detaillierte Rückschlüsse über unsere Gedanken, Motive, Hoffnungen und Ängste zu schließen.
Lange vor „Tag X“ werden wir rund um die Uhr von KIs perfekt überwacht werden, sofern wir dies zulassen (bzw. unsere Regierungen nicht daran hindern). Lange vor „Tag X“ wird es massive
Umwälzungen im Arbeitsmarkt geben – man denke nur an die Millionen LKW- und Taxifahrer, die durch autonome Fahrzeuge überflüssig gemacht werden, aber auch an mindestens ebenso viele
Bürofachkräfte in Banken, Versicherungen und anderen Unternehmen. Und es ist sehr gut möglich, dass wir lange vor „Tag X“ Entscheidungen an Maschinen übertragen, die sehr weitreichende Folgen
haben werden – von der Entwicklung neuer Technologien bis zur Entscheidung über Leben und Tod von
Menschen.
Wieviel Zeit bleibt uns noch, bis wir uns ernsthaft mit den Risiken der KI beschäftigen müssen? Meine Antwort lautet: gar keine!
Kommentar schreiben
Heinrich (Samstag, 17 Oktober 2020 15:48)
Wenn ich den letzten Satz zum Anlass nehme, meine verbliebene Zeit sinnvoll zu nutzen, habe ich allerdings keine Idee, was ich bewirken oder verändern kann, wenn ich mich mit den Risiken der KI beschäftige. Was bedeutet für mich beschäftigen?
Vermutlich informieren und helfen, wichtige Informationen zu verbreiten. Ansonsten bin ich "machtlos" wie bei vielen Dingen in dieser Welt.
Noch was Gehässiges: ;)
Was heißt hier, wann gibt es eine KI, die so viel leistet wie ein menschliches Gehirn?
Von welchem Menschen reden wir? Einstein? Oder von solch brillianten Köpfen wie Olsberg oder Lesch? Dann wird das sicher noch eine ganze Weile dauern.
Aber es gibt sehr viele Menschen, die ein Raspberry Pi oder gar ein Kim1 schon abbilden kann. ;)
Karl Olsberg (Samstag, 17 Oktober 2020 16:20)
@Heinrich: Eine sehr berechtigte Frage. Ich glaube in der Tat, dass jeder in Bezug auf die Risiken etwas tun kann. Ich werde dazu demnächst einen eigenen Beitrag schreiben. Vorab soviel: Was wir brauchen, ist 1. mehr Rationalität in unserem Denken und Handeln, 2. mehr Skepsis gegenüber KI und 3. mehr Offenheit, sowohl für die positiven Seiten von KI als auch für Andersdenkende. 1. ist vor allem deshalb wichtig, weil KIs von uns lernen und unsere eigenen Vorurteile und Denkfehler in ihrem Trainingsmaterial abgebildet sind, was u.a. zu rassistischen Entscheidungen führen kann. 2. bedeutet nicht, dass man keine KIs benutzen soll, sondern dass man sich ihrer und der hier besprochenen Risiken bewusst sein sollte - z.B. wenn man Google, Facebook oder Instagram nutzt. 3. ist wohl am schwierigsten, weil wir alle uns insgeheim für weltoffen und tolerant halten und gleichzeitig die anderen als Idioten ansehen - das gilt auch für mich. Aber nur, wenn wir andere verstehen, wie absurd uns ihre Vorstellungswelt auch erscheint, können wir Brücken der Rationalität bauen. Klingt sehr salbungsvoll, ich weiß, aber detaillierter kann ich es in diesem Kommentar nicht beschreiben.
Heinrich (Sonntag, 18 Oktober 2020 19:23)
Dann wäre es prima, wenn Lehrer diese Denkweisen schon in Schulen und Hochschulen mit den lernenden Menschen diskutieren. (Falls dafür noch Zeit ist?! ;)
P.S. ich bin auch weltoffen und tolerant, aber das alleine genügt nicht, nicht einmal wenn ich nur einen Teil der anderen als Idioten ansehe. Es gibt mindestens ebenso viele, denen ich nicht das Wasser reichen kann.
Leider ist es so, dass ich mit zunehmendem Alter immer egoistischer werde, mir den Rest so angenehm wie möglich zu gestalten. Dazu gehören dann nicht nur Resignation sondern auch Bequemlichkeit und Gleichgültigkeit, was die "Probleme" dieser Welt angeht.
Da immer mehr Alte immer älter werden, sind wir (leider) in der Überzahl, und wenn dann noch so alte Knacker in Machtpositionen sitzen ..... au weih! ;)
Bin gespannt auf den Beitrag, ob ich durch den neue Ideen bekomme und ein Motiv mich aufzuraffen.
Gruß Heinrich