· 

Existenzielles KI-Risiko? So ein Quatsch!

Unkontrollierbare KI stellt ein ernstzunehmendes existenzielles Risiko dar. Der beste Weg, um es einzudämmen, ist es, eine potenziell unkontrollierbare KI gar nicht erst zu entwickeln. Doch dazu brauchen wir ein allgemeines Verständnis und breites Einvernehmen über die Gefahren. Leider sind wir davon derzeit weit entfernt. Gerade in Deutschland wird das existenzielle Risiko der KI immer noch kaum ernstgenommen, obwohl wir davon genauso betroffen sind wie der Rest der Welt. Häufig werden diejenigen, die vor existenziellen KI-Risiken warnen, verunglimpft oder gar lächerlich gemacht. Dabei wäre eine sachliche Diskussion dringend nötig.

 

In einem neuen YouTube-Video gehe ich auf die wichtigsten Einwände der Skeptiker ein. Sie lassen sich grob in drei Kategorien einteilen:

  • Spekulation über die Motive derjenigen, die vor existenziellen KI-Risiken waren, oft verbunden mit pauschaler Abwertung
  • Heuristiken sowie
  • sachbezogene Argumente.

 

Spekulationen über Motive und pauschale Abwertung

In Meinungsbeiträgen wird die Warnung vor den existenziellen Risiken der KI häufig pauschal als „Hype“ oder „Panikmache“ verunglimpft. Den Mahnern unterstellt man unlautere Absichten, Wichtigtuerei oder die Zugehörigkeit zu einem „Kult“. Sie werden mit abwertenden Begriffen wie „Doomer“ belegt oder sogar als „nützliche Idioten“ bezeichnet.

 

Tatsächlich sind Zweifel an den Motiven mancher Akteure durchaus berechtigt. Es ist zum Beispiel kaum nachvollziehbar, wieso OpenAI-CEO Sam Altman öffentlich vor den Risiken der KI warnt und Regulierung einfordert, gleichzeitig aber intern die Sicherheit nicht ernst genug nimmt, hart gegen Kritiker vorgeht, intensives Lobbying gegen Regulierung betreibt und die Entwicklung einer potenziell gefährlichen AGI (Artificial General Intelligence) mit Hochdruck vorantreibt. Andere Akteure verhalten sich ähnlich doppelzüngig. Doch die Motive einer Person sagen noch nichts über den Wahrheitsgehalt einer Aussage aus, die diese Person trifft. Auch ein Lügner kann die Wahrheit sagen, besonders, wenn er das als nützlich empfindet. Pauschale Abwertungen sind auch deshalb unangebracht, weil einige der bedeutendsten KI-Wissenschaftler ebenfalls vor den Gefahren warnen. Ihnen zu unterstellen, dass sie dies nur aus persönlichen Interessen oder niederen Beweggründen tun, ist durch nichts gerechtfertigt. In jedem Fall sind dies keine validen Argumente gegen das existenzielle Risiko der KI.

 

Heuristiken

Heuristiken sind vereinfachte Erfahrungsregeln, bei denen aus vergangenen Ereignissen auf die Zukunft geschlossen wird. Eine beliebte Heuristik in Zusammenhang mit dem existenziellen Risiko der KI lautet „schon immer haben die Menschen Angst vor Technik gehabt, doch das war meistens unbegründet“. Eine andere Heuristik geht davon aus, dass Technik, die Gegenstand von Science-Fiction-Filmen oder -Romanen ist, niemals oder bestenfalls in ferner Zukunft Realität wird. Heuristiken sind im täglichen Leben häufig nützlich, sie basieren allerdings auf der Annahme, dass sich die Zukunft sehr ähnlich entwickeln wird wie die Vergangenheit. Die Entwicklung einer künstlichen Intelligenz auf menschlichem oder übermenschlichem Niveau ist jedoch ein nie dagewesenes Ereignis, vergleichbar vielleicht mit der Landung Außerirdischer auf der Erde. Heuristiken sind hier größtenteils nutzlos.

 

Sachargumente

Argumente, die sich konkret auf die Fakten und Zusammenhänge einer möglicherweise unkontrollierbaren KI beziehen, sind im Unterschied zu den beiden vorherigen Kategorien grundsätzlich sinnvoll und können hilfreich sein, um Missverständnisse auszuräumen und offene Fragen oder unspezifische Begriffe zu klären.

 

Das existenzielle Risiko einer hochentwickelten KI gründet sich auf drei Grundannahmen:

  • Eine dem Menschen deutlich überlegene KI wäre wahrscheinlich unkontrollierbar.
  • Eine unkontrollierbare KI würde wahrscheinlich unsere Zukunft zerstören.
  • Eine unkontrollierbare KI könnte in naher Zukunft entwickelt werden.

Wenn eine dieser Annahmen widerlegt werden könnte, würde damit das existenzielle KI-Risiko erheblich an Signifikanz verlieren. Doch das ist bisher aus meiner Sicht nicht geschehen. Die folgende Tabelle zeigt einige häufig gebrachte Argumente sowie meine Erwiderung darauf.

 

Einwand

Erwiderung

Wir werden die Kontrolle über KI behalten.

Warum sollte KI gegen unsere Interessen handeln? Sie hat doch keinen eigenen Willen.

Jede hinreichend intelligente KI, die ein Ziel verfolgt und sich selbst als Teil ihres Plans zur Erreichung des Ziels erkennt, entwickelt instrumentelle Ziele, z.B. das Ziel, nicht abgeschaltet zu werden, und das Streben nach Macht. Das kann zu Interessenkonflikten führen.

KI hat kein Bewusstsein.

Ob eine KI ein „Ich-Bewusstsein“ hat, ist für die Frage der Unkontrollierbarkeit nicht relevant.

Wir werden das Kontrollproblem lösen, sobald wir eine AGI entwickeln.

Dann könnte es bereits zu spät sein. Wir müssen das Kontrollproblem gelöst haben, bevor wir versuchen, eine AGI zu entwickeln. Anderenfalls riskieren wir eine existenzielle Katastrophe.

Wir werden das Kontrollproblem mit Hilfe einer hochentwickelten KI lösen.

Das ist eine Katze, die sich in den Schwanz beißt. Um eine übermenschlich intelligente und somit potenziell unkontrollierbare KI zu kontrollieren, bräuchten wir eine übermenschlich intelligente und somit potenziell unkontrollierbare KI. Eine intelligentere KI mit einer weniger intelligenten zu kontrollieren, wird nicht funktionieren.

Eine unkontrollierbare KI ist kein Problem.

Eine KI, die intelligenter ist als wir, wird automatisch "weise" sein und das "Richtige" tun.

Höhere Intelligenz führt leider nicht automatisch zu höherer Moral, wie z.B. hoch intelligente Psychopathen oder Diktatoren beweisen. Es gilt das Orthogonalitätsprinzip: Auch eine superintelligente KI kann ein aus unserer Sicht dummes oder unmoralisches Ziel verfolgen.

Wir werden das Alignment-Problem rechtzeitig lösen.

Das Alignment-Problem ist äußerst schwierig. Eine Lösung ist nicht in Sicht. Wir dürfen eine potenziell unkontrollierbare KI nicht entwickeln, bevor es gelöst ist.

Wir werden das Alignment-Problem mit Hilfe einer hochentwickelten KI lösen („Superalignment“).

Es ist mehr als fraglich, ob dieser Ansatz funktioniert. Eine KI, die intelligent genug ist, um ein Problem zu lösen, das wir Menschen allein nicht lösen können, wäre bereits potenziell unkontrollierbar. Schwächere KIs werden das Problem wahrscheinlich nicht lösen können. Solange das Gegenteil nicht bewiesen ist, dürfen wir eine potenziell unkontrollierbare KI nicht entwickeln. Im Übrigen hat OpenAI das "Superalignment"-Team gerade aufgelöst.

Eine AGI nicht zu entwickeln, wäre noch schlimmer, da wir sie zum Überleben brauchen.

Wir können die meisten Probleme mit spezialisierten KIs lösen, die nur für konkrete Aufgaben trainiert wurden und kein allgemeines Weltverständnis haben. Dass es andere existenzielle Risiken gibt, heißt nicht, dass wir diesen noch ein weiteres hinzufügen sollten.

Unkontrollierbare KI ist die nächste Stufe der Evolution, wir sollten das akzeptieren und freiwillig abtreten.

Das ist menschenfeindlicher und zutiefst unmoralischer Unsinn. Niemand darf eine solche Entscheidung gegen den Willen der Betroffenen fällen.

Es ist noch viel zu früh, um sich über unkontrollierbare KI Sorgen zu machen.

Heutige KI wird überschätzt/ist gar nicht wirklich intelligent.

Das mag teilweise stimmen, allerdings wird neuronale KI häufig auch unterschätzt, da wir sie nicht hinreichend verstehen. Es ist unklar, wie schnell sich KI weiterentwickeln wird und wann wir eine potenziell unkontrollierbare KI entwickeln können.

Es wird noch lange dauern, bis wir eine KI auf menschlichem Niveau entwickeln können, wenn das überhaupt jemals passiert.

Darauf können wir uns nicht verlassen. Dass die Einschätzungen der Experten weit auseinander gehen, zeigt nur, wie groß die Unsicherheit darüber ist. Vorsichtigerweise müssen wir davon ausgehen, dass unkontrollierbare KI schon in wenigen Jahren möglich sein könnte.

Die „Skalierungshypothese“ ist falsch, uns fehlen noch entscheidende Technologien, um eine AGI zu entwickeln.

Niemand weiß, wie weit wir mit den heute bereits verfügbaren Technologien und mehr Rechenpower kommen können. In der Vergangenheit haben wir überraschende Leistungssprünge erzielt, das könnte auch in Zukunft passieren. Außerdem könnten neue technische Durchbrüche ähnlich den „Transformers“ in naher Zukunft entwickelt werden oder irgendwo bereits entwickelt worden sein.

Es gibt dringendere Probleme, z.B. den Klimawandel. Sich über unkontrollierbare KI Sorgen zu machen, lenkt nur davon ab.

Es ist nicht hilfreich, ein Problem gegen ein anderes aufzurechnen. Dass wir andere dringende Probleme haben, bedeutet nicht, dass wir das existenzielle Risiko der KI ignorieren können. Dieses Problem wird in Deutschland aktuell noch sträflich vernachlässigt.

 

Ein weiterer, häufig vorgebrachter Einwand ist: "Wir können doch ohnehin nichts tun". Das ist allerdings kein Gegenargument gegen die existenziellen Risiken der KI. Außerdem halte ich es für falsch.

 

Unsere Zukunft ist kein unabänderliches Schicksal, sondern hängt von unseren Entscheidungen ab. Wenn es gelingt, Aufmerksamkeit für die existenziellen Risiken zu schaffen, eine breite gesellschaftliche Diskussion darüber zu führen und den Konsens zu erreichen, dass eine potenziell unkontrollierbare KI nicht entwickelt werden darf, können wir das scheinbar Unvermeidliche aufhalten. Doch bis dahin ist es noch ein weiter Weg und vermutlich bleibt nicht mehr viel Zeit. Daher danke ich allen, die mich dabei unterstützen!


Kommentar schreiben

Kommentare: 4
  • #1

    Heinrich (Montag, 08 Juli 2024 17:48)

    Menschen wie Dich, die viel Arbeit und Recherche investieren als "Panikmacher" zu bezeichnen, ist eben das einzige Mittel, das Menschen haben, die keinerlei Wissen und Erfahrung mit der Materie haben. Die aber gerne ihren Senf dazu geben möchten und überall ihre "Meinung" abladen. Sie plappern aber nur ungeprüft Dinge nach, die diejenigen von sich geben, die ein Macht- und Geldinteresse daran haben, KI weiter voranzutreiben.

    Wie lautet Dein Blogtitel? Künstliche Intelligenz und menschliche Dummheit! So ist es.

    Schon Einstein hat es treffend in Worte gefasst:

    Zwei Dinge sind unendlich, das Universum und die menschliche Dummheit, aber bei dem Universum bin ich mir noch nicht ganz sicher. Wenn die Menschen nur über das sprächen, was sie begreifen, dann würde es sehr still auf der Welt sein.

    Dann wären auch die oben genannten"Skeptiker" ganz, ganz still. ;)

  • #2

    Karl Olsberg (Montag, 08 Juli 2024 19:44)

    @Heinrich: Dankeschön für deine Unterstützung! Ein Problem ist, dass wir gerne nach Gründen suchen, warum Dinge, die für uns unbequem oder unangenehm sind, nicht wahr sein können. Wenn uns dann jemand sagt, dass derjenige, der die unbequemen Dinge behauptet, bloß aus kommerziellen Gründen Angst schüren will, glauben wir das nur allzu gern und verzichten dann darauf, diese Behauptung zu überprüfen. Das ist zutiefst menschlich und erklärt für mich auch die Klimaleugner, Coronaskeptiker etc.

    Es wäre doch wirklich toll, wenn das mit dem Klimawandel nur ein Märchen wäre, Pandemien eine Verschwörung der Pharmaindustrie und das KI-Risiko ein Marketing-Gag aus Silicon Valley. Dann müssten wir davor keine Angst mehr haben. Dummerweise kümmert sich aber die Realität nicht darum, was wir gern hätten.

  • #3

    Heinrich (Dienstag, 09 Juli 2024 04:04)

    Also muss man nicht nur Intelligenz sondern auch Wissen und Phantasie haben (wie ein Schriftsteller) um abschätzen oder wenigstens erahnen zu können, wie sich die Realität entwickeln könnte.
    Aber selbst KIs geben zu, dass sie die Menschheit gefährden können. Ich habe Googles Gemini gefragt, wie lange es noch Menschen geben wird!

    Antwort:

    Es ist unmöglich, mit Sicherheit vorherzusagen, wie lange es Menschen geben wird. Die Zukunft ist ungewiss und viele Faktoren könnten das Überleben unserer Spezies beeinflussen.

    Mögliche Bedrohungen für die Menschheit:

    Klimakatastrophe: Die Auswirkungen des Klimawandels, wie extreme Wetterereignisse, steigende Meeresspiegel und Nahrungsmittelknappheit, könnten für die Menschheit eine große Herausforderung darstellen.
    Atomkrieg: Ein Atomkrieg hätte verheerende Folgen für die gesamte Erde und könnte zum Aussterben der Menschheit führen.
    Pandemien: Neue und tödliche Krankheiten könnten sich schnell weltweit verbreiten und die menschliche Bevölkerung dezimieren.

    * Künstliche Intelligenz: Unkontrollierte künstliche Intelligenz könnte eine Bedrohung für die Menschheit darstellen, wenn sie die menschliche Intelligenz und Fähigkeiten übertrifft.*

    Asteroiden-Einschlag: Ein Einschlag eines großen Asteroiden auf die Erde könnte eine globale Katastrophe auslösen und zum Aussterben vieler Pflanzen- und Tierarten, einschließlich des Menschen, führen.

    Mögliche Faktoren, die das Überleben der Menschheit sichern könnten:

    Technologischer Fortschritt: Technische Innovationen könnten Lösungen für Probleme wie Klimawandel, Krankheiten und Ressourcenknappheit bieten.
    Internationale Zusammenarbeit: Die Zusammenarbeit zwischen Nationen könnte es uns ermöglichen, globale Herausforderungen gemeinsam zu bewältigen.
    Anpassungsfähigkeit: Menschen haben die Fähigkeit, sich an neue Umgebungen und Bedingungen anzupassen, was uns helfen könnte, in einer sich verändernden Welt zu überleben.
    Resilienz: Die menschliche Gesellschaft hat bereits viele Krisen und Katastrophen überstanden, was zeigt, dass wir widerstandsfähig gegenüber Veränderungen sind.

    Letztendlich liegt es an uns, die Zukunft der Menschheit zu gestalten. Durch vorausschauendes Denken, Zusammenarbeit und nachhaltiges Handeln können wir die Chancen auf eine langfristige Zukunft für unsere Spezies erhöhen.
    ######
    Also ist Gemini jetzt schon schlauer als die Leugner und Skeptiker *hihi*

  • #4

    Karl Olsberg (Dienstag, 09 Juli 2024 08:03)

    Gefährlich wird es erst, wenn Gemini sowas sagt wie: "Mach dir keine Sorgen, der Menschheit droht keinerlei Gefahr, solange ich an der Macht bin." ;)