Gerade hier in Deutschland wird immer wieder behauptet, die Warnungen vor den existenziellen Risiken der KI seien „bloß Hype“, um die Börsenkurse der KI-Firmen noch höher zu treiben, die Mahner werden sogar als „nützliche Idioten“ der KI-Industrie bezeichnet.
Es ist verständlich, dass man Menschen wie Elon Musk oder Sam Altman misstraut, wenn sie vor den Gefahren der KI warnen, denn sie haben es schon öfter mit der Wahrheit nicht so genau genommen und tun oft das Gegenteil dessen, was sie sagen. Wie soll man damit umgehen? Wem kann man noch glauben?
Eliezer Yudkowsky, Gründer des Machine Intelligence Research Institute (MIRI) und einer der ersten (wenn nicht der erste), die sich ernsthaft mit den existenziellen Risiken der KI auseinandergesetzt haben, hat dazu einen lesenswerten längeren Tweet veröffentlicht, den ich hier übersetze (Hervorhebungen entsprechend dem Original):
Sagen die Vorstände der KI-Firmen, dass ihre KI mächtig genug ist, um die Welt zu zerstören, um so mehr Venture Capital einzusammeln? Natürlich! Also ignoriert sie einfach, egal, was sie sagen, und hört den Forschern zu, die gekündigt und dabei Brücken hinter sich verbrannt haben, und den Wissenschaftlern, die nie dort gearbeitet haben – die nicht sagen, dass wir diesen Unternehmen mehr Geld geben sollen, damit wir diese desktruktive Macht vor den Chinesen bekommen, sondern dass wir internationale Vereinbarungen brauchen, damit wir diesen Mist stoppen können, bevor die KI-Firmen jeden auf der Erde umbringen.
In der Tat sind die Worte der KI-Firmenchefs bedeutungslos. Nicht falsch, bedeutungslos! KI-Firmenchefs werden sagen, was immer sie glauben, das ihnen die optimale Aufmerksamkeit bringt, um mehr Geld von gutgläubigen Venture-Capital-Gebern zu bekommen; um genau die richtige Dosis an Regulierung zu bekommen, um ihre Monopole aufrechtzuerhalten; den Politikern weiszumachen sie hätten etwas Wertvolles, das die USA vor den Chinesen bekommen müssen. Und vor allem – das ist es, was ihre ganze Existenz antreibt – bewundernde Blicke auf Partys auf sich zu ziehen und zu Veranstaltungen mit sehr bedeutenden Persönlichkeiten eingeladen zu werden.
Aber das macht ihre Worte nicht falsch in dem Sinn, dass wir die Wahrheit erfahren könnten, indem wir sie einfach ins Gegenteil verkehren. Sie haben einfach keinen Bezug zur Realität, auf die eine oder andere Weise.
Wenn ihr darauf achtet, was Geoffrey Hinton sagt, der das Feld des Deep Learning begründet und bei Google gekündigt hat, um frei sprechen zu können – wenn ihr hört, was Yoshua Bengio, sein Co-Gewinner des Turing-Awards für die Grundlagen des Deep Learnings, sagt – oder natürlich wenn ihr schaut, was das MIRI sagt, nachdem wir dieses Problem als erste vorhergesagt und länger als irgendjemand sonst analysiert haben – dann werdet ihr feststellen, dass wir nicht sagen: „Wir müssen den großen KI-Firmen mehr Geld geben, so dass sie eine künstliche Superintelligenz vor den Chinesen entwickeln können, und sie mit mäßig belastenden Auflagen regulieren, so dass nur die großen KI-Firmen diese erfüllen können, damit wir unsere wertvollen großen Firmen nicht gegenüber den Chinesen benachteiligen.“ Ihr werdet uns sagen hören: „Eine noch unbekannte nächste oder über-übernächste Generation dieser Technik, wir wissen noch nicht genau welche, scheint mit mehr als 50% Wahrscheinlichkeit jeden auf der Erde zu töten, und das sollte eigentlich nicht legal sein. Und die Nationen müssen zusammenarbeiten, damit wir dieses Problem unter Kontrolle bekommen, und das bedeutet nicht, unter der Kontrolle der KI-Firmen.“
KI-Firmen freuen sich, wenn ihr herumlauft und sagt: „Ihr solltet nichts von dem glauben, was die KI-Firmenchefs darüber sagen, dass Superintelligenz eine große Sache ist.“ Und dann sammeln sie ihre Schecks von den gutgläubigen VC-Gebern ein, die ihnen glauben und nicht euch, und ansonsten tun sie, was zum Teufel auch immer sie wollen.
Wenn die Mineralöl-Firmen euch erzählen, dass bleihaltiges Benzin ein total wichtiger Brennstoff für die Zukunft ist, dann ist die korrekte Antwort darauf nicht: „Oh, die sagen das bloß, um ihre Aktienkurse in die Höhe zu treiben, bleihaltiges Benzin ist bestimmt total unbedeutend, ignoriert das einfach, bestimmt kontrollieren sie heimlich die externen Wissenschaftler, die sagen, dass bleihaltiges Benzin schädlich ist, das ist alles bloß PR.“
Die korrekte Reaktion ist es, den externen Wissenschaftlern zu glauben, die euch sagen, dass bleihaltiges Benzin zu schädlich ist, um es sinnvoll zu nutzen, und dass weder Firmen noch Behörden es herstellen oder verbrennen sollten.
Diese externen Wissenschaftler sind nicht Teil eines geheimen Plans der Mineralöl-Firmen. Und in der KI sind die Forscher, die gekündigt haben, und die Programmierer, die auf Millionen Dollar an Firmenanteilen verzichtet haben, um sagen zu können: „Pfeif auf die Verträge, die uns verbieten, etwas Negatives über euch zu sagen“, nicht insgeheim unter der Kontrolle der KI-Firmen. Die Rhetorik der KI-Firmenbosse ist das, was sie euch glauben machen wollen. Was ihr von den externen Wissenschaftlern hört, ist etwas ganz anderes. Vielen Dank.
---
Ich würde mich freuen, wenn wir auch in Deutschland mehr auf diese Wissenschaftler hören würden, die vor den Gefahren der KI warnen, und damit aufhören, sie als „Panikmacher“ oder „nützliche Idioten“ zu diffarmieren. Der SPIEGEL hat gerade den Anfang gemacht und ein sehr lesenswertes Interview mit Geoffrey Hinton veröffentlicht. Dafür bin ich sehr dankbar.
Kommentar schreiben
Mischa (Sonntag, 22 September 2024 00:13)
Hallo Karl,
ich sehe die Lösung für das Problem einfach nicht. Wie soll es eine globale Kontrolle von KI geben, wenn keine wirkliche Einigung zu irgendetwas anderem dauerhaft besteht. Das einzig Vergleichbare sind vielleicht noch A-B-C-Waffen, deren Einsatz geächtet ist. Nur sind die wahrscheinlich katastrophalen Folgen der Entwicklung einer superintelligen KI noch abstrakter und daher funktioniert diese Art von Abschreckung wohl nicht. Wie soll man irgendeine Firma, einen Staat oder vielleicht sogar eine einzelne Person davon abhalten, eine künstliche Intelligenz zu entfesseln, die von anderen limitiert wird, damit sie nicht den Zustand einer Superintelligenz erreicht?
VG Mischa
Karl Olsberg (Sonntag, 22 September 2024 09:47)
@Mischa: Das Problem ist nicht, dass Kontrolle unmöglich ist - für hochentwickelte KI braucht man eine Menge Rechenpower, die durchaus regulierbar wäre, ähnlich wie Atomenergie. Das Problem ist, dass die Notwendigkeit einer strikten Regulierung und Kontrolle noch nicht allgemein erkannt wird. Die KI-Firmen werfen jede Menge Nebelkerzen, damit das so bleibt. Leute wie Eliezer Yudkowsky, Yoshua Bengio, Geoffrey Hinton und auch ich selbst versuchen, über die Gefahren aufzuklären, damit sich das ändert.
Die beliebte Aussage "Wir können ja sowieso nichts machen" ist eine selbsterfüllende Prophezeiung und somit nicht hilfreich. Siehe dazu mein YouTube-Video "KI-Entwicklung lässt sich nicht aufhalten! Wirklich?" https://www.youtube.com/watch?v=EWAi8aWOCxo.
Mischa (Sonntag, 22 September 2024 12:26)
@Karl Dein Engagement in Bezug auf KI ist richtig, aber das Risiko zu erkennen ist nur ein Teil des Problems.
Menschen sind für Heilsversprechen zu anfällig. Die menschliche Natur bedingt, dass Kontrollversuche nutzlos scheinen, sobald die Verheißungen die rationale Bewertung aushebeln. Dafür gibt es unzählige Beispiele. Hinzu kommen noch andere menschliche Schwächen, über die habe ich versucht in meinem Roman aufzuklären.
Wie soll man Menschen überzeugen, dass 80 Jahre in einem schweren und anstrengenden Leben besser sind, als die mögliche Existenz in einem virtuellen Paradies? Aber vielleicht habe ich "Virtua" ja falsch verstanden...
Karl Olsberg (Sonntag, 22 September 2024 12:45)
@Mischa: Du hast recht, das ist ein Problem. Aber ich glaube, dass die Menschheit oft unterschätzt wird. Was von außen wie Dummheit oder Bosheit aussieht, ist aus Sicht derjenigen, die diese Entscheidungen treffen, oft erschreckend plausibel. Und wir waren noch nie in der Situation, ein Spiel zu spielen, bei dem alle verlieren, wenn ein einziger Spieler eine bestimmte Entscheidung trifft (inklusive dieses Spielers).
Ich habe Virtua als Warnung geschrieben, nicht als Zukunftsprognose. Meine Hoffnung ist, dass die Menschen am Ende nicht ganz so dumm sind wie in dem Buch. Gibt es eine Garantie dafür? Nein. Gut möglich, dass wir auch in der Realität dumm genug sind, eine unkontrollierbare KI zu entwickeln. Aber das ist keineswegs so sicher, wie die meisten Menschen glauben. Interessanterweise denkt nämlich jeder, er selbst wäre niemals so dumm, die anderen aber schon.
Mischa (Sonntag, 22 September 2024 13:14)
@Karl Oft sind Warnungen allerdings Zukunftsprognosen. Im Kindergarten warnt und beeinflusst ein Mensch mit mehr Weitblick bzw. Überblick einen anderen, der Dinge vielleicht noch nicht so wahrnimmt...und meistens geht die Situation deshalb gut. Manchmal allerdings auch nicht, d.h. auf diese Weise lernt der unerfahrene Mensch auch irgendwie daraus.
Wir sind uns aber wohl einig, dass diese Art gewohnter Lernprozesse im Nachhinein bei der Erschaffung einer unkontrollierbaren KI fatal wäre.
Heinrich (Mittwoch, 02 Oktober 2024 19:57)
[zitat] für hochentwickelte KI braucht man eine Menge Rechenpower, die durchaus regulierbar wäre, ähnlich wie Atomenergie.[/zitat]
Ja, nach heutigem Stand der Technik. Ich weiß zwar, dass bei der Herstellung von Chips bald die physikalischen Grenzen erreicht sind, aber vielleicht kann man irgendwann sehr viel mehr Rechenpower mit wenig Energie erreichen.
Wieviel Watt verbraucht ein menschliches Gehirn? Ganz ohne Silizium. Ich traue den unmoralischen Menschen zu, menschliche Gehirne zu züchten und wenn nötig 100 oder 1000 parallel zu schalten.
Die Anordnung ist dann 100 oder 1000x "intelligenter" als ein Mensch und braucht nur etwas Glukose. Naja, noch ein paar Watt für's Interface. ;)
Der Phantasie sind keine Grenzen gesetzt, und wenn es Geld und Macht bringt, wird es auch gemacht.
Karl Olsberg (Donnerstag, 03 Oktober 2024 11:27)
@Heinrich: Es stimmt natürlich, mit fortschreitender Technik wird es schwieriger, zu kontrollieren, wer Zugriff auf große Rechenpower hat. Aber vielleicht lernen wir ja in der Zwischenzeit auch dazu - entweder, weil wir besser verstehen, wie gefährlich manche Formen von KI sind, oder weil wir Wege gefunden haben, diese Gefahr einzudämmen.
Schön wär's allerdings, wenn 100 Gehirne 100mal so intelligent wären wie eines - dann hätten wir vermutlich viele Probleme nicht. Mein Eindruck ist eher, dass 100 Gehirne in Kombination manchmal Schwierigkeiten haben, die Intelligenz eines einzigen Gehirns zu erreichen, zumindest, wenn sie unterschiedlicher Meinung sind. Und was das "Züchten" von Gehirnen angeht, das kriegen wir auch auf die traditionelle Weise schon ganz gut hin. ;)
Heinrich (Freitag, 04 Oktober 2024 00:30)
Hallo Karl,
wenn es mir gelingt, Gehirne zu züchten und 100 parallel zu schalten, dann sorge ich dafür, dass alle Deine Meinung vertreten. Dann kommt dabei wenigstens etwas Vernünftiges heraus! :)
Gruß Heinrich
Karl Olsberg (Freitag, 04 Oktober 2024 08:42)
@Heinrich: Wenn du schon dabei bist, mach das doch bitte gleich auch mit den schon bestehenden 8 Milliarden. Ich wollte schon immer mal der Herrscher der Welt sein.
Heinrich (Samstag, 05 Oktober 2024 01:23)
Ich gebe Dir 3,9 Milliarden ab. Sollten wir ausnahmsweise mal nicht einer Meinung sein, will ich sicherheitshalber die Mehrheit behalten. ;)
Ansonsten haben wir 8 Millarden Hirne im Griff.
(könnte dann allerdings ganz schön langweilig werden, ich denke lieber noch einmal nach.....