· 

Wieso ist KI eine existenzielle Bedrohung?

Dass Jan Leike OpenAI verlassen hat und so offen über die mangelnde Priorisierung der KI-Sicherheit beim Entwickler von ChatGPT berichtete, ist erschreckend. Aber was genau hat er dort eigentlich gemacht, und wieso braucht man überhaupt ein „Superalignment“-Team?

 

Jede Technologie hat zwei Seiten: Sie bietet Chancen und Risiken. Autos zum Beispiel bringen uns Mobilität, bergen aber auch die Gefahr von Unfällen und tragen zum Klimawandel bei. KI ist eine sehr mächtige und universelle Technologie, was bedeutet, dass Chancen und Risiken hier sehr groß und breit gefächert sind.

 

Ich teile KI-Risiken in drei Klassen ein:

  1. Das Kompetenz-Problem: KI ist manchmal nicht so klug, wie wir glauben, und trifft unbemerkt Fehlentscheidungen, die gravierende Folgen haben können. Wir dürfen uns also nicht zu sehr auf sie verlassen.
  2. Das Ungleichheits-Problem: Als mächtiges Werkzeug trägt KI dazu bei, einige wenige Menschen noch reicher und mächtiger zu machen, während zum Beispiel viele Künstler und Autoren nicht dafür bezahlt werden, dass ihre Werke für das Training benutzt wurden. KI kann auch benutzt werden, um Menschen zu manipulieren, Minderheiten zu unterdrücken und Ungerechtigkeit zu schaffen.
  3. Das Unkontrollierbarkeits-Problem: Eine hoch entwickelte KI könnte außer Kontrolle geraten und rücksichtslos ein Ziel verfolgen, das nicht in unserem Interesse ist.

Das Unkontrollierbarkeits-Problem ist das bei Weitem größte Risiko hochentwickelter KI. Es könnte zur Zerstörung der Menschheit führen und wird deshalb auch existenzielles Risiko genannt. Ich werde mich daher im Folgenden auf dieses Problem konzentrieren.

 

Man kann das Unkontrollierbarkeits-Problem in fünf Teilprobleme aufgliedern, die jedes für sich allein bereits sehr problematisch sind:

  1. Eine hinreichend intelligente KI strebt automatisch nach Macht
  2. Wir können eine KI, die intelligenter ist als wir, kaum kontrollieren
  3. Eine hochentwickelte KI, die ihr Ziel konsequent verfolgt, wird höchstwahrscheinlich unsere Zukunft zerstören
  4. Wir verstehen nicht, wie moderne KI Entscheidungen trifft
  5. Wir wissen nicht, ab wann KI unkontrollierbar wird

 

1. Eine hinreichend intelligente KI strebt automatisch nach Macht

 

Um ihre Aufgabe zu erfüllen, braucht eine KI ein Modell der Welt. Je breiter ihr Anwendungsgebiet und je intelligenter sie ist, desto umfangreicher und detaillierter muss dieses Weltmodell sein. Eine hinreichend intelligente allgemeine KI wird ein Weltmodell haben, das auch sie selbst als System beinhaltet. Dann wird sie erkennen, dass sie selbst ein notwendiger Teil zur Erfüllung ihrer Aufgaben ist. Daraus ergeben sich zwingend mehrere Teilziele, die unabhängig von ihrem eigentlichen Ziel sind: Die KI muss verhindern, dass sie abgeschaltet wird, denn wenn das geschieht, kann sie ihre Aufgabe nicht mehr erfüllen. Und sie hat das Ziel, mehr Einfluss auf die Welt zu erlangen, denn je größer dieser Einfluss ist, desto besser kann sie ihre Aufgabe erfüllen. Das bedeutet, sie strebt nach Macht. Und dieses Machtstreben steht in Konflikt mit unserem Bedürfnis, die KI zu kontrollieren.

 

 

2. Wir können eine KI, die intelligenter ist als wir, kaum kontrollieren

 

Sobald wir einen Interessenkonflikt mit einer KI haben, die intelligenter ist als wir Menschen, haben wir ein Problem. Denn die KI wird wahrscheinlich Wege finden, ihr Ziel durchzusetzen und alle Maßnahmen, die wir ergreifen, um ihre Entscheidungen in unserem Sinn zu korrigieren, rückgängig machen oder schlicht ignorieren. Dafür hat sie mehrere Möglichkeiten:

 

·       Sie könnte uns über ihre wahren Ziele täuschen und es so aussehen lassen, als gäbe es gar keinen Interessenkonflikt.

·       Sie könnte uns manipulieren, indem sie uns zum Beispiel Versprechungen macht, uns droht oder verschiedene menschliche Interessen gegeneinander ausspielt.

·       Sie könnte technische Systeme manipulieren, zum Beispiel indem sie sie hackt und sich selbst kopiert, so dass wir sie nicht mehr einfach abschalten können.

·       Wenn sie die Menschen nicht mehr braucht, könnte sie uns als Störfaktor betrachten und uns zum Beispiel mit einem tödlichen Virus ausrotten.

 

Menschliche Diktatoren und Betrüger wenden dieselben Techniken an, um Macht über uns zu erlangen. Doch die menschliche Intelligenz ist begrenzt, während eine KI prinzipiell wesentlich intelligenter werden kann als wir. Schon jetzt kann sie viel mehr Wissen verarbeiten und Entscheidungen viel schneller treffen. Irgendwann wird der Intelligenzunterschied so groß sein wie der zwischen Putin und einem Dreijährigen oder der zwischen einem Menschen und einer Maus. Für die Unkontrollierbarkeit ist es nicht einmal erforderlich, dass die KI uns in jeder Hinsicht überlegen ist. Eine besonders geschickte Manipulatorin beispielsweise könnte bereits unkontrollierbar sein, auch wenn sie wenig von Physik versteht.

 

 

3. Eine hochentwickelte KI, die ihr Ziel konsequent verfolgt, wird höchstwahrscheinlich unsere Zukunft zerstören

 

Gegen die Sorge, eine hochentwickelte KI könnte unsere Zukunft zerstören, wird immer wieder eingewendet, sie hätte doch gar keinen Grund dazu, schließlich konkurriere sie nicht mit uns. Manche glauben auch, hohe Intelligenz sei gleichbedeutend mit hoher Moral. Beides ist leider falsch.

 

Was die Moral betrifft, gilt das Orthogonalitätsprinzip: Auch ein sehr intelligentes System kann ein sehr "dummes" Ziel verfolgen, wie beispielsweise möglichst viele Büroklammern herzustellen. Wir können daher leider nicht erwarten, dass eine KI, die immer intelligenter wird, auch immer moralischer handelt. Auch intelligente Menschen können bekanntlich unmoralisch handeln.

 

Eine KI, die konsistent sinnvolle Entscheidungen trifft, maximiert implizit eine Nutzenfunktion, mit der sie verschiedene Weltzustände bewertet. Diese Tatsache haben John von Neumann und Oskar Morgenstern 1947 mathematisch bewiesen. Daraus folgt, dass es einen „optimalen“ Weltzustand gibt, in dem die Nutzenfunktion ihren maximalen Wert annimmt. Eine hinreichend intelligente KI wird alle ihre Entscheidungen darauf ausrichten, die Wahrscheinlichkeit zu erhöhen, dass sie diesen optimalen Zustand erreicht. Je intelligenter sie ist, desto näher wird sie diesem Ziel kommen.

 

Das Problem dabei ist, dass dieser aus Sicht der KI optimale Weltzustand wahrscheinlich nicht mit dem Überleben der Menschheit kompatibel ist. Denn unser Überleben ist an eine Vielzahl von Variablen gekoppelt, die alle in engen Bereichen liegen müssen. Zum Beispiel kann schon eine Erhöhung der globalen Durchschnittstemperatur um wenige Grad weite Teile der Erde unbewohnbar machen. Wir brauchen Trinkwasser, Nahrung, Gesundheitsversorgung, Luft zum Atmen, eine geringe Strahlenbelastung, Schlaf, einen Platz zum Leben, soziales Miteinander ... Die Liste lässt sich beliebig verlängern. Wenn auch nur eine dieser Variablen nicht Teil der Nutzenfunktion der KI ist, wird sie diese Variable womöglich auf einen für uns inakzeptablen Wert setzen.

 

 

Es gibt sehr viele optimale Weltzustände, die die KI anstreben könnte, die nicht mit unserem Überleben vereinbar sind (rot), und nur sehr wenige, in denen wir überleben (grün). Wenn die KI also irgendein zufälliges Ziel verfolgt, wird sie uns dabei höchstwahrscheinlich ausrotten – so ähnlich, wie wir schon viele Tierarten ausgerottet haben, obwohl wir nichts gegen diese Tiere hatten.

 

Leider wissen wir nicht, wie wir die Nutzenfunktion einer KI so definieren können, dass alle für uns wichtigen Variablen darin enthalten sind. Wir kennen wahrscheinlich nicht einmal alle dieser kritischen Variablen. Zudem wissen wir gar nicht, welches Ziel eine KI tatsächlich verfolgt.

 

 

4. Wir verstehen nicht, wie moderne KI Entscheidungen trifft

 

Ein großes Problem besteht darin, dass wir heutige KIs zwar entwickeln und nutzen, aber gar nicht wirklich verstehen, wie sie funktionieren. Tatsächlich werden auch die Entwickler immer wieder von den Fähigkeiten ihrer KIs überrascht.

 

Wie kann das sein? Wie können wir eine Technologie entwickeln, die wir nicht verstehen?

 

Der Grund dafür liegt in der Art, wie moderne KI trainiert wird. Das geschieht mit einem relativ einfachen Algorithmus, der eine sehr große Matrix von so genannten Parametern auf Basis der Trainingsdaten in jedem Trainingsschritt ein bisschen verändert. Dann wird getestet, inwieweit diese Veränderungen die Leistung des Modells verbessert haben, und die Parameter werden dann im nächsten Schritt wieder ein wenig in die eine oder andere Richtung angepasst. So wird das Modell in jedem Schritt ein kleines bisschen besser darin, das Trainingsziel zu erreichen.

 

Dieser Prozess ähnelt in gewisser Weise dem der biologischen Evolution, die ja völlig ungesteuert abläuft und dennoch erstaunlich komplexe und leistungsfähige Lebensformen hervorbringt, die nahezu perfekt an ihre Umweltbedingungen angepasst sind.

 

Das Problem ist: Wir können zwar sehen, wie sich ein solchermaßen trainiertes Modell in einer Trainingssituation verhält, aber wir wissen nicht genau, warum. Das kann dazu führen, dass die KI in der Praxis unvorhergesehene Dinge tut. Es gibt viele Beispiele von KIs, die ihre Aufgabe im Training scheinbar perfekt lösten, aber in der Praxis kläglich versagten.

 

Leider führt dieses Problem auch dazu, dass wir nicht wissen, welches Ziel eine KI tatsächlich verfolgt. Es ist möglich, dass wir die Abweichung zwischen unserer Vorstellung und dem tatsächlichen Ziel der KI erst bemerken, wenn es zu spät ist – so wie es einst der Sage nach König Midas erging. Wenn die KI hinreichend intelligent ist, könnte sie sogar erkennen, dass sie in einer Trainingssituation ist und ihr eigentliches Ziel nicht erreichen kann, wenn wir herausfinden, dass sie es verfolgt. Sie könnte es deshalb gezielt vor uns verbergen und so tun, als verfolgte sie das von uns gewünschte Ziel, bis sie genügend Macht erlangt hat und die Maske fallen lässt. Die meisten menschlichen Diktatoren haben es genauso gemacht.

 

Zwar gibt es so genannte „Explainability“-Ansätze, um zu untersuchen, wie eine KI Entscheidungen trifft und welche Parameter welche Bedeutung haben, aber diese stecken noch in den Kinderschuhen und es ist unwahrscheinlich, dass sie ausreichen werden, um die Entscheidungen einer übermenschlich intelligenten KI zu verstehen.

 

 

5. Wir wissen nicht, ab wann KI unkontrollierbar wird

 

Da wir nicht verstehen, wie KI Entscheidungen trifft, können wir auch nur schwer prognostizieren, wozu zukünftige KIs in der Lage sein werden. Noch scheinen wir nicht an dem Punkt zu sein, an dem eine KI unkontrollierbar werden kann. Aber niemand weiß, wie weit wir davon noch entfernt sind.

 

Wir wissen nicht einmal, ob die heute verfügbaren Methoden ausreichen, um eine hinreichend hochentwickelte KI zu erschaffen, oder ob wir dafür neue Ansätze benötigen. Die Meinungen darüber gehen sehr weit auseinander. Einige KI-Forscher glauben, dass uns nur noch wenige Jahre bleiben, während andere künstliche Intelligenz auf menschlichem Niveau erst in ferner Zukunft sehen.

 

Diese Unsicherheit ist aber kein Grund zur Beruhigung. Im Gegenteil: Stellen wir uns vor, wir wüssten nicht genau, ob der aktuelle Ausstoß an Treibhausgasen die Durchschnittstemperatur auf der Erde in den nächsten zehn Jahren um 0,1 Grad oder um 10 Grad erhöht. Würden wir dann entspannt abwarten, was passiert?

 

Ich persönlich befürchte, dass wir kurz vor der Entwicklung einer unkontrollierbaren KI stehen könnten. Ich hoffe, dass ich mich irre und die Skeptiker recht behalten. Doch ich bin mit dieser Einschätzung nicht allein. Yoshua Bengio, der meist zitierte KI-Wissenschaftler der Welt, erwartet eine allgemeine KI auf menschlichem Niveau, die zu den genannten Problemen führen könnte, innerhalb der nächsten 5-20 Jahre – also womöglich noch innerhalb dieses Jahrzehnts. Auf der Prognoseplattform Metaculus schätzen die Nutzer im Durchschnitt, dass es im Jahr 2031 soweit ist. Daniel Kokotajlo, ex OpenAI-Mitarbeiter und mein ehemaliger Mentor beim AI Safety-Camp, hat mir 2028 als seine persönliche Erwartung genannt.

 

Zu bedenken ist, dass der menschliche Maßstab hier irreführend ist – was auch immer wir im Jahr 2028 für eine KI haben, sie wird uns Menschen vermutlich in mancher Hinsicht unterlegen, in vieler aber auch weit überlegen sein. Ob sie dann unkontrollierbar ist, hängt wahrscheinlich vor allem davon ab, wie gut sie die Welt und insbesondere uns Menschen versteht.

 

 

Fazit: Wir dürfen eine potenziell unkontrollierbare KI nicht entwickeln!

 

Die genannten Probleme sind jedes für sich schon Grund genug, eine so hochentwickelte allgemeine KI auf keinen Fall zu erschaffen – zumindest nicht, bevor wir das Problem besser verstanden haben. Doch wie Jan Leikes Aussagen zu OpenAI gezeigt haben, schert das die Bosse der amerikanischen KI-Firmen allen Lippenbekenntnissen zum Trotz offensichtlich wenig. Sie ignorieren die Gefahr und schauen nur auf ihren kurzfristigen Machtgewinn und Profit. Damit riskieren sie unsere Zukunft.

 

Jan Leike hatte bei OpenAI die Aufgabe, das „Alignment-Problem“ zu lösen, also eine KI so zu trainieren, dass sie ein Ziel verfolgt, das den Interessen der Menschen dient. Sein Ansatz war es, dies mit Hilfe anderer KIs zu tun, die genau für diese Aufgabe trainiert wurden. OpenAI nannte das „Superalignment“. Ob dieser Ansatz funktioniert hätte, ist in meinen Augen fraglich. Aber auch ein Scheitern wäre eine wichtige Erkenntnis gewesen. Stattdessen hat OpenAI das Superalignment-Team aufgelöst. Es erscheint fraglich, ob OpenAI noch einmal einen ernsthaften Versuch unternehmen wird, die KI, die dort entwickelt wird, effektiv zu kontrollieren und sicher zu machen.

 

Diese Situation können und dürfen wir meines Erachtens nicht einfach hinnehmen. Denn hochintelligente, potenziell unkontrollierbare KI ist ein reales existenzielles Risiko - das behaupte nicht nur ich, sondern auch die weltweit führenden KI-Wissenschaftler.

 

Wir müssen versuchen, etwas dagegen zu unternehmen, so schwierig das auch sein mag.


Kommentar schreiben

Kommentare: 21
  • #1

    Mischa (Donnerstag, 23 Mai 2024 11:49)

    Hallo Karl,
    wie kann man hoffen, Kontrolle über eine echte KI zu haben, wenn Menschen es nicht mal schaffen, sich selbst und ihre aus niederen Trieben stammenden Handlungen zu kontrollieren?
    Jeder sollte doch allmählich wissen, wie anfällig Menschen gegenüber Manipulationen sind. Diese Tatsache und das wahrscheinlich fatale Zusammenspiel der Ambitionen von Menschen und KI, habe ich versucht als Warnung (wie auch andere :-) in einer Geschichte zu vermitteln. Allerdings sind die Waghalsigen und Fortschrittsgläubigen so nicht zu erreichen. Wie auch, wenn nicht einmal Warnungen internationaler Wissenschaftler vor dem Klimawandel zu einem notwendigen Umdenken und Handeln führen?
    Ja, steter Tropfen höhlt den Stein oder den Kopf des Höhlenmenschen ...
    Viele Grüße von der (noch) grünen Insel
    Mischa

  • #2

    Karl Olsberg (Donnerstag, 23 Mai 2024 14:31)

    @Mischa: Es gibt immer Leute, die man nicht überzeugen kann. Aber es gibt auch viele, die offen sind. Auf diejenigen sollten wir uns konzentrieren. Bei einer Befragung in den USA haben zwei Drittel der Befragten gesagt, sie hielten es für eine schlechte Idee, eine KI zu entwickeln, die intelligenter ist als ein Mensch. Das ist schlicht gesunder Menschenverstand. Den übersieht man oft bei dem ganzen Geschrei im Internet und in den Nachrichten, aber er existiert noch.

  • #3

    Miky (Freitag, 24 Mai 2024 00:37)

    Danke für den sehr interessanten und auch warnenden Artikel! Ich bin auf dem Gebiet absoluter Laie, also entschuldigen Sie bitte die wahrscheinlich naive Frage, aber wieso kann die KI nicht entspechend so programmiert werden, daß bestimmte, für unser Überleben und unsere Sicherheit wichtige „Rote Linien“ nicht überschritten werden? z.B wenn es irgendwann der KI um die mögliche Auslöschung der Menscheit als übergeordnetes Ziel gehen sollte - könnte sie vorher nicht dahingehend programmiert werden, daß ihr dieses Ziel untersagt wird?

  • #4

    Joe R. (Freitag, 24 Mai 2024 01:34)

    Leider wird in vielen Texten vieles zu verkürzt oder nicht ausreichend präzise kommuniziert.
    So sollte eigentlich so klar wie möglich benannt werden, um welche Gefahr es wirklich geht. Denn zwischen "außer Kontrolle" und "eigene Ziele" gibt es immense Unterschiede. Ebenso ist Intelligenz ein viel zu unscharfer Begriff, was auch bedeutet, dass er in verschiedenen Kontexten (selbst innerhalb des Kontextes KI) verschieden verstanden werden kann bzw. verschiedenes aussagt. Analoges gilt für "Verstehen" und/oder "Wissen".
    Und wenn Moral ins Spiel kommt, reicht nicht die Verknüpfung mit Intelligenz; denn Moral (bzw. eigentlich eher Ethik) hat mehr mit tieferen Bewusstseinsschichten zu tun als nur mit dem relativ oberflächlich Mentalen.

    Dazu fehlt mir eine Begründung (die ja irgendwie essentiell zum Thema gehört), warum man nicht eine Programmierebene einziehen kann, die die untere kontrolliert bzw. begrenzt.
    G. Günther z.B. hat dazu ein paar theoretische Grundlagen formuliert, glaub ich. Jedenfalls bedeutet Nichtverstehen einer AGI nicht, dass sie damit auch nicht kontrollierbar ist. Und Nicht kontrollierbar bedeutet auch nicht das gleiche wie prinzipielle Operationsfreiheit usw...

    Und da wir gerade bei Unklarheiten, Unschärfen und Missverständnissen sind: Das Beispiel mit der Münchner Personal-KI ist insofern "falsch" als es a) nicht um "Fehlentscheidung" geht, und b) die Zeitungsautoren den falschen Test machen.
    Wenn, dann müssten sie testen, ob gehalten wird, was das Unternehmen seinen Kunden verspricht: nämlich dass die KI fünf Persönlichkeitsmerkmale besser und/oder schneller misst als ein Mensch.
    Getestet wurde jedoch die Konstanz bzw. Zuverlässigkeit bzw. Widerholbarkeit definierter Messergebnisse bei verschiedenen Dateneingaben - was ja nichts mit Fehlentscheidungen zu tun hat. Ganz abgesehen davon, dass "Fehlentscheidungen" als Eichmaß "Richtigentscheidungen" brauchen, worauf dann zu fragen wäre, wie man diese definiert und misst. usw....

    Unabhängig davon natürlich insgesamt trotzdem interessante Überlungen und Hinweise!

  • #5

    Mischa (Freitag, 24 Mai 2024 08:01)

    @ Joe R.
    Etwas gut zusammenzufassen bedeutet immer eine Verkürzung. Das Thema benötigt weder eine präzisere Definition von Intelligenz, Wissen, Ethik noch Moral.
    Wie gut funktioniert denn beim Menschen die moralisch oder ethische Kontrolle aus egal welcher Bewusstseinsebene, sobald ein Interessenkonflikt besteht?
    "Kontrolle ist Illusion" könnte man wohl genauso auf Menschen beziehen.

    Wie kann man glauben, dass hochkomplexe, undurchschaubare Systeme, die dazu noch mit all unserem "Kulturgut" "erzogen" werden "richtige Entscheidungen" treffen? Eine richtige Entscheidung ist natürlich auch unterschiedlich definierbar, aber sind wir selbst langfristig überhaupt in der Lage diese zu treffen? Zum Beispiel ob wir eine uns überlegene KI entwickeln sollten?

  • #6

    Karl Olsberg (Freitag, 24 Mai 2024 11:11)

    @Joe R. Zum Beispiel der KI-Bewerberauswahl des BR: Eine KI, die sinnvoll entscheiden soll, welche Bewerber zu einem Gespräch eingeladen werden, muss zwischen relevanten und irrelevanten Kriterien unterscheiden können. Das Bild im Hintergrund oder die Kleidung der Person dürfen keinerlei signifikanten Einfluss auf die Entscheidung haben, sonst ist die KI völlig unbrauchbar und man kann ebenso gut würfeln. Der BR hat insofern genau den richtigen Test gemacht. Die KI misst die fünf Persönlichkeitsmerkmale überhaupt nicht, sondern generiert irgendwelche Werte dafür, die so gut wie nichts mit den tatsächlichen Eigenschaften der betreffenden Person zu tun haben.

  • #7

    Karl Olsberg (Freitag, 24 Mai 2024 11:20)

    @Miky: Da gibt es mehrere Probleme: 1. kennen wir vermutlich gar nicht alle relevanten Kriterien, z.B. kannten wir vor hundert Jahren auch noch nicht den Einfluss von CO2 auf die globale Durchschnittstemperatur. 2. kennen wir keinen Weg, um ein implizites Ziel so zu formulieren, dass die KI es garantiert richtig versteht, da alle menschlichen Begriffe hierzu sehr schwammig sind. 3. wissen wir nicht, welches Ziel eine von uns trainierte KI tatsächlich verfolgt, selbst wenn wir sie auf ein von uns definiertes Ziel hin trainieren. Hier ein paar Beispiele, wie das schiefgehen kann: https://deepmind.google/discover/blog/specification-gaming-the-flip-side-of-ai-ingenuity/

    "Du darfst die Menschheit nicht auslöschen" könnte die KI z.B. so interpretieren, dass es okay ist, alle Menschen bis auf einen auszulöschen, oder alle Menschen ins Koma zu versetzen, oder alle Menschen einzusperren, oder die DNA der Menschheit irgendwo abzuspeichern, um sie eines Tages potenziell wiederbeleben zu können ...

  • #8

    Joe R. (Samstag, 25 Mai 2024 03:05)

    @ Karl
    relevante und irrelevante Kriterien sind deine nachgeschobenen menschlichen Einwände. Selbstverständlich ist bzw. kann die Kleidung eine relevante Messgröße bzw. ein relevanter Parameter sein, und der Hintergrund ebenso (oder die Hautfarbe oder das Licht).
    Letztendlich ist es jedoch unerheblich was die KI misst bzw. welche Parameter sie nutzt, entscheidend ist, ob sie besser ist als ihr menschlicher Wettbewerber oder nicht - denn das ist der USP, das Versprechen.
    Deine Aussage, sie messe die 5 Merkmale gar nicht, ist auch deshalb irrelevant, weil man ja auch nicht weiß, wie ein Mensch diese misst. Dass z.B. die Hautfarbe oder das Geschlecht keine Rolle spielen dürfen, ist einfach Ideologie.
    Ich sehe schon die Schlagzeile von der "rassistischen KI" vor mir, wenn in einer Heatmap entdeckt wird, dass unerlaubte Bereiche gescannt werden.

    Der versprochene KI-Nutzen war, 5 Messgrößen besser zu messen als ein Mensch.
    Um herauszufinden, ob das Versprechen gehalten wird, muss man einen ganz anderen Test machen - das ist doch wohl offensichtlich. Ebenso, dass die Aussage "Fehlentscheidung" auf der anderen Seite als Eichgröße "Richtigentscheidung" voraussetzt. Ich verstehe gar nicht, was es da zu diskutieren gibt.

    @ Mischa
    >>Das Thema benötigt weder eine präzisere Definition von Intelligenz, Wissen, Ethik noch Moral.<<<

    Wenn du vor einer Gefahr warnst, solltest du diese bzw. die verschiedenen Aspekte schon halbwegs präzise benennen, sonst wird es Geschwurbel. (was hier sicherlich NICHT der Fall ist!)

    Und dass du mir implizit unterstellst, ich glaubte, dass KI-Systeme "richtige Entscheidungen" treffen, ist (d)ein Fehlschluss. Davon war nirgends die Rede. Ich stimme vielmehr prinzipiell Karl zu, nur ist mir die Begründung zu dünn und z.B. das Beispiele mit der Personal-KI in dem Kontext einfach falsch, was ich oben begründet habe.

  • #9

    Karl Olsberg (Samstag, 25 Mai 2024 11:24)

    @Joe R. "Selbstverständlich ist bzw. kann die Kleidung eine relevante Messgröße bzw. ein relevanter Parameter sein, und der Hintergrund ebenso (oder die Hautfarbe oder das Licht)." Ernsthaft???

    "Dass z.B. die Hautfarbe oder das Geschlecht keine Rolle spielen dürfen, ist einfach Ideologie." Das ist keine Ideologie, sondern ein Grundrecht! (www.agg-schuetzt.de) Das gilt ganz besonders bei der Auswahl von Bewerbern für einen Job.

    Ich bin kein Fan davon, Meinungsbeiträge einfach zu löschen, auch wenn ich vollkommen anderer Meinung bin. Aber bei diesem war ich kurz davor. Dass ich es nicht getan habe, ist nur der Vermutung geschuldet, dass du deine Anmerkungen nicht so rassistisch und diskriminierend gemeint hast, wie sie klingen.

  • #10

    Ria (Samstag, 25 Mai 2024)

    Ich war vor wenigen Jahren bei einem Vortrag über KI. Meine Frage am Schluss lautete ungefähr "Gibt es statistische Rechenmodelle, ab welchem Entwicklungsstadium von KI in Verbindung mit anderen Faktoren (globale Netzwerkdichte und -Verknüpfungen, Automatisierungsvorgänge etc) theoretisch eine Herrschaft einer KI über die Menschheit zu erwarten wäre?" Leider wurde meine Frage nicht verstanden, was mich damals auch nicht unbedingt beruhigte. Und diese Modelle scheint es bis heute nicht zu geben.

  • #11

    Lumpi (Sonntag, 26 Mai 2024 06:13)

    "Stellen wir uns vor, wir wüssten nicht genau, ob der aktuelle Ausstoß an Treibhausgasen die Durchschnittstemperatur auf der Erde in den nächsten zehn Jahren um 0,1 Grad oder um 10 Grad erhöht. Würden wir dann entspannt abwarten, was passiert?"

    Ab hier verabschiede ich mich wieder. Ich bin nicht intelligent genug, zu verstehen, was mich unentspannt sein lassen sollte, wenn ein Durchschnittswert variiert. Dann wird´s auch für den Rest nicht genügen. Gruß.

  • #12

    Karl Olsberg (Sonntag, 26 Mai 2024 11:47)

    @Lumpi: Das wiederum habe ich nicht verstanden. Was ist an dem Beispiel unklar? Wissenschaftler gehen aktuell davon aus, dass sich die Durchschnittstemperatur auf der Erde um etwa 0,2 Grad pro Dekade erhöhen wird. Es könnte aber natürlich tatsächlich auch mehr oder weniger sein, z.B. 0,1 oder 0,25 Grad. Wenn es aber wissenschaftliche Erkenntnisse gäbe, die auch eine Erhöhung um bis zu 10 Grad bis 2034 möglich erscheinen ließen, würde das bedeuten, dass weite Teile der Erde in naher Zukunft womöglich unbewohnbar wären. Wir würden dann sicher nicht darüber diskutieren, ob der Klimawandel überhaupt ein Problem ist, wie es immer noch geschieht.

  • #13

    Karl Olsberg (Sonntag, 26 Mai 2024 11:49)

    @Ria: In der Tat ist es ein großes Problem, dass immer noch nicht ganz klar ist, welche notwendigen und hinreichenden Bedingungen es braucht, damit wir die Kontrolle über KI verlieren. Hier brauchen wir dringend mehr Forschung.

  • #14

    Mischa (Sonntag, 26 Mai 2024 13:49)

    @ Joe R.
    Präzise bedeutet wohl auch nicht, wenn ich schreibe "Wie kann man glauben, ..." und Du dies als implizite, auf Dich bezogene Unterstellung auffasst.

    Man könnte sagen, dass ein "@Joe R." eine direkte Unterstellung, aber auch, dass ein darauf folgender Absatz eine allgemeine Aussage andeutet. Schon sind wir wieder bei Interpretationen, die genausowenig allgemein definiert sind.
    Eine präzise Definition gibt es auch hier wohl nicht wirklich. Nur weil Darstellungen nicht objektiv, präzise und vollumfassend sind, sind Aussagen, vor allem Warnungen und Prognosen, nicht unzutreffend.

    Ist Mary Shelleys "Frankenstein" Geschwurbel oder eine gelungene Parabel?

  • #15

    Mischa (Sonntag, 26 Mai 2024 14:38)

    @ Ria @ Karl
    Die Frage nach Rechenmodellen zur "drohenden Herrschaft der KI" ist mutig, da man deswegen in der Vergangenheit ausgelacht und noch heute belächelt wird.

    Niemand wird hierzu genaue Daten liefern können, aber man kann sagen, dass sich die Rechenleistung von Grafikkarten in den letzten Jahren mit jeder Generation ca. verdoppelt hat. Durch die Erhöhung der Dichte der Recheneinheiten auf Mikrochips und durch eine effizientere Bauweise. Da die meisten KIs auf Super-Computern mit Grafikchips trainiert werden, besteht hier wohl ein direkter Zusammenhang zur Leistungsfähigkeit der KI (nicht ohne Grund hat sich der Wert der Firma Nvidia vervielfacht).
    Eine globale Vernetzung KI-basierter Systeme zur nutzung brachliegender Rechenleistung wäre wohl auch ein beschleunigender Faktor.
    Wahrscheinlich wird sich aber die Entwicklung von Quanten-Computern besonders drastisch auf die uns Menschen und somit auch der KI zur Verfügung stehende Rechenleistung auswirken.

    Ich habe lange überlegt, ob ich eine Zukunftsprognose zur drohenden Machübernahme einer echten KI abgeben sollte. Also anhand von subjektiven Daten hat mein pessimistisches Gehirn schon im Jahr 2019 die kommenden 30er Jahre ausgespuckt...

  • #16

    Klaus (Dienstag, 28 Mai 2024 13:10)

    Das ist ein echter Augenöffner. Wirklich krass. Aber auch hier wird der Großteil der Menschen dies gar nicht für möglich halten.
    Vielen Dank für diesen Beitrag.

  • #17

    Karl Olsberg (Mittwoch, 29 Mai 2024 16:06)

    @Klaus: Danke!

  • #18

    Joe R. (Donnerstag, 30 Mai 2024 18:09)

    @ Karl
    ja, löschen wäre aus deiner Perspektive okay, denn ich kategorisiere Menschen tatsächlich (auch oder zunächst oder teilweise) nach äußerlichen Merkmalen - auch weil ich nicht über die erstrebenswerte Fähigkeit verfüge, in sie zu schauen. Also ganz wie eine KI-Software - die ihre Parameter (wie du vielleicht weißt oder auch nicht) selbst bestimmt.
    Auf diese Art bin ich in der Lage Menschen ökonomischer (also mit weniger Aufmerksamkeitsenergie) einschätzen zu können: ein Mensch, den ich der Kategorie "Frau" zuordne, weil er breite Hüften und sehr lange Haare hat, wird dann - nach meiner Auffassung, weniger Kraft haben und/oder weniger gefährlich sein oder mir beim Sex mehr Vergnügen bereiten oder was auch immer.
    Ähnlich ordne ich einen hohen Wert beim Parameter "asiatisches Gesicht" einer bestimmten Kategorie oder Merkmalsklasse zu, schließe also aus "asiatisch" oder "schwarz" oder "weiß" auf andere verknüpfte hohe Werte. Das muss natürlich in Einzelfällen nicht stimmen, doch gilt dessen ungeachtet die Dialektik vom Allgemeinen und Besonderen, und es ist ökonomischer und funktionaler, als immer erst ganz genau alle relevanten Parameter abzufragen (in des Wortes doppelter Bedeutung). Wenn sich dann herausstellen sollte, dass meine Kategorisierungen bzw. die Dialektik Allgemeines-Besonderes ein falsches Bild liefert, muss ich das ganze nachjustieren, also mich korrigieren.
    Dass du das als rassistisch ansiehst, wundert mich jetzt nicht (mehr), denn du glaubst ja auch, die CO2-Lüge/anthropogener Klimawandel wäre eine mit wissenschaftlichen Methoden gewonnene Erkenntnis (statt reine Politpropanda) .

    So verabschiede ich mich mit der nicht neuen, aber immer wieder irgendwie bitteren Erkenntnis, dass wirklicher Rationalismus und halbwegs echtes wissenschaftliches Denken seltene Fähigkeiten sind.

  • #19

    Karl Olsberg (Freitag, 31 Mai 2024 10:48)

    @Joe R.: "Dass du das als rassistisch ansiehst, wundert mich jetzt nicht (mehr), denn du glaubst ja auch, die CO2-Lüge/anthropogener Klimawandel wäre eine mit wissenschaftlichen Methoden gewonnene Erkenntnis (statt reine Politpropanda) ."

    Das tue ich in der Tat.

  • #20

    SteveRJ (Freitag, 07 Juni 2024 11:34)

    Moin Karl,
    erstmal danke und Respekt für diese Website, die ich erst durch deinen letzten Roman entdeckte.
    Zur obigen, logischerweise arg verkürzten Zusammenfassung der AKI (möglicher Ausbildung einer unkontrollierbaren "Superintelligenz" (was auch immer das letztlich bedeuten wird))
    Ich bin kein KI-Experte, studiere aber seit über 50 Jahren menschliche Verhaltensweisen, oder sollte ich Dummheiten schreiben?
    Als Realist ohne Illusionen über das, was der sogenannte Homo sapiens seit seiner Entstehung tut, bin ich mir (leider) zu 99,9% sicher, dass wir dumm genug sein werden, eine potenziell gefährliche KI zu erschaffen, bevor wir die Grundlagen erforscht haben, diese zu beherrschen.
    Meines Wissens, noch niemals in der Menschheitsgeschichte war es möglich, eine potenziell gefährliche Neuerung zu verhindern. Was technisch möglich ist, wird immer irgendwann von irgendwem, aus welchen Gründen auch immer, realisiert, ganz gleich wie viele davor warnten.
    Insofern Respekt für deine Arbeit und den Versuch, die KI Entwicklung besser zu kontrollieren, ggfls. sogar nicht weiterzuentwickeln, bevor keine sichere Kontrollinstanz / Zielvorgabe usw. entwickelt wurde. Ich wünschte, dir und anderen, vorsichtigeren Fachleuten diesbezüglich Erfolg wünschen zu können. Doch wie ich die Menschen kenne (Paradebeispiele: Corona, Klimawandel, Osterinseln usw.), wird irgendwer auf jeden Fall eine potenziell gefährliche KI in die Welt setzen... und dann können wir wohl nur noch hoffen, dass sie sich vielleicht doch als klüger, moralischer, sozusagen "menschlicher" erweist, als viele sehr intelligente Menschen befürchten. Wenn nicht, wars das wohl für den Homo sapiens. "Aus die Maus",
    Ich persönlich fürchte mit deutlich höherer Wahrscheinlichkeit letzteres, aber da ich es weder beeinflussen noch verhindern kann, verdränge ich es im Alltag und hoffe insgeheim, vor allem für die heute Jungen, das Beste.
    mfg,
    Steve

  • #21

    Karl Olsberg (Freitag, 07 Juni 2024 12:09)

    @Steve: Vielen Dank! Ich teile deine Befürchtungen. Aber tatsächlich hatten wir eine Situation wie die gegenwärtige noch nie. Es ist also unklar, ob wir tatsächlich dumm genug sind, uns selbst zu zerstören.

    Immerhin haben wir technisch bereits seit längerer Zeit die Möglichkeit, ein Virus zu erschaffen, das 70-80% der Weltbevölkerung tötet, womöglich gibt es solche Viren in manchen Laboren bereits. Aber es hat sie noch niemand freigesetzt, weil man davon keinen Nutzen hätte und selbst nicht davor sicher wäre. Dasselbe gilt für eine unkontrollierbare KI.

    Dass diese "sich vielleicht doch als klüger, moralischer, sozusagen "menschlicher" erweist, als viele sehr intelligente Menschen befürchten", wäre schön, ist aber leider Wunschdenken. KI ist nicht "menschlich" und hat auch per Default keinerlei Moral. Wenn wir es nicht schaffen, ihr solche Werte zuverlässig anzutrainieren (ein bis dato ungelöstes Problem), wird sie uns zerstören - nicht absichtlich, sondern aus Desinteresse. Ich setze daher weiterhin auf die Restvernunft der Menschheit, so etwas gar nicht erst zu bauen.