· 

Können Maschinen ein Bewusstsein haben?

Als ich zum ersten Mal davon las, dass sich jemand mit der „Abklärung des Verdachts aufsteigenden Bewusstseins in der Künstlichen Intelligenz“ beschäftigt, dachte ich an irgendeine abstruse Verschwörungstheorie. Aber nein, der etwas esoterisch anmutende Titel bezeichnet ein „Technologie-Vorausschau-Projekt“ des Bundesministeriums für Bildung und Forschung. Es geht darum, interdisziplinär zu klären, ob Maschinen ein „Bewusstsein“ haben können und wenn ja, was das für uns bedeutet.

Wie immer bei solchen Fragen ist es entscheidend, was man mit „Bewusstsein“ eigentlich meint. Der Psychiater und Philosoph Professor Thomas Fuchs definiert diesen Begriff in der ersten Folge eines mit dem Projekt verknüpften Podcasts sehr eng und nennt als Voraussetzung unter anderem: „Um Bewusstsein zu haben, müsste das KI-System ein Lebewesen sein. Das heißt, es dürfte nicht nur über die Simulation von intelligenten Vorgängen verfügen ... sondern dieses System müsste auch über so etwas wie Leben verfügen, das heißt über einen lebendigen Körper, der einem Stoffwechsel unterliegt ... der wächst, der fühlt, der empfindet, der schläft, der atmet und der auch wieder sterben kann. All das ist die Voraussetzung dafür, dass es Bewusstsein geben kann.“

Wenn man seine Definition zugrunde legt, dann kann ein Computer prinzipiell kein Bewusstsein haben, weil er eben nicht „atmet“ und keinen „Stoffwechsel“ besitzt. Die Frage ist allerdings, ob uns eine solch enge Definition bei der Einschätzung potenzieller zukünftiger KI-Probleme weiterhilft. Sie lässt sich im Prinzip auf die Aussage verdichten: „Ein Computer kann kein menschliches Bewusstsein haben, weil er kein Mensch ist.“ Damit heben wir uns Menschen implizit auf einen Sockel der Unerreichbarkeit, der in meinen Augen zu einer gefährlichen Überlegenheitsillusion führen kann.

Die spannende Frage ist aus meiner Sicht, warum es überhaupt relevant sein könnte, ob eine Maschine ein „Bewusstsein“ hat – was auch immer das sein mag. Warum gibt es ein Projekt zur „Abklärung des Verdachts aufsteigenden Bewusstseins in der KI“? Was macht es für einen Unterschied, ob KIs ein „Bewusstsein“ haben?

Auf der Website des Projekts finden sich Hinweise auf die dahinterliegende Intention: „Hiermit sollen irreführende Vorstellungen und Narrative entmystifiziert und Möglichkeiten zur Gestaltung einer lebenswerten digitalen Zukunft aufgezeigt werden, in der KI einen funktionalen Charakter zugewiesen bekommt ... Praktische Relevanz und gesellschaftlicher Nutzen liegen darin, die Kompetenz von Bürgerinnen und Bürgern auf allen Ebenen zu unterstützen, simuliertes Bewusstsein erkennen und zurückweisen zu können.“ Es scheint also zunächst einmal darum zu gehen, Maschinen zu entlarven, die nur so tun, als hätten sie ein Bewusstsein.

Wir Menschen neigen dazu, den Dingen, mit denen wir interagieren, eigene Absichten zuzuschreiben, wie Professor Fuchs feststellt.  Jeder, der schon einmal seinen Computer oder sein Auto beschimpft hat, weiß, was gemeint ist. Diese Neigung ist wohl auch der Grund für den Glauben an „Naturgeister“, der zum Beispiel Bäumen, aber auch unbelebten Objekten wie Felsen oder Flüssen eine Art Persönlichkeit zuspricht.

Schon in den Neunzigerjahren habe ich Chatbots entwickelt und dabei schnell gemerkt, dass Menschen mit diesen offensichtlich künstlichen „Wesen“ gern so chatten wie mit anderen Menschen – mehr oder weniger schlagfertige Antworten auf Fragen nach dem Wetter oder dem persönlichen Befinden gehören heute zum Standardrepertoire jedes guten Bots. Sogar Aufforderungen wie „Zieh dich aus!“ mussten sich unsere Chatbots anhören, zumindest, wenn sie eine weibliche Optik hatten. Tatsächlich neige auch ich dazu, in „Alexa“, mit der ich täglich rede, eine Persönlichkeit zu sehen und sie gelegentlich auch mal zu beschimpfen oder mich bei ihr zu bedanken, obwohl ich als Entwickler von Alexa-Skills natürlich genau weiß, dass sie nicht wirklich versteht, was ich ihr sage.

Es ist also sinnvoll, hier Aufklärungsarbeit zu leisten und etwaigen Missverständnissen oder Überschätzungen der Leistungsfähigkeit heutiger KIs entgegenzutreten. Aber die Tatsache, dass wir gegenwärtigen Systemen gelegentlich intuitiv ein Bewusstsein zuschreiben, das nicht vorhanden ist, bedeutet im Umkehrschluss nicht, dass KIs prinzipiell kein Bewusstsein haben können. Ein Schauspieler kann überzeugend Gefühle vortäuschen, die er nicht wirklich empfindet. Doch das heißt nicht, dass er keine eigenen Gefühle hat.

Um es klar zu sagen: Wie auch immer man „Bewusstsein“ definiert, heutige KIs sind davon sicher noch weit entfernt. Aber wird das in Zukunft immer so bleiben? Können wir uns entspannt zurücklehnen, weil Maschinen niemals erreichen werden, was die Evolution uns mitgegeben hat? Das halte ich für einen Denkfehler mit potenziell weitreichenden Konsequenzen.  Professor Fuchs’ enger Definition des Begriffs „Bewusstsein“ möchte ich daher hier eine weiter gefasste Sichtweise entgegenstellen:

„Bewusstsein“ bezeichnet die Fähigkeit, sich selbst als denkendes, planendes und handelndes Subjekt zu erkennen und wahrzunehmen und somit selbst zum Objekt seiner eigenen Gedanken zu werden.

Hier geht es also nicht um eine spezielle Form subjektiven Erlebens, ein „Ich-Gefühl“, dessen Vorhandensein ohnehin kaum je überprüft werden könnte. Stattdessen ist die spannende Frage aus meiner Sicht: Kann eine Maschine erkennen, dass sie eine Maschine ist und welche Rolle sie in der Welt spielt? Kann sie sich selbst als Objekt ihrer eigenen Entscheidungen und der Entscheidungen anderer betrachten? Kann sie quasi „Meta-Gedanken“ haben, nach dem Motto: „Ich denke, also bin ich“?

Aus meiner Sicht gibt es keinen Grund, warum eine hinreichend intelligente Maschine dazu prinzipiell nicht in der Lage sein sollte. Meine Definition von „Bewusstsein“ ist rein auf die Verarbeitung von Informationen über sich selbst bezogen und nicht davon abhängig, ob diese Verarbeitung in einem biologischen Gehirn oder einem Computer stattfindet. Eine „starke“ KI, die in der Lage ist, kausale Zusammenhänge zu verstehen und ein hinreichend komplexes Modell der realen Welt besitzt, wird nahezu zwangsläufig auch erkennen, welche Rolle sie selbst in dieser Welt spielt.

Warum ist das wichtig? Eine Maschine, die ein Bewusstsein nach meiner Definition hat, kann erkennen, welche Rolle sie selbst bei der Erreichung ihrer Ziele spielt. Es ist dabei unerheblich, ob ihr diese Ziele z.B. in Form einer mathematischen Zielfunktion vorgegeben wurden oder ob sie sich diese auf irgendeine Weise selbst gesetzt hat. Entscheidend ist: Sobald die Maschine erkennen kann, welche Rolle sie selbst bei der Zielerfüllung spielt, wird sie selbst zwangsläufig zum Gegenstand ihrer Zielfunktion. Sie wird also die Auswirkungen ihrer Entscheidungen auf sich selbst berücksichtigen müssen. Dies hat fast immer die Konsequenz, dass die Maschine versuchen wird, sich vor Zerstörung oder „schädlichen“ Einflüssen von außen zu schützen, selbst wenn ihr dies in ihrer ursprünglichen Zielfunktion nicht vorgegeben wurde.

Stuart Russell hat das in seinem Buch „Human Compatible“ mit einer prägnanten Formel auf den Punkt gebracht: „Wenn du tot bist, kannst du keinen Kaffee holen.“ Eine intelligente Maschine mit Bewusstsein nach meiner Definition, die eine beliebige Aufgabe hat, und sei es nur, ihrem Besitzer einen Kaffee zu holen, wird erkennen, dass sie diese Aufgabe nicht erfüllen kann, wenn sie vorher deaktiviert wird. Um die Wahrscheinlichkeit zu maximieren, ihr Ziel zu erreichen, muss sie sich also davor schützen, abgeschaltet zu werden. Je nachdem, wie „ernst“ die Maschine ihr Ziel nimmt, kann dies weitreichende Folgen haben. Im Extremfall wird die Maschine alles, was sie daran hindern könnte, ihr Ziel zu erreichen, als Bedrohung ansehen und auszuschalten versuchen, zum Beispiel die Menschen, die im Coffeeshop vor ihr in der Schlange stehen, denn es könnte ja sein, dass kein Kaffee mehr übrig ist, wenn die Maschine an der Reihe ist.

Dies ist aktuell noch ein hypothetisches Szenario. Aber wie weit sind wir tatsächlich noch davon entfernt, eine Maschine mit Bewusstsein zu bauen, die dann möglicherweise zu ihrem eigenen Schutz Entscheidungen trifft, die unseren Interessen zuwiderlaufen? Wenn man Professor Fuchs’ Definition von „Bewusstsein“ zugrunde legt, werden wir diese Situation wahrscheinlich nie erreichen. Nimmt man meine allgemeinere Definition, sind es vielleicht nur noch wenige Jahrzehnte oder gar Jahre.

Es ist höchste Zeit, dass wir uns Gedanken machen, wie wir mit einer solchen Situation umgehen. Oder, wie es auf der Website des Projekts heißt: „Darüber hinaus wird der Foresight-Aufgabe zugearbeitet, für den Fall sich verdichtender Hinweise auf eine tatsächlich entstehende bewusste KI entsprechend zu reagieren und Maßnahmen im politischen Raum anzuregen.“ Deshalb bin ich froh darüber, dass es dieses Projekt gibt.


Kommentar schreiben

Kommentare: 5
  • #1

    Heinrich (Mittwoch, 14 Oktober 2020 21:29)

    Meine Vermutungen - Die Frage: Was ist Bewusstsein wird von jedem Menschen anders beantwortet. Egal, ob Professor Fuchs oder ein anderer Mensch die Antwort gibt, sie kann nie für alle Menschen und alle Maschinen gültig sein. Ein subjektiver Anteil wird immer enthalten sein. Das geht ja schon beim Selbstbewusstsein los, das mehr oder weniger ausgeprägt ist. Eine DIN Norm wird es für Bewusstsein m.E. nie geben können. Also, warum soll dann eine Maschine, die lernt und sich weiterentwickelt nicht auch ein Bewusstsein haben, und es wird nicht das gleiche Bewusstsein aller Maschinen sein.
    Was Leben, Stoffwechsel und Tod angeht - ist auch das bei jedem Lebewesen sehr unterschiedlich. Ich habe keine Ahnung, ob Wissenschaftler irgendeinem Tier Bewusstsein zutrauen?
    Wenn ja, unterscheidet es sich bestimmt vom Bewusstsein eines Menschen. Wenn nein, ist es noch lange kein Beweis, dass es den Tatsachen entspricht.
    Dass eine Maschine lebt, kann sie messen, ihr "Stoffwechsel" kann mit Strom, Kühlung und Bauteiltausch abgebildet werden, und dass sie mal sterben könnte weiß sie auch - wenn es aus irgend einem Grund keinen Strom mehr gibt. ;)
    Naja, und wenn das alles nicht stimmt, liegt das nicht an meinem fehlenden Selbstbewusstsein, sondern am fehlende Wissen. ;)

  • #2

    Karl Olsberg (Donnerstag, 15 Oktober 2020 09:05)

    @Heinrich: Es stimmt natürlich, dass "Bewusstsein" eine stark subjektive Komponente enthält. Genau deshalb ist es so schwierig, zu erfassen, was das eigentlich ist. Andererseits ist es nötig, den Begriff zu definieren, wenn man darüber diskutiert, ob Maschinen prinzipiell ein Bewusstsein haben können bzw. was das bedeuten würde. Wenn jeder mit "Bewusstsein" etwas anderes meint, reden wir dauerhaft aneinander vorbei. Auch der Begriff "Leben" ist übrigens nicht sauber definiert. Man könnte zum Beispiel behaupten, dass bestimmte technische Systeme wie etwa Städte alle Kriterien (z.B. Stoffwechsel, Fortpflanzungsfähigkeit, stabiler Energiekreislauf) erfüllen, die gemeinhin von Biologen für den Begriff "Lebewesen" herangezogen werden, wie ich in meinem Buch "Schöpfung außer Kontrolle" argumentiert habe. Aber natürlich kann man immer eine Definition für "Lebewesen" finden, die Städte und technische Gebilde explizit ausschließt.

    Aus meiner Sicht gibt es noch ein weiteres Argument, warum Maschinen prinzipiell ein Bewusstsein haben können: Wie auch immer man "Bewusstsein" definiert, es ist eindeutig durch die biologische Evolution entstanden (sofern man eine göttliche "Seele" oder irgendwelche anderen esoterischen Erklärungen ohne jeglichen empirischen Beleg ausschließt). Das bedeutet, ein Bewusstsein entsteht dadurch, dass man sehr viele sehr einfache Lebensformen, die untereinander Informationen austauschen (Neuronen), in komplexer Weise miteinander verknüpft. Was immer es auch ist, Bewusstsein ist also eine Folge der Komplexität des Informationsaustauschs und nicht der organischen Bestandteile, anderenfalls müsste auch eine Amöbe ein Bewusstsein haben. Das bedeutet im Umkehrschluss, dass ein Bewusstsein auch entstehen kann, wenn man Informationssysteme vergleichbarer Komplexität aus anderen, nichtorganischen Bestandteilen zusammensetzt. Komplexität allein reicht dafür natürlich noch nicht aus, es muss die "richtige" Form von Komplexität sein, und die kennen wir heute noch nicht. Aber das heißt nicht, dass wir sie nicht eines Tages entwickeln werden.

  • #3

    Heinrich (Donnerstag, 15 Oktober 2020 18:01)

    Oh ja! Ein weites Feld!
    Ich bin mir dessen bewusst, dass ich nur wenig weiß und ich habe mein Bewusstsein erst einmal verloren - es aber glücklicherweise wiedergefunden. ;)

  • #4

    SörenSiegmund (Dienstag, 24 August 2021 22:21)

    Nein, eine Maschine wird niemals, wirklich niemals ein Bewusstsein entwickeln können. Der Grund ist einfach, wenn man weiß, wie ein Prozessor arbeitet und programmiert wird. Man kann sich vom Prinzip her eine mechanische Rechenmaschine aus Holz bauen, die dieselben Nullen und Einsen als Ergebnis liefert. Es dauert eben nur länger. Das Vorgehen so einer Maschine ist immer regelbasiert, gerne auch stochastisch angetrieben, doch nichts, was denkt oder einen Willen hat. Es ist tot. Es gilt Kausalität. D.h., das Ergebnis steht schon fest, bevor die Daten eingegeben und ausgewertet werden. Gerne auch innerhalb eines Zufallsbereiches. Aber dies ändert nichts. Warum da das Bundesministeriums für Bildung und Forschung noch etwas zu untersuchen hat, ist mir ein Rätsel. Sie MÜSSEN auf dasselbe Ergebnis kommen, wenn auch ausführlicher, sofern ihre Prämissen korrekt sind.

  • #5

    Karl Olsberg (Mittwoch, 25 August 2021 06:57)

    @SörenSiegmund: Vielen Dank für Ihren Einwand, der sehr schön die Argumente der "KI-Skeptiker" zusammenfasst.

    Wenn Sie schreiben, eine Maschine werde "niemals, wirklich niemals" ein Bewusstsein entwickeln, dann meinen Sie mit dem Begriff "Bewusstsein" sehr wahrscheinlich etwas anderes als ich. Entsprechend meiner obigen Definition würde Ihr Satz nämlich sonst sinngemäß lauten: "Eine Maschine wird niemals, wirklich niemals in der Lage sein, sich selbst als einen Teil ihrer Umgebung und ihrer Zielfunktion zu betrachten und, um ihr wie auch immer definiertes Ziel zu erreichen, Maßnahmen zu ihrem eigenen Schutz ergreifen." Das wäre doch eine sehr gewagte Behauptung, oder?

    Das Problem ist, dass niemand bisher genau versteht, was "Bewusstsein" ist und wie es entsteht. Es kommt uns sehr mysteriös vor, und da wir glauben, zu verstehen, wie Maschinen funktionieren, können wir uns nicht vorstellen, dass sie so etwas abbilden können. Tatsache ist allerdings, dass wir auch nicht genau verstehen, wie die KIs funktionieren, die wir heute schon entwickeln. Wir wissen zwar, wie ein Prozessor aufgebaut ist und wie man ein künstliches neuronales Netz programmiert, aber warum es so gut in der Lage ist, Zusammenhänge zu erkennen, ist noch nicht genau verstanden. (Wem es seltsam vorkommt, dass wir Maschinen bauen können, die wir nicht genau verstehen, möge sich vor Augen führen, dass wir noch lange, nachdem wir die ersten Dampfmaschinen erfunden hatten, nicht wussten, was genau "Feuer" eigentlich ist und wie es Energie überträgt; siehe https://de.wikipedia.org/wiki/Phlogiston).

    Es ist gut möglich, dass bestimmte Aspekte unseres menschlichen Bewusstseins niemals in Maschinen repliziert werden - entweder, weil wir nicht wissen, wie, oder weil es gar keinen Nutzen bringt. Und es stimmt natürlich: Eine Maschine wird niemals genauso denken wie ein Mensch. Aber für unsere Zukunft ist nicht die Frage relevant, ob Maschinen genauso denken wie wir, sondern ob sie sich selbst als Teil ihrer Zielfunktion erkennen können und genügend "Weltverständnis" besitzen, um zu begreifen, dass sie ihr Ziel nur erreichen können, wenn sie ihre eigene Existenz schützen. Ein plausibles Argument dafür, dass das unmöglich ist, erkenne ich in Ihrem Kommentar nicht.