Ein Blog von Karl Olsberg

16.9.2024: Wem soll man glauben?

KI-Firmenbosse wie Elon Musk und Sam Altman warnen öffentlich vor den Gefahren der KI, torpedieren aber gleichzeitig jede sinnvolle Regulierung.  Wem kann man überhaupt noch glauben? Eliezer Yudkowsky, KI-Sicherheitsexperte der ersten Stunde, hat dazu eine klare Meinung.

Mehr

11.8.2024: Die Chancen der KI

In diesem Blog schreibe ich über die Risiken der KI. Aber es gibt natürlich auch große Chancen. Wenn wir die richtigen Entscheidungen treffen, können sie für eine großartige Zukunft nutzen.

Mehr

24.7.2024: Existenzielle KI-Risiken im Bundestag? Fehlanzeige.

International wird in der Politik immer mehr über die existenziellen Risiken der KI debattiert. Nur im Deutschen Bundestag nicht. Schade eigentlich.

Mehr

7.7.2024: Existenzielles KI-Risiko? So ein Quatsch!

Oft ist zu hören und zu lesen, die Sorge vor dem existenziellen Risiko einer unkontrollierbaren KI sei übertrieben oder gar "Hype" oder "Panikmache". In diesem Beitrag gehe ich auf die häufigsten Einwände der Skeptiker ein.

Mehr

2.6.2024: Yoshua Bengios Sinneswandel

In einem neuen Video lese ich Auszüge aus einem Blogbeitrag vor, in dem Yoshua Bengio seinen Sinneswandel in Bezug auf die existenziellen Risiken der KI beschreibt. Hier meine Übersetzung des vollständigen Textes.

Mehr

21.5.2024: Wieso ist KI eine existenzielle Bedrohung?

Für diejenigen, die sich neu mit dem Thema beschäftigen, gebe ich hier eine Einführung in das existenzielle Risiko unkontrollierbarer KI.

Mehr

20.5.2024: Was können wir tun?

Als Reaktion auf mein neues YouTube-Video zu Jan Leikes deutlichen Worten über die Sicherheitssituation bei OpenAI haben einige Leute berechtigterweise gefragt: Was können wir schon tun? Meine Antwort: Die Lage ist ernst, aber noch haben wir Handlungsmöglichkeiten.

Mehr

18.5.2024: Eine mehr als deutliche Warnung

Jan Leike, bis vor Kurzem verantwortlich für die KI-Zielkonformität und Leiter des "Superalignment-Teams" bei OpenAI, hat eine sehr deutliche Warnung auf X gepostet, die wirklich jeder lesen sollte. Es wird Zeit, dass wir auch hier in Deutschland erkennen, wie ernst die Lage ist.

Mehr

15.5.2024: Was ist los bei OpenAI??? Teil 2

Gleich vier wichtige Personen haben OpenAI in den letzten Tagen verlassen. Drei davon haben im Bereich KI-Sicherheit gearbeitet, einen kenne ich persönlich. Der Eindruck drängt sich auf, dass OpenAI aus Profitgier die Zukunft der Menschheit riskiert.

Mehr

1.4.2024: Denn sie wissen nicht, was sie tun

Leider kein Aprilscherz: Niemand weiß, wie moderne KI funktioniert und wie wir eine zukünftige, womöglich übermenschliche KI kontrollieren sollen. Trotzdem tun ein paar Silicon Valley-Bosse alles, um sie so schnell wie möglich auf die Menschheit loszulassen.

16.3.2024: Interview zu KI-Risiken im TATuP-Magazin

In der aktuellen Ausgabe des renommierten Fachmagazins "Technikfolgen-Abschätzung in Theorie und Praxis" erkläre ich in einem Interview meine Sicht auf die Risiken potenziell unkontrollierbarer KI.

17.2.2024: Was versteht KI?

Die neue generative KI Sora von OpenAI kann beeindruckende Videos generieren, doch es gibt Ungereimtheiten. Was weiß die KI wirklich darüber, wie die physikalische Welt funktioniert?

22.12.2023: Was für ein Jahr!

Die Fortschritte in der KI sind schwindelerregend. Doch Menschen können sich an alles gewöhnen - sogar an den Wandel. Das kann dazu führen, dass wir die Dramatik der Veränderungen unterschätzen.

10.12.2023: Warum ich den Effektiven Altruismus unterstütze

Leuten gegenüber, die behaupten, uneigennützig Gutes zu tun, darf man durchaus misstrauisch sein. Manchmal meinen sie es aber auch ernst. Und einige versuchen sogar, mit Hirn und Verstand "Gutes besser zu tun".

24.11.2023: Was ist los bei OpenAI???

Das Führungschaos bei OpenAI wirft ein düsteres Licht auf die Sicherheit in dem derzeit führenden KI-Unternehmen und macht es umso unverständlicher, dass Deutschland eine wirksame Regulierung im Rahmen des EU AI Acts blockiert.

15.11.2023: KI-Regulierung: Deutschland stürmt aufs eigene Tor

Der EU AI Act bietet Europa die Chance, trotz technischen Rückstands eine aktive Rolle in der globalen KI-Sicherheit zu spielen. Doch Lobbying und falsch verstandenes deutsches Eigeninteresse gefährden dies gerade.

25.8.2023: Macht euch keine Sorgen!

Wenn einem keine Lösung mehr einfällt, bleibt einem nur noch Galgenhumor. Aber vielleicht schafft es AIRA ja doch noch, mir meine "irrationale" Angst vor KI zu nehmen.

4.8.2023: VIRTUA - Mein neuer Roman über die Risiken der KI

Am 15.8. erscheint mein neuer Roman VIRTUA. Darin geht es getreu dem Motto dieses Blogs weniger um künstliche Intelligenz, als vielmehr um menschliche Dummheit.

29.7.2023: Ein freundliches Gesicht

Die zweite Geschichte, die wir im Rahmen des AI Safety Camps entwickelt haben, behandelt das so genannte "Deceptive Alignment": Die KI zeigt uns ein freundliches Gesicht, doch welches Ziel sie wirklich verfolgt, können wir nicht wissen.

20.6.2023: Agentisches Chaos

Im Rahmen des AI Safety Camps habe ich zusammen mit einem Expertenteam zwei plausible KI-Katastrophen-Szenarien entwickelt und eines davon als Video umgesetzt.

3.6.2023: Alles nur ein PR-Gag?

Führende KI-Forscher warnen mit drastischen Worten vor der möglichen Zerstörung der Menschheit durch KI. Nur in Deutschland haben wir den Schuss wieder mal nicht gehört.

24.5.2023: Die Zeit wird knapp

Vor einem Jahr habe ich meine Erwartung, wie viel Zeit uns noch bleibt, drastisch nach unten korrigiert. Das war bei weitem noch nicht drastisch genug.

16.4.2023: Lasst uns gemeinsam die Welt zerstören!

Die Open Source-Bewegung ist einmal angetreten, um Sicherheit, Transparenz und Gerechtigkeit in IT-Anwendungen zu verbessern. Nun trägt sie aktiv dazu bei, dass KI unsere Zukunft bedroht.

25.3.2023: Warum wir die Gefahr durch KI systematisch unterschätzen

Als Joseph Weizenbaum den ersten Chatbot namens "Eliza" programmierte, glaubten viele fälschlicherweise, er sei intelligent. Doch daraus zu folgern, dass auch heutige KI "nicht wirklich intelligent" ist, ist ein Trugschluss.

17.2.2023: Langsam wird es unheimlich

Die Serie der KI-Fortschritte reißt nicht ab. Mit Bing AI präsentiert Microsoft nun eine Chat-KI, die sogar ChatGPT in den Schatten stellt und eine Schreibaufgabe besser lösen kann, als ich es gekonnt hätte. Das hat mich schwer beeindruckt und auch ein wenig beunruhigt.

8.1.2023: Mein Projekt beim AI Safety Camp

Vor einem Jahr habe ich am internationalen AI Safety Camp teilgenommen und dabei enorm viel gelernt. Beim nächsten AI Safety Camp, das im März beginnt, werde ich selbst ein Projekt leiten und dabei versuchen, zusammen mit einem Team realistische Geschichten über unkontrollierbare KI zu entwickeln.

5.12.2022: Tricks mit ChatGPT

Die neue KI von OpenAI hat so einige Tricks auf Lager. Doch man kann sie auch viel zu leicht austricksen ...

24.11.2022: KI, Diplomatie und Macht

Vorgestern hat Meta die KI "Cicero" vorgestellt, die das komplexe Strategiespiel Diplomacy beherrscht. Dabei kommt es vor allem darauf an, seine Mitspieler geschickt zu manipulieren und zu täuschen.

9.10.2022: Unkontrollierbare KI als existenzielles Risiko

In einem neuen Arbeitspapier habe ich vier Hypothesen zu "unkontrollierbarer KI" formuliert. Warum ich lieber darüber rede als über "starke" oder "superintelligente" KI, erläutere ich in diesem Beitrag.

5.8.2022: Wir brauchen rote Linien für KI

Womöglich besteht die einzige Möglichkeit, eine KI-Katastrophe zu verhindern, darin, eine "gefährliche" KI gar nicht erst zu entwickeln. Aber was genau heißt das eigentlich? Welche "roten Linien" sollten wir nicht überschreiten?

10.6.2022: Von Fröschen und Schriftstellern

Heute hatte ich die Gelegenheit, die Bildgenerierungs-KI DALL-E 2 selbst auszuprobieren. Die Ergebnisse können sich wirklich sehen lassen!

14.5.2022: Uns läuft die Zeit davon

Zum dritten Mal in diesem Jahr hat mich eine Erfolgsmeldung im Bereich der Entwicklung äußerst leistungsfähiger KI überrascht und beunruhigt. Es scheint, als hätten die "Optimisten" recht, die glauben, es dauert nur noch wenige Jahre bis zur Entwicklung "starker" KI. Doch das ist kein Grund zum Jubeln ...

26.2.2022: Können wir KI vertrauen?

Gemeinsam mit Jan Hendrik Kirchner habe ich einen englischsprachigen Blogbeitrag über das mögliche Ziel einer KI, das Vertrauen der Menschen in sie zu maximieren, veröffentlicht. Hier gibt es den Link zum Artikel und eine Kurzfassung auf Deutsch.

2.1.2022: KI-Risiken ab jetzt auf YouTube

Zukünftig werde ich meinen YouTube-Kanal auf die realen Konsequenzen der künstlichen Intelligenz ausrichten. Im ersten Video der neuen Serie erkläre ich, warum.

7.12.2021: Das Unverstehbarkeits-Problem

Wir verstehen die Welt immer weniger, denn sie wird immer komplexer. Das gilt umso mehr für künstliche Intelligenz. Aber wie sollen wir etwas kontrollieren, das irgendwann intelligenter sein wird als wir und das wir nicht verstehen?

29.10.2021: Das Meta-Problem

Facebook benennt sich in "Meta" um und erklärt damit seinen Dominanzanspruch in der neuen virtuellen Welt, in der wir zukünftig alle möglichst viel Zeit verbringen sollen. Das könnte für uns alle zum Problem werden.

7.10.2021: Science-Fiction macht zukunftsblind

Wenn wir über die KI der Zukunft reden, werden viel zu oft Begriffe, Visionen und Bilder aus der Science-Ficition verwendet. Das verstellt den Blick für die Realität und führt dazu, dass wir existenzelle Gefahren nicht ernst genug nehmen.

22.8.2021: Warum wir mehr Pessimismus brauchen

Pessimismus ist unpopulär und fühlt sich blöd an. Aber in manchen Situationen ist er definitiv angebrachter als Optimismus.

17.7.2021: Der Kampf gegen die Windmühlenflügel der KI

Bei Amazon achtet eine KI darauf, dass Buchcover den Anforderungen genügen, und schießt dabei auch mal übers Ziel hinaus, wie ich selbst erleben musste. Ein Vorgeschmack auf das, was noch auf uns zukommt?

21.4.2021: Was stimmt bloß nicht mit mir?

Eine künstliche Intelligenz erklärt mir genau die Gründe, warum ich dringend einen Schönheitschirurgen aufsuchen sollte. Da sage noch einer, KI brächte die Menschheit nicht voran!

8.4.2021: Wie gefährlich ist KI?

Fast jede Technologie ist inhärent gefährlich, ihr potenzieller Schaden meist weit größer als ihr Nutzen. Das gilt auch für KI. Deshalb müssen wir dringend mehr tun, um die Risiken zu verstehen und einzudämmen.

21.3.2021: Aliens im Anflug!

Was, wenn wir wüssten, dass eine uns weit überlegene außerirdische Zivilisation im Anflug auf die Erde ist? Und was, wenn dies ein treffenderes Bild für die Enwicklung "starker" künstlicher Intelligenz wäre als der permanente Vergleich mit dem menschlichen Gehirn?

11.3.2021: Wettrennen übers Minenfeld

Wenn man vor einem Minenfeld voller KI-Risiken steht, sollte man sich mit äußerster Vorsicht bewegen. Der Abschlussbericht der amerikanischen Kommission für nationale Sicherheit und KI empfiehlt, schneller zu laufen, da man sich in einem Wettrennen befinde.

20.2.2021: Was ist eigentlich das Problem?

Uns fehlen nicht nur funktionierende Lösungen für die bekannten KI-Risiken, wir kennen auch noch längst nicht alle Probleme, die damit verknüpft sind - zu dieser Erkenntnis kommt jedenfalls eine aktuelle wissenschaftliche Arbeit. Nicht gerade beruhigend.

22.1.2021: Die Fantasie der Maschine

DALL·E von OpenAI beweist, dass Maschinen bereits heute ein erstaunliches kreatives Vorstellungsvermögen haben können. Das könnte ein Hinweis sein, dass uns weniger Zeit bleibt, das "Kontrollproblem" der KI zu lösen, als wir dachten.

Mehr

10.12.2020: Wie Rationalität die Welt rettet

Menschen sind von Natur aus irrational. Doch wir können uns rationalen Systemen unterordnen, die insgesamt vernünftiger agieren als jeder Einzelne von uns. Das könnte unsere Rettung sein.

Mehr

2.12.2020: Wir müssen nicht die Technik ändern, sondern uns

Wenn wir eine Zukunft haben wollen, müssen wir nicht die Prinzipien der KI ändern, sondern die Menschheit. Klingt utopisch, ist aber vielleicht nicht unmöglich.

Mehr

8.11.2020: Die Wirklichkeit gewinnt immer

Die nervenaufreibende US-Wahl ist vorbei. Gewonnen hat, wie immer, die Realität.

Mehr

30.10.2020: Narzisstische Algorithmen

Donald Trump ist ein krankhafter Narzisst. Dass er US-Präsident werden konnte, hat viel mit den Algorithmen sozialer Medien zu tun, die selbst narzisstische Züge tragen.

Mehr

16.10.2020: Wieviel Zeit bleibt uns noch?

Eine neue Studie kommt zu dem Schluss, dass eine "starke" KI wahrscheinlich um das Jahr 2050 entwickelt wird, vielleicht aber auch schon 2030 - oder erst 2100. Meiner Ansicht nach ist dieser "Tag X" nicht so wichtig, denn ernste Probleme bekommen wir womöglich schon viel früher.

Mehr

25.9.2020: Können Maschinen ein Bewusstsein haben?

In einem neuem Podcast verneint der Psychiater und Philosoph Professor Fuchs diese Frage kategorisch. Ich sehe das etwas anders.

Mehr

21.9.2020: Evolution und KI Teil 6: Die Rechte der KI

Im letzten Teil der Miniserie versuche ich, zu skizzieren, wie eine Übertragung des Prinzips eines demokratischen Rechtsstaats auf KI funktionieren könnte.

Mehr

14.9.2020: Evolution und KI Teil 5: Die Konsequenzen der KI

Im fünften Teil der Miniserie beschäftige ich mich damit, welche Auswirkungen die Evolution der KI auf unsere eigene Zukunft hat und wie wir damit umgehen sollten.

Mehr

6.9.2020: Evolution und KI Teil 4: Die Beschleunigung der KI

Im vierten Teil der Miniserie stelle ich dar, warum Evolution sich selbst beschleunigt und welche Konsequenzen das für die Zukunft der KI hat.

Mehr

31.8.2020: Evolution und KI Teil 3: Die Konflikte der KI

Der dritte Teil der Miniserie geht auf den "Rüstungswettlauf" zwischen Räubern und Beute in der Natur und seine Bedeutung für die Evolution der KI ein.

Mehr

23.8.2020: Evolution und KI Teil 2: Die Vielfalt der KI

Der zweite Teil meiner Miniserie beschäftigt sich mit der ersten Schlussfolgerung aus der Anwendung des Evolutionsprinzips auf die KI-Entwicklung: der Entstehung von immer mehr Vielfalt.

Mehr

16.8.2020: Evolution und KI Teil 1: Was hat Evolution mit KI zu tun?

In einer Miniserie von Beiträgen analysiere ich, inwieweit Evolution die treibende Kraft hinter der KI-Entwicklung ist und was das für unsere Zukunft bedeutet. Teil 1 erklärt die Grundlagen.

Mehr

3.8.2020: Brauchen wir mehr KI-Vorschriften?

Soziale Netzwerke und automatische Entscheidungssysteme haben erhebliche Risiken und Nebenwirkungen. Doch im Unterschied beispielsweise zur Pharmaindustrie gibt es weder ein Zulassungsverfahren noch hinreichende unabhängige Überprüfung.

Mehr

11.7.2020: Hört auf, zu glauben, und fangt an, zu vermuten!

Die Coronakrise zeigt uns mehr als deutlich, wie gefährlich es ist, blind seinen Impulsen zu glauben und die Realität zu ignorieren.

Mehr

4.6.2020: Warum sind wir so dumm?

Ein Blick in die Nachrichten zeigt, dass die Menschheit in den letzten 80.000 Jahren nicht viel dazu gelernt hat. Unser Gehirn ist nicht für die Welt gemacht, in der wir leben. Umso wichtiger ist es, dass wir lernen, unseren archaischen Instinkten zu widerstehen.

Mehr

14.5.2020: Vorsicht Exponentialfunktion!

Wie alle hoch ansteckenden Krankheiten breitet sich Covid-19 exponentiell aus. Wir sind nicht gut darin, solche Trends intuitiv einzuschätzen. Leider folgt auch die Entwicklung der KI einer ähnlichen Dynamik, die uns verleiten könnte, zu lange sorglos zu sein.

Mehr

27.4.2020: Was wir aus der Coronakrise lernen müssen

Wir waren schlecht auf die Covid-19-Pandemie vorbereitet, obwohl ein solches Ereignis absehbar war. Wir müssen daraus lernen, über den Tellerrand der "Normalität" hinauszuschauen.

Mehr

15.3.2020: Wir brauchen ein mentales Immunsystem!

Falschmeldungen im Internet sind eine Epidemie, die womöglich langfristig mehr Schaden anrichtet als das Coronavirus. Dagegen hilft nur ein gut trainiertes mentales Abwehrsystem.

Mehr

4.3.2020: Alles nur Panikmache?

Die einen stürmen angesichts des neuen Coronavirus die Supermärkte, die anderen sprechen von "Panikmache" und verharmlosen die Situation. Vor allem zeigt die aktuelle Epidemie, dass wir nicht gut darin sind, uns auf unwahrscheinliche Ereignisse vorzubereiten.

Mehr

27.2.2020: Zehn Haare in der Suppe

Das angesehene Magazin MIT Technology Review präsentiert zehn bahnbrechende Technologien, die die Welt 2020 verändern werden. Prompt finde ich zehn Haare in der Suppe.

Mehr

25.2.2020: Technologie ist ansteckend

Das neue Coronavirus lehrt uns, wie fragil unsere global vernetzte Welt ist. KI kann uns helfen, besser mit solchen Epidemien umzugehen, könnte andererseits aber die Gefahr durch neue Seuchen noch verschlimmern.

Mehr

20.2.2020: EU-Kommission setzt auf "vertrauenswürdige KI"

Besser spät als nie: Das neue Weißbuch der EU-Kommission zum Thema KI beschäftigt sich mit den Risiken und macht Lösungsvorschläge.

Mehr

11.2.2020: Cryptoleaks: Das Ungleichheitsproblem in der Kryptographie

Washington Post, ZDF und SRF decken heute gemeinsam eine Geheimoperation von BND und CIA während des Kalten Krieges auf, die das Ungleichheitsproblem komplexer Technologie veranschaulicht.

Mehr

9.2.2020: Werden wir vom „Überwachungs-Kapitalismus“ ferngesteuert?

Die ehemalige Harvard-Professorin Shoshana Zuboff jedenfalls ist davon überzeugt. Ein Beitrag von ihr in der New York Times untermauert eindrucksvoll und eindringlich das Ungleichheits-Problem der KI.

Mehr

3.2.2020: Wie funktioniert eigentlich KI?

Selbstlernende neuronale Netzwerke sind eigentlich recht simpel aufgebaut, aber ihre Schlussfolgerungen schwer nachzuvollziehen. Das lernt man in dem empfehlenswerten Online-Kurs Elements of AI, den ich testhalber absolviert habe.

Mehr

1.2.2020: Das Midas-Problem: Die unbeabsichtigten Nebenwirkungen der KI

Wir sollten aufpassen, dass uns Maschinen nicht Wünsche erfüllen, die wir später bereuen - so wie der Sagenkönig Midas.

Mehr

 

26.1.2020: B * C * D = AHH: Das Ungleichheits-Problem der KI, erklärt von Yuval Harari

Auf dem Weltwirtschaftsforum in Davos hat der Historiker und Autor Yuval Noah Harari eines der drei Grundprobleme der KI besser erklärt, als ich es je könnte. Unbedingt ansehen!

Mehr

 

24.1.2020: Sind wir noch zu retten?

Das Magazin Bulletin of the Atomic Scientists hat gestern seine Weltuntergangsuhr auf 100 Sekunden vor Mitternacht vorgestellt. Nach Meinung der klügsten Köpfe der Welt befinden wir uns in der "gefährlichsten Situation, mit der die Menschheit je konfrontiert war". Laut Nick Bostrom könnte es in Zukunft sogar noch schlimmer werden. Mehr

 

23.1.2020: Künstliche Dummheit trifft menschliche Ignoranz: Das Kompetenzproblem der KI

Wenn eine KI Fehler macht, weil sie nicht die nötige Kompetenz für eine Entscheidung besitzt, ist dieses "Kompetenzproblem" nur scheinbar ein technisches: Menschen vertrauen KI oft zu sehr, gerade weil sie sie nicht verstehen. Mehr

 

21.1.2020: Sie wissen, wer du bist

Dass wir bereits heute massive Probleme mit künstlicher Intelligenz haben, kann man an einem vor Kurzem erschienenen Artikel in der New York Times sehen. Heimlich, still und leise hat ein amerikanisches Start-up namens Clearview.ai drei Milliarden Fotos von Facebook, Twitter, Youtube etc. zusammengerafft und stellt diese nun amerikanischen Polizeibehörden zur Verfügung, um darauf Straftäter zu identifizieren. Mehr

20.1.2020: Meine drei Regeln für gutartige KI

Nachdem ich neulich Kritik an Stuart Russells drei Prinzipien für gutartige KI geäußert habe, möchte ich drei eigene Regeln vorschlagen, von denen ich hoffe, dass sie dabei helfen können, das „Value Alignment-Problem“ zu lösen. Ich hoffe, ich lehne mich damit nicht zu weit aus dem Fenster.

Mehr

13.1.2020: Stuart Russells 3 Prinzipien für „gutartige“ KI (und meine Zweifel daran)

In einem sehr sehenswerten TED Talk erklärt der renommierte KI-Forscher Russell das Problem des "Value Alignment" und schlägt drei Prinzipien zur Lösung vor. Ich wage zu widersprechen.

Mehr

12.1.2020: Drei fundamentale KI-Probleme

Künstliche Intelligenz bietet viele Chancen, aber sie birgt auch große Risiken. Man kann mindestens drei fundamentale Problemklassen identifizieren. Ich nenne sie das „Kompetenzproblem“, das „Ungleichheitsproblem“ und das „Midas-Problem“.

Mehr

11.1.2020: Was ist eigentlich KI?

Über „künstliche Intelligenz“ wird viel geredet, aber wie so oft bei Wörtern, die gerade en vogue sind, meint jeder etwas anderes damit. Mir wäre es deshalb am liebsten, den Begriff KI gar nicht zu verwenden und stattdessen von der „Automatisierung von Entscheidungen“ zu sprechen.

Mehr

10.1.2020: Zehn beliebte Vorurteile über künstliche Intelligenz
Über kaum ein Thema reden so viele Leute, die es nicht verstehen, wie über KI. Ich nehme mich da nicht aus – auch ich verstehe längst nicht alles. Trotzdem versuche ich hier mal ein paar häufige Vorurteile und Irrtümer auszuräumen.

Mehr

YouTube