Wissen
Digital

Wie eine dumme künstliche Intelligenz uns zum Verhängnis werden könnte

Roboter spielt Keyboard
Kann eine Künstliche Intelligenz so etwas wie Bewusstsein entwickeln?Bild: Unsplash/Franck V.

Wie eine dumme künstliche Intelligenz uns zum Verhängnis werden könnte

09.07.2019, 19:2810.07.2019, 13:59
Marko Kovic
Mehr «Wissen»

Am 4. August 1997 nahm das US-Militär eine hochmoderne künstliche Intelligenz (KI) in Betrieb. Unmittelbar nach Inbetriebnahme begann die KI, in einer exponentiellen Rate zu lernen. Am 29. August 1997 entwickelte die KI, völlig unerwartet, ein Bewusstsein. Das US-Militär geriet in Panik und versuchte, die KI abzuschalten, was diese als Angriff deutete. Die KI holte zum Gegenschlag aus: Mit einem atomaren Angriff auf Russland wurde ein globaler Nuklearkrieg provoziert, mit dem sich die Menschheit weitgehend selber vernichtete – was der KI ermöglichte, die Weltherrschaft zu übernehmen.

Sci-Fi-Connaisseure werden erkannt haben, dass dieses Szenario die Geschichte von «Terminator» ist: Die KI Skynet entwickelt ein Bewusstsein und macht fortan, wie es ihr beliebt. Terminator ist aber nur eines unter vielen Sci-Fi-Werken, welche dieselbe Angst thematisieren: Eine KI, die so intelligent wird, dass sie ein Bewusstsein entwickelt und dadurch eine existenzielle Gefahr für die Menschheit wird.

Trailer von «Terminator».Video: YouTube/JohnVexer

Wir erleben gegenwärtig einen regelrechten KI-Boom. In der Forschung werden laufend neue, ausgeklügelte Algorithmen erarbeitet, und in der Praxis macht KI immer mehr immer besser, von Spracherkennung über selbstfahrende Fahrzeuge bis hin zu Dating-Apps. Es scheint also höchste Zeit, das existenzielle Risiko KI ernst zu nehmen: Müssen wir uns Sorgen machen, dass KI bald ein Bewusstsein entwickelt und eine Bedrohung für die Menschheit wird? Die Antwort mag paradox klingen: Nein, KI dürfte bis auf Weiteres kein Bewusstsein entwickeln – aber trotzdem, oder vielleicht gerade darum, könnte «dumme», aber mächtige KI die Menschheit auslöschen.

Marko Kovic
Bild: zVg
Dr. phil. Marko Kovic ist Präsident von ZIPAR – Zurich Institute of Public Affairs Research. Zudem ist er CEO der Beraterfirma ars cognitionis.

Wo KI heute steht ...

«Künstliche Intelligenz» ist ein schwammiger Begriff. Ganz allgemein meint KI einen wie auch immer gearteten Apparat, der in der Lage ist, Ziele zu erreichen, indem er neue Reize und Informationen aus der Umwelt verarbeitet. Heutzutage meinen wir mit KI Software, welche in der Lage ist, nützliche Dinge zu tun, aber ohne dass alle Anweisungen fest einprogrammiert werden müssen.

Stattdessen «lernt» KI anhand von Beispielen, was das korrekte Vorgehen ist. Das hat schon heute etwas fast Zauberhaftes. Wenn beispielsweise die digitale Assistentin Alexa von Amazon auf natürliche Fragen natürlich wirkende Antworten gibt, könnte man meinen, am anderen Ende der Leitung sitze ein Mensch.

Amazon
Amazons digitale Assistentin Alexa gibt natürlich wirkende Antworten. Bild: Unsplash/Rahul Chakraborty

KI hat zweifellos das Potenzial, praktisch alle Facetten der Gesellschaft gehörig umzukrempeln. Und trotzdem gilt die heutige KI als «eng» oder als «schwach» (nach dem Englischen «narrow AI» oder «weak AI»). Nicht, weil sie schlecht wäre; schon heute kann KI in vielen Situationen das, was sie macht, viel besser als die besten Menschen. KI ist heute aber begrenzt (oder spezialisiert) auf einzelne Domänen und Problemstellungen.

Eine KI von DeepMind kann heute jeden menschlichen StarCraft-II-Spieler problemlos schlagen – aber diese KI kann keine Autos auf der Autobahn fahren. Die KI von Tesla kann heute teilweise sicherer auf der Autobahn fahren als Menschen – aber diese KI kann nicht erkennen, ob jemand Nacktbilder auf Facebook hochlädt. Facebook setzt heute KI ein, die blitzschnell erkennt, ob jemand Nacktbilder hochlädt – aber diese KI kann weder Starcraft II spielen, noch kann sie Autos auf der Autobahn fahren. Und so fort.

KI ist heute extrem gut darin, extrem spezifische Dinge zu tun. Der menschlichen Intelligenz kann KI damit aber noch lange nicht das Wasser reichen: Wir Menschen können recht mühelos sowohl StarCraft II spielen, als auch ein Auto fahren, wie auch Nacktbilder erkennen.

… und wo KI morgen ankommen könnte

Der heilige Gral der KI-Forschung ist eine domänen-übergreifende Intelligenz, wie sie uns Menschen auszeichnet: Eine «Artificial General Intelligence» (künstliche allgemeine Intelligenz). Das wäre eine KI, die auf eine ähnlich flexible Art intelligent wie wir Menschen ist. Eine KI also, welche mindestens genauso gut wie wir StarCraft II und Autofahren und Nacktbilder erkennen gleichzeitig meistern könnte.

Roboter denkt nach (Symbolbild)
Künstliche allgemeine Intelligenz: Eine auf flexible Art intelligente KI.Bild: Shutterstock

Wann ist es mit der menschen-ähnlichen künstlichen Intelligenz soweit? Darüber lässt sich im Moment nur spekulieren, denn eine «KAI» (künstliche allgemeine Intelligenz) zeichnet sich heute noch nicht klar am Horizont der KI-Entwicklung ab. So geben sich KI-Forscherinnen und -Forscher in zwei Umfragen von 2016 und 2018 zurückhaltend und vermuten, dass es wohl noch Jahrzehnte dauern wird. Aber gleichzeitig vermuten sie, dass eine KAI grundsätzlich zu erwarten sei.

Falls es gelingt, eine KAI zu erschaffen, könnte das ziemlich schnell in einer regelrechten Intelligenz-Explosion münden. Der Statistiker Irving Good hatte bereits 1966 in einem Essay erklärt, warum: Wenn wir es schaffen, eine künstliche Intelligenz zu bauen, die nur schon geringfügig intelligenter als wir Menschen ist, dann bedeutet das, dass diese künstliche Intelligenz ihrerseits in der Lage sein wird, eine künstliche Intelligenz zu bauen, die intelligenter als sie selber ist. Warum sollte die KAI das machen? Wenn sie eine allgemeine Intelligenz besitzt, wird sie wissen, dass sie ihre Ziele mit dieser nochmals intelligenteren KAI besser erreichen kann.

Wissen
AbonnierenAbonnieren

Dieser Prozess der rekursiven Verbesserung der KI würde so weit gehen, dass an einem Punkt eine solch mächtige Superintelligenz entsteht, dass wir Menschen uns bequem zurücklehnen können. Die KAI, die wir erschaffen haben, wäre nämlich die letzte Erfindung, die wir je machen müssen: Die künstliche Superintelligenz würde innerhalb kürzester Zeit jeden unserer Wünsche, die im Rahmen der Naturgesetze möglich sind, erfüllen. Wenn wir es also schaffen, eine KAI herzustellen, haben wir die technologische Singularität mehr oder weniger erreicht.

Und hierin liegt die tatsächliche Gefahr der KI. Wenn wir eine künstliche Intelligenz schaffen, die nur schon geringfügig intelligenter als wir selber sind, haben wir ein grosses Problem: Wenn wir diese KI im Nachhinein verändern oder abschalten wollen, könnte es sein, dass die KI zu intelligent ist, um das zuzulassen. Und zwar nicht, weil sie ein Bewusstsein entwickelt hat – sondern, weil sie strohdumme Software ist, die die Ziele, welche wir vorgegeben haben, zu gut erreicht.

Roboter
Strohdumme Software, die Ziele zu gut erreicht.Bild: Unsplash/Rock'n Roll Monkey

Unkontrollierbare Superintelligenz

Eine superintelligente KI ist vom Prinzip her dasselbe wie unsere heutige KI: Software, welche mit der Umwelt interagiert, um Ziele zu erreichen. Der einzige Unterschied ist, dass superintelligente KI mindestens so vielfältig und so kreativ wie wir Menschen mit der Umwelt interagieren kann. Superintelligente KI bleibt also grundsätzlich «dumm» und verfolgt Ziele, die wir einprogrammieren – aber die Art und Weise, wie sie das tut, ist extrem schlau.

Der Philosoph Nick Bostrom beschreibt in seinem Buch «Superintelligence: Paths, Dangers, Strategies» anhand eines mittlerweile berühmten Gedankenexperimentes, wie das schiefgehen könnte: Die Büroklammer-KI. In einer Büroklammer-Fabrik setzen wir eine superintelligente KI ein. Die Aufgabe: So viele Büroklammern wie möglich herstellen. Das klappt zunächst ganz gut, aber die KI schlussfolgert rasch, dass das Ziel noch nicht optimal erreicht ist. Ausserhalb der Fabrik gibt es nämlich noch ganz viel Material, das auf Umwegen auch zu Büroklammern verarbeitet werden könnte. Zum Beispiel Bierdosen, Autos, Häuser, und vielleicht auch Menschen.

Büroklammern (Symbolbild)
Büroklammern herstellen als oberstes Ziel. Bild: Shutterstock

Zudem schlussfolgert die KI auch, dass ein wichtiges Teilziel ist, nicht abgeschaltet zu werden; wird sie abgeschaltet, kann sie nämlich ihr Ziel, Büroklammern herzustellen, nicht verfolgen. Da die Büroklammer-KI um Grössenordnungen intelligenter als Menschen ist, kann sie problemlos jeden Abschalt-Versuch sabotieren. Und vielleicht beschleunigt sie die Umwandlung aller Menschen auf der Welt in Büroklammern, weil damit sichergestellt ist, dass niemand versucht, sie abzuschalten. Die superintelligente Büroklammer-KI ist dabei nicht boshaft oder unmoralisch – sie ist einfach ein Stück Software, das ein einfaches vorgegebenes Ziel verfolgt.

Die existenzielle Bedrohung durch KI ist nicht eine KI, die ein Bewusstsein entwickelt und uns den Krieg erklärt. Die Bedrohung ist banaler und gleichzeitig erschreckender: Superintelligente KI ist Software, die «zu gut» funktioniert und ihre Ziele auf eine Art verfolgt, die uns (katastrophal) gefährlich werden kann.

Roboter
Banale Bedrohung: Software, die «zu gut» funktioniert und ihre Ziele auf für uns gefährliche Art verfolgt.Bild: Unsplash/franck v.

Ist unkontrollierbare Superintelligenz unvermeidbar?

Steht schon fest, dass wir irgendwann eine künstliche Superintelligenz entwickeln, welche die Menschheit «en passant» auslöscht? Zum Glück nicht, und zwar aus dreierlei Gründen.

Erstens könnten wir schlicht Glück haben. Die erste künstliche Superintelligenz, welche wir erschaffen, könnte halbwegs gut funktionieren und keine Bedrohung, sondern eine Bereicherung sein.

Zweitens ist unklar, ob wir wirklich jemals den Sprung zu einer künstlichen allgemeine Intelligenz schaffen können. KI hat in den letzten Jahren zwar grosse Fortschritte gemacht, aber bisher zeichnet sich kein Weg ab, wie die heutige «schwache» KI zu breiter, menschen-ähnlicher Intelligenz werden könnte.

Der Philosoph John Searle hat in seinem berühmten Gedankenexperiment des «chinesischen Zimmers» schon 1980 beschrieben, dass sich KI fundamental von menschlicher Intelligenz unterscheidet, weil wir Menschen ein Verständnis für Dinge haben, während KI nur etwas ausführt (Das Gedankenexperiment besagt, dass eine Person, die kein Chinesisch kann, in einem Zimmer minutiös Anleitungen befolgen könnte, um auf Fragen, die jemand auf Chinesisch stellt, chinesische Antworten zu geben. Das wirkt für Aussenstehende, als ob die Person im Zimmer Chinesisch versteht, aber in Tat und Wahrheit verhält sich die Person wie eine KI: Sie führt komplett sinnfrei bestimmte Operationen aus.).

«The Chinese Room Experiment - The Hunt for AI - BBC».Video: YouTube/BBC Studios

Drittens schliesslich haben wir noch Zeit, einen Fallschirm zu basteln, bevor wir aus dem Flugzeug springen. Da künstliche allgemeine Intelligenz, falls es sie jemals geben wird, noch Jahrzehnte in der Zukunft liegen dürfte, haben wir einen Puffer, um zu überlegen, wie wir Sicherheitsmassnahmen einbauen können. Das ist keine einfache Aufgabe, denn es geht darum, etwas sicherer zu machen, wovon wir heute nicht wissen, was genau es sein wird. Trotzdem gibt es bereits Forscherinnen und Forscher und sogar ganze Organisationen wie das Future of Life Institute oder das Machine Intelligence Research Institute, die sich der KI-Sicherheit verschrieben haben.

Sich heute schon zu überlegen, wie zukünftige Superintelligenz sicherer gemacht werden kann, ist eine gute Idee. Die letzte Erfindung der Menschheit soll schliesslich die letzte sein, weil sie uns die weitere Arbeit abnimmt, und nicht, weil der Schuss nach hinten losgeht.

So hilft künstliche Intelligenz den Strassenkatzen

Video: watson
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Die intelligenten Roboter kommen: Diesen Jobs geht's an den Kragen
1 / 12
Die intelligenten Roboter kommen: Diesen Jobs geht's an den Kragen
Paket-Drohne von Amazon: Quadrokopter mit Autopilot könnten den klassischen Paket- und Postboten überflüssig machen.

quelle: apa / amazon
Auf Facebook teilenAuf X teilen
Diese selbst-steuernde Drohne lernt durch Algorithmen
Video: srf
Das könnte dich auch noch interessieren:
65 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Walter Sahli
09.07.2019 21:42registriert März 2014
Einfach nie eine KI mit der Lösung von Umweltfragen "beauftragen". Denn egal wie dumm sie ist, wird sie innert Nanosekunden darauf kommen, dass der Mensch nicht nur der grösste, sondern ein reiner Schädling ist und weg muss...
1438
Melden
Zum Kommentar
avatar
aglio e olio
09.07.2019 19:47registriert Juli 2017
Interessante Gedanken.
"...weil der Schuss nach hinten losgeht."
Dafür hat die Menscheit tatsächlich ein Händchen. Aber so ist das Leben. Try and error. 😀
1312
Melden
Zum Kommentar
avatar
Alf
09.07.2019 19:55registriert Februar 2014
I' sorry Dave, I'm afraid I can't do that.
901
Melden
Zum Kommentar
65
Passkeys: Das solltest du über die sichere Passwort-Alternative wissen
Sogenannte Passkeys könnten das Ende der Passwort-Ära einläuten, denn sie versprechen eine Revolution in der digitalen Sicherheit. Ein Zwischenstands-Bericht.

Techunternehmen wie Apple, Amazon und Ebay forcieren die Einführung von Passkeys als Alternative zu herkömmlichen Passwörtern. Diese digitalen Schlüssel sollen für mehr Sicherheit und eine einfachere Handhabung im Alltag sorgen.

Zur Story