Mensch vs. künstliche Intelligenz – Ein Duell der Giganten

Frank Schätzing lässt in seinem neuen Roman „Die Tyrannei des Schmetterlings“ die Menschheit gegen eine künstliche Superintelligenz antreten. In dem fiktiven Szenario geben sich die menschlichen Eltern alle Mühe, den Algorithmus nach ihren Moralvorstellungen zu erziehen. Ob das gelingt oder nicht und zu welchem Ende die menschliche Kinderstube in dem Roman führt, das wollen wir hier nicht spoilern.

 

Doch das Thema künstliche Intelligenz (KI) bewegt, polarisiert und ist in aller Munde. Die eine Seite hofft, über die kollektive Nutzung von KI im Sinne einer altgriechischen Tradition, durch die Arbeitsentlastung und der daraus zwangsweise resultierenden Einführung eines bedingungslosen Grundeinkommens, endlich frei von finanziellen Zwängen seiner Passion folgen zu können. (Von prominenter Seite her wird diese Hypothese vor allem von Richard David Precht vertreten.) Die andere Seite sieht den nahenden Weltuntergang und bringt KI mit Massenvernichtung, Industriespionage und dem gläsernen Menschen in Verbindung. Ein prominenter Vertreter dieser Fraktion ist Elon Musk, der seit Jahren vor den Gefahren einer künstlichen Superintelligenz warnt und eine internationale Regulation fordert.

 

Wer hat Recht? Zeit KI querzudenken.
Denn die entscheidende Frage ist eine ganz andere.

 

Digitalisierung bedeutet KI

 

Um die beginnende Debatte greifbarer zu machen, wollen wir die Überlegungen beispielhaft an autonomen Fahrzeugen (AF) durchexerzieren. Die Autoindustrie ist besonders stark von der Digitalisierung betroffen. Heutzutage hat ein durchschnittliches High-End-Auto siebenmal mehr Programmiercodes als eine Boeing 787 (Fritzgerald, 2013). AF versprechen 90% weniger Verkehrsunfälle, denn in vielen Unfallsituationen ist der Faktor "menschliches Versagen" verursachend (Gao, Hensley, & Zielke, 2013). Der Einführung steht von technischer Seite her nicht mehr viel im Wege und die zahlreichen Vorteile sprechen für sich, aber gleichzeitig sind vor allem noch moralische Fragen ungelöst. Denn eine solche KI trifft Entscheidungen, die vorher in der Domäne des Menschen lagen.

 

Sobald eine KI Entscheidungen über Leben und Tod treffen muss, stellt sich die Frage, nach welchen moralischen Prinzipien die KI ihre Entscheidung treffen soll. Stellen wir uns folgende Dilemma-Situation vor: Ein AF fährt auf einer Straße, als plötzlich eine Gruppe von fünf Menschen vor dem Auto auftaucht. Die KI hat die Möglichkeit, die Gruppe zu überfahren und dabei das Leben des Fahrers zu retten oder das Leben der Gruppe zu retten, indem die KI das Fahrzeug bei dem Ausweichmanöver gegen eine Wand lenkt. In diesem Fall würde der Fahrer sterben. Beide Optionen führen unausweichlich zum Tod von Beteiligten. Wie soll die KI hier entscheiden? Eine solche ethische KI zu programmieren, ist wohl eine der größten Herausforderungen der heutigen Zeit (Deng, 2015). Eine „richtige“ Entscheidung gibt es in diesem Beispiel, wie das Wort Dilemma schon sagt, nicht.

 

Querdenker live treffen!


Eine ethische KI

 

Moralische Entscheidungen werden in solchen Dilemmata als tendenziell entweder deontologisch oder utilitaristisch bezeichnet. Deontologie ist ein moralischer Zustand, welcher sich aus einem mit der Norm oder Regel konsistenten Verhalten ergibt. In unserem Beispiel würde das bedeuten, dass AF tendenziell nicht umzulenken ist, um die Norm Du sollst nicht aktiv töten nicht zu verletzten. Der Utilitarismus hingegen legt den Fokus auf das Gesamtwohl und versucht dieses zu maximieren. Dies würde in unserem Beispiel bedeuten, das Auto umzulenken, die fünf Personen auf der Fahrbahn zu retten und dabei den Fahrer zu töten.

 

Ein beliebter Ansatz zur Programmierung einer KI ist die Orientierung am Menschen. Über zahlreiche Experimente hinweg werden Menschen gebeten, in solchen Dilemma-Situationen eine Entscheidung zu treffen. Aus dieser Datengrundlage wollen Forscher dann das moralische Entscheidungsverhalten von Menschen ableiten und diese Prinzipien in die Programmierung einer künstlichen Intelligenz mit einfließen lassen.

 

Der Querdenker-Kongress


Eine moralische Illusion

 

Lange Jahre wurde dem Menschen eine moralische Überlegenheit zugesprochen. Kurz gesagt, wir Menschen glauben zu wissen - zumindest theoretisch -, was ein moralisch richtiges Verhalten ist. Die meisten Menschen würden sogar von sich behaupten, die meiste Zeit moralisch integer zu handeln. Doch aktuelle Forschungsergebnisse deuten genau in die gegengesetzte Richtung.

 

So gaben in einem Experiment 76% der Teilnehmer an, der Fahrer des AF sollte sich eher selbst opfern, um die Gruppe von Passanten zu retten (Bonnefon, Shariff, & Rahwan, 2016). Gleichzeitig würde sie aber mit einer signifikant geringeren Wahrscheinlichkeit ein AF kaufen, dessen KI auf ein solches Verhalten programmiert ist. Der moralische Anspruch an die Mitmenschen wäre hier, im Sinne des Utilitarismus möglichst selbstlos zu handeln. Wohingegen die meisten Menschen für sich selbst auf einer deontologischen Position bestehen und fordern, dass um jeden Willen ihr eigenes Leben geschützt wird. Was soll eine KI daraus über moralische Entscheidungen lernen?

 

Ein weiteres Forschungsergebnis, das zum nachdenken anregen sollte, ist durch folgendes Szenario verdeutlicht: Sie haben die Wahl, entweder 1000 Menschen vor den Folgen einer Verletzung zu retten oder zehn Menschen. In beiden Fällen ist das erlebte Leid pro Person identisch. Wie entscheiden Sie? Die einzig logische Entscheidung wäre, sich für die 1000 Menschen zu entscheiden. Doch Menschen scheinen sich für das Leid der zehn Menschen mehr zu interessieren, als für das Leid der 1000 (Konis, Haran, Saporta, & Ayal, 2016). Das ist auch der Grund, warum Patenschaften für bedürftige Kinder, bei denen der Interessent mit dem individuellen Leid einer Person konfrontiert wird, sich deutlich besser verkaufen, als Spenden für Hilfsfonds, die einer anonymen grauen Masse in weiter Entfernung nach Kriterien der maximalen Effektivität helfen.

 

Querdenker-Partner


The Ones Who Walk Away From Omelas

 

Ursula K. Le Guin hat dieses Thema in ihrer Kurzgeschichte „The Ones Who Walk Away From Omelas“ treffend in ein Bild gepackt (zurückgehend auf „The Moral Philosopher“ von William James). Zu Beginn des Gedankenexperiments wird der Leser aufgefordert, sich den ersten Sommertag in der schönen Stadt Omela vorzustellen. Die Bewohner werden als einfach, aber glücklich beschrieben. Es gibt keine hierarchischen Strukturen und die Gemeinde hat sich auf Technik beschränkt, welche für ein glückliches Leben benötigt wird. Dort existierten wahre Freundschaft und auch Orgien werden von der Autorin vorgeschlagen. Ein wahres Paradies soll Omela sein, in dem wohl jeder leben will.

 

Im weiteren Text offenbart die Autorin das Geheimnis der glücklichen Menschen in Omela. Es ist ein einzelnes zurückgebliebenes Kind, dass in einem engen, schmutzigen Zimmer gehalten wird. Es sitz dort in seinen Exkrementen und verbringt die Tage in Schmerz und Furcht. Das Leiden dieses einzelnen Kindes garantiert auf unbeschriebene Art das Glück der Bewohner Omelas. Ist es gerechtfertigt, dass für das Glück aller anderen Bewohner Omelas, dieses eine Kind Tag und Nacht leidet? Die meisten Menschen antworten an dieser Stelle mit einem klaren Nein.

 

Bei genauer Betrachtung unterscheidet sich unser Leben in Deutschland nicht groß von dem in Omela. Nur, dass unser Wohlstand auf dem Leid von weit mehr Menschen weltweit basiert. Auch hier wird wieder deutlich: Sobald wir uns von dem nachvollziehbaren Leid eines einzelnen Wesens einer nebulösen grauen Masse zuwenden, scheint unser moralischer Kompass zu versagen. Denn sollte man die weltweiten Verhältnisse ernst nehmen, wäre es keine Frage, sondern eine Verpflichtung jedes einzelnen Bürgers Europas, ein Teil seines Einkommens der leidenden nebulösen Masse zukommen zu lassen. Aus der Forschung innerhalb des „Effektiven Altruismus“ wüssten wir genau, auf welche Art und Weise wir mit unserer Spende den maximalen möglichen Nutzen für die Menschheit erzielen könnten. So lässt sich schon mit knapp 1000 Euro ein Mensch vor dem Tod durch Malaria bewahren. Doch das einzelne Schicksal eines Braunbären in Deutschland scheint zu weit mehr Spendenbereitschaft zu führen.

 

Und so gleicht unser Streben nach immer mehr Wohlstand folgender Entscheidung bei unserem Dilemma beim AF.

Die fünf Passanten fahren wir gerne über den Haufen, solange wir dabei unsere eigenen Haut retten können.

 

 

Der Mensch als Auslaufmodell?

 

Die Frage, die wir uns an dieser Stelle also stellen müssen: Ist es wirklich eine gute Idee, KI nach menschlichen moralischen Maßstäben zu programmieren? Je digitaler, vernetzter und globaler unsere Gesellschaft wird, desto mehr scheint unser moralischer Kompass zu versagen. Mit irgendwelchen Daten müssen wir aber die KI füttern, um ihr eine Grundlage für den moralischen Entscheidungsprozess zu liefern. Sind es die großen philosophischen Werke der Menschheit? Oder die wissenschaftlichen Fakten, um im Sinne des Pragmatismus entscheiden zu können? Oder besteht sogar die Möglichkeit, dass eine künstliche Superintelligenz eine eigene Ethik entwickelt, die der menschlichen in Theorie und Praxis weit überlegen ist?

 

Verständlicherweise machen diese Vorstellungen vielen Menschen Angst, sind wir in einem solchen Szenario den Entscheidungen einer KI ausgeliefert. Aber interessiert sich ein Mensch dafür, welche Ameisen er gerade niedertrampelt? Wohl nicht. Ebenso würde sich die künstliche Superintelligenz wohl nicht für die einzelnen Befindlichkeiten der Menschen interessieren. Zumindest dann nicht, wenn sie moralische Entscheidungen nach menschlichen Kriterien fällt.

 

 

 

Verfasser: Stefan Passvogel

 

weitere Artikel lesen

Querdenker Medienpartner


Querdenker, XING
Querdenker, Facebook
Querdenker, Instagram
Querdenker, Events

Kommentar schreiben

Kommentare: 4
  • #1

    Dr. Christine Koenig (Donnerstag, 18 Juli 2019 15:40)

    Ich empfehle in diesem Zusammenhang auch Ian McEwans neues Buch "Machines like me" zu lesen. McEwan spekuliert hier, dass eine KI, die, mit den täglichen kleinen und großen ethischen Komplikationen menschlichen Daseins konfrontiert, daran scheitern muss. McEwan mutmaßt, dass sie sich möglicherweise sogar selbst zerstört, weil sie am Umgang mit den inkonsistenten ethischen Regeln menschlichen Verhaltens scheitert und, wenn sie denn wirklich intelligent ist, dies auch erkennen muss. Das ist möglicherweise das wahre Dilemma hier ;)

  • #2

    Achim Beck (Donnerstag, 18 Juli 2019 15:59)

    Es ist sehr enttäuschend. Ich habe einen längeren Kommentar an dieser Stelle geschrieben. 15 min damit verbracht eine andere Seite zu beleuchten, weil das Beispiel "autonomes Auto" nicht die wirklichen Probleme wieder gibt. Kurz vor Fertigstellung meines Kommentars, schreibt jemand einen kurzen Kommentar, und meiner ist damit komplett verschwunden. Danke! Tschüss, ändert erst einmal die Kommentarfunktion, damit man auch noch seinen Text schreiben kann, wenn jemand anderes Postet!

  • #3

    innokaan (Samstag, 20 Juli 2019 19:12)

    @Achim Beck: Nach zahllosen frustrierenden Erlebnissen verschwindender Kommentare oder eMails, für die man sich lange den Kopf zerbrochen hat, habe ich die Lösung gefunden: Ich schreibe jeden Text, den ich veröffentlichen möchte, in Word vor. Dort wird er permanent automatisch gesichert, sodass selbst bei Fehlfunktionen des Computers (z.B. Absturz) nur ein kleiner Teil verloren geht. Dann gehe mit Copy und Paste hinüber und setze den Text ein. Klappt es nicht gleich so wie hier, weil ein Anderer mit seinem Kommentar dazwischen fährt, dann setze ich den kopierten Text halt nochmals ein. Habe ich hier jetzt allerdings nicht gemacht, sondern zwischendurch händisch immer selbst gespeichert. Das geht natürlich auch...

  • #4

    Achim Beck (Montag, 29 Juli 2019 18:02)

    @innokaan. Ja, ist eine gute Idee. Werde ich in Zukunft auch so machen