Zur Frage der sog. „künstlichen Intelligenz“

"Thou shalt not make a machine in the likeness of a human mind.“ – Orange Catholic Bible

 

 

KI oder Der moderne Prometheus?

 

„We are the Gods now.“ Klingt gut, nicht wahr? Den Redner in diesem Video, Peter Weyland, dessen Name an die Sagengestalt Wieland der Schmied angelehnt ist, der der größte Meister seiner Kunst, aber auch ein etwas fragwürdiger Charakter war, könnte man gleichsam als die Verkörperung der gesamten „Diskussion“ um künstliche Intelligenz betrachten, zumindest wie sie sich im öffentlichen Bewusstsein abzuspielen scheint. Die Möglichkeiten, die mit der rasanten Entwicklung sog. „intelligenter“ Computerprogramme einhergehen, scheinen schier unbegrenzt, sodass es nicht weiter überraschen muss, dass vor Kurzem von dem ehemaligen Google-Mitarbeiter Anthony Lewandowski eine Kirche der künstlichen Intelligenz namens „Way of the Future“ gegründet wurde, die sich folgendes Ziel auf ihre Fahnen geschrieben hat: „creating a peaceful and respectful transition of who is in charge of the planet from people to people + machines“. Vom Gründer der Kirche ist das bezaubernde Zitat überliefert: „We will take over the world - one robot at a time.“ Die Perspektive ist, demnächst einen „Gott“ zu programmieren, der zwar keine Blitze schleudern oder das Meer teilen kann, aber so viel intelligenter ist, als ein Mensch, dass er die Bezeichnung „Gott“ - laut Lewandowski - durchaus verdient. Diesen Maschinen-Gott gilt es laut der Theologie von WOTF durch das richtige Verhalten von Seiten der Menschen gnädig zu stimmen, „so that this whole process can be amicable and non-confrontational“. Die Mittel dazu mögen einem freilich aus den Systemen diverser Diktaturen bekannt vorkommen: "We believe it may be important for machines to see who is friendly to their cause and who is not. We plan on doing so by keeping track of who has done what (and for how long) to help the peaceful and respectful transition“. Oh schöne neue Welt, die uns blüht, wenn der Gott der Maschinen sein Haupt erhebt.

 

Doch wie realistisch sind derartige Szenarien? Ist zu erwarten, dass wir demnächst unseren Computern, bevor wie sie benutzen, Weihrauch spenden müssen (es wäre eine Ironie der Geschichte, wenn sich gerade die für testosteron-überladene 14jährige konstruierte Spielwelt von Warhammer 40.000 als visionär erweisen sollte)?

 

Steht der Mensch an der Schwelle eines neuen Zeitalters, in dem er sich durch das Konstruieren im vollen Sinne intelligenter Maschinen zum Gott aufschwingt oder Gott allererst schafft? Oder, um bei einer bescheideneren, philosophischen These stehenzubleiben: Sind Computer dem menschlichen Geist so ähnlich, dass sich der menschliche Geist endlich aufschlüsseln lässt, indem man ihn als Programm zu begreifen versucht?

 

Querdenker live treffen!


Licht ins Dunkel der Begriffe

 

Um diese Fragen beantworten zu können, gilt es zunächst einige Begriffsklärungen vorzunehmen, von denen die wichtigsten freilich die Begriffe „Intelligenz“ und „Computer“ sind (sollte man nämlich feststellen, dass sich die Begriffe, so wie wir sie gegenwärtig verwenden, gegenseitig ausschließen, hätte der ganze Spuk dieser Diskussion samt sämtlicher Projektionen über digitale Götter schnell ein Ende).

 

Die Frage nach der Natur der menschlichen Intelligenz bzw. des menschlichen Bewusstseins ist so komplex, dass sie bis heute in der Philosophie nicht einmal ansatzweise als geklärt gelten kann. Eine der zentralen Fragen in dieser Diskussion ist, ob eine Reduktion des Bewusstseins auf physische Prozesse möglich ist (dies würde bedeuten, dass derjenige, der alle physischen Fakten über das Universum kennt, auch sämtliche Fakten über das Bewusstsein kennen würde). Wäre dem so, stünden immerhin auch die Chancen nicht schlecht, das Bewusstsein in irgendeiner Form physisch reproduzieren zu können, immerhin müsste man in diesem Fall „nur“ die physischen Prozesse reproduzieren, die für das Zustandekommen des Phänomens, das wir als Bewusstsein bezeichnen, verantwortlich sind. 

 

Die Hauptwährung des Bewusstseins nun sind sog. „Repräsentationen“, mit denen es der Geist zuwege bringt, „an“ etwas zu denken. Denke ich bspw. an den Mond, muss der Mond dabei, salopp gesprochen, irgendwie in meinen Kopf „hinein“, er muss also von etwas repräsentiert werden, mit dem mein Geist umgehen kann. Dies wird in der Fachdebatte als „Idee“ oder „Repräsentation“ bezeichnet. Wie wir noch sehen werden, tun Computer etwas sehr ähnliches, d. h., die Parallelisierung menschlicher Bewusstseinsakte mit der Arbeitsweise von Computern ist von einem gewissen Standpunkt aus nachvollziehbar. Auch die Tatsache, dass der Mensch mit diesen Repräsentationen nach gewissen Regeln, den Regeln der deduktiven Logik (Operationen wie „Die Menschen sind sterblich. Sokrates ist ein Mensch. Also ist Sokrates sterblich.“) umgeht, unterstützt den Hang zu dieser Parallelisierung. 

 

Der Querdenker-Kongress


Da Menschen und Computer auf eine ähnliche Art und Weise zu „arbeiten“ scheinen, so könnte man meinen, dass das Projekt des sog. Turing-Tests uns der Frage nach der Möglichkeit künstlicher Intelligenz näher bringen kann. Der Turing-Test geht auf den Logiker und Mathematiker Alan Turing zurück, der für seine im zweiten Weltkrieg für das britische Militär geleistete Dechiffrierungsarbeit bekannt ist. In seinem Aufsatz „Computing, Machinery and Intelligence“ von 1950 stellte Turing die Frage, „if a machine could do well in the imitation game“. D. h., ein menschlicher Beobachter führt per Textnachricht eine Konversation mit einem menschlichen Gesprächspartner und einer „Turing-Machine“ (ein theoretisches Konstrukt von einer ungeheuer simplen Grundstruktur, das als geistiger Vorläufer des Computers gelten kann), weiß aber nicht, welche Nachrichten er vom Menschen und welche er von der Maschine bekommt. Liegt seine „Trefferquote“ bei 50% oder weniger, d. h. ist sie äquivalent mit Zufallstreffern, gilt der Test als bestanden, die Maschine hätte erfolgreich einen Menschen simuliert. Auch wenn bis heute umstritten ist, ob der Test bereits bestanden wurde oder nicht (das Ergebnis wird verzerrt, je nachdem, ob der menschliche Beobachter weiß, dass es sich bei einem seiner Gesprächspartner um einen Computer handelt oder nicht), stehen die Chancen gut, dass dem so ist. (Bereits in den 60er Jahren scheiterte eine Gruppe von klinischen Psychologen daran, Patienten von einem Programm zu unterscheiden).

 

Doch selbst bei einer optimistischen Perspektive auf das Problem, scheint der Turing Test die Fragestellung eher zu verkürzen, als ein wirklich relevantes Testverfahren für die eigentlich interessante Frage zu liefern: Denn was den menschlichen Geist umtreibt, ist nicht so sehr, so meine ich, die Frage, ob eine Maschine menschliches Verhalten simulieren könne, sondern, wie der Geist in die Maschine hineinkommt. Und tatsächlich begründete Turing sein „Ausweichen“ auf das Imitation Game in dem erwähnten Aufsatz genau mit dem Argument, die Frage, ob Maschinen denken können, sei zu unklar, um sie wissenschaftlich fassen zu können.

 

Putnam´s Hammer

 

Damit ist jedoch der Finger genau in die Wunde der Diskussion gelegt: Die Frage, worum es sich bei menschlichem Denken eigentlich handelt, ist so komplex, dass sie auch nach 2500 Jahren philosophischer Diskussion nur äußerst unzureichend geklärt ist. Der Philosoph Hilary Putnam erhebt einen gewichtigen Einwand gegen die Möglichkeit künstlicher Intelligenz im Vollsinne: Die Versuchung zu behaupten, man könne den Geist oder das Gehirn als Computer modellieren, so Putnam, ist groß. Doch was ist damit gesagt? Jedes physische System, das in Zeit und Raum begrenzt ist, lässt sich derartig modellieren, dass wenn wir sein Verhalten lediglich bis zu einem gewissen Grad von Genauigkeit vorhersagen wollen, sich diese Vorhersage mit einer Stufenfunktion treffen lässt. Doch die Träume von Weyland, Lewandowski und Konsorten gehen freilich weit über solch schlichte Modelle hinaus. Es geht um eine praktische, tatsächliche Instantiierung eines solchen Modells. 

 

Doch wenn wir Menschen digitale Computer sind, die von der Evolution programmiert wurden, dann muss man sich zunächst klarmachen, wie die Evolution zu begreifen ist. In der gesamten von den abrahamitischen Religionen geprägten Welt spukt uns noch immer das Bild von einem Schöpfergott durch den Kopf, der seine Kreaturen anhand eines intelligenten Masterplans, einer Art Blaupause, entwirft wie ein Programmierer seine Programme und dann diese Kreaturen anhand der Blaupause „ausstanzt“. Doch was, wenn wir uns von diesem Bild einmal lösen und eine andere, aus biologischer Sicht viel wahrscheinlichere Perspektive in Erwägung ziehen: Was, wenn es sich bei der Evolution nicht um einen Programmierer mit einem Masterplan handelt, sondern um einen Heimwerker, einen Bastler? 

 

Querdenker-Partner


Man stelle sich diesen Bastler nun mit einer Werkstatt mit vielen losen Ersatzteilen und Schrott vor, die spontanen Ideen nach zusammengefügt werden („Was, wenn ich jetzt den Fahrradreifen an dieses Ding dranschraube?“). Viele dieser Ideen werden nicht funktionieren, aber hin und wieder eben schon. Viele Charakteristika dieser Schöpfungen sind mehr willkürlich als wirklich gelungen, aber es können trotzdem funktionale Konstrukte herauskommen. Wenn der Heimwerker nun zum Programmierer wird, dann entwickelt er „natürliche Intelligenz“ nicht durch das Schreiben eines Master Program und den Bau eines Geräts, um es laufen zu lassen, sondern indem er ein Gerät und eine Programmierungsidee nach der anderen einführt. Die Anzahl dieser Geräte und Ideen könnte nun so hoch sein, dass wir a) weder in der Lage sein werden, den Weg des Heimwerkers zurückzuverfolgen oder b) selbst wenn uns dies gelänge, es doch niemals praktisch umsetzen könnten. 

 

Fragt man nun, warum es nicht einen Masterplan geben sollte, da es doch immerhin im Fall der deduktiven Logik gelungen ist, eine Reihe von Regeln zu finden, die man hinreichend formalisieren konnte, um es Computern zu ermöglichen, mit ihnen zu arbeiten, so sei darauf nur kurz einer von vielen möglichen Gegeneinwänden präsentiert: Menschliches Denken basiert auf wesentlich mehr als nur deduktiver Logik. Die sogenannte Induktive Logik, mit der wir von Einzelfällen auf das Allgemeine schließen (so bspw. beim Erschließen v. Naturgesetzen), hat sich bis heute der Formalisierung widersetzt, spielt aber nichtsdestoweniger in unserem alltäglichen Denken eine bedeutende Rolle. 

 

Man betrachte folgenden Fall: Es ist sehr wahrscheinlich, dass noch nie jemand, der Inuit gesprochen hat, die Emerson Hall der Harvard University betreten hat. Wenn also ein neuer Besucher die Emerson Hall der Harvard University betritt, ist die Wahrscheinlichkeit extrem hoch, dass er kein Inuit spricht. Sei Ukuk ein Eskimo in Alaska, der Inuit spricht. Schicken wir nun Ukuk in die Emerson Hall der Harvard University, besteht dann eine erhöhte Wahrscheinlichkeit, dass er kein Inuit mehr spricht? 

 

Bereits kleine Kinder verfügen über ein implizites Hintergrundwissen, das es ihnen de facto unmöglich machen würde, einen so absurden Schluss zu ziehen, wie er hier in unserem Beispiel angedeutet ist. Doch wie sollen wir einen Computer davon abhalten, solch einen Schluss zu ziehen? Wie sollen wir einem Computer genug Material einprogrammieren, um ihm das Hintergrundwissen zu verleihen, das es ihm ermöglicht, Fehlschlüsse zu vermeiden, die ein Grundschüler nicht machen würde? Putnam bringt es mit der bedrängenden Frage auf den Punkt, wie viel von dem, was wir als Intelligenz bezeichnen, den gesamten Rest der menschlichen Natur voraussetzt. Dies ist nur eines von zahlreichen prinzipiellen Gegenargumenten gegen die Möglichkeit echter künstlicher Intelligenz im Vollsinne. Sind diese korrekt, wird Herr Lewandowski noch lange auf die Herabkunft seines digitalen Erlösers warten müssen. 

 

 

 

Verfasser: Maximilian Knauer

 

weitere Artikel lesen

Querdenker Medienpartner


Querdenker, XING
Querdenker, Facebook
Querdenker, Instagram
Querdenker, Events

Kommentar schreiben

Kommentare: 0