Philosophische Ursprünge künstlicher Intelligenz

Ich denke, also bin ich – von Descartes bis Searle

Wenn philosophische Grundlagen bei den Betrachtungen von künstlicher Intelligenz (KI) zur Sprache kommen, werden häufig die mechanistischen Gedankengänge von Descartes ins Feld geführt. Im 16. Jahrhundert hatte der französische Philosoph die Vorstellung vertreten, dass der Unterschied zwischen Mensch und Tier nur in der Seele liege – anderweitig funktionierten aber alle Organismen nach mechanischen Prinzipien. Der britische Denker Thomas Hobbes legte mit seinen Vorstellungen von mechanistischen Staatsprinzipien nach. Das aus diesen Denkansätzen stammende „Maschinenparadigma“ entwickelte sich weiter, bis es im 20. Jahrhundert durch Relativitäts-, Quanten- und Chaostheorien abgelöst wurde. Das deterministische Weltbild wurde durch Vorstellungen von vernetzten Kausalitäten ersetzt.

Philosophie und Naturwissenschaften hatten sich allerdings vorrangig mit dem Wesen der Natur beschäftigt. Mit dem Aufkommen der Kybernetik im 20. Jahrhundert entwickelte sich die Betrachtung von natürlichen Phänomenen hin zu den Betrachtungen von Systemen. In West-Deutschland formulierte Karl Steinbruch 1970 die philosophischen Komplexe jener noch neuen Disziplin so:

„[…] zwei Fragen [scheinen mir] von zentraler Bedeutung zu sein:

1. Können Maschinen voraussichtlich etwas entwickeln, was man in Zukunft als Intelligenz bezeichnen kann?

2. Besteht eine nennenswerte Aussicht, die Intelligenz von Lebewesen, insbesondere von Menschen, durch ihre physische Struktur zu erklären?“

Allerdings konnte sich Kybernetik nicht durchsetzen und verlief sich in die Bereiche Informatik und künstliche Intelligenz.

Bei der Entwicklung der künstlichen Intelligenz verlaufen die philosophischen Fragen in einer parallelen Entwicklung. Nachdem sich künstliche Intelligenz als wissenschaftliches Forschungsfeld etablieren konnte, bestimmte zunächst die symbolische KI die Theorie. Deren Vertreter reduzierten menschliche Intelligenz auf die Verarbeitung abstrakter Symbole und entwickelten daraus ihre Vorstellungen:

„Maschinen werden innerhalb von 20 Jahren alles können, was Menschen auch können“ (Herbert Simon, 1965).

Die parallel entwickelten Vorstellungen einer neuronalen KI konnten sich zunächst nicht durchsetzen. Bei der symbolischen KI werden im Computer alle möglichen Handlungsvarianten eingespeist, aus denen sich das KI-Verhalten rekrutiert. Bis in die 1980er Jahre hinein gaben die Erfolge von Schachrobotern und anderen KI-Modellen den Vorstellungen recht. Die neuronale KI fußt auf der Entdeckung des Perzeptrons durch Frank Rosenblatt 1958, der Nachbildung menschlicher Nervenzellen. In einem Perzeptron-Netzwerk aktivieren die Input-Neurone die entsprechenden Output-Neurone. Die Informationen laufen innerhalb dieser sogenannten Feed-Forward-Architektur nur in eine Richtung, können aber viel schneller Informationen akkumulieren und neu generieren. Vernetzung über verschiedene Ebenen hat als philosophische Grundlage die eindimensionale hierarchische Ordnung abgelöst – aber mit Einschränkungen.

Wenn sich zwar die Philosophie im Laufe des 20. Jahrhunderts gemeinsam mit den Naturwissenschaften vom mechanistischen Weltbild lossagen konnte, so haben die Theoreme von Materialismus, Behaviorismus und Funktionalismus dennoch weiterhin für die Computerwissenschaft Bestand. Ersterer besagt, dass es nichts gibt außer Materie. Das impliziert, dass alles, was einen Menschen ausmacht, prinzipiell mit Hilfe naturwissenschaftlicher Methoden analysierbar und konstruierbar ist. Der Behaviorismus, der sich zu Beginn des 20. Jahrhunderts herausbildete, erklärt, dass nur verifizierbare Fragen und Probleme von Bedeutung für die wissenschaftliche Betrachtung sein können. Bewusstsein, Glaube, Ideen, Wissen sind nur indirekt beobachtbare Umschreibungen für Verhaltensmuster.

Im Funktionalismus sind diese geistigen Zustände nur interne Komponenten eines komplexen Systems. Nur Funktionen definieren die Systeme, die bei gleicher Eingabe auch die gleiche Ausgabe produzieren und in funktional äquivalente Zustände übergehen. Diesen drei Denkformen ist gemeinsam das Aussparen von seelischen Zuständen – wie es auch schon der Mechanismus tat, in Folge von Descartes Cogito ergo sum: Ich denke, also bin ich. Nur der Geist ist relevant, nicht aber Körper oder Emotionen.

Und trotzdem bemisst sich der Erfolg einer KI an ihrem Simulationsvermögen menschlicher Sinnesmuster. KI-spezifische Philosophien unterscheiden zwischen der schwachen und der starken Hypothese. Die erste Hypothese besagt, dass Maschinen den Menschen und dessen Denken simulieren können. Die zweite geht einen Schritt weiter und erklärt das künstlich erzeugte Denken zu wirklichem Denken. Denn der Geist ist nicht notwendig menschlich und das Menschliche des Menschen hat nichts mit seinem Geist zu tun.

Die schwache Hypothese kann der Turing-Test belegen, wenn ein Fragesteller nicht erkennen kann, ob Resultate von einem Computer oder von einem Menschen stammen. Als Beleg für die starke Hypothese kann dieser Test jedoch nur bedingt herhalten, da er nicht die eigene Denkleistung der KI nachweisen kann. Der amerikanische Sprachphilosoph John Searle widerspricht den Thesen von verstehenden Computern überhaupt: Ein technisches System hat kein Verständnis der Inhalte, die es verarbeitet. Sein Gedankenexperiment vom Chinesischen Raum belegt, dass jemand innerhalb eines Sprachsystems funktionieren kann, ohne die Inhalte zu begreifen.

Der philosophische Konflikt entspringt also aus dem Verständnis von Geist und Denken, das auf der einen Seite die rein mechanische Funktion hervorhebt. In Nachfolge des Mechanismus können Mensch und Maschine als „informationsverarbeitende Systeme“ verstanden werden. Die Vernunft, der sich die Menschen brüsten, erscheint in diesem Zusammenhang als moralische Instanz, die aber von der Maschine besser eingelöst werden kann, wenn der Mensch als zutiefst unvernünftig verstanden wird.

Andererseits steht ein anderes Element im Denken Descartes auch konträr zu den starken KI-Theorien. Denn Geist und Materie sind bei ihm getrennt, der Geist ist die Provenienz des Menschen und deshalb ist eine Maschine vor allem eines: Geist-los. Für eine Maschine aber ist die Frage nach Geist oder Seele hinfällig.

In den Verfahren der künstlichen Intelligenz werden Lernverfahren zunächst den menschlichen Verfahren nachgebildet.

In Folge sollen sich diese jedoch verselbstständigen. Diese daraus resultierende Eigenständigkeit der Maschine wird von Vertretern der starken KI als der menschlichen Eigenständigkeit ebenbürtig angesehen. Im Sinne des Behaviourismus ist nur das Ergebnis der eigenständigen Handlung relevant. Ein Humanismus kann auf diesem Denken nicht fußen.

Eine Annäherung beider philosophischen Ansichten scheint nicht möglich zu sein.

Kommentare
Einen Kommentar schreiben
Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer