Kann der Mensch Bewusstsein erschaffen?

Kann der Mensch Bewusstsein erschaffen?

with Keine Kommentare

Kaum jemand scheint heutzutage daran zu zweifeln, dass es Wissenschaftlern eines Tages gelingen wird, Roboter mit einem Bewusstsein zu entwickeln. Nachdem die Maschinen den Menschen in körperlicher Hinsicht schon lange ersetzt haben, dringen sie immer mehr auch in Bereiche vor, die bisher dem Menschen auf Grund seiner einzigartigen Intelligenz vorbehalten waren. Sie schlagen ihn heute in Schach und Go und stellen medizinische Diagnosen. Immer öfter “reden” wir mit digitalen Agenten wie Siri oder Alexa und chatten auf Internetseiten mit automatischen Bots. Exponenten des Silicon Valleys prophezeien, dass die “Singularität”, also der Zeitpunkt, wenn Maschinen uns Menschen überflügeln, irgendwo um das Jahr 2050 anzusiedeln sei. Doch nicht nur der Mensch soll nachgebaut werden, sondern gleich Gott selbst:

Wenn wir die gesamte Materie und Energie des Weltalls mit unserer Intelligenz gesättigt haben, wird das Universum erwachen, bewußt werden – und über phantastische Intelligenz verfügen. Das kommt, denke ich, Gott schon ziemlich nahe.

Ray Kurzweil in “Menschheit 2.0. Die Singularität naht.”

Unsere Medien diskutieren bereits, wie viele Millionen Arbeitsplätze uns die neuen künstlichen Intelligenzen wegnehmen werden und Wissenschaftler machen sich Gedanken zu einer Ethik, die sich mit den neuen “Geschöpfen” auseinandersetzt. Darf man künftig ein fehlerhaftes Computerprogramm noch löschen, oder wäre das dann digitaler Mord?

Wie funktioniert ein Computer?

Doch was tun Computer eigentlich ganz genau? Wer einen Computer programmiert, tut nichts weiter, als ihm Algorithmen vorzugeben. Jeder mögliche Fall muss vom Programmierer durchdacht werden. Jeder Computer verhält sich demnach vollkommen deterministisch. Die subjektiv wahrgenommene Intelligenz eines Computerprogramms ist daher auf die Intelligenz des Programmierers zurückzuführen und ist keine Eigenschaft des Programmes. Der Philosoph John Searle hat dies in seinem Gedankenexperiment mit dem Namen “Chinesisches Zimmer” verdeutlicht. Man stelle sich ein geschlossenes Zimmer vor mit eine Klappe, in die man auf chinesisch geschrieben Fragen stecken kann. Darin sitzt ein Mensch, der kein chinesisch versteht. Anhand von komplizierten Anleitungen in seiner eigenen Muttersprache kann er aber korrekte chinesische Antworten schreiben. Der Mensch ist in diesem Bild der Computer und die Anleitungen sind das Programm. Auch wenn es von aussen so aussieht, als würde der Mensch chinesisch verstehen, so tut er das nicht. Er folgt lediglich den Anweisungen. Gleichermassen ist ein Computerprogramm, das intelligent handelt nicht selbst intelligent.

Doch wie lässt sich der Begriff “Algorithmus” beschreiben? Was ist ein Algorithmus? Was kann er? Alan Turing hat in den 1930er Jahren ein mathematisches Modell für den intuitiven Begriff des Algorithmus geschaffen. Kern dieses Modells ist die sogenannte Turingmaschine. Diese Turingmaschine besitzt interne Zustände, in welchen sie sich befinden kann, und hat ein (unendliches) Speicherband zur Verfügung, welches sie beschreiben und lesen kann. Die Maschine kann in jedem Arbeitsschritt abhängig von ihrem aktuellen Zustand und dem Zeichen auf dem Band in einen beliebigen anderen Zustand wechseln und ein Zeichen auf das Band schreiben. Es existiert ein Zeiger, der jeweils auf die aktuelle Position des Bandes zeigt und der von der Turingmaschine in jedem Schritt bei Bedarf eine Stelle nach links oder rechts verschoben werden kann. Ein Algorithmus ist nun alles, was eine solche Turingmaschine ausführen kann.

Seit Turings Definition der Turingmaschine sind einige Jahrzehnte vergangen und die ersten Computer wurden tatsächlich gebaut. Sie haben unsere Gesellschaft erobert und unsere Arbeit sowie unseren Alltag verändert. Ihre Leistung hat sich gemäss Moore’s Gesetz seit Dekaden ungefähr alle 18 Monate verdoppelt. Auch die Speicherkapazität wächst scheinbar unaufhaltsam. Und trotzdem ist jeder heutige Computer mitsamt seinen Programmen nichts weiter als eine komplizierte Turingmaschine. Im Sinne der Berechenbarkeitstheorie sind heutige Computer und Turingmaschinen äquivalent. Das bedeutet, dass ein Computer nicht mehr und nicht weniger berechnen kann, als Turing’s Modell von Algorithmen. Turing war nicht der einzige, der sich mit der Definition des Begriffs Algorithmus auseinandersetzte. Es stellte sich jedoch heraus, dass alle diese Modelle mathematisch äquivalent sind. Das heisst, sie beschreiben denselben Begriff des Algorithmus wie die Turingmaschine. Wenn wir uns also fragen, ob ein Computer eine gewisse Aufgabe lösen kann, z.B. ein Bewusstsein zu haben, so müssen wir eigentlich fragen, ob man eine entsprechende Turingmaschine bauen kann.

Die Optimisten

Die Frage drängt sich auf, ob unser Gehirn nicht auch bloss ein Computer ist, der einen komplizierten Algorithmus ausführt? Bereits im Jahre 1680 hegte Leibniz die Phantasie vom „Gott als Uhrmacher“ und dem Gehirn als „Uhrwerk“. Er stellte sich vor, wie man schrumpfen und in das Gehirn eines Menschen einsteigen könnte. Dort würde man all die Pumpen, Kolben, Zahnräder und Hebel arbeiten sehen. Nur durch deren Beschreibung könnte die gesamte Funktion des Menschen erklärt werden, ohne lästige Begriffe wie Geist, Wille, Seele oder Bewusstsein.

Die heutigen Anhänger der starken Künstlichen Intelligenz (KI) sprechen natürlich nicht von mechanischen Bauteilen, doch unterscheiden sich ihre Ansichten nicht wesentlich von der von Leibniz. Sie sind überzeugt, dass unser Gehirn nichts weiter als ein riesiger neuronaler Computer ist. Sämtliche Hirnfunktionen liessen sich im Prinzip algorithmisch simulieren. Früher oder später werde man die der Intelligenz zugrunde liegenden Algorithmen gewiss entdecken oder das Bewusstsein werde sich von selbst einstellen:

Programme und Maschinen werden auf gleiche Weise Empfindungen erwecken: als Nebenprodukt ihrer Struktur, der Art wie sie organisiert sind – nicht durch direkte Einprogrammierung.

Douglas R. Hofstadter in “Gödel Escher Bach – Ein Endloses Geflochtenes Band”

Wenn man den Computern etwas mehr Zeit gibt komplexer und grösser zu werden, werden sie dann eines Tages auch Intelligenz und ein Bewusstsein entwickeln? Diese These ist im Kontext der materialistischen Wissenschaften völlig nachvollziehbar und folgerichtig. Die Evolution soll den Menschen und sein Gehirn inklusive seines Bewusstseins schliesslich nach demselben Prinzip hervorgebracht haben – und das sogar ohne “Intelligent Design”.

I believe that consciousness is the way information feels when being processed.

Max Tegmark

Etwas fehlt

1931 hat Kurt Gödel die mathematische Welt mit seinem verblüffenden Unvollständigkeitssatz erschüttert. Dieser Satz sagt aus, dass jedes widerspruchsfreie mathematische System, welches mächtig genug ist einfache arithmetische Aussagen zu machen, wahre Aussagen enthält, die sich weder beweisen noch widerlegen lassen. Solche Aussagen gelten als „unentscheidbar“. Übertragen auf die Computerwissenschaften bedeutet dies, dass Probleme existieren, die zwar lösbar sind, deren Lösung aber nicht algorithmisch herbeigeführt werden kann. Beispiele für solche Probleme sind das Halteproblem, das Lösen diophantischer Gleichungen, die Überdeckung der Ebene mit Vielecken oder sämtliche Probleme der nicht-rekursiven Mathematik.

Was bedeutet dieses „Loch im Eimer“ der Algorithmik nun für die Suche nach der künstlichen Intelligenz? In seinem Buch „Computerdenken – Des Kaisers neue Kleider“ zeichnet der Mathematikprofessor Roger Penrose ein interessantes Bild von der Erkenntnis mathematischer Wahrheit. Er sagt, dass sich viele Wahrheiten nur aufgrund einer „Einsicht“ als wahr ansehen lassen, genau so wie eine Gödelsche Aussage von allen Mathematikern als wahr anerkannt wird, obwohl sie eben formal nicht beweisbar ist. Gemäss dem Reflexionsprinzip der Logik kann sich der Mensch der „Bedeutung“ von Axiomen und Ableitungsregeln bewusst werden und daraus Erkenntnisse gewinnen, aus welchen sich wiederum mathematische Aussagen konstruieren lassen, die auf formalem Wege (über Axiome und Regeln) nicht erreicht werden können. Für Penrose existiert eine platonische Ideenwelt der Mathematik, welche nur unserem Geist zugänglich ist. Viele Lösungen von Problemen lassen sich nur auf dieser „höheren“, semantischen, geistigen Stufe finden:

Der Begriff der mathematischen Wahrheit geht über das ganze Konzept des Formalismus hinaus. An ihr ist etwas Absolutes und ‘Gottgegebenes’.

Roger Penrose

Wenn sich schon die klar definierte und logische Welt der Mathematik den Algorithmen verschliesst, wie viel mehr dann die Prozesse, die beim menschlichen Denken ablaufen! Gerade dem Bewusstsein und der Intelligenz, die laut Penrose nötig sind um mathematische Wahrheit zu erkennen, müssen starke nicht-algorithmische Prozesse zugrunde liegen. Man weiss bis heute immer noch sehr wenig über solche Prozesse. Sicher ist einzig, dass Computer in ihrer heutigen Form keinerlei Zugang zu solchen Vorgängen haben, weil sie in ihrer algorithmischen Beschaffenheit gefangen sind.

Selbst der überzeugte Atheist Yuval Harari, der in “Homo Deus” den Siegeszug der künstlichen Intelligenz beschwört, räumt ein, dass die Wissenschaft keinen Plan davon hat, wie unser Bewusstsein funktioniert:

Selbst die besten Wissenschaftler sind weit davon entfernt, das Rätsel von Geist und Bewusstsein zu entschlüsseln.

Yuval Harari, Homo Deus

Das hindert Harari allerdings nicht daran, den Schluss zu ziehen, die Existenz einer immateriellen “Seele” sei widerlegt.

Neuronale Netze

Wenn nun herkömmliche Computer streng algorithmisch funktionieren, wir Menschen aber auch nicht-algorithmische Leistungen vollbringen können, muss das Geheimnis der Intelligenz wohl irgendwo im menschlichen Gehirn verborgen sein!? Die Neuroinformatik analysiert die Funktionsweise des Gehirns und versucht, diese mittels künstlicher Modelle nachzuahmen. Die Grundbausteine unseres Gehirns sind Neuronen. Diese Neuronen sind spezielle Nervenzellen, die durch Synapsen miteinander verbunden sind. Ein ganzes Netz solcher Neuronen kann nun Berechnungen durchführen.

Zu den am besten verstandenen Bereichen im Gehirn gehört der Weg der visuellen Informationen. Die Kette der Verarbeitung beginnt, wenn Licht auf die Retina fällt. Schritt für Schritt werden danach die Signale durch verschiedene Regionen im Hirn geschleust, die Informationen wie Farbe, Kontrast, Kanten, räumliche Eigenschaften, Orientierung oder Bewegung extrahieren. Nur sind alle diese Komponenten der visuellen Informationsverarbeitung rein algorithmische Funktionen. Zusätzlich sind sie sehr lokal und jeweils auf eine kleine Teilaufgabe spezialisiert. Es können nirgends im Gehirn Regionen gefunden werden, in denen alle diese Teil-Informationen zusammenfliessen und als Ganzes wahrgenommen werden. Trotzdem erfahren Menschen die sie umgebende Umwelt als eine nahtlose Einheit. Dieses bis anhin ungelöste Problem ist unter dem Namen „Binding Problem“ bekannt.

Alle Simulationen von neuronalen Strukturen beschränken sich auf die Realisierung solcher algorithmischer Komponenten. Die gesuchte Intelligenz müsste allerdings genau an der Stelle in Erscheinung treten, wo die Resultate dieser Komponenten zusammengefügt werden. Ein weiteres Problem der neuronalen Netze besteht darin, dass sie sich prinzipiell beliebig genau mit herkömmlichen Computern simulieren lassen. Das bedeutet, dass neuronale Netze keine nicht-algorithmischen Funktionen ausführen können. Wenn sie das tatsächlich könnten, könnte jede Turingmaschine das auch, indem sie einfach ein neuronales Netz simulieren würde. Unser Gehirn scheint also vielmehr eine Art Präprozessor zu sein, welcher Umgebungsinformationen aufbereitet und in einer internen Repräsentation bereitstellt.

Quantencomputer

Im Gegensatz zu den Bits der klassischen Computer, die immer exakt 0 oder 1 darstellen, können die Qubits (Quantum Bits) der Quantencomputer eine Superposition sämtlicher möglicher Zustände annehmen. Eine Berechnung mit diesen Qubits würde dann alle diese Zustände zugleich miteinbeziehen. Das Resultat einer solchen Berechnung ist jedoch probabilistisch und verlangt nach speziell auf Quantencomputer angepassten Algorithmen. Die enorme Parallelität eines Quantencomputers macht es möglich, komplexe Probleme in kürzerer Zeit zu lösen und z.B. einige Verschlüsselungsalgorithmen, die heute verbreitet im Einsatz sind, zu brechen. Auf der Suche nach künstlicher Intelligenz führt diese enorme Steigerung an Rechenkraft jedoch nicht weiter, denn ein Quantencomputer kann keine nicht-algorithmischen Probleme lösen.

Ich und mein Gehirn

Die starke KI ist eine sehr materialistische These. Nach ihr beruhen alle geistigen Prozesse einzig auf der Vernetzung von Neuronen. Es wird mit dem Märchen der „Seele“ aufgeräumt, man braucht keine metaphysische Welt mehr, es lässt sich alles in „Hardware“ realisieren. Die allgemeine Ansicht, dass Menschen ihre Handlungen durch einen „freien Willen“ beeinflussen können, wird als trügerisch angesehen. Alles was sie tun ist vorbestimmt.

Entgegen dem Mainstream der materialistischen Theorien hat der Hirnforscher und Nobelpreisträger John C. Eccles seine Theorie des dualistischen Interaktionismus entwickelt (John C. Eccles: “Wie das Selbst sein Gehirn steuert”). Dualistisch darum, weil Eccles zusätzlich zur physischen Gesamtheit des Gehirns den Geist als eigenständige, real existierende, immaterielle Instanz betrachtet. Interaktionismus bedeutet dabei, dass diese beiden Entitäten – materielles Gehirn und immaterieller Geist – miteinander kommunizieren. Der Geist beinhaltet die Identität und den freien Willen eines Menschen. Als Bindeglied zwischen Gehirn und Geist zieht Eccles die Quantenmechanik heran:

Die Hypothese der Wechselwirkung von Geist und Gehirn lautet, dass mentale Ereignisse über ein quantenmechanisches Wahrscheinlichkeitsfeld die Wahrscheinlichkeit der Emission von Vesikeln aus präsynaptischen Vesikelgittern ändern.

John C. Eccles

Weil bei dieser Interaktion nur Information und keine Energie fliesst, wird der Energieerhaltungssatz der Physik nicht verletzt. Der Geist benutzt den Körper mitsamt seinem Gehirn nur als Werkzeug, um mit der sichtbaren Welt zu interagieren. Unsere Neuronen bereiten die von den Sinnen gewonnenen Informationen durch Berechnungen auf und machen sie dann dem Geist zugänglich. Unser freier Wille entwickelt daraufhin vielleicht eine mentale Absicht, welche wiederum im Gehirn Wahrscheinlichkeitsfelder verändert und so Einfluss auf das Feuern bestimmter Neuronen nimmt. Wie ein Puppenspieler alle Fäden seiner Marionette in der Hand hält, so laufen beim Geist die Resultate aller Hirnregionen zusammen: „Man muss erkennen, dass die vollständigen Bilder im Geist erfahren werden, der sie aus der Analyse in der Sehrinde zusammenzusetzen scheint.“ Die Lösung des „Binding Problem“ wäre somit auf einer geistigen Ebene angesiedelt.

Die Intelligenz und das Bewusstsein eines Menschen scheinen in einer transzendenten, unserer Physik bis anhin nicht zugänglichen Dimension, zu Hause zu sein. Die Funktionsweise eines metaphysischen Geistes ist nicht an die bekannte Physik oder gar die Algorithmik gebunden. Dabei kann das Gehirn sehr wohl ein vollkommen deterministisch und algorithmisch funktionierender neuronaler Computer sein, denn es ist schliesslich nur das Gefäss eines autonomen, nicht-algorithmischen Geistes. Die Strukturen der Intelligenz sind damit aber für die materialistische Wissenschaft unauffindbar geworden.

Eine Psychologie für’s 21. Jahrhundert

Kritik am materialistischen Weltbild, welches unser physikalisches Gehirn als einzige Realität betrachtet, wird auch in der Psychologie laut. In ihrem Buch “Irreducible Mind – Toward a Psychology for the 21st Century”, argumentieren die Autoren, dass die psychologischen Wissenschaften nicht mehr objektiv sind und einige akute Erklärungsprobleme des Standardparadigmas ignorieren. Die Hauptautoren (Edward F. Kelly und Emily Williams Kelly) sind Professoren der psychiatrischen Medizin.

In ihrem sehr umfangreichen Buch führen sie die Leser durch diverse Themen, die mit den heutigen Theorien nicht erklärt werden können. Dazu gehören Phänomene wie der Placebo-Effekt, spirituelle Erfahrungen durch Gebet und Meditation, multiple Persönlichkeiten, Hypnose, Genialität, aber auch Nahtoderfahrungen (NTE) und Out-of-body Experiences. Sie schlagen ein Modell vor, in welchem das menschliche Bewusstsein nicht etwa durch das Gehirn generiert wird, sondern vielmehr als eigenständige Entität existiert und durch das Gehirn fokussiert, limitiert und eingeschränkt wird. So ähnlich wie der Flaschengeist bei Aladdin in der Flasche eingesperrt ist.

In a nutshell, we are arguing for abandonment of the current materialistic synthesis, and for the restoration of causally efficacious conscious mental life to its proper place at the center of our science.

Edward and Emily Kelly

Das Beispiel des Neurochirurgen Eben Alexander, welcher eine aussergewöhnliche NTE hatte, zeigt, dass auch vormals materialistisch geprägte Wissenschaftler umdenken, sobald sie mit den Grenzen ihres Lebens konfrontiert werden. Er berichtet von einer Reise ins Jenseits, wo er von liebevollen Wesen umgeben war. Die erlebte Welt sei hyperreal gewesen, also viel realer als unsere diesseitige Welt. Das Bewusstsein sei nicht an Raum und Zeit gebunden gewesen. Einen grossen Teil seines Buches “Blick in die Ewigkeit” widmet er dem Aufruf an die Wissenschaft, das Bewusstsein als unabhängiges Phänomen, welches unsere irdische Existenz überdauert, ernst zu nehmen.

My experience showed me that the death of the body and the brain are not the end of consciousness, that human experience continues beyond the grave. More important, it continues under the gaze of a God who loves and cares about each one of us and about where the universe itself and all the beings within it are ultimately going.

Eben Alexander

Der Kardiologe Dr. Pim van Lommel gilt als Experte für NTE und hat diese wissenschaftlich untersucht. Er kommt ebenfalls zum Schluss, dass NTE real sind und nicht im gängigen materialistischen Paradigma erklärt werden können:

Die vier prospektiven Studien zur NTE […], kommen alle zu einem gemeinsamen Schluss: In einer Phase der Bewusstlosigkeit sind Bewusstseinserfahrungen möglich, die mit Erinnerungen und manchmal auch Wahrnehmungen verbunden sind. In einer solchen Phase weist das Gehirn keine messbare Aktivität mehr auf und alle Gehirnfunktionen, wie Körperreflexe, Hinstammreflexe und Atmung sind ausgefallen. Ein klares Bewusstsein ist offenbar unabhängig vom Gehirn und damit unabhängig vom Körper erfahrbar.

Pim van Lommel, “Endloses Bewusstsein – Neue medizinische Fakten zur Nahtoderfahrung”

Zusammenfassung und Kommentar aus christlicher Sicht

Die Fähigkeiten von Computern sind auf die Ausführung von Algorithmen beschränkt. Auch neuronale Netze und Quantencomputer erweitern das Spektrum der lösbaren Probleme nicht. Das menschliche Denken ist ein erheblich nicht-algorithmischer und indeterministischer Prozess, für den es in der heutigen Physik und Psychologie keine überzeugende Erklärung gibt. Die materialistische Weltsicht, nach welcher unser Bewusstsein ein Nebeneffekt unseres Gehirns ist, greift zu kurz. Vielmehr scheint wahrscheinlich, dass der menschliche Geist unabhängig von den physischen Strukturen des Gehirns existiert und auch unseren Tod überdauert. Damit entzieht sich aber die Funktionsweise der Intelligenz und des menschlichen Bewusstseins dem Zugriff der materialistischen Wissenschaft. Ein “Nachbau” dieses Geistes ist somit für den Menschen ausser Reichweite und eine Angst vor super intelligenten Robotern, welche die Menschen versklaven, ist unbegründet.

Gemäss 1. Mose 1,26 schuf Gott den Menschen als Krone der Schöpfung und in seinem Bilde, um mit ihm in Beziehung zu treten. Dafür hat er ihn mit freiem Willen und der Fähigkeit zu lieben ausgestattet. Er gab dem Menschen als einzigem Geschöpf seinen Geist. Dieser Geist ist ein Wesenszug Gottes selbst und macht den Menschen damit Gott ähnlich. Die Fähigkeit des Verstandes ist laut der Bibel eng an diesen Geist gebunden:

Es ist der Geist im Menschen und der Atem des Allmächtigen, der sie verständig werden lässt.

Hiob 32,8

Mit seinem Bestreben diesen Geist nachzubauen, versucht der Mensch sich an Gottes Stelle zu setzen. Von Nietzsche für tot erklärt und durch die Evolutionstheorie unnötig geworden, wurde Gott abgeschafft:

Denn sie vertauschten die Wahrheit, die Gott sie hatte erkennen lassen, mit der Lüge; sie verehrten das Geschaffene und dienten ihm statt dem Schöpfer, der doch für immer und ewig zu preisen ist.

Römer 1, 25.

Der stolze Mensch ist gerne bereit, in die frei gewordene Stelle zu treten und das Geschick der Welt in die eigene Hand zu nehmen. Auch seine Tendenz zur Überheblichkeit und Selbstüberschätzung ist nichts Neues. Bereits der Turmbau zu Babel (Genesis 11, 1-9) berichtet davon, wie die Erfindung des Ziegels die Menschen glauben liess, sie könnten bis zu Gott in den Himmel bauen.

Die Errungenschaften der modernen Computerwissenschaften sind sehr eindrücklich und werden unsere Gesellschaft verändern. Gott sei Dank entzieht sich das Geheimnis des menschlichen Geistes aber unserer Kontrolle. Hier existiert eine Grenze zwischen Geschöpf und Schöpfer, die der Mensch nicht überschreiten kann. Bevor die Wissenschaft dies erkennen kann, muss sie sich von ihren atheistischen Grundvoraussetzungen lösen. Bisher versucht sie, die Welt so gut es geht zu erklären, unter der Annahme, dass es kein höheres Wesen gibt. Es wird wohl noch einige Jahrzehnte oder auch Jahrhunderte dauern. Aber ich hoffe, dass die Menschheit irgendwann heilsame Demut lernen wird.

Deine Gedanken zu diesem Thema