Blogs,  Wissenschaft und Glaube

Kann der Mensch Bewusstsein erschaffen?

Kaum jemand scheint heutzutage daran zu zweifeln, dass es Wissenschaftlern eines Tages gelingen wird, Roboter mit einem Bewusstsein zu entwickeln. Nachdem die Maschinen den Menschen in körperlicher Hinsicht schon lange ersetzt haben, dringen sie immer mehr auch in Bereiche vor, die bisher dem Menschen aufgrund seiner einzigartigen Intelligenz vorbehalten waren. Sie schlagen ihn heute in Schach und Go und stellen medizinische Diagnosen. Wir “reden” mit digitalen Assistenten wie Siri oder lassen uns von ChatGPT die Welt erklären. Exponenten des Silicon Valleys prophezeien, dass die “Singularität”, also der Zeitpunkt, wenn Maschinen uns Menschen überflügeln, irgendwann um das Jahr 2050 anzusiedeln sei. Doch nicht nur der Mensch soll nachgebaut werden, sondern gleich Gott selbst:

Wenn wir die gesamte Materie und Energie des Weltalls mit unserer Intelligenz gesättigt haben, wird das Universum erwachen, bewußt werden – und über phantastische Intelligenz verfügen. Das kommt, denke ich, Gott schon ziemlich nahe.

Ray Kurzweil in “Menschheit 2.0. Die Singularität naht.”

Unsere Medien diskutieren bereits, wie viele Millionen Arbeitsplätze uns die neuen künstlichen Intelligenzen wegnehmen werden und Wissenschaftler machen sich Gedanken zu einer Ethik, die sich mit den neuen “Geschöpfen” auseinandersetzt. Darf man künftig ein fehlerhaftes Computerprogramm noch löschen, oder wäre das dann digitaler Mord?

Wie funktioniert ein Computer?

Doch was tun Computer eigentlich ganz genau? Wer einen Computer programmiert, tut nichts weiter, als ihm Algorithmen vorzugeben. Jeder mögliche Fall muss vom Programmierer durchdacht werden. Jeder Computer verhält sich demnach vollkommen deterministisch. Die subjektiv wahrgenommene Intelligenz eines Computerprogramms ist daher auf die Intelligenz des Programmierers zurückzuführen und ist keine Eigenschaft des Programmes. Der Philosoph John Searle hat dies in seinem Gedankenexperiment mit dem Namen “Chinesisches Zimmer” verdeutlicht. Man stelle sich ein geschlossenes Zimmer vor mit eine Klappe, in die man auf chinesisch geschrieben Fragen stecken kann. Darin sitzt ein Mensch, der kein chinesisch versteht. Anhand von komplizierten Anleitungen in seiner eigenen Muttersprache kann er aber korrekte chinesische Antworten schreiben. Der Mensch ist in diesem Bild der Computer und die Anleitungen sind das Programm. Auch wenn es von aussen so aussieht, als würde der Mensch chinesisch verstehen, so tut er das nicht. Er folgt lediglich den Anweisungen. Gleichermassen ist ein Computerprogramm, das intelligent handelt nicht selbst intelligent.

Doch wie lässt sich der Begriff “Algorithmus” beschreiben? Was ist ein Algorithmus? Was kann er? Alan Turing hat in den 1930er Jahren ein mathematisches Modell für den intuitiven Begriff des Algorithmus geschaffen. Kern dieses Modells ist die sogenannte Turingmaschine. Diese Turingmaschine besitzt interne Zustände, in welchen sie sich befinden kann, und hat ein (unendliches) Speicherband zur Verfügung, welches sie beschreiben und lesen kann. Die Maschine kann in jedem Arbeitsschritt abhängig von ihrem aktuellen Zustand und dem Zeichen auf dem Band in einen beliebigen anderen Zustand wechseln und ein Zeichen auf das Band schreiben. Es existiert ein Zeiger, der jeweils auf die aktuelle Position des Bandes zeigt und der von der Turingmaschine in jedem Schritt bei Bedarf eine Stelle nach links oder rechts verschoben werden kann. Ein Algorithmus ist nun alles, was eine solche Turingmaschine ausführen kann.

Seit Turings Definition der Turingmaschine sind einige Jahrzehnte vergangen und die ersten Computer wurden tatsächlich gebaut. Sie haben unsere Gesellschaft erobert und unsere Arbeit sowie unseren Alltag verändert. Ihre Leistung hat sich gemäss Moore’s Gesetz seit Dekaden ungefähr alle 18 Monate verdoppelt. Auch die Speicherkapazität wächst scheinbar unaufhaltsam. Und trotzdem ist jeder heutige Computer mitsamt seinen Programmen nichts weiter als eine komplizierte Turingmaschine. Im Sinne der Berechenbarkeitstheorie sind heutige Computer und Turingmaschinen äquivalent. Das bedeutet, dass ein Computer nicht mehr und nicht weniger berechnen kann, als Turing’s Modell von Algorithmen. Turing war nicht der einzige, der sich mit der Definition des Begriffs Algorithmus auseinandersetzte. Es stellte sich jedoch heraus, dass alle diese Modelle mathematisch äquivalent sind. Das heisst, sie beschreiben denselben Begriff des Algorithmus wie die Turingmaschine. Wenn wir uns also fragen, ob ein Computer eine gewisse Aufgabe lösen kann, z.B. ein Bewusstsein zu haben, so müssen wir eigentlich fragen, ob man eine entsprechende Turingmaschine bauen kann.

Die Optimisten

Die Frage drängt sich auf, ob unser Gehirn nicht auch bloss ein Computer ist, der einen komplizierten Algorithmus ausführt? Bereits im Jahre 1680 hegte Leibniz die Phantasie vom „Gott als Uhrmacher“ und dem Gehirn als „Uhrwerk“. Er stellte sich vor, wie man schrumpfen und in das Gehirn eines Menschen einsteigen könnte. Dort würde man all die Pumpen, Kolben, Zahnräder und Hebel arbeiten sehen. Nur durch deren Beschreibung könnte die gesamte Funktion des Menschen erklärt werden, ohne lästige Begriffe wie Geist, Wille, Seele oder Bewusstsein.

Die heutigen Anhänger der starken Künstlichen Intelligenz (KI) sprechen natürlich nicht von mechanischen Bauteilen, doch unterscheiden sich ihre Ansichten nicht wesentlich von der von Leibniz. Sie sind überzeugt, dass unser Gehirn nichts weiter als ein riesiger neuronaler Computer ist. Sämtliche Hirnfunktionen liessen sich im Prinzip algorithmisch simulieren. Früher oder später werde man die der Intelligenz zugrunde liegenden Algorithmen gewiss entdecken oder das Bewusstsein werde sich von selbst einstellen:

Programme und Maschinen werden auf gleiche Weise Empfindungen erwecken: als Nebenprodukt ihrer Struktur, der Art wie sie organisiert sind – nicht durch direkte Einprogrammierung.

Douglas R. Hofstadter in “Gödel Escher Bach – Ein Endloses Geflochtenes Band”

Wenn man den Computern etwas mehr Zeit gibt komplexer und grösser zu werden, werden sie dann eines Tages auch Intelligenz und ein Bewusstsein entwickeln? Diese These ist im Kontext der materialistischen Wissenschaften völlig nachvollziehbar und folgerichtig. Die Evolution soll den Menschen und sein Gehirn inklusive seines Bewusstseins schliesslich nach demselben Prinzip hervorgebracht haben – und das sogar ohne “Intelligent Design”.

I believe that consciousness is the way information feels when being processed.

Max Tegmark

Etwas fehlt

1931 hat Kurt Gödel die mathematische Welt mit seinem verblüffenden Unvollständigkeitssatz erschüttert. Dieser Satz sagt aus, dass jedes widerspruchsfreie mathematische System, welches mächtig genug ist einfache arithmetische Aussagen zu machen, wahre Aussagen enthält, die sich weder beweisen noch widerlegen lassen. Solche Aussagen gelten als „unentscheidbar“. Übertragen auf die Computerwissenschaften bedeutet dies, dass Probleme existieren, die zwar lösbar sind, deren Lösung aber nicht algorithmisch herbeigeführt werden kann. Beispiele für solche Probleme sind das Halteproblem, das Lösen diophantischer Gleichungen, die Überdeckung der Ebene mit Vielecken oder sämtliche Probleme der nicht-rekursiven Mathematik.

Was bedeutet dieses „Loch im Eimer“ der Algorithmik nun für die Suche nach der künstlichen Intelligenz? In seinem Buch „Computerdenken – Des Kaisers neue Kleider“ zeichnet der Mathematikprofessor Roger Penrose ein interessantes Bild von der Erkenntnis mathematischer Wahrheit. Er sagt, dass sich viele Wahrheiten nur aufgrund einer „Einsicht“ als wahr ansehen lassen, genau so wie eine Gödelsche Aussage von allen Mathematikern als wahr anerkannt wird, obwohl sie eben formal nicht beweisbar ist. Gemäss dem Reflexionsprinzip der Logik kann sich der Mensch der „Bedeutung“ von Axiomen und Ableitungsregeln bewusst werden und daraus Erkenntnisse gewinnen, aus welchen sich wiederum mathematische Aussagen konstruieren lassen, die auf formalem Wege (über Axiome und Regeln) nicht erreicht werden können. Für Penrose existiert eine platonische Ideenwelt der Mathematik, welche nur unserem Geist zugänglich ist. Viele Lösungen von Problemen lassen sich nur auf dieser „höheren“, semantischen, geistigen Stufe finden:

Der Begriff der mathematischen Wahrheit geht über das ganze Konzept des Formalismus hinaus. An ihr ist etwas Absolutes und ‘Gottgegebenes’.

Roger Penrose

Wenn sich schon die klar definierte und logische Welt der Mathematik den Algorithmen verschliesst, wie viel mehr dann die Prozesse, die beim menschlichen Denken ablaufen! Gerade dem Bewusstsein und der Intelligenz, die laut Penrose nötig sind um mathematische Wahrheit zu erkennen, müssen starke nicht-algorithmische Prozesse zugrunde liegen. Man weiss bis heute immer noch sehr wenig über solche Prozesse. Sicher ist einzig, dass Computer in ihrer heutigen Form keinerlei Zugang zu solchen Vorgängen haben, weil sie in ihrer algorithmischen Beschaffenheit gefangen sind.

Selbst der überzeugte Atheist Yuval Harari, der in “Homo Deus” den Siegeszug der künstlichen Intelligenz beschwört, räumt ein, dass die Wissenschaft keinen Plan davon hat, wie unser Bewusstsein funktioniert:

Selbst die besten Wissenschaftler sind weit davon entfernt, das Rätsel von Geist und Bewusstsein zu entschlüsseln.

Yuval Harari, Homo Deus

Das hindert Harari allerdings nicht daran, den Schluss zu ziehen, die Existenz einer immateriellen “Seele” sei widerlegt.

Neuronale Netze

Wenn nun herkömmliche Computer streng algorithmisch funktionieren, wir Menschen aber auch nicht-algorithmische Leistungen vollbringen können, muss das Geheimnis der Intelligenz wohl irgendwo im menschlichen Gehirn verborgen sein!? Die Neuroinformatik analysiert die Funktionsweise des Gehirns und versucht, diese mittels künstlicher Modelle nachzuahmen. Die Grundbausteine unseres Gehirns sind Neuronen. Diese Neuronen sind spezielle Nervenzellen, die durch Synapsen miteinander verbunden sind. Ein ganzes Netz solcher Neuronen kann nun Berechnungen durchführen.

Zu den am besten verstandenen Bereichen im Gehirn gehört der Weg der visuellen Informationen. Die Kette der Verarbeitung beginnt, wenn Licht auf die Retina fällt. Schritt für Schritt werden danach die Signale durch verschiedene Regionen im Hirn geschleust, die Informationen wie Farbe, Kontrast, Kanten, räumliche Eigenschaften, Orientierung oder Bewegung extrahieren. Nur sind alle diese Komponenten der visuellen Informationsverarbeitung rein algorithmische Funktionen. Zusätzlich sind sie sehr lokal und jeweils auf eine kleine Teilaufgabe spezialisiert. Es können nirgends im Gehirn Regionen gefunden werden, in denen alle diese Teil-Informationen zusammenfliessen und als Ganzes wahrgenommen werden. Trotzdem erfahren Menschen die sie umgebende Umwelt als eine nahtlose Einheit. Dieses bis anhin ungelöste Problem ist unter dem Namen „Binding Problem“ bekannt.

Alle Simulationen von neuronalen Strukturen beschränken sich auf die Realisierung solcher algorithmischer Komponenten. Die gesuchte Intelligenz müsste allerdings genau an der Stelle in Erscheinung treten, wo die Resultate dieser Komponenten zusammengefügt werden. Ein weiteres Problem der neuronalen Netze besteht darin, dass sie sich prinzipiell beliebig genau mit herkömmlichen Computern simulieren lassen. Das bedeutet, dass neuronale Netze keine nicht-algorithmischen Funktionen ausführen können. Wenn sie das tatsächlich könnten, könnte jede Turingmaschine das auch, indem sie einfach ein neuronales Netz simulieren würde. Unser Gehirn scheint also vielmehr eine Art Präprozessor zu sein, welcher Umgebungsinformationen aufbereitet und in einer internen Repräsentation bereitstellt.

Quantencomputer

Im Gegensatz zu den Bits der klassischen Computer, die immer exakt 0 oder 1 darstellen, können die Qubits (Quantum Bits) der Quantencomputer eine Superposition sämtlicher möglicher Zustände annehmen. Eine Berechnung mit diesen Qubits würde dann alle diese Zustände zugleich miteinbeziehen. Das Resultat einer solchen Berechnung ist jedoch probabilistisch und verlangt nach speziell auf Quantencomputer angepassten Algorithmen. Die enorme Parallelität eines Quantencomputers macht es möglich, komplexe Probleme in kürzerer Zeit zu lösen und z.B. einige Verschlüsselungsalgorithmen, die heute verbreitet im Einsatz sind, zu brechen. Auf der Suche nach künstlicher Intelligenz führt diese enorme Steigerung an Rechenkraft jedoch nicht weiter, denn ein Quantencomputer kann keine nicht-algorithmischen Probleme lösen.

Ich und mein Gehirn

Die starke KI ist eine naturalistische, materialistische These. Nach ihr beruhen alle geistigen Prozesse einzig auf der Vernetzung von Neuronen. Es wird mit dem Märchen der „Seele“ aufgeräumt, man braucht keine metaphysische Welt mehr, es lässt sich alles in „Hardware“ realisieren. Die allgemeine Ansicht, dass Menschen ihre Handlungen durch einen „freien Willen“ beeinflussen können, wird als trügerisch angesehen. Alles was wir tun ist deterministisch, d.h. strikt durch den Lauf der Naturgesetze vorbestimmt.

Entgegen dem Mainstream der materialistischen Theorien hat der Hirnforscher und Nobelpreisträger John C. Eccles seine Theorie des dualistischen Interaktionismus entwickelt (John C. Eccles: “Wie das Selbst sein Gehirn steuert”). Dualistisch darum, weil Eccles zusätzlich zur physischen Gesamtheit des Gehirns den Geist als eigenständige, real existierende, immaterielle Instanz betrachtet. Interaktionismus bedeutet dabei, dass diese beiden Entitäten – materielles Gehirn und immaterieller Geist – miteinander kommunizieren. Der Geist beinhaltet die Identität und den freien Willen eines Menschen. Als Bindeglied zwischen Gehirn und Geist zieht Eccles die Quantenmechanik heran:

Die Hypothese der Wechselwirkung von Geist und Gehirn lautet, dass mentale Ereignisse über ein quantenmechanisches Wahrscheinlichkeitsfeld die Wahrscheinlichkeit der Emission von Vesikeln aus präsynaptischen Vesikelgittern ändern.

John C. Eccles

Weil bei dieser Interaktion nur Information und keine Energie fliesst, wird der Energieerhaltungssatz der Physik nicht verletzt. Der Geist benutzt den Körper mitsamt seinem Gehirn nur als Werkzeug, um mit der sichtbaren Welt zu interagieren. Unsere Neuronen bereiten die von den Sinnen gewonnenen Informationen durch Berechnungen auf und machen sie dann dem Geist zugänglich. Unser freier Wille entwickelt daraufhin vielleicht eine mentale Absicht, welche wiederum im Gehirn Wahrscheinlichkeitsfelder verändert und so Einfluss auf das Feuern bestimmter Neuronen nimmt. Wie ein Puppenspieler alle Fäden seiner Marionette in der Hand hält, so laufen beim Geist die Resultate aller Hirnregionen zusammen: „Man muss erkennen, dass die vollständigen Bilder im Geist erfahren werden, der sie aus der Analyse in der Sehrinde zusammenzusetzen scheint.“ Die Lösung des „Binding Problem“ wäre somit auf einer geistigen Ebene angesiedelt.

Die Intelligenz und das Bewusstsein eines Menschen scheinen in einer transzendenten, unserer Physik bis anhin nicht zugänglichen Dimension, zu Hause zu sein. Die Funktionsweise eines metaphysischen Geistes ist nicht an die bekannte Physik oder gar die Algorithmik gebunden. Dabei kann das Gehirn sehr wohl ein vollkommen deterministisch und algorithmisch funktionierender neuronaler Computer sein, denn es ist schliesslich nur das Gefäss eines autonomen, nicht-algorithmischen Geistes. Die Strukturen der Intelligenz sind damit aber für die materialistische Wissenschaft unauffindbar geworden.

Eine Psychologie für’s 21. Jahrhundert

Kritik am naturalistischen Weltbild, welches unser Gehirn als einzige Realität betrachtet, wird auch in der Psychologie laut. In ihrem Buch “Irreducible Mind – Toward a Psychology for the 21st Century”, argumentieren die Autoren, dass die psychologischen Wissenschaften nicht mehr objektiv seien und einige akute Erklärungsprobleme des Standardparadigmas ignoriert würden. Die Hauptautoren (Edward F. Kelly und Emily Williams Kelly) sind Professoren der psychiatrischen Medizin.

In ihrem sehr umfangreichen Buch führen sie die Leser durch diverse Themen, die mit den heutigen Theorien nicht erklärt werden können. Dazu gehören Phänomene wie der Placebo-Effekt, spirituelle Erfahrungen durch Gebet und Meditation, multiple Persönlichkeiten, Hypnose, Genialität, aber auch Nahtoderfahrungen (NTE) und Out-of-body Experiences. Sie schlagen ein Modell vor, in welchem das menschliche Bewusstsein nicht etwa durch das Gehirn generiert wird, sondern vielmehr als eigenständige Entität existiert und durch das Gehirn fokussiert, limitiert und eingeschränkt wird. So ähnlich wie der Flaschengeist bei Aladdin in der Flasche eingesperrt ist.

In a nutshell, we are arguing for abandonment of the current materialistic synthesis, and for the restoration of causally efficacious conscious mental life to its proper place at the center of our science.

Edward and Emily Kelly

Das Beispiel des Neurochirurgen Eben Alexander, welcher eine aussergewöhnliche NTE hatte, zeigt, dass auch vormals materialistisch geprägte Wissenschaftler umdenken, sobald sie mit den Grenzen ihres Lebens konfrontiert werden. Er berichtet von einer Reise ins Jenseits, wo er von liebevollen Wesen umgeben war. Die erlebte Welt sei hyperreal gewesen, also viel realer als unsere diesseitige Welt. Das Bewusstsein sei nicht an Raum und Zeit gebunden gewesen. Einen grossen Teil seines Buches “Blick in die Ewigkeit” widmet er dem Aufruf an die Wissenschaft, das Bewusstsein als unabhängiges Phänomen, welches unsere irdische Existenz überdauert, ernst zu nehmen.

My experience showed me that the death of the body and the brain are not the end of consciousness, that human experience continues beyond the grave. More important, it continues under the gaze of a God who loves and cares about each one of us and about where the universe itself and all the beings within it are ultimately going.

Eben Alexander

Der Kardiologe Dr. Pim van Lommel gilt als Experte für NTE und hat diese wissenschaftlich untersucht. Er kommt ebenfalls zum Schluss, dass NTE real sind und nicht im gängigen materialistischen Paradigma erklärt werden können:

Die vier prospektiven Studien zur NTE […], kommen alle zu einem gemeinsamen Schluss: In einer Phase der Bewusstlosigkeit sind Bewusstseinserfahrungen möglich, die mit Erinnerungen und manchmal auch Wahrnehmungen verbunden sind. In einer solchen Phase weist das Gehirn keine messbare Aktivität mehr auf und alle Gehirnfunktionen, wie Körperreflexe, Hinstammreflexe und Atmung sind ausgefallen. Ein klares Bewusstsein ist offenbar unabhängig vom Gehirn und damit unabhängig vom Körper erfahrbar.

Pim van Lommel, “Endloses Bewusstsein – Neue medizinische Fakten zur Nahtoderfahrung”

Der Einspruch der Philosophie

Auch Philosophen erheben Einspruch gegen eine rein naturalistische Erklärung von Bewusstsein. Markus Gabriel, ein deutscher Autor und Professor der Philosophie, geht in seinem 2015 erschienenen Buch “Ich ist nicht Gehirn” auf die Probleme des Neurozentrismus ein. Mit Neurozentrismus bezeichnet er die Idee, dass man bloss ein geeignetes Gehirn brauche, um ein geistiges Lebewesen zu sein – also kurz: “Ich ist Gehirn”. Er kritisiert, dass der Neurozentrismus Begriffe wie Bewusstsein, Denken, Ich, Geist oder freier Wille verwendet und damit in Wahrheit philosophische Ansprüche erhebt, die empirisch nicht zu begründen sind. Indem die philosophische Dimension dieser Begriffe, und damit auch deren jahrtausendealte Diskussionsgeschichte, ausgeklammert wird, immunisiert man sich gegen Kritik.

Es ist bisher in der Öffentlichkeit noch kaum angekommen, dass die Philosophie des Geistes in unserem jungen Jahrhundert vom Neurozentrismus abrät.

Markus Gabriel, “Ich ist nicht Gehirn” (S. 22)

Gabriel löst sich aus dem radikalen Determinismus der Naturwissenschaften, indem er zwischen harten Ursachen und Gründen für unsere Handlungen unterscheidet. Harte Ursachen unterliegen den Naturgesetzen und ihre Auswirkungen können von uns nicht kontrolliert werden. Wenn man z.B. zehn Minuten unter Wasser gehalten wird, wird man ertrinken, ob man will oder nicht. Bei Gründen ist das anders. Aus Gründen resultiert nur etwas, wenn jemand ihnen folgen will, wenn daraus also Motive entstehen. Obwohl es viele Gründe dafür gibt, mit Rauchen aufzuhören, können diese Gründe niemanden dazu zwingen, dies auch tatsächlich zu tun. Daraus leitet Gabriel einen freien Willen ab: “Einige Ereignisse finden nur dann statt, wenn Handelnde an Ihnen beteiligt sind. Solche Ereignisse haben einige Bedingungen, die nicht harte Ursachen sind (zum Beispiel Gründe). Deswegen gibt es Handlungsfreiheit. Wir können tun, was wir wollen.” (S.299)

Der Zeitgeist ist bestimmt von übertriebenen Erwartungen an die Neurowissenschaften und ihre Anwendungen in der künstlichen Intelligenz. Doch selbst führende Neurowissenschaftler spüren, dass mit einer naturwissenschaftlichen Erklärung unseres Gehirns nicht das Geheimnis unseres Geistes geklärt sein wird:

Selbst wenn wir irgendwann einmal sämtliche neuronalen Vorgänge aufgeklärt haben sollten, die dem Mitgefühl beim Menschen, seinem Verliebtsein oder seiner moralischen Verantwortung zu Grund liegen, so bleibt eine Eigenständigkeit dieser “Innenperspektive” dennoch erhalten. Denn auch eine Fuge von Bach verliert nichts von ihrer Faszination, wenn man genau verstanden hat, wie sie aufgebaut ist. Die Hirnforschung wird klar unterscheiden müssen, was sie sagen kann und was ausserhalb ihres Zuständigkeitsbereichs liegt, so wie die Musikwissenschaft – um bei diesem Beispiel zu bleiben – zu Bachs Fuge einiges zu sagen hat, zur Erklärung ihrer einzigartigen Schönheit aber schweigen muss.

Das Manifest. Elf führende Neurowissenschaftler über Gegenwart und Zukunft der Hirnforschung, erschienen in der Zeitschrift Gehirn & Geist.

Zusammenfassung

Die Fähigkeiten von Computern sind auf die Ausführung von Algorithmen beschränkt. Auch neuronale Netze und Quantencomputer erweitern das Spektrum der lösbaren Probleme nicht. Das menschliche Denken ist ein erheblich nicht-algorithmischer und indeterministischer Prozess, für den es in der heutigen Physik und Psychologie keine überzeugende Erklärung gibt. Die materialistische Weltsicht, nach welcher unser Bewusstsein ein Nebeneffekt unseres Gehirns ist, greift zu kurz. Vielmehr scheint wahrscheinlich, dass der menschliche Geist unabhängig von den physischen Strukturen des Gehirns existiert und auch unseren Tod überdauert. Damit entzieht sich allerdings die Funktionsweise der Intelligenz und des menschlichen Bewusstseins dem Zugriff der materialistischen Wissenschaft. Somit liegt auch ein Nachbau dieses Geistes ausser Reichweite. Die Angst vor super intelligenten Robotern, welche die Menschheit versklaven, scheint unbegründet. Ein Szenario, das viel wahrscheinlicher ist: Menschen werden fortgeschrittene KI dafür missbrauchen, andere Menschen zu unterdrücken. Die Verantwortung dafür wird allerdings nicht bei Maschinen liegen.