An der Delegiertenversammlung vom 26.05.2013 der Schweizer FreidenkerInnen erfüllten die TeilnehmerInnen nicht nur ihre Aufgabe zur Wahl eines neuen Präsidiums (siehe hier), sondern konnten auch ein Referat des freien Philosophen Imre Hofmann mit anschliessender Diskussionsrunde verfolgen. Das Thema drehte sich um die philosophische Sicht aufs Human Brain Project — und um die Frage: «Steckt ein Geist in der Maschine?». Anlass dazu war die kürzliche Vergabe grosser EU-Geldbeträge an das Projekt.
Die Idee hinter dem Projekt ist ambitiös: Das gesamte bisher vorhandene Wissen übers menschliche Gehirn sammeln und zusammenführen, mit der Absicht, dieses so weit wie möglich in einer IT-basierten Simulation abzubilden. Der Zweck könnte sein, bei manchen Experimenten oder bei der Erforschung von Behandlungsmöglichkeiten bei gewissen Erkrankungen nicht auf menschliche Versuchskaninchen angewiesen zu sein. Ein grosser Teil des Projekts wird sich der Frage widmen, wie bereits wenige neuronale Zellen überhaupt interagieren. Aber die Idee, ein menschliches Gehirn — vielleicht als ganzes — simulieren zu wollen, wirft ein paar ethische Fragen auf.
Imre Hoffmann legte gegenüber dem Publikum seine Zweifel dar, ob er aus philosophischer Sicht überhaupt etwas zum Thema beitragen könne. Die am HBP Beteiligten vermeiden konsequent Wörter wie «Psyche» oder «Bewusstsein». Jeder Versuch, ein Gehirn in einem Computer abzubilden, kann nur eine grobe Skizze sein. Vergleichbar mit einer Landkarte, die zwar zeigen kann, wo sich welche Region befindet, aber keine Auskunft darüber gibt, wie es an dieser oder jener Stelle wirklich aussieht/riecht/klingt, wie sich gar der Boden beim Drüberlaufen anfühlt oder wem man dort begegnet. Jene Punkte, die den Philosophen wirklich interessieren, kommen in den offiziellen Dokumenten des HBP nach Hofmanns Aussage kaum aufs Tapet. Sei es, weil die ForscherInnen diese Punkte vielleicht schon bei der Forschungsarbeit gezielt ausklammern, sei es, weil sie keine Wahrscheinlichkeit sehen, dass ihr Projekt so weit fortschreiten könnte oder sei es, weil es sich aus marketingtechnischen Gründen besser macht, keine Ängste zu wecken. Ich tippe eher auf die Punkte 2 und 1. Aber was, wenn doch? Laut Imre Hofmann steckt kein Geist in der Maschine. Das, was eine Person ausmacht, kann auch durch modernste Entwicklungen in der IT keinen Boden — bzw. passende Hardware — für eine solche Annahme liefern.
Was ist das Bewusstsein?
Extrapoliert oder skaliert man die Idee, an einer Handvoll Zellen zu forschen auf die Forschung an einer kompletten Simulation des Gehirns, stellen sich für mich persönlich die ethischen Fragen ein. Wie genau lässt sich ein Gehirn als Simulation abbilden? Wem nützt diese Simulation? Und wo stehen die Grenzen? Eine in zahlreichen Science-Fiction-Romanen oder ‑Filmen bekannte Abbildung eines gesamten Gehirns inklusive Bewusstsein ist illusorisch (nur schon in den verschiedenen StarTrek-Serien gab es wohl mindestens drei solche Episoden).
Die HBP-ForscherInnen wollen dieses Szenario ausklammern. Die Ansammlung einzelner Zellen — sogar, wenn es viele wären — wäre noch weit davon entfernt, etwas zu bilden, das eine Psyche entwickeln könnte. Aber ohne Verschwörungstheorien wecken zu wollen, würde es mich interessieren: Was geschieht, wenn die Simulation dem menschlichen Gehirn nahe genug kommt, um trotzdem eine Art von Bewusstsein zu entwickeln? Woran erkennt man Bewusstsein? Reicht eine Reaktion auf die Umwelt aus, um ein Bewusstsein nachzuweisen? Hat ein Nesseltier im Meer ein Bewusstsein, weil es auf seine Umgebung reagiert? Oder sind das nur «dumme» Reaktionen seines Nervensystems? Imre Hofmann beantwortet die Frage nach dem Bewusstsein damit, dass jedes Wesen oder Ding selbst für sich entscheiden muss, ob es ein Bewusstsein hat. Das Bewusstsein des Gegenübers liegt somit nur in unserem Ermessens- und Erwartungsspielraum. Das mag stimmen, aber es zeigt nicht, wie wir mit anderen Wesen/Dingen umgehen, die mutmasslich eines haben. Hat alles, was lebt, eine Art von Bewusstsein? Oder zählen wir etwas, das ein Bewusstsein hat, automatisch zu den Lebewesen?
Schaltet den Androiden aus
Falls eine Simulation etwas wie ein Bewusstsein entwickeln könnte, dürfte man sie dann auch nach Gutdünken abschalten? Hier stelle ich gerne den Bezug zu einer Star Trek TNG Folge her, in der es darum geht, ob der Androide namens «Data» von einem übereifrigen Wissenschafter aus der Crew genommen und zu Forschungszwecken zerlegt werden darf. Die Vehemenz, mit der Data um seinen Verbleib in der Crew und gegen seine Zerlegung kämpft, ist in der Folge auch ein Grund für die Richterin, ihm ein Bewusstsein und ein Selbstbestimmungsrecht zu attestieren.
Aber zurück zur Gegenwart und nahen Zukunft. Die aktuellen Versuche beschränken sich auf ein paar Nervenzellen. Die Simulation findet in vielen Grossrechnern verteilt statt. Den Androiden «Data» wird es nicht so bald geben, schon weil die Rechenkapazität auf diesem Raum nicht Platz hätte, zumal der Körper auch noch unzählige Bewegungsmotoren enthalten müsste. Wenn Sony einen kleinen zweibeinigen Roboter entwickelt, ist es schon eine Höchstleistung, wenn dieser nicht bei jeder Türschwelle auf die Nase fällt. Und dabei hat er noch nicht intelligent auf seine Umwelt reagiert.
Ein durch Computer simuliertes Gehirn entspricht nicht dem Gehirn eines echten Lebewesens. Das kann es schon nicht, weil es auf gewisse Reize nicht adäquat reagieren kann. Es hat ja einerseits den Zweck, menschliches Verhalten zu imitieren, andererseits soll es quasi ein Mensch sein.
Nehmen wir das simple Beispiel: Ein Glas Wasser kann für einen echten Menschen das Überleben bedeuten. Würde man das Gehirn des Menschen simulieren, müsste die Simulation nur vorgeben, ein Glas Wasser für überlebenswichtig zu halten. In Wahrheit ist Wasser entweder komplett irrelevant oder sogar schädlich für den Metall/Plastik-Kasten, in welchem das simulierte Gehirn steckt. Etwas, das ein Bewusstsein hat, weiss auch um seine eigene Situation. Und da haben wir es. Behauptet das simulierte Gehirn, es brauche Wasser, lügt es. Ein Mensch würde den Wasserbedarf aber niemals abstreiten. Die Simulation kann also behaupten, Wasser zu brauchen, was eine Lüge wäre (und sie als nicht menschlich taxieren würde) oder nicht zu brauchen, womit die Simulation dann nicht mehr menschenähnlich wäre. Sobald eine Simulation des menschlichen Gehirns ein Bewusstsein entwickelt, ist es keine Simuation mehr, sondern etwas Neues.