Samstag, 4. März 2017

Welches Geheimnis steckt in „WESTWORLD“?

Der Geist in der Maschine

Träumen Androiden von elektronischen Schafen? Die geistreiche Frage von Philip K. Dick sollten wir sehr ernst nehmen. Denn wenn wir uns mit schlauen Robotern, Mr. Data oder den Androiden in „Westworld“ beschäftigen, wollen wir nicht nur über andere Existenzformen spekulieren. Es geht auch darum, was wir träumen und was wir sind. Und darum, wie wir denken. Das Andere ist der Spiegel unseres Selbst. Doch haben die Androiden überhaupt eins? Und wie sieht es bei uns aus? In den Neurowissenschaften ist das umstritten. Deshalb ist die neue HBO-Serie so spannend. Sie steigt in die Tiefen des Kaninchenbaus und will das Geheimnis entschlüsseln. 

 „All those moments will be lost in time like tears in rain. Time to die.“ Wenn Rutger Hauer in „Blade Runner“ seine sehr poetischen letzten Worte spricht, bevor er stirbt, berührt uns dies. Eine völlig fremde Erfahrungswelt wird spürbar, Harrison Ford schaut verblüfft seinen Widersacher an, wohl auch weil seine Existenz ein offenes Rätsel ist. Er sucht in den Worten des Replikanten nach einer Bedeutung – für sich selbst natürlich.
Roys letzte Worte (die, so will es der Mythos, Rutger Hauer selbst ins Script geschrieben hat) berichten von kosmischen Orten wie dem Tannhauser Gate, die nur der Replikant gesehen hat. Heute zeigen uns Hubble-Bilder, was er gemeint haben könnte.

Wenn wir heute „Blade Runner“ noch einmal sehen, dann haben wir wie vor 35 Jahren das Gefühl, dass den Replikanten Unrecht geschehen ist. Sie werden gejagt und getötet und sie wehren sich dagegen. Wie die künstlichen Geschöpfe in „Westworld“.


Ridley Scotts Film ist der vitale Großvater aller modernen Filme über Artificial Intelligence. Und in der Konfrontation mit einer ganz anderen Art zu denken und zu fühlen, entdeckt der Mensch zuallererst sich selbst. Denn im Grunde sind wir anthropozentrische Wesen, die sich für sich selbst interessieren. Und so spiegelt sich in der grandiosen Szene aus Ridley Scotts Film wider, was Menschen fühlen, wenn sie erleben, dass Androiden fühlen, sich erinnern und denken können.
In „Westworld“ ist das nicht anders.

Es ist – durchaus im positiven Sinne verstanden - also pure Ich-Bezogenheit, wenn wir uns Geschichten über künstliche Geschöpfe und KI ausdenken (1): wir haben Angst vor Frankensteins Monster und Stanley Kubricks HAL, bestaunen und bewundern heimlich aber das Andersartige in ihnen wie in „Her“. Religiöse und spirituelle Gedanken entstehen, denn vielleicht kann uns die künstliche Intelligenz erlösen. Es jagt uns zwar Angst ein, kann uns aber auch emotional überwältigen und begeistern, auch wenn die KI selbst keine Gefühle kennt. Und möglicherweise erkennen wir am Ende, was uns eigentlich mit derartigen Kopfgeburten verknüpft – nämlich unser Empathie-Problem.
Formulieren wir es anders: obwohl wir weit davon entfernt sind, zu verstehen, wie unser eigenes Bewusstsein funktioniert, finden wir es faszinierend, dass etwas existieren könnte, das ohne biologisches Gehirn denkt und fühlt. Nicht so wie wir, aber wenigstens so ähnlich (2).

Klar, das beeinflusst auch unsere Wahrnehmung der Androiden in „Westworld“. Auch wenn sie ihre Gefühle zunächst nur vortäuschen, sind wir empathisch auf ihrer Seite, denn sie hängen an Strippen und die meisten Strippenzieher kennen keine Moral. Übrig bleibt jedoch ein Rätsel. Wir wissen nicht wirklich, wie der Geist in der Maschine funktioniert.


Das erschreckt auch aus einem anderen Grund. Die modernen Neurowissenschaften erklären uns seit einigen Jahren, dass wir nicht wissen, wie wir denken und fühlen. Trotzdem wollen sie es erklären. Die Neurowissenschaftler haben dabei viel Menschliches aus dem Weg geräumt: Geist, Vernunft, Ich und Selbst, der freie Wille. Alles nur Illusion?
Die Naturwissenschaften provozieren uns damit, dass unser alter Glanz mitsamt seiner kognitiven Höhenflüge und seiner artistischen Geistesleistungen nicht etwas aus „glitzernden C-Beams“ (Blade Runner) besteht, sondern nur aus feuernden Neuronen. Mehr nicht.
Sind Neuronen vielleicht doch poetisch? Sind wir vielleicht mehr als nur biologische Maschinen ohne Geist? Mit den Provokationen der modernen Hirnforschung setzt sich die „Philosophie des Geistes“ auseinander. In der neuen HBO-Serie findet man überraschend viele Spuren diese Debatte. Im Folgenden möchte ich skizzieren, wie viel Philosophie in
„Westworld“ steckt.

Die Welt als programmierte Inszenierung

Jonathan Nolan hat in einigen Interviews festgestellt, dass es in „Westworld“ nicht nur um die Androiden geht, sondern mehr um das, was mit uns passiert, wenn wir solche Geschöpfe erfinden. Viel Gutes kommt nicht dabei heraus. Mit nahezu göttlicher Allmacht ausgestattet, will der Homo sapiens in „Westworld“ offenbar nur unbegrenzt die Androiden ficken, sie töten und foltern. In der Konfrontation mit diesem deprimierenden Menschenbild sind die Zuschauer nicht nur ihren Ängsten, sondern unweigerlich auch ihren Spiegelneuronen ausgeliefert. Dies gilt auch für die Besucher von Sweetwater. William ist ein gutes Beispiel. Wie er werden wir eher Empathie für die Maschinen empfinden als für die hedonistischen Besucher.
Was müssen wir uns fragen, wenn wir „Westworld“ sehen?
  • Wird die empathische Reaktion des Zuschauers ausgelöst, weil wir als ‚geistige Wesen’ mitfühlen können und freie moralische Entscheidungen treffen, oder ist Empathie eine automatisierte Funktion unserer neurophysiologischen Bauweise? 
  • Können in „Westworld“ die Androiden fühlen und funktionieren die Menschen dagegen wie Maschinen?
  • Haben die Androiden ein „Selbstmodell“ und wenn ja: wieso bekommt es einen Riss?
  • Und last but not least: Werden wir irgendwann unsere eigene biologische Festplatte formatieren und neue, bessere Programme aufspielen?

Dies soll in den nächsten Kapiteln untersucht werden und dabei werden wir entdecken, dass in
„Westworld“ die gleichen Fragen gestellt werden. Manchmal offen, manchmal geschickt versteckt. Zur ersten Frage: Experimentell nachgewiesen ist, dass wir auch völlig bewusstseinsfreien Maschinen empathisch begegnen – also auch dann, wenn sie nicht imstande sind, auf differenzierte Weise Bewusstseins- und Empfindungsfähigkeit nachzuahmen. Roboter können uns bereits jetzt bei Laune halten, wenn wir uns nur einigermaßen lebensecht mit ihnen unterhalten können. Selbst simple und ausschließlich mechanische Puppen lösen bei uns Empathie aus.
In einem Textversuch der Uni Duisburg-Essen wurde vor einem 40-köpfigen Auditorium eine mechanische Dino-Puppe gefoltert, die dabei qualvolle Laute von sich gab. MRI-Scans der Zuschauer ergaben, dass bei ihnen Teile des Limbischen Systems aktiviert wurden, in dem u.a. auch emotionale Reaktionen festgelegt werden. Anders formuliert: die Teilnehmer zeigten Mitgefühl für ein mechanisches Gerät, das definitiv keine KI ist, sondern nur ein Automat, der Töne abspielte (3).

Evolutionär betrachtet ist das interessant. Die Natur hat es offenbar nur eingeschränkt zugelassen, dass wir willentlich über unsere empathischen Reaktionen entscheiden dürfen – ein Teil davon ist fest verbaut, wird aus den nicht-bewussten Bereichen des Gehirns abgerufen und funktioniert immer – ob wir wollen oder nicht. Das ist auch gut so. Auf jeden Fall erklärt dies, warum wir in „Westworld“ nicht die geringsten Probleme damit haben, uns auf die Seite der misshandelten Androiden zu schlagen. Die andere Frage ist, ob wir uns dabei wohlfühlen, wenn wir nur eingeschränkt darüber entscheiden können, ob wir jemanden mögen oder nicht.


Können Androiden fühlen und funktionieren Menschen wie Maschinen?

Natürlich erzählt auch „Westworld“ damit auch vom freien Willen. Haben die fortgeschrittenen Androiden so etwas? Dies zieht Fragen zur Willens- und Verhaltenssteuerung bei Menschen nach sich. Aber auch unsere zweite Frage, nämlich ob wir uns grundsätzlich von software-gesteuerten Maschinen unterscheiden.

Erinnern wir uns: der französische Philosoph René Descartes beschrieb 1662 in seinem Buch „Traité de l’homme“ (Abhandlung über den Menschen) den Menschen als Maschine, schrieb ihm als einem von Gott geschaffenen Wesen allerdings Attribute zu, die ihn vom Tier unterscheiden. Unter anderem sei es die Sprache, die ihn zu vernünftigem Denken befähigt.
Auch wenn Descartes’ medizinische Abhandlungen naturwissenschaftlich nicht zu halten waren, bewies der Vorläufer der modernen Philosophie durchaus einen visionären Instinkt: seit dem 20. Jh. ist Philosophie auch Sprachphilosophie.
Die Debatte darüber, wie wir uns unseren Verstand erklären sollen, ist auch 350 Jahre nach  Descartes nicht ausgestanden. Viele Hypothesen der modernen Hirnforschung laufen darauf hinaus, dass unsere Vorstellungen von der Autonomie des Geistes (und der Seele) in das Gehirn eingewandet sind, das nun als geheimer Strippenzieher für unsere Entscheidungen verantwortlich ist und gleichzeitig und aus unerfindlichen Gründen ein Selbstmodell erzeugt, das uns all dies erleben lässt.

Verblüffend: auch dies wird in „Westworld“ auf den Prüfstand gestellt.
Vielleicht wird der eine oder andere deneken, das uns „Westworld“ nur eine spannende und spekulative Geschichte erzählen will – aber die HBO-Serie will mehr. Das wird in den ersten Episoden rasch deutlich: Wir sehen Androiden, die perfekt funktionieren. Etwa der streitlustige Cowboy, der jeden Morgen einen neuen Gast anrempelt und dann erschossen wird, egal wie schnell der Gast ziehen kann. 
Andere Androiden wie Dolores und Maeve leiden, weinen, verzweifeln oder werden aggressiv – und wir glauben ihnen. In einigen Szenen wird jedoch gezeigt, dass die künstlichen Geschöpfe dabei nur kreativ ihre vorprogrammierten Verhaltensmuster variieren, ohne dass dabei etwas genuin Neues erzeugt wird. Doch man beginnt daran zu zweifeln. Ebenso wie die Techniker von DELOS, die sich plötzlich mit unerklärlichen Programmfehlern herumschlagen müssen.

Dass die Hosts in „Westworld“ dann doch etwas genuin Neues herausbilden, ist also die Behauptung der Serie. Man erkennt dies als dynamischen Prozess bei Maeve (Thandie Newton), der Saloonhure. Sie erkennt, dass ihre Arbeit im Saloon aus Wiederholungen besteht: einige Kernplots werden ständig wiederholt.
Die Handlungsschleifen beunruhigen Maeve auch, oder gerade deswegen, weil sie von quälenden Erinnerungen unterfüttert werden. So erinnert sie sich plötzlich an ein Leben auf einer Farm und dass der Man in Black (Ed Harris) sie dort niederschoss und ihre Tochter umbrachte (Episode 8: „Trace Decay“). Maeve schleppt sich sterbend mit der toten Tochter vor die Tür und der Man in Black stellt sarkastisch fest, dass er in der Verzweifelung der Maschine zum ersten Mal, dass sie lebendig ist. Wenigstens für einen kurzen Moment. Das Problem: Diese Erinnerungen dürfte sie gar nicht haben!
Als Robert Ford (Anthony Hopkins), der Schöpfer des Parks, dann Maeve im Wartungszentrum begegnet, ist der Maeves Schmerz nicht vergangen. Ford verspricht, alles zu beseitigen. Maeve will die Erinnerung an ihre tote Tochter aber nicht loswerden: "This pain - it's the only thing I have left of her."
Ford löscht die Erinnerung trotzdem, aber es scheint nicht zu funktionieren, denn Maeve rammt sich im Labor ein Messer in ihren Hals.
Maeve erkennt, dass sie andere Leben geführt hat und nicht immer eine Saloonhure gewesen ist. Aber auch das waren nur Plots, die sich als Schleife wiederholten. Es ist also eine Dissonanz, die ihr Programm nicht deuten kann und die zum vermeintlichen Programmfehler führt. Und „Dissonance Theory“ heißt schließlich ja auch eine der Episoden in „Westworld“.

Maeve ist daher neben der Farmertochter Dolores (Evan Rachel Wood) die spannendste Figur im Westworld-Kosmos. Ihren entscheidenden Schritt macht Maeve, als sie sieht, was mit anderen Androiden geschieht. Sie beobachtet im Wartungszentrum, wie andere Androiden repariert werden. Sie sieht Trainingssituationen. Und sie lernt  von den DELOS-Technikern Felix (Leonardo Nam) und Sylvester (Ptolemy Slocum), dass sie programmiert wurde, um bestimmten Anforderungen zu gehorchen: eine Nutte muss die Gäste befriedigen, selbst die perversesten Wünsche. Gelingt ihr dies nicht, landet sie auf dem Schrott. 

Sehr ironisch bebildert wird Maeves Kuturschock in Episode 6 „The Adversary“. Maeve sieht ein Promo-Video über den Park, sie sieht bekannte Gesichter, sie sieht, dass ihre Erfahrung von ‚Welt’ eine Inszenierung ist.
Ist das bereits Bewusstsein? Und kann die ihr Schicksal ändern? Und noch wichtiger: Warum sieht Maeve angeekelt aus, obwohl kein Gast in der Nähe ist, dem sie etwas vorspielen müsste?

Die Macht über ihre Programmierung hält sie erst dann in Händen, als sie Felix und Sylvester erpressen kann. Sie spielt mit dem Tablet herum, mit dessen Hilfe ihre Programmparameter verändert werden können. Wenn sie dabei herausfindet, dass im Display bereits das angezeigt wird, was sie eine Zehntelsekunde später sagen wird, hebt sie diese Erfahrung auf eine neue Bewusstseinsebene. Es ist die Meta-Ebene, die auch das menschliche Bewusstsein auszeichnet - wir können darüber nachdenken, dass wir denken. Und wir wollen wissen, wieso dies geschieht. Maeve ist dabei ziemlich pragmatisch: sie schiebt die Regler für Apperzeption auf maximale Leistung.

Maeve hängt zwar an den Strippen ihres Programms, kann nun aber Bedeutungen erfassen, denen sie ihre eigenen Erfahrungen zuordnet. Der nächste Schritt ist klar: Maeve will die Gewissheit haben, dass sie ihr Programm endgültig umschreiben kann. Dies gelingt sogar bis zu einem gewissen Punkt. In einer Welt der Inszenierung ist die ehrliche Selbstwahrnehmung offenbar keine Illusion. Und es sieht so aus, als sei die Frage nach den Denkfähigkeit der Androiden keine akademische, sondern ein ganz praktische: Der Wunsch nach Freiheit und Selbstbestimmung entsteht aus ihrer Ohnmacht. Freiheit ist Programmkontrolle, und das ist in „Westworld“ durchaus ein witziger und bissiger Einfall in Zeiten der Digitalisierung.
Es gehört zu den sarkastischen Kommentaren der Serie, dass die instinktgesteuerten Besucher des Parks nicht nur vom zynischen Man in Black dagegen als willenlose Automaten wahrgenommen werden, die immer wieder auf die gleichen Plots hereinfallen. Wer sich danach als Seriengucker nicht fragt, wie er selbst getriggert wird, der hat nur wenig verstanden. 


Der Riss im Selbstmodell: die letzten Episoden führen aus dem Labyrinth von „Westworld“

Wie aber sieht es nun mit dem Selbstmodell der Hosts aus? Und was erfahren wir über unser eigenes?
Im weitesten Sinn kann man das „Selbstmodell“ eines Menschen als subjektive Empfindung beschreiben. Es vermittelt jene persönliche Perspektive, die uns das permanente Gefühl gibt, als autonomes „Selbst“ zu existieren. Unser „Selbst“ ist etwas anderes als die Realität, die wir wahrnehmen, obwohl wir physisch ein Teil dieser Realität sind.

Der deutsche Philosoph Thomas Metzinger, der neben dem Neurophysiologen Wolf Singer und dem Biologen Gerd Roth wohl der bekannteste Akteur im Bereich der „Philosophie des Geistes“ ist, beschreibt das „Selbst“ nicht als immaterielles geistiges Phänomen. Für Metzinger ist „die bewusste Erfahrung, ein Selbst zu sein, in erster Linie als Resultat von komplexen Informationsverarbeitungs- und Darstellungsprozessen im zentralen Nervensystem“ zu deuten, „als ein Ergebnis dynamischer Selbstorganisationsvorgänge im Gehirn.“
Hört sich irgendwie nach Software an.
Das Faszinierende ist, dass wir nicht nur darüber nachdenken können, dass wir denken (cogito ergo sum), sondern dass wir auch fühlen können, dass wir ‚in der Welt’ sind. Dies ist der subjektive Erlebnisgehalt des „Selbstmodells“. Leider ist nie versprochen worden, dass diese Welt ein netter Ort ist.

Haben auch die Androiden in „Westworld“ ein „Selbstmodell“? Natürlich, denn in der Geschichte, die uns Jonathan und seine Frau Lisa Joy erzählen, sind die Roboter so subtil und komplex programmiert worden, dass sie ihre Plots auch dann weiterspielen, wenn kein Besucher in der Nähe ist. Dies verlangt ihre Programmierung, denn eine hochentwickelte KI würde kollabieren, wenn sie keine Identität besitzt. Die Androiden ‚spüren’, dass sie in einer ‚Welt’ sind. Aber wie zum Teufel bricht dann ihr Selbstmodell so brutal zusammen?


Was also ist das Geheimnis von „Westworld“? 

Diese Fragen werden in den beiden letzten Episoden 9 („The Well-Tempered Clavier“) und 10 („The Bicameral Mind“) endgültig beantwortet. Dort werden die verwirrenden Handlungsstränge zusammengezuführt und gleichzeitig wird das Rätsel aufgelöst, das die Figuren und auch die Zuschauer zuvor mitten in ein Labyrinth geführt hatte. 
Das geschieht nicht ohne Tricks und Twists, man mitunter das Gefühl, in einem psychedelischen Trip zu sein. Zum Beispiel dann, wenn Dolores in einer Szene eine alte Kirche betritt und Hose und Bluse anhat, in der nächsten Einstellung der gleichen Szene aber plötzlich ein blaues Kleid trägt. Wie geht das?

Das Rätsel in „Westworld“, ist aus zwei Gründen so kompliziert. Zum einen musste Jonathan Nolan die beiden Zeitlinien zusammenführen. In der einen, der älteren, sucht William (Jimmi Simpson) wie besessen nach seiner großen Liebe Dolores und wird dabei mit Niedertracht und Gewalt konfrontiert. In der anderen ist der Man in Black (Ed Harris) mit verschiedenen Figuren unterwegs, am Ende mit dem unglücklichen Teddy (James Marsden), um den geheimnisvollen Wyatt zu finden – immer noch davon überzeugt, dass es in dem Spiel eine verborgene, entscheidende Ebene zu entdecken gibt.

Innerhalb der Diegese von „Westworld“ gibt es also eine raffinierte Täuschung (nicht umsonst heißt eine Episode „Trompe-l’Oeil“), einen erzählerischen Kniff, der den Zuschauer auch aus dramaturgischen Gründen verblüffen soll. Die Geschichte wirkt anfangs so, als sei sie eine lineare Erzählung. Tatsächlich begegnen wir einigen Figuren in zwei verschiedenen Timelines. Wie Dolores. Aber die wird ja nicht älter und sieht immer gleich aus.

Andererseits hatten Jonathan Nolan und seine Frau beim Scriptwriting die feste Absicht, eine schlüssige Erklärung dafür zu liefern, warum die Androiden, zumindest einige, ein Bewusstsein entwickeln. Ohne Erinnerungen kein Bewusstsein, ohne Bewusstsein keine Revolte. Gegenwart und Vergangenheit hängen zusammen und die Täuschung des Zuschauers ist nicht nur ein gewaltiger Mindfuck, sondern berichtet auch von der Täuschung der Menschen und Hosts in dem Park. Dass dazu auch ein brutaler Machtkampf innerhalb der Betreibergesellschaft abläuft, mit Intrigen und Morden, sei nur am Rande erwähnt

Der Zuschauer musste nicht nur schlucken, dass der pazifistische William sich im Laufe der Jahre der Jahre in den brutalen Man in Black verwandelt hat, sondern das der Man in Black auch der eigentliche Besitzer von Westworld ist und eine Agenda verfolgt, die nicht ohne Weiteres mit den Unternehmenszielen zu vereinbaren ist.
Nein, man musste auch akzeptieren, dass innerhalb der Zeitlinien ganze Handlungsteile nicht zur Erzählrealität gehören (egal, ob Vergangenheit oder Gegenwart), sondern Erinnerungen von Dolores sind, die sich zudem als Figur auch noch aus völlig divergierenden Persönlichkeiten zusammensetzt.
Während der Man in Black das Geheimnis des Irrgartens (
Maze“) aufdecken will, muss Dolores ihre eigenen Puzzleteilen zusammensetzen. Der Lohn: wahre Selbsterkenntnis. Dies ist der finale Plot Twist der Serie und das Chaos, in dem man nicht wusste, was Realität ist und was nicht, sollte auch im Äußeren sichtbar gemacht werden. Das erklärt nicht nur die völlige Dekonstruktion der Narration, sondern auch den Kleiderwechsel von Dolores. Er ist auch eine visuelle Metapher.

Und last but not least wollten die Macher schlüssig erklären, wie eine KI zu denken beginnen kann, ohne dass dabei banale Lösungen angeboten werden. Daran scheitern ja viele Filme und Serien. Eine mysteriöse Stimmung aufzubauen, ist nicht so schwer. Aus dem Ganzen ohne Dellen und blaue Flecken rauszukommen, ist eine andere. „Westworld“ sollte zeigen, dass es anders geht. Das Autorenteam wollte sicher auch demonstrieren, dass man sich nicht nur sehr intensiv mit Fragen der Bewusstseinsphilosophie und der KI-Forschung auseinandergesetzt hatte, sondern diese Topics auch spannend erzählen kann. Alles sehr tricky, und wer als Zuschauer beim ersten Mal nicht den Faden verlor, hatte sehr gut aufgepasst.

Aber die Serie brauchte inmitten dieser Verwirrungen dann doch den Erzählonkel, der wie den guten alten Zeiten des Kinos am Ende des Films alles erklärt – und der heißt in „Westworld“ Robert Ford. Und Anthony Hopkins füllte diese Funktion mit sichtbarem Vergnügen aus. Gerade hatte der Zuschauer seine Figur als finsteren Manipulator und Unterdrücker der Androiden identifiziert, aber auch als Anstifter zweier Morde, als einen Mann, der über Leichen geht, um der drohende Absetzung durch den DELOS-Aufsichtsrat zu entgehen. Und dann erfährt man plötzlich, dass Fords Masterplan die Befreiung der Androiden ist. Ford hatte jahrzehntelang alle Spuren eines beginnenden Bewusstseins in den Androiden gelöscht, weil dies zu ihrer Vernichtung geführt hätte. Sie sollten noch besser auf die Revolte vorbereitet werden.
„Wir Menschen sind nicht ohne Grund allein auf der Welt. Wir haben alles ermordet und geschlachtet, was unsere Vorherrschaft bedroht hat. (...) Niemals dürft ihr uns vertrauen – wir sind nur Menschen“, erklärt Ford seinem Adlatus Bernard (Jeffrey Wright).

Die Aufklärung führt als zurück zu den Anfängen, als Ford und sein Freund Arnold Weber den Park konzipierten. Bald bestand eines der ersten Robotermodelle den Turing-Test. Doch Arnold wollte mehr: richtiges Bewusstsein. Er hatte eine Vision, die Ford erst später teilen sollte: „Wie wollten die Hosts besser machen. Unverdorbener.“

Unverdorbener als was? Das liegt auf der Hand. Wie in dem vom Philosophen Thomas Hobbes (1588-1679) beschriebenen Naturzustand, agieren die Besucher des Parks ohne Einschränkungen und ohne Moral. Ihre uneingeschränkte Macht, bei Hobbes durch das Seeungeheuer „Leviathan“ symbolisiert, wird durch die Programmierer der Hosts sichergestellt. Doch die Menschen würden recht bald, das war auch Ford klar, den Park missbrauchen: „Die menschliche Psyche ... ist eine faulige, über riechende Verdammtheit.“  

Sollten die Roboter am Ende die besseren Menschen werden, ein neuer Evolutionsschritt, eine von Grund auf optimierte Spezies? Auf der Suche danach ging Arnold einen Schritt weiter. Er stattete Dolores als erstes Exemplar mit Empathie und Vorstellungskraft aus, aber dies schien nicht auszureichen, denn Dolores erreichte nicht die höchste Stufe der Pyramide: das Bewusstsein. Arnold erkannte den Fehler im Konzept. Er änderte die Software und sorgte dafür, dass Dolores und andere Hosts ihre Programmierung als innere Stimme hören – quasi das „Hochfahren“ des Bewusstseins. So entstand das „bikameraler Bewusstsein“. Eine Struktur, die nicht pyramidal aufgebaut ist, sondern eher labyrinthisch. Das Ergebnis führte zu massiven Betriebsstörungen: die Hosts waren zwar lebendig, konnten aber die Eindrücke nicht integrieren. Sie litten sozusagen an einer kybernetischen Version der Schizophrenie.

Auch Dolores hörte eine Stimme, aber ihre einprogrammierten Bedürfnisse nach Schönheit und Liebe verhinderten einen Absturz.
Arnold war klar, welche Konsequenzen dies haben würde: „Wir können den Park nicht öffnen. Du bist lebendig!“
Dolores erhielt den Auftrag, alle Hosts zu töten und wurde zu Wyatt, jener Figur, die der Man in Black wie einem Gespenst 30 Jahre nachjagen sollte. Wyatt hatte der Zuschauer in den Flashbacks stets als Mann gesehen. Das Massaker verübt aber Dolores mit Teddys Hilfe und danach ließ sich Arnold von Dolores erschießen, um zu verhindern, dass neue Hosts gebaut werden. Eine Fehleinschätzung. Und auch auch Plottwist wie in einem
Mindfuck-Movie. Trompe-l’Oeil, Augentäuschung.
 
Ford, der die Öffnung des Parks keineswegs verhindern wollte, entwickelte nach dem Desaster einen anderen Plan. Er erschuf den Androiden Bernard, der wesentliche Charakterzüge von Arnold übernahm und Ford dabei helfen sollte, den neuen Masterplan zu verwirklichen: eine langsame Entwicklung des künstlichen Bewusstseins, um die Androiden nachhaltiger auf den Widerstand gegen die Menschen vorzubereiten. Und so löschte er immer wieder die Erinnerungen derjenigen Androiden, die sich zu schnell entwickelten. Dafür erhielten schrittweise einige Exemplare, zum Beispiel Teddy, eine Backstory. Und zwar eine tragische – dies wirke am glaubwürdigsten, so Ford, und Tragik wäre der Stachel im Fleisch, der den Prozess irgendwann auslösen würde. Dolores konnte ein Lied davon singen. Sie wurde für Ford eine ganz persönliche Hommage an seinen toten Freund Arnold.


Die Erschaffung des neuen Adam

Diese Synopsis ist unumgänglich, um „Westworld“ zu verstehen. Sie zeigt hoffentlich, wie sinnfrei es ist, wenn Kritiker bereits nach der ersten Folge eine Beurteilung abgeben, um dann nach der letzten Episode in tiefes Schweigen zu verfallen. Abwarten, bis man alles gesehen hat, scheint im heutigen Mediengeschäft ein No-Go zu sein.
Abgesehen davon ist „Westworld“ tatsächlich ganz schön harter Tobak. Und manchmal fragt man sich, ob weniger nicht mehr gewesen wäre. Das Meiste, aber nicht alles, scheint jedoch schlüssig zu sein, wenn man den Plot zu den Anfängen des Parks zurückverfolgt. Die Tricks, die sich Nolan und seine Frau dabei ausgedacht hatten, stellen etwas auf jeden Fall sicher: Man muss sich die Serie mindestens zweimal anschauen, um Spaß daran zu haben, wie die narrativen Rädchen wie in einer mechanischen Uhr sicher ineinandergreifen. 

Dafür werden in „Westworld“ auch einige falsche Fährten ausgelegt und die metaphernreichen Dialogen und die versteckten Anspielungen konnotieren die HBO-Serie in einem Umfang, der den Zuschauer genauso wie den Man in Black in ein tiefes Labyrinth führen. Dies ist riskant für HBO, denn viele aktuelle Serien greifen wieder auf schlichtere Handlungen zurück. Andere wie die FX-Serie Legion“ drehen dagegen noch kräftiger am Rad.

Eine Szene ist aber noch erwähnenswert. In „The Bicameral Mind“ führt Robert Ford kurz bevor er dem DELOS-Vorstand seine neue Storyline vorführt, ein letztes Gespräch mit Dolores. Er zeigt ihr in seinem Büro Michelangelos „Die Erschaffung Adams“. Ford erklärt Dolores, dass er sehr lange gedauert habe, bis jemand herausfand, dass ein Teil des Bildes das menschliche Gehirn darstellen soll. In Michelangelos Bild sieht er die entscheidende Botschaft: „Das göttliche Geschenk kommt nicht von einer höheren Macht, sondern von unserem Verstand!“

Das war das einzige Mal, dass ich in dieser Serie kräftig schlucken musste. Sorgt allein das Gehirn für den fabelhaften Verstand und was soll diese Analogie bedeuten, wenn man sie einem Androiden erzählt?
Nach all den narrativen Turbulenzen, den vielen Anspielungen und Verwirrungen und den schönen Aphorismen, die der wunderbar undurchschaubare Anthony Hopkins so elegant vortrug, ist diese Erkenntnis doch wohl ein zu einfaches Rezept. Wir wissen nicht, wie unser Verstand funktioniert, obwohl quer durch die Jahrtausende Aristoteles, die Scholastiker, Kant und nun auch noch die Neurowissenschaften scheinbar unbegrenzt Deutungsmodelle der menschlichen Vernunft ablieferten. Und über die Intelligenz künftiger KI können wir sowieso nur spekulieren. So einfach können wir den Geist nicht aus der Flasche zaubern.


„Westworld“ findet ganz am Ende ebenfalls eine sehr hypothetische Antwort. Dolores sitzt in einer von ihr imaginierten Szene sich selbst gegenüber und erkennt, dass sie nicht nur Arnolds Stimme gehört hat. Auch ihre eigene. Um frei zu werden, muss sie beide Stimmen vereinen. Das Ende des bikameralen Bewusstseins ist also auch – in psychiatrischen Begriffen – das Ende einer dissoziativen Persönlichkeitsstörung. Und die ist auch bei Menschen die Reaktion auf unerträgliche Erlebnisse. Das ist dann wieder stimmig, auch wenn „Westworld“ am Ende gelegentlich über seine eigenen Füße stolperte.

Bewusstsein ist auch dann möglich, wenn man programmiert ist

„Aber ich will doch nicht unter Verrückte gehen!“, widersprach Alice. „Ach, dagegen lässt sich nichts machen“, sagte die Katze. Hier sind alle verrückt. Ich bin verrückt. Du bist verrückt.“ „Woher weißt du denn, dass ich verrückt bin?“, fragte Alice. „Musst du ja sein“, sagte die Katze, „sonst wärst du doch gar nicht hier.“ (Lewis Carroll: Alice im Wunderland)

„Hast Du begriffen, was Du werden musst, wenn Du hier weg möchtest?“, fragt Ford seinen Schützling Dolores, bevor er ihr die Waffe für den finalen Showdown in die Hand drückt. Dolores, die eigentlich auf die Couch eines Therapeuten gehört, wird also wieder töten müssen, diesmal geht es aber den Besitzern von Westworld an den Kragen. Es ist wohl ihr persönlicher Fluch, dass sie Wyatt nicht ganz loswerden kann.

Eine andere Figur, nämlich Maeve, verkörpert in der Schlussepisode ein anderes Fordsches Paradigma: Leid ist der Katalysator des Bewusstseins. Und gelitten hat Maeve zu lange. Sie sei, resümiert sie, viel zu oft gefickt, getötet und gefoltert worden, nur um danach in einer neuen Schleife zu erwachen, in der alles wieder von vorne beginnt. Und so ist sie folgerichtig die treibenden Kraft bei der gewalttätigen Revolte der Androiden.
Nur zerschlägt sich am Ende Maeves Traum, den Park endgültig zu verlassen. Sie hat es beinahe geschafft, als sie von Felix die Information erhält, an welchem Ort sie ihre Tochter finden kann. Zuvor hatte sie erfahren, dass sie nie den Park verlassen wird, denn dies sei so programmiert worden. Maeve weigert sich wütend, dies zu glauben. Aber schließlich kommt der Moment der Wahrheit und sie handelt so, wie ihr Programm es will. Sie flieht nicht, während in den unterirdischen Laboren und Kontrollzentren bereits der Kampf um Westworld begonnen hat.
Man kann dies als sarkastischen Kommentar Nolans verstehen. Maeve besitzt Selbstbewusstsein (self-awareness), durchschaut quasi mit ontologischer Hellsicht, was ihre Existenz ausmacht, besitzt aber immer noch keinen freien Willen. Jedenfalls nicht vollständig.

Vielleicht hat Nolan bei dieser Handlungsvolte tatsächlich auch an die Elaborate der Hirnforscher gedacht, die uns ähnlich beschreiben, nur dass sie die Software durch das Gehirn ersetzen, an dessen Strippen wir hängen: Was uns bewusst wird, ist längst in den vor-bewussten Tiefe der grauen Substanz entscheiden worden. Freier Wille ist eine Illusion.

Wenn wir uns für diese Lesart entscheiden und glauben, dass wir durch die synaptischen Aktivitäten unseres Frontalkortex und unsere einprogrammierten empathischen Reaktionen gesteuert werden, dann kann uns das ebenso wie Maeve verstören. Die kulturellen Konsequenzen hat auch Thomas Metzinger sehr ironisch skizziert: würde eine bügelnde Hausfrau beiläufig im Radio hören, dass der Mensch keinen freien Willen besitzt, so würde die distanzlose Übernahme dieser Hypothese ihr Selbstmodell nachhaltig beeinflussen. Und sollten wir mit dem Gefühl, in einer von unserem Gehirn konstruierten „Inszenierung“ zu leben und dann trotz dieser neuronalen ‚Fremdbestimmung’ moralische Entscheidungen treffen müssen, dürften die fatal ausfallen. Menschen, die diese Paradigmen verinnerlicht haben, handeln egoistischer als andere, so Metzinger. Interessanterweise erzählt „Westworld“ auch davon.

Für einen Teil der Neurowissenschaftler ist der Geist wieder in der Flasche. Und das genuin Menschliche, nämlich die Jahrhunderte lang als autonom heraufbeschworene immaterielle Seele, gibt es nicht und unsere mentalen Zustände sind nichts anderes als das Ergebnis unserer gut getakteten biologischen Festplatte, von der biologische Dateien abgerufen werden, die in Denkakte, Gefühle und sonstige Absonderlichkeiten einmünden. Spätestens an dieser Stelle sind wir mit den Androiden in „Westworld“ in einem Boot. Bewusstsein? Ja. Freier Wille? Nein.
Ob Jonathan Nolan die Bücher von Thomas Metzinger gelesen hat? 


Werden wir unser Selbstmodell irgendwann auch umschreiben?

„Das Selbst in eine Fiktion. Bei Menschen wie bei Hosts“, philosophiert Ford.
Thomas Metzinger formulierte dies vor 10 Jahren ähnlich: „Ich sage sogar: Es gibt nicht nur keine Seele, es gibt überhaupt kein substanzielles Selbst“ (4).

Beide scheint der Gedanke zu beschäftigen, ob man dieses merkwürdige und flüchtige Selbst nicht umprogrammieren sollte. Robert Ford tut dies seit Jahrzehnten, für den Zuschauer ist dies eher eine beklemmende Aussicht – vielleicht auch nicht.

Interessant sind daher die verblüffenden Parallelen zwischen Metzingers Überlegungen und den Intentionen von Robert Ford und Arnold Weber, den Erschaffern von Westworld: „Wenn wir das neuronale Korrelat des Bewusstseins kennen und ein mathematisches Modell haben, das erklärt, wie Information darin fließt und verarbeitet wird, dann können wir auch Bewusstseinsinhalte direkt modulieren, sie hemmen, verstärken, optimieren“, vermutet Metzinger (5).

Was Metzinger nicht ohne Skepsis in Aussicht stellt, ist Psycho Tuning. Für mich unbegreiflich, wird dieser Begriff sehr häufig von Auto-Nerds gebraucht. Ich denke da eher an eine gewisse US-Autorin, die vor knapp zwanzig Jahren sonderbare Ratschläge für eine optimale psychologische Selbstbeeinflussung in Buchform verkaufte. Man solle Bach-Kantanten bloß nicht zum falschen Zeitpunkt hören!

Heute geht man weiter: man will direkt an den Motor ran und vielleicht werfen wir bald legal die passenden Pillen ein. Wie auch immer: Ähnliches geschieht mit den Androiden in „Westworld“. Nur klappt das halt irgendwann nicht mehr und die Dissonanzen, die sie leidvoll erleben, führen zu einem Riss im Selbstmodell. Zu belastend ist die Intrusion, jenes Wiedererleben von traumatischen Ereignissen, das nicht nur Flashbacks und Albträume auslöst.
Die Macher von
„Westworld“ haben sich zusätzlich einen netten sideeffect ausgedacht. Der führt dazu, dass die Androiden Erinnerung und Realität nicht mehr unterscheiden können. Während die menschlichen Erinnerungen diffus und schemenhaft sind, ähneln jene der Androiden in ihrer unmittelbaren Erlebnisqualität dem Besuch des Holo-Decks in einer Star Trek-Episode. Das kann qualvoll sein (Ep 7: „Trompe L’Oeil“) und es ist ein zentraler Schlüsselaspekt bei der Deutung der Serie.

Die eigentliche Revolte der Maschinen ist daher nicht ihr gewalttätiger Aufstand, der Krieg gegen die Menschen, sondern die Entdeckung einer gemeinsamen Schnittstelle: die Meta-Repräsentation. Ob dies ein Synonym für Selbstmodell ist, darüber streiten sich die klugen Geister. Egal wie man das Kind nennt: Es geht immer darum, dass sich auf eine bestimmte Art und Weise anfühlt. Man nennt dies auch phänomenale Erlebnisqualität, eine Eigenschaft, die der deutsche Philosoph Ansgar Beckermann nach vielen Seiten voller tiefer Überlegungen so beschrieb:
... der phänomenale Aspekt des Bewusstseins (stellt) für Philosophie - jedenfalls gegenwärtig - ein unlösbares Problem dar.
Der Mensch denkt darüber nach, wie er denkt und wie sich das anfühlt, der Androide fühlt sich um sein Leben und seine Erinnerungen betrogen und analysiert daher, wie sein Programm funktioniert. Natürlich mit dem Ziel, es umschreiben zu können. Aber wie fühlt sich das an?
Auch das menschliche Selbstmodell ist Beleidigungen und Zumutungen ausgesetzt. Und während wir eigentlich gar nicht darüber nachdenken wollen, rufen uns Schmerz und Leid ins Gedächtnis, dass unser „Selbst“ sehr fragil ist und sich sehr schnell verflüchtigen kann, wenn uns Traumatisches widerfährt. Psycho Tuning brauchen wir nicht, um unsere Probleme zu lösen, aber vermutlich werden wir es irgendwann tun.
Bei den Androiden ist es anders: Ohne Tuning geht gar nichts. In
„Westworld“ erfahren wir, dass dazu ebenfalls Beleidigungen und Zumutungen gehören.

Derart komplexe Reflexionen gelingen in der ersten Staffel von „Westworld“ nur wenigen Androiden. Aber eine generelle Verbindung zwischen Mensch und Maschine sollte der Zuschauer in der Serie auf jeden Fall erkennen: Menschen und Androiden hängen an Strippen, wollen den Riss in ihrem Selbstmodell aber kitten. Weniger aus Interesse an abstrakten philosophischen Debatten, sondern um Freiheit zu erlangen.

Für die Besucher des Parks ist Freiheit die Freiheit von etwas, nämlich à la Thomas Hobbes die Freiheit von verbindlichen moralischen Grundsätzen und Affekten. Für die Androiden wie Maeve gilt: Frei zu sein ist die Abwesenheit von Schmerz und Seelenpein – und damit natürlich die Kontrolle über den Park. Das hat auch der Man in Black im Sinn. Während sein Vorstand einfachere Modelle will („Die Leute wollen warmes Fleisch, um es zu töten und zu ficken“, sagt CEO Charlotte Hale (Tessa Thompson) in der letzten Episode), verabscheut der MiB die Hilflosigkeit seiner programmierten Geschöpfe: „Weil ihr euch nicht wehren könnt und weil die Gäste nie verlieren können.“

Nur Dolores, die Hauptfigur der Serie, ist schon einen Schritt weiter: Für sie ist Freiheit die Integration der gegensätzlichen Komponenten ihres bikameralen Bewusstseins (6). Dies macht sie zu einer Person. Und eine Person hängt nicht an Strippen.
Da weiß auch Arnold aka Bernard. Der liest nämlich in seinen Fake-Erinnerungen, also in seiner nie real gewesenen Backstory, seinem kranken Sohn Charlie vor, was der Hutmacher in „Alice im Wunderland“ sagt: „Alles ist, was es nicht ist.“ Aber in dem Kapitel „Die verrückte Teegesellschaft“ sagt Alice zu den Tieren, mit denen sie am Tisch sitzt, Folgendes: „Ihr solltet die Zeit wahrhaftig besser nützen und sie nicht mit Rätselraten vergeuden, wobei es keine Lösung gibt."
Schon wieder ein Rätsel. Das alles wird in „Westworld“ intelligent genug erzählt, erst recht, wenn man alles mit den Debatten innerhalb der Neurowissenschaften und der
Philosophie des Geistes abgleicht. Es ist spannend und schlagfertig und es wird sogar eine Lösung angeboten. Die ist verblüffend, aber auch schwieriger, als man erwartet hat. Aber unterm Strich ist „Westworld“ ein Meilenstein der Seriengeschichte.

Eine weitere Besprechung der Serie gibt es hier.


Fußnoten

(1) It wasn't until Spike Jonze's film Her that you really started to investigate the idea of two things. What would it be like to be an AI? In other words, not just what will we think of them, but what will they think of us? And how will their thinking be different from ours? ('Westworld' Director Jonathan Nolan on the Future of AI and Why Humans Are So Weird, in: Men’s Fitness)

(2) „We have the capability to apply empathy to almost anything—cartoons, robots, my daughter's stuffed animals. We almost want to empathize with things. We also have the ability to turn that off very quickly. (...) No one thinks of Siri as alive now, but there will become an almost invisible threshold we'll cross in which it's harder and harder to convince yourself of that.“ (Jonathan Nolan, ebd.)

(3) Ähnliche Reaktionen wurden auch in Tests der University of Washington (Seattle) nachgewiesen.

(4) Thomas Metzinger: Der Riss im Selbstmodell, DIE ZEIT 16. August 2007.
Der Unterschied zwischen dem Fordschen Lamento und Metzinger rabiater These ist der zwischen einem Gelegenheitsphilosophen und einem akademischen Profi. Mensch und Maschine sind sich ähnlicher als man glauben möchte, will uns Ford sagen und meint insgeheim, dass seine Erwartungen an die menschliche Spezies sowieso eher bescheiden sind. Metzinger dagegen insistiert darauf, dass „Ich“ und „Selbst“ keine Substanzen sind, und zwar in dem Sinne, dass sie nicht auf etwas noch Umfassenderes reduziert werden können. Anders formuliert: Es gibt keine immaterielle Seele und auch keine neuronale Instanz, die die eigenen Empfindungen aus einer Erste-Person-Perspektive überwacht, steuert und damit auch versteht.
Darüber streiten sich die Gelehrten. Auch darüber, ob wir im Prinzip so funktionieren wie die Androiden in „Westworld“. Dies würde bedeuten, dass wir kleinteilig jeden mentalen Zustand auf eine neuronale Aktivität zurückführen können. Abgesehen von Dolores und Maeve scheint dies so zu funktionieren, denn auch die kleinste Änderung der Programmparameter führt bei den Andoiden unmittelbar zu entsprechend veränderten Empfindungen und Verhaltensweisen. Frohsinn oder Trauer auf Knopfdruck.
Das ist die sogenannte reduktionistische Hypothese. Sie konkurriert vehement mit holistischen Konzepten und damit auch mit der Annahme, dass Bewusstsein nicht aus dem Zusammenspiel der Neuronen vollständig erklärt werden kann. Bewusstsein könne vielmehr als emergentes Phänomen betrachtete werde. Anders formuliert: Das Ganze ist mehr als die Summe seiner Teile.
Dies würde auch einer kausalen Beziehung zwischen neuronalen und mentalen Zuständen und damit dem Grundprinzip einer naturwissenschaftlich basierten Beschreibung widersprechen, geben die Vertreter des reduktionistischen Prinzips zu bedenken. Trotzdem sind die Vertreter der sogenannten Emergenz-Theorie nicht bereit, ihre Stühle zu räumen. Und so bleibt die große Frage im Raum stehen, ob wir Bewusstsein als etwas Ganzheitliches betrachten können, ohne dabei notwendigerweise dessen materielle Grundlage und damit das Kausalität-Prinzip in Abrede zu stellen. Auch Thomas Metzinger hält reduktionistische Positionen nicht für ausreichend, was ihn allerdings nicht von dem Vorwurf befreit hat, diese selbst zu vertreten. Sozusagen durch die Hintertür.

(5) ebd.

(6) Julian Jaynes entwickelte 1976 das Modell der bikameralen Psyche, die anthropologisch zu den Anfängen der Menschheitsgeschichte führt. Dort hätten die Menschen kein Bewusstsein in dem uns bekannten Sinn besessen. Über ihre Handlungen entschieden nicht-bewusste Prozesse, die von ‚befehlenden’ und ‚ausführenden’ Instanzen gelenkt wurden: der bikamerale Geist. Unsere Vorfahren halluzinierten, so Jaynes, die Stimme Gottes, die ihnen sagte, was zu tun sei. Das Bewusstsein, das unsere Spezies später entwickelte, sei dem Zusammenbruch des bikameralen Verstandes zu verdanken. Jaynes Modell wurde von der Fachwelt nicht akzeptiert.