Wissenschafter sagen, wir leben zu 50 % in einer Simulation.
Es kommt nicht oft vor, dass ein Comedian einem Astrophysiker Gänsehaut verpasst, wenn
er über die Gesetze der Physik spricht.
Der Comedian Chuck Nice hat genau das in einer vor einigen Monaten erschienenen Folge des
Podcasts StarTalk geschafft.
Der Moderator der Show, Neil deGrasse Tyson, hatte gerade das Simulationsargument erklärt
- die Idee, dass wir virtuelle Wesen sein könnten, die in einer Computersimulation
leben.
In diesem Fall würde die Simulation höchstwahrscheinlich bei Bedarf Wahrnehmungen der Realität erzeugen,
anstatt die gesamte Realität ständig zu simulieren - ähnlich wie bei einem Videospiel,
das so optimiert ist, dass nur die Teile einer Szene für einen Spieler sichtbar sind.
"Vielleicht können wir deshalb nicht schneller als mit Lichtgeschwindigkeit reisen, denn
wenn wir könnten so auf diese Weise zu einem underen Universum oder einer anderen Galaxie
kommen", "Bevor sie es programmieren können.
Also hat der Programmierer diese Grenze gesetzt."
Ich kann euch übrigens den StarTalk von den beiden sehr empfehlen!
Bin absoluter Fan von, keine Werbung, nur eine Empfehlung.
Solche Gespräche mögen leichtfertig erscheinen.
Doch seit Nick Bostrom von der Universität Oxford 2003 eine wegweisende Arbeit über
das Simulationsargument schrieb, haben sich Philosophen, Physiker, Technologen und Komiker
mit der Idee auseinandergesetzt, dass unsere Realität ein Simulacrum ist.
Einige haben versucht, Wege zu identifizieren, auf denen wir erkennen können, ob wir simulierte
Wesen sind.
Andere haben versucht, die Wahrscheinlichkeit zu berechnen, dass wir virtuelle Einheiten
sind.
Jetzt zeigt eine neue Analyse, dass die Chancen, dass wir in der Basisrealität leben - was
eine Existenz bedeutet, die nicht simuliert wird - ziemlich gleichmäßig sind.
Die Studie zeigt aber auch, dass, wenn Menschen jemals die Fähigkeit entwickeln würden,
bewusste Wesen zu simulieren, sich die Chancen überwiegend zugunsten von uns als virtuelle
Bewohner im Computer eines anderen ändern würden.
(Eine Einschränkung dieser Schlussfolgerung ist, dass es wenig Übereinstimmung darüber
gibt, was der Begriff „Bewusstsein“ bedeutet, geschweige denn, wie man es simulieren könnte.)
2003 stellte sich Bostrom eine technologisch versierte Zivilisation vor, die über immense
Rechenleistung verfügt und einen Bruchteil dieser Leistung benötigt, um neue Realitäten
mit bewussten Wesen in ihnen zu simulieren.
In Anbetracht dieses Szenarios zeigte sein Simulationsargument, dass mindestens ein Satz
im folgenden Trilemma wahr sein muss: 1.
Erstens sterben Menschen fast immer aus, bevor sie das simulationssichere Stadium erreichen.
2.
Zweitens, selbst wenn Menschen es bis zu diesem Stadium schaffen, ist es unwahrscheinlich,
dass sie daran interessiert sind, ihre eigene Ahnenvergangenheit zu simulieren.
3.
Und drittens ist die Wahrscheinlichkeit, dass wir in einer Simulation leben, nahe eins.
Vor Bostrom hatte der Film The Matrix bereits seinen Teil dazu beigetragen, den Begriff
der simulierten Realität zu popularisieren.
Und die Idee hat tiefe Wurzeln in westlichen und östlichen philosophischen Traditionen,
von Platons Höhlengleichnis bis zu Zhuang Zhous Schmetterlingstraum.
Elon Musk gab dem Konzept, dass unsere Realität eine Simulation ist, weiteren Auftrieb: „Die
Wahrscheinlichkeit, dass wir uns in der Basisrealität befinden, liegt bei einer Milliarde“, sagte
er auf einer Konferenz im Jahr 2016.
"Musk hat Recht, wenn man annimmt, dass eins und zwei des Trilemmas falsch sind", sagt
der Astronom David Kipping von der Columbia University.
Um Bostroms Simulationsargument besser in den Griff zu bekommen, entschied sich Kipping,
auf das Bayes'sche Denken zurückzugreifen.
Diese Art der Analyse verwendet das Bayes-Theorem.
Die Bayes'sche Analyse oder Statistik ermöglicht es, die Wahrscheinlichkeit zu berechnen, dass
etwas passiert indem zunächst Annahmen über das zu analysierende Objekt getroffen werden
wobei ihm eine "vorherige" Wahrscheinlichkeit zugewiesen wird.
Kipping begann damit, das Trilemma in ein Dilemma zu verwandeln.
Er hat die Sätze eins und zwei zu einer einzigen Aussage zusammengefasst, da in beiden Fällen
das Endergebnis darin besteht, dass es keine Simulationen gibt.
Das Dilemma stellt also eine physikalische Hypothese (es gibt keine Simulationen) gegen
die Simulationshypothese (es gibt eine Basisrealität - und es gibt auch Simulationen).
"Sie weisen jedem dieser Modelle nur eine vorherige Wahrscheinlichkeit zu", sagt Kipping.
"Wir gehen nur vom Prinzip der Gleichgültigkeit aus.
Dies ist die Standardannahme, wenn wir in keiner Weise Daten oder Neigungen haben."
Jede Hypothese erhält also eine vorherige Wahrscheinlichkeit von der Hälfte, so als
würde man eine Münze werfen.
Die nächste Stufe der Analyse erforderte das Nachdenken über „paröse“ Realitäten
- jene, die andere Realitäten erzeugen können - und „nullipare“ Realitäten - jene,
die keine Realitäten von Nachkommen simulieren können.
Wenn die physikalische Hypothese wahr wäre, wäre die Wahrscheinlichkeit, dass wir in
einem nulliparen Universum leben, leicht zu berechnen: Sie wäre 100 Prozent.
Kipping zeigte dann, dass selbst in der Simulationshypothese die meisten simulierten Realitäten nullipar
wären.
Dies liegt daran, dass die für jede nachfolgende Generation verfügbaren Rechenressourcen schwinden,
wenn Simulationen mehr Simulationen hervorbringen, bis zu dem Punkt, an dem die überwiegende
Mehrheit der Realitäten diejenigen sind, die nicht über die Rechenleistung verfügen,
die zur Simulation von Realitäten von Nachkommen erforderlich ist, die in der Lage sind, bewusste
Wesen aufzunehmen.
Wenn wir all dies in eine Bayes'sche Formel einfügen, ergibt sich die Antwort: Die Wahrscheinlichkeit,
dass wir in der Basisrealität leben, entspricht fast der Wahrscheinlichkeit, dass wir eine
Simulation sind.
Diese Wahrscheinlichkeiten würden sich dramatisch ändern, wenn Menschen eine Simulation mit
bewussten Wesen darin erstellen würden, da ein solches Ereignis die Chancen ändern würde,
die wir zuvor der physikalischen Hypothese zugewiesen haben.
„Man kann diese [Hypothese] einfach von Anfang an ausschließen.
Dann bleibt uns nur noch die Simulationshypothese “, sagt Kipping.
„An dem Tag, an dem wir diese Technologie erfinden, kippen sie die Chancen von 50 bis
50, dass wir real sind, auf fast sicher, dass wir nach diesen Berechnungen nicht real sind.
Es wäre eine sehr seltsame Feier unseres Genies an diesem Tag.
" Bostrom stellt jedoch die Entscheidung von
Kipping in Frage, der physikalischen Hypothese und der Simulationshypothese zu Beginn der
Analyse gleiche vorherige Wahrscheinlichkeiten zuzuweisen.
"Die Berufung auf das Prinzip der Gleichgültigkeit ist hier ziemlich wackelig", sagt er.
„Man könnte es genauso gut über meine ursprünglichen drei Alternativen aufrufen,
die ihnen dann jeweils eine Chance von einem Drittel geben würden.
Oder man könnte den Möglichkeitsraum auf andere Weise aufteilen und jedes gewünschte
Ergebnis erzielen.
“ Solche Streitigkeiten sind gültig, weil es
keine Beweise gibt, die eine Behauptung über die anderen stützen.
Diese Situation würde sich ändern, wenn wir Beweise für eine Simulation finden könnten.
Könnten wir also einen Fehler in der Matrix erkennen?
Houman Owhadi, Experte für Computermathematik am California Institute of Technology, hat
über die Frage nachgedacht.
"Wenn die Simulation über eine unendliche Rechenleistung verfügt, können wir auf keinen
Fall erkennen, dass wir in einer virtuellen Realität leben, da die Maschine alles, was
wir wollen, mit dem gewünschten Realismus berechnen kann",
"Wenn dieses Ding erkannt werden kann, muss man von dem Prinzip ausgehen, dass [es] begrenzte
Rechenressourcen hat."
Denken wir doch einmal an Videospiele, von denen viele auf clevere Programmierung angewiesen
sind, um den Rechenaufwand für den Aufbau einer
virtuellen Welt zu minimieren.
Für Owhadi ist die vielversprechendste Möglichkeit, nach potenziellen Paradoxien zu suchen, die
durch solche Computerverknüpfungen entstehen, quantenphysikalische Experimente.
Quantensysteme können in einer Überlagerung von Zuständen existieren, und diese Überlagerung
wird durch eine mathematische Abstraktion beschrieben, die als Wellenfunktion bezeichnet
wird.
In der Standardquantenmechanik bewirkt der Beobachtungsakt, dass diese Wellenfunktion
zufällig in einen von vielen möglichen Zuständen kollabiert.
Die Physiker sind sich uneinig, ob der Prozess des Zusammenbruchs etwas Reales ist oder nur
eine Änderung unseres Wissens über das System widerspiegelt.
"Wenn es nur eine reine Simulation ist, gibt es keinen Zusammenbruch", sagt Owhadi.
„Alles ist entschieden, wenn man es sich ansieht.
Der Rest ist nur eine Simulation, wie beim Spielen dieser Videospiele.
" Zohreh Davoudi, Physiker an der University
of Maryland, College Park, hat ebenfalls die Idee aufgegriffen, dass sich eine Simulation
mit endlichen Rechenressourcen zeigen könnte.
Ihre Arbeit konzentriert sich auf starke Wechselwirkungen oder die starke Kernkraft - eine der vier
Grundkräfte der Natur.
Die Gleichungen, die starke Wechselwirkungen beschreiben, die Quarks zu Protonen und Neutronen
zusammenhalten, sind so komplex, dass sie nicht analytisch gelöst werden können.
Um starke Wechselwirkungen zu verstehen, müssen Physiker numerische Simulationen durchführen.
Und im Gegensatz zu mutmaßlichen Superzivilisationen mit unbegrenzter Rechenleistung müssen sie
sich auf Verknüpfungen verlassen, um diese Simulationen rechnerisch realisierbar zu machen.
Das fortschrittlichste Ergebnis, das Forscher bisher aus diesem Ansatz herausholen konnten,
ist die Simulation eines einzelnen Heliumkerns, der aus zwei Protonen und zwei Neutronen besteht.
„Natürlich fragen wir uns, ob wir, vielleicht in 10 Jahren, einen Atomkern simulieren könnten,
Vielleicht könnten wir in 20 oder 30 Jahren ein Molekül herstellen “. „In 50 Jahren,
wer weiß, können wir vielleicht etwas in der Größe von ein paar Zentimetern Materie
tun.
Vielleicht können wir in ungefähr 100 Jahren das Gehirn Simulieren.
“ Sagt Davoudi Davoudi glaubt jedoch, dass klassische Computer
bald an eine Wand stoßen werden.
„In den nächsten 10 bis 20 Jahren werden wir tatsächlich die Grenzen unserer klassischen
Simulationen der physikalischen Systeme sehen“.
Daher konzentrieren wir uns auf die Quantenberechnung, die auf Überlagerungen und anderen Quanteneffekten
beruht, um bestimmte Rechenprobleme nachvollziehbar zu machen, die mit klassischen Ansätzen unmöglich
wären.
"Wenn Quantencomputer tatsächlich in dem Sinne zustande kommen, dass es für uns eine
große, zuverlässige Computeroption ist, werden wir in eine völlig andere Ära der
Simulation eintreten" All diese Faktoren haben Davoudi dazu gebracht,
über die Simulationshypothese zu spekulieren.
Wenn unsere Realität eine Simulation ist, diskretisiert der Simulator wahrscheinlich
auch die Raumzeit, um Rechenressourcen zu sparen (vorausgesetzt natürlich, er verwendet
dieselben Mechanismen wie unsere Physiker für diese Simulation).
Signaturen einer solchen diskreten Raumzeit könnten möglicherweise in den Richtungen
gesehen werden, aus denen hochenergetische kosmische Strahlen eintreffen: Sie hätten
aufgrund des Aufbrechens der sogenannten Rotationssymmetrie eine bevorzugte Richtung am Himmel.
Teleskope "haben noch keine Abweichung von dieser Rotationsinvarianz beobachtet", sagt
Davoudi.
Und selbst wenn ein solcher Effekt zu sehen wäre, wäre dies kein eindeutiger Beweis
dafür, dass wir in einer Simulation leben.
Die Basisrealität selbst könnte ähnliche Eigenschaften haben.
Für ihn gibt es eine offensichtlichere Antwort: Ockhams Rasiermesser, das besagt, dass die
einfachste Erklärung ohne andere Beweise eher richtig ist.
Die Simulationshypothese ist ausgefeilt und setzt Realitäten voraus, die auf Realitäten
verschachtelt sind, sowie simulierte Entitäten, die niemals erkennen können, dass sie sich
in einer Simulation befinden.
"Da es sich bei Occams Rasiermesser in erster Linie um ein so kompliziertes, aufwändiges
Modell handelt, sollte es im Vergleich zu der einfachen natürlichen Erklärung wirklich
ungünstig sein", sagt Kipping.
Vielleicht leben wir doch in der Basisrealität - trotz Matrix, Musk und seltsamer Quantenphysik.
Oder auch nicht.