Was ist Wirklichkeit? Das zeitgenössische allgemeine Wirklichkeitsverständnis verharrt seit der Aufklärung in den Grenzen eines mechanistischen Weltbilds. Doch die Physik des 20. Jahrhunderts hat gelehrt, „Wirklichkeit“ neu und weitergehend aufzufassen. Ausgehend von den großen Entdeckungen der Quantenphysik erläutert Hans-Jürgen Fischbeck die Revolution unserer Wirklichkeitserkenntnis und fordert eine Revision unseres Wirklichkeitsverständnisses. Der Gastbeitrag des Physikers Fischbeck arbeitet an einigen Stellen mit Formeln, die gelernten Geisteswissenschaftlern schwer verständlich erscheinen mögen; die entsprechenden Passagen sind grafisch abgesetzt und können auch „quer gelesen“ werden, ohne dass der Argumentationsduktus insgesamt verloren geht.
1. Was meinen wir mit dem Wort „Wirklichkeit“?
Wir sagen: „in Wirklichkeit“, oder „in der Realität“ oder „tatsächlich“ – und meinen damit überprüfbare Fakten oder Tatsachen. Wirklichkeit und Realität werden dabei synonym gebraucht. Tatsachen sind geschehen und Fakten sind gegeben. Bei Meinungen, Behauptungen oder Vermutungen wünschen oder fordern wir uns einen sog. Fakten-Check, denn auf Fakten kommt es an, sie sind, wie man auch sagt, „der Fall“.
Wenn Fakten bzw. Tatsachen in einem Zusammenhang stehen, bilden sie einen Sachverhalt. Immer gibt es, so meinen wir, Kausalzusammenhänge, denn Fakten werden verursacht und sind selbst Ursache für weitere Fakten. Allgemein sind wir davon überzeugt, dass alles, was geschieht, eine Ursache hat.
Immer erwarten wir, dass alles funktionieren soll, besonders erwarten wir das von den vielen technischen Geräten, die wir um uns haben. Wenn nicht, fragen wir: „woran liegt das?“ und suchen selbst nach der Ursache oder erwarten Antwort von einem Fachmann. Vor allem unser eigener Organismus soll gesund sein und gut „funktionieren“. Wenn wir krank werden und uns nicht wohl fühlen, fragen wir zuerst nach der Ursache, wollen sie möglichst selbst beheben oder erhoffen Antwort und Hilfe vom Mediziner. Erst wenn alles wieder einwandfrei „funktioniert“, dann ist ein reparierter Mechanismus am Werk, und die Welt ist für uns wieder in Ordnung.
2. Subjektivität – Objektivität, Ansichten und Fakten
Unser wichtigster Zugang zur Wirklichkeit sind unsere eigenen Sinnesorgane: „Das habe ich mit eigenen Augen gesehen oder selbst gehört“, sagen wir, wenn wir Wirkliches wahr-genommen haben. Das ist zunächst subjektiv, denn ich kann mich ja getäuscht haben. Erst wenn andere das auch so gesehen oder gehört haben, kann es als objektive Feststellung gelten.
Objektivität aber ist die Grundbedingung empirischer Wissenschaft, namentlich der Naturwissenschaft. Ihre Aussagen müssen durch reproduzierbare Experimente und Beobachtungen geprüft werden können, sie müssen „falsifizierbar“ sein. Deshalb verdient empirische Wissenschaft höchste Glaubwürdigkeit.
Ansichten, Kommentare, Stellungnahmen, Einschätzungen hingegen werden von Personen gegeben und sind per se subjektiv. Aber, wollen sie ernst genommen werden, dürfen sie objektiven Fakten nicht widersprechen: Fakten sind somit für „uns“ die Fixpunkte der Wirklichkeit.
3. Das Kausalprinzip und der kausale Zusammenhang durch Naturgesetze
Das Kausalprinzip: Alles, was geschieht, wird verursacht haben wir wohl alle verinnerlicht. Dazu gehört, dass die Ursache zeitlich vor der Folge liegen muss. „Woran liegt das?“, fragen wir und unterstellen, dass es immer eine feststellbare (also faktische) Ursache gibt und ein kausaler Zusammenhang zwischen Ursache und Wirkung existieren muss. In unserem wissenschaftlich-technisch geprägten Zeitalter ist man fest davon überzeugt, dass diese kausalen Zusammenhänge letztlich naturgesetzlich bestimmt sind, selbst wenn Fakten nicht nur durch andere Fakten, sondern auch von Menschen verursacht worden sind, denn der Mensch ist ja auch den Naturgesetzen unterworfen. So würde man kaum widersprechen, wenn jemand die Wirklichkeit letztlich als ein lückenloses Geflecht von Kausalketten darstellen würde.
4. „Funktionieren“, „Erklären“, Wissenschaft
Das Wort funktionieren ist beliebt: Die Wirtschaft, die Politik, die Zusammenarbeit sollen „funktionieren“. Vorrangig soll, wie schon gesagt, unser Körper funktionieren. Was wesenhaft „funktioniert“, das sind Mechanismen, und die sind am Werk, wo etwas zuverlässig, d.h. vorhersehbar und berechenbar funktioniert.
Mechanismen werden gesucht, wenn ein Vorgang „erklärt“ werden soll. Eine Erklärung ist gelungen, wenn der gefundene Mechanismus auf sog. Naturgesetze zurückgeführt werden kann. Erklären ist anerkanntermaßen Aufgabe der Naturwissenschaft, die schon so vieles, zuvor Unerklärliches hat erklären können, so dass man ihr zutraut, dass sie letztlich alles wird erklären können.
5. Fühlen, Empfinden, mentale Phänomene, Körper und Geist
Gilt das auch für mentale Phänomene wie Fühlen, Empfinden, Erleben? Können auch die zurückgeführt werden auf Mechanismen des Gehirns? Ja, lässt sich unser Bewusstsein überhaupt hirnphysiologisch erklären? Davon ist die große Mehrheit in unserer Gesellschaft im Verein mit der Mehrheit der Neurobiologen fest überzeugt, denn schließlich erlischt doch offenbar auch das Bewusstsein, wenn der Mensch und mit ihm sein Gehirn stirbt.
Die Veränderung des common sense hin zu einer Verdinglichung unseres Selbstverständnisses lässt sich klar erkennen am Schicksal des Wortes „Seele“. Es verschwindet zusehends aus dem Sprachgebrauch, obwohl es in manchen Redensarten noch nachklingt: Man kann „die Seele baumeln lassen“, mancher ist „eine Seele von Mensch“ oder ist „mit Leib und Seele dabei“. Auch in manchen Adjektiven lebt es fort: selig für glücklich, beseelt für geistig erfüllt, seelenlos für kalt … etc.
Jedoch wird keiner mehr wie früher die Einwohnerzahl einer Ortschaft als „Zahl der Seelen“ bezeichnen. Man liest zwar, dass sich die Menschen des Mittelalters große Sorgen um ihr eigenes Seelenheil und das ihrer Angehörigen machten, aber Verständnis hat man dafür nicht mehr und assoziiert das eher mit Aberglauben.
Dass wir Menschen aus Fleisch und Blut einen Körper haben und sind, ist in unserer Zeit so dominant, dass es die psychosomatische Medizin schwer hat, ihre Unabdingbarkeit zu behaupten und zur Geltung zu bringen, denn in ihr geht es um Einflüsse der Psyche – das griechische Wort für Seele – auf den Körper. Kann es das überhaupt geben? Welche Mechanismen sollen da wirken? – So fragt man zweifelnd. Der Placebo-Effekt ist immerhin statistisch so gut belegt, dass man ihn nicht mehr bezweifeln kann. Aber man rätselt daran herum, wieso er „funktioniert“, wie denn sein kann, was eigentlich nicht sein darf?
Diese landläufige Auffassung von Wirklichkeit ist wesentlicher Hintergrund für die fortschreitende Säkularisierung des Zeitgeistes. Man kann sie zusammenfassen in dem Satz: Eigentlich wirklich sind nur die Fakten und ihr lückenloser Kausalzusammenhang.
Nun aber sagt die Quantentheorie: Das stimmt gar nicht! Die Wirklichkeit ist anders, sie ist mehr! Sie umfasst nicht nur die Fakten und ihre naturgesetzlichen Zusammenhänge, sondern auch deren Möglichkeiten (Potentialitäten), die nicht schon einfach im klassischen Sinne naturgesetzlich bestimmt sind!
6. Die Wirklichkeit ist anders: Die Quantenphysik revidiert unsere gängigen Vorstellungen
Obwohl die Quantenphysik wie jede Naturwissenschaft ausschließlich auf beobachtbaren Fakten – den Fixpunkten der Wirklichkeit – beruht, musste sie einsehen, dass zu den Fakten etwas anderes hinzukommen muss, um so fundamentale Fakten wie die Stabilität der Atome und ihr Emissionsspektrum zu erklären, dass also die Fakten nicht schon die ganze Wirklichkeit sein können.
Die Quantentheorie hat den Ruf, schwer verständlich zu sein. Man beruhigt sich aber gern darüber, wenn einem gesagt wird, das sei ja nur für Atome und Moleküle von Belang, nicht aber für unser alltägliches Leben, in dem ja doch alles mit den gewohnten „rechten Dingen zugehe“. Dabei ist es gar nicht schwer, zu verstehen, was da so neu hinzugekommen ist, wenn man sich die Entstehungsgeschichte der Quantentheorie ansieht.
Die Entstehung der Quantentheorie
Die Streuversuche Ernest Rutherfords im Jahre 1910, bei denen er α-Teilchen – das sind die doppelt positiv geladenen Atomkerne des Heliums – auf dünne Goldfolien schoss, die dabei ziemlich glatt hindurchgingen, als wäre da gar keine Folie. Daraus wurde das Planetenmodell des Atoms abgeleitet, wonach Atome fast „leer“ sind, eben weil die α-Teilchen fast ungehindert durchgingen, aber einen schweren, positiv geladenen Kern besitzen, der von negativ geladenen Elektronen umkreist wird1 wie die Sonne von Planeten, um das Atom elektrisch neutral zu machen.
Aber die Physiker um Niels Bohr mussten einsehen, dass dieses so einleuchtende Modell unvereinbar war mit den Naturgesetzen der Elektrodynamik, nach denen kreisende Elektronen elektromagnetische Wellen – Licht – abstrahlen, dabei Energie verlieren und in den Kern stürzen müssten. Solche „Atome“ würden also kollabieren und dabei Licht mit einem kontinuierlichen Spektrum aussenden. Reale Atome hingegen sind stabil und senden gelegentlich Licht mit einem diskreten Linienspektrum aus. Diese elementaren Fakten ließen sich mit klassischer Physik nicht erklären. Deshalb stellte Niels Bohr 1913 zwei später sog. Quantenpostulate auf, die mit der klassischen Physik eben nicht vereinbar sind:
¬ 1. Elektronen können im Atom nur auf diskreten Bahnen mit diskreten Energie-Niveaus En um den Kern kreisen, ohne dabei Energie zu verlieren. Dafür springen sie gelegentlich von einer Bahn auf eine andere und emittieren oder absorbieren dabei ein Lichtquant gemäß der Relation hνnm = En–Em Dabei ist h die Plancksche Konstante und ν die Frequenz des Lichtes. Vom niedrigsten Energie-Niveau E0 ist dann ein Quantensprung nach „unten“ nicht mehr möglich und damit auch kein Absturz in den Kern. So ließe sich die Stabilität der Atome und ihr Linienspektrum erklären.
¬ 2. Die erlaubten Bahnen mit den Radien rn sind dadurch gekennzeichnet, dass ihr sog. Bahn-Drehimpuls mvrn = nħ ganzzahliges Vielfaches von ħ = h/2π sein soll. Dabei ist p = mv der Impuls eines Elektrons mit der Masse m und der Geschwindigkeit v.
Mit diesen beiden Postulaten konnte Bohr das Linienspektrum des Wasserstoffs recht genau berechnen. Das ließ aufhorchen. Doch die Konsequenzen reichten noch viel weiter: Bringt man nämlich in der Relation mvrn = nh/2π 2π auf die linke und den Impuls p = mv auf die rechte Seite, so lautet sie 2πrn = nh/p = nλ, wobei λ = h/p die sog. de-Broglie-Wellenlänge der Elektronen ist. Dann besagt die Bohr-Quantisierung anschaulich, dass auf den Umfang 2πrn einer Bohrschen Bahn eine ganze Zahl n von Elektronen-Wellenlängen passen muss.
Dass auch Elektronen eine Wellennatur mit einer Wellenlänge λ = h/p haben, wusste Bohr noch nicht. Das hatte Louis de Broglie erst 1924 in seiner Dissertation postuliert, und Davisson und Germer haben es 1927 experimentell nachgewiesen. So trug das Bohrsche Atommodell vorauseilend dazu bei, die anscheinend in sich widersprüchliche Doppelnatur der Elektronen zu begründen, zugleich Teilchen und Welle zu sein.
Ein erfolgreiches Modell aber ist noch keine Theorie, die das Kunststück zu leisten hätte, diese anscheinend widersprüchliche Doppelnatur widerspruchsfrei zu beschreiben. Das gelang in den 1920er Jahren in einer beispiellosen Zusammenarbeit europäischer Physiker. Im Jahre 1926 lag die Theorie in zweifacher Form, der damals sog. Matrizen- und der Wellen-Mechanik vor, deren Äquivalenz bald nachgewiesen wurde. Die erstere wurde von Werner Heisenberg (1901-1976) entwickelt, die zweite von Erwin Schrödinger (1887-1961).
Zwei Varianten der Quantentheorie
Heisenbergs Unbestimmtheitsrelation
Heisenberg ging aus von den mechanischen Grundgrößen Ort q und Impuls p eines Teilchens, postulierte aber, dass diese nicht einfach seine Eigenschaften sind, die es an sich hat, auch dann, wenn sie nicht gemessen wurden, sondern dass diese ihm erst dann zukommen, wenn sie gemessen worden sind. Messung aber ist eine Einwirkung, die das Objekt im atomaren Bereich unweigerlich ändert, bspw. wenn es, um seinen Ort zu bestimmen, beleuchtet wird durch ein Lichtquant mit der Energie hν. Je genauer die Ortsbestimmung sein soll, um so kürzer muss die als „Maßstab“ dienende Wellenlänge sein, und d.h. umso höher muss die Frequenz ν sein. Dann ändert die Messung den Impuls des Teilchens so, dass Ort und Impuls nicht zugleich genau gemessen werden können. Dabei kommt es auch auf die Reihenfolge der Messung von Ort und Impuls an. Daher postulierte Heisenberg, dass die Grundgrößen Ort und Impuls durch Operatoren, sog. Matrizen, darzustellen seien. Weil diese aber nicht vertauschbar sind, können sie nicht zugleich genau bestimmt sein. Das kommt in der Heisenbergschen Unbestimmtheitsrelation zum Ausdruck.
Die Schrödinger-Gleichung
Um die Wellennatur auch mathematisch zu beschreiben, stellte Erwin Schrödinger eine nach ihm benannte Wellengleichung für die sog. Wellenfunktion ψ eines Teilchens auf. Weil Messungen physikalischer Größen wie Ort, Impuls, Drehimpuls, Energie etc. wie schon gesagt, immer Einwirkungen auf die Wellenfunktionen sind, stellte man diese Observablen genannten Größen durch („selbstadjungierte“) Operatoren O dar, die auf die Wellenfunktionen anzuwenden sind: ψ' = Oψ.
Hier tritt die grundlegende Zweiheit der Quantentheorie aus Messgröße („Observable“) O und „Zustand“ ψ zu Tage. Der Zustand, die Wellenfunktion, kennzeichnet das Objekt (das Teilchen). An ihm können verschiedene Messgrößen O (z.B. Ort, Impuls, Energie, Drehimpuls) bestimmt werden. Der Name „Messprozess“ für (##) ist insofern irreführend, als (##) keineswegs nur bei definitiven Messungen Anwendung findet, sondern überall, wo Quantenobjekte in unvermeidlichen Kontakt mit ihrer thermischen Umgebung kommen, was bei jeder eigentlichen Messung natürlich auch geschieht. Besser wäre es, sie etwa Dekohärenz-Relation zu nennen. In den Gleichungen der klassischen Physik aber treten immer nur die Messgrößen selbst auf.
Die Grundthese der Quantenontologie
Die Wellenfunktion ψ ist es, die in der Quantentheorie ganz neu hinzukommt. Entscheidend ist nun, dass ψ selbst nicht messbar, also kein Element der Realität ist. Trotzdem ist ψ wirklich, denn es bestimmt gemäß (##), was mit welcher Wahrscheinlichkeit gemessen und so real werden kann. Somit ist ψ die Potentialität des durch ψ charakterisierten Objekts.
Das also ist die Grundthese der Quantenontologie: Die Realität der feststellbaren Dinge und Sachverhalte ist nicht schon die ganze Wirklichkeit (wie der monistische Naturalismus behauptet), sondern sie hat eine duale Struktur aus Potentialität und Realität.
Dabei ist die Realität diesseits der Messbarkeitsgrenze, also immanent; die nicht messbare Potentialität aber ist jenseits derselben, also transzendent. Dementsprechend ist sie auch nur mathematisch – gleichsam geistig – gegeben als Lösung der Schrödinger-Gleichung (#). Sie hat kein materielles Substrat, ist also immateriell. Sie ist so etwas wie eine Wahrscheinlichkeits-Welle.
So löst sich der scheinbare Widerspruch auf, der unsere Vorstellung frustriert, wie etwas zugleich lokalisiertes Teilchen und ausgedehnte Welle sein soll, denn der Widerspruch besteht ja nur, wenn man beide, Teilchen und Welle, ontisch versteht. Weil aber beide kategorial ganz verschieden sind – „Teilchen“ ist eine ontische, „Welle“ aber eine epistemische Größe – ist da gar kein Widerspruch.
Hinzu kommt, dass die Potentialität der Realität logisch vorausgeht, also primär ist gegenüber der Realität, denn ehe etwas real werden kann, muss es zuerst überhaupt möglich sein.
Potentialität aber kommt in der gängigen, im Abschnitt 1 beschriebenen Auffassung von Wirklichkeit, die entsprechend in der klassischen Physik gilt, überhaupt nicht vor. Darin ist selbstverständlich die Ursache primär gegenüber der Folge und selbstredend real, d.h. materiell. Nun aber tritt vor die materielle Ursache erst noch deren immaterielle Potentialität. Das nenne ich die „ontologische Umkehr“.
7. Die ontologische Umkehr
Sie ist die eigentliche ontologische Revolution der Quantenontologie, denn die kohärenzfähige Potentialität kann als Grundelement des Geistes angesehen werden.
Um diesen Satz zu verdeutlichen, definiere ich hier den sonst uneinheitlich gebrauchten Begriff „Geist“ wie folgt: „Geist“ ist der Inbegriff aller Bedeutungen. Die aber sind potentielle Informationen5, denn faktische Informationen entstehen erst durch die Codierung von Bedeutungen, die ihrer Codierung logisch ebenso vorausgehen, wie generell die Potentialität der Realität. Codierung ist also die Faktifizierung von Bedeutungen zu Informationen, was notwendig ist, um sie, dem Sinn von Information entsprechend, vom „Sender“ zum „Empfänger“ übertragen zu können.
Die Erstcodierung von Bedeutungen zu Informationen geschieht als eine Art „Messprozess“ im Gehirn als dem Organ, das Informationen überhaupt erst kreiert, indem es Ideen des Bewusstseins in neuronalen Erregungsmustern codiert, die dann durch Aussprechen oder Aufschreiben hörbar oder lesbar umcodiert werden können. Alles weitere, was Informationstechnik (IT) mit Informationen macht, sind geistlose Umcodierungen, also Daten-, aber nicht Informationsverarbeitung, wie man irreführend sagt, weil dabei vom Bedeutungsaspekt der Information, der Semantik, vollkommen abgesehen wird6.
Die ontologische Umkehr in der Quantenontologie bedeutet somit nicht mehr und nicht weniger, als dass der Potentialität das Primat vor der Realität und damit dem Geist das Primat vor der Materie gebührt, wie Platon schon vor 2500 Jahren gelehrt hat. Damit ist der uralte Streit in der Philosophiegeschichte über das Verhältnis von Geist und Materie mit der Autorität der Quantentheorie als der empirisch bestbestätigten Basisnaturwissenschaft entschieden. Das Konzept einer „Naturalisierung des Geistes“ ist somit obsolet.
Um sich gegen so weitgehende Konsequenzen der Quantenontologie zu immunisieren, verschanzt man sich gern hinter dem Argument, die Quantentheorie gelte ja nur in der submikroskopischen Unterwelt der Atome und Moleküle und ginge beim Übergang in unsere mesoskopische Lebenswelt komplett in die klassische Physik über, die ja mit unseren landläufigen Begriffen und Vorstellungen ohne weiteres vereinbar ist. Weil aber alle makroskopischen Objekte aus Quantenobjekten bestehen, gibt es eben doch auch makroskopische Phänomene, die sich nur quantenmechanisch verstehen lassen. Ich nenne drei wesentliche Beispiele:
1. Das Pauli-Verbot: Als Auswirkung der prinzipiellen Ununterscheidbarkeit elementarer Teilchen auf atomare Wellenfunktionen besagt es, dass sich bei einem Mehrteilchenobjekt (wie z.B. einem Atom) zwei sog. Fermionen – das sind Teilchen mit halbzahligem Spin7 – nicht im gleichen Zustand befinden, d.h. in allen Quantenzahlen übereinstimmen können. Ohne das Pauli-Verbot lässt sich die meso- und makroskopische Welt nicht verstehen.
2. Die Bose-Einstein-Kondensation: Im Gegensatz zu Fermionen können sich Bosonen – das sind Teilchen mit ganzzahligem Spin – sehr wohl alle im selben Zustand versammeln. Geschieht das in makroskopischer Zahl, spricht man von der Bose-Einstein-Kondensation, und aus dieser allen Bosonen gemeinsamen Wellenfunktion wird eine makroskopische Wellenfunktion8. Bekannte Beispiele sind die Supraleitung von Metallen und die Suprafluidität des Heliums. Bei der Supraleitung bilden Elektronen sog. Cooper-Paare mit antiparallelen Spins, deren Gesamtspin gleich 0 ist, so dass sie kondensieren und elektrischen Strom widerstandslos transportieren können.
Die Bose-Einstein-Kondensation erfordert tiefe Temperaturen im thermodynamischen Gleichgewicht mit der Umgebung und ist in lebenden Systemen nicht möglich. Im Nichtgleichgewicht und bei höheren Temperaturen aber kann in geeigneten Medien durch stimulierte Emission und Absorption ein makroskopischer kohärenter Zustand von Bosonen entstehen, wenn eine sog. Besetzungsinversion gleichartiger Energieniveaus im Medium erzeugt werden kann, d.h. wenn die höheren Niveaus stärker besetzt sind als die niederen, sodass Emission von Bosonen aus den höheren Niveaus weitere Emissionen völlig gleichartiger Bosonen aus anderen angeregten Niveaus stimulieren können. Um Besetzungsinversion aufrecht zu erhalten, ist dabei andauernde Energiezufuhr nötig. D.h. solche Systeme müssen, wie man sagt, „gepumpt“ werden. Sind die emittierten Bosonen Photonen, hat man es mit Lasern9 zu tun. Die emittierten Bosonen können aber auch Phononen sein. Das sind quantisierte elastische Schwingungen polarisierbarer Moleküle. Dann kann, wie von Herbert Fröhlich vorausgesagt, ein makroskopischer kohärenter Quantenzustand entstehen, den man Fröhlich-Kondensat10 nennt und der 2015 erstmals experimentell nachgewiesen werden konnte.
3. Die Unumkehrbarkeit der Zeit: Alle Bewegungsgleichungen der klassischen Physik, die zeitabhängige Vorgänge beschreiben, sind invariant unter Zeitumkehr, d.h. alle diese Vorgänge können auch umgekehrt verlaufen, was aber in der Realität nie vorkommt. Das bedeutet nicht mehr und nicht weniger, als dass die klassische Physik die generelle Unumkehrbarkeit der Zeit nicht erklären kann. Nur die Quantenphysik, deren Geltung man gern auf die submikroskopische Unterwelt beschränkt sehen möchte, kann die fundamentale, die ganze Wirklichkeit durchdringende Tatsache der Geschichtlichkeit der vergehenden Zeit erklären, weil nämlich alle Prozesse der meso- und makroskopischen Welt auf der Faktifizierung quantenmechanischer Potentialitäten beruhen, die mit dem unumkehrbaren sog. Kollaps der Wellenfunktionen gemäß (##) verbunden sind. Die sog. Temporalität der Zeit, also der Unterschied von Vergangenheit, Gegenwart und Zukunft, wird durch die Quantenontologie überhaupt erst physikalisch begründet:
¬ die Faktizität der Vergangenheit mit ihrer Vorher-nachher-Gliederung der Faktifizierungen,
¬ die Gegenwart geschehender Faktifizierung von Potentialitäten,
¬ die Offenheit potentieller weiterer Fakten in der Zukunft, in der – dank der Potentialitäten – überhaupt erst wirklich Neues geschehen kann.
All dies kann die klassische Physik nicht erklären. Das unterstreicht die generelle Bedeutung und Geltung der Quantenontologie für die Wirklichkeit als Ganze.
8. Konsequenzen für Philosophie, Theologie und Kultur: Erneuerung der Aufklärung
Eigentlich versteht es sich von selbst, dass eine so fundamentale Konsequenz der Quantenontologie wie die besagte ontologische Umkehr generelle Auswirkungen auf menschliches Denken haben muss, wie es sich in Philosophie und Theologie ausprägt. Aber die Weigerung, die Quantenontologie zu rezipieren, ist immer noch stark und verdichtet sich im monistischen Naturalismus, der modernen Form des Materialismus, der die irreduzible Wirklichkeit des Geistes nicht anerkennt und daher notwendigerweise atheistisch ist und so der Theologie ihre Berechtigung abspricht. Die andere Seite derselben Medaille ist, dass er dem Menschen den freien Willen und ihm damit seine eigentliche Würde abspricht11, die aber als Konsequenz der ontologischen Umkehr anzusehen sind.
Kennzeichen für die im 17. Jh. beginnende Aufklärung war u.a. die Anerkennung der „Vernunft als universelle Berufungsinstanz“ und die „Hinwendung zu den Naturwissenschaften“ (Wikipedia). Die Hinwendung zur Quantenontologie der Physik des 20. Jh. sollte nunmehr ebenso zum Kennzeichen einer Erneuerung der Aufklärung werden, die aber noch immer aussteht und endlich beginnen muss.
Anmerkungen
1 Zumal da die Coulomb-Anziehung zwischen entgegengesetzten Ladungen mathematisch die gleiche Form hat wie das Newtonsche Gesetz der Anziehung zwischen zwei Massen, das die Planetenbahnen im Sonnensystem bestimmt.
2 Komplexe Zahlen z = a+ib setzen sich zusammen aus „Realteil“ a und „Imaginärteil“ ib, wobei die „imaginäre“ Einheit i durch die Setzung i2 = –1 definiert ist und a und b reelle Zahlen sind. z* = a–ib nennt man zu z konjugiert; und zz* = (a+ib)(a-ib) = a2+b2 = IzI2 ist das reelle Betragsquadrat von z.
3 Dass man die Menge der komplexwertigen Funktionen als „Raum“ bezeichnen kann, liegt daran, dass man sie wie Vektoren eines geometrischen Raumes linear kombinieren kann, so dass sie wieder einen Vektor bilden (Vektoren verbinden Punkte eines bspw. dreidimensionalen Raumes mit dessen Koordinatenursprung), und dass man deren „Länge“ und einen „Winkel“ zwischen ihnen definieren kann. Einen solchen Funktionen-„Raum“, der sogar unendlich viele Dimensionen haben kann, nennt man Hilbert-Raum.
4 Vgl. Endnote 2.
5 Ich erinnere an das Diktum Norbert Wieners, des „Vaters“ der Kybernetik: „Information is information, no matter nor energy.“
6 Auch ChatGPT macht nichts anderes als Datenverarbeitung, ist also geistlos, denn statistisch optimierte codierte Wortverbindungen aus einem riesigen Text-Pool nach grammatischen Regeln zu kombinieren, hat mit Verstehen – d.h. Sinn erfassen – nichts zu tun. Algorithmen können eben nicht verstehen.
7 Der Spin ist der Eigendrehimpuls eines Teilchens, der halbzahlige oder ganzzahlige Vielfache von ħ/2 annehmen kann.
8 Dass die makroskopische Wellenfunktion ihre Quantennatur behält, geht klar daraus hervor, dass es gelungen ist, Quantenkondensate als makroskopische Objekte miteinander zu verschränken.
9 „Laser“ steht für light amplification by stimulated emission of radiation.
10 Dass und wie das geschehen kann, hat Herbert Fröhlich 1968 in einer grundlegenden Arbeit „Weitreichende Kohärenz und Energiespeicherung in biologischen Systemen“ gezeigt (Int. Journal of Quantum Chemistry Vol. 11, p. 641). Er ging davon aus, dass in biologischen Systemen longitudinale Dipol-Schwingungs-Zweige im Frequenzbereich von 1011 bis 1012 Hz existieren und – so heißt es im Abstract dieser Arbeit – „dass wenn Energie mit mehr als einer gewissen Durchschnittsrate einem solchen Zweig zugeführt wird, ein stationärer Zustand erreicht wird, in welchem eine einzige Schwingung dieses Zweigs sehr stark angeregt ist. Die zugeführte Energie ist also nicht vollständig thermalisiert, sondern wird in einer höchst geordneten Weise gespeichert. Diese Ordnung zeigt sich in Phasenkorrelationen mit langer Reichweite. Das Phänomen hat beträchtliche Ähnlichkeit mit der Kondensation eines Bose-Gases bei tiefen Temperaturen.“
11 Franz Josef Wetz, Mitglied des Beirats der Giordano-Bruno-Stiftung, schreibt dies gleich in den Titel seines Buches „Die Würde des Menschen ist antastbar“. Der Naturalist Ansgar Beckermann drückt es so aus: „Der Mensch ist eine biologische Maschine. Eine Seele ist da nicht.“
Aus: Deutsches Pfarrerblatt - Heft 9/2023