Objekt vs Modell (in der Physik)

   


Zum Wesen physikalischer Modelle

   


Ein recht naheliegendes Weltmodell

   





D i s k u s s i o n


 Beitrag 0-531
Was die Physik unser Ich nennen könnte

 
 

 
Was die Physik unser Ich nennen könnte

 
 
Was man aus Sicht der Naturwissenschaft als unser Ich sehen könnte, ist der Teil unseres Bewusstsein, der vor allem nicht-algorithmisch denkt und insbesondere auch über sich selbst nachdenken kann.
 
Damit ist klar: Jeder geistig gesunde Mensch hat ein solches Ich.
 
    Die interessante Frage, die sich stellt, ist nun aber die Frage, ob diese Art von Seele (unser Ich also) den Tod unseres Gehirn überlebt — und wenn ja, für wie lange. Es gibt nur wenige Wissenschaftler, die sich ernsthaft auf die Suche nach einer Antwort gemacht haben. Viele von ihnen kommen zur These: Ja, das könnte durchaus der Fall sein.
     
    Die Beobachtungen allerdings, die ihnen diese Meinung nahelegen, deuten — soweit mir bekannt — alle darauf hin, dass unser Ich — wenn es denn wirklich den Tod unseres Körpers überleben kann – sich über die Zeit hinweg verflüchtigt wie Gasgeruch in ansonsten reiner Luft.
     
    Aus physikalischer Sicht heraus könnte es sich dabei wohl am ehesten um in unserem Gehirn erzeugte, langwellige elektromagnetische Wellen handeln, deren jede sich über unsere Schädeldecke hinaus als Kugeloberfläche ins All hinaus ausbreitet, um sich dort dann einzeln und weitgehend unabhängig von einander irgendwann mit anderen Quanten zu vereinen — die eine oder andere davon vielleicht erst in Milliarden von Jahren.

 
Wer sich als Naturwissenschaftler solche (von der Quantenphysik ja durchaus nahegelegte) Gedanken macht, sollte aber nicht verschweigen, dass dieser Sachverhalt noch keineswegs klärt, ob es auch ein Ich im religiösen Sinne gibt: ein Ich, das nicht an physikalisch Existierendes gebunden ist und das Christen etwa als ihre Seele bezeichnen.
 
Es ist wichtig, sich den Unterschied zwischen den Begriffen Geist, Psyche und Seele (in diesem Sinne) klar zu machen:
 
Jeder Mensch besteht aus Körper und Geist. Letzterer gedeiht oder verkümmert in dem Teil des Menschen, den wir als seine Seele bzw. seine Psyche bezeichnen. Wie Körper und Psyche funktionieren und zusammenwirken, ist Gegenstand von Neurologie, Psychologie und Medizin, nur ansatzweise auch Biologie.
 
Religionen gehen davon aus, dass jeder Mensch über seine Psyche hinaus auch noch eine Seele (nun aber im religiösen Sinne) hat und die besonders wichtig sei, da sie sein eigentliches, über den Tod hinaus existierendes Ich darstellt.
 
Fazit also:
 
    Das Psychische ist sozusagen der Teil allen Seelischen, für dessen Existenz wir Beweise haben und der deswegen wissenschaftlicher Untersuchung gerade noch zugänglich ist.
     
    Wie weit über ihn hinaus Seelisches auch als etwas sogar noch physikalisch Existentes über unseren körperlichen Tod hinaus existiert — bzw. existieren kann —, ist nicht erforschbar.

     
    Das oben vorgebrachte physikalische Argument scheint Beweis dafür zu sein, dass der Tod unseres Gehirns Anfang unseres entgültigen Sterbens ist im selben Sinne, wie das Abschneiden einer Blume, um sie dann in eine Vase zu stellen, der Beginn ihres unwiderruflichen Absterbens ist.


 

 Beitrag 0-337
Positivismus und Realismus — Wie sie sich unterscheiden

 
 

 
Positivisten und Realisten (in der Physik)

 
 
Wie Positivismus in der Physik zu verstehen sei, hat Max Planck 1930 einmal so zusammengefasst:
 
Für Positivisten » ist die Aufgabe der physikalischen Wissenschaft erschöpfend gekennzeichnet, wenn man sagt, dass sie darin bestünde, im die Summe vorliegender Naturbeobachtungen einen möglichst genauen und einfachen gesetzlichen Zusammenhang zu bringen «.
 
Jede Frage, so Planck, die der Positivist überhaupt als sinnvoll zulässt, muss durch Beobachtung beantwortbar sein.

 
Seinen deutlichsten Ausdruck hat der Positivismus in der Denkökonomie des Ernst Mach gefunden, in der es bei der Naturbeschreibung nur daraum geht, die Erscheinungen möglichst ökonomisch zu beschreiben: Positivisten sind keine Entdecker, sondern Erfinder ökonomischer Beschreibung.
 
Planck war sich mit Physikern wie Einstein, Schrödinger und Pauli darin einig, dass die große Gefahr des Positivismus seine Unfruchtbarkeit sei.
 
Einstein, der Mach verehrt hat, hat das sehr genau erkannt. Er schrieb 1917 an Besso: » Über das Machsche Rösslein schimpfe ich nicht ... Aber es könnte nichts Lebendiges gebären, sondern nur schädliches Gewürm ausrotten. «
 
Über Quantengravitation und Quantenkosmologie würde ein Positivist heute gar nicht nachdenlen. Er versagt sich dadurch aber von vornherein die Möglichkeit, in Neuland vorzustoßen.
 
 
Deswegen kam es schnell zur Gegenposition des Realismus :
 
Planck bezeichnete ihn als die Hypothese, dass
 
unsere Erlebnisse nicht selbst die physikalische Welt ausmachen, sondern nur Kunde geben von der wirklichen Welt.

 
Natürlich fordert auch der Realist, dass all seine Aussagen in Einklang mit Experimenten und tatsächlich gemachten Beobachtungen stehen. Hierin also stimmt er mit dem Positivisten überein. Darüber hinaus aber gibt es für ihn die Möglichkeit, freier Setzung und freier Spekulation:


Albert Einstein und Leopold Infeld in Die Evolution der Physik :
 
Physikalische Begriffe sind freie Schöpfungen des Geistes und ergeben sich nicht etwa – wie man recht leicht zu glauben geneigt ist – zwangsläufig aus den Verhältnissen der Außenwelt.
 


Erst der Grad der Sicherheit, mit der diese intuitive Verknüpfung vorgenommen werden kann, unterscheide — so Einstein in Autobiographisches — leeres Spekulieren von wissenschaftlicher Wahrheit.
 
Fassen wir zusammen:
 
Positivisten verstehen sich als Beschreiber der Naturgesetze,
 
Realisten aber wollen auch Entdecker sein.


 

 Beitrag 0-392
Warum Quantenphysik weit genauer als klassische Physik ist

 
 

 
Das besonders genaue Modell der Quantenphysik

 
 
(1)  Quantenphysik verfeinert den Zustandsbegriff

 
 
Die klassische Physik versucht eine Welt W zu verstehen, indem sie sich W als Summe disjunkter Teilwelten W(j) auffasst und dann davon ausgeht, dass man W kennt, sobald man alle W(j) kennt. Mit anderen Worten:
 
Klassische Physik geht davon aus, dass der Zustandsraum von W die direkte Summe der Zustandsräume aller W(j) sei und jedes W(j) sich autonom verhalte.
 
Ein Nachteil dieses Vorgehens wird sofort klar: Jede so erhaltene Beschreibung von W wird ums ungenauer sein, in je weniger kleine Teilwelten W(j) man sich W partitioniert denkt.
 
 
Quantenphysik dagegen ist genauer: Sie ist holistisch in dem Sinne, dass sie neben sämtlichen Teilwelten auch noch die Beziehungen zwischen ihnen betrachtet und sie als ebenfalls wesentliche Bestandteile von W anerkennt. Dies zu erreichen, geht Quantenphysik davon aus, dass der Zustandsraum von W das direkte Produkt der Zustandsräume all seiner kleinstmöglichen, nicht mehr teilbaren Teilwelten w(j) sein müsse.
 
 
 
(2)  Nur Quantenphysik kennt komplementäre Größen

 
 
Als komplementär bezeichnete Niels Bohr zwei Größen, deren begrifflicher Gebrauch für das volle Verständnis einer Sache unverzichtbar ist, obgleich sie einander ausschließen.
 
Er hat das erklärt am Beispiel von Liebe und Gerechtigkeit: Um zu überleben benötigen Menschen beides. Und doch ist — im strengen Sinne ihrer Bedeutung — die gleichzeitige Anwendung beider nicht möglich. Sie sind komplementär.
 
Beispiel für Komplementarität in der Quantenphysik sind das Wellen- und das Teilchenmodell: Jede Welle ist ausgebreitet über den ganzen Raum, ein Teilchen aber wird als punktförmig und zu jeder Zeit als an einem ganz bestimmten Ort lokalisiert gedacht.
 
 
 
Heisenbergs Matrizenmechanik lieferte die mathematische Struktur, die zur Darstellung des Zustandsraumes, aber auch der Komplementarität in der Quantenphysik nötig war. Da sich jede quantenphysikalische Messung als linearer Operator auf dem Zustandsraum darstellt, spiegelt sich die Komplementarität in der Tatsache, dass das Produkt zweier Operatoren von der Reihenfolge ihrer Anwendung abhängt.

 

 Beitrag 0-218
Was Quantenphysik von klassischer Physik unterscheidet

 
 

 
Unterschiede zwischen

Quantenphysik und klassischer Physik

 
 
Unterschied 1:  Die Rolle des Zufalls
     
  • Im alltäglichen Sprachgebrauch bezeichnen wir als zufällig, was durch uns nicht vorhersehbar ist.
     
  • Nach klassischer Physik ist der Zufall eine rein subjektive Erscheinung, die überall dort auftritt, wo ein Geschehen nicht durchschaut und vorausberechnet werden kann. Es gilt dennoch als vollkommen determiniert.
     
  • Ganz anders in der Quantentheorie: Dort sind die Möglichkeiten eines Systems durch vollkommen festgelegt, aber nicht, aus welchen davon Fakten werden: Die Wahrscheinlichkeiten, mit der Möglichkeiten realisierbar sind, ist genau bestimmt und berechenbar. Die sich im Einzelfall ergebenden Fakten allerdings sind objektiv zufällig. Die Annahme, sie seinen an sich wohlbestimmt aber unbekannt, gilt als experimentell widerlegt (Stichwort: Bellsche Messung).
     
    Da sich Fakten aber stets nur im Rahmen naturgesetzlich genau festgelegter Möglichkeiten ergeben können, unterscheidet sich der quantenphysikalische Zufall ganz erheblich von einer rein strukturlosen Willkür, unter deren Regie sich gleichsam alles ergeben könnte.

 
Unterschied 2:  Der Stellenwert von Reduktionismus
 
Die klassischen ebenso wie die quantischen Objekte bilden ein dynamisches Gewebe, in dem es ständig durch Wechselwirkung zu Emergenz, aber auch zu ständig neuer Trennung und Differenzierung kommt.
     
  • Eine Besonderheit der Quantenphysik besteht nun aber darin, dass solche Trennungen keineswegs räumlich erfolgen müssen: Bosonen können sich räumlich durchdringen und dennoch als Objekte klar voneinander getrennt sein (elektromagnetische Wellen sind das wohl bekannteste Beispiel hierfür: sie ignorieren einander).
     
  • Dennoch ist ein Tisch — ja sogar der gesamte Inhalt des Weltalls — aus Sicht der Quantenphysik ein einziges Ganzes (also nicht wie aus Sicht der klassischen Physik eine Menge kleinster, strukturloser Teile, in die sich das Ganze so zerlegen ließe, dass jeder dieser kleinsten Teile unverändert bliebe).

 
Unterschied 3:  Beschreibungsgegenstand

 
Klassische Physik beschreibt  F a k t e n ,
 
d.h. Ergebnisse quantenphysikalischer "Messung" (bzw. quantenphysikalischer Ereignisse).
 
 
Quantenphysik zeigt zudem alle durch das Eintreten solcher Fakten neu entstandenen  M ö g l i c h k e i t e n .

 
 
Wichtige Konsequenz dieses Unterschiedes ist, dass — wo man ein Objekt als aus Teilen zusammengesetzt sieht —
     
  • der Zustandsraum des Objekts in der klassischen Physik die direkte  S u m m e  der Zustandsräume dieser Teile ist,
     
  • wohingegen er sich in der Quantenphysik als ihr direktes  P r o d u k t  ( Tensorprodukt ) darstellt.

 
Wie Thomas Görnitz auf den Seiten 379-381 des Buches Thomas & Brigitte Görnitz: Der kreative Kosmos (2002) über einen Beweis des No-Cloning-Theorems zeigt, sind nur die Zustände kopierbar (nachbildbar), die einen  v o l l s t ä n d i g  definierten quantenphysikalischen Zustand darstellen.
 
Sie und  n u r  sie sind Zustände im Sinne der klassischen Physik. Jede Messfrage, die einer quantenphysikalischen Messung zugrunde liegt, wählt einen möglichen klassischen Zustand und frägt dann, ob das Quantensystem sich in ihm befindet. Daher kann die Antwort auf die Messfrage stets nur ein JA oder ein NEIN sein.
 
Der gegebenen Antwort entsprechend wird die Messung den Zustand des Quantensystems
     
  • bei Antwort JA in den Zustandsteilraum versetzt haben, der die abgefragten Eigenschaften garantiert,
     
  • bei Antwort NEIN aber in einen zu ihm orthogonalen.

Note: Jeder vollständig bestimmte Zustand entspricht einer Richtung im Zustandsraum (d.h. einer Geraden durch dessen Ursprung). Messung verändert diese Richtung.
 
Statt klassischer Zustände die deutlich mehr Information tragenden quantenphysikalischen zu betrachten bedeutet nichts anders als an jeden klassischen Zustand angehängt auch die Wellenfunktion zu sehen, nach der sich das Gesamtsystem (genauer: seine Wirkwahrscheinlichkeit) ausgehend von diesem Zustand — falls er mal eingetreten sein sollte — so lange durch Zeit und Raum fortentwickelt, bis eine erneute "Messung" des Quantensystems (ein sog. Kollaps der Wellenfunktion) sie durch eine neue Version ihrer selbst ersetzt.
 
Wirkwahrscheinlichkeit in diesem Sinne ist das Quadrat der zeit- und ortsabhängigen Amplitude der normierten Wellenfunktion.
 
Man kann sie verstehen als die Nachdrücklichkeit n(x,t), mit der das Quantensystem an Stellen (x,t) der Raumzeit versucht, Quantenereignisse auszulösen.

 

 Beitrag 0-506
Demokrit, Heisenberg und die Quantenfeld-Theorie

 
 

 
Demokrits Atommodell

präzisiert durch Heisenberg und die Quantenfeld-Theorie

 


Physiker wissen (2020):
 
Unter einem Quant (oder Quantensystem) versteht man einen aus Strahlung und/oder Materie bestehenden Teil der Natur, der sich mit Hilfe der Quantenfeld-Theorie nicht nur prinzipiell, sondern zudem noch in praktikabler Weise deutlich zutreffender beschreiben lässt als mit den Mitteln der klassischen Physik.
 
Man könnte nun meinen, die Tatsache, dass jedes Quant auch System von Quanten ist, widerspreche Demokrits Atommodell. Dem aber ist nicht so, wie man einsehen kann wie folgt:
 
 
Heisenbergs Unschärfe-Relation impliziert Quantenfluktuation
 
und zudem noch:
     
  • Wirklich jedes Teilchen ist ein sich durch Quantenfluktuation ständig mehr oder weniger selbst modifizierendes System harmonischer Wellen im Feld der physikalischen Grundkräfte.
     
    Diese Wellen (sog. QuBits) stellen die unteilbaren Portionen von Energie dar, aus denen jedes in der Natur anzutreffende Boson oder Fermion besteht.
     
  • Auf hinreichend kleiner Skala — unterhalb der Planckskala, wie Bronstein erkannt hat, — sind sie durch keinerlei Messverfahren mehr auseinanderzuhalten.
     
    Mit anderen Worten:
     
     
    Die Struktur der Wellenpakete im Feld der physikalischen Grundkräfte ist unterhalb der Planckskala ganz prinzipiell unbeobachtbar
     
    und muss daher im Rahmen der Physik als unbestimmt angenommen werden.
     
    Einzeln können QuBits beliebig kurz existieren, werden dann aber entsprechend energiereich sein.

 


 
Bronsteins argument Bronsteins argument
 
 
Quelle: Carlo Rovelli, Francesca Vidotto: Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory (2014), p. 7-8


 

 Beitrag 0-462
Quanten sind als Welle oder Teilchen gedeutete Portionen von Energie

 
 

 
Die Wellen und Teilchen der Quantenphysik beschreiben

Energieportionen und ihr Verhalten

 
 
Wie das Fourier-Theorem zeigt, ist alles, was man Welle nennt, genau genommen Summe harmonischer (d.h. sinusförmiger) Wellen. Erst sie stellen je eine unteilbare Portion von Energie dar, und so ist letztlich nur jede solche Portion das, was man » ein unteilbares Teilchen « nennt (informationstheoretisch gesehen: » ein QuBit «).
 
    Ein besonders häufig diskutiertes Beispiel harmonischer Wellen sind Photonen:
     
    Jedes Photon breitet sich um den Ort seines Entstehens herum aus als Oberfläche einer Kugelwelle, deren Radius sich mit Lichtgeschwindigkeit vergrößert. Da diese Welle nun aber um Hindernisse herum gebeugt wird, nimmt sie sehr schnell mehr oder weniger stark "verbeulte" Form an. Das geht so weit, dass wenn sie auf ein Gitter trifft, sie zwischen den Stäben des Gitters durchquillt und ihre so entstehenden Lappen sich hinter dem Gitter dann sogar überlagern (weswegen dann z.B. im Doppelspalt-Experiment auf einem Schirm hinter den beiden Spalten, durch die Licht kommt, Inteferenz zu sehen ist). Genauer:
     
    Was sich auf dem Schirm hinter den Spalten zeigt, sind Punkte, deren jeder eine Stelle ist, an der ein durch den Doppelspalt gekommenes Photon seine Energie an ein Atom des Schirms abgegeben hat:
     
    Da das Atom jene Energie aufnimmt, dann aber sofort wieder abgibt, so dass sich der Schirm, wenn er aus lichtempfindlichen Materiel besteht, dort verändert, sehen wir jenen Punkt.
     
    Da die Wahrscheinlichkeit, dass sich das Photon an einer bestimmten Stelle des Schirms mit dem Schirm vereinigt — dort also seine gesamte Energie schlagartig abgibt und aufhört zu existieren — an den Stellen am größten ist, an denen die Amplitude der harmonischen Welle am größten ist, gruppieren sich solche Stellen dann zu einem Interferenzmuster, das wir als Interferenz von Wahrscheinlichkeitwellen deuten können.
     
    Bei Materiewellen ist es im Prinzip ebenso, nur dass man sie gleich von vorn herein als Wahrscheinlichkeitswellen deutet. Letzten Endes aber existiert auch jede Materiewelle nur als Summe harmonischer Wellen, deren jede Auf- und Abbau von Kraft darstellt, d.h. wellenförmig schwankendes Potential, Wirkung hervorzurufen.

 
Vieles, was im Standardmodell der Elementarteilchenphysik als Elementarteilchen gilt, ist tatsächlich ein ganzes Wellenpaket, also Summe harmonischer, sich im Raum ausbreitender Kugelwellen. Wie Heisenbergs Unschärferelation (angewandt auf das Paar Energie und Lebensdauer einer harmonischen Welle) zeigt, ist dieses Wellenpaket sogar in ständiger Abänderung seiner selbst begriffen.

 

 Beitrag 0-449
Quantenphysikalische Observable als Operatoren

 
 

 
Quantenphysikalische Observable als Operatoren

 
 
In der Quantenmechanik werden die grundlegenden Größen der klassischen Mechanik — die Ortskoordinate q etwa, der Impuls p oder die Hamilton-Funktion H(p,q) als Operatoren auf einem Hilbertraum dargestellt.

Ilya Prigogine:
 
Wir müssen zwischen dem Operator — einer mathematischen Operation — und dem Objekt, auf das er wirkt — einer Funktion — unterscheiden:
 
Nehmen wir als Operator z.B. die durch d/dx dargestellte Ableitung nach x und wenden ihn an auf die Funktion f(x) = x2, so erhält man als Ergebnis die Funktion df/dx = 2x.
 
Bestimmte Funktion aber verhalten sich so, dass ihre Ableitung Vielfaches der Funktion selbst ist ( z.B. ist 3e3x die Ableitung von e3x ).
 
 
Jede Funktion, die man durch Anwendung eines Operators erneut erhält, nennt man Eigenfunktion des Operators, und die Zahl, mit der sie nach Anwendung des Operators multipliziert ist, nennt man einen Eigenwert des Operators.
 
Auf diese Weise ist jedem Operator ein Vorrat von Zahlen zugeordnet, den man sein Eigenwertspektrum nennt. Es kann diskret oder kontinuierlich sein (also z.B. aus allen ganzen Zahlen bestehen oder aus allen reellen Zahlen zwischen z.B. 0 und 1).
 
 
Sämtlichen physikalischen Größen der klassischen Mechanik entspricht in der Quantenmechanik ein Operator. Seine Eigenwerte stellen die Menge der möglichen Messwerte dar.
 
So wird z.B. die Energie durch den Hamilton-Operator H(p,q) dargestellt und beobachtete Energiewerte (Energieniveaus) durch dessen Eigenwerte.
 


 
Quelle: Ilya Prigogine, Isabelle Stengers: Dialog mit der Natur — Neue Wege naturwissenschaftlichen Denkens, Serie Piper, S. 232-233
 
oder das Vorlesungsskript physik.hu-berlin.de/~sokolov/QM1


 

 Beitrag 0-58
Zum Begriff physikalischer Theorien und Objekte

 
 

 
Zum Begriff physikalischer Objekte

 
 
Die Wurzeln der Disziplin Theoretische Physik reichen zurück bis in die Zeit der Vorsokratiker (etwa 500 v.Chr.). Spätestens seit Isaac Newton bedient sich die Theoretische Physik zum Aufschreiben ihrer Ergebnisse zwingend der Mathematik. Der mathematische Zweig der Differentialrechnung etwa wurde durch Newton (und parallel dazu durch Leibniz) zu eigens diesem Zweck erfunden und entwickelt.
 
Dennoch sehen gerade die Vertreter der Theoretischen Physik sich häufig — und weit mehr als andere Wissenschaftler — dem Vorwurf ausgesetzt, was sie da vorbrächten sei einfach nur eine mehr oder weniger haltlose Vermutung und allzu weit hergeholt. Dem ist entgegenzuhalten, dass solche Vermutungen vor allem dem Zweck dienen, keinen Lösungsansatz zu übersehen, nur weil er so gar nicht naheliegt oder so gar nicht dem entspricht, was unsere Erfahrung uns nahelegt. Dass die meisten ihrer Denkansätze die Natur missverstehen, ist den theoretischen Physikern bewusst. Jede Idee dennoch zu prüfen und nach Argumenten zu suchen, sie zu widerlegen, ist dennoch ihre Pflicht, denn schon allzu oft hat ganz extrem Unwahrscheinliches sich später doch als wahr erwiesen.
 
 
Heute also gilt: Theoretische Physik ist kreative Anwendung hoch komplizierter mathematischer Konstrukte mit dem Hintergedanken, dass die Mathematik uns hilft, die Welt in der wir leben, zu entdecken, zu verstehen und ihrem Verhalten uns gegenüber vorhersagbar zu machen.
 
Aus mathematischer Sicht ist jedes physikalische Objekt ein
 
 
Gegenstand ( Eigenschaften, Theorie )

 
wobei
  • sich der Gegenstand — als gedankliches Bild einer Kategorie physikalischer Objekte gleicher Art — über die genannte Menge von Eigenschaften definiert,
     
  • jede dieser Eigenschaften durch eine Zahl quantifizierbar ist
     
  • und die so erhaltenen Zahlen (Eigenschaftswerte) der genannten Theorie gehorchen.
     
  • Die Theorie wiederum ist nichts anderes als ein Gleichungssystem, welches beschreibt, in welcher Abhängigkeit mögliche Werte der einzelnen Eigenschaften zueinander stehen: Jede Lösung des Gleichungssystems beschreibt — als Menge von Eigenschaftswerten — genau eine Objektinstanz.

 
Streng genommen also ist jede Lösung der Theorie — jedes konkrete physikalische Objekt —
 
eine Abbildung der Menge aller Eigenschaften in die Menge aller reellen Zahlen.

 
 
Da nun aber Objekte im Sinne der Physik so gut wie immer zeitabhängig betrachtet werden — und sich ihre Eigenschaftswerte mit der Zeit ändern — werden Physiker sehr oft erst dann von einer Lösung der Theorie sprechen, wenn sie eine ganze Schar mathematischer Lösungen meinen, deren Scharparameter der Zeitwert ist.
 
Noch allgemeiner: Wo z.B. die Stringtheoretiker behaupten, ihre Theorie hätte so etwa 10500 Lösungen (deren jede ein konkrete Instanz des Gegenstandes "Raumzeit mit allen über die gesamte Zeit hinweg darin existierenden Dingen" beschreibt), ist damit eine Schar von Lösungen gemeint, die mindesten zwei Scharparameter hat: die Zeit einerseits und die sog. Kopplungskonstante andererseits.
 
 
Wer sich nun aber vor Augen führt, dass jedes Gleichungssystem mit mehr als zwei Unbekannten — nennen wir sie Z und K in Anlehnung ans eben gegebene Beispiel — sehr viele Lösungen haben kann, die aber alle in Z und K denselben Wert haben, so wird klar, dass jede Schar von Lösungen der Theorie selbst wieder Vereinigung kleinerer, aber immer noch beliebig großer Scharen sein kann.
 
    Diese Tatsache übringens führt nicht selten zur Entdeckung neuer, bis dahin völlig unbekannter Phänomene. Beispiel für ein auf diesem Wege entdecktes Phönomen ist Antimaterie. Paul Dirac konnte 1928 die Existenz eines » positiv geladenen Elektrons « (man nennt es heute das Proton) vorhersagen, da sie ihm auffiel, dass eine von ihm betrachtet quadratische Gleichung statt nur einer Lösung — die die Ladung des Elektrons beschrieb — gleich deren zwei hatte, die sich nur im Vorzeichen unterschieden.

 
Wir sehen: Die Aussage der Stringtheoretiker, ihre Theorie hätte wohl so etwa 10500 Lösungen, sagt rein gar nichts. Das einzige, was wir mit Sicherheit wissen, ist, dass die Stringtheorie — sollte ihr Gleichungssystem denn jemals endgültig formuliert sein — sicher noch weit mehr Lösungen haben wird als Einstein Feldgleichungen (d.h. die Allgemeine Relativitätstheorie). Schon die aber hat unendlich viele  g e s c h l o s s e n e  Lösungen — z.B. die, welche man das Gödel-Universum nennt.
 
Hinzu kommt: Die meisten Lösungen der Allgemeinen Relativitätstheorie sind überhaupt nicht in geschlossener Form angebbar (als Formel also), sondern nur mit Hilfe komplizierter Rechnung als Menge der sie darstellenden Eigenschaftswerte schrittweise (und stets nur näherungsweise) konstruierbar.
 
 
Nun ist allerdings zu beachten, dass Lösungen, die der Physiker sucht, fast immer Lösungen eines bestimmten Anfangswertproblems sein sollen.
 
Was das bedeutet, beschreibt Martin Bojowald wie folgt (unter der Voraussetzung, dass der betrachtete Gegenstand ein Modell unseres Universums sei):
 


Bojowald ( S. 309-311 seines Buches Zurück vor den Urknall ):
 

In der Kosmologie spielt die Eindeutigkeit der Lösung einer Theorie der Raumzeit eine wichtige Rolle — denn schließlich können wir ja nur ein einziges Universum beobachten: da, in dem wir leben. Leider erhält man Eindeutigkeit nie umsonst, sondern stets nur über zusätzliche (die Theorie einschränkenden) Annahmen, die mehr oder weniger natürlich erscheinen mögen. Sie treten in zwei prinzipiell unterschiedlichen Rollen auf:
  • als Annahmen, die zum Aufstellen einer Theorie nötig sind,
  • aber auch als Annahmen zur Auswahl von Lösungen der dann schließlich gegebenen Theorie.

Zu Annahmen der zweiten Art kommt man über eine standardisierte Operation, die eng mit der mathematischen Art der Gleichungen zusammenhängt, die in in physikalischen Gesetzen Verwendung finden: Es sind dies (meist partielle) Differential-, hin und wieder aber auch Differenzengleichungen, die zu bestimmen haben, wie sich eine Größe ändert, wenn man sich in Raum oder Zeit — oder im Sinne eines anderen abstrakten Parameters — bewegt.
 
Um die Lösung eindeutig zu machen, reicht es nun aber nicht, lediglich zu wissen, wie sich sich ändert, wenn man sich bewegt: Man benötigt zusätzlich einen Standpunkt, von dem aus solche Änderungen ausgehen. Er kann sein
  • eine Anfangsbedingung (d.h. man legt fest, welchen Wert die untersuchte Größe zu dem  Z e i t p u n k t  hat, von dem man ausgeht)
  • oder eine Randbedingung (was bedeutet, dass man festlegt, von welchem Wert der Größe man am Rande des jeweils untersuchten  R a u m g e b i e t e s  ausgeht)
Anfangs- und Randbedingung können als das theoretische Äquivalent der Entscheidung eines Experimentators zu Aufbau und Durchführung seines Experiments angesehen werden. Die Theorie selbst aber soll, mindestens näherungsweise, dem Verhalten der Natur entsprechen — so wie uns auferlegte Naturgesetze es erwarten lassen.
 
Ein Experiment ist dann immer eine spezielle Situation in der Natur, die durch den Experimentaufbau (z.B. ein Pendel) und die gewählte Ausgangsposition (z.B. die Position, von der aus man das Pendel frei schwingen lässt) spezifiziert ist.
 
Also: Die Theorie wird durch die Wahl eines bestimmten natürlichen Phänomens fixiert, aber erst seine spezifische Realisierung liefert die Randbedingungen, von denen ausgehend man unter Berücksichtigung seiner allgemeinen Möglichkeiten eine Lösung sucht.
 


Festzuhalten bleibt:
 
 
Wer von der Lösung einer Theorie spricht, meint damit i.d.R.
 
eine Lösung, die gewisse Randbedingungen respektiert,
 
die aber keineswegs aus der Theorie selbst kommen.
 
 
Lösungen solcher Art beschreiben das betrachtete physikalische Objekt dann meist auch nur lokal.

 
 
 
Schönes Beispiel hierfür ist die Schwarzschild-Metrik (als die Lösung von Einsteins Feldgleichungen, die 1916 als erste gefunden wurde): Karl Schwarzschild betrachtete den Außen­raum einer kugelsymmetrischen Massenverteilung. Hier verschwindet der Energie-Impuls-Tensor und die Metrik hängt nur von einer radialen Koordinate ab. Die resultierende Raum-Zeit-Struktur nennt man heute ein » Schwarzes Loch «. Sie ist durch einen sog. Ereignishorizont gekennzeichnet, der die zentrale Singularität abschirmt.
 
Noch weit exotischer ist eine von Kurt Gödel gefundene Schar von Lösungen: der sog. » Gödelsche Kosmos «. Er lässt geschlossene Zeitlinien zu und wurde von Einstein als eher nicht die wirkliche Welt beschreibend eingestuft (genauer müsste man eigentlich sagen "keine wirklich existierende  R e g i o n  unserer Welt").


 

 Beitrag 0-136
Jedes physikalische Modell hat zwei Ebenen unterschiedlicher Verbindlichkeit: Begriffe und Relationen

 
 

 
Die beiden Ebenen physikalischer Modelle

 
 
Nach Josef Honerkamp — er war 30 Jahre lang Professor für Theoretische Physik — gibt es in jedem physikalischen Modell zwei Ebenen, die keineswegs gleich verbindlich sind:
  • die Ebene der Begriffe
     
  • und die Ebene der Relationen zwischen diesen Begriffen.
Während man die Relationen — soweit sie sich in Prüfungen bewährt haben — als festen, verlässlichen Bestandteil des Wissens der Menschheit anzusehen hat, unterliegen die Begriffe im Laufe der Zeit häufig einem Wandel: Sie sind Provisorien, von denen keines so richtig passen will, und so werden sie hin und wieder durch neue ersetzt oder gar auch als überflüssig erkannt (so wie Einstein z.B. den Begriff des Äthers als überflüssig erkannt hat).
 
Die Ebene der Begriffe ergibt sich aus unseren Denkgewohnheiten: Noch Unverstandenes versuchen wir zu begreifen, indem wir es mit Dingen vergleichen, die wir schon gut verstanden zu haben glauben.
 
Im Nachhinein, so schreibt Honerkamp, erscheinen uns überwundene Vorstellungen von einem Begriff wie Vorurteile, und so könne die Wissenschaft insgesamt als ein nie endendes Menschheitsprojekt zur Überwindung von Vorurteilen gesehen werden.
 
 
    Besonders klar wird das, wenn man sich vor Augen führt, wie der Begriff » Materie « sich im Laufe der Zeit gewandelt hat:
     
    Noch Ende des 19. Jahrhunderts sahen die Physiker Materie als Menge von Atomen, deren jedes man sich zunächst als kleines Körnchen vorgestellt hat.
     
    1911 hat Rutherford den Begriff des Körnchens ersetzt durch sein Planetenmodell, und schon 2 Jahre später sprach Bohr von einem Schalenmodell.
     
    Der damaligen Denkgewohnheit entsprechend hat man sich mechanische Modelle gewünscht (wie es diese 3 Vorstellungen ja auch waren). Der britische Physiker Lord Kelvin etwa soll offen bekannt haben, dass er die Maxwellschen Gleichungen nicht verstehen könne, da ihm ein mechanisches Modell dazu fehle.
     
    Erst langsam akzeptierten die Physiker, dass die Welt nicht nur aus Teilchen, sondern auch aus Feldern bestehend gedacht werden kann.
     
    Heute — etwa 100 Jahre später — beginnt man, den Teilchenbegriff im atomaren und subatomaren Bereich ganz fallen zu lassen und voll auf den Feldbegriff zu setzen: Jede Art von Elementarteilchen wird als wellenförmige Anregung eines dieser Art zugeordneten Feldes gesehen.
     
    Ein Wasserstoffatom etwa würden wir heute gar nicht mehr als "real" existierend ansehen, wenn mit "real" gemeint sin soll, dass es all seinen Eigenschaften nach stets wohlbestimmt und vor allem auch irgendwo lokalisierbar ist. Wir sehen ein, dass es Realität solcher Art ganz offensichtlich erst beginnend mit der Skala mittler Dimensionen gibt (der mesoskopischen).


Honerkamp drückt es so aus:
 
Heute müssen wir konstatieren, dass die Quantenmechanik eine in allen Experimenten erfolgreich geprüfte Theorie ist, die uns zeigt, dass die Natur auf der atomaren Ebene durch ganz andere Gesetze [durch nicht-mechanische] beschrieben werden muss und dass die Objekte auf dieser Größenskala von ganz neuer Art sind — neu im Hinblick auf alles, was wir in unserer Welt der mittleren Diemensionen kennen.
 
Zwar kommen wir manchmal mit der Vorstellung, dass diese Objekte Teilchen wären, noch ganz gut zurecht. Aber das hat Grenzen.
 
Wir nennen diese Objekte jetzt Quanten und sehen, dass sie mit nichts vergleichbar sind, was wir sonst im Laufe der Evolution erfahren und kennen gelernt haben.
 


 
 
Quelle: Josef Honerkamp: Wissenschaft und Weltbilder, Springer 2015, S. 144-171


 

 Beitrag 0-155
Steven Hawking: Zum Wesen physikalischer Modelle

 
 

 
Steven Hawkings Standpunkt

Über die Grenzen physikalischer Modelle

 
 


Hawking 1996:
 
Ich nehme den positivistischen Standpunkt ein, dass jede physikalische Theorie nur ein mathematisches Modell darstellt und dass es nicht sinnvoll ist, zu fragen, ob es der Wirklichkeit entspricht:
 
Man kann nur fragen, ob seine  V o r h e r s a g e n  mit den Beobachtungen in Einklang stehen.

 


 
 
Quelle: Hawking und Penrose: Raum und Zeit, Rowohlt 1998, Seite 10
 
Titel der Originalausgabe: The Nature of Space and Time, Princeton University Press (1996)

 
Note: Wissenschaftstheoretiker verstehen unter dem positivistischen Standpunkt die Überzeugung, dass man sich zum Gewinnen von Erkenntnissen nur auf positive Befunde im Sinne der Naturwissenschaften zu stützen und transzendentale Begründungen zu verwerfen habe.

 

 Beitrag 0-157
Genauigkeit und Grenzen der derzeit aktuellen physikalischen Modelle

 
 

 
Genauigkeit der aktuellen physikalischen Theorien

 
 
Die derzeit aktuellen, durch viele Experimente gut bestätigten physikalischen Theoren des 20. Jahrhunderts sind

Roger Penrose schreibt ( 1996 ):
 
Manche behaupten, die QFT sei mit ihrer Genauigkeit von etwa 1 : 1011 die bisher genaueste physikalische Theorie.
 
Ich jedoch möchte darauf hinweisen, dass sich die ART inzwischen in einem wohldefinierten Sinne mit einer Genauigleit von sogar 1 : 1014 als korrekt erwiesen hat und dass die i.W. nur die entsprechend beschränkte Präzision der Uhren auf der Erde zu dieser Grenze führt.
     
    Ich rede da vom Binärpulsar PSR 1913 + 16, d.h. von zwei sich umkreisender Neutronensterne, von denen einer ein Pulsar ist.
     
    Der ART nach sollte die Umlaufbahn allmählich enger (und die Periode entsprechend kürzer) werden, da wegen der Aussendung von Gravitationswellen Energie verloren geht.
     
    Und genau das hat man beobachtet; die gesamte Beschreibung der Bewegung, welche von den Newtonschen Bahnen an einem Ende der ART-Korrekturen in der Mitte bis hin zu der Beschleunigung der Bahnbewegung durch Gravitationswellen am anderen Ende führt, stimmt mit der Vorhersage der ART (in welche ich Newtons Theorie mit einbeziehe) überein — und zwar mit der eben erwähnten Genauigkeit.
     
    Dies hat sich aus Beobachtungen über einen Zeitraum von 20 Jahren hinweg ergeben.
     
    Den Entdeckern dieses Systems wurde völlig zu Recht der Nobelpreis verliehen.

 
Quantentheoretiker haben immer wieder verlangt, man solle wegen der Genauigkeit ihrer Theorie die ART ändern, um sie in den Rahmen der QT einzufassen. Ich aber glaube, dass es jetzt an der QFT ist, ein wenig auzuholen.
 
Obgleich diese Theorien ganz bemerkenswert erfolgreich sind, haben sie doch auch Probleme:
     
  • Das der QFT besteht darin, dass man bei der Berchnung der Amplitude eines mehrfach zusammenhängenden Feynman-Diagramms zunächst stets eine nach unendlich divergierende Antwort bekommt. Diese Unendlichkeiten müssen als Teil des Renormierungsprozesses der Theorie subtrahiert und wegskaliert werden (ein mathematisch fragwürdiges Vorgehen).
     
  • Die ART sagt die Existenz raumzeitlicher Singularitäten voraus.
     
  • In der QT schließlich gibt es das » sog. Messproblem «.

Vielleicht liegt die Lösung dieser Probleme in der Beseitigung möglicher Ungenauigkeiten dieser Theorien.
     
  • Viele gehen z.B. davon aus, dass die QFT die Singularitäten der ART irgendwie » ausschmieren « könnte.
     
  • Die Divergenzprobleme der QFT könnten — tweilweise wenigstens — durch ein ultraviolettes Cutoff aus der ART gelöst werden.
     
  • Das Messproblem der QT, so denke ich, wird letztlich dadurch gelöst werden, dass man ART und QT sinnvoll zu einer neuen Theorie vereinigt.

 


 
Quelle: Hawking und Penrose: Raum und Zeit, Rowohlt 1998, Seite 87-89
 
Titel der Originalausgabe: The Nature of Space and Time, Princeton University Press (1996)


 

 Beitrag 0-165
Feldtheorien und Elementarteilchen-Modelle darf man nicht allzu wörtlich nehmen

 
 

 
Alle heute bekannten Elementarteilchen-Modelle

sind nur effektive Theorien

 
 
Eine Theorie wird effektiv genannt, wenn sie eine (meist noch unbekannte) tiefere Theorie vereinfachend oder zusammenfassend darstellt
 
mit dem Ziel, praktikabel zu werden.


Rüdiger Vaas (2003):
 
Obgleich ein operationaler Teilchenbegriff in der Experimentalphysik unverzichtbar bleibt — die Partikel werden dort als mikroskopische Ursache lokaler Wirkungen gesehen (als Klicks im Zählrohr-Detektor, als Lichtblitze oder als Spur in einer Nebelkammer) — bedeutet das noch lange nicht, dass Teilchen mikroskopische Bestandteile makroskopischer Dinge sind:
 
Sehr wahrscheinlich geben selbst die besten gegenwärtigen Theorien der Elementarteilchenphysik trotz aller Erfolge keine fundamentale, sondern nur eine effektive Beschreibung.
 
Es ist nicht einmal klar, von welchen Entitäten die Quantenfeldtheorien denn eigentlich handeln bzw. welche Teile der Formalismen überhaupt etwas physikalisch Reales repräsentieren:
     
  • Beschreiben sie wirklich Felder, wie es den Anschein hat und meistens angenommen wird?
     
  • Und was sind Felder genau?
     
  • Kann man sich Feldquanten oder Wellenpakete auch ohne sie vorstellen?
     
  • Oder sind ganz andere Kategorien des Seins anzunehmen, Eigenschaftsbündel etwa?
     
  • Oder handelt es sich um abstrakte Beziehungen oder Strukturen?

All diese Alternativen werfen schwierige Probleme auf. Im sog. Strukturenrealismus beispielsweise wird neuerdings der relationale Charakter der Entitäten betont. Demnach wäre das, was Materie » ist «, gar nicht so wichtig, wäre vielleicht sogar unerkennbar, im Vergleich zur Deutlichkeit, mit der sich die abstrakten Beziehungen zeigen.
 
Ein solcher Strukturen-Realismus spiegelt sich auch in der Klassifikation der verschiedenen Quanten oder Quantenfelder wider, wie sie durch abstrakte Symmetrien — durch Gruppen im Sinne der Gruppentheorie — erfasst werden.
 
Solche Relationen gelten
     
  • in den Varianten des ontischen Struktur-Realismus als real und eventuell sogar fundamental,
     
  • in den epidemistischen Varianten aber nur als Beschreibungswerkzeuge, so dass sich dann die Frage stellt, was diese Strukturen gewissermaßen aufspannt.

Will man keinen antinaturalistischen Platonismus vertreten — d.h. behaupten, dass nur » reine Ideen « real sind « sondern stattdessen einen wissenschaftlichen Realismus, so müsste geklärt werden, zwischen was die strukturellen Beziehungen denn eigentlich bestehen.
 
Die alten Fragen der vorsokratischen Philosophen sind also nach wie vor ungelöst, aber aktueller und diffiziler denn je.
 
Auf jeden Fall gilt:
 
Den modernen Quantenfeldtheorien zufolge gibt es
 
weder klassische Teilchen noch räumlich lokalisierbare Trajektorien (Bahnen).

 
Die von Heisenberg nachgewiesene Unschärfe von Ort, Impuls, Energie und Zeitpunkt
     
  • setzt nicht nur Grenzen für Messung,
     
  • sondern unterminiert darüber hinaus auch das Konzept klassischer Eigenschaften.

Innere Freiheitsgrade und Eigenschaften von "Teilchen" sind extrem unanschaulich (Spin) und z.T. sogar ständig wechselnd (etwa bei Neutrino-Oszillation).
 
Ferner sind Teilchen gleichen Typs ununterscheidbar — man kann sie also nicht mal in Gedanken nummerieren oder unterschiedlich einfärben.
 
Seltsam ist auch ihre quantenmechanische Nicht-Lokalität (wie Verschränkung sie zeigt).
 
Trotzdem sind "Teilchen" experimentell lokalisierbar.
 
Noch kurioser: Die Zahl solcher "Teilchen" kann je nach Bezugssystem unterschiedlich sein (Unruh-Effekt), ist also beobachterabhängig.
 
Zudem kommt es laufend zu Erzeugung, Vernichtung und Transformation von "Teilchen" bis hin zu beliebig virtuellen, die sich nicht wirklich aus dem Vakuum isolieren lassen, aber dennoch messbare Effekte haben (Lamb-Shift, Casimir-Effekt).
 
Und selbst der Raum scheint den spekulativen Ansätzen der Quantengravitationstheorie zufolge emergent zu sein, d.h. aus fundamentaleren Entitäten aufgebaut. Es deutet sich an, dass er möglicherweise noch nicht mal irreduzibel 3-dimensional ist.
 
 
Nach diesen atemberaubenden Entwicklungen der Teilchenphysik, die aber noch keineswegs abgeschlossen sind, muss man sich fragen, was letztlich vom klassischem Atomismus noch übrig bleibt: und das, obgleich er doch bis Ende des 19. Jahrhunderts nur Spekulation, dann aber so glänzend bestätigt schien.
 


 
Quelle: Rüdiger Vaas: Vom Gottesteilchen zur Weltformel, Kosmos-Verlag 2013, S. 62-65


 

 Beitrag 0-308
Wie sich moderne Physik ein Quant vorstellt

 
 

 
Wie man sich Quanten vorzustellen hat

 
 
Die moderne Physik modelliert jedes unteilbare  Q u a n t  als eine sich wellenförmig ausbreitende Feldanregung in einem der 4 Felder physikalischer Grundkräfte:
     
  • dem elektromagnetischen Feld,
     
  • dem Feld der schwachen Wechselwirkung,
     
  • dem Feld der starken Wechselwirkung und — nicht zuletzt —
     
  • dem Gravitationsfeld.

Da der Raum 3 Dimensionen hat, handelt es sich dabei um Kugelwellen.
 
Jede von ihnen breitet sich aus analog zur Anregung einer ruhenden Wasseroberfläche, die zustande kommt, wenn man einen Stein ins Wasser wirft: Man kann beobachten, dass die Welle sich kreisringartig ausbreitet, an Hindernissen gebeugt wird und dass solche Wellen miteinander interferieren. Die Front der Welle ist der äußere Rand des Kreisringes, ihr Ende sein innerer Rand, und der Beugung an einem Hindernes wegen, muss dieser Rand seine kreisförmige Form nicht behalten. Hinter Hindernissen, um die herum er gedrückt wird, kann er sogar mit sich selbst interferieren [ Stichwort: Doppelspaltexperiment ].
 
Mit Anregungen 3-dimensionaler Felder ist es nicht anders: Jede von ihnen breitet sich aus wie die Haut eines Ballons, der aufgeplasen wird. Präsent — in dem Sinne, dass sie dort Kraft darstellt und somit Wirkung hervorrufen kann — ist die 3-dimensionale Welle überall dort, wo sich die Haut des Ballons gerade befindet.
 
Jede Feldanregung trägt eine unteilbare Portion von Energie — Energie also, die nur auf einen Schlag verbraucht werden kann in dem Sinne, dass sie sich mit einem anderen Quant vereinigt und diese Vereinigung — als neues Quant, das nicht selten sofort wieder zerfällt — neue Feldanregungen zur Folge hat: Die Summe sie darstellender Portionen von Energie ist immer gleich der Summe der beiden Portionen von Energie, deren Kollision das Quantenereignis ausgelöst hat.
 
Über solche Ereignisse hinaus wird natürlich auch jede Quantenfluktuation Feldanregungen erzeugen.
 
 
Jede dieser Kugelwellen — jedes Quant — existiert, bis es sich als unteilbare Portion von Energie schlagartig mit einem anderen vereinigt
 
und die Stelle, an der das geschieht, zum Ausgangspunkt neuer Feldanregungen wird.

 
 
Note: Der Welle-Teilchen-Dualismus gilt heute als überholt, da wir jetzt wissen, dass das "Teilchen" als Kugelwelle weit ausgebreitet sein kann und die Region, in der es existiert, nicht verwechselt werden darf mit dem Punkt darin, an dem es "beobachtet" wird, an der es also aufhört zu existieren. Was wir von dort empfangen und als das beobachtete "Teilchen" interpretieren, sind schon die neu entstandenen Feldanregungen.

 
 
VORSICHT aber:
 
Dieses Quantenmodell stellt Realität dar — nicht notwendig die uns unbekannte Wirklichkeit.


Josef Hohnerkamp ( 2015 auf S. 244 seines Buches Wissenschaft und Weltbilder ):
 
Wir können einzelne Quanten manupulieren und genau berechnen, wie sie sich in jeder experimentellen Situation verhalten,
 
aber wir werden nie sagen können, was ein Quant denn in Wirklichkeit ist.

 


Eben das sagt uns in etwas anderen Worten auch Hawking als Kosmologe:

Steven Hawking ( 1993 ):


  Es hat keinen Zweck, sich auf die Wirklichkeit zu berufen, da wir kein modellunabhängiges Konzept der Wirklichkeit besitzen.

Nach meiner Meinung ist der unausgesprochene Glaube an eine modellunabhängige Wirklichkeit der tiefere Grund für die Schwierigkeiten, die Wissenschaftsphilosophen mit der Quantenmechanik und dem Unbestimmtheitsprinzip haben.

Quelle: Mein Standpunkt


 
Natürlich sind diese beiden Vertreter der Theoretischen Physik nicht die einzigen, die das so sehen. Vor ihnen haben schon Niels Bohr, Immanuel Kant und sogar der Vorsokratiker Parmenides (etwa 500 v. Chr.) darauf hingewiesen.

 

 Beitrag 0-239
Die beiden notwendigen — sich gut ergänzenden — physikalischen Weltmodelle

 
 

 
Klassische und quantenphysikalische Weltbeschreibung

 
 
Die Weltbeschreibung der klassischen Physik zerlegt die Welt in Objekte, die einzeln erkannt und untersucht werden können. und unter Wechselwirkung ihre Identität und Eigenexistenz behalten. Es wird damit möglich, zu betrachten, wie sich ihr Zustand über die Zeit inweg entwickelt.
 
Anders die Weltbeschreibung der Quantenphysik: Sie erkennt, dass Wechselwirkung den quantenphysikalischen Objekten — die man dort ja sämtlich als Pakete von Feldanregungen sieht — ihre Identität nimmt und sie in etwas aufgehen lässt, in dem sie so verschmelzen sind, dass sie danach nicht mehr als einzeln existent — als sich selbst bestimmte Form gebend — aufgefasst werden können.
 
Da der rein quantenphysikalische Zustand der Welt — als Wellenfunktion des Universums — keine durch ständige Veränderung uns nahe gelegte Zeit kennt, sind Vergangenheit, Gegenwart und Zukunft in ihr nicht wirklich vorhanden. Sie ist zeitlos, denn der Zeitparameter der Wellenfunktion ist dort nur eine Dimension im mathematischen Sinne.
 
Die Zeitlosigkeit des quantenphysikalischen Weltmodells führt zum seltsamen Phänomen von "delayed choice", der verzögerten Wahl, bei der jeder Kollaps der Wellenfunktion neu entscheidet, was als zuvor gewesen gilt, so dass ein Unterschied zwischen früher und später jeden Sinn verliert.
 
 
Das Verbleiben des Quantischen im Bereich der Möglichkeiten hat zur Folge, dass das Mitteilen und Erklären auch quantischer Zusammenhänge nur im Rahmen klassischer Physik möglich ist. Andererseits ist das Quantische Grundlage auch jeder quantischen Weltbeschreibung. Mit anderen Worten:
 
 
Für eine vollständige Erfassung des Weltgeschehens sind  b e i d e  Beschreibungen unverzichtbar.

 
 
Görnitz bezeichnet dies als die dynamische Schichtenstruktur unserer Welt und schreibt:

Görnitz (2002):
 
Die Schichtenstruktur ergibt sich, da sich die Welt weder voll deterministisch noch nur durch Zufall gesteuert entwickelt.
 
Da die menschliche Psyche ein Teil der Natur ist, wird auch sie sämtlichen Gesetzmäßigkeiten unterworfen sein, die für die Natur generell gelten. Und so wirkt auch in ihrem Bereich die dynamische Schichtenstruktur.
 
Phsychoanalytische Konzeptionen ebenso wie die Säuglingsforschung bestätigen diese Erwartung.
 
Freud etwa definiert eine ihm wichtige Unterscheidung in primär und sekundär prozesshaftes Denken. Im Sinne dieser Unterscheidung sind
     
  • die primären Prozesse jene, die unbewusst ablaufen und weder die klassische Logik noch die reale Zeitstruktur berücksichtigen.
     
  • Sekundärprozesshaftes Denken ist das streng rationale Denken, welches im sich selbst reflektierenden Bewusstsein mündet.

Freud war der Meinung, dass letzteres erst später ausgebildet werde, dass also nur das primärprozessartige Denken von Anfang an gegeben sei.
 
Heute denkt man, dass das eher nicht richtig ist und dass auch das primär prozessartige Denken sich mit der Zeit verändere.
 


Quelle: Thomas & Brigitte Görnitz: Der kreative Kosmos, Spektrum-Verlag (2002), S. 327-328

 
 
Da ständiger Kollaps der Wellenfunktion die quantenphysikalische Beschreibung unserer Welt laufend durch eine leicht abgeänderte Version ihrer selbst ersetzt, lässt sich das quantenphysikalische Weltbild mit einem Film vergleichen, dessen schnell aufeinander folgende Bilder (Frames, wie der Fachman sagt) die durch jeweils einen Kollaps der Wellenfunktion geschaffenen Fakten zeigen.
 
Die Weltbeschreibung der klassischen Physik entspricht dem, was der Betrachter dieses Filmes sieht und was er gerade noch registrieren kann.
 
Mathematisch gedacht könnte man jeden Frame F des Films — der einen faktisch gewordenen Zustand X zeigt — vergleichen mit dem Tangentenraum an eine differenzierbare Mannigfaltigkeit W, welche unsere Welt nicht nur als Ergebnis von Ereignis X, sondern über die gesamte Raumzeit hinweg modelliert.

 

 Beitrag 0-240
Verschiebung (im Sinne der Psychologie) und ...

 
 

 
Verschiebung (im Sinne der Psychologie)
 
und was sie quantenphysikalisch sein könnte

 
 
Man versteht darunter die Tatsache, dass der Akzent — die emotionale Bedeutung oder auch die Intensität — von Vorstellungen sich von ihnen lösen und auf andere übertragen kann, die mit den ersten durch Emotionsketten verbunden sind.
 
Quanteninformation kann sich unter bestimmten Bedingungen in Teile aufspalten, und diese Teile können sich als eigenständige Objekte mit anderen neu zusammenfinden und so neue Ganzheiten bilden.
 
Derartige Vorgänge finden auch bei einer Verschiebung statt, die sich im Unterbewusstsein abspielt, bei dem sich ein emotionaler Informationsanteil — z.B. wegen seines bedrohlichen Inhalts — von seiner objektiven Verursachung ablösen und auf andere, als weniger bedrohlich empfundene, übetragen kann.
    So mag man sich z.B. über den Chef ärgern, schluckt diesen Ärger herunter, und wird dann am Abend daheim plötzlich über eine Reaktion der Kinder ärgerlich, die man unter anderen Umständen kaum zur Kenntnis genommen hätte.

In der Sprache der Quantentheorie hat man es hier mit einer Transformation von Zuständen zu tun, die
     
  • sowohl als Bewegung ( unitäre Drehungen ) im Hilbert-Raum.
     
  • als auch als Projektionsvorgänge
zu verstehen sind.
     
  • Im ersten Fall hat man es mit reiner Quanteninformation zu tun, die Veränderung von Wahrscheinlichkeiten darstellt, ohne dass hierbei etwas faktisch werden würde.
     
    Dieser Vorgang ist reversibel und wäre ohne weiteres rückgängig zu machen.
     
     
  • Der zweite Fall aber entspricht einer "Messung", bei der etwas "passiert". Sie muss nicht vollständig, sondern kann auch teilweise sein in dem Sinne, dass nicht auf einen ganz bestimmten Zustand projeziert wird, sondern auf einen Teilraum dann immer noch möglicher Zustände.
     
    In diesem Fall aber kann der Vorgang nicht mehr ungeschehen gemacht werden, da Projektionen ja nicht injektiv sind.
     
    Dies kann als ein Modell für Verschiebung im psychologischen Sinne dienen.

 
 
Quelle: Thomas & Brigitte Görnitz: Der kreative Kosmos, Spektrum-Verlag (2002), S. 330-331


 

 Beitrag 0-256
Warum wohl keine umfassende physikalische Theorie zeitsymmetrisch sein kann

 
 

 
Können zeitinvariante physikalische Theorien vollständig sein?

 
 
Da die Physik all ihre Theorien mathematisch formuliert, ist jedes physikalisch beschriebene Geschehen eine Funktion der Zeit.
 
Eine der ganz wenigen nur teilweise zeitinvarianten physikalischen Theorien ist die Quantenphysik, denn:
     
  • Die Schrödinger-Gleichung ist zeitsymmetrisch,
     
  • der Kollaps der Wellenfunktion aber ist es nicht.

Hieraus folgt: Würde man irgendwann eine sog. Weltformel finden — eine absolut vollständige physikalische Theorie für alles im gesamten Kosmos mögliche Geschehen — oder auch nur eine Theorie der Quantengravitation, so könnte sie nicht zeitsymmetrisch sein.
 
 
Unsere bisher genaueste Theorie des Makrokosmos ist Einsteins Allgemeine Relativitätstheorie (ART). Jede ihrer Lösungen — betrachtet als Funktion der Zeit — beschreibt mögliches kosmisches Geschehen, z.B. den gesamten Lebenslauf eines Schwarzen Lochs.
     
  • Ersetzt man in dieser Lösung L(t) die Zeitvariable t durch -t, so erhält man eine weitere Lösung der Theorie.
     
  • Beschreibt L(t) ein Schwarzes Loch, so nennt man das durch L(-t) beschriebene Geschehen die Geschichte eines Weißen Lochs.
     
  • Andererseits könnte L(t) aber auch die Geschichte eines Menschen beschreiben. Was aber würde dann L(-t) beschreiben?

Konsequenz daraus:
 
Die Existenz sog. Weißer Löcher ist ebenso unwahrscheinlich wie die Existenz von Menschen, die aus dem Grab erstehen und ihr Leben rückwärts durchlaufen.
 
 


Klaus Mainzer (1995):
 
Im Rahmen der relativistischen Kosmologie ist Zeit nur eine reelle Koordinate, um Ereignisse zu markieren. Die Frage, was "vor" der Anfangssingularität [ dem sog. Urknall ] war, ist mathematisch nicht definiert und daher sinnlos.
 
Auch die Rede von einer "Schöpfung" der Zeit ist mathematisch im Rahmen der Relativitätstheorie nicht definiert.
 
Wir müssen streng unterscheiden zwischen
     
  • den definierten Begriffen einer physikalischen Theorie
     
  • und weltanschaulichen Interpretationen.
 
Die Singularitäten von Einseins Theorie sagen die Möglichkeit sehr kleiner Gebiete der relativistischen Raumzeit voraus, in denen die Krümmung der Raumzeit — und somit auch die Gravitation — beliebig groß werden kann.
 
Astrophysikalisch werden dieses Singularitäten gedeutet als "Schwarze Löcher", denen der Tod eines Sterns durch Gravitationskollaps vorausging. Dazu wird eine 3-dimensionale Oberfläche angenommen — genannt "absoluter Ereignishorizont" — die alle von außen einfallenden Signale verschluckt und nichts wieder nach außen lässt.
 
Im Zentrum des durch den Ereignishorizon begrenten Bereichs wird die raum-zeitliche Singularität angenommen, in der die Krümmung der Raumzeit unendlich wird: Ein absoluter Endpunkt für kausale Zeitsignale.
 
 
... Da die Spezielle ebenso wie die Allgemeine Relativitätstheorie zeitsymmetrisch sind, sagt Einsteins Theorie auch das zeitlich gespiegelte Verhalten eines Schwarzen Lochs voraus, d.h. "unendlich" dichte Materipunkte, aus denen Lichtsignale explodieren (sog. Weiße Löcher).
 
Diese mathematische Konsequenz der zeitsymmetrischen Theorie gilt jedoch als physikalisch unwahrscheinlich und wurde von R. Penrose durch seine Ad-hoc-Hypothese "Kosmischer Zensur" ausgeschlossen.
 
 
Damit werden Erklärungsdefizite der relativistischen Kosmologie deutlich.
 
 
... In der derzeitigen Quantenmechanik und Quantenfeldtheorie ist das Problem der Zeitsymmetrie noch nicht abschließend geklärt. Einerseits sind die Quantengleichungen zeitsymmetrisch, gestatten also die Zeitumkehr. Andererseits trennen in der Gegenwart stattfindende Messvorgänge Vergangenheit und Zukunft der Systeme in einer irreversiblen Weise. Man erhofft von einer Vereinigung der Quanten- mit der Relativitätstheorie eine Klärung dieses Problems, die Vereinigung beider Theorien zu einer einheitlichen Quantengravitationstheorie ist aber noch nicht gelungen, obwohl es erste Ansätze von Hawking zu einer solchen Theorie gibt.
 



Quelle: Klaus Mainzer: Zeit — von der Urzeit zur Computerzeit, Beck'sche Reihe (1995, 2011), S. 54-55.
 
Klaus Mainzer, Ordinarius für Wissenschaftstheorie an der Uni Augsburg, hat Mathematik, Physik und Philosophie studiert.


 

 Beitrag 0-257
Zur — oft missverstandenen — Qualität physikalischer Aussagen

 
 

 
Zur Qualität physikalischer Aussagen

 
 
Die Sprache der Physik ist Mathematik.
 
Dies bedeutet aber nicht, dass physikalische Aussagen ebenso richtig sein müssen wie – logisch fehlerfrei abgeleitete – mathematische Aussagen:

 


Wolfgang Kinzel, Lehrstuhl für theoretische Physik III Universität Würzburg, schrieb:
 
Es gibt keine wahren Aussagen in der theoretischen Physik, sondern nur Aussagen, die eine Vielzahl von Experimenten beschreiben und ihr Ergebnis vorhersagen können.
 
Die Mathematik dagegen hat eine andere Zielsetzung. Sie geht von Axiomen und präzisen Definitionen aus und leitet daraus Aussagen her, die streng logisch aus den Axiomen gefolgert werden sollen. Die bewiesenen Aussagen der Mathematik sind Wahrheiten, die – falls der Beweis richtig war – nie widerlegt werden können.
 


 
Um das zu verstehen,muss man wissen: Physikalische Aussagen sind  D e u t u n g  der Aussagen mathematischer Modelle im Lichte unser Realität, d.h. unserer Sinneswahrnehmung interpretiert durch unser Gehirn.
 
Jede solche Deutung wird irgendwie hinken — ist also stets nur mehr oder weniger grob zutreffend.
 
 
Schönes Beispiel hierfür ist Heisenbergs Aussage über unsere Atommodelle:

Heisenberg (Zitat aus 1945):
 
Das Atom der modernen Physik kann allein nur durch eine partielle Differentialgleichung in einem abstrakten, vieldimensionalen Raum dargestellt werden. Alle seine Eigenschaften sind gefolgert; keine materiellen Eigenschaften können ihm in direkter Weise zugeschrieben werden. Das heißt: Jedes Bild des Atoms, das unsere Einbildung zu erfinden vermag, ist aus diesem Grunde mangelhaft. Ein Verständnis der atomaren Welt in jener ursprünglich sinnlichen Weise ist unmöglich.
 

    Nebenbei noch: Wie aus Heisenbergs Unbestimmtheitsrelation — angewandt auf das Paar Energie und Lebendauer virtueller Teilchen — folgt, wird in jedem noch so kleinen Zeitintervall durch ständig und überall gegebene Quantenfluktuation nicht nur die Differentialgleichung, von der er spricht, sondern auch die Zahl der Dimensionen des "vieldimensionalen" Raumes, über dem sie definiert ist, fortlaufend modifiziert.


 

 Beitrag 0-361
Warum weder Quantenphysik noch Einsteins Theorie beliebig große Energiedichte kennen

 
 

 
Warum heutige Physik bei hoher (aber noch endlicher) Energiedichte versagt

 
 
In vielen Büchern wird behauptet, dass im Zentrum Schwarzer Löcher — und auch im Urknall — es zu unendlich großer Materiedichte käme.
 
Tatsächlich aber gilt, dass heutige physikalische Modelle bei hinreichend hoher — aber durchaus noch endlich großer
— Dichte undefiniert werden.
 
     
  • Erstens: Einsteins ART kann nicht bis in den Urknall hinein formuliert werden, denn hierfür wäre es nötig, für jeden dem Urknall noch so nahen Raumzeitpunkt einen Energie-Impuls-Tensor
     
    Ti,k   =   Ti,k ( ρ,P )

     
    formulieren zu können ( ρ die Energiedichte, P der Druck ).
     
    Dies aber ist nicht möglich, da sich Baryonen nicht genauer als bis hin zu ihrer Compton-Wellenlänge ( λ = h/mc ) lokalisieren lassen. Mit anderen Worten: Wegen der unvermeidlichen quantenphysikalischen Unschärfe kennen heute bekannte physikalische Modelle keine sinnvollen Dichten größer als
     
    1064 g/cm3  =  mN/λ3

    Hier ist m die Masse des Protons und N die Zahl aller Baryonen im Universum.
     

     
  • Zweitens: Schon bei der sehr viel kleineren Planckdichte (= 1056 g/cm3 ) brechen unsere Modelle zusammen, denn ab da wächst der Schwarzschildradius jeden Baryons über seine Comptonwellenlänge hinaus, so dass sich unter solchen Drucken jedes Baryon als Schwarzes Loch darstellt.
     

     
  • Drittens: Eine nochmals um gut 40 Größenordnungen kleinere obere Grenze für sinnvolle Dichte-Angaben impliziert allein schon das Pauliprinzip, nach dem Raumwürfel kleiner als h3 keine zwei Baryonen enthalten können. Dies hat eine maximal gerade noch sinnvolle Dichte von
     
    m/λ3  =  1015 g/cm3

    zur Folge, jenseits derer heutige Quantenphysik versagt.

 
Wir sehen: Bei hinreichend großer Dichte sind beide — Einsteins Theorie ebenso wie die Quantenphysik — gar nicht mehr anwendbar (weswegen die Physiker sich denn auch so dringend eine Quantengravitationstheorie wünschen).
 
 
 
Quelle: Hans Jörg Fahr: Mit oder ohne Urknall, 2. Auflage 2016, S. 326-328


 

 Beitrag 0-289
Warum Physiker die Planck-Länge als untere Grenze gerade noch Sinn machender Abstandsangaben sehen

 
 

 
Warum Physiker die Planck-Länge als untere Grenze
 
aller gerade noch Sinn machenden Abstandsangaben sehen

 
 
Der Physiker Gerhard Graw erklärt uns das in seinem Aufsatz Kosmologie, einfach auf Seite 20-21 wie folgt:

Gerhard Graw:
 
Einsteins Allgemeine Relativitätstheorie kennt den Urknall nur als Singularität, in der alle Abstände zu Null schrumpfen. Diese mathematische Aussage widerstrebt dem physikalischen Denken. Wie kleine Abstände also kann man sich als gerade noch sinnvoll vorstellen?
 
Auch wenn wir noch keine Theorie haben, die Gravitation und Quantenmechanik vereinigt, kann man folgende Überlegung anstellen:
 
Heisenbergs Unschärferelation besagt, dass bei extremer Beschränkung des Raums der Impuls und damit die Energie sehr groß werden. Nun lässt sich aber jeder Masse (bzw. jeder Konzentration von Energie) ihr sog. Schwarzschild-Radius zuordnen. Wird er größer als die betrachtete Lokalisation, so diskutiert man eine Lokalisation innerhalb eines Schwarzen Lochs. Das aber ist von einem Standpunkt außerhalb des Lochs physikalisch sinnlos.
 
Daher also wird eine Länge von 10-35 Meter, als kleinster, physikalisch gerade noch Sinn machender Wert für Abstandsangaben gesehen.
 


 
Andere Gesichtspunkte sind:


Leonard Sussind ( in Der Krieg um das Schwarze Loch, S. 248-250 ):
 
In den letzten Jahtren haben wir — die Elementarteilchen-Physiker — Beweise dafür gesammelt, dass die Maschinerie im Inneren von Teilchen nicht viel größer, aber auch nicht viel kleiner ist als die Plancklänge:
 
Nach gewohnter Vorstellung ist die Gravitationskraft im Vergleich zu elektromagnetischen und subnuklearen Kräften derart schwach, dass sie für das Verhalten von Elementarteilchen vollkommen irrelevant ist.
 
Auf Skalen kleiner oder gleich der Plancklänge allerdings übertrifft die Stärke der Gravitation zunehmend die der anderen drei Grundkräfte der Natur.
 
Es könnte deswegen im Bereich des Allerkleinsten — dort also, wo selbst noch Elektronen komplizierte Strukturen sind — die Gravitation die wichtigste aller Kräfte sein. Daher sollten auch Teilchenphysiker sich bemühen, die im Entstehen begriffene Theorie der Quantengravitation zu verstehen.
 
Interessant ist, dass selbst die Kosmologen nicht um eine Quantentheorie der Gravitation herumkommen: Es ist ja bekannt, dass das Universum früher weit größere Teilchendichte hatte als heute. Die Photonen des kosmischen Mikrowellenhintergrunds etwa haben heute einen Abstand von etwa 1 cm, waren aber umso dichter gepackt, je weiter wir in die Vergangenheit zurückgehen. Es spricht einiges dafür, dass sie zur Zeit des Urknalls nicht weiter von einander entfernt waren als nur eine Plancklänge. Sollte das zutreffen, wären die damals wichtigsten Kräfte zwischen ihnen gravitativer Natur gewesen. Mit anderen Worten:
 
 
Eine Theorie der Quantengravitation ist für die Elementarteilchenphysik ebenso wichtg
 
wie für die Kosmologen, welche den Urknall zu verstehen versuchen.

 



 

 Beitrag 0-294
Was man sich unter einem » Paradigmenwechsel « vorzustellen hat

 
 

 
Was man sich unter einem » Paradigma « vorzustellen hat

 
 
Thomas S. Kuhn — einer der bedeutendsten Wissenschaftsphilosophen des 20. Jahrhunderts — verstand darunter ein in einer bestimmten Epoche dominierendes Denkmuster. In den Wissenschaften ist das meist eine Modellvorstellung, anhand derer man sich bestimmte Sachverhalte zu erklären versucht.
 
Wenn sich eine neue Theorie durchsetzt, um eine bis dahin allgemein anerkannte Lehrmeinung abzulösen, sprechen wir von einem Paradigmenwechsel.
 
In seinem Buch Grenzen des Wissens schreibt der Wissenschaftsjournalist John Horgan:
    Die meisten Wissenschaftler bekehren sich nur widerwillig zu einem neuen Paradigma. Häufig verstehen sie es nicht, denn es gibt kaum objektive Regeln, nach denen Paradigmen beurteilbar wären. Und so können Anhänger verschiedener Paradigmen endlos miteinander streiten, ohne sich einigen zu können.
     
    Der Grund hierfür: Nicht selten ordnen unterschiedliche Paradigmen wichtigen Grundbegriffen – etwa den Begriffen Teilchen oder Zeit – unterschiedliche Bedeutung zu.
Neue Theorien setzen sich deswegen oft erst durch, nachdem die Anhänger des alten Paradigmas verstorben sind.

 

 Beitrag 0-306
Wie moderne Physik sämtliche Energie tragenden Elementarteilchen — Materie und Strahlung — modelliert

 
 

 
Was sind (derzeit) die elementarsten Objekte der Physik?

 
 
Galileo Galileis Idee, das Verhalten der Natur über mathematische Formeln zu beschreiben, war weit mehr als nur ein Paradigmenwechsel: Es war der Beginn der Physik als Wissenschaft (vorher kannte man nur Naturphilosopie).
 
Nur zwei Generationen später hat Isaac Newton — auf dieser Idee aufbauend — die Physik zu ihrem ersten Höhepunkt geführt.
 
Der Erfolg seiner Gravitationstheorie war derart überzeugend, dass man von da an jeder dachte, alle Dinge der materiellen Welt seien Körper, deren Bewegung sich durch Newtons Theorie beschreiben ließe.
 
Später — als Michael Faraday elektromagnetische Phänomene endeckt und durch Felder gut beschreibbar gemacht hatte, dachte man, die Welt bestünde aus Teilchen und elektromagnetischen Feldern.
 
Erst im 20. Jahrhundert kamen Quanten dazu — und die Quantenmechanik als quantentheoretische Version der Mechanik.
 
Schließlich lag es nahe, dass es auch eine quantentheoretische Version der Elektrodynamik geben müsse, und so trat an die Stelle der elektromagnetischen Felder nun das allgemeinere Konzept der Quantenfelder, welches dann zu einer vereinheitlichten Theorie der elektromagnetischen, der schwachen und der starken Wechselwirkung führte.
 
Hohnerkamp schreibt:
    Alle experimentell nachprüfbaren Aussagen dieser Theorie wurden bestätigt, so dass es nun eine übergreifende logische Ordnung gibt.
     
    Für jedes Quant, dessen Existenz sich in Streuexperimenten — im CERN etwa — bemerkbar macht, gibt es jeweils ein Quantenfeld.
     
    Umgekehrt muss es für jedes Quantenfeld, das man dort aus Konsistenzgründen einführen muss, auch ein entsprechendes Quant geben.
     
    Bisher prominentestes Beispiel ist das sog. Higgs-Teilchen: Zunächst hat nur die Theorie seine Existenz vorhergesagt, nach langem Suchen ist es dann aber auch tatsächlich beobachtet worden.

Es gilt somit:

Die Gesamtheit der Quantenfelder ist das heute fundamentalste Konzept für alles,
 
was wir uns unter Energie darstellenden Objekten vorstellen können.

 
Die Frage ist nur, wann sich auch diese Vorstellung als unzureichend erweisen wird.

 

 Beitrag 0-314
Feynmans Erklärung für die relative Stärke der vier physikalischen Naturkräfte

 
 

 
Feynman's Modell der Quanten-Jongleure

 
 
Feynman beschrieb ein geladenes Teilchen als einen Jongleur von Photonen, der in dem die Ladung umgebenden Raum ständig Photonen emittiert und absorbiert.
    Ein stillstehendens Elektron etwa wäre ein perfekter Jongleur, der nie einen Fang verpasst.
     
    Aber wie bei einem menschlichen Jongleur in einem Eisenbahnwagen, kann plötzliche Beschleunigung des Wagens die Dinge durcheinander bringen: Die Ladung kann — aus Sicht des Jongleurs — aus ihrer Position herausgeworfen werden, so dass sie nicht am rechten Platz ist, das Photon zu absorbieren. Es fliegt dann davon als abgestrahltes Licht.

Wenn zwei solcher Jongleure im Eisenbahnwagen gemeinsam üben, fängt jeder seine eigenen Würfe auf, gelegentlich aber auch einen Wurf des jeweils anderen. Eben dies passiert auch, wenn zwei Ladungen sich hinreichend nahe kommen: Die Wolken aus Photonen, welche jede der Ladungenen umgeben, mischen sich, und so kann es passieren, dass eine der Ladungen [ genauer: eines der geladen Elementarteilchen ] auch mal ein Photon absorbiert, welches von der jeweils anderen emittiert wurde. Diese Vorgang nennt man Photonenaustausch.
 
Die schwierige Frage, ob solche Kräfte anziehend oder abstoßend wirken, kann nur durch Feinheiten der Quantenmechanik beantwortet werden. Feynmans Berechnungen zeigen, was Farady und Maxwell vorausgesagt hatten: Gleiche Ladungen stoßen einander ab, entgegengesetzte ziehen einander an.
 
Nach Feynmans Theorie jonglieren nicht nur elektrische Ladungen, sondern jede Art von Ladungen und damit ist wirklich  j e d e s  Materie darstellene Objekt so ein Jongleur. Ladungen in diesem Sinne sind neben elektrischer oder magnetischer Ladung natürlich auch die Farbladungen der Quarks und Gluonen sowie Ruhemasse.
 
Erde und Sonne etwa sind umgeben von Wolken von Gravitonen. Diese Wolken mischen sich, und so entsteht Gravitationskraft, welche die Erde auf ihrer Bahn um die Sonne hält.
 
Die Stärke der jeweiligen Kraft resultiert aus dem Mengengerüst jonglierter Bosonen:
     
  • Ein Elektron bringt es pro Sekunde auf etwa 1019 emittierte und absorbierte Photonen.
     
  • Doch mit welcher Häufigkeit emittiert und absorbiert ein einzelnes Elektron Gravitonen (Gravitationswellen)?
     
    Die Antwort ist überraschend: Bis ein Elektron ein einziges Graviton emittiert vergeht eine Zeitspanne, die größer ist als das bisherige Alter unseres Universums. Dies ist — nach Feynmans Theorie — die Ursache dafür, dass die Gravitationskraft zwischen Elementarteilchen so extrem schwach ist gegenüber der elektrischen Kraft.
     
    Aber ist denn nun Feynmans Theorie richtig oder die Feldtheorie von Faraday, Maxwell und Einstein?
     
    Tatsache ist: Beide sind wahr.
     
      Der Schlüssel, dies einzusehen, ist die Quanten-Komplementarität zwischen Wellen und "Teilchen" (= Energieportionen).

Note: Das durch die Wolke der jonglierten Teilchen erzeugte Quantenfeld nennt man ein Kondensat.

 
 
Quelle: Leonard Susskind: Der Krieg um das Schwarze Loch (2010), S. 402-411.


 

 Beitrag 0-363
Von welchem Modell des Weltraums Kosmologen heute ausgehen

 
 

 
Das Arbeitsmodell heutiger Kosmologen ist

die Robertson-Walker-Raumzeit

 
 
Heutige Kosmologie geht vom sog. kosmologischen Prinzip aus, insbesondere von der Annahme, dass die Raumzeit unseres Universums in sehr guter Näherung krümmungsisotrop ist.
 
Es ist dies die Annahme, dass die Bahn des Lichtes in jedem Weltpunkt gleiche Krümmung hat.
 
Bei gegebener Krümmungsisotropie lassen sich Einsteins Feldgleichungen deutlich vereinfachen:
     
  • Bewerkstelligt wird dies durch eine von Robertson und Walker eingeführte Form des metrischen Tensors, aus der dann eine höchst symmetrische Metrik resultiert, in der als variabel nur noch der Weltradius R = R(t) als unbekannte Funktion des Weltalters t auftritt.
     
  • Es gibt dann nur 3 mögliche Krümmungen deren jede sich über einen der Werte 1, 0 oder -1 (den sog. Krümmungsparameter) charakterisiert.
    Diese Werte implizieren elliptisch, gar nicht bzw. hyperbolisch gekrümmten Raum.

 
Details dazu finde man in » Die Robertson-Walker-Metrik und die Friedmann-Gleichung «, Ausarbeitung eines Seminar-Vortrags von Markus Michael (2011).
 
 
Bei der Interpretation durch Astronomen gesammelter Daten geht man heute — allein schon deswegen, weil man dazu ein hinreichend leicht zu handhabendes Modell des Alls benötigt — davon aus, dass unser Universum krümmungsisotop (und daher unsere Raumzeit eine vom Robertson-Walker-Typ) ist. Natürlich könnte sich das irgendwann als nicht mehr ausreichend herausstellen, denn es gibt im All ja riesige fast leere Räume (sog. Voids) in denen die Raumzeit deutlich weniger gekrümmt sein muss also im Inneren oder in naher Umgebung von Galaxienhaufen.
 
Unsere Milchstraße — so denkt man inzwischen erkannt zu haben — lebt relativ einsam in einem Void.

 

 Beitrag 0-360
Warum sind Quarks als Bestandteile eines Quark-Gluonen-Plasmas frei beweglich?

 
 

 
Wie man sich ein Quark-Gluonen-Plasma vorzustellen hat

 
Nukleonen — Protonen und Neutronen — in ihre Bestandteile, die jeweils 3 Quarks, zu zerlegen, ist ihrer so extrem starken Wechselwirkung wegen (sie wirkt wie ein Gummiband, das nicht zerreißen kann) unmöglich. Wie aber muß man sich dann ein Plasma vorstellen, dessen Teilchen nur Quarks und Gluonen sind?
 


Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 252-253 :
 
Die Kraft, welche — als sog. starke Wechselwirkung — in Protonen und Neutronen die Quarks zusammenhält, hat die erstaunliche Eigenschaft, dass sie mit zunehmendem Abstand der Quarks stärker (statt schwächer) wird. Eben deswegen lässt sich kein einzelnes Quark aus einen Proton oder Neutron herausbrechen.
 
Je näher Quarks nun aber zusammenrücken, desto schwächer wird jene Kraft. Man nennt das asymptotische Freiheit.
 
Dieses Verschwinden der Kraft macht sich bemerkbar, sobald Protonen und Neutronen auf extrem engen Raum zusammengedrückt werden — wie etwa in Neutronensternen und Schwarzen Löchern.
 
Dabei können die Mitglieder dieser Dreierverbände von Quarks einander so nahe kommen, dass die Kraft praktisch gar nicht mehr vorhanden ist, sie also gar keine Bindung an ihre Verbundpartner mehr spüren. Sie erkennen in einem solchen Zustand ihren eigenen Verbund vom Typ Proton oder Neutron nicht mehr, sondern verhalten sich mehr oder weniger wie absolut freie Teilchen.
 
Als solch freies Quark-Gluonen-Plasma hat die kosmische Materie direkt nach dem Urknall tatsächlich vorgelegen.
 


 
 
 
Gibt es Himmelskörper, die nur aus Quarks bestehen?

Sie wären dunkel und die ältesten überhaupt:



Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 255-257 :
 
Etwa 10-6 sec nach dem Urknall (= 1 Mikrosekunde) war das Quark-Gluonen-Plasma so weit abgekühlt, dass es zu kondensieren begann. Es war dies der Zeitpunkt, zu dem sich Protonen und Neutronen gebildet haben — vielleicht aber auch größere ladungsfreie farbneutrale Verbände von Quarks.
    Zum Vergleich: Wenn man Wasserdampf schnell und stark abkühlt, bilden sich winzige Schneeflocken.

Wie Crawford und Greiner ( 1994: The Search for Strange Matter ) errechnet haben, sind bei diesem Zerfall des Plasmas in schneeflockenartige Gebilde als Ergebnis am wahrscheinlichsten Teilchenverbände, die zu etwa gleichem Anteil aus up-, down- und strange-Quarks bestehen und sich nach einem inneren Schalenmodell unter Wahrung von Paulis Ausschließungsprinzip aufbauen lassen.
 
Man schätzt, dass sich auf diese Weise Multi-Quark-Kokons ergeben haben könnten, deren Durchmesser zwischen 10-7 cm bis hin zu 10 Zentimertern gereicht haben könnte. Edward Witten sagt voraus, dass sie i.W. zwischen 109 bis 1018 Gramm schwer sein sollten mit einem durchschnittlichen Durchmesser von dem einer Billardkugel. [ Bei einer zufälligen Kollision eins solchen Körpers mit der Erde würde er sie einfach durchschlagen und dabei lediglich eine Schockwelle im Erdkörper auslösen, mit der eventuell fürchterliche Verheerungen und Erdbeben einhergingen. ]
 
Die ganz normalen, uns heute bekannten Protonen und Neutronen würden sich dann sozusagen erst aus dem noch nicht kondensierten Rest der Quarks ergeben haben — nachdem die meisten strange-Quarks bereits in die leichteren Ups und Downs zerfallen waren und sich deswegen danach nur noch die üblichen farb­neutralen Dreier-Verbände bilden konnten.
 
Solche nur aus Quarks bestehen Mammutobjekte — weit kleiner, aber gut vergleichbar mit Neutronensternen — müssten sich heute noch auffinden lassen und könnten sogar den überwiegenden Teil aller Dunklen Materie darstellen. Sie wären sozusagen dunkle Sterne mit maximal wenigen Zentimetern Durchmesser: Winzige Staubkörner verglichen mit leuchtenden Sternen.
 
Unmengen von ihnen könnten sich gravitativ verklumpen, ohne dass dabei elektromagnetische Strahlung entstünde.
 
So wäre z.B. zu erklären, dass der Hydra-Zentaurus Galaxien-Haufen (ein Nachbar des Virgo-Clusters, in dem wir zuhause sind) mit seinen nie gesehenen 1015 Sonnenmassen nur wenig leuchtende Materie enthält.
 



 

 Beitrag 0-456
Astrophysikalische Begriffe

 
 

 
Astrophysikalische Begriffe
     
  • Magnetar
     
    Man versteht darunter einen Neutronenstern, dessen Magnetfeld das 1000-fache des bei Neutronensternen üblichen Wertes übersteigt.
     
    Etwa 10% aller Neutronensterne — so schätzt man — sind Magnetare.
     
    Ein Magnetar entsteht, wenn ein schnell rotierender Stern mit einem starken Magnetfeld nach dem Ausbleiben der Kernfusion zu einem Neutronenstern kollabiert.
     
     
  • Neutronenstern
     
    Unter einem Neutronenstern versteht man einen extrem kompakten Himmelskörper, der fast vollständig aus Neutronen besteht.
    Sein Durchmesser beträgt etwa 10 is 20 km, seine Masse liegt zwischen 1,2 und 2,0 Sonnenmassen.
     
    Ein Qubikzentimeter Neutronenmaterie würde auf der Erde mehrere hunderttausend Tonnen wiegen.
     
     
  • 1 Parsec ( = 3,26 Lichtjahre )
     
    d.h. eine Parallaxensekunde (engl.: parallex second) ist die Entfernung, aus der der Erdbahnradius unter einem Winkel von 1 Bodegensekunde erscheint.
     
     
  • 1 Plancklänge ( = 1,616 • 10-35 Meter )
     
    Es ist dies die kleinste Länge, für die heutige physikalische Theorien gerade noch Sinn machen.
     
     
  • MOND (Modifizierte Newtonsche Dynamik)
     
    ist eine Hypothese, die das Rotationsverhalten von Galaxien durch Modifikation der Newton'schen Gravitationsgesetze zu erklären versucht. Man hat sie zu verstehen als Alternative zur Theorie Dunkler Materie.


 

 Beitrag 0-461
Struktur und Energieverteilung in Atomkernen

 
 

 
Kernphysik — weit einfacher als Chemie

 
 
Ganz ähnlich wie die elektromagnetische Wechselwirkung Atome zu Molekülen verbindet, gruppiert die starke und die schwache Wechselwirkung Nukleonen (= Protonen und Neutronen) zu Atomkernen.
 
Die Kraft, welche die Nukleonen als Gruppe zusammenhält, wird durch Mesonen vermittelt, vor allem durch die Pionen ( π+, π0, π- ). Sie treten bei solcher Wechselwirkung einzeln, zu zweit oder auch zu mehreren auf.
 
Da Pionen Ruhemasse haben, ist die Reichweite dieser Austauschteilchen stark eingeschränkt.
 
Freie Neutronen sind instabil: Mit einer mittleren Zerfallszeit von 14 Min und 39 Sec zerfallen sie zu jeweils 1 Proton + 1 Elektron + 1 Antineutrino.
 
 
Während die Zahl unterschiedlicher chemischer Verbindungen durch die Geschicklichkeit der Chemiker ständig zunimmt, bliebt die Zahl unterschiedlicher Atomkerne begrenzt auf etwas mehr als 300 (wobei aber nur 92 davon natürlich vorkommende Elemente repräsentieren). Dies macht Kernphysik deutlich übersichtlicher als Chemie.
 
Dass die Zahl unterschiedlicher Atomkerne begrenzt ist, liegt daran, dass in Kernen, in denen es zu einem Überschuss an Protonen kommt, sich Protonen gerne unter Abgabe je eines Positrons und eines Neutrinos zu Neutronen machen (sog. Betazerfall). Eben deswegen ist nur ein schmaler Bereich möglicher Kernzusammen­setzungen mit jeweils einer ungefähr gleichen Zahl von Protonen und Neutronen stabil.
 
 
Die grundlegenden Eigenschaften der Kerne lassen sich anhand der Kenntnis ihrer Massen erklären (die man mit sog. Massenspektoskopie ermittelt).
 
Die verschiedenen Kerne kennzeichen sich durch die Zahl ihrer Protonen und Neutronen:
     
  • Die Zahl Z der Protonen heißt Kernladungszahl,
     
  • die Zahl sämtlicher Nukleonen eines Kerns nennt man seine Massenzahl.

Interessant ist nun, dass die Masse pro Nukleon — notwendiger Bindungsenergie wegen — nur beim Wasserstoffisotop 1H genau die eines Protons ist, ansonsten aber bis zu einem Prozent kleiner sein kann.
 
Am kleinsten ist sie in 56F (Eisen), so dass Eisen die höchste Bindungsenergie pro Nukleon aufweist.
 
Genauer: Für Kerne mit einer Massenzahl kleiner als Eisen reduziert sie sich durch Kernfusion, wohingegen sie sich für schwerere Kerne durch Kernspaltung reduziert. Bei 235U liegt ist sie bei etwa dem 0,992-fachen der Protonenmasse.
 
Wir sehen:
 
Maximal 1% der Energie eines Atomkerns sind Bindungsenergie.
 
Erreicht wird dieser Wert aber nur für Eisen.

 
 
 
Die eben beschriebenen Gesetzmäßigkeiten zeigen, dass der Eisenkern der stabilste aller Kerne ist.
 
Da die Kerne — ihrer Protonen wegen — positiv geladen sind, stoßen sie einander ab.
 
Mit einander verschmelzen können sie nur, wo sich in Sternen ein Gas aus solchen Kernen derart stark erwärmt, dass sie kraftvoll aufeinander prallen (und es deswegen zu Kernfusion kommt). Hierbei wird durch den dabei entstehenden Massendefekt Energie frei, die weitere Verschmelzung begünstigt, so dass nach und nach immer schwerere Kerne entstehen — bis hin zu Eisen.
 
Soweit damit auch Kerne schwerer als Eisen entstehen, versuchen sie, ihre Energie durch radioaktiven Zerfall abzugeben. [Verschmelzung der Kerne schwerer als Eisen würde mehr Energie kosten als einbringen, da der Massendefekt wieder abnehmen würde.]
 
Sämtliche Kerne schwerer als Blei sind radioaktiv. Sie zerfallen durch Alpha- oder Betazerfall. 1938 wurde für Urankerne noch ein weiterer Zerfallsweg entdeckt: die Kernspaltung des Uran-235.
 
 
Merke:
     
  • Bindungsenergie muss aufgebracht werden, um ein gebundenes System aus zwei oder mehr Bestandteilen, die durch Anziehungskräfte zusammengehalten werden, in seine Bestandteile zu zerlegen (Kernspaltung).
     
  • Eine ebenso große Energiemenge wird freigesetzt, wenn sich das gebundene System aus den Einzelteilen zusammenfindet (Kernfusion).


 

 Beitrag 0-482
Zum Modell der » Führungswelle « wie erst de Broglie, später auch Bohm es vorschlugen

 
 

 
Zur Theorie der Führungswelle

nach de Broglie und Bohm



Lee Smolin (2019), Kap. 7, S. 141-151:
 
Kern der Führungswellentheorie war de Broglies Idee (1927), dass das Elektron aus zwei Entitäten bestünde:
     
  • aus einer sich kugelförmig ausbreitenden Welle gegeben durch seine Wellenfunktion wie sie sich als Lösung der Schrödinger-Gleichung ergibt
     
  • und einem Teilchen, welches auf ihr reitet [ wie ein Korken auf einer Wasserwelle reitet ].

Nach dieser Theorie ist das Teilchen stets an einem bestimmten Ort und nimmt auch immer einen bestimmten Pfad (z.B. durch einen Doppelspalt).
 
Die Welle aber fließt duerch den Raum und nimmt gleichzeitig jeden nur möglichen Pfad.
 
Auch wenn das Teilchen den einen oder anderen Weg nehmen muss, wird der Weg, den es tatsächlich nimmt, von der Welle beeinflusst, die durch alle Wege fließt.
 
Anders als die auf Bohr und Heisenberg zurückgehende Theorie der Quantenmechanik ist die Theorie der Führungswelle deterministisch und liefert eine Begründung für die Bornsche Regel (nach der die größte Wahrscheinlichkeit, das Teilchen anzutreffen, immer dort besteht, wo das Quadrat der Wellenamplitude größten Wert hat. [ In der Quantenmechanik wird die Bornsche Regel ohne Begründung als wahr angenommen. ]
 


 
25 Jahre später (1952) hat Bohm eine ganz ähnliche Theorie in die Welt gesetzt, und das — wie sich aus einer seiner Bemerkungen ergibt —, zunächst ohne de Broglies Idee zu kennen.
 
Vor allem von Einstein und Oppenheimer hatte Bohm sich Unterstützung für seine Idee erhofft — beide aber habe sie abgelehnt.
 
Einstein, der 1927 de Broglies Idee noch begrüßt hatte, schrieb jetzt an Born: » Es ist ein physikalisches Märchen für Kinder, das Bohm und de Broglie irregeführt hat. «
 
Wie Smolin aber betont, war mindestens de Broglie von Anfang an klar, dass seine Führungswellentheorie Grundprinzipien der Newtonschen Mechanik verletzt, so etwa das Trägheitsprinzip und das Prinzip von der Impulserhaltung.
 
Heisenberg und Pauli räumten ein, dass sich Bohms Theorie nicht widerlegen lasse, da sie aber zu denselben Vorhersagen führe wie die Quantenmechanik, sei sie überflüssig.
 
Dass es tatsächlich Umstände gibt, unter denen die Vorhersagen der Führungswellentheorie sich von denen der Quantenmechanik unterscheiden, wusste man damals noch nicht.
 
 
 
Quelle: Lee Smolin: Quantenwelt, 2019

 
 
Zusammenfassend lässt sich feststellen:
 
Die Führungswellentheorie — ebenso wie Bohmschen Mechanik — behauptet, dass alles im Universum als ein Paar bestehend aus einer Welle und einem Teilchen gesehen werden könne. Der Welle wegen, die ja nur Wahrscheinlichkeit darstellt, scheint damit auch Verschränkung erklärbar zu sein.
 
Mir persönlich erscheint dennoch viel plausibler die Deutung der Quantenfeldtheorie, nach der es statt Teilchen nur Felder mit Wellen darin gibt und alle Energie gegeben ist als Summe kleinster (= unteilbarer) Portionen, deren jede gegeben ist durch eine harmonische Welle im Feld: einem Feld, das man als Summe aller Teilchen eines bestimmten Typs sehen kann oder auch als Feld sämtlicher physikalischen Kräfte und damit als Menge aller den physikalischen Kosmos darstellenden QuBits [wie Thomas Görnitz es tut in Konkretisierung von C. F. v. Weizsäckers Theorie der Ure].
 
An der Kopenhagener Deutung der Quantenmechanik mit ihrem Kollaps der Wellenfunktion festzuhalten, erscheint mir weit sinnvoller, als immer wieder neu auch Bohmsche Mechanik und Everetts Viele-Welten-Theorie in Erwägung zu ziehen (wie Lee Smolin es erst 2019 in seinem Buch Quantenwelt tatsächlich erwogen hat).
 
Everetts viele Welten — das hat Hans-Dieter Zeh sehr schön erklärt — existieren nur als Elemente der Menge aller denkbaren Konfigurationen eines Quantensystems. Daran ändert auch die Tatsache nichts, dass David Deutsch über seine ganz andere Ansicht zu einem bahnbrechenden Ergebnis das Quanten Computing betreffend fand.
 
 
 
Wie man sich die Verschränkung makroskopischer Objekte vorzustellen hat

 
Der Quantenfeldtheorie (QFT) nach ist jedes Quantensystem Summe harmonischer (d.h. sinus-förmiger) Wellen. Nur sie stellen unteilbare Portionen von Energie dar.
 
Harmonische Wellen sind genau dann verschränkt, wenn sie im selben Quantenereignis entstanden.
 
Da jedes makroskopische Objekt Summe einer riesigen Zahl harmonischer Wellen ist — als Welle gesehen also auf vielfache Weise teilbar —, bedeutet Verschränkung zweier makroskopischer Objekte A und B, dass es zahlreiche Paare harmonischer Wellen W1 und W2 gibt, derart dass gilt:
     
  • W1 ist Teil von A,
     
  • W2 ist Teil von B,
     
  • und W1 ist verschränkt mit W2.

Hätte Smolin diese Erklärung in sein — ja doch populärwissenschaftliches — Buch mit aufgenommen, wären einige Abschnitte seiner Argumentation dort eher verständlich. Insbesondere würde dann auch Laien klar sein können, was er z.B. auf Seite 283 unter "Atomen" versteht: Was Smolin — auch im Bild dort — zu erklären versucht, macht meiner Meinung nach nur Sinn, wenn er mit "Atom A" und "Atom B" harmonische Wellen im Sinne der Quantenfeldtheorie meint.
 
Wie Thomas Görnitz abgeschätzt hat, besteht schon ein einziges Elektron aus etwa 1030 solcher "Atome" (= QuBits), ein Proton sogar aus etwa 1040.

 

 Beitrag 0-483
Was Bohr und Heisenberg erkannt haben, viele aber immer noch nicht wahrhaben wollen

 
 

 
Antirealismus begründet durch

Bohr und Heisenberg

 


Werner Heisenberg (gekürzt, aber wörtlich, wo kursiv gedruckt):
 
... man kann gar nicht mehr vom Teilchen losgelöst vom Beobachtungsvorgang sprechen.
 
Das hat zur Folge, daß die Naturgesetze, die wir in der Quantentheorie mathematisch formulieren, nicht mehr von den Elementarteilchen handeln, sondern
[nur] von unserer Kenntnis der Elemetarteilchen [ gemeint ist: von der Kenntnis ihrer durch uns beobachtbaren Reaktionen auf Messfragen ].
 
Die Frage, ob diese Teilchen » an sich « in Raum und Zeit existieren, kann deswegen in dieser Form gar nicht gestellt werden.
 
 
Wenn von einem Naturbild der exakten Naturwissenschaften in unserer Zeit gesprochen werden kann, so handelt es sich eigentlich nicht um ein Bild der Natur, sondern nur um ein Bild unserer Beziehungen zur Natur
[ will heißen: unsere Schlussfolgerung daraus, wie die Natur auf durch unsere Messgeräte gestellte Fragen antwortet ].
 
... Die Naturwissenschaft steht nicht mehr als Beschauer vor der Natur, sondern erkennt sich selbst als Teil dieses Wechselspiels zwischen Mensch und Natur. ...
 
 
Verschiedene anschauliche Bilder, mit denen wir atomare Systeme beschreiben, sind zwar für bestimmte Experimente angemessen, aber schließen sich
[ nicht selten ] doch gegenseitig aus. ...
 
Diese verschiedenen Bilder sind richtig, wenn man sie an der richtigen Stelle verwendet, aber sie widersprechen einander, und man bezeichnet sie daher als komplementär zu einander.

 


 
Bohrs Standpunkt war fast noch radikaler, denn im zufolge ...

Niels Bohr (gekürzt, aber wörtlich, wo kursiv gedruckt):
 
... kann unabhängige Wirklichkeit im gewöhnlichen physikalischen Sinne [...] weder den Phänomenen, noch den Beabachtungsmitteln zugeschrieben werden.
 
... Jede vollständige Erhellung ein und desselben Gegenstandes kann unterschiedliche Gesichtspunkte erfordern, welche eine einzige Beschreibung in Frage stellen.

 


 
 
Quelle: Lee Smolin: Quantenwelt, 2019, S. 135-136
 
basierend auf:
 
Werner Heisenberg: Das Naturbild der heutigen Physik, Rohwolt 1955, S. 12, 21
Niels Bohr (1934) zitiert nach Max Jammer aus: The Philosophy of Quantum Mechanics in Historical Perspective, John Wiley and Sons, 1974, S. 103


 

  Beitrag 2049-10
Korrekte Einordnung der Viele-Welten-Theorie von Hugh Everett III

 
 
Henry aus 2049-8:
 
Die Viele-Welten-Theorie und Stringtheorie beschreiben beide in Bezugnahme auf die Quantenmechanik die Möglichkeit weiterer Universen, wobei die Viele-Welten-Theorie explizit genau deshalb entwickelt wurde, die Stringtheorie aber ganz sicher nicht.


Henry,
das ist so nicht richtig, denn:

Everetts Viele-Welten-Theorie ist nur eine gedankliche Krücke, ein Bild, das man ebenso wenig wörtlich nehmen darf, wie das Bild von "Schrödingers Katze" oder den Begriff "Überlagerungszustand".

Auch deine Aussage "Die Entwicklung der Viele-Welten-Theorie beruht auf der Annahme, es gäbe VERBORGENE VARIABLEN" halte ich für absolut falsch. Woher nimmst Du diese Vermutung?

Tatsache ist:

Es gibt kein einziges Indiz dafür, dass Everetts Viele-Welten-Theorie zutreffen könnte (!).


Dass sie überhaupt entstand — und auch Everetts Doktorvater, John Archibald Wheeler, zunächst nicht so recht wusste, was er davon halten sollte, und sich deswegen erst etwa zwei Jahrzehnte später entschieden von ihr distanziert hat — lag einfach nur daran, dass man zur Zeit ihres Entstehens den sog. Kollaps der Wellen­funktion noch zu wenig verstanden hatte. Bitte lies dazu » Der Kollaps der Wellen­funktion: Allzu oft missverstanden! «.

Dass Everetts Theorie heute immer noch ernsthaft Erwähnung findet, ist nicht zun verstehen. Zur Ehre der Physiker, die noch davon sprechen, muss aber gesagt werden, dass sie Everetts Idee heute nicht mehr als Theorie, sondern nur noch als Interpretation bezeichnen. Nur Autoren, denen es vor allem darum geht, ihre Bücher zu vermarkten, tun so, als würde es sich um eine plausible oder gar schon bewiesene Theorie handeln.


Gruß, grtgrt
 

  Beitrag 2049-52
Everett zur Natur physikalischer Modelle

 
 
Grtgrt in 2049-10:
 
Everetts Viele-Welten-Theorie ist nur eine gedankliche Krücke, ein Bild, dessen Qualität in etwa der Qualität der Bilder "Schrödingers Katze" und "Überlagerungszustand" entspricht.


Everett selbst erklärt die Natur physikalischer Modelle wie folgt:

Zitat von Hugh Everett III, 1956:
 
Wenn wir einmal eingesehen haben, dass jede physikalische Theorie im wesentlichen nur  M o d e l l  für die Welt der Erfahrung ist, müssen wir alle Hoffnung aufgeben, so etwas wie die "richtige" Theorie finden zu können, denn:

Nichts hindert eine Reihe sehr unterschiedlicher Modelle daran, mit der Erfahrung übereinzustimmen (sie können also alle "richtig" sein),
und weil uns niemals die Gesamtheit aller Erfahrungen zugänglich ist, gibt es keine Möglichkeit, die vollständige Richtigkeit eines Modells zu bestätigen.
 

 

  Beitrag 2049-54
-

 
 
Hans-m in 2049-53:
Zitat:
Nichts hindert eine Reihe sehr unterschiedlicher Modelle daran, mit der Erfahrung übereinzustimmen (sie können also alle "richtig" sein),
und weil uns niemals die Gesamtheit aller Erfahrungen zugänglich ist, gibt es keine Möglichkeit, die vollständige Richtigkeit eines Modells zu bestätigen.
 
Auch wenn wir niemals ALLES wissen, sollen wir deshalb den (Bruch-)Teil, den wir wissen, einfach ignorieren?

Auch auf der Suche nach Wissen werden wir immer an eine Grenze stossen, aber alles, was für uns vor der Grenze liegt, dass können wir getrost nutzen.


Ja, Hans-m,

das ist völlig richtig, und auch Everett sah das so, denn er plädiert sogar ganz explizit für den Mut zur Lücke:

Zitat von Everett:
 
Wir glauben nicht, dass es der Hauptzweck der theoretischen Physik ist, "sichere" Theorien aufzustellen, die in der Anwendbarkeit ihrer Konzepte einen hohen Preis erfordern ... vielmehr soll sie nützliche Modelle aufstellen, die eine Zeit lang ihren Dienst tun, um dann, wenn sie verbraucht sind, [ durch bessere ersetzt zu werden.
 

Quelle: DeWitt und Graham (Hrsg): The Many Worlds Interpretation of Quantum Mechanics, 1973, p. 111
zitiert durch Peter Byrne: Viele Welten — Hugh Everett III – ein Familiendrama zwischen Kaltem Krieg und Quantenphysik, S. 179


 

  Beitrag 2049-55
-

 
Zitat von Everett:
vielmehr soll sie nützliche Modelle aufstellen, die eine Zeit lang ihren Dienst tun, um dann, wenn sie verbraucht sind, [ durch bessere ersetzt zu werden. 

Das hört sich so an, wie das "Wissen" : Die Erde ist eine Scheibe, und der Mittelpunkt des Universums
Dieses Wissen tat auch lange seinen Dienst und wurde irgendwann durch neues Wissen ersetzt.

falsches Wissen ist in jedem Fall gefährlicher als fehlendes Wissen.

Als man entdeckte, dass die Welt keine Scheibe ist, musste das gesamte Weltbild neu überdacht werden.

Als man endeckte, dass das Atom nicht unteilbar ist, musste man nur das entsprechende Denkmodell erweitern.
Wenn man zunächst das Atom als unteilbar hielt, entdeckte man die Protonen, Elektronen, Neutronen, dann die Quarks und mittlerweile ist man auf der Stringebene angekommen.
Dieses neue Wissen brachte eine Erweiterung des Wissensstandes aber keinen Anlass das bis dahin bekannte über Bord zu werfen.
Wichtig ist, dass man jeden Wissensstand nicht als endgültig festhällt, sondern sich ständig Raum für Optionen offen lässt.
 

  Beitrag 2039-62
--

 
 
E... in 2039-5:
 
die Aussage "Es gibt keine Materie!" ist ohne jeden Sinn und Inhalt ...


Da steht E... nicht nur im Widerspruch zu Hans-Peter Dürr, sondern auch im Widerspruch zu Everett, denn der schrieb:

Zitat von Hugh Everett III:
 
Die Konstrukte der klassischen Physik sind genau so Fiktionen unseres eigenen Geistes wie die jeder anderen Theorie:
Wir haben zu ihnen lediglich sehr viel mehr Vertrauen.
 

Quelle: DeWitt und Graham (Hrsg): The Many Worlds Interpretation of Quantum Mechanics, 1973, p. 111
zitiert durch Peter Byrne: Viele Welten — Hugh Everett III – ein Familiendrama zwischen Kaltem Krieg und Quantenphysik, S. 181


 

  Beitrag 2039-66
Quantenfeldtheorie mdash; die verbesserte Version der Quantenmechanik

 
 

Von der Quantenmechanik zur Quanten-Feldtheorie


Siehe auch, was Joachim Schulz schreibt



Zitat von Hans-Peter Dürr, S. 22-64 in Dürr und Österreicher: "Wir erleben mehr als wir begreifen" (2001):
 
In der alten Quantenmechanik spricht man nur von Dualität: Jedem Teilchen "entspricht" eine Welle. Ich habe also die Dualität Welle oder Teilchen.

Die neue Quantentheorie, die Quantenfeldtheorie, die sich auf eine unendliche Vielzahl von Teilchen bezieht, führt zu einer noch weiter gehenden Auflösung:

Das Teilchenbild geht immer mehr verloren. Was bleibt, ist nur noch Form.


... Quantenfeldtheorien sind viel allgemeiner, liegen begrifflich tiefer. Der Feldbegriff überlebt, der Teilchenbegriff löst sich ganz auf.

... Sich das vorzustellen ist schwierig, weil man hier den Begriff der Gestalt erweitern muss. Gestalt ist ja etwas, das wir uns normalerweise nur als Materieanordnung im Raum vorstellen. Im Raum. Aber in welchem Raum? ... verglichen mit den Räumen, wie sie z.B. in der Beschreibung der Quantentheorie vorkommen, ist der 3-dimensionale Raum nur ein ganz spezieller Raum. Wellen schwingen sozusagen noch in anderen Räumen, nur diese anderen Raumdimensionen nehmen wir nicht als vierte oder fünfte Raumdimension wahr, sondern wir sagen dann: Aha, das ist also ein Elektron oder ein Proton und so weiter. Das aber ist jeweils nur eine Verwirklichung in einer anderen Raumdimension.
 


Man wird, was Dürr hier sagt, vielleicht dann verstehen, wenn man sich vor Augen führt, dass ja auch in der Mathematik die Dimensionen eines Raumes zu gleicher Zeit unabhängig von einander nutzbare  F r e i h e i t s g r a d e  sind.

 

  Beitrag 2085-264
-

 
 
H... in 2085-263:
 
Lass uns mal voraussetzen, dass der Mensch Wahrnehmung besitzt und damit widerspiegeln kann. Damit ist es einfach möglich, dieser Widerspiegelung den Namen MODELL zugeben und dieses Modell ins Verhältnis zur Wahrnehmung zu setzen. Das ist eigentlich alles, was passiert.

Nun zu streiten, ob dies REAL ist (oder surreal oder blau oder salzig...), kann man machen, bringt aber nicht wirklich viel. Denn für den Menschen besteht die einzige Interaktion in Wahrnehmung und Widerspiegelung.


Das scheint mir schön und recht treffend ausgedrückt ...

 

  Beitrag 1376-62
Beispiel 1

 
 
Stueps aus 1376-61:
Man könnte weiter fragen, ob es noch das selbe Photon ist, das z.B. ein Elektron anregt, und danach wieder emittiert wird?
Wenn man erste Frage mit ja beantworten kann, tendiere ich zu der Auffassung, dass auch in einem Medium für das Licht keine Zeit vergeht.

Aber es könnten sich aus dieser Sicht vielleicht WIdersprüche entwickeln: Falls es immer das selbe Photon ist, welches durch ein Medium marschiert, und dabei absorbiert und emittiert wird, wie "merkt" es etwas von diesen Wechselwirkungen?

Hi Stueps,

das Schöne am Modellieren ist, dass man da gewisse Freiheiten hat. Die ergeben sich daraus, dass ja durchaus mehrere Modelle geben kann, die sämtlich in dem Sinne gültig sind, dass jedes dieser Modelle ein Verhalten aufweist, welches analog dem an der Natur beobachteten ist.

In diesem Fall aber sollte man dann am besten mit dem einfachsten dieser Modelle arbeiten.

Im konkreten Fall ist das einfachste Modell das, in dem man annimmt, dass ein Photon durch Wechselwirkung mit einem anderen Elementarteilchen sein Leben beendet.


Grtgrt aus 1376-30:
 
Man sollte berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

Zitat von Niels Bohr:
Die Physik kann nicht ergründen, wie die Natur funktioniert.
Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

Beste Grüße,
grtgrt
 

  Beitrag 1376-63
Beispiel 2

 
 
Henry aus 1376-50:
 
Es gibt keine wie auch immer geartete "Lebensbatterie", ...

Hi Henry,

ich behaupte ja gar nicht, dass die Natur eine Lebensbatterie kennt, sie ist lediglich der Teil meines Modells der Natur, der diesem Modell die Fähigkeit verleiht, für jedes betrachtete materielle physikalische Objekt dessen Rest-Lebenserwartung zutreffend abzuschätzen:

Bitte beachte:

Grtgrt aus 1376-30:
 
Man sollte berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

Zitat von Niels Bohr:
Die Physik kann nicht ergründen, wie die Natur funktioniert.
Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

Beste Grüße,
grtgrt
 

  Beitrag 1894-62
Physikalische Objekte sind Modelle, das Verhalten der Natur zu erklären

 



Physikalische Objekte (die Zeit etwa) sind gedankliche Modelle,

die der Mensch sich macht, aus dem Wunsch heraus,

das Verhalten der Natur verstehbar und vorhersagbar zu machen.



Man darf solche Modelle aber auf keinen Fall mit der Natur selbst verwechseln (und so kann es für jeden Teil der Natur — die Zeit ist da keine Ausnahme — mehr oder weniger genaue Modelle geben: Sie sind dann natürlich auch mehr oder weniger einfach und werden daher auch nicht notwendig alle Aspekte des jeweils betrachteten Phänomens gleich gut modellieren.

Dass auch grobe Modelle — wie etwa das von Aristoteles — sehr weit tragen können, ist unbestritten. Was aber, wenn man über eine Grenze der Anwendbarkeit eines einfachen Modells hinausgehen möchte? Eben dann braucht man ein genaueres, weniger einfaches Modell.


Man sollte zudem berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

Zitat von Niels Bohr:
Die Physik kann nicht ergründen, wie die Natur funktioniert.
Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.


 

  Beitrag 1910-1
Beispiel: Hugh Everett's Viele-Welten-Theorie

 
 
Hallo Henry,

du hast mir ja recht deutlich gesagt, dass es sich deiner Meinung nach nicht lohnt, über Hugh Everett’s Viele-Welten-Theorie weiter nachzudenken. Nun, es juckt mich jetzt doch, dir zu widersprechen, denn mein Standpunkt ist:


Eine physikalische Theorie sollte man erst dann vergessen, wenn sie widerlegt ist.


Für Everetts Theorie gibt es bisher auch nicht den Ansatz einer Widerlegung — und das, obgleich sich John Wheeler (sein Doktorvater) recht bemüht hat, einen solchen zu finden.

Niels Bohr — scheint so einen Ansatz auch nicht gefunden zu haben, denn er hat sich über Everetts Arbeit (und darüber, dass Wheeler sie ihm hat durchgehen lassen) mächtig geärgert, selbst nie ein Gegenargument vorgebracht, aber doch seine Schüler ermuntert, solche Gegenargumente zu suchen.

Interessant auch: Feynman hat Everetts Theorie ebenfalls als Unsinn abgetan, wohl auch gar nicht weiter darüber nachgedacht &mash, und das obgleich er selbst eine ebenso utopisch wirkende Theorie in die Welt gesetzt hat: die Theorie der vielen Wege, die Quanten – wie er denkt – gleichzeitig nehmen, wenn sie sich von A nach B bewegen.

Lustig ist ferner, dass gerade er seinen Studenten sagte:

Wenn ein Physiker dir erzählt, etwas sei unmöglich, so glaube ihm nicht.
Wenn er dir aber sagt, etwas könne VIELLEICHT möglich sein, spricht viel dafür anzunehmen, dass es eben DOCH möglich ist.


Dass er dieser Meinung war, wird so wirklich spannend, wenn man weiß, dass Peter Byrne (ein Wissenschaftsjournalist, der den erst kürzlich aufgefundenen Nachlass von Everett durchforstete) in 2008 schreibt:

"Before I started looking into Everett’s theory, I would have thought it was crazy.
Now I wouldn't be surprised if it's true."


Byrnes lesenswerte Würdigung von Everetts Arbeit zeigt uns übrigens auch, dass Everett nicht einfach eine Idee vom Himmel fallen ließ, sondern dass er sie — mit Mitteln der Mathematik und Informationstheorie — hergeleitet hat aus der Annahme, dass die Schrödinger-Gleichung ohne Einschränkung für jedes Quantensystem Gültigkeit habe. Da die Wellengleichung des gesamten Universums nicht wirklich hinschreibbar und daher auch nicht direkt untersuchbar ist, hat er versucht, ihr mit Mitteln der damals eben erst durch Shannon und Wiener entwickelten Informationstheorie beizukommen.

Zitat:
Charles W. Misner, der zur selben Zeit wie Everett bei John Wheeler promovierte, schreibt:
  • Hugh Everett proposed that we not search for remedies of the implausible «collapse of the wave function» by changing the mathematics of the Schrödinger equation (or its relativistic field theory upgrades), but just look hard what would be predicted if we let the equations show us how they think nature behaves.
  • Now, over 50 years later [2010 , there is a strong effort to do just that, but the broad picture is not yet clear. Thus my guess for the outcome ... is that some different «big picture» will arise, which is not «many worlds» but will still uphold Hugh Everett’s conviction that paranormal influences do not overrule the Schrödinger equation.


Leider steht Everetts Dissertation nur in der stark verstümmelten Fassung im Netz, in der John Wheeler ihn zwang, sie vorzulegen (Wheeler fürchtete, seines Schülers ur­sprüngliche Version könne Bohr zu sehr erzürnen und könne, da Everett sich einer sehr bildhaften Sprache bediente, von Bohr als zu wenig wissenschaftlich gebrandmarkt werden).


Siehst du Henry: Dem armen Everett ging es offensichtlich nicht anders als mir, der ich jetzt ja auch vor der Situation stehe, dass z.B. du das physikalische Modell, das ich in Beitrag 1376-8, 1376-15 und fortgeführt in 1376-28 präsentiere, als zu wenig wissenschaftlich empfindest – und das schon von meiner Begriffsbildung her (die ich ja ganz bewusst so wähle, um den Leser aufzurütteln, ihm meinen Denkansatz klar zu machen und ihm zu helfen, sich aus allzu eingefahrenen Denkwegen zu befreien):

Henry aus 1376-16:
Gebhard,
ich denke, du machst es dir zu einfach, Dinge einfach mit neuen Begriffen zu bedenken und dann (wie in deinem folgendem Beitrag) drauf los zu fabulieren!

Beste Grüße,
grtgrt
 

  Beitrag 2011-11
Exakte Modelle können keine (ganz) genauen sein

 
 
Thomas der Große aus 2011-10:
 
Die spezielle Relativitätstheorie beschreibt starre Objekte, das sind genau die, für die eine Länge bezüglich eines Bezugssystems scharf ist
und dort gibt es eine 0-Geschwindigkeit.

Für mikroskopische Objekte der Quantenmechanik gilt das, was C... aus der Unschärfe-Relation abgeleitet hat
und damit keine Nullgeschwindigkeit.

Wenn es keine 0-Geschwindigkeit gibt, dann ist insbesondere die spezielle Relativitätstherorie falsch.


Mir scheint, man muss es so sehen:

Die Relativitätstheorien (SRT und ART) sind klassische Theorien in dem Sinne, dass sie  e x a k t e s  Modell sein wollen, ein Modell also, das glatte Formeln anstrebt und deswegen Ungenauigkeiten, die hinreichend klein sind, einfach in Kauf nimmt.

Die Quantentheorie aber ist eine  g e n a u e  Theorie in dem Sinne, dass sie keinerlei Ungenauigkeit in Kauf zu nehmen bereit ist. Wo nichts Genaues ausgesagt werden kann, werden obere Grenzen für die unvermeidliche Ungenauigkeit mit zu einem Teil der Theorie.


Den Unterschied zwischen exakt und genau macht man sich am besten klar, wenn man bedenkt, dass
  • ein Kreis exakt ist, wenn gegeben im Sinne der Mathematik (als Paar, welches Mittelpunkt und Radius nennt),
  • ein punktweise beschriebener Kreis aber das darstellt, was man zeichnen kann: Eine Linie, die — wenn man ganz genau hinsieht — nur mit gewisser Unschärfe definiert ist.

Man erkennt daraus:


Eine exakte Theorie kann sehr gute Näherung einer genauen Theorie sein.

Wirklich ganz genau aber kann sie — allein schon der Unschärfe-Relation wegen — NIEMALS sein.



Tieferer Hintergrund der Unschärfe-Relation ist natürlich Plancks Wirkungsquantum: die Tatsache also, dass die Natur kein stetiges Verhalten (im Sinne der Mathematik) aufweist.

Falsch muss eine exakte Theorie deswegen aber keineswegs sein. Sie ist höchstens ungenau (so wie jede den Bruch 1/3 darstellende Dezimalzahl nur endlich vieler Stellen nicht falsch, sondern nur ungenau ist).

 

 Beitrag 0-502
Demokrits Atome (Urkörner) — nun endlich haben wir sie gefunden

 
 

 
Demokrits Atome aus heutiger Sicht

 
 
Das erste Atommodell geht auf die beiden griechischen Philosophen Leukipp und seinen Schüler Demokrit zurück. Beide waren der Ansicht, dass sich Materie nicht beliebig weit zerteilen lasse. Vielmehr müsse es ein kleinstes Teilchen geben, das nicht weiter zerteilbar ist: Das Urkorn oder » Atom (atomos = griech. unteilbar) « .
 
Um etwa 1900 herum glaubte man diese unteilbaren Teilchen gefunden zu haben. Sie sind das, was man heute Atome nennt, ogleich man schon bald erkannte, dass sie keineswegs unteilbar sind.
 
Was also sind dann nun aus heutiger Sicht heraus die Atome (Urkörner) Demokrits?
 
 
Hier die Antwort darauf:
 


Gebhard Greiter (2020):
 
Die Quantenfeldtheorie sieht jedes Teilchen als Anregung des Feldes der physikalischen Grundkräfte, d.h. als Wellenpaket. Damit kann man es — per Fourier-Transformation und wegen Heisenbergs Unbestimmtheitsrelation — als eine sich ständig per Quantenfluktuation modifizierende Summe harmonischer Wellen erkennen. Jede harmonische Welle aber ist unzerlegbares QuBit. Und so komme ich zum Schluss:
 
 
Atome im Sinne Demokrits,
 
— die kleinsten, und nun wirklich unzerlegbaren Portionen von Energie — Demokrits Urkörner
 
sind diese QuBits.

 



 

 Beitrag 0-376
Zur Aussagekraft physikalischer Modelle

 
 

 
Zur Aussagekraft physikalischer Modelle

 
 
Die meisten physikalischen Modelle sind mathematisch formulierte Modelle. Nur sie können Singularitäten haben.
 
Ein mathematisches physikalisches Modell ist nie die Wirklichkeit selbst, sondern stets nur eine Idee, welches sie an unterschiedlichen Stellen unterschiedlich genau nachbildet (und in Punkten, die Singularitäten des Modells darstellen, rein gar nichts mehr dazu aussagt):

 
Was mit zunehmener Nähe zur Singularität unendlich groß wird, ist stets nur die Ungenauigkeit des Modells.


 

 Beitrag 0-341
Wie Physik — als Wissenschaft — geboren wurde

 
 

 
Über Galieo Galilei und Isaac Newton

 
 
Galilei gilt als der Begründer der Wissenschaft Physik, da er erkannt hat, dass die Naturgesetze sich mathematisch beschreiben lassen (und somit auch Gedanken­experimente ermöglichen, die von gewissen störenden Einflüssen — wie etwa Reibung, der durch die Luft fallende Körper ausgesetzt sind — abstrahieren können).
 
Isaac Newton hat Galileos Entdeckung erstaunlich schnell zu einem ersten Höhepunkt geführt, insofern, als er den für seine Theorie notwendigen mathematischen Mechanismus — das, was man heute als Differentialrechnung bezeichnet — sogar noch selbst erfunden hat. [ Dass denselben Mechanismus zeitgleich, aber unabhängig von ihm auch Leibniz entwickelt hat, tut seiner Leistung keinen Abbruch. ]
 
Wie der Nobelpreisträger Paul Wigner (1902-1995) betont, könnte mit die wichtigste Erkenntnis Newtons gewesen sein, dass ihm klar wurde:
 
 
Wie ein physikalisches System sich konkret fortentwickelt,
 
hängt nicht nur von den Naturgesetzen ab
 
— gegeben durch Differentialgleichungen, die sagen, wie sich Größen von einem Zeitpunkt hin zu einem nahe benachbarten ändern —,
 
sondern auch von frei wählbaren Anfangsbedingungen.


 

 Beitrag 0-469
Unter welchen Umständen SRT schon ART ist

 
 

 
Unter welchen Bedingungen ein gegebenes Raumzeit-Szenario S

sich per SRT ebenso genau wie per ART durchrechnen lässt

 
 
Das sog. Zwillingsparadoxon ist Spezialfall eines Szenarios S, in dem sich zwei Objekte C und D auf unterschiedlichen Weltlinien durch die Raumzeit bewegen.
 
Die notwendige und hinreichende Bedingung dafür, dass S selbst schon mit Mitteln der SRT — quantitativ wie qualitativ — beliebig genau behandelbar ist, besteht darin, dass S per SRT modellierbar ist.
 
 
Dies lässt sich einsehen wie folgt:
 
Im Sinne der ART ist die Raumzeit eine differenzierbare Mannigfaltigkeit, d.h. wer darin räumlich weit verteilte Szenarien behandeln will, kann sie nur behandeln mit Hilfe von Störungsrechnung und Argumentation in den Tangentenräumen, d.h. anhand sog. » Karten «, deren jede eine offene Umgebung des Ereignisses E(T) zeigt, in dem der Tangentenraum T — ein 4-dimensionaler Vektorraum mit Minkowsi-Metrik — die Raumzeit der ART berührt.
 
Brauchbar ist jede dieser Karten aber nur bis hin zum Beobachtungshorizont H(E) des Ereignisses E = E(T) = Ursprung des in T genutzten Koordinatensystems.

    Man kann sich das gut vorstellen, indem man sich ein Wasserfahrzeug W vorstellt, mit dessen Hilfe eine Persion P über den Atlantik von z.B. Amsterdam nach z.B. New York reist:
     
    Über weite Strecken der Reise hinweg wird — der Krümmung der Erdoberfläche wegen — keine Küste sichtbar sein, gegen Ende der Reise aber wird sich das ändern: Der Beobachtungshorizont H(P) von P verschiebt sich mit W, so dass die Karten, die man an Bord von W nutzt — sie entsprechen den eben erwähnten "Karten" im Sinne der Differentialgeometrie — ständig ausgetauscht werden müssen.
     
    Nun gibt es aber auch kleine Gewässer, wie etwa den Chiemsee, den zu überqueren man die zu Beginn der Reise gewählte Karte nie auszutauschen braucht, da jeder Weg, den das Schiff W dort nehmen kann, deutlich kürzer ist als der Radius des Beobachtungshorizonts der Ablegestelle.

Aber auch in der Raumzeit gibt es entsprechend große und kleine Regionen, und so komme ich zur Einsicht:
 
Das Szenario S ist mit Hilfe der SRT genau dann — und in diesem Fall sogar beliebig genau — durchrechenbar, wenn
     
  • eine Raumzeit-Karte K existiert, welche komplett die beiden Weltlinien von C und D zeigt
     
  • und wenn ferner die Weltlinien von C und D durch kein nennenswertes Gravitationsfeld führen.

Dieses Ergebnis bleibt richtig auch für den Fall, dass zwischen den Weltlinien von C einerseits und D andererseits ein oder mehrere Schwarze Löcher liegen (für deren Inneres Karten, welche beide Weltlinien ganz oder teilweise zeigen, natürlich nichts aussagen würden: Jene Karten wären dort einfach nicht definiert).

 

 Beitrag 0-347
Quantenphysik und Einsteins Gravitationstheorie verwenden einen unterschiedlichen Zeitbegriff

 
 

 
Wo Quantenphysik und Relativitätstheorie einander widersprechen



Claus Kiefer (2008):
 
Dass das Gebäude der Physik noch nicht vollendet sein kann, zeigt sich nirgendwo deutlicher als am » Problem der Zeit «:
 
ART und Quantenphysik gehen von einem Zeitbegriff aus, wie er unterschiedlicher nicht sein kann:
     
  • Die Quantenphysik hat Newtons absoluten Zeitbegriff übernommen, und so ist die Zeit dort ein äüßerer Parameter, den das physikalische Geschehen nicht beinflusst, der aber dennoch unverzichtbar ist: Die Wellenfunktion entwickelt sich in der Zeit.
     
    Auch Hinzunahme der SRT ändert daran nichts, denn zwar vereinigen sich dort Raum und Zeit zur Raumzeit, die aber ist dort immer noch nur feste Bühne für eine Dynamik, die das Gefüge der Raumzeit nicht antastet.
     
  • Erst die ART befreit die Raumzeit von diesen Fesseln und unterwirft sie dynamischen physikalischen Gleichungen: Einsteins Feldgleichung.

 
Da die Zeit nun aber nicht beides sein kann
     
  • absolut wie in der Quantentheorie
     
  • und dynamisch wie in Einsteins Gravitationstheorie,

muss die gegenwärtige Physik unvollständig sein.
 
Man erwartet, dass erst eine vereinigte Theorie der Quantengravitation den Zeitbegriff harmonisieren wird.
 


 
Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 222.


 

 Beitrag 0-465
Wie deterministisch ist Quantenphysik?

 
 

 
Wie deterministisch ist Quantenphysik?



Thomas Görnitz (2015, Zitat):
 
Die Quantentheorie ist in ihrer mathematischen Struktur eine deterministische Theorie — so wie die klassische Physik auch.
 
Der große Unterschied besteht jedoch darin, dass sich der Determinismus bei ihr nicht auf faktische Entwicklung, sondern nur auf die möglichen Entwicklungen bezieht:

 
Die sich gesetzmäßig verändernden Möglichkeiten geben einen Rahmen vor, innerhalb dessen sich dann die Fakten zufällig realisieren.
 
Das sich ergebende zufällige Auftreten von Fakten ist deswegen keineswegs willkürlich.

 


 
Quelle: Thomas und Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein, Springer 2015, S. 451

 

 Beitrag 0-348
Zur Bedeutung der Planckskala

 
 

 
Warum die Planckskala so wichtig ist



Claus Kiefer (2008):
 
Es gibt eine ausgezeichnete Skala, auf der ART und Quantenphysik eine gleich wichtige Rolle spielen: Die Planckskala. Wie kommt dies zustande?
 
Einsteins ART enthält zwei fundamentale Parameter (Naturkonstanten): Die Lichtgeschwindigkeit c und die Gravitationskonstante G.
 
Wenn man deren Einheiten genauer anschaut, stellt man fest, dass sich damit keine Längeneinheit konstruieren lässt (weswegen die ART denn auch keine Längenskala auszeichnet.
 
Das ändert sich, wenn man Quantentheorie mit berücksichtigt: Mit Hilfe des Planckschen Wirkungsquantums h lässt sicht tatsächlich zusammen mit c und G eine fundamentale Länge konstruieren. Da Max Planck als erster hierauf hinwie, nennt man sie ihm zu Ehren » die Plancklänge «.
 
Wie aber war es möglich, dass Planck sie schon 1899 — also vor der Geburt der Quantentheorie — entdeckt hat? Er war damals verzweifelt darum bemüht, die Hohlraumstrahlung zu verstehen und die Tatsache, dass ihr Spektrum bei einer bestimmten Wellenlänge ein Maximun besitzt. Man konnte es experimentell feststellen, doch theoretisch war es unverstanden. Erst die Einführung des Wirkungsquantums h im Jahr 1900 brachte die Erklärung. Planck erkannte schon 1899 aus den experimentellen Daten, dass hier eine bisher unbekannte Naturkonstante ins Spiel kommen musste und dass es sich dabei um eine Größe mit der physikalischen Dimension einer Wirkung — darunter versteht man das Produkt aus Energie und Zeit — handeln musste. Heute nennt man sie das Plancksche Wirkungsquantum h.
 
Mit Hilfe von h, G und c lässt sich nun tatsächlich eine natürliche Längeneinheit — heue die Plancklänge genannt — konstruieren.
 
Gäbe es ein Teilchen mit Planckdurchmesser, so wäre die von ihm erzeugte Raumkrümmung nicht mehr vernachlässigbar. Sein Verhalten zu beschreiben wären Gravitation und Quantentheorie gleichermaßen wichtig.
 
Neben der Plancklänge kann man auch Einheiten für Zeit und Masse bilden (heute Planckzeit und Planckmasse genannt).
 
Ebenso wie die Plancklänge (etwa 10-35 Meter) ist auch die Planckzeit unvorstellbar winzig (etwa 10-44 Sekunden).
 
Die Planckmasse aber ist mit etwa 10-8 Kilogramm erstaunlich groß: größer als die Masse eines Virus und etwa 1019 Mal so groß wie die Protonenmasse. Entsprechend viel Energie wäre nötig, ein Teilchen mit dieser Masse in einem Beschleuniger zu erzeugen: Er müsste dazu schon galaktisches Ausmaß haben.
 
 
WICHTIG ist:
 
Da die Naturgesetze überall im Universum die gleichen sind, muss es sich bei den Planck-Einheiten um wahrhaft universelle Größen handeln. Am Ende seiner Arbeit aus 1899 schrieb Planck:
   
» Diese Größen behalten ihre natürliche Bedeutung so lange bei, als die Gesetze der Gravitation, der Lichtfortfplanzung im Vakuum und die beiden Hauptsätze der Wärmetheorie in Gültigkeit bleiben. Sie müssen also von den verschiedensten Intelligenzen nach den verschiedensten Methoden gemessen, sich immer wieder als die nämlichen ergeben. «
 

 
Die Größen und Massen astronomischer Objekte werden i.W. durch die Protonenmasse bestimmt. In Atom- und Kernphysik kommt ihr eine zentrale Bedeutung zu.
 
Und so ist vor allem die große Abweichung der Protonenmasse von der Planckmasse dafür verantwortlich, dass Quantenphysik in astrophysikalischen Anwendun­gen i.A. keine Rolle spielt.
 
Ausnahmen sind nur recht exotische Situationen wie etwa das Verdampfen Schwarzer Löcher oder die Beschreibung der Raumzeit in naher Umgebung irgendeiner Singularität der ART.
 


 
Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 228-230.
 
Hier eine Kurzfassung der wesentlichen Aussagen des Buches.


 

 Beitrag 0-351
Die Geometrie der Raumzeiten ohne Materie (aber mit kosmologischer Konstante) hat — schon 1917 — de-Sitter gefunden.

 
 

 
Welche Form eine materiefreie Raumzeit hätte



Claus Kiefer ( auf S. 192-193 in Quantenkosmos ):
 
Unser Universum enthält natürlich Materie. Dennoch ist es instruktiv, zu fragen wie eine Raumzeit aussähe, in der es keine Materie, wohl aber eine kosmologische Konstante gäbe.
 
Lösungen der ART, welche diese Frage beantworten, hat de Sitter gefunden. Man nennt sie
Beide Raumzeiten haben die Form eine 4-dimensionalen Hyperboloids, das in einen 5-dimensionalen flachen Minkowski-Raum eigebettet ist. Sie unterscheiden sich lediglich durch eine Vertauschung der Zeit- mit der Raumrichtung.
 
Zu jedem festen Zeitpunkt kann man sich den de-Sitter-Raum vorstellen als einen 3-Spähre (d.h. als die Oberfläche einer 4-dimensionalen Kugel). Sie kontrahiert, erreicht ein Minimum positiven Durchmessers, und expandiert dann wieder. Sie kennt keinen Urknall und hat auch keinerlei Singularitäten.
 
Die Anti-de-Sitter-Raumzeit spielt eine gewisse Rolle in der Stringtheorie.
 



 

 Beitrag 0-352
Hintergrundunabhänge Theorien sind nur ART und Quantengravitation.

 
 

 
Von SRT über ART zu einer Quantengravitationstheorie



Claus Kiefer (auf S. 232 in Quantenkosmos ):
 
In den nicht-gravitativen Theorien — beispielsweise der SRT — sind Felder immer auf einer nicht-dynamischen Raumzeit definiert.
 
 
Ganz anders in Einsteins ART: Dort ist die Geometrie der Raumzeit identisch mit der Form des Gravitationsfeldes — also selbst dynamisch.
 
Schon Einstein bereitete das Kopfzerbrechen. So verzögerte sich die Aufstellung seiner Theorie um 2 Jahre, weil er zunächst noch am Glauben festhielt, dass den Punkten einer Raumzeit (gemeint sind Punkte im mathematischen Sinne) eine vom Gravitationsfeld unabhängige Bedeutung zukomme.
 
Für Mathematiker mag das sinnvoll sein, für einen Physiker aber nicht: Das durch die Geometrie der Raumzeit gegebene Gravitationsfeld ist wirklich schon alles. Und so sind bei einer Koordinatentransformation Punkte, Metrik und Materiefelder gleichermaßen zu transformieren.
 
Erst nachdem Einstein das erkannt hatte, kam er 1915 zu den korrekten Feldgleichungen der Gravitation.
 
 
Für die Entwicklung einer Quantengravitationstheorie ist dieser Punkt von großer Wichtigkeit, da er nach ganz neuen Methoden zur Quantifizierung verlangt: Die Raumzeit selbst muss quantifiziert werden.
 
 
Derzeit gibt es zwei unterschiedliche Ansätze, dies zu versuchen:
     
  • Der erst betrachtet nur Gravitation — kümmert sich also nicht um noch andere Wechselwirkungen.
     
  • Der zweite aber — heute wirklich nur durch Stringtheorie repräsentiert — geht davon aus, dass man von vornherein von einer vereinheitlichten Theorie aller Wechselwirkungen ausgehen müsse — an besten beginnend mit einem Zustand unseres Universums, in dem sich die Gravitation noch nicht von all den anderen Wechselwirkungen abgesondert hat.

 



 

 Beitrag 0-353
Die Wheeler-de-Witt-Gleichung und bisher angedachte mögliche Lösungen

 
 

 
Quantenkosmologie

und die Wellenfunktion des Universums

 
 
Quantenkosmologie — so verstehe ich Claus Kiefer ist der Teil der Kosmologie, der sich bemüht, die in der Wellenfunktion des Universums enthaltene Information zu entschlüsseln.
 
 
Unter der Wellenfunktion eines — sehr kleinen — Quantensystems versteht man eine Lösung der Schrödingergleichung: Eine Funktion also, die (geeignet normiert) jedem Punkt der Minkowski-Raumzeit die Wahrscheinlichkeit zuordnet, mit der das Quantensystem sich dort bemerkbar macht durch Interaktion mit seiner Umgebung, z.B. einer Messapparatur.
 
Probleme dieses physikalischen Modells sind:
     
  • Man betrachtet das Quantensystem als in sich abgeschlossen, obgleich doch nur das Universum als Ganzes ein in sich abgeschlossenes Quantensystem darstellt.
     
  • Zudem kann jede Lösung der Schrödingergleichung stets nur lokal hinreichend genau sein: Allein schon deswegen, weil die Raumzeit weder einen absoluten Zeitbegriff kennt, noch eine globales Koordinatensystem, d.h. global eindeutig definierte Orte.

 
Um wirklich genau zu sein, muss man deswegen die Wellenfunktion des Universums betrachten — eine Lösung der sog. Wheeler-de-Witt-Gleichung.
 
Was aber tritt in solchen Lösungen an Stelle der dort nicht mehr verwendbaren Begriffe Zeit und Ort?
 
Wenn ich Claus Kiefer (in seinenem Buch Quantenkosmos (2008), Kap. 6: Die Wellenfunktion des Universums) richtig verstehe, so tritt dort
     
  • an Stelle der Zeit im Sinne der Relativitätstheorie ein Skalenfaktor, dessen Werte uns sagen, in welchem Ausmaß der Raum expandiert ist,
     
  • an Stelle der Orte aber die Menge aller Zustände des Universums (genauer: die jeweils gegebene geometrische Form der Raumzeit, d.h. die jeweils vorliegende Verteilung von Gravitation erzeugender Energie im Universum [ die » Metrik «, wie Kiefer schreibt ]).
     
  • an Stelle der Wirkwahrscheinlichkeit tritt die Wahrscheinlichkeit, dass bei gegebenem Expansiongrad die Raumzeit eine ganz bestimmte geometrische Form hat.

 
Da der Skalenfaktor die Rolle zu spielen hat, die in den Lösungen der Schrödinger Gleichung die Zeit spielt, könnte man ihn » Zustandszeit « oder » absolute Zeit « nennen. Hawking nennt ihn die » imaginäre Zeit «, Kiefer die » innere Zeit «. Diesen Zeitersatz den Expansionsgrad des Universums zu nennen, wäre treffender.
 
 
Sucht man nach Lösungen der Wheeler-de-Witt-Gleichung mit vernünftigen mathematischen Eigenschaften, so stellt sich heraus, dass all diese Lösungen zu einer Wellenfunktion führen, die an Singularitäten der Einsteinschen Raumzeit verschwinden, was dann dort zu Wahrscheinlichkeit Null führt. Die Singularitäten, wie etwa der Urknall, kommen daher in der Quantenkosmologie einfach nicht mehr vor — ein recht befriedigendes Ergebnis.
 
Mit dem Vermeiden von Singularitäten eng verknüpft ist das Problem der Wahl der Anfangsbedingungen für die betrachtete Lösung der Wheeler-de-Witt-Gleichung.
     
  • Ein Vorschlag stammt von James Hartle und Steven Hawking und ist bekannt unter dem Begriff der » No boundery condition «:
     
    It assumes that the universe would start at a single point, like the North Pole of the Earth. But this point would not be a singularity, like the Big Bang. Instead, it would be an ordinary point of spacetime, like the North Pole is an ordinary point on the Earth. According to the no boundary proposal, the universe would have expanded in a smooth way from a single point. As it expanded, it would have borrowed energy from the gravitational field, to create matter.
     
    Entgegen den ursprünglichen Hoffnungen hat sich herausgestellt, dass diese Bedingung noch nicht zu einer eindeutigen Wellenfunktion des Universums führt. Man muss also noch eine weiter Auswahl treffen und steht somit wieder vor dem Problem der Wahl geeigneter Randbedingungen.
     
     
  • Ein anderer Vorschlag ist der von Alexander Vilenkin (1982). Man nennt ihn die » tunneling boundary condition «, denn:
     
    Vilenkin denkt an das Beispiel des Alphazerfalls, bei dem ein Alphateilchen (das aus 2 Protonen und 2 Neutronen besteht) von einem Atomkern emittiert wird. Wegen der im Kern gegebenen Energieverhältnisse kann — nach den Regeln der klassischen Physik — das Alphateilchen den Kern nicht verlassen, da es weniger Energie darstellt als für die Überwindung einer Energiebarriere notwendig ist. Als Quantenteilchen mit Welleneigenschaften kann es dennoch nach außen tunneln. Vilenkin wählte für die Wheeler-de-Witt-Gleichung eine Lösung aus, die — rein formal wenigstens — der Wellenfunktion des emittierten Alphateilchens entspricht.

 
Interessant sind Vorhersagen, die Vilenkins Lösung von der durch Hartle und Hawking vorgeschlagenen unterscheiden. So kann man etwa nach der Wahrscheinlichkeit für die Existenz einer inflationären Phase des Universums fragen. Während Vilenkins Tunnelbedingung die Inflation recht wahrscheinlich macht, scheint bei Hartle und Hawkings no-boundery condition nichts auf Inflation hinzudeuten. Wer also am empirisch gestützten Inflationsmodell festhalten möchte, muss die no-boundery condition wohl aufgeben.
 
 
Erwähneswert ist noch die 1999 von Martin Bojowald vorgeschlagene Schleifenquantenkosmologie: Im Rahmen dieser Theorie führt die diskrete Natur des Raumes dazu, dass die Wheeler-de-Witt-Gleichung durch eine Differenzengleichung ersetzt wird (eine Gleichung also, in der für den Skalenfaktor nur bestimmte diskrete Werte erlaubt sind). Sie beschreibt, wie man in endlich vielen Schritten von einem zu einem anderen erlaubten Wert kommt. Auf Skalen allerdings, die einige wenige Plancklängen überschreiten, ist die Differenzengleichung kaum noch von der Wheeler-de-Witt-Gleichung zu unterscheiden. Dennoch: Der Schleifenkosmologie gelingt es auf recht überzeugende Weise, die klassische Urknall-Singularität zu vermeiden: So fehlt i.A. unter den erlaubten diskreten Werten des Skalenfaktors der Wert Null. [ Etwas wundersam aber — so schreibt Claus Kiefer — sei die Tatsache, dass man den Wert Null zwar überspringen kann, dadurch aber in ein anderes Universum gelangt. Die physikalische Bedeutung dieses neuen Bereiches der Raumzeit sei noch unklar. ]

 
 
 
Mehr zur Wheeler-de-Witt-Gleichung

 
Die Lösungen der Wheeler-de-Witt-Gleichung sind auf einem sehr komplizierten Raum definiert,
     
  • den man — Wheeler folgend — den Superraum nennt.
     
  • Er hat unendlich viele Dimensionen, in dem jeder Punkt selbst wieder ein 3-dimensionaler Raum ist (genauer: die Metrik auf diesem Raum).

Damit man mit ihm überhaupt umgehen kann — und da der Weltraum sich auf großer Skala als nahezu homogen und isotrop darstellt — ersetzt man diesen Raum durch einen sehr viel einfacheren, 2-dimensionalen: Seine 2 Dimensionen sind der Expansionsgrad des Universums (in der Rolle "Zeit") und eine Dimension "mögliche Materieverteilung im Universum" (in der Rolle "Ort"). Den so reduzierten Raum nennt man den Minisuperraum.
 
Bisher geht es in der Quantenkosmologie fast immer nur um den Minisuperraum (obgleich man damit Heisenbergs Unbestimmtheitsrelation für Ort und Impuls verletzt, indem man zulässt, dass — im Modell — beide gleichzeitig Null sein können). Solche Modelle funktionieren deswegen nur, solange die Ergebnisse, an denen man interessiert ist, sich selbst durch solch gewaltige Vereinfachung nicht wesentlich veränden.
 
Schon in der gewöhnlichen Quantenmechanik lässt sich oft mit ähnlichen Vereinfachungen gut leben. So reicht es z.B. in vielen Situationen aus, sich ein Molekül als starren Körper vorzustellen — unter Vernachlässigung seiner Schwingungszustände. Das macht Sinn, solange man damit nicht in Widerspruch zu experimentellen Befunden kommt.
 
Kurz: Die Wellenfunktion des Universums ist auf einem 2-dimensionalen Minisuperraum definiert.

 

 Beitrag 0-355
Wie unterschiedliche physikalische Modelle Elementarteilchen modellieren.

 
 

 
Modelle für Elementarteilchen



Jukka Maalampi in Die Weltlinie (2008, S. 171-127):
 
In den Quantenfeldtheorien ebenso wie in den GUT-Theorien stellen sich Elementarteilchen — Quarks und Leptonen — als punktförmig dar. Sie haben dort weder Richting noch Dimension, ihre Abmessungen sind 0 - 0 - 0.
 
Dennoch haben sie Eigenschaften, welche sie unterscheidbar machen: Masse, elektrische und andere Ladungen.
 
Laut Stringtheorie aber sind diese Teilchen nur in der 4-dimensionalen Raumzeit punktförmig. Wenn es uns gelänge, in die 7 Extradimensionen zu blicken, würden wir sehen, dass es sich um kleine Fadenstücke oder Fadenschleifen [ oder schlauchartige Gebilde ] handelt. Sie können schwingen, und alle Arten von Elementar­teilchen — Quarks und Leptonen, ja sogar alle Energiequanten wie Photonen, Gluonen und Gravitonen — stellen sich als unterschiedliche Schwingungszustände solcher Strings dar.
 


 
 
Immer im Kopf behalten sollte man, auf was Richard Feynman hinwies:

 
» Mikroteilchen — wie etwa das Elektron — sind keine sichtbaren oder anfassbaren Gegenstände,
 
sondern Konzepte, die sich nur mathematisch formulieren lassen. «


 

  Beitrag 1057-83
Denkmodell Salatkopf

 
 
Hi Henry,

Zitat von Henry:
Die Theorie des Urknalls wurde aufgestellt, weil die Beobachtung des Kosmos auf einen Anfang desselben hindeutet, die Daten sind es also, die am Anfang standen und nicht die Theorie . Diese Beobachtungen beinhalten unter anderem, dass es keinen Mittelpunkt des Universums gibt.

Ein Widerspruch würde sich ergeben, weil .... Das aber würde jede Angabe über ein Alter des Kosmos als Ganzes unmöglich machen, die gesamte Kosmologie, die auf dem Urknall aufbaut, wäre nicht mehr haltbar.

Hi Henry,

hier eine Argumentationskette, welche mir mindestens die unterstrichenen Teile deiner Meinung zu widerlegen scheint:

George Smoot (der Vater des COBE Satelliten, Nobelpreisträger) schrieb 2010: "Die wahrscheinlichste Topologie des 3-dimensionalen Raumes ist einfach zusammenhängend wie ... eine komplette Himmelskugel, bei der kein Teil des Volumens fehlt."

Er schreibt weiter: "Die Beobachtung des ersten Lichtes [durch COBE] zeigt, dass die Ausdehnung des Universums unglaublich groß ist, dass es mindestens zwei Drittel unseres Hubble-Horizonts einnimmt, und sehr wahrscheinlich noch viel mehr."

Was Smoot hier unseren Hubble-Horizont nennt ist die Grenze des durch uns beobachtbaren Universums — die Grenze eines kugelförmiger Bereiches um uns herum also, der einen Radius von etwa 13.75 Mrd. Lichtjahren hat.

Es ist inzwischen gängige Meinung aller Astrophysiker, dass unser Universum flach (also unendlich groß) oder fast flach ist (d.h. endlich, aber nur extrem wenig gekrümmt). Genauer: Damit der Raum flach sein kann, müsste seine kritische Dichte Omega exakt 1 sein. Die genauesten bisher vorliegenden Messungen (erst 2010 vom WAMP-Team publiziert) zeigen, dass der wirkliche Wert von Omega mit großer Wahrscheinlichkeit irgendwo zwischen 0.991 und 1.173 liegt.

Es wird deswegen vermutet, dass unser Universum — als ein 3-dimensionaler Raum gesehen — fast flach ist, also endlich, dass aber dennoch keine durch uns denkbare Entfernung mit Gewissheit größer als sein Durchmesser ist.

Noch genauer: Man geht davon aus, dass der Raum lokal (also in vergleichsweise kleinen Teilen) durchaus flach sein kann, dass dies aber keineswegs global (also auf das ganze Universum bezogen) zutreffen muss.

Damit ist die wahrscheinlichste Form unseres Universums (betrachtet als 3-dimensionales Gebilde) wohl die eines mehr oder weniger verbeulten Fußballs, der — das ist nicht auszuschließen — einen Durchmesser haben könnte, der um Größenordnungen größer ist als die Kugel BU, die den vom Menschen im Prinzip beobachtbaren Teil des Universums darstellt.

Berücksichtigt man die Tatsache, dass unser Universum U einen Nebel darstellt, dessen Tröpfen Galaxien sind (ebenso wie jede Galaxie einen Nebel darstellt, dessen Tröpfen Sterne oder Sonnensysteme sind) und geht man jetzt mal davon aus, dass der Durchmesser von U z.B. um einen Faktor 101000 größer ist als der Durchmesser des durch uns maximal beobachtbaren Teils BU von U, so scheint mir nicht ausgeschließbar, dass U nach Form und Wachstumsverhalten einem Salatkopf vergleichbar sein könnte. BU wäre dann — von seiner Größe her — noch deutlich kleiner als ein einziges Atom in einem Blatt dieses Salatkopfes.

Interessant an dieser Perspektive ist, dass, wenn der Salatkopf wächst, er von seiner Wurzel her wächst, man das als Bewohner von BU aber nicht mehr wahrnehmen kann: Wer sich, wie wir Menschen, im Zentrum von BU befindet und über seinen Hubble-Horizont (den Rand von BU) nicht hinauszusehen in der Lage ist, der wird das Anschwellen von BU, das dem Wachsen des Salatblattes geschuldet ist, tatsächlich so sehen und beurteilen, wie wir die Expansion des Alls sehen und beurteilen: als reine Skalierung also.

Dieses Beispiel zeigt: All unsere Beobachtungen, die uns dazu führen, an einen Big Bang zu glauben und dennoch daran, dass das Universum NICHT von einer einzigen Stelle aus wächst (die man dann sein Entstehungszentrum nennen könnte), sondern durch Schwellung, sind durchaus verträglich mit dem Bild eines Gesamtuniversums, welch entstanden, gewachsen sein könnte, und immer noch wachsen könnte wie ein Salatkopf.

Beste Grüße,
grtgrt


PS: Treibt man die Analogie weiter, so könnte man BU vergleichen mit einem atomartigen winzigen Teil einer pflanzlichen Zelle, die ihrerseits Teil eines Blattes des Salatkopfs ist. Sie wächst tatsächlich durch Schwellung (also nicht von einem Zentrum her), der Salatkopf als Ganzes aber wächst von seiner Wurzel her durch Bilden von immer mehr pflanzlicher Zellen.

Könnte ein durch einen Big Bang entstandenes Universum also vergleichbar sein mit einer Pflanze?

Zu versuchen, diese These zu untermauern oder zu widerlegen, könnte spannend sein.
 

  Beitrag 1057-88
Nochmals: Denkmodell Salatkopf

 
 
Hi Henry,

zunächst einmal habe ich einen kleinen Fehler gemacht, indem ich sagte, das Salatkopfmodell widerlege deine Schlußfolgerung. Was ich sagen wollte (und immer noch will) ist:

Ein Beispiel gefunden zu haben, bei dem man nicht ausschließen kann, dass U von einer bestimmten Stelle her wächst (eben so wie ein Salatkopf von seiner Wurzel her wächst) — und ohne dass das aus BU heraus erkennbar wäre — zeigt eine Beweislücke deiner Argumentation. Der Versuch, sie zu beheben, könnte dazu führen, dass das Ergebnis deiner Überlegung sich ins Gegenteil kehrt.

Desweiteren: Den Stand gegenwärtiger Erkenntnis (teilweise in Form von Zitaten) habe ich nicht beschrieben, weil ich denken würde, er sei dir unbekannt — nein: ich habe ihn skizziert als Ausgangspunkt meiner Betrachtung (die ja sonst völlig aus der Luft gegriffen erschiene).

Mit Ausgangspunkt meiner Betrachtung ist die Annahme, dass U tatsächlich in einem Big Bang zur Welt kam. Wie wahrscheinlich das ist, möchte und brauche ich nicht zu diskutieren, da ich ja nur nach einer Situation suche,
  • die man einerseits nach gegenwärtigem Wissensstand nicht ausschließen kann,
  • und die andererseits, wenn sie denn zuträfe, dein Denkergebnis als falsch zeigen würde.

Kurz: In der Diskussion, die wir hier führen, siehst du alles aus den Augen eines Physikers, während ich alles aus den Augen eines Logikers sehe (bescheidener: aus den Augen eine Informatikers).


Nun aber zur Sache selbst. Du sagst:

Zitat von Henry:
In deiner Schlussfolgerung vergisst du eins: Dein Salatkopf hat viele Brüder, nämlich alle anderen Beobachter in welchen Galaxien auch immer. Das heißt, viele Bezugsräume, wenn man so will, die aber letztlich auch nur darauf zurückzuführen sind, dass es keinen universellen Mittelpunkt gibt.

Es ist richtig: Neben dem atomartig kleinen BU irgendwo in einem der Blätter des Salatkopfes gibt es Abermillionen weiterer mit BU vergleichbarer kugelförmiger Teilregionen von U. Sie können sich beliebig überlappen, denn sogar um JEDEN Punkt von U herum kann man sich so eine Kugel denken. Interessant sind natürlich nur jene dieser BU, in deren Mittelpunkt sich tatsächlich ein Beobachter findet. Seine Position in U ist sein Bezugspunkt.


Zitat von Henry:
Es geht nicht darum, was jeder Beobachter von seinem Bezugspunkt her wahrnehmen – messen – kann, sondern was allgemeingültig ausgesagt werden kann.

NEIN, denn Kern meiner Argumentation ist ja gerade, dass wirklich relevant ist, was jener Beobachter wahrnehmen und messen kann (genauer noch: was er NICHT wahrnehmen und daher auch NICHT messen kann).

Ich sage nämlich: Da in meinem Beispiel das betrachtete Universum U um eine Faktor von grob 101000 größer als BU ist, kann der Beobachter aus BU heraus nicht mehr erkennen, dass U von einer Stelle X her wächst, die extrem weit außerhalb seines Horizonts liegt — möglicherweise 101000 Mrd. Lichtjahre von ihm entfernt (!).

Diese besondere Stelle X in U könnte man dann sehr gut als das Zentrum Z( U) von U bezeichnen und als das Loch sehen, aus dem alles kam, was ein Beobachter zu beobachten und zu messen in der Lage ist, sofern es ihm hinreichend nahe kommt.

Gruß, grtgrt


Das U in meinem Sinne ist übringens noch lange nicht der gesamte Kosmos (oder muss es jedenfalls nicht sein). Ich betrachte U einfach nur als ein aus einem Big Bang heraus entstandenes oder entstehendes Universum. Es scheint mir nicht ausschließbar, dass der gesamte Kosmos vergleichbar sein könnte mit einem nie sterbendem Feuerwerk, derart dass jeder einzelne Funken darin einem Big Bang entspricht und ein U ist.

 

  Beitrag 1376-1
Was ist Zeit?

 
Auch wenn ich absolut fasziniert von dieser Seite bin ( ein Kompliment an die Verantwortlichen ), habe ich mir schon oft die Frage gestellt: "Was ist Zeit eigentlich?"
Mit den bisher veröffentlichen Theorien und wissenschaftlichen Meinungen kann ich aber leider nicht besonders viel anfangen.
Ich bin dann irgendwann zu meiner persönlichen Erkenntnis gekommen, daß es Zeit NICHT gibt, sondern daß sie nur eine Erfindung der Menschen ist.
Alles bleibt so wie es ist. Der Mensch hat die Zeit erfunden, um sichtbare Veränderungen zu beschreiben, um seinen Tagesablauf zu gestalten oder einfach nur um sein Dasein zu definieren.
 

  Beitrag 1376-28
Lebenszklus, Lebensbatterie, Entropie

 
 
Hi Stueps,

meine erste Antwort auf deine Anregung das Stichwort Entropie betreffend war falsch: Die Lebensbatterie eines Objektes lässt sich doch über Entropie definieren. Genauer: Sie definiert den — mit Hilfe der Entropiegesetze gut präzisierbaren — Freiraum, den ein Objekt hat, sich fortzuentwickeln, ohne durch diese Fortentwicklung seine Identität aufgeben zu müssen.

Hier die Argumentationskette, die mich zu dieser Meinung führt:

Zunächst muss festgestellt werden, dass ich von Objekten spreche, die Ansammlung nur endlich vieler Elementarteilchen sind, und dass ich zunächst davon ausgehe, dass deren Anzahl über die gesamte Lebensdauer des Objekts hinweg begrenzt ist. Dies anzunehmen ist keine Einschränkung, solange wir Objekte bestimmten Typs vorliegen haben (Atome, Moleküle, oder Objekte aus unserem täglichen Leben).

Sei also N eine positive ganze Zahl und sei X irgendein Objekt, welches während seiner ganzen Existenz — genau genommen ist das die Existenz seiner Identität — aus maximal N Elementartteilchen zusammengesetzt ist. Da N eine endliche Zahl, ist, gibt es auch nur endlich viele Zustände Z, in denen sich diese Elementarteilchen zusammenfinden können: Konfigurationen also, die durch ein kompliziertes Kräftegleichgewicht gebildet und zusammengehalten werden (es ergibt sich als Folge aller vier Grundkräfte).

Diese endlich große Zahl möglicher Konfigurationen ist nichts anderes als eine obere Grenze für die Entropie, die das Objekt maximal zu unterstützen in der Lage ist (das Maximum an Information also, die dieses Objekt irgendwann in seinem Leben darstellen kann).

Wo Objekte nicht gerade aus nur einem einzigen Elementarteilchen bestehen, kann man sie gut vergleichen mit Baumkronen, die einem ständigen Luftzug ausgesetzt sind — und hin und wieder sogar einem richtigen Sturm:
  • Die Blätter entsprächen den Elementarteilchen,
  • die Äste und Zweige den sie in bestimmter Konfiguration zusammenhaltenden 4 Grundkräften,
  • und der Luftzug, Wind oder Sturm entspricht den Scharen durchs All streunender Schwärme noch in gar keine Struktur eingebundener Elementarteilchen (Neutronen, Photonen, u.a.). Die meisten von ihnen durchqueren das Objekt so als wäre es gar nicht da, einige wenige aber kollidieren mit dem Objekt zugeordneten Elemenarteilchen und führen so zu einem nächsten Objektzustand.

So wie jedes Gleichgewicht ist auch ein Kräftegleichgewicht selbstheilend in dem Sinne, dass Störungen, wenn sie denn hinreichend klein sind, sich selbst beheben.

Dies hat zur Folge, dass, wo das Objekt aus einem Zustand Z1 in einen nächsten Zustand Z2 gestoßen wird, jener dem Z1 recht ähnlich sein wird. Dennoch wird er (so sagt uns der zweite Hauptsatz der Thermodynamik) mit an Sicherheit grenzender Wahrscheinlichkeit von höhere Entropie haben.

In den extrem wenigen Fällen, wo das NICHT so ist, spricht man von einer Mutation des Objekts. Sie kann den Wert des Objektes vergrößern oder verkleinern (das Objekt also, wenn es denn ein Lebewesen ist, krank machen oder es — ein ganz klein wenig wenigstens — zu einem höher entwickelten Lebewesen machen. In Verbindung mit Darwins Selektionsprinzip ist so erklärt, warum der Zusammenstoß von Elementarteilchen zwar in der Regel, aber eben nicht immer, zu höherer Ordnung führt, also zu weniger Entropie.


Zusammenfassend lässt sich feststellen:

Was ich in Beitrag 1376-15 die Lebensbatterie eines Objektes X im Zustand Z nenne, ist nicht anderes als das Paar

B = ( e(X,Z), e(N) )


worin e( N) eine obere Grenze für im Objekt enthaltene Entropie bezeichnet und e( X, Z) die Entropie von X im Zustand Z ist.

Die Differenz   1 – e( X,Z)/ e( N)   ist dann zu deuten als die in der Lebensbatterie noch vorhandene Restladung (so normiert, dass 1 der voll geladenen Batterie entspricht).

Dem 2. Hauptsatz der Thermodynamik entsprechend wird sie mit an Sicherheit grenzender Wahrscheinlichkeit bei jedem Zustandsübergang kleiner, so dass klar ist: X wird irgendwann sterben, d.h. wird irgendwann so entstellt sein, dass es seine Identität verliert — eben ganz so, wie auch ein Mensch sich mit zunehmendem Alter mehr und mehr verändert, schließlich in einen Sarg gelegt wird, und dort weiter zerfällt, so dass man irgendwann nicht mehr sagen kann, was man da noch vorfindet sei ein Objekt vom Typ Mensch.

Nachdem man die kleinstmögliche Version der Zahl N nicht kennen kann, wird man auch die Restladung der Lebensbatterie stets nur mit gewisser Unschärfe kennen.


Also Stueps, danke, denn ohne deine zwei Anregungen wäre ich auf diese Erklärung so schnell nicht gekommen.

Beste Grüße,
grtgrt

PS: Ich habe oben so getan, als würden Zustandsübergänge sich stets ergeben durch Zusammenstoß des Objekts mit streunenden Elementarteilchen. Das ist nicht ganz richtig, denn es gibt in jedem Quantensystem ja auch spontane Zustandsübergänge, sogar solche, von denen Chemiker durchaus wissen, mit welcher Wahrscheinlichkeit in etwa sie eintreten. Am Gesamtergebnis meiner Betrachtung ändert sich dadurch aber rein gar nichts.

 

  Beitrag 1894-1
RZQ — die Raumzeit der Quanten: die Zeit als gerichteter Graph

 
 

Wie die Allgemeine Relativitätstheorie uns lehrt, entwickeln physikalische Objekte — sobald sie sich relativ zueinander mit unterschiedlicher Beschleunigung bewegen — einen unterschiedlichen Zeitbegriff. Siehe hier Details dazu.

Daraus, so denke ich, ergibt sich zwingend, dass man die Zeit als einen in die 4-dimensionale Raumzeit der Allgemeinen Relativitätstheorie eingebetteten gerichteten Graphen aufzufassen hat, dessen Knoten Ereignisse im Sinne der Quantenmechanik sind (sprich: Punkte der Raumzeit, an denen Elementarteilchen entstehen, zerfallen, oder sich neu aufteilen in Folge einer Kollision).

Genauer beschrieben findet sich diese Idee auf folgenden Seiten (man sollte sie in eben dieser Reihenfolge lesen):

(1)   Vergangenheit und Zukunft genauer definiert

(2)   RZQ: Die Raumzeit der Quanten (Teil 1)
(3)   RZQ: Die Raumzeit der Quanten (Teil 2)

Ich würde mich freuen, wenn Physiker diese meine Ansicht kommentieren könnten (insbesondere dann, wenn sie glauben, Argumente dagegen zu haben).

 

  Beitrag 1894-9
RZQ — die Raumzeit der Quanten: Definition des Zeitgraphen

 


Entsprechen Quantenereignisse dem Ticken einer Uhr?


Zeit — so sagt man — fließt, indem sich Veränderung ergibt. Nimmt man das ernst, muss jeder Kollaps der Wellenfunktion einen kleinsten Zeitschritt bedeuten.

 
Nach allem, was die Theoretische Physik heute weiß, könnte man unser Universum auffassen als ein Paar ( B, E ), für das gilt:
  • B ist eine Menge elementarer Energiequanten ( Schwingungszustände von Strings im Sinne der Stringtheorie) und
  • E ist eine Menge atomarer Ereignisse, deren jedes sich auffassen lässt als ein Paar X( V,Z), derart dass V und Z Teilmengen von B sind.

Jedes Ereignis X = X( V,Z ) kann als Tor aufgefasst werden, welches aus seiner direkten Vergangenheit V = X.V in seine direkte Zukunft Z = X.Z führt.

Man beachte: X.V ist Input von Ereignis X, wohingegen X.Z seinen Output darstellt.

Da die Menge aller Paare ( v, z ) mit v und z aus E derart, dass der Durchschnitt von v.Z und z.V nicht leer ist, eine zweistellige Relation auf E ist, kann man ihre transitive Hülle bilden. Sie ist ebenfalls zweistellige Relation auf E. Man nennt sie die Zeit (und kann sie sehen als einen gerichteten Graphen, dessen Knoten Ereignisse und dessen Kanten Branen sind).


Die Zeit als Pfeil zu sehen wäre nur dann gerechtfertigt, wenn die sie darstellende transitive Relation eine lineare Ordnung (im Sinne der Mathematik) wäre. Sie scheint aber lediglich Ordnung zu sein.


Frage an alle Physiker unter Euch: Wie kann der so definierte gerichtete Graph — man sollte ihn die Struktur der Zeit nennen — mathematisch mit Einsteins Gleichungen der Allgemeinen Relativitätstheorie verschmolzen (oder zu ihnen in Bezug gesetzt) werden?

 

  Beitrag 1823-146
RZQ — die Raumzeit der Quanten: Zum Motor der kosmischen Uhr

 
Okotombrok aus 1823-7:
Bernhard Kletzenbauer aus 1823-6:
Keine Prozesse, keine Vergleichsmöglichkeiten = keine Zeit
So klar hab' ich das für mich noch nicht.
Wenn wir das Gedankenexperiment weiterdenken, und annehemen, es bewegt sich wieder was, heißt das dann, die Erstarrung hätte gar nicht stattgefunden?

Ja, Zeit ist Veränderung. ABER: Der Fall, dass es keine Prozesse gibt, existiert gar nicht. Genauer:

Einstein sagt:

Zitat:
Die Zeit ist, was man von der Uhr abliest.

Dazu kommt, was ich gelernt zu haben glaube (siehe Zur Struktur der Zeit):

Zitat von grtgrt:
Die einzige umfassende Uhr ist der Kosmos selbst.


Jeder Tick dieser Uhr ist ein atomares Ereignis, in dem eine kleine Portion schwingender Energie entsteht, vergeht, oder mit anderen solcher Portionen kollidiert (was zu einer Verschmelzung und Neuaufteilung dieser Portionen noch im Ereignis selbst führt).

Dass diese kosmische Uhr niemals stehen bleibt, ergibt sich aus dem, was Lisa Randall (auf Seite 238 und 225 ihres Buches Warped Passages ...) schreibt:

Zitat:
Quantum contributions to physical processes arise from virtual particles that interact with real particles.

Virtual particles, a consequence of quantum mechanics, are strange, ghostly twins of actual particles. They pop in and out of existence, lasting only the bares moment. They borrow energy from the vacuum — the state of the universe without any particles.

Da virtuelle Partikel spontan entstehen (ohne beobachtbaren Grund also), ist nicht damit zu rechnen, dass das jemals endet. Sie also sind der Motor, der die kosmische Uhr treibt und die Zeit vergehen lässt.

Mfg, grtgrt
 

 Beitrag 0-463
Quarks — Warum man sie stets nur eingebettet in Hadronen (= Mesonen oder Nukleonen) vorfindet

 
 

 
Wie man erkannt hat, dass Quarks wirklich Teilchen sind

 
 
Ende der 1960er und Anfang der 1970er Jahre hat man in Stanford
 
 
Die experimentelle Untersuchung von Quarks begann Ende der 1960er Jahre in Stanford: Man hat stark beschleunigte Elektronen mit ebenso stark beschleunigten Protonen kollidieren lassen und dann beobachtet, wie sich die aus solcher Kollusion entstandenen Teilchen verhielteN:
     
  • In Stanford hat man nur die gestreuten Elektronen beobachtet. Für die Interpretation dessen, was beobachtet wurde, bekamen Friedman und Taylor 1990 den Nobelpreis.
     
  • Die ausführlichsten Untersuchungen zur Quarkstruktur des Protons fanden später im Hamburger Forschungslabor DESY statt:

Dort hat man um den Detektor, der die Streuprodukte beobachtet, eine supraleitende Spule gelegt. Soweit bei der Kollision elektrisch geladene Teilchen entstehen, hinterlassen sie Spuren im Detektor. Aus der Krümmung dieser Spuren im Magnetfeld lassen sich dann die Impulse dieser Teilchen bestimmen.
 
Außerhalb der Spule befinden sich sog. Kalorimeter (= Detektoren, an welche die Streuprodukte dann ihre gesamte Energie abgeben). Aus den gemessenen Impulsen und Energien kann die gesamte Reaktion konstruiert werden.
 
 
Man erkennt:
    Bei einer Proton-Elektron-Kollision wird das Elektron nach unten gestreut, zudem aber fliegt nach oben weg ein ganzes Bündel geladener Teilchen (fast alle sind Pionen). Zusammengezählt tragen sie genau den Impuls, den das Elektron an das Proton abgegeben hat.

Interpretiert wird diese Beobachtung wie folgt:
    Das Elektron hat aus dem Proton ein Quark herausgeschlagen. Seiner (sehr starken) Farbladung wegen, "saugt" es aus dem Vakuum Paare, deren jedes aus einem Quark und einem Antiquark besteht und vereinigt sich mit einem davon, so dass es sich so zu einem Meson oder einem Nukleon ergänzt hat.
     
    Dass Quarks nicht frei existieren können, hat demnach mit ihrer starken Farbladung zu tun.
     
    Auch das, was vom Proton nach der Kollision noch übrig war, trägt solch starke Farbladung und neutralisiert sich ebenso schnell auf eben dieselbe Weise.

Die Farbladungen der Quarks nennt man Blau, Grün, Rot, die der Antiquarks nennt man — dem entsprechend — Antiblau, Antigrün, Antirot.
 
Es ist eindrucksvoll zu sehen, wie gut solche Namensgebung und das Verhalten dieser Ladungen an die Gesetze der Farbenlehre erinnert:
     
  • Die Summe von Rot, Grün, Blau ist farbneutral (weiß) ebenso wie die Summe von Antirot, Antigrün und Antiblau.
     
  • Die Antifarbe von Blau ist Gelb (= Rot + Grün), die von Grün ist Magenta (= Rot + Blau), die von Rot is Cyan (= Grün + Blau), und die Summe von Farbe und Antifarbe ist farbneutral.

Unter den Hadronen versteht man heute sämtliche Teilchen, die aus Quarks bestehen. Es sind dies
     
  • Baryonen = alle Teilchen, die aus 3 Quarks bestehen, und
     
  • Mesonen = alle Teilchen, welche aus einem Quark und einem Antiquark bestehen (Pionen sind Mesonen).

Sie alle sind in der Sprache der starken Wechselwirkung farbneutral.
 
 
 
Über Vakuumpolarisation

 
 
Photonen tragen keine elektrische Ladung. Nun kann sich aber jedes Photon für im Rahmen der Unschärferelation erlaubte Zeit als virtuelles — i.A. also nur recht kurzlebiges — Elektron-Positron-Paar darstellen. Es wird dann durch die ausgesandte Ladung polarisiert (das virtuelle Positron wird z.B. abgestoßen, das virtuelle Elektron aber angezogen). Hierdurch wird die Ladung räumlich verschmiert. Man nennt das eine Abschirmung der Ladung, da im Inneren das elektrische Feld — dem Coulombgesetz folgend — weiter steigt. Dieser Effekt — Vakuumpolarisation genannt — ist nur in der Nähe einer Ladung von Bedeutung.
 
Ganz analog dazu kann auch jedes Gluon in ein virtuelles Quark-Antiquark.Paar übergehen. Die Folgen sind die gleichen wie im Falle des Photons: Die starke Ladung wird abgeschirmt.
 
Ganz anders aber sieht es aus, wenn sich das Gluon in zwei virtuelle Gluonen aufspaltet (sich also über eine von der Unschärferelation erlaubte Zeit hinweg als Paar von Gluonen darstellt, welche dann die starke Ladung "verschmieren"):
 
    Wie Gross, Politzer und Wilczek — belohnt durch einen Nobelpreis — erkannt haben, überwiegt die Fortpflanzung der starken Ladung durch die Spaltung dann bei weitem den Effekt der Abschirmung der starken Ladung. Die Anziehung zwischen den Quarks nimmt daher mit steigendem Abstand zu und wirkt nun wie eine elastische Feder: Bei kleinem Abstand ist sie schwach, bei großem entsprechend groß (!).

Man nennt diesen Effekt Confinement, da sich die Quarks dann bei kleinen Abständen (wie man sie nur in Stößen mit hoher Energie erreicht) deswegen fast wie freie Teilchen benehmen können. Die Physiker nennen das asymtotische Freiheit (asymtotic freedom).
 
Die Tatsache, dass die zwischen farbig geladenen Teilchen gegebene Kraft mit zunehmender Entfernung wider Erwarten nicht schwächer wird, erklärt den oben erwähnten » Saugeffekt «, mit dessen Hilfe freie Quarks unter virtuellen Teilchen extrem schnell wieder einen Partner finden, mit dem zusammen sie dann Meson oder Nukleon werden.
 
 
Mit Computersimulationen kann man zeigen, dass sich zwischen zwei statischen Quarks (Paarerzeugung wird unterdrückt) ein Potential ausbildet, das mit dem Abstand linear zunimmt. Es führt zu einer mit wachsendem Abstand konstant bleibenden Kraft (im Gegensatz zu z. B. Gravitation und Elektromagnetismus, deren Kraft mit zunehmendem Abstand quadratisch abnimmt).
 
Dieses lineare Potential wird damit erklärt, dass sich auf Grund der Farbladung die Gluonen zu einem Strang verbinden, dessen Energie mit der Länge wächst. Ein farbgeladenes Teilchen vom Rest zu trennen würde deswegen extrem hohe Energie erfordern. Somit ist eine Trennung der Quarks von den Gluonen nur unter bestimmten Bedingungen und stets nur für sehr kurze Zeit möglich.
 
In der Realität wächst die Energie natürlich nicht ins Unendliche an. Ab einer gewissen Energie — d.h. ab einem gewissen Abstand zwischen den Quarks — können neue Quark-Antiquark-Paare entstehen, die sich mit den vorherigen zu neuen farblosen Zuständen binden. Dieser Effekt wird » String-Breaking « genannt.
 
 
 
Quelle: Bogdan Povh: Von den Tiefen des Alls in den Mikrokosmos, Springer 2017, S. 194-200.


 

  Beitrag 1915-1
Die (nicht widerlegbare) logische Struktur unserer Welt

 
 

Über die Welt, in der wir leben


Meine These 1:
  • Das Universum ist ein Quantensystem definiert durch seine Wellenfunktion.
  • Die Wellenfunktion jedes Quantensystems ist Summe der Wellenfunktionen einzelner Quanten.
  • Die Wellenfunktion jedes Quantums Q ist eine Summe von Wellenfunktionen, deren jede genau einen Zustand darstellt, in dem sich Q zeigen kann (jede dieser Wellenfunktionen nenne ich eine atomare Zustandswelle).
  • Wo Q einen Punkt der Raumzeit betritt oder verlässt, zeigt Q sich in genau einem dieser Zustände.
  • Jedes Elementarereignis erzeugt und/oder vernichtet Zustandswellen.
  • Ganz offensichtlich gilt: Je größer die Zahl der Quanten ist, aus der ein Quantensystem QS besteht, desto weniger wird ein einzelnes Elementarereignis den Gesamtzustand von QS abändern.
  • Kein Wunder also, dass
      uns ein Quantensystem umso konkreter erscheint, je größer es ist (seine Größe definiert als Zahl der seine Zustandswelle darstellenden atomaren Zustandswellen)
      und dass es sich — aus nicht allzu mikroskopischer Sicht — stetig zu entwickeln scheint, d.h. kontinuierlich in kleinsten Schritten.

Meine These 2:
  • Es kann mir niemand beweisen, dass diese Sicht falsch ist.


grtgrt, Gebhard Greiter

Wo oben von einer "Summe" der Wellenfunktionen gesprochen wird, darf man das nicht ganz wörtlich nehmen. In Wirklichkeit ist die Situation etwas komplexer: Jene "Summe" ist Lösung eines Eigenwertproblems, in dessen Zentrum die Schrödingergleichung des jeweils betrachteten Quantensystems steht.

 

  Beitrag 1915-3
Wie sich Dekohärenzprozesse einordnen

 
 
E... aus 1915-2:
Welche Rolle spielen bei Deinem Weltmodell die Dekohärenzprozesse?

Hallo E...,

sie sind im Modell durchaus berücksichtigt, denn:


Nach These 1 ist unsere Welt eine Konfiguration M verschieden wahrscheinlicher Möglichkeiten, gewisse Form anzunehmen. Jedes Elementarereignis E = E( M) ist eines der von M als möglich eingestuften. Sein Eintreten ersetzt M durch eine neue Version M( E). Auf diese Weise konkretisiert und generiert unsere Welt sich ständig neu.

Ein Elementarereignis E kann eintreten
  • entweder spontan (so dass ohne jede erkennbare Ursache ein Paar virtueller Teilchen entsteht oder vergeht)
  • oder durch Kollision existierender Teilchen (Dekohärenz): Zusammenstoßende Quanten nehmen einander wahr und führen so zum Kollabieren ihrer Wahrscheinlichskeitswelle).


Beste Grüße,
grtgrt
 

  Beitrag 1915-5
Der Heisenberg-Zustand des Universums

 
 
H... aus 1915-4:
Grtgrt aus 1915-1:
Das Universum ist ein Quantensystem definiert durch seine Wellenfunktion.

Hier wäre ich etwas zurückhaltender in der Formulierung. Klar ist, dass ein quantenmechanisches S. durch seine Wellenfunktion (die übrigens empirisch gewonnen wurde, nicht durch Herleitung! Und die man bestimmen muss.) vollständig beschrieben wird (das ist ein Grundpostulat der QM). Aber hier geht z.B. keine Gravi ein. Schrödinger hat damals versucht, die RT einfliessen zu lassen, was er aber aufgegeben hat.

Hi H...,

viel von dem, was ich heute glaube, geht zurück auf meine Lektüre des wunderbaren Buches von Lothar Schäfer: Versteckte Wirklichkeit (Hirzel 2004).

Er schreibt da z.B. auf Seite 51:

Zitat von Lothar Schäfer :
 
... der wellenartige Zustand der Wirklichkeit ... von Heisenberg (1958) auch "Wahrscheinlichkeitsfunktion" genannt. Stapp (1993) verallgemeinert diesen Begriff, indem er ihn den "Heisenberg-Zustand des Universums" nennt [und beschreibt wie folgt:
 
Zitat von Stapp aus: Mind, Matter, and Quantum Mechanics (1993):
In Heisenbergs Modell ... wird die klassische Welt der Materieteilchen ... durch den Heisenberg-Zustand des Universums ersetzt. Diesen Zustand kann man sich als komplizierte Welle vorstellen, die sich ... in Übereinstimmung mit örtlich-deterministischen Bewegungsgesetzen entfaltet.

Doch dieser Heisenberg-Zustand stellt nicht das tatsächliche physikalische Universum selbst im üblichen Sinne dar, sondern nur eine Menge " objektiver Tendenzen" oder " Neigungen", die mit einem bevorstehenden tatsächlichen Ereignis verbunden sind: Für jede von den einander ausschließenden möglichen Formen, die das tatsächliche Ereignis annehmen könnte, bestimmt der Heisenberg-Zustand eine Neigung oder Tendenz für das Ereignis, eben diese Form anzunehmen.

Die Wahl zwischen den einander ausschließenden möglichen Formen wird dabei als völlig vom "reinen Zufall bestimmt" gedacht, der durch jene Tendenzen beeinflusst wird.

Gruß, grtgrt
 

  Beitrag 1915-6
Definition des Begriffes "atomare Zustandswelle"

 
 
H... in 1915-4:
Grtgrt in 1915-1:
[/list
  • Die Wellenfunktion jedes Quantensystems ist Summe der Wellenfunktionen einzelner Quanten.
Superposition? d'Accor

Grtgrt in 1915-1:
  • Die Wellenfunktion jedes Quantums Q ist eine Summe von Wellenfunktionen, deren jede genau einen Zustand darstellt, in dem sich Q zeigen kann (jede dieser Wellenfunktionen nenne ich eine atomare Zustandswelle).

Hm, was meinst du? Ich versuche es mal mit dem (etwas verkürzten) 1x1 der QM:
sein F der zu einer phys. G. gehörige Operator, φ der Zustandsv. (Wellenfkt.), dann bekommt man scharfe Werte, wenn
gilt (F - F) φ = 0 (falls mittl. qu. Abw. der Zustände 0). D.h. die Eigenfunktionen φ des Operators sind die messbaren
Zustände, die man messen kann, nicht muss (und genau die und keine anderen!!!).

Hi H...,

vielen Dank für diese Klarstellung.

Sie zeigt mir, dass das, was ich eine atomare Zustandswelle nenne, in Wirklichkeit eine jener Eigenfunktionen ist.

Beste Grüße,
grtgrt
 

  Beitrag 1915-7
Erklärung der transzendenten Dimensionen unserer Welt

 
 
H... aus 1915-4:
Grtgrt aus 1915-1:
[/list
  • Wo Q einen Punkt der Raumzeit betritt oder verlässt, zeigt Q sich in genau einem dieser Zustände.
  • Jedes Elementarereignis erzeugt und/oder vernichtet Zustandswellen.

Hier wäre interessant, was betreten heisst und von WO kommt Q?

Es gibt ja eigentlich nichts weiter ausser der Raumzeit. Diese ist durch gewisse Energiezustände charakterisiert.
Nun kann es durch wohlbeschreibbare Fluktuationen passieren, dass ein Teil der vorhandenen Energie sich in ein Partikel/Antipartikel formt
und sofort wieder zerstrahlt. Casimir hat dies ja sogar exp. dingfest gemacht.

Hi H...,

mein Wort betreten steht für das Kollabieren der Wahrscheinlichkeitswelle und soll daran erinnern, dass man hier die transzendente Welt möglicher Alternativen verlässt und so hineintritt in die materielle Wirklichkeit des (durch die Raumzeit modellierten) Universums.

Die Frage, woher das Quantum Q kommt, ist die eigentlich interessante — ich beantworte sie wie folgt:
  • Das Universum scheint über die 4 uns bekannten Dimensionen hinaus weitere, rein konzeptuelle Dimensionen zu haben (in denen dann die durch Heisenberg so bezeichneten " Neigungen" und " Tendenzen" als transzendente Größen existieren).
  • Das Betreten der materiellen Wirklichkeit des Universums entpräche dann dem Projezieren der 4+N-dimensionalen Gesamtwelt auf einen der Raumzeit ent­sprechenden 4-dimensionalen Raum, den man zu sehen hätte als jene Teilmenge der Menge aller Punkte der Gesamtwelt, die in Dimension 5 bis 4+N identischen Koordinatenwert haben — eben jenen Wert, welcher dem Zustand entspricht, zu dem hin die Wahrscheinlichkeitswelle kollabiert (und der das Quantum Q enthält).
  • Jede Projektion in diesem Sinne ließe sich auffassen als genau eine der Welten des Hugh Everett III.

Beste Grüße,
grtgrt

PS: Die Dimensionen 5 bis 4+N sollte man als die transzendenten Dimensionen unserer Welt bezeichnen. Sie scheinen rein konzeptueller Art zu sein (und sind wohl das, was wir als mathematische Gesetzmäßigkeiten kennen, genauer: z.T. kennen).

 

  Beitrag 1942-30
Die Natur als Materie erschaffender Computer

 
 
Irena aus 1942-29:
 
wenn man beginnt, sich mit der Deutung der Information zu beschäftigen, kommt man zum Schluss, dass die Erklärung der Information als alleinigen Gründer der Materie unsinnig ist. Weil die Information immer mit einer Deutung komplementär ist.

Hallo Irena,

im Grunde genommen, muss man die folgenden 4 Begriffe nebeneinander stellen:
  • Daten (als Form, in der uns Information — irgendwie kodiert — erreicht),
  • diese Information selbst,
  • ihre Deutung
  • und die aufgrund der Deutung erfolgende Reaktion auf jene Information.

Zunächst ist festzustellen:
  • Ein und dieselbe Information kann in Form verschiedener Daten vorliegen (kann also verschieden kodiert und transportiert sein).
  • Geeignetes Abstrahieren von diesen Formen liefert uns die Information selbst (sofern wir beim Dekodieren keinen Fehler machen).
  • Jene Information zu deuten bedeutet dann nichts anderes, als zu versuchen, sich all ihre Konsequenzen auszumalen (formal gesprochen: Deutung = Übergang zur transitiven Hülle). Da jenen Übergang zu finden, schwierig sein kann, wird man dabei i.A. Fehler machen — und wenn es nur der Fehler ist, einige Konsequenzen schlichtweg zu übersehen.
  • Der Wissensstand, bei dem man so angelangt ist, triggert dann eine Reaktion, die die Realität verändert und so zu neuen Daten führt.

Diesen Zyklus immer und immer wieder zu gehen, bezeichnet man als Informationsverarbeitung — was nichts anderes als ein Prozess ist, der schrittweise Daten entgegennimmt und schrittweise Reaktion darauf erzeugt.

Der den Prozess treibende Mechanismus — ein Mensch, oder die Natur selbst — funktioniert nicht voll deterministisch.

Das wiederum hat zur Folge, dass die Reaktion durch die eingehenden Daten nicht wirklich eindeutig definiert ist (als Mensch macht man Fehler, als Natur funktioniert man im Kleinsten absolut zufällig, liefert also für unteilbare Ereignisse zufällige Reaktion, die statistisch gesehen aber dennoch wieder durch existierende Information ψ beschrieben ist).

Der Korridor der Möglichkeiten, die so zu Realität werden können und teilweise auch werden, ist demnach durch ψ — die Wellenfunktion des Universums — beschrieben und eingegrenzt.

Die Natur — als der Mechanismus, der den Prozess abarbeitet — ist gegeben durch die 4 Grundkräfte. Sie, so vermutet man heute, könnten auf eine einzige Kraft zurückführbar sein, die man dann — so meine ich — gut als den "Geist" der Natur sehen könnte.

Materie wird dann also letztlich — so wie in Beitrag 1924-1 beschrieben — durch jenen "Geist" geschaffen.


Gruß, grtgrt
 

  Beitrag 1917-1
Lothar Schäfers Weltmodell (und sein entscheidender Schritt)

 
 

Wie uns Philosophie hilft, den Kosmos zu verstehen


Was ich als philosophische Erkenntnis bezeichne ist eine Meinung, die sich über lange Zeit hinweg mindestens einer Person mehr und mehr aufgedrängt hat, die mindestens eine Person immer wieder erwogen, mit Hilfe streng logischer Argumentation kritisch überdacht, mit anderen Meinungen verglichen, dann aber doch als einzig plausiblen Standpunkt eingestuft hat.

Eine so entstandene Überzeugung ist deutlich mehr als nur eine Meinung unter vielen: Sie ist wenigstens diesem Menschen eine Art Erleuchtung, obgleich auch er sie nicht wirklich beweisen kann.


Wer philosophische Erkenntnisse ignoriert, ist selten gut beraten.

Ein uns alle angehendes Beispiel ist Kants Überzeugung, dass der Mensch Zweck an sich ist (und daher nie nur als Mittel zum Zweck benutzt werden darf):

Zitat von Kant (1785):
 
Jeder Mensch, und überhaupt jedes vernünftige Wesen,
existiert als Zweck an sich
und keineswegs nur als Mittel zum beliebigen Gebrauche für diesen oder jenen Willen.

 

Zitat von Kant:
 
Handle so, dass du die Menschheit — sowohl in deiner Person als in der Person eines jeden anderen — jederzeit zugleich als Zweck,
niemals [aber bloß als Mittel brauchest.

 

Zitat von Lothar Schäfer (2004):
 
Kants Imperativ enthüllt die akute Immoralität unseres heutigen Gesellschaftsystems. Wir stehen dauernd unter dem Druck der Verderber: im Geschäftsleben wie in der Politik sind wir ständig gefordert, Menschen nur als Mittel zum Zweck zu betrachten.
 


Dass philosophische Erkenntnisse sehr wertvoll sein können (wie dieses Beispiel zeigt), ist eine Sache.

Eine ganz andere aber ist, dass – wo es um Naturwissenschaft geht – oft völlig unklar bleibt, wie man der Philosophen Aussage zu interpretieren hat, damit sie uns zur Erleuchtung wird.

Schlimmer noch: selbst der Philosoph selbst, weiß das oft nicht wirklich. Es scheint vielmehr so zu sein, dass besonders tiefe Wahrheiten sich auch ihm nur einen kurzen Augenblick lang offenbaren. Er kann so eine Wahrheit dann nicht mehr vergessen, weiß jetzt, dass sie existiert, kann sie aber doch nicht weiter greifbar machen.


Gutes Beispiel dafür mag George Berkely’s Erkenntnis sein:

esse est percipi   ( zu sein bedeutet wahrgenommen zu werden ).


Wie einige andere Philosophen sein Werk in allzu vielen Worten interpretieren, geht meiner Meinung nach völlig an dem vorbei, was sich ihm da einen kurzen Moment lang als tiefe Wahrheit gezeigt haben mag. Treffender zu interpretieren scheint ihn Lothar Schäfer, der denkt:


Berkely ist der Meinung, dass alles, was wirklich existiert, eine Art Bewusstsein hat.

Damit sagt er umgekehrt, dass wo immer wir ein Ding wahrnehmen, welches KEIN Bewusstsein zu haben scheint,
wir es in seiner wirklichen Existenz noch gar nicht gesehen, geschweige denn begriffen haben.


Nehmen wir also mal an, das betrachtete Ding sei der Stuhl, auf dem ich eben sitze. Hat der ein Bewusstsein? Wohl nicht (würden wir meinen). Also, so sagt Berkely, ist das, was ich sehe, wenn ich ihn fühle, greife, betrachte nur eine durch mich selbst produzierte Illusion — eine Art Abstraktion könnte man sagen. Sie zeigt ihn nur projeziert in meine eigene gedankliche Welt.

Und tatsächlich: Ein Physiker wie Heisenberg etwa, sieht jeden Stuhl ganz sicher auch als ein Quantensystem, woraus ihm dann sofort klar wird, dass der Stuhl eine wesentlich weniger materielle Existenz hat als er sie in den Augen dessen hat, der ihn gerade als Sitzgelegenheit benützt. Kann man sich dann aber nicht mit Recht fragen, ob nicht vielleicht auch Heisenbergs Vorstellung von der Natur der Existenz des Stuhls noch sehr weit von der entfernt ist, die des Stuhles wirklich wahre ist — jene also, in der er dann tatsächlich Bewusstsein haben könnte?


Hier angekommen, wird so mancher versucht sein zu sagen: Wenn wir nicht wissen, was eine ganz bestimmte Aussage eines Philosophen denn nun genau bedeutet — und wenn er selbst noch damit kämpft, sie zu verstehen — mache es wohl keinen Sinn, sich länger damit zu befassen.

So zu denken aber wäre falsch, wie uns gleich drei Beispiele zeigen:

  • Chemiker und Physiker des 19. Jahrhunderts haben Demokrits Atomtheorie – sie geht eigentlich zurück auf seinen Lehrer Leukippos (etwa 500 v.Chr.) – neu ausgegraben und konnten sie erstaunlich genau bestätigen. Wer mir das nicht glaubt, der wird es sicher Heisenberg glauben.
  • Und Heisenberg gibt gleich noch ein zweites Beispiel: "Die Wahrscheinlichkeitswelle von Bohr, Kramer und Slater ... bedeutete so etwas wie eine Tendenz zu einem bestimmten Geschehen. Sie bedeutete die quantitative Fassung des alten Begriffes der » Potentia« in der Philosophie des Aristoteles."
  • Noch erstaunlicher: Parmenides (geboren um 530 v.Chr.) lehrte: "Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen; die Welt ist nur Meinung ...". Und genau das bestätigt uns im 20. Jahrhundert der Physiker Niels Bohr.

Wir sehen: Die moderne Physik bestätigt mehr und mehr die schon recht alte Erkenntnis, dass

wir die Welt und deren Bedeutung noch gar nicht kennen,
sondern dass ALLES um uns herum nur Vorstellung und Illusion ist.


Wo aber stehen wir dann? Sind wir beim Versuch, die Welt zu verstehen, in eine Sackgasse gelangt? Es sieht nicht so aus:


Der Astrophysiker und Mathematiker Sir James Jeans (1877-1946) schrieb 1931:

Zitat:
 
Man kann sich das Universum am besten ... als aus einem reinen Gedanken bestehend vorstellen, wobei wir den Gedanken woran, mangels eines umfassenden Wortes, als den eines mathematischen Denkers beschreiben müssen ...

Das Universum sieht immer mehr wie ein großer Gedanke aus als wie eine große Maschine. Geist erscheint nicht mehr wie ein zufälliger Eindringling in das Reich der Materie, sondern wir fangen an, Verdacht zu schöpfen, dass Geist Schöpfer und Herrscher im Reich der Materie ist — natürlich nicht unser eigener individueller Geist, sondern der, in dem die Atome als Gedanken existieren, aus denen unser eigenes Bewusstsein gewachsen ist ...

Wir entdecken, dass das Universum Hinweise auf eine planende und kontrollierende Kraft offenbart, die etwas mit unserem individuellen Geist gemein hat.
 

Ist Jeans dann aber mit diesem Verdacht nicht schon ganz nahe an dem, was George Berkely mit seinem esse est percipi wohl erahnt hat?


Meiner Ansicht nach, könnte der nächste große Schritt, den Philosophen und Physiker sich wünschen gehen zu können, sehr wohl über das Weltbild des Lothar Schäfer führen. Wenn ich ihn richtig verstehe, lässt es sich so zusammenfassen:



Lothar Schäfers philosophische Meinung


Schäfer, ein Professor für Physik in Arizona, nicht der gleichnamige Philosoph, sieht drei Wurzeln unseres Wissens:
  • das Erfahren, Beobachten und Interpretieren der raumzeitlichen Wirklichkeit,
  • den gezielten Gebrauch unserer Vernunft in Übereinstimmung mit jedem anerkannten Gesetz logischen Denkens,
  • daneben aber auch die epistemischen Prinzipien des sich selbst bewussten Geistes (der mindestens uns, möglichwerweise aber sogar dem gesamten Kosmos Bewusstsein verleiht).
    Man beachte: Schäfer spricht hier von epistemischen (nicht aber von epistomologischen) Prinzipien. Was er als dritte Quelle unseres Wissens sieht, ist demnach all das, was logische Konsequenz dessen ist, was unser "sich selbst bewusster Geist" als "ganz offensichtlich wahr" einstuft.

Schöpfend aus diesen 3 Quellen des Wissens kommt Schäfer zu einem Weltbild, welches das von Bohr und Heisenberg um einen, wenn er denn richtig sein sollte, ganz entscheidenden Schritt weiter denkt (in Punkt 3):
  • Die Grundlagen der materiellen Welt sind nicht-materiell.
  • Fast alle Dinge sind aufgebaut aus Dingen, die weit weniger konkret sind als sie selbst.
  • Über quanten-physikalische Experimente haben wir Zugang zu einer anderen Wirklichkeit gefunden: Sie könnte die Welt der platonischen Ideen sein.
    Hinweis: Die platonische Idee — das sollte man wissen — bezeichnet kein mentales Erzeugnis, keinen Einfall oder Gedanken. Platon geht davon aus, dass die Welt, wie sie vom Menschen sinnlich wahrgenommen wird, einem eigenständig existierenden Reich sog. Ideen nachgeordnet ist, welches einen Teil unserer Welt darstellt, den man nur auf geistigem Weg erkennen und erforschen kann, da alles dort Existierende sinnlicher Wahrnehmung entzogen sei [also nicht Gegenstand der Experimentalphysik sein kann .

Schäfers gedanklicher Weg ist bemerkenswert, da er uns hin zu einem Punkt führt, an dem man nicht mehr wirklich ausschließen kann, dass unser Universum — eher noch der gesamte Kosmos — eine überaus wichtige transzendente Dimension hat, die
  • Ideen ( Konzeption) im Sinne Platons darstellt
  • und vielleicht sogar dem gesamten Kosmos wirklich eine Art Bewusstsein gibt.

Schäfer meint: Die Annahme, das das menschliche Bewusstsein einfach nur Fortsetzung eines kosmischen Bewusstseins sein könnte, würde einige Rätsel erklären, darunter z.B.

Wenn, wie Schäfer da vermutet, der menschliche Geist tatsächlich Teil eines kosmischen Bewusstsein sein sollte, so würde das erklären, warum gewisse Denkergebnisse griechischer Philosophen sich zwei Jahrtausende später als so erstaunlich richtig erwiesen.


Gebhard Greiter (grtgrt)

PS: Ich würde mich freuen, wenn gerade zu diesem Thema hier im Forum eine wirklich lebhafte Diskussion entstünde.

 

tags: Theorie1gegreit Modell1gegreit Physik1gegreit