Diese Seite zitiert, diskutiert oder ergänzt u.A. auch

Aussagen und Ideen, die verschiedene Personen in Manus Zeitforum der Öffentlichkeit zugänglich gemacht haben.



Zusammengestellt durch Gebhard Greiter mit dem Ziel, bestimmte Diskussionsergebnisse einfacher wieder zu finden.

Beitragsnummern tragen einen Link zurück zur Fundstelle



InformationenAnmelden Registrieren

Erweiterte Suche




Allgemeine Relativitätstheorie

   


Astronomisches

   


Bedenkenswertes

   


Rein Begriffliches

   


Berechenbar ist, was eine Turingmaschine berechnen kann

   


Auch Beschleunigung krümmt den Raum

   


Was ist Bewusstsein?

   


Was Bildungspolitiker nicht zur Kenntnis nehmen wollen

   


Biologisches Leben

   


Biologische Wesen

   


Biologie aus quantenmechanischer Sicht

   


Über Biophotonen

   


Definitionen physikalischer Begriffe

   


Dekohärenz und atomare Energieportionen

   


Techniken des Denkens

   


Wo auch manche Physiker Falsches erzählen

   


Wie deterministisch ist alles Weltgeschehen?

   


Verschränkte Quanten und physikalische Messergebnisse

   


Dimensionen der Natur

   


Wie es zu  f r u c h t b a r e n  Diskussionen kommt

   


Dopplereffekt und damit verwechselbare Effekte

   


Dunkle Energie — die Energie des Vakuums?

   


Wie könnte dunkle Materie beschaffen sein?

   


Wird eine supersymmetrische Theorie die Eichtheorien ersetzen?

   


Relativitätstheorie: Einsteins Feldgleichung

   


Einsteins Philosophie

   


Elektromagnetismus

   


Elementarteilchen

   


Wie es zu Emergenz – spontan entstehender Ordnung – kommt

   


Auch Energie ist relativ

   


Über Entropie

   


Geschichte der Erde und des biologischen Lebens

   


Erst mal nur ein Verdacht ...

   


Was uns oft nicht bewusst ist

   


Über Evolution

   


Existenz im logischen Sinne

   


Existenz im Sinne der Natur

   


Physikalische Experimente

   


Bemerkenswerte Forschungsergebnisse

   


Freier Wille — nur begrenzt?

   


Freier Wille — auf Quantenebene sicher NICHT zu verstehen (oder doch?)

   


Understanding GPS

   


Zur Physik der Welt aller Gedanken

   


Gehirne, Gedanken und wie Gedanken den Körper steuern (könnten)

   


Was ist Geist?

   


Geometrie und Kosmos

   


Wissenschaftsgeschichte

   


Meilensteine neuzeitlicher Geschichte

   


Mögliche Geschwindigkeiten

   


Zur nicht verhinderbaren Wandlung unserer Gesellschaft

   


Wirtschaft ohne Ethik — Wollen wir das?

   


Die logisch problemloseste Definition des Gottesbegriffs

   


Gott und die Physik

   


Gedanken zu Amtskirche, Bibel, Religiosität, und Gottesbegriff

   


Gravitationswellen

   


Gravitation

   


Auf der Suche nach der Weltformel

   


Zu Hans-Peter Dürrs Philosophie

   


Humanoide Roboter

   


Wo unsere physikalische Welt nur Illusion ist

   


Nachrichten sind kodierte Information

   


Ist Information eine Grundgröße der Natur?

   


Intelligenz – echte und künstliche

   


Das verwundbare IoT (Internet der Dinge)

   


Synchronicity und der Pauli-Effekt

   


Kann sich auch in KI Bewusstsein herausbilden?

   


Quantenmechanische Grundbegriffe

   


Kernfusionstechnik (Stand 2011)

   


Klarstellung oft missverstandener physikalischer Aussagen

   


Über Systemkomplexität

   


Der Kosmos: Gedanken über das Allumfassende

   


Warum manche Kritiker der Stringtheorie mir blind erscheinen

   


Die Grundkräfte der Natur

   


Landkarte der Physik

   


Wo beginnt Leben?

   


Was genau sollten wir unter » Leben « verstehen?

   


Licht und Zeit

   


Logik und formale Logik

   


Was noch nicht ausdiskutiert ist

   


Materie, Antimaterie, virtuelle Materie

   


Menschheitsgeschichte

   


Wie genau Physiker heute messen können

   


Wie genau ist Einsteins Theorie?

   


Extrapolierende Physik

   


Etwas Metaphysik

   


Metaversen (= durch KI konstruierte Realitäten)

   


Objekt vs Modell (in der Physik)

   


Zum Wesen physikalischer Modelle

   


Die wirklich fundamentalen Naturgesetze

   


Naturkonstanten

   


Naturwissenschaft

   


Netzartige Strukturen auch im Raum?

   


Über nichts und das absolute Nichts

   


Wertvolle Philosophie ist mehr als nur Meinung

   


Philosophie der Physik

   


Kommentare zur Philosophie

   


Zum Begriff physikalischer Objekte

   


Physikalisches

   


Physiker

   


Zentrale Erkenntnisse der Physik

   


Poesie und Philosophie

   


Kirche, Politik und ihre Ehrlichkeit

   


QuBits und Quanten-Computer

   


Theorie der Quantengravitation

   


Quantenkosmologie

   


Quantenphilosophie

   


Quantensysteme

   


Über Quantenverschränkung (Quantum Entanglement)

   


Elementarteilen: Quarks

   


Warum die Zeit wahrscheinlich netzartige Struktur hat

   


Zur Natur der Raumzeit

   


Warum es leeren Raum nicht geben kann

   


Wie real ist die Welt um uns herum?

   


Zum Recht auf Leben

   


Die großen Religionen dieser Welt

   


Erste Roboter, die mit Menschen konkurrieren

   


Warum Himmelskörper um sich selbst rotieren

   


Über Schwarze Löcher

   


Relativitätstheorie: Wesentliche Unterschiede zwischen SRT und ART

   


Spezielle Relativitätstheorie

   


Warum der Materialismus ausgedient hat

   


Über Schleifen-Quanten-Gravitation

   


Wie ganzheitlich ist die Natur?

   


Wissenswertes zu Software Engineering

   


Erst angedachte physikalische Modelle

   


Die Erde als ( nur erste? ) Heimat der Menschen

   


Wissenswertes zum Spin eines Elementarteilchens

   


Rettet die deutsche Sprache

   


Zum Standardmodell der Elementarteilchenphysik

   


Sterne, Schwarze Löcher, Wurmlöcher

   


Durch Naturwissenschaft bestätigte Philosophie

   


Kosmische Strahlung

   


Wissenswertes zur Stringtheorie

   


Teleportation — zwei denkbare Realisierungsvarianten

   


Christliche Theologie

   


Interessantes zum Tunneleffekt

   


Machen erst Uhren die Zeit?

   


Universum

   


Wo die Natur unscharf wird

   


Unser Universum

   


Unsere Sonne

   


Unterschiede zwischen ...

   


Zum Urknall

   


Protyposis — Urstoff des Universums

   


Variable Speed of Light (VSL) Theories

   


Das Vakuum — ein Spannungsfeld

   


Well Defined Degrees of Freedom (WDDF) — Sind sie Kern aller Naturgesetze?

   


Wie wirklich ist die Zeit?

   


Was ist die Wurzel allen Lebens?

   


Wellen und Quantenradierer — eigentlich gar nichts Geheimnisvolles!

   


Welle-Teilchen-Dualismus

   


Unser Weltbild muss holistisch werden

   


Ein recht naheliegendes Weltmodell

   


Unsere Welt besteht aus ...

   


Zum Wesen der Natur

   


Wirkungsquanten

   


Wo auch Wissenschaft Religion ist

   


Etwas Wissenschaftstheorie

   


Zeitreisen in die Vergangenheit

   


Ist die Zeit tatsächlich, was sie zu sein scheint?

   


Alte und neue Vorstellungen zum Wesen der Zeit

   


Zitate die Kosmologie betreffend

   


Wie wahrscheinlich sind uns unbekannte Zivilisationen im Universum?

   


Zufall — Was genau ist das?

   


Warum Zukunft ungewiss ist

   


Über Existenz und nur teilweise definierte Zustandsinformation

   


Das Zwillingsparadoxon im Lichte von SRT und ART

   


Wie angreifbar uns Software macht

   


Wie künstliche Intelligenz uns zur Gefahr werden kann

   


Quantenzustand mathematisch beschrieben

   


Zur Relativität kosmischer Abstände

   


Wie das moderne Gesundheitssystem arbeitet

   


Kreative Computer, z.B. unser Gehirn

   


Quanten-Kryptographie

   


Zum Realitätsbegriff in der Physik

   


Zur Relativität von Zeit und Raum

   


Supersymmetrie

   


Zur wahren Natur aller Quanten

   




D i s k u s s i o n


 Beitrag 0-546
2022: Die bisher genaueste Messung gravitativer Zeitdilatation

 
 

 
Gravitative Zeitdilatation

und die 2022 präziseste Zeitmessung menschlicher Geschichte

 
 
Auch die Stärke von Gravitationspotential hat Einfluss auf den Verlauf der Zeit: In unmittelbarer Nähe eines massereichen Körpers gehen Uhren langsamer als in gewissem Abstand davon. Physiker konnten diese Vorhersage der allgemeinen Relativitätstheorie in den vergangenen Jahrzehnten mehrfach experimentell bestätigen, indem sie Präzisionsuhren mit Flugzeugen oder Raketen auf große Geschwindigkeiten oder Höhen brachten oder ihre Experimente auf Berge oder Türme verlegten.
 
 
Nun haben Forscher vom National Institute of Standards and Technology in Boulder (Colorado) den Effekt solch gravitativen Zeitdehnung (Zeitdilatation) dem bislang präzisesten Test unterzogen. Sie haben den Gangunterschied zweier horizontal über einander angeordneter Uhren auf der Millimeterskala verglichen.
 
 
 

 
Quelle: Einstein hat recht, sogar millimetergenau, FAZ vom 28.2.2022

 
 
Diese so extrem präzise Messung vorzunehmen verwendeten die Physiker in Boulder für ihre Messungen die derzeit beste optische Atomuhr. Sie geht noch einmal um einen Faktor fünfzig genauer als eine Cäsiumuhr. Rund hunderttausend tiefgekühlte Strontiumatome werden hier mit sich kreuzenden Laserstrahlen in einer optischen Gitterstruktur in der Schwebe gehalten und mit einem extrem stabilen roten Laserstrahl angeregt. Schwingen die Atome und das externe Laserfeld im Takt, wird die Frequenz des von den Atomen ausgesandten Lichts und damit die Taktrate der Strontium-Atomuhr gemessen. Da man viele tausend synchron schlagende Taktgeber vorliegen hat, erreicht man eine deutlich größere Messgenauigkeit, als wenn man mit einem einzelnen Ion arbeiten würde.
 
Mögliche Anwendungen für derart genaue Messung sehen die Forscher z.B. in der Geodäsie. Die präzisen Chronometer könnten dazu genutzt werden, genaue Höhenprofile von Bergen zu erstellen oder die Tiefe der Ozeane präzise auszuloten. Sogar für die Erdbebenvorhersage ließen sich die genauen Strontium-Atomuhren einsetzen.
 
 
|
 
 
Diese neue Messung verbessert deutlich den bisherigen Rekord aus 2010, auf den in (2010) hingewiesen wird wie folgt:
 
"According to general relativity, atomic clocks at different elevations in a gravitational field tick at different rates. The frequency of the atoms' radiation is reduced—shifted toward the red end of the electromagnetic spectrum—when observed in stronger gravity, closer to Earth. That is, a clock ticks more slowly at lower elevations. This effect has been demonstrated repeatedly; for example, NIST physicists measured it in 2010 by comparing two independent atomic clocks, one positioned 33 centimeters (about 1 foot) above the other".

 

 Beitrag 0-469
Unter welchen Umständen SRT schon ART ist

 
 

 
Unter welchen Bedingungen ein gegebenes Raumzeit-Szenario S

sich per SRT ebenso genau wie per ART durchrechnen lässt

 
 
Das sog. Zwillingsparadoxon ist Spezialfall eines Szenarios S, in dem sich zwei Objekte C und D auf unterschiedlichen Weltlinien durch die Raumzeit bewegen.
 
Die notwendige und hinreichende Bedingung dafür, dass S selbst schon mit Mitteln der SRT — quantitativ wie qualitativ — beliebig genau behandelbar ist, besteht darin, dass S per SRT modellierbar ist.
 
 
Dies lässt sich einsehen wie folgt:
 
Im Sinne der ART ist die Raumzeit eine differenzierbare Mannigfaltigkeit, d.h. wer darin räumlich weit verteilte Szenarien behandeln will, kann sie nur behandeln mit Hilfe von Störungsrechnung und Argumentation in den Tangentenräumen, d.h. anhand sog. » Karten «, deren jede eine offene Umgebung des Ereignisses E(T) zeigt, in dem der Tangentenraum T — ein 4-dimensionaler Vektorraum mit Minkowsi-Metrik — die Raumzeit der ART berührt.
 
Brauchbar ist jede dieser Karten aber nur bis hin zum Beobachtungshorizont H(E) des Ereignisses E = E(T) = Ursprung des in T genutzten Koordinatensystems.

    Man kann sich das gut vorstellen, indem man sich ein Wasserfahrzeug W vorstellt, mit dessen Hilfe eine Persion P über den Atlantik von z.B. Amsterdam nach z.B. New York reist:
     
    Über weite Strecken der Reise hinweg wird — der Krümmung der Erdoberfläche wegen — keine Küste sichtbar sein, gegen Ende der Reise aber wird sich das ändern: Der Beobachtungshorizont H(P) von P verschiebt sich mit W, so dass die Karten, die man an Bord von W nutzt — sie entsprechen den eben erwähnten "Karten" im Sinne der Differentialgeometrie — ständig ausgetauscht werden müssen.
     
    Nun gibt es aber auch kleine Gewässer, wie etwa den Chiemsee, den zu überqueren man die zu Beginn der Reise gewählte Karte nie auszutauschen braucht, da jeder Weg, den das Schiff W dort nehmen kann, deutlich kürzer ist als der Radius des Beobachtungshorizonts der Ablegestelle.

Aber auch in der Raumzeit gibt es entsprechend große und kleine Regionen, und so komme ich zur Einsicht:
 
Das Szenario S ist mit Hilfe der SRT genau dann — und in diesem Fall sogar beliebig genau — durchrechenbar, wenn
     
  • eine Raumzeit-Karte K existiert, welche komplett die beiden Weltlinien von C und D zeigt
     
  • und wenn ferner die Weltlinien von C und D durch kein nennenswertes Gravitationsfeld führen.

Dieses Ergebnis bleibt richtig auch für den Fall, dass zwischen den Weltlinien von C einerseits und D andererseits ein oder mehrere Schwarze Löcher liegen (für deren Inneres Karten, welche beide Weltlinien ganz oder teilweise zeigen, natürlich nichts aussagen würden: Jene Karten wären dort einfach nicht definiert).

 

 Beitrag 0-343
Warum Einstein — aber nicht Newton — Gravitationswellen vorhersagen konnte

 
 

 
Warum Einstein (aber nicht Newton) Gravitationswellen vorhersagen konnte

 
Der Grund hierfür:
     
  • Nach Newton wirkt die Gravitationskraft instantan über beliebige Entfernungen hinweg.
     
  • Nach Einstein aber kann auch Gravitationswirkung sich höchstens mit Lichtgeschwindigkeit ausbreiten.

 
Warum das zur Folge hat, dass es Gravitationswellen geben muss, erklärt sehr schön Claus Kiefer auf Seite 64 seines Buches Der Quantenkosmos:

Claus Kiefer:
 
Betrachten wir zwei Körper — A und B —, die sich wegen gravitativer Anziehung aufeinander zu bewegen. Nehmen wir an (jetzt nur als Gedankenexperiment), dass diese Körper, wenn sie aufeinander prallen, durch einen Mechanismus mit Stahlfedern wieder abgestoßen werden und sich zurückbewegen, bevor sie sich erneut annähern.
 
Bei der Bewegung nach außen spürt A den Zug von B in einer Stärke, wie sie bestand, als sie sich noch etwas näher waren — schließlich braucht die Gravitationswirkung ja eine endliche Zeit, um von B nach A zu gelangen. Die ziehende Kraft von B ist demnach stärker, als sie es bei instantan eintretender Wirkung wäre.
 
Umgekehrt süprt auf dem Weg nach innen A die Kraft von B wie sie bestand, als sie noch weiter voneinander entfernt waren — schwächer also, als das bei instantaner Wirkung der Fall wäre.
 
Deshalb wird auf dem Weg nach außen mehr Arbeit geleistet als auf dem Weg nach innen wieder zurückgewonnen wird. Da die Gesamtenergie erhalten bleibt, muss ein Teil der Energie den lokalen Bereich der Massen verlassen haben: als Gravitationswelle.
 


 
Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 64.

 
 
Seit September 2015 wurden bis Ende 2017 schon insgesamt 5 Gravitationswellen nachgewiesen. Eine kam aus einem Ereignis, das 3 Mrd. Lichtjahre von uns entfernt stattfand.

 

 Beitrag 0-20
Wo die ART allzu ungenau wird

 
 

 
Wo die ART zu ungenaue Aussagen macht

 
 
Einsteins Allgemeine Relativitätstheorie (ART) ist eine Theorie, die davon ausgeht, dass alle Kräfte, die wirken — und so zur Krümmung des Raumes beitragen —, sich exakt so verhalten, wie die Gravitationskraft.
 
Somit kann die ART natürlich auch nur dort brauchbar sein, wo die Gravitationskraft die vorherrschende Kraft ist.

 
Da sie nun aber die schwächste aller Grundkräfte ist, wird das sicherlich nicht dort der Fall sein, wo aufgrund kurzer oder sehr kurze Abstände kaum Masse vorhanden sein kann: dort also, wo z.B. die starke Kernkraft den überwiegenden Anteil am Kraftpotential ausmacht — allgemeiner: wo die Summe aller wirkenden Kräfte fast ausschließlich durch Kräfte zustandekommt, die auf dort vorhandene Objekte völlig  a n d e r s  als die Gravitationskraft einwirken.
 
Objekte in diesem Sinne sind  E n e r g i e t r ä g e r  (also keineswegs nur aus Masse bestehende Objekte).
 
Was bislang fehlt, ist eine Gleichung, die das Wirken aller 4 Grundkräfte auf Energieportionen welcher Art auch immer gleichermaßen gut beschreibt.
 
 
Gutes Beispiel einer Kraft, die anders wirkt als die Gravitationskraft, ist die elektromagnetische Kraft:
Sie nämlich wirkt nur auf Objekte, die Ladung tragen.


 

 Beitrag 0-115
Wie Einsteins Feldgleichung zu lesen ist

 
 

 
Was die Feldgleichung der Allgemeinen Relativitätstheorie uns sagt

 
 
Die Minkoski-Metrik der ART ist gegeben durch die Gleichung
 
s2  =  gtt (ct)2  –  gtx t x  –  gxx x2

 
Da nun aber stets  gtt ≤ 1 ≤ gxx  ist und die Gleichheitszeichen nur im gravitationsfreien Raum gelten, erkennt man:
 
 
Die Größe  gtt  sagt uns, wie die lokale Krümmung der Raumzeit den Lauf einer Uhr verlangsamt,
 
gxx  aber legt fest, wie die lokale Krümmung der Raumzeit räumliche Abstände streckt.

 
Genauer: Die Größe t entspricht Zeitintervallen, wie eine im gravitationsfreien Raum befindliche Uhr sie misst,
 
τ  =  gtt1/2 t   aber nennt die Eigenzeit auch beschleunigter Uhren.
 
 
Bezeichnen wir die Stärke der Raumkrümmung mit R und die Energie (bzw. Masse) mit E, so haben Einsteins Gleichungen die einfache Form
 
R  = κ E

 
Hier ist   κ = 8πG/c4   die sog.  Einsteinsche Gravitationskonstante  (proportional zur Newtonschen Gravitationskonstanten G).
 
 
Würden wir in einer Welt leben, in der G = 0 ist, gäbe es keinerlei Krümmung des Raumes.
 
In einer Welt, in der die Lichtgeschwindigkeit größer ist als in unserem Universum, würde die Raumkrümmung deutlich schwächer ausfallen als bei uns.
 
 
 
Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 174-176

 

 Beitrag 0-453
Wie extrem genau Uhren die Relativität der Zeit bestätigen

 
 

 
Wie extrem genaue Atomuhren

die durch SRT und ART vorausgesagte Zeitdilatation bestätigen

 
 
In einem der Bücher des theoretischen Physikers Jörg Resag liest man:
 


Jörg Resag (2012):
 
Eine sich bewegende Uhr läuft für einen ruhenden Beobachter langsamer als eine ruhende Uhr (spezielle Relativitätstheorie). Ebenso laufen ruhende Uhren in einem statischen Gravitationsfeld umso langsamer, je weiter unten sie sich befinden (allgemeine Relativitätstheorie).
 
Mittlerweile gibt es Uhren, die so präzise sind, dass sich diese Effekte auch bei alltäglichen Geschwindigkeiten und Gravitationsfeldern messen lassen.
 
So haben James Chin-Wen Chou, Dave Wineland und Kollegen am National Institute of Standards and Technology (NIST) in Boulder (Colorado) Uhren verwendet, die auf nur einem einzigen Aluminium-Ion in einer sogenannten Paul-Falle basieren und die in 3,7 Milliarden Jahren nur eine Sekunde falsch gehen.
    Einfach unglaublich, dass man heute schon Materie derart präzise kontrollieren und manipulieren kann!
     
    Das Aluminium-Ion wird dabei in einem elektromagnetischen Feld festgehalten und mit Lasern gekühlt. Ein anderer Laser feuert nun auf das Ion,
    wobei seine Frequenz sehr präzise auf eine Absorptionsfrequenz des Ions abgestimmt wird. Diese Frequenz ist nun der Taktgeber der Uhr. Bei dieser Frequenzabstimmung spielt ein weiteres Ion (ein Magnesium- oder Beryllium-Ion) eine Rolle, dessen Quantenzustand mit dem des Aluminium-Ions verschränkt ist (ähnlich wie die beiden Spin-1/2-Teilchen im Einstein-Podolsky-Rosen-Experiment miteinander verschränkt sind, siehe Kapitel 2.8).

Lässt man nun das Ion bei einer Durchschnittsgeschwindigkeit von nur 10 m/s (= 35 km/h) hin- und heroszillieren, so beobachtet man eine Verlangsamung der darauf basierenden Uhr um etwa den Faktor 10-16.
 
Auch bei anderen Geschwindigkeiten entspricht die Zeitdilatation genau dem Wert, wie ihn die spezielle Relativitätstheorie vorhersagt.
 
Ebenso gelingt es, den Zeitunterschied zweier solcher Uhren im Gravitationsfeld der Erde nachzuweisen, die nur etwa 17 cm Höhenunterschied aufweisen. Die untere Uhr läuft dabei um etwa den Faktor 4 × 10-17 langsamer als die obere — das entspricht grob einer zehnmillionstel Sekunde in 80 Jahren.
 
 
Mehr dazu in: Relativity with a human touch sowie Handwerkszeug Relativität, Physik Journal 9 (2010) Nr. 11, S. 16.

 


 
Quelle: Jörg Resag: Die Entdeckung des Unteilbaren, Kap 7


 

 Beitrag 0-280
Über die Singularitäten der Raumzeit der Allgemeinen Relativitätstheorie

 
 

 
Zu den Singularitäten der Lösungen der ART

 
 
Lösungen von Einsteins Feldgleichung der Allgemeinen Relativitätstheorie zu finden, ist i.A. schwierig. Zu lösen ist stets ein Anfangswertproblem.
 
Um überhaupt eine Lösung finden zu können, geht man meist von Anfangswertproblemen aus, die sich auf recht symmetrische Ausgangssituationen beziehen.
 
Störend sind natürlich in der Lösung dann gefundene Singularitäten. Sie — so dachte man früher — könnten sich vor allem wegen einer allzu hohen Symmetrie der Ausgangssituation ergeben.
 
In den Jahren 1965 bis 1970 aber konnten Steven Hawking, Roger Penrose und Brendan Carter zeigen,
  • dass Singularitäten der Raumzeit der ART auch im allgemeinen, nicht-symmetrischen Fall auftreten
  • und sich i.W. als stabil gegenüber kleinen Störungen erweisen.

 
 
Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 91


 

  Beitrag 2053-67
Beschleunigung und Raumkrümmung sind dasselbe !!!

 
 
Hans-m in 2053-65:
 
Okotombrok in 2053-54:
 
Die Erde befindet sich im käftefreien Zustand. Man kann sagen, sie fällt um die Sonne herum und der freie Fall ist keine Beschleunigung.
Die Erde bewegt sich nicht im Kreis sondern auf einer Geodäte und das ist niemals eine Beschleunigung.
Das hatten wir doch schon alles!?

Sorry, wenn ich hier widerspreche
Die Erde befindet sich in permanenter Beschleunigung
Auf die Erde wirkt eine Anziehungskraft, von ca 3,572*1022 N, die von der Sonne ausgeht.


Hallo Hans-m,

aus meiner Sicht habt ihr beide recht. Ihr argumentiert lediglich in unterschiedlichen Bezugssystemen:
  • Deine Argumentation ist richtig, wenn als Bezugssystem ein 3-dimensionales kartesisches Koordinatensystem zugrundegelegt wird (der Raum also keinerlei Krümmung hat).
  • Okotombrok aber argumentiert im gekrümmten Raum der ART. Zu dem ist Einstein aber gerade dadurch gelangt, dass er Beschleunigung als Raumkrümmung interpretiert hat.

In Wikipedia liest man:

Zitat:
 
Die ART geht davon aus, dass ein Körper, auf den keine weiteren Kräfte wirken, sich in der gekrümmten Raumzeit auf einer Geodätischen Linie bewegt.
In einer nicht gekrümmten Raumzeit würde dies der Trägheitsbewegung eines freien Körpers entsprechen, d. h. geradlinig und mit konstanter Geschwindigkeit.

Aufgrund der Krümmung der Raumzeit erscheint [uns diese Bewegung aber räumlich gekrümmt und beschleunigt.

Mit anderen Worten: Beschleunigung ist eine Art Illusion, die uns in die Wirklichkeit zurückholt, wo wir nichts von Raumkrümmung wissen (bzw. wissen wollen).

Neutraler ausgedrückt: Beschleunigung und Raumkrümmung sind unterschiedliche gedankliche Präsentationen ein und desselben Konzepts der Natur.


Gruß, grtgrt
 

 Beitrag 0-40
Korrektes Argumentieren mit Einsteins (starkem) Äquivalenzprinzip

 
 

 
Uhren, Maßstäbe und Bewegung im Gravitationsfeld

 
 
In der Allgemeinen Relativitätstheorie ist von besonderer Bedeutung Einsteins Äquivalenzprinzip, demzufolge eine Gravitationsfeld lokal einem geeignet gewählten beschleunigten Bezugssystem gleichwertig ist. Ein solches zu finden ist stets möglich. Mit anderen Worten: Wirkungen eines Gravitationsfeldes können durch Analyse des Sachverhalts im lokal äquivalenten beschleunigten Bezugssystem im feldfreien Raum ermittelt werden (nicht ganz genau, aber doch beliebig genau, wenn man nur die Situation entsprechend lokal betrachtet).
 
Zwei Beispiele verdeutlichen das:

Martin Carrier (S. 144-145)
 
  • Man betrachte etwa einen Lichtstrahl, der seitlich in einen beschleunigten Kasten einfällt und diesen durchquert. Im beschleunigten Bezugssystem des Kastens durchläuft der Lichtstrahl eine gekrümmte, gegen den Boden des Kastens gerichtete Bahn. Nach dem Äquivalenzprinzip ergibt sich die gleiche Bahn aber auch im Gravitationsfeld, so dass Licht im Gravitationsfeld in Richtung des Bereiches höherer Feldstärke abgelenkt wird.
     
  • Eine ähnliche Überlegung zeigt, dass ein Gravitationsfeld den Gang von Uhren verlangsamt: Vom hinteren Ende eines beschleunigten Kastens werde Licht ausgesandt. Wenn es das vordere Ende des Kastens erreicht, bewegt sich dieser schon mit etwas größerer Geschwindigkeit. Bei deiner Relativbewegung zwischen Sender und Empfänger tritt aber stets eine Doppler-Verschiebung auf. Hier im Beispiel ist das eine Rot-Verschiebung, da der Empfänger sich vom der Lichtquelle entfernt.
     
    Bei Rückübertragung auf das Gravitationsfeld bedeutet das, dass eine gegen die Richtung der Schwerebeschleunigung (also gleichsam aufwärts) bewegter Lichtstrahl ebenfalls eine Rotversschiebung erfährt.
     
    Fasst man jeden Wellenberg der Lichtwelle als Zeitsignal auf, so werden — wegen dieser Dopplerabsenkung der Frequenz — bei einem Betrachter am vorderen Ende des Kastens die Wellenberge mit vergrößertem Zeitabstand ankommen. Wenn also eine Uhr am hinteren Ende des Kastens Zeitsignale aussendet, so haben diese beim Empfang am vorderen Ende einen größeren Zeitabstand als die einer am vorderen Ende montierten baugleichen Uhr. Aus Sicht eines am vorderen Ende platzierten Beobachters geht deswegen die Uhr am hinteren Ende langsamer als seine eigene.
     
    In der Rückübertragung bedeutet dies, dass jede Uhr im stärkeren Gravitationsfeld gegenüber einer gleich gebauten im schwächeren Gravitationsfeld zurückbleibt.
     


 
Maßstabslänge im Gravitationsfeld

 
 
Beim Ausmessen der Länge zeitlicher und räumlicher Abstände kann nicht unberücksichtigt bleiben, in welchem Bezugssystem der Beobachter sitzt:


Martin Carrier (S. 145-146)
 

Um das Verhalten von Maßstäben im Gravitationsfeld zu ermitteln geht man wieder in das lokal äquivalente beschleunigte Bezugssystem, etwa eine rotierende Scheibe: Vom Standpunkt eines nicht mitrotierenden Beobachters aus erfahren Maßstäbe entlang der Peripherie eine Lorentz-Kontraktion, während dies bei radial orientierten Maßstäben nicht der Fall ist.
 
Konsequenz daraus: Das von Umfang und Durchmesser eines Kreises auf der Scheibe gemessene Verhältnis wird nicht mehr π sein, was eine Abweichung von euklidischer Geometrie anzeigt.
 
Diesem Befund kann auf zweierlei Weise Rechnung getragen werden:
  • Man kann die tangential ausgerichteten Maßstäbe als kontrahiert betrachten, ihre Länge durch die Lorentz-Transformation korrigiert und so dem Raum Euklidische Geometrie geben.
     
  • Nimmt man aber an, dass alle Maßstäbe ihre Länge unabhängig von ihrer Orientierung beibehalten, so ist keine Korrektur erforderlich, aber das gemessene Verhältnis von Umfang und Durchmesser muss dann als Anzeichen für das Vorliegen einer nicht-Euklidischen Geometrie gedeutet werden.

Die Verallgemeinerung dieser Behandlung führt auf folgenden Schluss:
 
Wenn man die Invarianz von Maßstäben bei Transport voraussetzt,
ergibt sich in beschleunigten Bezugssystemen eine nicht-Euklidische Geometrie.

 
Voraussetzung aber ist, dass man auf die Korrektur der erhaltenen Längenverhältnisse verzichtet.
 
Dieser Verzicht macht Sinn, denn die Gravitation ist eine nicht vom Material der Maßstäbe abhängige universelle Kraft. Der Verzicht auf Korrektur läuft darauf hinaus, ihren Einfluss nicht als Störung (Verzerrung) der Maßstäbe zu betrachten.
 


Einsteins Einschluss der Gravitation in die Struktur der Raumzeit zeigt, dass er ihren Einfluss nicht als korrekturbedürftig betrachten wollte.

 
 
Auf Seite 147-148 seine Buches Raum-Zeit erklärt Martin Carrier weiter:

     
    Einsteins Geometrisierung der Gravitation hat auch zur Folge, dass weder Raum noch Zeit ein festgefügtes Behältnis für die wechselnden Ereignisse unserer Erscheinungs- welt bilden, sondern — wie die Gravitation — dem Einfluß von Energie, speziell Materie, unterworfen sind:
     
    In Abhängigkeit von der Verteilung von Massen und Feldern ändert sich die Raumzeitmetrik und die Geodätenstruktur (als Geodäte bezeichnet man jeden Weg durch die Raumzeit, der zwischen je zwei auf ihm liegenden Ereignissen den kürzesten Weg darstellt).
     
    Dieser Einfluss von Energieverteilung auf die Struktur der Raumzeit wird durch Einsteins Feldgleichungen der Gravitation beschrieben. Sie machen die Verteilung von Materie und Energie zudem noch zur  Q u e l l e  des Gravitationsfeldes: Sie verknüpfen den sog. Energie-Impuls-Tensor, der alle Quellen des Gravitationsfeldes mit Ausnahme des Gravitationsfeldes selbst enthält, mit Metrik und Krümmung der Raumzeit.
     
    Die Feldgleichungen sind Einsteins Gegenstück zu Newtons Gravitationsgesetz. Physikalisch neu ist, dass das Gravitationsfeld so zu seiner eigenen Quelle wird.
     
    Im Gegensatz zur Newtonschen Gravitationskraft ist Einsteins geometrisierte Gravitationskraft selbst schwer. Diese Eigentümlichkeit führt zur Nicht-Linearität der Feldgleichungen und findet ihren empirischen Ausdruck u.A. in sog. Gravitationswellen und dem im Vergleich zur Newtonschen Theorie schnelleren Voranschreitens des Merkurperihels.
     
    Durch die Gravitation entsteht in der ART eine Abweichung von der sog. Minkowski-Raumzeit der SRT: In jener werden — da der Minkowski-Raum flach ist — Abstände über die Minkowski-Metrik quantifiziert, wohingegen in der Raumzeit der ART örtlich und zeitlich variable, kompliziertere Metriken anzwenden sind.
     
    Einsteins Feldgleichungen übertreffen ihr Newtonsches Gegenstück beträchtlich an logischer Kraft.
       
    • Sie beinhalten die lokale Energie- und Impulserhaltung sowie die Bewegungsgleichung (in Newtons Theorie müssen das Gravitationsgesetz und die Gleichung zur Beschreibung von Bewegungen im Gravitationsfeld separat angegeben werden).
       
    • Sie haben zur Folge, dass "Testteilchen" (hypothetische Masseteilchen, die weder rotieren noch Ausdehnung haben) im Gravitationsfeld zeitartigen Geodäten folgen.
       
    • Ebenso ergeben sich aus den Feldgleichungen alle auf der Grundlage des Äquivalenzprinzips ableitbaren Effekte wie Ablenkung von Lichtstrahlen oder die Verlangsamung des Uhrengangs im Gravitationsfeld.


     

 Beitrag 0-41
Die durch Thirring und Deser vorgeschlagene Normierung unserer Raumzeit-Realität

 
 

 
Die Thirring-Deser-Normierung der ART

 
 
Wie in Beitrag 0-40 erklärt, hat Einstein seine Formulierung der ART so gewählt, dass Längeneinheiten für alle Beobachter gleich definiert sind (was dann zu nicht-Euklidischer Geometrie des Raumes führt). Diese Konvention aber ist keineswegs zwingend.
 
Und tatsächlich: Es gibt eine von Walter Thirring in den 1950er Jahren erarbeitete und etwa 20 Jahre später von Stanley Deser wesentlich verbesserte Fassung der Einsteinschen Feldgleichungen,
 
die mit dem Anspruch verbunden ist, dass die Raumzeit Euklidische Geometrie habe (mit überall gleicher Metrik).



Martin Carrier (S. 166-167 seines Buches Raumzeit, de Gruyter, 2009)
 

Die Thirring-Deser-Fassung der Einsteinschen Feldgleichungen stellt die Gravitation als universelles Kraftfeld in einem  f l a c h e n  Raum dar, der mit einer überall gleichen Minkowski-Metrik ausgestattet ist.
 
In Umkehrung der Einsteinschen Vorgehensweise gibt man die Raumzeit-Struktur vor und passt das Verhalten von Maßstäben und Uhren sowie die Bewegung freier [hypothetisch ausdehnungsloser Test-] Teilchen an sie an durch die Einführung universeller Kräfte.
 
Die Gravitation verzerrt dann die  M a ß s t ä b e , beinflusst aber  n i c h t  die Geometrie.
 
Die Thirring-Deser-Fassung enthält entsprechend eine de-geometrisierte Version der Einsteinschen Feldgleichungen unter Bewahrung der Kausalität.
 
Beide Ansätze sind empirisch äquivalent, wenn auch nicht in jeder Hinsicht gleichwertig: In empirischer Hinsicht ergeben sich Abweichungen die Topologie des Raumes betreffend, da man mit einer flachen Hintergrundgeometrie kein geschlossenes Universum wiedergeben kann.
 
Damit ist die These von der Konventionalität der physikalischen Geometrie der Raumzeit — auch unter Bewahrung der kausalen Erklärbarkeit — nicht ohne Stütze. ...
 
Die adaptierte These belegt die generelle Ansicht von der Unterbestimmtheit von Theorien durch die Erfahrung, mit der Folge, dass Raum-Zeit-Theorien keine spezifische Form von Konventionalität enthalten.
 


 
Man sieht sich hier einmal mehr an Niels Bohr erinnert, der betont hat:
 
 
Die Physik kann nicht ergründen, wie die Natur funktioniert [ Wirklichkeit ].
 
Sie kann nur darüber sprechen, wie sie sich dem Beobachter darstellt [ Realität ].

 
Die unterschiedliche Formalisierung der ART durch Einstein einerseits und Thirring/Deser andererseits zeigt zudem, dass, was wir als Realität betrachten, zudem noch von durch uns selbst gewählten  K o n v e n t i o n e n  abhängig sein kann.
 
 
Bemerkenswert an der durch Thirring/Deser gefundene Normierung der Raumzeit ist vor allem, dass sie die Sonderstellung der Gravitation — die ihr durch Einsteins Geometrisierung zuwuchs — aufhebt.
 
Sie aufzuheben könnte notwendig sein, um zu einer Theorie zu kommen, die ART und Quantenmechanik zusammenführt: Diese künftige Theorie (Quantengravitation), die zu entwickeln nun schon ein halbes Jahrhundert auf der wissenschaftlichen Tagesordnung steht, wird ja aller Erwartung nach die Gravitation nach dem Muster der übrigen physikalischen Wechselwirkungen behandeln müssen: als eine Kraft, die  q u a n t i s i e r t  ist.

 

 Beitrag 0-43
Was Einstein zu seiner Gravitationstheorie führte (1): Das Machsche Prinzip

 
 

 
Ausgangspunkt von Einsteins Entwicklung der Allgemeinen Relativitätstheorie waren 3 Prinzipien. Hier als erstes
 
 
Das Machsche Prinzip

 
 
Was Einstein das Machsche Prinzip nannte, bringt zum Ausdruck, dass Einstein — wie vor ihm schon Leibniz und Mach — nicht an die Existenz eines "absoluten" Raumes glaubte, der auch als leerer Raum noch existieren würde, als Behälter also, der durch Objekte bewohnt oder auch nicht bewohnt sein könnte.
 
Newton — der in diesem Punkt ganz anderer Ansicht war als sein Zeitgenosse Leibniz — hatte argumentiert, dass das Auftreten von Trägheitskräften nichts mit Beziehungen zwischen den betroffenen Körpern und anderer Körper zu tun habe, sondern stattdessen die "wahre Bewegung" des Körpers, d.h seine Bewegung relativ zum absoluten Raum widerspiegle.


Martin Carrier (in seinem Buch Raum-Zeit, de Gruyter 2009, S. 138-139)
 
Einstein hielt nichts von diesem Gedanken. Sein zentrales Motiv war die bei Newton angenommene Einseitigkeit der Kausalwirkung, nach der der absolute Raum Trägheitskräfte entstehen lässt ohne dass es Rückwirkung der Körper auf ihn gibt.
 
Einen solch einseitigen Kausaleinfluss hielt Einstein für widersinnig und wollte ihn durch die Vorstellung ersetzen, dass die Trägheitseigenschaften bewegter Körper generell durch ein physikalisches Feld bestimmt sind, ähnlich dem elektromagnetischen Feld.
 
In diesem Denkansatz kann der Raum zwar weiterhin physikalische Wirkung entfalten, jedoch müssen umgekehrt die Körper auch auf ihn Einfluss nehmen können. Für Einstein bedeutet das: Die metrischen und geodätischen Eigenschaften der Raumzeit sollten zur Gänze durch die relativen Lagen und Bewegungen von Körpern (oder anderen Energieformen) festgelegt sein.
 
Er nannte dieses Prinzip das Machsche Prinzip .
 
Es impliziert, dass das Auftreten von Trägheitskräften zur Gänze durch Relativbewegungen festgelegt ist, nicht aber durch Bewegungen der Körper gegen den Raum.
 


 
Obgleich das Machsche Prinzip Einsteins Weg zur ART bahnte, ist es in der voll entwickelten Theorie tatsächlich  n i c h t  erfüllt
 
( wie Carrier in den Abschnitten 4.1.4 und 4.2.2 seines Buches erklärt ):

 
 
Für jede Theorie muß grundsätzlich unterschieden werden
  • zwischen der Theorie einerseits und
  • den zu ihr konformen Modellen andererseits (die sich ja in durch die Theorie nicht voll bestimmten Eigenschaften durchaus unterscheiden können).
Die ART, als Theorie, ist gegeben durch Einsteins Feldgleichungen. Jedes ihrer Modelle entspricht einer Lösung dieses Gleichungssystems, und obgleich man bisher nur wenige dieser Lösungen kennt, sind darunter neben solchen, die das Machsche Prinzip uneingeschränkt bestätigen, auch solche, in denen es Einschränkun­gen unterliegt.
 
Es gibt demzufolge zwei unterschiedliche philosophische Haltungen:
  • Als Relationalismus bezeichnet man einen Standpunkt, der zwar anerkennt, dass die ART Lösungen kennt, die das Machsche Prinzip nicht automatisch erfüllen, der diese Lösungen aber als philosophisch belanglos einstuft, da sie nicht mit den Erfahrungsbedingungen unserer Welt übereinstimmen.
     
  • Der absolute Ansatz dagegen kennt keine Konzentration auf die faktisch realisierten Lösungen. Seine Anhänger stehen auf dem Standpunkt, dass die ART keinen Rückgriff auf Bezugskörper verlange und keine Rückführung von Trägheitskräften auf Relativbewegungen erzwinge. Die nicht-Machschen Lösungen seien ebenfalls relevant, da sie zur Beschreibung kleinräumiger kosmischer Strukturen (mit ihren lokalen Abweichungen von Homogenität und Isotropie) gebraucht werden.
Festzuhalten ist, dass die ART dem Machschen Prinzip nicht zwangsläufig genügt. Die von Friedmann 1922 gefunden Lösung allerdings — sie gilt bislang als unser bestes Modell des Universums — genügt ihm uneingeschränkt und kommt ohne Randbedingungen aus (etwa solche, die annehmen, dass es irgendwo weit draußen im Universum gar keine Materie mehr gebe, dass das Universum rotiere, oder was da sonst noch denkbar sein mag).
 
Für eine umfassende Beschreibung kosmischer Strukturen aber reicht Friedmans Lösung  n i c h t  aus: Lokalen Abweichungen von der Homogenität — etwa bei Planetensystemen oder Schwarzen Löchern — muss durch Größen Rechnung getragen werden, die absolut sind, bei denen also nicht alle geometrischen Strukturen einfach nur auf die relative Lage der Körper zueinander zurückführbar sind.
 
 


Rüdiger Vaas (in seinem Buch Jenseits von Einsteins Universum, 2016, S. 220-222):
 
Den Begriff das Mach'sche Prinzip hat Einstein 1918 zu Ehren des 1916 verstorbenen Ernst Mach eingeführt. Er steht für Machs Aussage, dass die Trägheit eines Körpers bestimmt sei durch den Einfluss, den alle sonst noch im All vorhandenen Körper auf ihn haben.
 
In Einsteins Theorie ausgedrückt:
 
Der durch den Metriktensor gμν beschriebene » Raumzustand «
— auch das Gravitationsfeld, welches durch den Energie-Impuls-Tensor Tμν bedingt wird —
sei  r e s t l o s  durch die Massen der Körper bestimmt.

 
Einstein bedauerte, dieses Prinzip zunächst nicht klar genug vom Relativitätsprinzip unterschieden zu haben, das er nun so definierte:
 
 
» Die Naturgesetze sind nur Aussagen über zeiträumliche Koinzidenzen.
 
Sie finden  d e s h a l b  ihren einzig natürlichen Ausdruck in allgemein kovarianten Gleichungen. «

 
 
Einstein räumte ein, das Mach'sche Prinzip würde » keineswegs von allen Fachgenossen geteilt «, er selbst aber empfinde » seine Erfüllung als unbedingt notwendig «.
 
Ob Einstein berechtigt war, sich auf Mach zu beziehen, erscheint fraglich (und wird von Wissenschaftsphilosophen wie etwa John Norton mit guten Gründen bezweifelt): Mach selbst hatte wohl keine klare Konzeption von dem, was Einstein nach seinem Tode das Mach'sche Prinzip nannte.
 
Mittlerweile gibt es mindestens 20 Formulierungen, keine deckungsgleich mit einer anderen, und manche sind ziemlich sicher falsch ...
 



Klaus Kiefer (auf S. 60 in Quantenkosmos):
 
Einstein verstand das Machsche Prinzip ursprünglich so, dass die Geometrie der Raumzeit — ihre Metrik — durch die Materieverteilung eindeutig bestimmt sein sollte. Wie Einstein selbst aber nachträglich feststellen musste, ist das in der ART nun aber doch nicht der Fall: Die Metrik geht in alle bekannten Materiegleichungen ein und kann daher nicht durch die Materie bestimmt sein.
 
Zudem sind es ja gerade die lokalen Gravitationsfelder, welche für das lokale Trägheitsverhalten am dominantesten bestimmen (und nicht — wie noch Mach meinte — die fernen Fixsterne bzw. alle Körper im Raum gleichermaßen).
 


Noch 1917 hat Willem de Sitter Einstein darauf aufmerksam gemacht, dass seine Feldgleichungen auch absolut leere, unendlich weite Raumzeiten zulassen (und die noch nicht mal statisch sein müssen). Wegen der hier angenommenen kosmologischen Konstanten zieht sich die Raumzeit zunächst zusammen, expandiert dann aber wieder (was aber beides erst später klar wurde). Diese Beispiele zeigen, dass die Metrik doch nicht — wie Einstein dachte — allein durch den Energie-Impuls-Tensor bestimmt ist.
 
Ausgehend hiervon sah Einstein schließlich auch ein, dass seine Theorie gar nicht auf der Relativität der trägen Masse aufbaut oder sie erfordert, sondern lediglich auf der Relativität der Bezugssysteme. In einem Brief aus 1954 schrieb er dann schließlich, dass man vom Mach'schen Prinzip überhaupt nicht mehr sprechen sollte.
 
Damit ist nun aber erneut die Frage berechtigt, ob die Natur nicht vielleicht doch auch absolut leere Raumzeit kennt.

 

 Beitrag 0-44
Was Einstein zu seiner Gravitationstheorie führte (2): Das Äquivalenzprinzip

 
 

 
Ausgangspunkt von Einsteins Entwicklung der Allgemeinen Relativitätstheorie waren 3 Prinzipien. Hier als zweites
 
 
Das schwache und das starke Äquivalenzprinzip

 
 
Unter dem  s c h w a c h e n  Äquivalenprinzip versteht man die Gleichheit von schwerer und träger Masse:

Einstein (1922)
 
Die bisherige Mechanik hat diesen wichtigen Sachverhalt zwar registriert, aber nicht interpretiert.
 
Eine befriedigende Interpretation kann nur so zustandekommen, dass man einsieht: Dieselbe Qualität des Körpers äußerst sich je nach Umständen als Trägheit oder als Schwere.
 

Danach stellen schwere und träge Masse lediglich unterschiedliche Manifestationen einer einzigen Grundgröße dar.

 
 
Nach dem schwachen Äquivalenzprinzip lässt sich gleichförmige Beschleunigung im feldfreien Raum nicht von geradlinig-gleichförmiger Bewegung im einem gleichförmigen Gravitationsfeld unterscheiden.

     
    Der Schluss ist, dass gleichförmige Beschleunigungen und homogene Gravitationsfelder für alle mechanischen Prozesse empirisch äquivalent sind.
     
    Die Annahme, dass dies nicht allein für mechanische Prozesse, sondern sogar für  s ä m t l i c h e  physikalischen Vorgänge gelte, wird als  s t a r k e s  Äquivalenzprinzip bezeichnet. Erst Einstein sprach davon.

 
Verknüpft mit Machschen Prinzip führt das starke Äquivalenzprinzip auf ein Charakteristikum der ART, welches darin besteht, den absoluten Raum zu vermeiden.
 
WICHTIG aber:
    Das Äquivalenzprinzip lässt sich nur auf  h o m o g e n e  Gravitationsfelder anwenden. Seine Erweiterung auf inhomogene Felder — solche mit räumlich oder zeitlich wechselnder Feldintensität — verlangt eine bloß lokale Anwendung auf räumlich und zeitlich benachbarte Ereignisse.
    Gutes Beispiel eines inhomogenen Gravitationsfeldes ist das kugelsymmetrische Feld der Erde. In ihm ist die Schwerebeschleunigung auf den Erdmittelpunkt gerichtet und weist daher an unterschiedlichen Orten in meist unterschiedliche Richtung. Folglich ist das Schwerefeld der Erde  n i c h t  durch Übergang in ein einziges beschleunigtes Bezugssystem im feldfreien Raum nachzubilden. Nur wer sich auf einen hinreichend kleinen Bereich des irdischen Schwerefeldes beschränkt, kann für ihn ein Bezugssystem derart wählen, dass das Schwerefeld verschwindet (niemals ganz genau, wohl aber ausreichend genau unter praktischen Gesichtspunkten).
     
    Auch die Tatsache, dass ein in einem beliebigen Gravitationsfeld frei fallender Beobachter die Existenz des Feldes grundsätzlich überhaupt nicht nachweisen könne, gilt nur in sehr kleinen Bereichen: Darüber hinaus nämlich wäre — genügend genaues Messgerät vorausgesetzt — die Auswirkungen der Raum-Zeit-Krümmung anhand sog. Gezeitenkräfte erkennbar, d.h. anhand der Deformationen, die sämtliche Körper im inhomogenen Gravitationsfeld erfahren. Wenn z.B. eine verformbare Kugel der Erde entgegen fällt, wirkt die Gravitationskraft am unteren Ende der Kugel stärker als am oberen (da sie ja der Erde schon näher ist), so dass die Kugel sich in Fallrichtung verlängert ind insgesamt elliptische Form annimmt.
     
    Dass man diese Kraftdifferenz als Gezeitenkraft bezeichnet, liegt daran, dass die irdischen Wassermassen auf der dem Mond zugewandten Seite von ihm stärker angezogen werden als auf der ihm abgewandten Seite. Deshalb ist das Wasser an beiden Seiten relativ zum Erdzentrum in Richtung des Mondes beschleunigt, was — da der Mond die Erde umkreist — ständigen Wechsel zwischen Ebbe und Flut zur Folge hat.
     
    Wirklich exakt also gilt das Äquivalenzprinzip nur in einer ausdehnungslosen Umgebung des Beobachters, die — da ausdehnungslos — nur den Punkt enthält, in dem der Beobachter ruht. Mit zunehmendem Abstand von ihm werden z.B. Gezeitenkräfte immer deutlicher hervortreten. Wirklich zu Null wird das Gravitationsfeld nur im Beobachter selbst: Das  s t a r k e  Äquivalenzprinzip hat nur  l o k a l e  Gültigkeit.

 
Bisher konnten Experimente das Äquivalenzprinzip bis zu einer Genauigkeit von 10-13 bestätigen. Dennoch ruht man nicht:
     
  • Das Äquivalenzprinzip mit noch höherer Genauigkeit nachzuprüfen ist Aufgabe des von der ESA verantworteten Projekts Weltraummission MICROSCOPE.
     
  • Um die Jahreswende 2013/2014 wurde ein exotisches 3-Sterne-System entdeckt, mit dessen Hilfe sich die uneingeschränkte Gültigkeit des starken Äquivalenzprinzips mit um einige Größenordnungen höherer Genauigkeit als bisher wird nachprüfen lassen. Siehe Relativitätstheorie im Präzisionstest (Jan 2014).

 
 
Folgen des Äquivalenzprinzips

 
 
Nach dem Äquivalenzprinzip ist es physikalisch nicht unterscheidbar, ob eine in einem System auftretende Kraft sich als Folge von Beschleunigung ergibt oder durch Gravitationsquellen hervorgerufen ist.
 
Mit anderen Worten: Schwerkraft und Trägheitskräfte (wie etwa die Fliehkraft) sind aufsummierbar und können sich daher — als gerichtete Kräfte — auch gegenseitig aufheben.
 
Die Erde umkreisende Raumfahrer etwa machen sich das zunutze: In der typischen Flughöhe von IIS und Mir ist die Schwerkraft nur etwa 15% geringer als auf der Erdoberfläche. Schwerelos sind die Raumfahrer darin nur deswegen, weil
     
  • auf sie — da sie sich ja kreisförmig um die Erde bewegen — auch Fliehkraft wirkt
     
  • und die Flughöhe ihrer Umlaufbahn so gewählt wurde, dass Fliehkraft und Schwerkraft sich zu Null aufaddieren.
     
  • Möglich ist das nur, weil nach dem Äquivalenzprinzip beide Kräfte gleicher Natur sind.

 
 
Historische Notiz:
 
 
Für Newton war Trägheit durch den Raum hervorgerufen, Gravitation aber durch die sich anziehenden Objekte im Raum.
 
Erst Einstein sah beide als Erscheinungsformen ein und derselben Sache: der Geometrie der Raumzeit.
 
 
Daher ist selbst noch die Fliehkraft, der wir während einer Karusselfahrt ausgesetzt sind, ein Aspekt der Gravitation.


 

 Beitrag 0-45
Was Einstein zu seiner Gravitationstheorie führte (3): Das Prinzip allgemeiner Kovarianz

 
 

 
Ausgangspunkt von Einsteins Entwicklung der Allgemeinen Relativitätstheorie waren 3 Prinzipien. Hier als drittes
 
 
Das Prinzip allgemeiner Kovarianz

 
 
Einsteins Ziel war, seine Theorie so zu formulieren, dass ihre Ausdrücke in allen Bezugssystemen anwendbar sind — nicht allein in Inertialsystemen.
 
Zulässige Transformationen zwischen Bezugssystemen sollten nur eingeschränkt sein durch die Bedingungen
  • umkehrbar eindeutig,
  • stetig,
  • und auch differenzierbar.

Wie bedeutsam das ist, wird klar, wenn man sich vor Augen führt, dass die Gesetze der Newtonschen Mechanik (wie auch der SRT) zunächst nur in Inertialsystemen gültig sind und an nicht-inertiale Bezugssysteme nur durch Einführung zusätzlicher Größen — Zentrifugalkräfte oder Crioliskräfte — anpassbar sind.
 
Solche Sonderstellung einer besonderen Klasse von Bezugssystemen wollte Einstein in der ART vermeiden:
 
Sein Ziel war, die Theorie so zu formulieren, dass ihre Gesetze in unveränderter Form in allen denkbaren Bezugssystemen gültig bleiben.
 
Allgemeine Kovarianz erreicht genau das. Zulässig sind danach nur Größen, die ein ganz bestimmtes Transformationsverhalten aufweisen.Man nennt sie kovariante Größen. Kovarianz ist ein der Differentialgeometrie entstammender, rein mathematischer Begriff. Einstein gelang es, ihm mit physikalischer Relevanz zu versehen. Einstein glaubte 1916, dass das Prinzip allgemeiner Kovarianz als Ausdruck und Konkretisierung eines "allgemeinen Relativitätsgesetzes" gelten könne, demzufolge sämtliche Bewegungsformen physikalisch gleichwertig sind:

Einstein (1922)
 
Wir werden dem Relativitätsprinzip im weitesten Sinne dadurch gerecht, dass wir den Gesetzen eine solche Form geben, daß sie bezüglich jedes derartigen (4-dimensionalen) Koordinatensystems gelten, d.h. daß die sie ausdrückenden Gleichungen bezüglich beliebiger Transformation kovariant sind.
 



Martin Carrier (in seinem Buch Raum-Zeit, de Gruyter 2009, S. 143-144)
 
Allerdings hat das Prinzip allgemeiner Kovarianz nichts mit der Relativität der Bewegung zu tun. Wie Erich Kretschmann 1917 zeigen konnte, beinhaltet die mathematische Tatsache der unveränderten Form der Gleichungen in beliebigen Koordinatensystemen keineswegs auch die physikalische Äquivalenz aller Bezugssysteme.
    Allgemeine Kovarianz bingt zum Ausdruck, dass sich die Größen der Theorie und ihre Beziehungen untereinander in koordinaten-unabhängiger Form darstellen lassen, schließt aber  n i c h t  aus, dass bei der Umsetzung der übergreifenden Darstellung in konkrete Bezugssysteme doch wieder spezifische Merkmale besonderer Bewegungsformen in Erscheinung treten.
     
    Tatsächlich lässt sich beinahe jede Bewegungstheorie allgemein kovariant formulieren (SRT und Newtonsche Mechanik auf jeden Fall).
     
    Dabei konkretisiert sich dann die die einheitliche Formulierung in verschiedenen Bezugssystemen auf unterschiedliche Weise.
     
    Insbesondere treten in Nicht-Inertialsystemen unverändert Trägheitskräfte in Erscheinung, so dass sich an der Sonderstellung der Initialsysteme nichts geändert hat.
Um es nochmals zu sagen:
    Allgemeine Kovarianz ist eine mathematische Eigenschaft der  F o r m u l i e r u n g  einer Theorie.
    Physikalische Äquivalenz von Bezugssystemen aber garantiert sie keineswegs.
    Neu in der ART ist allein, dass ein allgemein kovariante Formulierung dort unvermeidlich ist, da die von Punkt zu Punkt unterschiedliche Krümmung der Raumzeit keine globalen Inertialsysteme mehr zulässt (Friedmann 1983, 54-56, 207-209, 212-213).

Quelle:
  • Friedmann, Michael (1983): Foundations of Space-Time Theories, Relativistic Physics and Philosphy of Science, Princeton University Press

 


 
Die Formulierung eines physikalischen Gesetzes heißt  k o v a r i a n t , wenn sie koordinatensystem-unabhängig ist.


 

 Beitrag 0-48
Warum das Standardmodell der Elementarteilchen und Einsteins Gravitationstheorie einander widersprechen

 
 

 
Zum Konflikt zwischen ART und Quantentheorie

 
 
Beide Theorien unterscheiden sich grundlegend schon von ihrem begrifflichen Ansatz her:
 
  • In der Quantentheorie — und dem Standardmodell der Elementarteilchenphysik — werden physikalische Wechselwirkungen durch quantisierte Felder beschrieben, so dass sich dort jede Wirkung von Kraft darstellt als Austausch von Überträgerteilchen (Bosonen):
     
    • Photonen vermitteln die elektromagnetische Kraft,
    • Eichbosonen die schwache Wechselwirkung
    • und insgesamt 8 Gluonen die starke Kernkraft (die vor allem zwischen Quarks wirkt).
       
    • Dass auch gravitative Wechselwirkung quantisiert sei — hypothetisch durch sog. Gravitonen (Gravitationswellen) — ist bislang nur Vermutung.

     
  • Ganz anders Einsteins Gravitationstheorie:
    Sie geht davon aus, dass Gravitationskräfte Ausdruck der Krümmung des Raumes (d.h. der Raumzeit) sind. Da die sich stetig ändert, kann Gravitation — der ART entsprechend — nicht quantisiert sein.


Martin Carrier (S. 224 in seinem Buch Raum-Zeit, de Gruyter 2009) kommt zum Schluss:
 
Eine der beiden Denkschulen wird weichen müssen. Vieles spricht dafür, dass es die Geometrisierung der Gravitation ist, die aufzugeben sein wird.
 
Nach früh gescheiterten Versuchen, auch Materie und (Energie-) Felder als besondere Raum-Zeit-Strukturen zu verstehen (Esfeld 2002, 42-43), zielen heute sämtliche Ansätze einer einheitlichen Theorie aller physikalischen Wechselwirkungen auf eine Quantentheorie der Gravitation. Bislang ist unklar, wie eine solche Theorie aussehen könnte. Dennoch ist damit zu rechnen, dass die Frage nach der Natur von Raum und Zeit vor dem Hintergrund einer künftigen Quantentheorie der Gravitation anders zu beantworten sein wird als heute.
 


Quellen:
  • Esfeld, Michael (2002): Einführung in die Naturphilosophie, Darmstadt, Wissenschaftliche Buchgesellschaft (erschien 2011 in gründlicher Neubearbeitung)


 

 Beitrag 0-46
Wie sich Newton einerseits und Leibniz andererseits Raum und Zeit vorgestellt hatten

 
 

 
Wie Newton und sein Widerpart Leibniz Raum und Zeit sahen

 
 
Newton sah den Raum als einen Behälter, in dem Objekte wohnen, die sich zeitabhängig verschieden schnell durch ihn bewegen.

 
Völlig anders Leibniz: Für ihn gab es diesen Behälter nicht. Er hielt den Raum ebenso wie die Zeit für etwas rein Relationales:
  • Raum sei einfach nur eine Ordnung des Neben-einander-Bestehens von Objekten: die Gesamtheit der relativen Anordnungen der Körper,
  • wohingegen Zeit nur als ein Auf-einander-Folgen von Ereignissen existiere.

Die Ursprünge solch einer relationalen Theorie von Raum und Zeit gehen auf Decartes (1596-1650) zurück. In seinen Prinzipien der Philosophie vertrat er die Ansicht, dass Ausdehnung das kennzeichnende Merkmal von Materie und Raum gleichermaßen bilde und sich die beiden daher nicht wesentlich unterscheiden. Der Raum, so Descartes, sei die Gesamtheit der Erstreckungen und Positionen der Körper relativ zueinander dar, und Bewegung gebe es nur als Veränderung der Abstände und Anordnung der Körper untereinander. Einen wahrhaft unbewegten Ort dagegen gebe es nicht.
 
Leibniz hat diesen Gedanken aufgenommen und zu einer systematischen Theorie des Raumes ausgebaut. Auch seine kausale Theorie der Zeitfolge ist tatsächlich Teil dieses umfassenden relationalen Ansatzes.
 
Für Descartes und Leibniz war der Raum die Gesamtheit aller möglichen Anordnungen von Dingen, die gleichzeitig existieren.


 

 Beitrag 0-440
ART und Quantenphysik sind hintergrundunabhäbgige Weltmodelle

 
 

 
Zur Hintergrundunabhängigkeit von ART und Quantenphysik

 
 
Die wichtigste begriffliche Eigenschaft der allgemeinen Relativitätstheorie (ART) besteht in der sogenannten Hintergrundunabhängigkeit.
 
Man versteht darunter die Tatsache, dass in der ART den Raum-Zeit-Koordinaten überhaupt keine physikalische Bedeutung mehr zukommt, sondern nur noch den Beziehungen zwischen den Feldern auf der Raum-Zeit, zu denen auch das metrische Feld gehört, welches das Gravitationsfeld darstellt.
 
Dies hat damit zu tun, dass es in der allgemeinen Relativitätstheorie überhaupt keine absoluten Größen mehr gibt, da auch die Metrik — im Gegensatz zur speziellen Relativitätstheorie (SRT) — in der ART zu einer dymamischen Größe wird.
 
 
Das aber bedeutet, dass die Raumzeit ohne die in ihr enthaltenen dynamischen Objekte gar nicht existiert.

 
 
Dennoch kennt die ART — in einem relationalen Sinne — räumlich-kausale Strukturen, da in ihr ja — als zentrale, dynamische Größen — Felder auf der Raum-Zeit beschrieben werden.
 
 
 
Die Quantentheorie — in ihrer der abstrakten Hilbertraum-Formulierung — geht noch weiter: Sie verzichtet auf Begriffe wie Raum, Körper, Feld, Teilchen, Bewegung, Wechselwirkung, Masse oder Ladung. Nur die Zeit muss beibehalten werden.

 
Und so kommt dem Raum in der Quantentheorie noch weniger Bedeutung zu als in der ART.

 
 
 
Quelle: Martin Immanuel Kober (2018) in Fortführung des Ansatzes der Ur-Alternativen von Carl Friedrich v. Weizsäcker


 

 Beitrag 0-49
Was sich heute zur Natur der Raumzeit sagen — aber auch  f r a g e n  — lässt

 
 

 
Warum man die Natur der Raumzeit heute noch als unentschieden sehen muss

 
 
Die relationale — der Ansicht von Decartes, Leibniz, Mach und Einstein entsprechenden — Rückführung der Raumzeitpunkte auf die Anordnung materieller Objekte untereinander hat zur Folge, dass es unbesetzte Raumzeitpunkte, leeren Raum also, nicht geben kann.
 
Die substanzialistische Ansicht aber, dass der Raum eigenständig existiere, setzt die Annahme der Existenz solche unbesetzter Raumzeitpunkte geradezu voraus.


Martin Carrier (S. 205-206 seines Buches Raum-Zeit, de Gruyter 2009) schreibt:
 

Vor dem Hintergrund der ART lautet die wesentliche Frage, ob Raumzeitmetrik gik und Geodätenstruktur zur Raumzeit oder zur Materie zu zählen sind.
 
Die Feldgleichungen verknüpfen den Energie-Impuls-Tensor Tik mit einem Ausdruck, der die über Metrik und Geodäten gegebene physikalische Geometrie repräsentiert. So gesehen ist die Metrik Teil der Raumzeit, nicht aber der Materie.
 
 
Gegen den Relationalismus aber spricht, dass die Feldgleichungen physikalisch signifikante Vakuumlösungen enthalten (denn auch bei verschwindender Materie und Energie ergeben sich definitive metrische Felder und Geodätenstrukturen als Lösungen). Es handelt sich dabei insbesondere um Gravitationswellen, also um sich fortplanzende Schwingungen des metrischen Feldes.
 
Danach kann auch dort Raumzeit, nämlich ein nicht verschwindendes metrisches Feld gik vorliegen, wo keine Materie ist, genauer: wo der Energie-Impuls-Tensor verschwindet.
 
So führt z.B. der Kollaps eines Sternes zur Emission von Gravitationswellen, Sie entfernen sich vom Ort des Geschehens wie Wasserwellen von einem ins Wasser geworfenen Stein. Weit ab vom Ereignis mag keinerlei materieller Rest des Zusammenbruchs mehr vorhanden sein; in den Gravitationswellen aber manifestiert sich gleichwohl eine definitive Metrik.
 
Somit realisieren Gravitationswellen leere Raumzeit-Punkte, und  d i e s e r  Befund stützt die Vorstellung einer substanzialstischen Raumzeit.

 


Aus meiner [ Gebhard Greiters ] Sicht heraus, scheint mir diese Argumentation nicht so ganz überzeugend, denn wo es wellenartig sich auf- und abbauendes Kraftpotential gibt, muss es doch eigentlich auch als Anwesenheit von Energie gedeutet werden. Wie also unterscheidet die sich von der durch den Energie-Impuls-Tensor beschriebenen?

 

 Beitrag 0-47
Wie sich der Geometrie-Begriff entwickelt hat: Von Euklid bis hin zu Riemann und Einstein

 
 

 
Wie sich der Geometrie-Begriff entwickelt hat (bis hin zu dem der ART)

 
 
Über fast zwei Jahrtausende hinweg war die Euklidische Geometrie die einzig bekannte. Nach anderen Geometrien zu suchen kam lange Zeit niemand in den Sinn, denn einerseits entspricht sie gut unserer Erfahrungswelt und noch Euklid (ca. 365-300 v.Chr) hatte sie von Anfang an fest verankert in 5 Postulaten, auf die er all seine Lehrsätze stützte (und die suggerierten, dass Geometrie stets nur im Kontext einer flachen Ebene Sinn machen).
 
Hierzu zählten Forderungen so einfacher Art, dass zwischen je zwei Punkten eine Gerade gezogen werden kann und jede Strecke zu einer Geraden verlängert werden kann. Nur Euklids fünftes, letztes Postulat — in dem er verlangt, dass es durch einen Punkt P der nicht auf einer gegebenen Geraden G liegt stets eine andere Gerade gebe, die parallel zu G ist — hat den Mathematikern zunehmend Kopfzerbrechen bereitet: Sie vermuteten, dass dieses so vergleichsweise komplizierte Postulat schon Folge der anderen sein könnte.
 
Dies zu beweisen allerdings gelang niemand. Kein Wunder, denn Bolyai (1802-1860) und unabhängig von ihm auch Lobaschewski (1792-1856) und schließlich Gauss (1777-1855) fanden schließlich, dass auch andere Fassungen des Parallelenaxioms denkbar und ebenfalls mit den übrigen 4 Axiomen verträglich sind: Statt die Existenz genau einer Parallele zu G durch P kann man auch die Existenz gar keiner oder die Existenz von mindestens zwei fordern.
 
Diese Einsicht markierte die Entdeckung zweier Familien Nicht-Euklidischer Geometrie. Man nennt sie Geometrien elliptischer bzw. hyperbolischer Art je nachdem ob sie gar keine oder mehrere Parallen zu G durch P gestatten.
 
 
Bernhard Riemann — ein Schüler von Gauss — konnte schließlich beweisen, dass sie und auch die Geometrie Euklidischer Art sämtlich Spezialfälle einer noch allgemeineren geometrischen Theorie sind: einer, die man heute die Riemannsche Geometrie nennt (noch etwas allgemeinere entstanden ab 1920).
 
Ihr Hauptcharakteristikum — im Nachhinein eigentlich nicht verwunderlich — ist, dass es sich um Geometrien handelt, die erlauben, dass der betrachtete Raum ortsabhängig unterschiedliche geometrische Charakterista aufweist.
 
Und tatsächlich: Denkt man z.B. daran, dass die Landschaft in Norddeutschland kaum Krümmung aufweist, viel weniger bizarre jedenfalls als die Landschaft z.B. in den Alpen oder im Himalaya, und dass das Krümmungsverhalten der Landschaft auf dem Weg von hier nach dort sich nur schrittweise abändert, so kann man gut nachvollziehen, dass
  • Euklidische Geometrie dem einfachsten Fall entspricht: Sie ist die Geometrie einer absolut flachen, nirgendwo gekrümmten Ebene (bzw. eines nirgendwo gekrümmten Raumes beliebiger Dimension).
     
  • Elliptische Geometrie oder hyperbolische Geometrie ist stets Geometrie eines überall in gleicher Weise gekrümmten Raumes (ee könnte Kugeloberfläche im elleptischen Fall oder Oberfäche eines Sattels im hyperbolischen Fall sein).
     
  • Riemannsche Geometrie schließlich kann ortsabhängig variierende Krümmung ganz unterschiedlicher Stärke beschreiben.

 
Den Typ mathematischer Struktur, der erlaubt, Räume mit solch allgemeinem Krümmungsverhalten formal sauber zu beschreiben nennt man Riemannsche Mannigfaltigkeit .
 
Gauss hatte versucht, solche Räume durch Teilmengen je eines Raumes noch höherer Dimension zu modellieren. Riemann aber fiel auf, dass Vieles einfacher wird, wenn man statt der Einbettung des zu beschreeibenden Raumes R in einen noch höher dimensionalen Raum sog. Tangentenräume heranzieht: Jeder von ihnem ist genau einem Punkt P von R zugeordnet, hat Euklidische Geometrie (d.h. die denkbar einfachste) und approximiert über sie die Geometrie von R um P herum beliebig gut — dann jedenfalls, wenn man sich auf eine entsprechend kleine Umgebung von P beschränkt.
 
Es hat dann natürlich auch jede dieser Umgebungen U(P) ihr eigenes Koordinatensystem, sein Urprung ist P selbst. Ein den gesamten Raum R umspannendes, globales Koordinatensystem braucht  n i c h t  zu existieren.
 
Mehr dazu lese man nach in Wikipedia.

 

  Beitrag 2051-1
Grenzen der Anwendbarkeit der SRT (und teilweise auch der ART)

 
 


Wer die SRT anwenden möchte, sollte bedenken:



Die Anwendbarkeit der SRT ist an gewisse Voraussetzungen geknüpft, die man nicht aus dem Auge verlieren sollte (und die stets nur annäherend gegeben sind, auf keinen Fall also über unser gesamtes Universum hinweg so genau, dass die SRT über beliebige Entfernungen hin brauchbare Aussagen machen würde).

Diese Voraussetzungen sind:
  • Es muss ein Inertialsystem geben, in das sich alle betrachteten Objekte gemeinsam einordnen — und zwar so, dass sie unter dieser Einordnung als NICHT beschleunigt erscheinen.
  • Es muss uns reichen, Aussagen zu erhalten, die nicht beobachter-neutral sind.

Da in unserer Raumzeit alle masse-behafteten Objekte Gravitationskräften unterliegen, die durch andere solcher Objekte hervorgerufen werden, und da diese Kräfte sich wohl nur ausnahmsweise und sicher nur über extrem kurze Zeit hinweg an dem einen oder anderen Ort zu Null ergänzen, ist die wichtigste Voraussetzung für die Anwendbarkeit der SRT i.A. wirklich voll so gut wie nie und nirgenwo gegeben.

Mit anderen Worten: Die SRT ist eine eher lokale Theorie (weswegen ich sie denn auch — anders als Okotombrok — im Kontext des Themas 2049-24 gar nicht erst zur Sprache gebracht hätte.

Wir könnten jetzt aber mal der Frage nachgehen, WIE lokal die SRT denn eigentlich ist, d.h. welche Eigenschaften eine Region der Raumzeit haben muss, damit die SRT für Gegenstände in jener Region Aussagen macht, die nicht allzu ungenau sind.

Eines steht fest (wenn wir daran denken, dass Gravitationskräfte sämtliche Objekte beschleunigen, die nicht schon mit Lichtgeschwindigkeit unterwegs sind):
  • Je weniger Himmelskörper sich in jener Region befinden, desto besser wird die SRT dort anwendbar sein.
  • Umgekehrt: Kaum anwendbar sein wird die SRT in der Nähe eines Schwarzen Loches oder gar im Inneren seines Ereignishorizontes. Rein mathematische Betrachtungen sagen uns noch mehr: Die SRT ist nicht anwendbar in naher Umgebung irgend einer Singularität der Raumzeit, als z.B. auch nicht zu Beginn des Urknalls und allzu kurz danach.

Da die Raumzeit der ART eine differenzierbare Mannigfaltigkeit ist, können wir nur sagen:
  • Jeder nicht-singuläre Punkt x der Raumzeit hat mindestens eine topologische Umgebung U(x), welche isomorh ist zu einer geeigneten tologischen Umgebung des Ursprungs des normalen 4-dimensionen metrischen (reellen) Raumes, genauer: des Minkowski-Raumes im Sinne der SRT.
  • Sei nun V(x) die Vereinigung aller Umgebungen von x mit dieser Eigenschaft. Dann ist auch V(x) selbst die größte solche Umgebung, und maximal nur in ihr können wir uns ein kartesisches Koordinatensystem vorstellen, in das sich alle Punkte aus V(x) gemeinsam einordnen. Problem aber: Form und Größe von V(x) sind zeitlich variabel — mindestens in gewissem Ausmaß, das wiederum davon abhängt, wie turbulent es um x herum zugeht.

All das berücksichtigt noch gar nicht die Tatsache, dass unsere wirkliche Welt im ganz Kleinen — gemeint ist: in einer Größenordnung, die sich der Plancklänge nähert — hinsichlich ihrer geometrischen Struktur selbst durch die ART ganz und gar nicht zutreffend beschrieben ist. Dort nämlich ändert sich die Topologie des Raumes zeitlich gesehen noch weit schneller und weit dramatischer. In dieser Größenordnung die SRT noch anwenden zu wollen, würde zu rein gar nichts führen.

Wer mehr zu all dem wissen möchte, sollte versuchen, zu verstehen, was in Consequences of Spacetime Topology gesagt wird oder in den Papieren, die dort im Literaturverzeichnis genannt sind.

Gebhard Greiter (grtgrt)

 

  Beitrag 2051-3
-

 
 
Hans-m aus 2051-2:
 
Ich glaube du sprichst hier den Unterscheid zwischen idealer und realer Betrachtung eines Inertialsystem an.

Ein ideales Inertialsysem ist absolut unbeschleunigt, unterliegt keiner Gravitation und keinen sonstige Kräften.
Ein ideales System kann dem realen System nur annähernd gleichkommen.
 


Ja, Hans-m, genau so meine ich das.

Mit zu berücksichtigen ist allerdings, dass in extremen Szeanrios — wie etwa im Inneren aller Schwarzen Löcher oder im Quantenschaum — die Aussagen  i d e a l e r  Betrachtung beliebig weit von  r e a l e n  Gegebenheiten abweichen können.

Die Abweichung, mit der man zu rechnen hat, dort nicht abschätzen zu können, wird zum Problem.


Gruß, grtgrt
 

  Beitrag 2051-5
-

 
 
Hans-m aus 2051-4:
Grtgrt aus 2051-3:
 
Mit zu berücksichtigen ist allerdings, dass in extremen Szeanrios — wie etwa im Inneren aller Schwarzen Löcher oder im Quantenschaum — die Aussagen  
i d e a l e r  Betrachtung beliebig weit von  r e a l e n  Gegebenheiten abweichen können.

Fakt ist: Worüber ich nix weiss, kann ich auch nix berechnen.
Alles was sich innerhalb des Ereignishorizontes eines SL abspielt, ist für den Betrachter ausserhalb nicht ersichtlich.


Richtig, Hans-m, das kommt noch dazu.

Mir kam es aber darauf an, zu sagen, dass mit zunehmender Nähe zur Singularität die Ungenauigkeit, die ich mir beim Nutzen des nur näherungsweise gültigen Modells einhandle, sehr schnell überhaupt nicht mehr abschätzbar wird.

 

  Beitrag 2016-45
Macht sie wirklich Raum und Zeit ununterscheidbar?

 
 
Nochmals zurück zur Raumzeit im Sinne der ART:

Mir ist schon bekannt, dass Wikipedia und auch andere Quellen sagen:

Zitat von Wikipedia:
 
Die Raumzeit bezeichnet in der Relativitätstheorie die Vereinigung von Raum und Zeit in einer einheitlichen vierdimensionalen Struktur mit speziellen Eigenschaften (z. B. "Kausalität"), in welcher die räumlichen und zeitlichen Koordinaten bei Transformationen in andere Bezugssysteme miteinander vermischt werden können.

Ein Beispiel für eine solche "Vermischung" ist mir bisher nicht über den Weg gelaufen.

Wer kann mir sagen, wo ich ein möglichst einfaches tatsächlich nachgerechnet finden kann?

 

  Beitrag 2016-49
-

 
 
E... aus 2016-47:
 
Aber eine "Vermischmaschine" gibt es da nicht.

Siehst du, E...,

das genau ist der Punkt. Auch ich kann weder an den von dir genannten Stellen noch irgendwo sonst, so eine "Vermischmaschine" erkennen.

Gruß, grtgrt
 

  Beitrag 2031-49
Über die hohe Genauigkeit von Einsteins Gravitationstheorie

 
 
E... aus 2031-42:
 
Zitat aus einem Standardwerk über Galaxien-Dynamik von
J. Binney und S. Tremaine: >Galactic Dynamics< ISBN 0-691-08445-9 von 1988 der Princeton University Press, Seite 635

Zitat:
Bisher wurde angenommen, dass die allgemeine Relativitätstheorie bzw. die Newtonsche Gravitation auf großen Skalen gelten. Tatsächlich gibt es aber wenig oder gar keine direkten Belege dafür, dass die konventionellen Gravitationstheorien auch auf Skalen korrekt sind, die z.B. viel größer als ein Lichtjahr sind. Die Newtonsche gravitation funktioniert ausgezeichnet auf Skalen von 1012 Metern, also im Sonnensystem. Es ist aber hauptsächlich die Eleganz der Allgemeinen Relativitätstheorie mit ihren erfolgreichen Vorhersagen im Sonnensystem, die uns zu der gewaltigen Extrapolation auf 1021 - 1026 Meter führt.

Auf der folgenden Seite äußert sich Pavel Kroupa vom Argelander-Institut für Astronomie der Universität Bonn, der die Untersuchung gemeinsam mit Kollegen aus Deutschland, Österreich und Australien durchgeführt hat.
http://www.weltderphysik.de/gebiet/astro/news/2009/...
 


Hi E...,

man hat eben erst (2013) einen Weg gefunden, die Theorie Einsteins zur Gravitation — die Allgemeine Relativitätstheorie — auf eine Art und Weise zu überprüfen, die bisher nicht möglich war. Die neuen Beobachtungen stimmen genau mit den Vorhersagen der Allgemeinen Relativitätstheorie überein und sind nicht konsistent mit einigen alternativen Theorien.

Mehr dazu findest Du in einer Pressemitteilung des ESO mit dem Titel » Einstein behält recht «.
PS: Gravitationswellen kosmischen Ursprungs werden von der Allgemeiner Relativitätstheorie vorhergesagt, konnten aber bis heute trotz zahlreicher experimenteller Tests nicht direkt nachgewiesen werden. Einen ersten (wenigstens indirekten) Hinweis auf die Existenz dieser Wellen hat 1974 Russell Hulse entdeckt: Es ist der Doppelpulsar PSR 1913+16. Die Variationen in der Umlaufbahn dieses Doppelsystems stimmen exakt mit den Vorhersagen der Allgemeinen Relativitätstheorie zur Abstrahlung von Gravitationswellen überein. Hulse erhielt 1993 für diese Entdeckung den Nobelpreis für Physik.

Der jetzt (2013) entdeckte Pulsar PSR J0348+0432 ist nur ein zweites Beispiel dieser Art — aber natürlich willkommene Bestätigung dafür, dass man Hulses Entdeckung richtig gedeutet hat.

Gruß, grtgrt
 

  Beitrag 2035-25
Wie sich in der Relativitätstheorie Geschwindigkeiten addieren

 
Hallo Struktron,

herzlich wilkommen im Forum.

Struktron aus 2035-21:
Nun entfernen sich die Satelliten so voneinander, dass unsere Signale genau in gegengesetzte Richtung fliegen müssen, um die Satelliten zu erreichen. Bei der Ankunft sind beide wiederum von uns genau 300.000 km entfernt. Die Ankunftsmeldung kommt auch wieder nach einer Sekunde.
Mit welcher Geschwindigkeit haben sich die Wellenfronten voneinander entfernt?

Die Formel zum Addieren relativistischer Geschwindigkeiten lautet:

vr = ( v1 + v2 )/( 1 + (v1v2)/c2 )


wobei vr die resultierende Geschwindigkeit meint und v1 und v2 die zu addierenden Geschwindigkeiten.

Setzt man nun für v1 und v2 c ein, so lautet das Ergebnis c und nicht 2c.

mfg okotombrok
 

  Beitrag 2035-40
Kosmologie kennt zweierlei Arten von Geschwindigkeit und Beschleunigung

 
 
Hi Okotombrok,

nachdem Henry mich so gründlich missverstanden hat, will ich meine Festellung und meine Frage aus Beitrag 2035-31 hier nochmals deutlicher formulieren:


Die Physik unterscheidet — ganz anders als die Mathematik —
  • zwei verschiedene Arten von Beschleunigung und
  • korrespondierend dazu auch zwei verschiedene Arten von Geschwindigkeit.

Deine Aussage in Beitrag 2035-24 verstehe ich so, dass Du sagen wolltest:
  • Beschleunigung, die Trägheitskräfte zu überwinden hat, kann nur zu Geschwindigkeiten v < c führen.
  • Beschleunigung, die durch "dunkle Energie" hervorgerufen wird, erzeugt keine Trägheitskraft und kann zu Geschwindigkeiten führen, die größer als die Lichtgeschwindigkeit sind.

Nun also meine Frage:

Nach allem, was ich weiß, kennt die ART beide Arten von Beschleunigung und Geschwindigkeit. Wie aber unterscheidet sie zwischen ihnen?

Gruß, grtgrt
 

  Beitrag 2089-11
Krümmung des Raumes und (dort) von Null verschiedenes Energiepotential sind ein und dasselbe

 
Henry in 2089-7:
aber noch bedeutender ist die revolutionäre neue Auffassung der Gravitation nicht als Kraft, sondern als Krümmung der Raumzeit.

Hallo Henry,
ich würde eher sagen, auch nach der ART bleibt die Gravitation als eine der vier Grundkräfte der Natur erhalten.

Vielmehr verleiht die Krümmung der Raumzeit den Körpern Masse und die Masse der Körper verursacht die Krümmung der Raumzeit. Was ich an dieser Konstruktion nicht verstehe ist, dass es für mich wie ein Zirkelschluss erscheint.

MfG
Harti
 

  Beitrag 2089-14
-

 
 
Hans-m in 2089-13:
 
Wie aber definiere ich nun die Energiepotenziale und wie die daraus resultierenden Raumkrümmungen?

Wohlgemerkt, ich meine hier nicht die Masse von Objekt 1,2 oder 3, sondern die kinetische Energie der Objekte untereinander.
Solange die Objekte in Bewegung sind habe ich eine Längenkontraktion. diese entfällt aber, wenn sich die Objekte nicht mehr relativ zueinader bewegen.


Hallo Hans-m,

eine absolut vollständige Antwort kann ich dir sicher nicht geben, wohl aber einige Denkanstöße:
     
  • Zur letzten Aussage deines Zitats sei gesagt: Die Längenkontraktion existiert nur aus  S i c h t  von relativ zum Objekt sich bewegender Beobachter.
    BEWEIS: Die Tatsache, dass es Beobachter geben kann, die sich unterschiedlich schnell relativ zum betrachteten Objekt bewegen — also unterschiedlich starke Längenkontraktion sehen —, zeigt ganz klar, dass die Längenkontraktion nur in der Wahrnehmung dieser Beobachter existiert,  n i c h t  aber in der Struktur des Raumes vorhanden sein kann (!).
     
  • Was Wege zur Berechnung des Potentialfeldes betrifft, geht mir Folgendes durch den Kopf:
    Einstein hat gezeigt, dass sich Kräfte, die ein Objekt beschleunigen, von Gravitationskräften (der Kraft also, die der Gegenwart von Energiepotential geschuldet ist) in keiner Weise unterscheiden lassen. Das scheint mir auch irgendwie logisch zu sein, denn Ursache aller Beschleunigung ist Kraft, d.h. die Gegenwart von Energiepotential.
    Jede an einem Ort X wirkende Kraft lässt sich beschreiben als Vektor k(X), der bestimmte Richtung und bestimmte Länge hat. Die Summe aller Kräfte — die Summe aller Energiepotentiale also, die sich dem Ort X zuordnen — ist gegeben als Summe dieser Vektoren.
    Damit, so denke ich, ist deine Frage, wie sich denn das einem Ort X zugeordnete Energiepotential berechnen lässt, wenigstens im Prinzip geklärt.
    Wer es wirklich berechnen will, wird dennoch seine Schwierigkeiten haben, denn:
       
    • erstens muss er ja feststellen, welche Kräfte wirken (d.h. welche Kraftquellen da sind und wie weit weg von Stelle X sie sich befinden)
    • zweitens muss berücksichtigt werden, dass diese Kraftquellen sich i.A. relativ zu X bewegen, und
    • drittens wird in die Berechnung irgendwo eingehen müssen, dass nicht alle 4 Grundkräfte sich identisch verhalten.


In der Hoffnung, Dir hiermit gedient zu haben,
Gruß, grtgrt
 

  Beitrag 1997-26
Raumzeit und ART vs SRT

 
Henry in 1997-23:
Zur Union von Raumzeit und Materie würde ich allerdings sagen, Einstein hat die Raumzeit und die Materie in ein dynamisches Wechselspiel geführt, sie beeinflussen einander durch ihre gegenseitige Wirkungen - Materie krümmt die Raumzeit, die Krümmung der Raumzeit gibt der Materie ihre Bewegungsrichtung vor.

Hallo Henry,

richtig, genau das wollte ich mit dem Schlagwort "Union zwischen Raumzeit und Materie" zum Ausdruck bringen. Also, volle Übereinstimmung.

M.f.G Eugen Bauhof
 

  Beitrag 1997-29
-

 
 
Harti in 1997-27:
Hallo zusammen,

ich formulier die Erkenntnis aus der vektotriellen Betrachtung noch mal sprachlich:

Raumzeitlich bewegen sich die Zwillinge vom Ereignis A (Start des Reisezwillings) zum Ereignis B (Rückkehr des Reisezwillings). Diese Bewegungen beider Zwillinge sind raumzeitlich gleich. Es gibt bei dieser raumzeitlichen Betrachtung weder eine Zeitdilatation noch eine Längenkontraktion, weil es die Unterscheidung bzw. den Gegensatz zwischen Raum und Zeit nicht gibt.


Nun Harti,

ich würde es – weniger missverständlich – so formulieren:
    Die beiden Zwillinge bewegen sich von A nach B auf unterschiedlichen Wegen durch die Raumzeit.
    Je nachdem, welchen Weg sie nehmen und welch unterschiedlicher Beschleunigung sie dort ausgesetzt sind, werden sie mehr oder weniger schnell altern. Dies bewirkt, dass — wenn sie sich in B erneut treffen — ihr Alter unterschiedlich sein wird, trotzdem sie in A noch gleich alt waren.


Nebenbei: Der Gebrauch der Worte » Zeitdilation « und » Längenkontraktion « ist nur angebracht, wo man beobachterspezifische  S i c h t e n  miteinander vergleicht. Diese Worte beschreiben (wie Du intuitiv richtig erkannt, aber keineswegs überzeugend verargumentiert hast) keine Eigenschaften der Raumzeit.

Gruß, grtgrt

 

  Beitrag 1997-16
-

 
 
Bauhof in 1997-14:
 
die Vereinigung von Raum und Zeit zur Raumzeit hat nicht direkt Einstein, sondern Hermann Minkowski vollzogen.

Es sind nur Modell-Vorstellungen. Zeit ist eine Modellvorstellung und Raum ist eine Modellvorstellung. Minkowski hat beide Modellvorstellungen zur Modellvorstellung Raumzeit vereinigt. Warum? Weil sich mit der Raumzeit bessere nachprüfbare Vorhersagen machen lassen als mit den beiden alten Modellvorstellungen.


Das ist nur rein formal richtig insofern als Minkowski auf dem durch Einstein in der SRT betrachteten Raum — den er damals noch einfach als durch Raum und Zeit aufgespannten 4-dimensionalen reelen  V e k t o r r a u m   sah — eine Metrik definiert hat: eben jene, die man heute die Minkoski-Metrik nennt.

Erst die ART hat dann Raum und Zeit  u n t r e n n b a r  miteinander verschweißt.

 

  Beitrag 1997-18
-

 
 
Henry in 1997-17:
Gebhard, das Zitat:

" Von Stund′ an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken und nur noch eine Art Union der beiden soll Selbständigkeit bewahren."


von Minkowski stammt aus dem Jahre 1908 und bezieht sich auf seine vierdimensionales Analogen einer Kugel (Raum + Zeit) und auf die SRT. Die ART als Theorie der Gravitation beschreibt die Krümmung der Raumzeit, die dort mit Tensoren formal beschrieben wird.


Ja, Henry, das ist so (steht aber keineswegs in Widerspruch zu meiner Aussage).

 

  Beitrag 1997-61
-

 
 
Harti in 1997-59:
Grtgrt in 1997-53:
Raum und Zeit sind deswegen in der Argumentation sauber auseinander gehalten,
und nur deswegen kann sich die SRT leisten, als Bezugssystem keine 4-dim Mannigfaltigkeit, sondern nur einen 4-dim-Vektorraum zu haben

Hallo Grtgrt,

Muss man nicht eigentlich aus der Tatsache, dass man zwei Koordinaten verwendet, die senkrecht aufeinander stehen, schließen, dass Raum und Zeit getrennt werden ?
Die Veräumlichung der Zeit, indem man die Zeit (t) mit der Lichtgeschwindigkeit (c) multipliziert und die Zeitachse ct-Achse nennt, ändert doch daran nichts.


Ja, auch ich sehe das so.


Harti in 1997-59:
 
Kannst Du mir als mathematischen Laien die Begriffe 4-dim Vektorraum und 4-dim Mannigfaltigkeit und insbesondere den Unterschied zwischen beiden erklären ? Ich nehme an, es handelt sich bei einer Darstellung von Vektoren mit zwei Koordinaten, eine für die Zeit und eine für den Raum, um einen reduzierten, zweidimensionalen Vektrorraum.
 


Hallo Harti,

zunächst mal: Mannigfaltigkeiten zu kennen gehörte (als ich an der TU München studiert habe) nicht zum Stoff, den beherrschen musste, wer die Diplomprüfung für Mathematik bestehen wollte. Insofern werden auch viele Mathematiker in der Hinsicht einfach nur Laien sein.

Damit meine Erklärung des wesentlichen Unterschiedes zwischen Vektorraum und Mannigfaltigkeit verständlich ausfällt, will ich diese beiden Begriffe hier nicht definieren, sondern Dir lediglich den Unterschied zwischen ihnen erklären.

Hierzu sei angenommen, dass
    R(SRT) den 4-dim Raum der SRT bezeichnet, der topologischer  V e k t o r r a u m  ist, und
    R(ART) die 4-dim Raum der ART, der topologische  M a n n i g f a l t i g k e i t  ist.

Topologisch zu sein bedeutet (in diesem Fall), dass auf beiden Räumen ein durch die Minkowski-Metrik gegebener Abstandsbegriff definiert ist.

Dass wir die 4-dim Version dieser Räume betrachten — also nicht, wie etwa die Stringtheorie, gleich 10 Dimensionen voraussetzen — spielt keine Rolle für den
Unterschied zwischen » Vektorraum « einerseits und » Mannigfaltigkeit « andererseits.


Da der Raum R(SRT) ein Vektorraum ist, gilt:
    Jedes im Raum gewählte Koordinatensystem K(u), u sein Ursprung, ist brauchbar über den gesamten Raum hinweg.
    Der per Minkowski-Metrik errechnete Abstand zweier Punkte ist — seinem Wert nach — nicht abhängig vom gewählten Koordinatensystem.

Da der Raum R(ART) eine Mannigfaltigkeit  ist, gilt:
    Jedes im Raum gewählte Koordinatensystem K(u), u sein Ursprung, ist nur in einer hinreichend kleinen Umgebung U von u brauchbar.
    Für sie gilt, dass mindestens eine positive reelle Zahl ε(u) existiert, so dass alle Punkte x aus R, die von u kleineren Abstand als ε(u) haben, zu U gehören und dass ferner kein Punkt aus U Singularität des Raumes ist.
    Insbesondere existiert  k e i n   e i n z i g e s  Koordinatensystem, in das sich  a l l e  Punkte des Raumes einordnen lassen.

Man merke sich also:

Ein Raum, der Singularitäten enthält, kann kein Vektorraum sein.

In einer Mannigfaltigkeit aber ist jedes Koordinatensystem nur  l o k a l  brauchbar,
d.h. nur in einer hinreichend kleinen Umgebung seines Ursprungs.


Gruß, grtgrt
 

  Beitrag 1985-359
-

 
 
Henry in 1985-358:
 
Man kann es auch kräftiger ausdrücken:

Es gibt keine Inertialsysteme, und die SRT ist als Spezialfall innerhalb der ART ein rein gedankliches Produkt und keinesfalls die Grundlage der ART.


Ja, Henry,

auch ich sehe das exakt so.


Gruß, grtgrt
 

  Beitrag 2080-35
Das Blockuniversum — ein allzu ungenaues, nicht wirklich hilfreiches Modell

 
 
Henry in 2080-33:
 
... er [Einstein] war später der Ansicht, seine Raumzeit sei real, was ihn sogar soweit brachte, ein Blockuniversum als wahrscheinlich anzunehmen.


Hallo Henry,

es würde mich sehr wundern, wenn es eine Literaturstelle gäbe, in der Einstein selbst den Begriff "Blockuniversum" in den Mund nimmt.

Meiner Ansicht nach wird dieser Begriff nämlich nur von Leuten verwendet, die sich nicht darüber klar sind, dass die 4-dimensionale Raumzeit der ART (anders als die der SRT) eben  k e i n  4-dimensionaler Vektorraum ist, sondern nur 4-dimensionale Mannigfaltigkeit, und dass man deswegen durch Fixieren eines Wertes z1 auf der Zeit­achse auch nicht wirklich einen Schnitt durch die Raumzeit bekommt, der den gesamten Raum zu Zeitpunkt z1 darstellen würde.


Zeitpunkte im Sinne der ART machen stets nur  l o k a l  Sinn,

und so sind Zeitscheiben im Sinne des Blockuniversums gar keine wohldefinierten Konzepte.


 

  Beitrag 1985-356
Beschleunigung (jeder Art) entspricht einer Krümmung der Raumzeit

 
 
Henry in 1985-354:
 
Also nur als Ergänzung: Man kann Gravitation und Beschleunigung nicht mit denselben Gleichungen behandeln, weil Beschleunigung durch eine Kraft erzeugt wird, während die Gravitation laut ART aber keine Kraft ist, sondern die Krümmung der Raumzeit, also eine geometrische Beschreibung darstellt. Gravitation und Beschleunigung sind äquivalent, was ihre Wirkung angeht, aber nicht identisch.


Hallo Henry,

ich habe Zweifel, ob wirklich richtig ist, was Du hier sagst.

Schließlich hat Einstein selbst — z.B. mit seinem Fahrstuhl-Gedankenexperiment — immer wieder darauf hingewiesen, dass Kräfte, die beschleunigen, sich ihrer Ursache nach in keiner Weise unterscheiden lassen: Sie alle gehorchen ein und demselben mathematischen Gesetz, und so müssen sie sich doch wohl auch  a l l e  als Raumkrümmung deuten lassen.


Gruß, grtgrt

PS: Wo auf ein Objekt Beschleunigungskräfte unterschiedlicher Herkunft wirken, wird das Objekt sie stets als in genau  e i n e  Richtung ziehende Kraft wahrnehmen ganz so als hätten sie nur eine einzige Quelle und Ursache (was wirkt, ist die vektorielle Summe aller Kräfte).

Die Krümmung des Raumes im Sinne der ART scheint mir durch die Forderung definiert, dass dieser Kraftvektor überall zum Nullvektor werden muss.

Im übrigen ist es genau (und nur) diese Forderung, welche garantiert, dass jeder Punkt der Raumzeit (auch der ART) eine Umgebung hat, in der — wenn man sie klein genug wählt — die Gesetze der SRT gelten.

 

 Beitrag 0-187
Astronomie in Zahlen

 
 

 
Astronomisches

 
 
Unsere Sonne strahlt und verliert so jede Sekunde 4,24 Mio Tonnen ihrer Masse.
 
Daraus folgt: Sie verliert in 1 Milliarde Jahren etwa 22 Erdmassen. Dies sind jedoch nur 0,007 Prozent ihrer heutigen Masse. [src]

     
    mS = Sonnenmasse = 1,98 • 1030 kg
     
    mE = Erdmasse = 4,24 • 109 kg

 
 
Die am 14.9.2015 erstmals gemessenen Gravitationswellen entstanden vor 1,3 Milliarden Jahren bei Zusammenprall zweier Schwarzer Löcher, deren Masse
29 bzw. 36 Sonnenmassen betrug. Das daraus resultierende größere Schwarze Loch aber war nur 62 Sonnenmassen schwer.
 
Damit gingen im Moment ihrer Ver­einigung (der 0,45 sec währte) etwa 3 Sonnenmassen an Energie in Form entstehender Gravitationswellen verloren.
 
Quellen: SpeWiss, gmx, FFr1, FFr2, seeVideo, MP, MPVideo, genauer, origin, Gassner
 
 

 
 


 

 Beitrag 0-160
Der Urknall: Wo selbst die Wissenschaft an Wunder glaubt

 
 

 
Selbst Wissenschaft stößt auf Wunder

 


Terrence McKenna ( in: Denken am Rande des Undenkbaren ):
 
Die ungeheuere Unwahrscheinlichkeit, auf der die moderne Wissenschft beruht, — ohne dass sie jedoch bereit wäre, sie zur Diskussion zu stellen, — ist die Annahme, das Universum sei in einem einzigen Moment dem Nichts entsprungen.
 
Wenn man das glauben kann, dann dürfte es kaum etwas geben, was man nicht glauben könnte.
 



Augustinus ( 354-430, ein Kirchenlehrer ):
 
Wunder geschehen nicht im Gegensatz zur Natur,
 
sondern nur im Gegensatz zu dem, was wir von der Natur wissen.

 


 
Wie man sieht, vertauschen Wissenschaft und Religion schon manchmal ihre Rollen.
 
 
Quelle: Mathias Bröckers: Das sogenannte Übernatürliche, Eichborn 1998


 

 Beitrag 0-161
Der Mensch — Wird er die nächste planetarische Katastrophe verursachen?

 
 

 
Der Mensch — Saatkorn der nächsten planetarischen Katastrophe?

 


Mathias Bröckers, 1998 :
 
Vor etwa 65 Millionen Jahren hat eine Naturkatastrophe — wahrscheinlich der Einschlag eines großen Metereoiten — nicht nur sämtliche Saurier, die damals mächtigsten Bewohner der Erde, sondern in der Folgezeit auch zwei Drittel aller damals existierenden Lebewesen vernichtet.
 
Heute — so haben Wissenschaftler errechnet — hat die Massenausrottung von Arten ein ebenso großes Tempo erreicht wie nach jenem kosmischen Unfall in der Kreidezeit.
 
Doch dieses Mal heißt die Katastrophe » Mensch « :

 
Nach dem jahrhundertelangen Irrglauben, dass der Mensch die Krone der Schöpfung sei, die Welt beherrsche und sich auf aufsteigendem Ast befinde, kommt uns heute mehr und mehr der Verdacht, dass wir auf dem besten Wege sind, den Ast, auf dem wir — als Gattung — sitzen, abzuschneiden.
 


 
 
Quelle: Mathias Bröckers: Das sogenannte Übernatürliche, Eichborn 1998


 

  Beitrag 2085-267
Was nur gedanklich existiert ...

 
 
Harti in 2085-266:
Hallo

ist es nicht aber trotzdem sinnvoll (zweckmäßig) zwischen dem, was sinnlich wahrnehmbar ist, und dem, was (nur) gedanklich vorstellbar ist, zu unterscheiden.

Ich nehme an, dass Ersteres von den meisten Menschen mit dem Begriff "Realität" assoziiert wird, während das Zweite gedanklich Vorstellbares, z.B. grüne Männchen auf einem fernen Planeten, Produkte/Konstrukte unserer Phantasie sind.


Hallo Harti,

all das, was nur gedanklicher Natur ist, ordnet sich zwei völlig verschiedenen Klassen zu:
  • die eine ist die Klasse alle reinen Phantasieprodukte (grüne Männchen auf einem fernen Planeten, ein wirrer Traum, aber z.B. auch viel von dem, was wir als Kunst bezeichnen)
  • die andere aber ist die der mathematischen und logischen Gesetzmäßigkeiten, denen selbst noch die Natur ausnahmslos gehorcht.

Gruß, grtgrt
 

  Beitrag 2085-269
Wie etwas wahrzunehmen eine neue Version davon erzeugt (ein Bild) — aber eben nur manchmal!

 
 
Stueps in 2085-268:
 
... ist es vielleicht sogar absurd, unsere Wahrnehmung von der Realität zu trennen. Wir sind ja diese Realität.


Hallo Stueps,

mir scheint, Du wirfst hier zwei völlig verschiedene — aber gleich reale — Dinge in einen Topf:
  • einmal das, was wahrgenommen wird (von dir "Realität" genannt)
  • und zweitens das, was als Folge solchen Wahrnehmens im Kopf des Wahrnehmenden entsteht (von dir "Wahrnehmung" genannt).

Man darf beides nicht als ein und dasselbe sehen, und deswegen beantworte ich Hartis Frage

Harti in 2085-266:
Hallo

ist es nicht ... sinnvoll (zweckmäßig) zwischen dem, was sinnlich wahrnehmbar ist, und dem, was (nur) gedanklich vorstellbar ist, zu unterscheiden?

kurz und bündig mit einem klaren JA.


Um mit deinen Begriffen zu sprechen:

Die Wahrnehmung ist ein Teil von uns (falls wir der Wahrnehmende sind),
aber i.A. ist die Schnittmenge zwischen uns und dem, was wir beobachten, leer.

Allein schon dadurch ist bewiesen, dass man das, was du die "Wahrnehmung" nennst, nicht mit dem gleichsetzen kann, was du die "Realität" nennst.



Verwirrend an der ganzen Situation ist nur, dass es Ausnahmen von dieser Regel gibt: z.B. mathematische Gesetzmäßigkeiten. Sie nämlich existieren unabhängig von uns, werden aber dadurch, dass wir sie entdecken, zu einem Teil unseres Wissens, unser Wissen aber ist ein Teil von uns.

Die einzig mögliche Schlussfolgerung daraus scheint zu sein, dass wir in diesem Fall etwas entdeckt haben, was schon immer Teil unserer selbst war. Die Beobachtung hat es uns lediglich bewusst gemacht (aber i.A. ohne dass uns dabei gleichzeitig bewusst wurde,  d a s s  dem so ist).

Gruß, grtgrt
 

  Beitrag 2085-273
Was modelliert wurde, muss deswegen noch lange nicht  w i r k l i c h  existieren

 
 
Bernhard Kletzenbauer in 2085-272:
Nachtrag
Damit nicht wieder lang über real und unreal debattiert wird.

Als imaginäre Gedankengebilde oder Phantasieprodukte (siehe: Beitrag 2085-267 ) bezeichne ich persönlich solche Dinge, die nicht materiell ... wahrnehmbar sind und nicht wechselwirken können (Raum, Zeit, Mathematik, Liebe, Götter,...)

Die "RaumZeit" dagegen ist direkt erfahrbar (Gravitation) und wechselwirkt mit Materie und Strahlung. (Beitrag 2085-262 )
Deshalb stufe ich sie auch als "materiell" ein.

Das Problem bei Diskussionen ist, daß diese materielle "RaumZeit", allein schon wegen des Namens mit imaginärem "Raum" und imaginärer "Zeit" verwechselt wird.


Ja, da gebe ich Bernhard völlig recht:

Man muss das Modell (sei es gedanklich oder nicht nur gedanklich) vom modellierten Gegenstand unterscheiden — was nicht tut, wer immer nur ein und dasselbe Wort für beide verwendet.

Die Frage aber, ob der modellierte Gegenstand tatsächlich existiert, ist damit noch lange nicht beantwortet.

Die Experimentalphysik hat ja schließlich noch nirgendwo ein Stück absolut leere Raumzeit nachweisen können — ganz im Gegenteil: Sie hat überall dort, wo nichts Konkreteres zu finden war, wenigstens Vakuum nachgewiesen — brodelnde Energie also.


 

  Beitrag 2085-276
-

 
 
Haronimo in 2085-275:
 
Was für den einen die Realität ist, könnte für den anderen nur eine dargestellte Simulation sein.

Das ist richtig, es ist halt dann eine nur durch Wahrnehmung erzeugte Realität (einem Bild vergleichbar).

 

  Beitrag 2085-281
Ein interessanter Standpunkt

 
 
Stueps in 2085-280:
 
Wenn wir über das Universum nachdenken, denkt das Universum schließlich über sich selbst nach.
Denn wir sind Teil des Universums, aus dem gleichen Stoff gemacht, den gleichen Regeln folgend. Meines Erachtens haben nicht wir uns zu dem entwickelt, was wir sind, sondern das Universum hat sich zu uns entwickelt.

So gesehen versucht letztlich das Universum selbst, sich wahrzunehmen und sich zu reflektieren. Sich und sein Wesen zu erkennen.


Hans-Peter-Dürr scheint das ähnlich zu sehen.

Aber würde der Versuch des Universums, sich wahrzunehmen und zu reflektieren (der  b e w u s s t e  Versuch wohlgemerkt) nicht bedeuten, dass es ein "Ich" kennt wie wir auch?

 

  Beitrag 2085-282
-

 
Grtgrt in 2085-281:
Aber würde der Versuch des Universums, sich wahrzunehmen und zu reflektieren (der  b e w u s s t e   Versuch wohlgemerkt) nicht bedeuten, dass es ein "Ich" kennt wie wir auch?

Hallo Gebhard,

so weit würde ich nicht gehen, da es zu logischen Widersprüchen führt, wie ich meine.
Aber die Möglichkeit zum Ich-Bewusstsein scheint von Anfang an angelegt worden zu sein, und schließlich zumindest teilweise auch umgesetzt worden zu sein.

Grüße
 

 Beitrag 0-305
Das Konzept » Turingmaschine « definiert den Begriff der Berechenbarkeit

 
 

 
Die Church-Turing-These

 
 
Sie besagt:
 
Die Klasse aller turing-berechenbaren Funktionen stimmt mit der Klasse aller intuitiv berechenbaren Funktionen überein.

 
In anderen Worten:

 
Die Church-Turing-These besagt, dass keine Maschine — kein Computer —
 
ein Problem lösen kann, welches nicht auch durch eine Turing-Maschine lösbar ist.

 
 
Die Bedeutung dieser These — von der man ausgeht, dass sie zutrifft — ist:
 
 
Um zu sehen, ob ein gegebenes Problem mit Hilfe eines Computers und geeigneter Software lösbar ist,
 
braucht man sich nur zu überlegen, ob es durch eine Turingmaschine lösbar ist.

 
 
Eine Turingmaschine heißt  u n i v e r s e l l , wenn sie jede andere Turingmaschine simulieren kann.
 
Man kann beweisen:
     
  • Es gibt universelle Turingmaschinen, und:
     
  • Es gibt Probleme, die keine Turing-Maschine lösen kann.
     
    Ein solches Problem ist das sog. Halteproblem für Turingmaschinen, die Frage also, ob — gegeben eine Turingmaschine T und ein Problem P — die Maschine T angesetzt auf das Problem P zum Halten kommt.
     
  • Selbst jeder Quantencomputer ist durch eine Turingmaschine simulierbar.


 

  Beitrag 1985-350
Durch Gravitation oder Beschleunigung hervorgerufene Kräfte sind ununterscheidbar

 
 
Stueps in 1985-340:
 
Beschleunigung und Gravitation fasse ich in ihren Effekten und Wirkungen als ein und die selbe Sache auf. Beide lassen sich wohl auch mit den selben Gleichungen mathematisch behandeln?


Auf Seite Abenteuer Universum — Beschleunigung und Gravitation liest man:

Zitat:
 
So wie uns Einstein vor Augen führte, dass Energie und Materie dasselbe sind, überlegte er auch, dass

man die Wirkung der Gravitation nicht von der Wirkung einer beschleunigten Bewegung unterscheiden kann.


Ein im Kosmos umherfliegender Astronaut kann mit keinem Mittel feststellen, ob er sich nun bewegt, oder ob er still­steht und der ganze übrige Kosmos an ihm vorbeizieht. Verschließen wir seine Sichtluken gar, kann er nicht mal mehr eine Bewegung feststellen. Denn nun hat er keinen Bezugspunkt mehr, an dem er sich orientieren könnte.
 

 

 Beitrag 0-266
Wie Roger Penrose Bewusstsein charakterisiert

 
 

 
Notwendige Eigenschaften von Bewusstsein

( nach Roger Penrose )

 
 
Der britische Mathematiker Roger Penrose versucht genau zu definieren, wie sich Bewusstsein von Mechanismen unterscheidet, die Bewusstsein nur simulieren (KI etwa).
 
Was Objekte mit Bewusstsein auszeichnet, so argumentiert er, sind
     
  • gesunder Menschenverstand
     
  • zwischen WAHR und FALSCH unterscheiden zu können,
     
  • Verstehen
     
  • und künstlerische Wertung.

Ich, Gebhard Greiter, würde wenigstens noch hinzunehmen:
     
  • Abstraktionsvermögen

 
In bewusste Urteile, so Penrose, gehen viele unbewusste Faktoren ein: Erfahrung, Intuition, Vorurteil, oft sogar falscher Gebrauch von Logik. Und so ist Ergebnis solchen Urteilens durch Dritte niemals mit Sicherheit verhersagbar.


Penrose (auf S. 401 seines Buches Computerdenken):
 
Ich meine deswegen,
     
  • dass nur  u n b e w u s s t e  Hirntätigkeit gemäß algorithmischer Prozesse abläuft,
     
  • während  b e w u s s t e s  Denken davon ganz verschieden ist und in einer Weise vor sich geht, die durch keinen Algorithmus beschrieben werden kann.

Sonderbarerweise sind die Ansichten, die ich hier äußere, fast eine Umkehrung anderer, oft gehörter Meinungen.
 
Häufig wird argumentiert, dass gerade der bewusste Geist sich rational und verständlich benehme, während das Unbewusste rätselhaft sei.
 
KI-Forscher behaupten oft, dass jeder Gedankengang, den man bewusst verstehen kann, sich durch KI automatisieren ließe. Nur bei unbewussten Prozessen habe man — noch! — keine Idee, wie sie sich automatisieren lassen.
 
 
Ich aber vertrete die Meinung, dass unbewusste Prozesse sehr wohl algorithmisch sein können, doch nur auf einem äußerst komplizierten Niveau, dessen Details zu entwirren uns vor ungeheuere Schwierigkeiten stellt.
 
Das vollständig bewusste, ganz und gar logisch-rational erklärbare Denken lässt sich zwar gleichfalls oft algorithmisch formulieren, aber stets nur auf einem ganz anderen Niveau: Nicht auf dem Niveau regelbasierter Vorgänge (dem Feuern von Neuronen usw.), sondern dem Verarbeiten ganzer Gedanken.
 
Manchmal hat diese Gedankenmanipulation algorithmischen Charakter (man denke ans Rechnen), manchmal aber auch nicht (wie etwa beim Finden eines Beweises für Kurt Gödels Unvollständigkeitssatz).
 
Das sich Bilden von Urteilen — welches ich für ein Wesensmerkmal von Bewusstsein halte — kann stets nur teilweise algorithmisch formulierbar sein.
 


 
Dass Penrose mit seiner letzen Feststellung recht hat, erkennt sogar die Justiz an: Oberste Revisionsgerichte – das deutsche Bundesverfassungsgericht etwa – entscheiden nicht selten mit Mehrheit, erkennen also an, dass selbst Richter bewusst unterschiedlicher Meinung sein können.
 
Dass sie dennoch nicht  b e a b s i c h t i g t  unterschiedlicher Meinung sind, d.h. objektiv bleiben, unterstellt man ihnen.
 
Dass Menschen in gleicher Situation zu unterschiedlichem Urteil kommen können, könnte mit daran liegen, dass sie wohl stets auch auf leicht unterschiedlicher Abstraktionsebene denken. Algorithmen aber kennen kein Kontinuum von Abstraktionsebenen.
 
 

 
 
Was hat Bewusstsein mit Ästhetik zu tun?

 
Wie kommt Penrose auf die Idee, dass (s.o.) auch die Fähigkeit zu "künstlerischer Wertung" wichtige Eigenschaft von Bewusstsein sei?


Penrose (auf S. 411 seines Buches Computerdenken):
 
Für mich besteht kaum ein Zweifel, dass die Wichtigkeit ästethischer Kriterien nicht nur für blitzartige Urteile der Inspiration gilt, sondern auch für die viel häufigeren Urteile, die wir uns unentwegt bei mathematischer oder wissenschaftlicher Arbeit bilden:
 
Strenge Beweisführung ist gewöhnlich erst der letzte Schritt. Zuvor muss man viele Vermutungen anstellen, und hierfür sind ästethische Überzeugungen ungeheuer wichtig - natürlich stets eingeschränkt durch bekannte Tatsachen und logisches Folgern.
 
Paul Dirac etwa war der festen Überzeugung, dass erst sein lebhafter Sinn für mathematische Schönheit ihn seine Gleichung fürs Elektron hat erahnen lassen, während andere vergeblich nach ihr gesucht haben. [ Dirac: Pretty Mathematics, in: Int. J. Theor. Physics 21 (1982), S. 603-605 ].
 


Physikalisch in sich abgeschlossene Systeme haben eindeutig den Drang, sich auf stabile Gleichgewichtszustände hin zu entwickeln. Da sie meist besonders symmetrisch sind, könnte man sich fragen, ob die Natur und unser Bewusstsein nicht vielleicht all das als besonders ästehtisch und erstrebenswert einordnen, was – unter gegebenen Randbedingungen – maximal mögliche Symmetrie aufweist.
 
Könnte dann nicht vielleicht Emergenz sich allein deswegen so häufig – und immer wieder mit ganz ähnlichem Ergebnis – ergeben, weil ein der Natur innewohnender Drang existiert, möglichst viel Symmetrie und Gleichgewicht anzustreben?

 

 Beitrag 0-71
Was uns Physiker — Lee Smolin etwa — über die Natur des Bewusstseins sagen

 
 

 
Was Lee Smolin übers Bewusstsein sagt

 


Lee Smolin ( Zitat von Seite 270 seines Buches TIME REBORN, 2013 ):
 

The problem of  consciousness  is an aspect of the question of what the world really is:
 
We don't know what a rock really is, or an atom, or an electron. We can only observe how they interact with other things and thereby describe their relational properties. Perhaps everything has external and internal aspects:
  • The  e x t e r n a l  properties are those that science can capture and describe — through interactions, in terms of relationships.
     
  • The  i n t e r n a l  aspect is the intrinsic essence; it is the reality that is not expressible in the language of interactions and relationships.

Consciousness, whatever it is, is an aspect of the intrinsic essence of brains.
 


Wenn Smolin hiermit recht hat, werden wir nie in der Lage sein, zu verstehen, wie Bewusstsein zustande kommt.
 
Siehe hierzu wie Kant und Bohr die Grenzen der Physik beschreiben:
 
 
Wir kennen die Dinge nur so, wie sie auf uns wirken.
 
Die Physik kann nicht ergründen, wie die Natur funktioniert.

 
 
Es macht dennoch Sinn, darüber nachzudenken, wie sich Bewusstsein — seiner Wirkung und seinem Wesen nach — am ehesten charakterisieren lässt:

 

 Beitrag 0-103
Wie ein Biologe Bewusstsein und Unterbewusstsein definiert: Beide gehen nahtlos ineinander über

 
 

 
Bewusstsein und Unterbewusstsein

 
 
Ulrich Warnke — ein Biologe und Erfinder alternativmedizinischer Behandlungsmethoden — versteht das Bewusstsein biologischer Wesen als Ausläufer ihres Unterbewusstseins:


Ulrich Warnke (2011):
 

Bewusstsein ist die treibende Kraft und die Fähigkeit eines Wesens,
 
Information als solche zu erkennen und zielgerichtet — intelligent also — zu verarbeiten.

 
Bewusstsein ist demnach ein  P r o z e s s . Aber hätte nach dieser Definition nicht jeder Computer ein Bewusstsein? Nein, keineswegs, denn:
 
Allein nur das Bewusstein zu betrachten, bedeutet, die Rolle des Unterbewusstseins nicht ausreichend zu würdigen.
 
 
Das Unterbewusstsein des Menschen befähigt ihn,
 
Information auch über Gefühle zu empfangen und intelligent zu verarbeiten:

 
 
Deutlich über 95% aller in einem Menschen stattfindender Intformationsverarbeitung wird vom Unterbewusstsein erbracht. Es nimmt etwa 109 Informations­einheiten pro Sekunde auf. Kaum 1% davon gelangt über die Bewusstheitsschwelle.
 
Wichtiger noch: Unsere über das Bewusstsein gesteuerte Vernunft hat keine Kontrolle über die automatisch ablaufenden Gefühlsaktivitäten des Unterbewusst­seins, und das ist gut so, denn die Automatik des Unterbewusstseins reagiert hochintelligent und um Größenordnungen schneller als unser bewusst arbeitender Verstand. Dies dient unserem Schutz, und zudem bekommen wir so die Möglichkeit, uns in unserem bewussten Denken auf das jeweils Wesentliche zu konzentrieren, so dass wir nicht gehemmt werden durch einen Zwang, alle uns ständig überflutende Information komplett verarbeiten zu müssen: Wir können in eigener Entscheidung Prioritäten setzen.
 


 
Wie gut unser extrem schnelles Unterbewusstsein unser eher langsames Bewusstsein unterstützt,
 
machen folgende Beispiele klar:

 
 
Zuschauer bei Formel-1-Rennen können die genaue Position des Rennwagens sehen, auch wenn dieser mit 320 km/h fährt (also 83 Meter/sec zurücklegt).
Das sollte eigentlich unmöglich sein, denn unser Gehirn hat eine Erkennungsverzögerung von 100 ms, was bei dieser Geschwindigkeit 8,3 Metern entspricht.
 
Wir besitzen also einen Vorschaumechanismus, ein vorwegnehmendes Erkennen beweglicher Stimuli durch die Netzhaut. Es konnte nachgewiesen werden, dass der Sehapparat, gesteuert durch unser Unterbewusstsein, dem Objekt vorauseilt, so dass uns nicht bewusst wird, was unser Auge aufnimmt, sondern stattdessen eine Extrapolation davon, welche die notwendigerweise vorhandene Erkennungsverzögerung exakt ausgleicht.
 
 
Derek H. Fender (California Institute of Technology) konnte im Experiment nachweisen: Das Auge blickt ganze 6 ms bevor ein auf zufälliger Bahn torkelnder Lichtstrahl einen beliebigen Punkt auf der Wand erreicht, an genau jene Stelle.
 
 
Wenn das Auge ein Objekt erfasst hat, dauert es 30 ms, bis die lichtempfindlichen Nerven angeregt werden. Weitere 5 ms werden benötigt, die Information dem Gehirn zuzuleiten. Und nochmals 100 ms vergehen, bis das Geschehen mit einer entsprechenden Erfahrung assoziiert ist.
 
Von der Wahrnehmung eines Objekts bis hin zum bewussten Erkennen vergehen demnach 135 ms. Die 6 ms vorauseilenden Autofokus mit berücksichtigt, kommt man so auf 141 ms, die unser Sehapparat dem bewussten Erkennen des Objekts vorauseilt.
 
 
Schon in den 80-er Jahren hat Benjamin Libet durch Experimente nachweisen können, dass unser Gehirn zielgerichtet etwas anvisieren kann, noch  b e v o r  unser Bewusstsein davon erfährt (siehe hier). Das Bewusstsein, einen Finger bewegen zu wollen, war in seinen Experimenten erst 200 ms vor der Bewegung vorhanden. Schon 550 ms vor der Bewegung aber war Gehirnaktivität nachweisbar, diese Bewegung vorzubereiten.
 
Man glaubte Libet damals nicht, denn schließlich konnte das bedeuten, dass der Mensch keinen freien Willen hat. Libet selbst aber sah in den Ergebnissen seiner Experimente keinen Widerspruch zur Willensfreiheit. Er konnte sogar zeigen, dass seine Versuchspersonen die Bewegung zwar unbewusst vorbereiteten, dann aber durchaus noch in der Lage waren, sie bis 100 ms vor dem geplanten Ausführungszeitpunkt willentlich zu unterlassen.
 
Nimmt man neuere Versuchsergebnisse hinzu, so steht fest:
 
Das subjektive Erleben eines Willensaktes tritt im Mittel erst 200 ms nach Beginn der Gehirntätigkeit ein, die seine Durchführung vorbereitet.

 
 
 
Quelle: Ulrich Warnke: Quantenphilosophie, Scorpio 2011, Kapitel 4


 

 Beitrag 0-236
Das Wesen des Bewusstseins

 
 

 
Das Wesen des Bewusstseins

( nach Görnitz )

 


Brigitte und Thomas Görnitz (2002):
 

Ein Mensch ist bewusst, wenn er sich dessen bewusst werden kann.

 
Man erkennt hieraus: Wesen mit Bewusstsein müssen in der Lage sein, sich selbst zu reflektieren. Wie im folgenden gezeigt wird, ist das nur möglich, wenn die konkrete Information, welche ihr Wissen über sich selbst darstellt, durch einen quantenphysikalischen Zustand ihres Gedächtnisses gegeben ist:
 
 
Das Wesen des Bewusstseins wird erkennbar an seiner höchsten Stufe, dem reflektierenden Bewusstsein: Es muss in der Lage sein, sich bis hin zum Selbstbewusstsein entwickeln zu können.
 
Selbst der Mensch erwirbt die Fähigkeit zum Ich-Bewusstsein erst  n a c h  seiner Geburt.
 
Reflektiertes Bewusstsein ist Information, die sich selbst kennt. Bewusstsein an sich muss also das Potential haben, sich selbst zu kennen.
 
 
Sich selbst reflektierendes Bewusstsein muss die Möglichkeit haben, konkrete Information über sich selbst auf eine echte Teilmenge dieser Information quasi "isomorph" abzubilden. Dies kann — schon aus mathematischen Gründen heraus — nur dann gelingen, wenn der Zustandsraum des dem Bewusstsein zur Vergüngung stehenden Gedächtnisses unendlich große Kardinalität hat, d.h. wenn er ein quantentheoretischer Zustandsraum ist.
 
Denn: Klassische Strukturen sind eindeutig, können also nur endlichen Zustandsraum haben.
 
Beweis: Sollte ein Zustandsraum isomporph auf eine Teilmenge seiner selbst abbildbar sein, wäre er nicht eindeutig.
 


Aus dem hier Gesagten ergibt sich insbesondere, dass
 
 
auf klassischen Computern implementierte KI keinerlei Bewusstsein haben kann.


 
 
Quelle: Thomas & Brigitte Görnitz: Der krative Kosmos, Spektrum-Verlag (2002), Kap. 12.4, S. 314-320


 

 Beitrag 0-270
Interagieren Bewusstsein und Materie auch über Resonanz in unterschiedlichsten Feldern?

 
 

 
Wie interagieren Bewusstsein und Materie?

 
 
Dass unser Bewusstsein – unser Wille – körpereigene Materie zu deutlicher Reaktion veranlassen kann ist offensichtlich: Es könnte sich ja sonst niemand willentlich bewegen oder auch nur den Arm heben.
 
Wie erstmals Versuche von Jahn und Dunne gut reproduzierbar gezeigt haben, kann der Wille biologischer Lebewesen (von Menschen, aber — wie man zeigen konnte — z.B. auch von Hühnerküken) wenigstens in  g e r i n g e m  Ausmaß selbst auf das Verhalten von  M a s c h i n e n  Einfluß haben:
 
 
Da alle bekannten physikalischen Vorgänge letztlich auf Feldanregungen (Wellen und Wellenpakete) zurückführbar sind, denken Jahn und Dunne, dass dies auch fürs Bewusstsein gelten könnte:
 
So wie ein Elektron am ehesten in der nahen Umgebung eines Atomkern "stark" präsent ist, scheint unser Bewusstsein in unserem Kopf lokalisiert zu sein, könnte aber letztlich – als Wellenpaket – zwar nur dort nenneswerte "Stärke" haben, ansonsten aber – wie  a l l e  Feldanregungen – praktisch überall auch Fernwirkung erzeugen, wenn auch nur extrem schwache.
 
Psychokinese (PK) — so glauben Jahn und Dunne — sei auf solche Fernwirkung zurückführbar.
 
Wie auch der Physiker David Bohm, glauben sie jedoch nicht,
     
  • dass Bewusstsein und Materie isoliert voneinander produktiv werden können
     
  • oder dass Psychokinese auf die Übertragung irgend einer noch unbekannten Kraft zurückführbar sei.

Die Botschaft ist vermutlich subtiler, meint Jahn: Es kann sein, dass es keinen Sinn macht, Materie und Bewusstsein getrennt voneinander zu betrachten. Das einzige, was wir wahrnehmen können - so sagt er - ist die Tatsache, dass sich beide auf irgendeine Weise gegenseitig durchdringen.
 
Wenn nun aber keine Kraftübertragung mit im Spiel ist, worauf ist die Interaktion von Materie und Bewusstsein denn dann zurückführbar?
 
Bohm, Jahn und Dunne vermuten, dass Psychokinese auf einen Austausch von Information zwischen Bewusstsein und Materie zurückführbar sei, den man sich aber nicht als einen Fluß zwischen dem Mentalen und dem Materiellen vorstellen dürfe, sondern eher als Resonanz zwischen den beiden sie darstellenden Wellenpaketen.
 
Interessant ist, dass einige der Testpersonen das sogar selbst so empfanden:
 
Der am häufugsten genannte Faktor, der mit einer erfolgreichen Durchführung des Experiments in Verbindung gebracht wurde, war das Bestreben, einen » Einklang « mit dem zu beinflussenden gerät her­zu­stellen.
 
Ein Proband beschrieb dieses Gefühl als ein Eintauchen in den Prozess, der zu einem Verlust des Ichbewusstseins führt:
    "Ich spüre keinerlei unmittelbare Einwirkung auf den Apparat, sondern eher einen unmerklichen Einfluss, wenn ich im Einklang mit ihm stehe. Es ist als säße ich in einem Kanu: Schwimmt es dorthin, wohin ich will, lasse ich mich treiben, nimmt es aber einen anderen Kurs, versuche ich es aufzuhalten und ihm die Möglichkeit zu geben, den Einklang mit mir wieder herzustellen." [Jahn und Dunne: Margins of Reality, S. 142]

 
 
Einige der Experimente von Jahn & Dunne:
 
 
Robert C. Jahn, Professor für Raumfahrtwissenschaft und zweitweise Dekan der Fakultät für Ingenieurwesen an der Princeton University, wurde nur zufällig PK-Forscher: Er war Fachmann für Raketenantrieb im tiefen Weltraum und Verfasser des maßgeblichen Handbuchs Physics of electric Propulsion für sein Fachgebiet. Er hielt nichts von paranormalen Phänomenen, als sich eine Studentin an ihn wandte mit der Bitte, er möge ein PK-Experiment überwachen, das sie als unabhängiges Studienprojekt durchzuführen plante.
 
Jahn stimmte widerstrebend zu, fand die Versuchsergebnisse dann aber so aufregend, dass er 1979 zum Gründer des Instituts Princeton Engineering Anomalies Research (PEAR) wurde. Seitdem haben PEAR-Forscher
     
  • nicht nur überzeugende Beweise für die Existenz von Telekinese beigebracht,
     
  • sondern auch so viele Daten zu diesem Thema zusammengetragen wie niemand sonst in den USA.

Gemeinsam mit einer engen Mitarbeiterin — der klinischen Psychologin Brenda Dunne — hat Jahn viel Zeit und Mühe darauf verwendet, ein Phänomen zu erforschen, das in den Augen der orthodoxen Fachwelt gar nicht existiert. Dazu Jahn: Ich halte dieses Gebiet für weitaus bedeutender als alles andere, an dem ich jemals gearbeitet habe.
     
  • In einer Versuchsreihe benutzten Jahn und Dunne einen sog. Random Event Generator (REG): ein gerät, welches über einen rein zufallsgesteuerten natürlichen Prozess, wie ihn etwa der radioaktive Zerfall darstellt, Zufallsfolgen binärer Werte 0 oder 1 ermittelt. Man kann ihn interpretieren als einen automatischen Münzwerfer, der in sehr kurzer Zeit eine riesige Zahl von Münzwürfen durchführt. Wie jedermann weiß, sollte das Verhältnis von Kopf und Zahl statistisch gesehen gegen 1:1 konvergieren.
     
    Jahn und Dunne setzten freiwillige Versuchspersonen vor den REG, die sich darauf konzentrieren sollten, eine von der Norm abweichende große menge von Würfen mit Kopf bzw. Zahl zu erreichen. Im Laufe von mehreren Hunderttausend Versuchen stellte sich heraus, dass die Testpersonen tatsächlich einen kleiner, aber statistisch gesehen signifikanten Einfluss auf den Output des REG hatten. Zudem wurde entdeckt:
       
    • Die Fähigkeit, PK-Wirkung zu erzeugen, war nicht auf einige wenige begabte Einzelpersonen beschränkt, sondern bei den meisten der Testpersonen vorhanden.
       
    • Ferner erzielten verschiedene Personen unterschiedliche und durchgängig eindeutige Ergebnisse, die so charakteristisch waren, dass Jahn und Dunne sie als » Signaturen « bezeichneten.

     
  • Bei einer anderen Versuchsreihe verwenden Jahn und Dunne eine Art Spielautomat, in dem 900 Kugeln mit je 1.5 cm Durchmesser um 330 Nylonzapfen kreisten um sich dann schließlich auf 19 Auffangbehälter am unteren Ende des "Spielatomaten" zu verteilen. Das Gerät bestand aus einem 3 Meter hohen und 1.8 Meter breiten Rahmen mit einer klaren Frontscheibe, so dass die Testpersonen zusehen konnten, wie die Kugeln zwischen den Hindernissen nach unten fielen und sich schließlich in den Behältern sammelten. Normalerweise fallen mehr Kugeln in die mittleren Behälter als in die äußeren, und am Ende gleicht die Verteilung einer glockenförmigen, symmetrischen Kurve.
       
    • Wie schon beim REG arbeiteten Jahn und Dunne mit freiwilligen Testpersonen, die - vor dem Apparat sitzend - versuchen sollten, allein durch ihre Willenskraft mehr Kugeln in die äußeren als in die inneren Behälter zu "bugsieren".
       
    • Auch hier gelang es im Laufe zahlreicher Durchgänge das "Landeverhalten" der Kugeln geringfügig, aber signifikant zu verändern.

      Jahn und Dunne denken, damit bewiesen zu haben, dass unser Bewusstein nicht nur mikroskopische Prozesse, wie etwa den Zerfall eines radioaktiven Stoffes, sondern sogar das Verhalten makroskopischer Objekte, den Weg der Kugeln, beeinflussen können.
       
      Mehr noch: Die » Signaturen « einzelner Personen, die schon beim REG-Versuch mitgewirkt hatten, ergaben sich auch wieder beim Spielautomaten-Experiment — mit individuellen Schwankungen, wie sie auch bei anderen Begabungen auftreten.

 
Jahn und Dunne stellen zusammenfassend fest:
    "Kleine Teilergebnisse dieser Art können selbstverständlich der Bandbreite des Zufallsverhaltens zugeordnet werden und rechtfertigen daher keine Revision von herkömmlichen wissenschaftlichen Annahmen. Das Gesamtergebnis aber lässt unbestreitbar eine Abweichung von beträchtlichem Ausmaß erkennen."

Interessant ist, dass Ähnliches galt, als man statt mit Testpersonen noch mit Hühnerküken gearbeitet hat:
 
Getrennt durch einen Zaun gab es in diesem Versuch eine Gruppe von Küken und - auf der anderen Seite des Zaunes - eine einem Huhn möglichst ähnlich gemachte Maschine, welche für Hühner typische Bewegungen ausführte in zufällige Richtungen hin, so dass - solange keine Küken zugegen waren - dieses künstliche Huhn sich durchschnittlich immer gleich weit weg vom Zaun befand.
 
Wurde dann dann gegenüber - jenseits des Zaunes - eine größere Zahl von Küken gesetzt, konnten Jahn und seine Studentin beobachten, wie sich der Schwerpunkt der Orte, an denen sich das künstliche Huhn befand, kaum merklich, aber reproduzierbar signifikant über gewisse Zeitspannen hinweg hin zum Zaun verschob, d.h. hin zu den Küken, die in jener Kunsthenne wohl ihr Muttertier gesehen haben könnten.
 
 
Note: Es sollte jedem klar sein, dass es sich hierbei um Experimente handelt, deren Ergebnis ein Großteil der etablierten Wissenschaftler eher skeptisch betrachtet. Dennoch: Sie scheinen gut dokumentiert, sollten also jederzeit — durch wen auch immer — wiederholbar sein.

 
 
Quellen:
     
  • Michael Talbot: Das holographische Universum (1992), S. 134-138.
     
    Vorsicht aber: Dieses Buch beruft sich spätestens ab Kap. 6 auch auf Quellen, die sicher  n i c h t  als seriös einzustufen sind.
    Selbst wo Talbot ausnahmsweise auch über eigene Erfahrungen berichtet, kann ich ihm nicht glauben. Spätestens beim Schreiben dieses Buches scheint er mir zum Esoteriker geworden zu sein.
     
    Im ersten Teil des Buches allerdings finden sich Meinungen und Theorien von Wissenschaftlern diskutiert, die verdienen, ernst genommen zu werden. Man sollte aber besser deren eigene Schriften studieren, um sicher zu sein, dass Talbot sie nicht sinnwidrig entstellt.
     
    Talbot verweist mehrfach auf Arbeiten von Professoren aus dem Bereich der Psychologie ( z.B. Kenneth Ring, [1], [2] ). Doch welcher Stellenwert ihnen zukommt, ist mir nicht klar. Sind oder waren sie anerkannte Wissenschaftler? Wenn ja: Waren sie es auch noch als Autoren ihrer späten Werke? Wie etwa ist Stanislav Grof einzuordnen? Mir scheint vernünftig, was er z.B. hier zum Verhältnis zwischen Religion — allgemeiner: Spiritualität — und Wissenschaft schrieb.
     
    Talbots Buch ist komplett online einsehbar.
     
  • Lynn McTaggart: The Field (2001)
    Auch hier ist Vorsicht geboten: Lynn McTaggart ist Journalist, nicht Wissenschaftlerin. Auch sind ihre Quellenangaben wenig genau.
     
  • Robert G. Jahn, Brenda J. Dunne: Margins of Reality — The Role of Consciousness in the Physical World (2009)
     
  • Jahn's Bio and Selected Publications on his Engineering Anomalies Research (1987-1996)


 

 Beitrag 0-277
Wo endet Bewusstsein? Endet es überhaupt irgendwo?

 
 

 
Heisenbergs Frage:

Wo endet Bewusstsein?



Heisenberg (1952):
 
Ist es völlig sinnlos, sich hinter den ordnenden Strukturen der Welt im Großen ein » Bewusstsein « zu denken, dessen » Absicht « sie sind?

 
Natürlich ist das eine Vermenschlichung des Problems, denn das Wort » Bewusstsein « ist ja aus menschlichen Erfahrungen gebildet. Also dürfte man diesen Begriff außerhalb des menschlichen Bereichs eigentlich nicht verwenden.
 
Wenn man derart stark einschränkt, wäre es aber auch nicht mehr erlaubt, vom Bewusstseion eines Tieres zu sprechen. Man hat aber doch das Gefühl, dass eine solche Redeweise einen gewissen Sinn enthält.
 
Man spürt, dass der Begriff » Bewusstsein « weiter und nebelhafter wird, wenn wir ihn außerhalb des menschlichen Bereichs anzuwenden suchen.
 


 
Quelle: Werner Heisenberg: Der Teil und das Ganze (1969), S. 290.


 

  Beitrag 949-16
Über die Begriffe Bewusstsein und Wirklichkeit

 
 
H... aus 949-12:
 
warum versucht der Mensch häufig, das wirkliche Etwas zu erfassen??? Was ist denn "wirklich"?


Hallo H...,

wenn deine Frage gemeint war als

Warum versucht der Mensch häufig, das eigentliche Etwas zu erfassen?


scheint mir die Antwort klar: Er ist schlicht und einfach neugierig und frägt sich deswegen, ob das, was er bisher für unbegründbar hielt, nicht vielleicht doch eine Begründung hat.

Ob das, was er dann findet, von höherer oder geringerer Wirklichkeit ist, als das, was er schon kannte, steht auf einem ganz anderen Blatt (und könnte von Fall zu Fall verschieden sein).

Aus Sicht der Quantenphysik jedenfalls ist der Zustand, in den ein Quantum springt, wenn man es beobachtet, sicher konkreter als der Überlagerungszustand, in dem es sich vorher befindet. Ist er aber deswegen auch wirklicher? Mir erscheinen beide als gleich wirklich (es sind halt nur Zustände unterschiedlicher Art).

Wenn ich aber einer Person die Hand schütteln kann, wird sie mir sicher mehr wirklich sein, als wenn ich sie nur über ein Photo kenne (selbst dann, wenn ich sicher sein kann, dass es nicht manipuliert wurde).

 
H... aus 949-12:
 
Was ist den eigentlich Bewusstsein und Wahrnehmung???


Ich definiere:

Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.


Die Tatsache allerdings, dass die Philosophen auf diese einfache Erklärung noch gar nicht gekommen zu sein scheinen, macht mich sprachlos.

Dass ein Ding D1 ein anderes Ding D2 wahrnehmen kann, bedeutet in meinen Augen,
  • dass D1 von D2 kommende Signale empfängt
  • und die dazu nutzen kann, sich ein ihm selbst bewusstes Bild (Modell) von D2 zu machen.
Es ist dabei unerheblich, ob die von D2 kommenden Signale durch D2 erzeugt oder (man denke an einen Spiegel) von ihm nur in Richtung D1 umgelenkt wurden.

Beste Grüße,
grtgrt
 

  Beitrag 949-30
Wie könnte man sich kosmisches Bewusstsein vorstellen?

 
 
H... aus 949-21:
 
... wieder die Frage, was "bewusst" ist. Also, wir haben da eine Menge Materie, die sich irgendwie sinnvoll verknüpft hat.
Dann fließen da elekt. Ströme. Und solange die fließen, kann diese Materie in geheimnivoller Weise auf andere Materie reagieren.
Hier geht es wohl noch weiter...
 

Hi H...,

mir scheint, wenn man davon spricht, dass physikalische Objekte ein "Bewusstsein" haben könnten, sollte man dieses Wort nicht allzu wörtlich nehmen — es scheint mir unter allen verfügbaren Begriffen der, der am besten passt. Vielleicht muss das richtige Wort dafür aber erst noch erfunden werden.

Ein Beispiel für physikalisches Bewusstein (so werde ich in Zukunft sagen), spricht zu mir aus Bildern, die zeigen, wie sich Elektronen in den Orbitalen eines Atoms von selbst anordnen (bzw. wie sich Atome in Molekülen nach einem gewissen Muster anordnen). Sie etwa

Man kann sich des Eindrucks nicht erwehren, als ob sich da Elektronen bzw. Moleküle treffen wie Menschen, wenn zu einem Meeting kommen und sich dann ja auch um einen Tisch herum selbst geeignet anordnen (da sie sich der jeweils anderen bewusst sind).

Dieser gedankliche Ansatz scheint mir die Schiene, auf der man sich physikalisches Bewusstsein vorstellen muss: als eine Art Gleichgewicht also, das sich von selbst einstellt. Es kommt zu Störungen, wo solches Gleichgewicht gewaltsam gestört oder verhindert wird, und Störungen in diesem Sinne könnten durchaus vergleichbar sein mit Störungen der Gesellschaft, die eintreten, wenn z.B. Mörder morden, Diebe klauen, oder Diktatoren herrschen, wie Stalin geherrscht hat.

Im einen wie im anderen Fall garantieren die Gesetze der Natur, dass solche Störungen wieder verschwinden (das Gleichgewicht sich also wieder einpendelt). Das kosmische Bewusstsein könnte schlicht und einfach in dem Drang der Natur bestehen, mathematischen Gesetzen folgend immer wieder Gleichgewichte herzustellen (so etwa, wie es passiert, wenn man Wasser in einem Kübel umrührt: Hört man auf umzurühren, wird die Wasseroberfläche schnell wieder glatt).

Beste Grüße,
grtgrt
 

  Beitrag 1730-54
Was ist (menschliches) Bewusstsein?

 
Bevor wir einen gemeinsamen Nenner finden können, sollten wir erst einmal miteinander abgleichen, was wir unter Bewusstsein verstehen.

Für mich ist Bewusstsein das, was wir bewusst wahrnehmen.
Also alles dass, was wir mit unseren Sinnen erfassen können.
Sehen hören, schmecken fühlen etc. all das erleben wir bewusst. Unser Gehirn nimmt es war, und wir wissen darüber.
Bewusst kommt von Wissen.

Was wir nicht wissen, spielt sich auch nicht in unserem Bewusstsein ab.

Wir wissen z.B nicht, was sich vor unserer Existenz abgespielt hat. man kann nur durch Physikalische Erkenntnisse darauf schliessen, was da passiert ist. Aber bewusst hat das niemand erlebt.

Somit ist alles, was sich jenseits unseres Wahrnehmungshorizonts abspielt, sei es räumlich oder zeitlich, kein Bewusstseinsereignis.

Deshalb kann tote Materie auch kein Bewusstsein haben

Nehmen wir einmal an, das Universum gäbe es genau so, wie es ist.
Lediglich gäbe es keine Menschen und keine Tiere mit Bewusstsein. Vielleicht gäbe es auch überhaupt keine Lebewesen.

Wo wäre denn dann das Bewusstsein?


 

  Beitrag 1917-7
Was man unter Bewusstsein (im Sinne der Physik) verstehen könnte

 
 
U...bus aus 1917-5:
 
Was ist denn Bewußtsein?
 

U...bus:

In Beitrag 949-28 und Beitrag 949-30 steht, wie ich diese Frage beantworten würde.

Gruß, grtgrt
 

  Beitrag 1924-11
Ist das sich selbst bewusste Bewusstsein des (oder der) Menschen Teil eines kosmischen Bewusstseins?

 
E... aus 1924-8:
 
Grtgrt aus 1924-1:
Nüchterner und genauer ausgedrückt:
 
Der physische Teil unserer Welt wird geschaffen, geformt, und regiert durch nur gedanklich Existierendes.

Gebhard Greiter (grtgrt),
der hiervon überzeugt wurde durch Argumente von Lothar Schäfer

Was selbst bei der genaueren Formulierung immer noch fehlt, ist ein Hinweis darauf wer oder was da denkt.

Gedanklich existierendes setzt voraus das gedacht wird. In diesem Fall sollte man wissen wer oder was gedacht hat als z. B. unser heimisches Sonnensystem oder noch davor unser Universum entstand. Auch Schäfers Lothar macht dazu leider keine Angaben. Vielleicht hast Du einen Tip, der auch mich in die Lage versetzt, Lothar Schäfer zu folgen.
 

Hi E...,

hiermit sprichst du eine ganz besonders wichtige Frage an. Leider habe ich noch nicht einmal die Ahnung einer Antwort darauf.

Lothar Schäfer scheint " das sich selbst bewusste Bewusstsein " des Menschen wohl als so eine Art Zipfel eines versteckten " kosmischen Bewusstseins " zu sehen. Er verkennt aber keineswegs, dass das verdammt schwierige Fragen, unseren " freien Willen " betreffend, aufwirft. Hier scheint auch er (indirekt) zu sagen: "Leider habe ich noch nicht einmal die Ahnung einer Antwort darauf."

Beste Grüße,
grtgrt
 

  Beitrag 1926-17
Wie lässt sich Bewusstsein nachweisen?

 
 
An alle:

Kann sich jemand ein Verfahren vorstellen, mit dem man testen kann, ob physikalische Objekte (und seien es nur solche bestimmter Klasse) in der Lage sind, sich selbst von anderen zu unterscheiden?

Dass die Elektronen eines Moleküls irgendwie unterschieden werden, habe ich schon in Beitrag 1926-6 erwähnt.
Die Frage dort ist nur: Unterscheiden sie sich selbst oder werden sie unterschieden?

grtgrt
 

  Beitrag 1926-19
-

 
Henry aus 1926-18:
Grtgrt aus 1926-16:
 
Warum soll "sich selbst von anderen unterscheiden können" nicht eine Fähigkeit sein, die ein gegebenes Objekt haben oder nicht haben kann?

"Fähigkeit" ist schon wieder etwas anderes als die Definition dessen, was Bewusstsein ist.

Bei mir eben nicht, denn ich definiere ja:


Bewusstsein zu haben bedeutet, die Fähigkeit zu haben, sich selbst von anderen zu unterscheiden.


Es wäre halt schön, wenn jeder, dem meine Definition nicht gefällt, eine — sorgfältig und komplett formulierte — andere geben würde.



Die Frage, wie man Bewusstsein erkennt, wenn es sich selbst nicht mitteilt, kann man erst dann angehen, wenn Einigkeit darüber besteht, was man denn nun eigentlich unter Bewusstsein verstehen möchte. Anders gesagt: Diese Frage ist erst dann wohldefiniert, wenn sie sich auf eine bestimmte Definition des Begriffes "Bewusstsein" bezieht.

Gruß,
grtgrt
 

  Beitrag 1926-38
Eine noch treffendere Definition von Bewusstsein

 
 
Gregor Lämmer aus 1926-35:
 
Denken ist Bewusstsein.

Das zu behaupten, geht mir zu weit.

Denken ist zunächst mal nur Informationsverarbeitung. Erst wo Bewusstsein dazukommt, wird daraus mehr.

Vielleicht sollte man sagen:

Denken, das sich selbst zum Gegenstand haben kann, bezeichnet man als Bewusstsein.



Gregor Lämmer aus 1926-34:
 
Bewusstsein ist bewusstes Sein.

Es gibt einen Unterschied von "Wissen, dass man weiß" und "Nichtwissen, wie man weiß".

Beide Aussagen finde ich treffend und richtig.

Dennoch scheint mir die erste als  D e f i n i t i o n  von Bewusstsein ungeeignet, da man dann ja sofort fragen müsste, was es denn eigentlich bedeutet, "zu sein".

grtgrt


PS: Brauchbare Definitionen sind nur solche, die
  • entweder den zu definierenden Begriff auf andere, bereits wohldefinierte Begriffe zurückführen,
  • oder den neuen Begriff implizit definieren (sozusagen als Lösung einer logischen Gleichung). In dem Fall allerdings müsste man beweisen, dass jene Gleichung auch tatsächlich Lösungen hat.

 

 Beitrag 0-425
Warum man in der Schule auf elektronische Hilfsmittel verzichten sollte

 
 

 
Warum man in der Schule

auf elektronische Hilfsmittel verzichten sollte

 
 
Wie der Neurologe Manfred Spitzer in seinen Büchern nicht nur darlegt, sondern anhand einschlägiger Studien zahlreicher Wissenschaftler aus unterschiedlichsten Ländern auch nachweist (er nimmt Bezug auf gut 500 Quellen aus wissenschaflichen Veröffentlichungen) wirken sich elektronische Hilfsmittel beim Lernen stark negativ auf Gehirnentwicklung und Lernleistung von Kindern aus, und das umso deutlicher, je jünger die Schüler sind.
 
Hier nur einige Beispiel, die das zeigen:
 
 
Kinder, die — statt Schreibschrift zu üben — nur noch lernen zu tippen, haben selbst noch im Alter von 10 und mehr Jahren enorme Schwierigkeiten, flüssig zu lesen.
 
Dies zeigt am deutlichsten eine Untersuchung aus China:

     
    Man hat dort die Lesefähigkeit von nahezu 6000 Schülern der Klassen 3, 4, und 5 anhand der gleichen Tests untersucht, wie zuvor schon einmal vor 20 Jahren und dann nochmals vor 10 Jahren. Während damals der Anteil der Schüler mit gravierenden Lesestörungen zwischen 2 und 8 Prozent lag, konnten bei der letzten Untersuchung mehr als 40 Prozent der Schüler aus Klasse 4 nicht mehr lesen. In Klasse 5 waren es sogar etwas mehr als die Hälfte.
     
    Die Ursache hierfür war, dass man in den Jahren vor der letzten Untersuchung das Schulsystem umgestellt hat von Handschrift auf Schreiben mit dem Computer, was — der komplizierten etwa 5000 chinesischen Schriftzeichen wegen — dann abläuft wie folgt:
     
    Chinesen verwenden ein ganz normale Tastatur und schreiben Lautschrift, als z.B. "li", worauf sich eine Liste von Wörtern öffnet, die alle wie "li" klingen. Aus dieser Liste wird dann per Mausklick das richtigte Wort als chinesisches Schriftzeichen ausgewählt. Diese Methode (genannt Pinyin) — mit der man dann tatsächlich schnell schreiben kann — wird seit einigen Jahren in chinesischen Grundschulen in der zweiten Hälfte von Klasse 3 erlernt.
     
    Nachteil dieses Verfahrens ist, dass wer nur noch auf diese Weise schreibt, die komplizierten chinesischen Schriftzeichen nicht mehr sicher unterscheiden kann und daher nicht nur die Fähigkeit, sie selbst zu schreiben, sondern auch die Fähigkeit, sie zu lesen mehr und mehr verliert. Dass man damit fast die Hälfte der Bevölkerung zu Analphabeten macht, scheint in seiner Bedeutung noch nicht erkannt worden zu sein.
     
    Im Zuge dieser Untersuchung hat sich auch gezeigt, dass diejenigen Schüler, welche zuhause noch gelegentlich mit der Hand chinesische Schriftzeichen malen, in den Klassen 4 und 5 noch eher des Lesens mächtig waren als jene, die nur noch mit dem Wordprozessor schrieben.

 
Wenn nun Kinder im Grundschulalter statt mit Schreibzeug und Farbstiften zu schreiben und zu zeichnen, stattdessen auf einem Tablet oder einer elektronischen Wandtafel Texte und Bilder zu erstellen oder gar nur abzurufen haben, wird mit Sicherheit ein ähnlicher Effekt eintreten: Einfach deswegen, weil man ja — das Beispiel der chinesischen Schriftzeichen zeigt es — nur das wirklich gut kennenlernt, mit dem man sich eingehend — also nicht nur flüchtig — zu befassen hat.
 
Elektronische Tafeln werden nun aber gerade mit dem Argument gefordert, dass sich mit ihrer Hilfe so schnell — oft per Knopfdruck — ein neues Tafelbild aufbauen lässt.
Zeit zum Überlegen und die Schüler mitzunehmen ist auf diese Weise dann aber immer weniger gegeben!
 
Wir sehen:
 
Die Nutzung elektronischer Hilfsmittel in den Schulen
 
führt zu eher nur flüchtigem Betrachten und Durchdenken dessen, was da elektronisch präsentiert wird.

 
Entsprechend weniger nachhaltig ist der Lernerfolg.


 

 Beitrag 0-416
Warum man Grund- und Hauptschüler nicht mit Computern "beglücken" sollte

 
 

 
Computer für Grund- und Hauptschüler sind kontraproduktiv

 
 
Hätte man 1985 zwei Gruppen von Schülern untersucht — eine mit eigenem Computer und die andere ohne —, so hätte sich klar ergeben: Die mit Zugang zu einem PC sind in der Schule besser. Dieses Ergebnis aber wäre der Tatsache geschuldet gewesen, dass es ja genau die neugierigeren und intelligenteren waren, die damals schon an Computern interessiert waren (man sprich von » Stichproben-Bias « deretwegen sich irreführende Aussagen ergeben).
 
Als man dann aber 2005 die Daten aus der damaligen PISA-Studie analysiert hat, ergab sich genau das Gegenteil: Grund- und Hauptschüler, die einen Computer zu Hause haben, erzielen weniger gute schulische Leistung [Ergebnis einer Studie des ifo Instituts für Wirtschaftsforschung 2005].
 
Der Grund hierfür: Schüler verwenden Computer heute in erster Linie zum Spielen. Für das schulische Lernen steht daher weniger Zeit zur Verfügung.
 
Schlimmer noch: Wer dauern multimedial Monster jagt und für ihr Abschlachten im Spiel belohnt wird, für den liegt es nahe, dass der ganz normale Schulalltag ihm vergleichsweise langweilig erscheint. Und so wird er nicht nur Zeit fürs Lernen verlieren, sondern vor allem auch wichtige Motivation für schulisches Lernen.
 
Was diesen Jugendlichen aber nicht bewusst wird:
    Computerspiele sind ganz gezielt so programmiert, dass der Spielende Belohnungen erhält, um nie die Lust a, Spiel zu verlieren. Dies zu erreichen werden seine vermeintlichen Erfolgserlebnisse keineswegs nur von seiner Geschicklichkeit abhängen, sondern ganz wesentlich auch von Pseudozufall, den die das Spiel treibenden Algorithmen so dosieren, dass hinreichend viele Erfolgserlebnisse eintreten: Dem weniger geschickten Spieler wird halt einfach ein wenig geholfen, denn schließlich will der Hersteller des Spieles ja erreichen, dass der Spieler noch weitere Spiele kauft. [Sp]

 
Kurz: Computerspiele sind für Minderjährige reines Gift.
 
 
Den Spielenden und ihren Eltern wird gar nicht bewusst,
 
wie man sie hier hinters Licht führt, um auf ihre Kosten Geld zu machen.

 
Die Lobby der Spielehersteller ist nicht zu unterschätzen:
    Sie lanciert geschickt Meldungen wie z.B. "Learning by Gaming: Computerspiele kommen endlich in der Schule an". Sogar eine Stiftung Digitale Spielekultur hat man ins Leben gerufen. Deren Sprecherin — eine Frau Wendt — sagt: "Bisher sind wir auf Lehrerinnen und Lehrer zugegangen, mittlerweile kommen sie zu uns".
     
    Marketingstrategen ergänzen das zur scheinbar objektiven Nachricht "Immer mehr Projekte und Initiativen rund um das Thema entstehen, immer mehr Lehrer zeigen Interesse und binden Computerspiele in ihren Unterricht ein". Aus Sicht vieler "Experten" sei das ein überfälliger Trend. Denn dass Spiele beim Lernen helfen können, sei schon lange bekannt. [B]

 
Dass Bildungspolitiker und scheinbar sogar Hochschullehrer sich beeilen, solche wissenschaftlich unhaltbarer Argumentation blind zu folgen, ist ein (recht bedenkliches) Zeichen unserer Zeit.
 
Und so kommt es, dass die Stiftung gemeinsam mit der TH Köln die Plattform Digitale-Spiele­welten.de schaffen konnte, auf der Methoden und Unterrichtsmaterial rund um das Thema "digitale Spiele" zur Verfügung stehen. In welchem Umfang hier — indirekt auch mit Hilfe von Steuergeldern — einfach nur Werbung im Interesse der Spielehersteller gemacht wird, scheint niemand mehr zu hinterfragen — sehr zum Schaden unserer Kinder und Enkelkinder.
 
Dass man heute zahlreiche Schulen mit teuren elektronischen Tafeln ausstattet (die instandzuhalten ebenfalls teuer ist), aber nicht mit genügend Lehrern, zeigt, wie erfolgreich Lobbyismus sein kann — und wie wenig kompentent so mancher Bildungspolitiker in den Kultusministerien heute zu sein scheint. Wer berät ihn da mit welch verstecktem Ziel?

 
 
 
Können Computerspiele süchtig machen?

 
Irgendwann begreifen die meisten jungen Menschen, wie wenig Sinn es macht, die eigene Zeit mit Computerspielen zu verschwenden.
 
Dennoch gibt es einige wenige (in Deutschland sollen es 438000 sein), die sich ihr Leben durch die Sucht zu spielen — Glücksspiele oder Computerspiele — in etwa demselben Ausmaß ruiniert haben, wie man das von Drogenabhängigen kennt: Sucht, Vereinsamung und Verwahrlosung haben sie überwältigt und nicht selten auch ihren Angehörigen das Leben zur Hölle gemacht.
 
Folgende Zeilen aus Bert de Wildt: Digital Junkies: Internetabhängigkeit und ihre Folgen für uns und unsere Kinder (2016) zeigen, was sich da im Extremfall ergeben kann und auch tatsächlich schon ergeben hat:
 
 
 
Wenn Computerspiele süchtig machen

 
 
Lies auch: Wenn Computerspielen zur Krankheit wird.

 
 
 
Wie intensiv spielen 15-jährige deutsche Schüler?

 
Eine 2009 durchgeführte repräsentative Befragung von 15168 Jugendlichen im Alter von 15 Jahren durch das Krimologische Forschungsinstitut Niedersachsen (KFN) hat ergeben, dass
     
  • 4,3 Prozent der Mädchen und 15,8 Prozent der Jungen
     
  • täglich mehr als 4,5 Stunden mit Computer bzw. Videospielen beschaftigt sind.

Als krankhaft spielesüchtig wurden im Rahmen dieser Studie 0,3 Prozent der Mädchen, aber schon 3 Prozent der Jungen erkannt, was hochgerechnet auf alle deutschen Neuntklässler 14400 computerspielsüchtige Jugendliche ergibt.
 
Die Ergebnisse dieser Studie aus Niedersachsen wurden bestätigt durch Daten aus der Studie Berliner Längsschnitt Medien, in deren Rahmen man 1156 Grundschüler aus Berlin befragt hat.
 
Das größte Suchtpotential hatte dem Studienergebnis zufolge das Spiel World of Warcraft, das derzeit an Jugendliche ab 12 Jahren ausgegeben werden darf. Christian Pfeiffer, der Leiter des KFN, fordert ein komplettes Verbot dieses Spiels für Minderjährige. Aus neurowissenschaftlicher Sicht, so Manfred Spitzer, muss man sich dem anschließen.
 
 
 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012, Droemer)

 

 

 Beitrag 0-422
Wen man als » süchtig nach Computerspielen « bezeichnet

 
 

 
Wen man als » süchtig nach Computerspielen « bezeichnet

 
 
Da Computerspiele heute oft im Internet gespielt werden, wurde die Computerspielesucht unter dem Namen » Internet- und Computerspiele-Sucht « in das System psychiatrischer Diagnosen aufgenommen.
 
Als süchtig in diesem Sinne gilt eine Person [ nach DSM-5 ] genau dann, wenn
     
  • in einem Zeitraum von 12 Monaten das Internet immer wieder dazu benutzt wird, Computerspiele zu spielen — oft zusammen mit anderen Spielern —,
     
  • dies zu klinisch bedeutsamer Beeinträchtigung, zu Elend, Kummer und Leid führt
     
  • und sich dies in mindestens fünf der folgenden neun Kriterien ausdrückt (es geht nicht um Glücksspiel):
     
     
    1. Hauptbeschäftigung:   Des Spielers Alltag wird dominiert durch ständiges Nachdenken über vergangene oder künftige Spiele.
    2. Entzugssymptome:   Reizbarkeit oder Erregbarkeit, Konzentrationsstörungen, Angst und gedrückte Stimmung
    3. Toleranzentwicklung:   Mit dem Spielen muss immer mehr Zeit verbracht werden.
    4. Kontrollverlust: Der Spieler vermag sein Spielen nicht willentlich einzuschränken.
    5. Interesseverlust: Frühere Hobbies und Freizeitaktivitäten interessieren nicht mehr.
    6. Negative Konsequenzen:   Nachteilige psychosoziale Auswirkungen des Spielens werden in Kauf genommen.
    7. Lügen, Täuschen: Angehörige, Freunde und Therapeuten werden hinsichtlich des wahren Ausmaßes des Spielens getäuscht.
    8. Stimmungsverbesserung:   Der Spieler spielt, um Angst, Schuldgefühle, Hilflosigkeit, Probleme oder Stress zu bekämpfen.
    9. Vereinsamung, sozialer Abstieg:   Partnerkonflikte, Trennung, Karriereknick (Verlust des Arbeitsplatzes, Abbruch des Studiums)

 
 
 
Computerspielsüchtige deutsche Jugendliche
 
 
Quelle: Die Drogenbeauftragte der Bundesregierung: Drogen- und Suchtbericht 2018, S. 106-111


 

 Beitrag 0-420
Über Kinder und gewisse Fernsehprogramme

 
 

 
Über Kinder und gewisse Fernsehprogramme

 
 
Viele Kinder verbringen heute nicht nur einige Minuten, sondern mehrere Stunden vor Cartoons, die insbesondere von den Kinderprogrammen des Privatfernsehens ausgestrahlt werden.
 
Welch negative Folgen für die Entwicklung ihres Gehirns dies haben kann, zeigen inzwischen gleich zwei — unabhängig von einander durchgeführte — Studien:
Beide Studien belegen negative Auswirkungen solchen Fernsehens auf die körperliche und geistige Bildung der Kinder.
 


Manfred Spitzer (2012):
 
Im Grunde ist es beschämend, dass die Wissenschaft erst im Herbst 2011 bestätigen konnte, was aufmerksame Eltern und Großeltern schon lange beobachten: Kinder werden » ganz kirre «, wenn sie beispielsweise am Sonntag Vormittag stundenlang die Comics im Kinderkanal schauen: "Die Kinder sind danach einfach zu nichts mehr zu gebrauchen" beklagen sich Mütter, wenn sie mit mir nach Voträgen über die Folgen von Medienkonsum diskutieren.
 
Erwähnenswer in diesem Zusammenhang ist die Tatsache, dass das Frontalgehirn nicht nur bei Ermüdung, sondern auch beim Abfallen des Blutzuckerspiegels — wie er ganz normal etwa 2 Stunden nach dem Frühstück auftritt — weniger gut funktioniert:
 
Ein Experiment mit erfahrenen Richtern hat ganz klar gezeigt, dass diese — nachdem sie eine Weile nichts gegessen haben — nachweislich weniger gut durchdachte Urteile fällen.
 
Was für Richter, für erwachsene Personen also, gilt, muss für Kinder mit noch nicht voll ausgebildetem Frontalgehirn allemal gelten: Wer ohne Frühstück in die Schule geht, wird sich weniger gut konzentrieren können.
 


 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012, Droemer), S. 248-251.


 

 Beitrag 0-417
Warum und auf welche Weise Facebook & Co allzu jungen Nutzern ernsthaft schaden können

 
 

 
Warum starke Präsenz in Facebook & Co Kindern schaden kann

 
 
Manfred Spritzer, Chef der Psychiatrie im Universitätsklinikum Ulm, argumentiert wie folgt:


Manfred Spitzer ( 2012, gekürzt ):
 
Wer mit Anfang 20 schon viele Freunde hat, der kann seine sozialen Kontakte auch mittels Online-Dienstleistern wie Facebook weiter pflegen. Es wird ihm das ebenso wenig schaden wie der Gebrauch eines Computers zur Erlediging studentischer Referate.
 
Sofern sich aber noch in der Entwicklung befindliche Kinder der neuen Technik zuwenden, liegt der Fall anders: Hier werden ganz offensichtlich für eine gesunde Entwicklung erforderliche Erfahrungen durch den Gebrauch elektronischer Medien verhindert.
 
Wer nämlich schon als Kind viel in Facebook unterwegs ist, der ist entsprechend seltener in der Realität sozial engagiert. Man bedenke:
 
Bei den [in vorher diskutierten Studien beobachteten] Kindern betrug die mit direkten (face to face) sozialen Kontakten verbrachte Zeit etwa 2 Stunden, wohingegen sie etwa 7 Stunden online waren. Jene jungen Mädchen gewöhnten sich hierdurch echte soziale Kontakte eher ab — und leiden darunter. Abigail Baird, eine Neurowissenschaftlerin aus New York, bringt es auf den Punkt, indem sie feststellt: » Wenn es darum geht, zu lernen, wie man mit Menschen umgeht, gibt es keinen Ersatz für den Umgang mit Menschen. «
 
Wie Studien zeigen, gilt: Die intensive Nutzung sozialer Online-Netze vermindert nicht nur die Zahl realer Freundschaften, sondern auch soziale Kompetenz, da die hierfür zuständigen Gehirnareale schrumpfen. Mehr Stress und zunehmender Verlust der Selbstkontrolle sind die Folgen. Eine soziale Abwärtsspirale setzt ein, die einem erfüllten Leben in der Gemeinschaft im Wege steht.
 
    Note: Da sich entsprechende Experimente mit Menschen aus ethischen Gründen verbieten, hat man den Zusammenhang zwischen Gehirngröße und sozialer Einbindung in Gemeinschaften an Rhesusaffen untersucht mittels genauer anatomischer Gehirnbilder bei 23 Tieren, die zuvor für mehr als ein Jahr [nur 1 Jahr (!)] in sozialen Gruppen unterschiedlicher Größe gelebt hatten.
     
    Um ihre Hypothese zu prüfen, dass das bessere soziale Denken letzlich zu einem erfolgreichen Sozialleben führt — und zu entsprechendem Aufstieg in der sozialen Rangordnung der Gruppe — hat man bei insgesamt 11 männlichen Tieren den Zusammenhang zwischen Gehirngröße und sozialer Stellung in der Gruppe untersucht. Hierbei zeigte sich in einem bereich des präfrontalen Cortex eine klar erkennbare Größenzunahme mit zunehmender sozialer Dominanz: Mit jedem Prozentpunkt in der Znahme sozialer Dominanz nahm in diesem bereich die Dichte der grauen Substanz um 0,31 Prozentpunkte zu.
     
    Man hat zusätzlich untersucht, wie gut bei den Tieren die für das Sozialverhalten zuständigen Teile des Gehirns mit anderen gehirnbereichen verknüpft sind (sog. funktionelle Konnektivität). Hierbei zeigte sich eine funktionale Kopplung mit einem bereich im Frontalgehirn. Die Intensität dieser Kopplung hing mit der Größe des sozialen Netzwerks zusammen.
     
    Kombiniert mit Ergebnissen aus Studien des menschlichen Sozialverhaltens ergibt sich als Schlussfolgerung, dass die intensive Nutzung digitaler sozialer Medien wie etwa Facebook, WhatsApp, Twitter — die ja zwangsläufig mit weniger face-to-face-Kontakten einhergeht —, zu einer Verminderung des Wachstums der Größe sozialer Gehirnbereiche bei Kindern — und damit zu geringerer sozialer Kompetenz führen muss.

Spitzer fasst zusammen:
 
 
Soziale Online-Netzwerke befriedigen unser grundsätzliches Bedürfnis nach Kontakt zu Mitmenschen.
 
Wer jedoch glaubt, dass diese neue Möglichkeit, Kontakte aufzubauen und zu pflegen, nur Gutes bewirke, der irrt, denn:
     
  • Die Anonymität im Internet bewirkt, dass wir uns weniger kontrollieren und weniger um adequates Sozialverhalten bemüht sein müssen. Wer seine sozialen Kompetenzen bereits auf dem herkömmlichen Weg (face to face) erworben hat, wird durch die Netzwerke keinen Schaden nehmen. Wer hingegen — wie Kinder und Jugendliche — noch kaum Gelegenheit hatte, adequates soziales Verhalten zu entwickeln, wer also zu früh nur im Netz lebt, der hat gute Chancen, dass sein Verhalten sehr zu wünschen übrig lassen wird.
     
  • Wie wir gesehen haben, deuten aktuelle Studien darauf hin, dass sich bei zu viel Präsenz nur im Netz, die für Sozialverhalten zuständigen Teile des Gehirns nicht normal entwickeln werden. Die Folgen sind bisher nur schwer absehbar, sollten uns jedoch zu denken geben.
     
  • Eine dieser Folgen scheint zu sein: Junge Menschen wissen immer weniger, wo es langgeht, was sie leisten können, und was sie wollen. Je intensiver ihre Online-Präsenz, desto marginaler ihre Präsenz im realen Leben — in dem Leben also, das dann wirklich zählt.
     
  • Das Internet ist voller scheiternder Sozialkontakte, die vom Vorgeben, dass man ein anderer sei, über Schummeln, Betrügen bis hin zu grober Kriminalität reichen. Es word gelogen, gemobbt, abgezoggt, aggressiv Stimmung gemacht, gehetzt und diffamiert, dass sich die Balken biegen! Muss es uns dann noch wundern, dass soziale Netzwerke bei so manchem zu jungen Nutzer dann zu Einsamkeit und Depression führen?
     
  • Mangelnde Selbstregulation, Einsamkeit und Depression sind in der modernen Gesellschaft die wichtigsten Stressoren. Sie bewirken das Absterben von Nervenzellen und begünstigen langfristig die Entwicklung einer Demenz. Bei Kindern kann der Austausch von face-to-face-Kontakten durch Kontakte mit Personen, die nur übers Netz ansprechbar sind, die Gehirnentwicklung bremsen.
     
  • Langfristig gesehen besteht die Gefahr, dass Facebook & Co zur Schrumpfung unseres sozialen gesamten Gehirns führen. So gesehen sollte man beunruhigt darüber sein, dass mittlerweile schon jeder 7-te Mensch intensiv Facebook nutzt.

 


 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012), Kap. 5, S. 109-128

 
 
Interessant ist, dass den Gründern von Facebook — insbesondere Mark Zuckerberg, der neben Informatik auch Psychologie studiert hat — durchaus klar war, dass sie mit ihrem Produkt die Schwäche der menschlichen Psyche ausnutzen. Lies mehr dazu in der Meldung Spätes Bekenntnis von Ex-Investor Sean Parker: » Facebook beutet menschliche Schwächen aus «.
 
 
 
Hier noch andere Beispiele, die belegen, das Spitzers Aussagen über die Qualität der Gesellschaft im Netz nicht übertrieben sind:
 
 
Zwei im Jahr 2011 von der Techniker Krankenkasse in Auftrag gegeben repräsentative Umfragen an jeweils 1000 deutschsprachigen Jugenlichen zwischen 14 und 20 Jahren in Nordrhein-Westfalen bzw. dem gesamten Bundesgebiet ergaben Folgendes:
     
  • In Deuschland waren 32 Prozent der Befragten (in NRW 36 sogar Prozent) schon einmal Opfer einer Cyber-Mobbing-Attacke.
     
  • Jeder 5-te Schüler wurde im Internet oder per Handy direkt bedroht oder beleidigt.
     
  • Jeder 6-te litt unter Verleumdungen
     
  • und bei jedem 10-ten kam es zu einem Missbrauch seiner Internet-Identität.
     
  • Gut jeder 5-te Befragte konnte sich vorstellen, selbst Täter zu werden
     
  • und jeder 12-te war schon Täter.

 
Wie Spitzer schreibt, kann man sich angesichts solcher Tatsachen des Eindrucks nicht erwehren, dass neben der Anonymität im Netz auch die soziale Inkompetenz der jungen Nutzer hierfür verantwortlich ist.
 
So wurde etwa ein Mädchen monatelang von 4 Mitschülerinnen belästigt, droht dann mit Vergeltung ("Ich schlag euch kaputt") und wird — nachdem die Schulleitung hierüber informiert worden war — in der folgenden Nacht zur Abwendung eines befürchteten Amoklaufs in eine psychiatrische Klinik gebracht.

 
Quelle: Porsch und Pieschl: Cybermobbing und seine Folgen für Kinder und Jugendliche. Soziale Psychiatrie 01/2012, S. 34-37.


 

 Beitrag 0-419
Ständiges Multitasking: Gut oder schlecht?

 
 

 
Multitasking: Gut oder schlecht?

 
 
Das moderne Berufsleben ist dadurch geprägt, dass von uns erwartet wird, viele Dinge gleichzeitig zu tun.
 
Dies wird mehr und mehr selbstverst#ndlich, da vor allem Jugendliche heute gewohnt sind, mehrere Medien gleichzeitig zu nutzen:
 
Wie eine Studie — mit insgesamt 694 Probanden — gezeigt hat, packen junge Leute heute (im Durchschnitt) täglich 8,5 Std. Mediennutzung in nur 6,5 Studen.
 
Hierbei zeigt sich, dass
     
  • Mädchen eher zum Multitasking neigen als Jungs
     
  • und etwa 15 Prozent der Befragten nach eigener Einschätzung "meistens" mehr als nur 2 Medien gleichzeitig nutzen.

Nur einer von jeweils sechs Befragten gab an, praktisch nie zwei Medien gleichzeitig zu verwenden.
 
Hier nun der Anteil in Prozent, mit dem 5 von jeweils 6 ein zweites Medium gleichzeitig zur Haupttätigkeit "Hausaufgaben machen" nutzen:

     
  • Fernsehen: 15%
     
  • Musik hören: gut 30%
     
  • Videospiele: 40%
     
  • Computer: 48%
     
  • Computerspiele: 67%
     
  • SMS lesen oder senden: 73%
     
  • im Web surfen: 73%
     
  • eMail schreiben oder lesen: 82%

 
Selbst an Hochschulen ist es nicht anders: Man hat 774 Studenten die Frage gestellt, wie oft sie sich während der Vorlesung (bzw. während einem Online-Seminar) zusätzlicher Tätigkeit hingeben. Das Ergebnis sah aus wie folgt:
 
    Zusätzliche Tätigkeit
    während Vorlesung ( bzw. Online Seminar )
     
    Facebook
    25  ( 63 ) %
    SMS
    51  ( 69 ) %
    Chatten
    13  ( 40 ) %
    e-Mail
    15  ( 46 ) %
    Musik hören
      6  ( 67 ) %
    Hausaufgaben bearbeiten
    18  ( 31 ) %
    Telefonieren
      3  ( 23 ) %
    Essen
    26  ( 70 ) %
    Trinken
    57  ( 79 ) %
     
    Im Durchschnitt
    24  ( 54 ) %

So nebenher erklärt dieses Ergebnis nun auch die sehr hohen Abbrecherquoten bei Online-Seminaren.
 
 
Halten wir also fest: Die zeitlich parallele Nutzung mehrerer Medien und das gleichzeitige Erledigen mehrere Aufgaben spielt heute im geistigen Leben vieler junger Menschen ein wichtige Rolle.
 
Wie nun aber von Manfred Spitzer in seinem Buch » Digitale Demenz «, S. 222-234 diskutierte Studien zeigen, weisen junge Menschen, die gleichzeitig mehrere Medien nutzen, Probleme mit der Kontrolle ihres Geistes auf:

     
  • Bei allen untersuchten geistigen Fähigkeiten, die man für Multitasking benötigt, schneiden die Multitasker signifikant schlechter ab als Nicht-Multitasker.
     
  • Sogar zum Wechseln der jeweils bearbeiteten Aufgabe (was ja beim Multitasking sehr häufig notwendig ist), benötigen sie mehr Zeit als Nicht-Multitasker.

 
Was man anhand dieser Experimente bisher nicht nicht beantworten konnte, ist die Frage, wie es zu diesen Unterschieden kommt.
 
Zwei Ursachen sind denkbar:
     
  • Der Selektionseffekt, d.h. die persönliche Vorliebe für Multitasking ohne Rücksicht auf den Nachteil, den man sich damit einhandelt,
     
  • oder der Trainingseffekt, d.h. führt heftiges Multitasking zu einer Veränderung unseres kognitiven Stils?

Martin Spitzer hält die zweite Erklärung für wahrscheinlicher, da — wie er schreibt — andere Studien gezeigt haben, dass chronische intensive Mediennutzung zu Störungen der Aufmerksamkeit führen kann.
 
Sollte er recht haben, würde das bedeuten, dass Multitasker sich Oberflächlichkeit und Ineffektivität antrainieren — sehr zu ihrem eigenen Schaden, aber auch zum Schaden der Gesellschaft insgesamt.
 
 
 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012, Droemer), S. 64 und 222-235


 
 
 
Wenn Kinder Smartphones zu früh und zu intensiv nutzen

 
 
Man lese, was Neurologen feststellen:

 

 Beitrag 0-426
Wie Smartphones konzentriertes Lernen erschweren — nach der Studenten eigenem Urteil

 
 

 
Wie Smartphones Studierende behindern

 
 
An der Rice University in Huston, Texas, hat man 24 Studenten, die vorher nie ein Smartphone genutzt hatten, jeweils ein iPhone ausgehändigt, um dessen Auswirkungen aufs Lernen zu untersuchen. Sie konnten dieses iPhone 1 Jahr lang ohne jede Einschränkung nutzen. Software, die man zusätzlich aufgespielt hatte, zeichnete die Nutzungsweise auf.
 
Hierbei ergab sich, dass die Studenten durchaus versuchten, das Gerät zur Bewältigung ihres Lernpensums zu verwenden.
 
Zu Beginn der Studie, ebenso wie nach Ablauf des Jahres hat man ihnen die gleichen 6 Fragen gestellt, die zunächst erwartete, dann aber tatsächlich festgestellte Nützlichkeit des Geräts betreffend: Sie sollten auf einer Skala von 1 (= trifft gar nicht zu) bis 5 (= trifft voll zu) folgenden Aussagen Wahrheitswerte zuordnen:
     
  • Mein iPhone wird/hat mir zu besseren Noten verhelfen/verholfen. vorher 3,8 - nachher 1,5
     
  • Mein iPhone hilft/half mir bei meinen Hausaufgaben: vorher 3,1 - nachher 1,4
     
  • Mein iPhone wird helfen/half akademische Prüfungen besser zu bestehen: vorher 3,9 - nachher 1,6
     
     
  • Ich kann/konnte kontrollieren, wo ich mein iPhone checke: vorher 4,4 - nachher 2,9
     
  • Mein iPhone lenkt/lenkte mich von schulbezogenen Aufgaben ab: vorher 1,9 - nachher 3,9
     
  • Ich muss/musste dauernd mein iPhone checken: vorher 1,3 - nachher 4,1

Wie man erkennt, mussten die Studenten feststellen, dass sich ihre positiven Erwartungen kaum, ihre negativen aber deutlich übererfüllt hatten.
 
Und so war das wesentliche Ergebnis der Studie (nach 1 Jahr):
 
 
 
Das Smartphone unterstützt den Lernprozess nur unwesentlich,
 
führt aber zu starker Ablenkung — so das klare Urteil der Studenten.
 
Ihre Noten wurden in diesem Jahr hochsignifikant schlechter.

 
 
Quelle: Tossel et.al.: You can lead a horse to water but ... (British Journal of Educational Technologies, 2015, pp 713-724)
 
zitiert durch Manfred Spitzer in Cyberkrank, S. 330-332

 

 Beitrag 0-427
Warum lassen sich Bildungspolitiker von IT-Lobbyisten gar so bereitwillig ein X für ein U vormachen?

 
 

 
Warum handeln Bildungspolitiker meinungsgetrieben,

statt auf Basis gut gesicherter wissenschaftlicher Erkenntnis?

 
 
Politik — das war schon immer so — soll zu einem gerechten Ausgleich konkurrierender Interessen führen.
 
In der Bildungspolitik konkurrieren
     
  • die als Elementargewalt daherkommenden Interessen der weltweit größten Konzerne (Apple, Facebook, Google, Hersteller von Computerspielen usw.)
     
  • mit den Interessen unserer Kinder, die unsere Zunkunft darstellen, aber über keinerlei Lobby verfügen.

Umso mehr sollte Bildungspolitern klar sein, dass sie ihrer Aufgabe nicht gerecht werden, wenn sie sich einfach nur die Meinung der IT-Lobbyisten zu eigen machen, statt neutrale Wissenschaftler gezielt zu befragen — oder ihnen wenigstens aufmerksam zuzuhören, wo sie warnend ihre Stimme erheben.
 
Wie nun aber die allzu naive Argumentation der deutschen Bildungspolitiker in Sachen » Digitalpakt « zeigt, scheint ihnen gar nicht klar zu sein, wie sehr sie sich zu einem von der IT-Lobby an der Nase herumgeführten Bären machen lassen. Wo bleibt ihr eigenes Urteilsvermögen? Wissen sie denn nicht, dass man nur Argumenten glauben darf, für die es auch Beweise gibt?
 
Wie zahlreiche wissenschaftliche Studien aus unterschiedlichsten Ländern dieser Welt belegen, sollte selbst noch in Hauptschulen und Gymnasien das Prinzip gelten:

 
IT im Unterricht macht Sinn als Salz in der Suppe,
 
darf aber keinesfalls dem Wasser der Suppe entsprechen.
 

In seinem Buch Cyberkrank (2015) legt der Neurologe Manfred Spitzer anhand zahlreicher von Wissenschaftlern gefundener Untersuchungsergebnisse dar, mit welch unerwünschten, ganz gravierend negativen Nebenwirkungen man zu rechnen hat, wenn man Kinder — in der Grundschule, im Kindergarten oder daheim — zu früh mit elektronischen Geräten zu beglücken oder gar ruhig zu stellen sucht:
 
 
Je jünger die Kinder, desto verheerender die Nebenwirkungen!

 
Dass im deutschsprachigen Raum nur etwa 4% der von ihren Eltern schon früh mit Computerspielen "beglückten" Jugendlichen wegen krankhafter Spielsucht später in der Psychiatrie landen, darf nicht verharmlost werden. Nicht nur Facebook — wie einer seiner Mitgründer heute offen zugibt —, sondern auch Computer- und Videospiele sind ganz gezielt so programmiert, dass sie ihre Nutzer süchtig zu machen versuchen: Einfach nur, damit verantwortungslose Hersteller möglichst viel verdienen.
 
 
Nichts davon sagen uns die von Politikern als "Experten" eingestuften IT-Lobbyisten. Ganz im Gegenteil:
    Sie und viele von ihnen als "Experten" gelobte allzu naive Lehrer (wie etwa die Krippenerzieherin Antje Bostelmann und der Kunstpädagoge Michael Fink) wollen uns weis machen, wie hilfreich Tablet-PCs schon im Kindergarten seien, da man da ja » z.B. sogar Filme drehen und schneiden « oder » dank Bildtelefonie mit Kindern aus einer weit entfernten Kita kommunizieren « könne.
     
    Eine Dolmetscher App, so schreibt Fink, ermögliche es, » mit einem gerade eingewanderten Kind zu sprechen, und dank einer Pflanzenbestimmungs-App könne man bei einem Waldspaziergang » z.B. Bäume, Sträucher, Blumen, Pilze identifizieren und weitere Information über sie abrufen «.

Im Kindergarten? Wie soll denn das gehen? Für wie dumm hält man uns Eltern denn eigentlich?
 
Bildungspolitiker aber scheinen all das brav zu glauben um dann ins selbe Horn zu blasen.
 
    So hat z.B. das Kultusministerium in Österreich mit finanzieller Hilfe der EU das Handbuch Safer Internet im Kindergarten herausgegeben. In seinem ersten Kapitel » Die frühe Kindheit als Medienkindheit « liest man: "Keine Seltenheit mehr: Babies, die gerade das Laufen lernen finden sich am iPad der Eltern erstaunlich gut zurecht — besser vielleicht als in der eigenen Wohnung."
     
    Und hieraus folgern die Autoren, es liege auf der Hand, dass "mediale Frühförderung ein immer wichtigerer Bestandteil der Bildungsarbeit" werden müsse.
     
    Niemand — so behaupten sie — wisse zu sagen, ob die Nutzung digitaler Medien im frühen Kindesalter gut oder schlecht sei. Manfred Spitzers Bücher, aus denen klar hervorgeht, dass die Wissenschaft das sehr wohl weiß, scheinen sie nicht gelesen zu haben. Statt auf die Idee zu kommen, erst mal gründlich einschlägige wissenschaftliche Literatur zu studieren, wollen sie mit unseren Kindern und Enkelkindern ins Blaue hinein experiementieren!
     
    Sollte solch unverantwortliches Herumexperimentieren mit Kindern sich aber nicht allein schon aus ethischen Gründen heraus ganz von selbst verbieten?

Wollen wir wirklich solche Böcke zu Gärtnern machen mit dem Ergebnis, dass sie unsere Kinder schon im Kindergarten dazu anleiten, statt miteinander zu spielen nur noch in ein elektronisches Gerät zu schauen?
 
 
Hinter welch fragwürdige "Pädagogen" stellt der Staat sich hier denn eigentlich?

 
 
Bedauerlicherweise zielt auch der deutsche Digitalpakt in genau die entgegengesetzte Richtung, in die wissenschaftliche Erkenntnisse weisen. Man kann jetzt nur noch hoffen, dass die geplante (Teil-) Digitalisierung des Unterrichts in den Grund- und Hauptschulen weniger Schaden anrichten wird, als nach den Ausführungen von z.B. Manfred Spitzer zu erwarten ist — und dass insbesondere alle Kindergärten davon verschont bleiben.
 
 
Insgesamt frägt man sich:

 
Warum folgen Bildungspolitiker scheinbar blind dem subjektiven Rat der IT-Industrie,
 
wollen aber den ganz anders lautenden Rat erfahrener Lehrer, Psychologen und Neurologen gar nicht erst diskutieren?

 
 
Prof. Dr. Dr. Manfred Spitzer — in seiner Rolle als Spezialist für Neurodidaktik — fasst den wissenschaftlich fundierten, bisher aber ignorierten Rat wirklicher Experten zusammen wie folgt:


Spitzer ( 2015, S. 259-260 seines Buches Cyberkrank ):
 
Digitale Informationstechnik lenkt ab und schadet der Konzentration und Aufmerksamkeit. Sie behindert Bildungsprozesse, statt — wie vielfach behauptet wird — sie zu fördern.
 
Entsprechend sind die Studien zum Einsatz von Computern im Unterricht ernüchternd bis peinlich; keinesfalls rechtfertigen sie die Investition in digitale Informationstechnik.
 
Auch die oft angeführten zusätzlichen Argumente für solche Investitutionen — Medienkompetenz vermitteln und Chancengleichheit für Kinder aus sozial benachteiligten Schichten schaffen — finden in diesen Daten keine empirische Grundlage. Im Gegenteil: Computer verstärken die Bildungsunterschied zwischen Arm und Reich.
 
 
Da man um die ablenkende Wirkung eines Internetzugangs an Schulen und Universitäten längst weiß und auch die durch digitale IT verminderte Verarbeitungstiefe beim Lernen kennt, sind diese Ergebnisse nicht einmal überraschend. Ebenso wenig überrascht aus psychologischer und nerologischer Sicht, dass handschriftliche Notizen dem Wissenserwerb förderlicher sind als das Tastaturschreiben.
 
 
Lesen und Schreiben sind zentrale Kulturtechniken. Das sichere Beherrschen der Schriftsprache [ das nach allzu leichtfertigem Herumexperimentieren einiger Bildungspolitiker heute nicht mehr selbstverständlich ist ] trägt wesentlich zum schulischen — und später auch zum beruflichen — Erfolg bei. Ein gut geführter Unterricht, der auf den neurologischen Prinzipien des Lernens, Lesens und Schreibens beruht, könnte sogar der Lese- und Rechtschreibschwäche entgegenwirken die (durch Veränderungen im Gehirn verursacht) oft schwerwiegende Konsequenzen für die individuelle Bildungsbiographie hat.
 
Davon sind wir jedoch weit entfernt: Das pädagogische Chaos in Deutschland, das sich u.A. in der völligen Beliebigkeit der Schulausgangsschrift äußert, führt mitunter sogar dazu, dass ein Schüler die erste Klasse wiederholen muss, wenn seine Eltern zwei Kilometer von Berlin nach Brandenburg umziehen. Und es wird ernsthaft darüber diskutiert, ob man nicht die Handschrift ganz abschaffen sollte, wie dies anderswo schon geschehen ist bzw. — in Finnland etwa — bald geschehen soll. Die Argumentation hierfür könnte dümmer nicht sein: Die Kinder seien motorisch dazu nicht mehr fähig, also lassen wir das weg. [Was wird wohl geschehen, wenn sich herausstellt, dass die Kinder auch in Mathematik überfordert sein werden?]
 
Weitere Auswirkung der intensiven Nutzung digitaler Medien ist ein in diesem Ausmaß beispielloser Bewegungsmangel bei der heranwachseden Generation. Seine Folgen sind Übergewicht und als Folge davon weitere Beeinträchtigungen junger Menschen (angefangen von Bluthochdruck und Diabetes bis hin zu Senk- und Plattfüßen).
 
Die Behandlung von Jugendlichen und jungen Erwachsenen mit Aufmerksamkeitsstörungen, Schulproblemen, Computersuchtproblemen und Übergewicht stellt eine große Herausforderung dar und dauert Monate bis Jahre. Eltern und Lehrer müssen daher frühe Anzeichen solcher Probleme ernst nehmen und rechtzeitig konsequent gegensteuern.
 
 
Investitionen in digitale Informationstechnik im staatlichen Bildungsbereich stellen demzufolge eine Verschwendung von Mitteln dar — jedenfalls, so lange die Lage derart klar ist wie heute — von den deutlichen Risiken und Nebenwirkungen einmal gar nicht zu reden.
 
An Lehrern zu sparen und zugleich Millionen für digitale IT auszugeben ist verantwortungslos und bildungsfeindlich. Es kann und darf nicht sein, dass wir die Bildung der nächsten Generation — das Fundament unserer Kultur, Wirtschaft und gesamten Gesellschaft — den Profitinteressen einiger weniger weltweit agierender Firmen überlassen. Denn die Bildung junger Menschen ist auch unsere Zukunft!
 



 

 Beitrag 0-26
Wie effektiv ist die moderne Schulmedizin?

 
 

 
Wie effektiv ist die moderne Schulmedizin?

 
 
Diese Frage zu beantworten, hilft die Lektüre folgender Artikel:
 
 
 
Wie effektiv ist die Schulmedizin?
 
Zahlen zur Wirksamkeit der Schulmedizin in Großbritannien

 
 

 
Bei Rückenschmerzen etwa sind Placebos empfehlenswerter


Werner Bartens, Arzt & Wissenschaftsjournalist (2017):
 
2016 hat ein Team um Gustavo Machadeo Daten aus 35 Studien mit insgesamt über 6000 Patienten mit Rückenschmerzen analysiert.
 
Dabei zeigte sich, dass Schmerzmittel aus der großen Gruppe der nichtsteriodalen Antiphlogistika (NSAID) — Verkaufsschlager wie Ibuprofen, Diclofenac, Metamizol und Acetylsalicylsäure zählen dazu — die Schmerzen nur wenig, und nie lange mindern konnten: Die Wirkung der Mittel war vergleichbar mit der von Placebos.
 
Im Vergleich zu Placebos handelt man sich mit Medikamenten dieser Art aber ganz erhebliche Risiken ein:
 
Wie die Analyse der Daten gezeigt hat, waren Magen-Darm-Beschwerden bis hin zu bedrohlichen Blutungen bei Patienten, die das Medikament genommen hatten, 2.5 Mal häufiger als bei denen, die — natürlich ohne es zu wissen — ein Placebo bekamen.
 

Quelle: Werner Bartens: Hilft wenig, schadet viel: Schmerzmittel bei Rückenschmerzen, SZ vom 3.3.2017, S. 14.


 

 Beitrag 0-271
Je mehr man davon überzeugt ist, dass Heilung eintreten wird, desto eher ergibt sie sich

 
 

 
Welch heilende Wirkung feste Überzeugung haben kann

z.B. — aber nicht nur — als Placeboeffekt

 
 
In der FAZ vom 12.2.2017 findet sich ein Interview, bei dem es darum geht, dass ab März 2017 auch Cannabis für Schwerkranke auf Rezept erhältlich sein wird.
 
Befragt wurde Michal Popp, Inhaber und Geschäftsführer des Arzneimittelherstellers Bionorica aus Neumarkt in der Oberpfalz. Sein Unternehmen ist Deutschlands größter Cannabis-Produzent.
 


M. Popp (2017):
 
Unsere Gewächshäuser stehen in Österreich, wo wir eine Vereinbarung mit der zuständigen Behörde haben.
 
Die Anbaufläche messen wir nicht in Hektar, sondern in Quadratmetern. Mehr ist nicht nötig, denn der Wirkstoff, um den es geht, ist hochaktiv: Eige Tagesdos liegt zwischen 10 und 20 Milligramm, doch schon aus einiger einzigen Blüte gewinnen wir ein paar Gramm davon. Und wir ernten mehrmals im Jahr.
 
Alle anderen Heilpflanzen, die wir anbauen, wachsen unter freiem Himmel. Für Cannabis aber halten wir im Gewächshaus Luftfeuchtigkeit, Bewässerung, Temperatur und Lichtintensität ständig auf optimalem Niveau.
 
Während wir von allen anderen Heilpflanzen den gesamten Extrakt nutzen, holen wir aus Cannabis gezielt nur den einen Wirkstoff heraus — mit einer reinheit von 99 Prozent. Das ist Hightech.
 
Nun aber zur Wirksamkeit:
 
Dass Dronabinol [der Wirkstoff in Cannabis] gegen Übelkeit wirkt, den Appedtit anregt und beispielsweise Patienten mit multipler Sklerose hilft, ist eindeutig bewiesen.
 
In anderen Fällen ist es schwierig, den Beweis seiner Wirksamkeit zu führen, da der Placeboeffekt in den Patientenstudien mit Cannabis besonders stark auftritt:
 
Man bildet in solchen Studien ja immer zwei Gruppen. Die eine bekommt den Wirkstoff, die andere aber nicht — wobei die Leute aber nicht wissen, zu welcher Gruppe sie gehören. Nun sehen wir in den Versuchen mit Cannabis, dass hier ganz besonders viele Kranke, die den Wirkstoff nicht bekommen, von deutlicher Verbesserung ihres Leidens berichten.
 
Der Grund hierfür: Die Leute sehnen sich nach dem Stoff, weil sie ihn oft als ihre letzte Chance auf eine Linderung ihrer Leiden sehen. Deswegen fühlen sie sich schon besser, wenn sie bloß glauben, endlich damit behandelt zu werden. Es geht bei Cannabis ja immer um schon austherapierte Patienten, d.h. um solche, denen sonst nichts mehr hilft. Nur für sie kommt laut Gesetz Cannabis in Frage.
 
Das führt dazu, dass in einigen Studien der Unterschied zwischen den Patienten, die das echte Präparat erhalten und denen, die nur mit einem Placebo ohne Wirkstoff behandelt werden, nicht so deutlich ist.
 


 
Wir sehen also:
     
  • Die heilende Wirkung der Überzeugung der Patienten, gesund zu werden, kann fast so groß sein wie die Wirkung des echten Arzneimittels.
     
  • Und nicht nur das: Wo beides zusammenkommt, wird die Wirkung beider Einflüsse sich summieren.

 
 
Weiterer Beweis der Wirksamkeit fester, positiver Überzeugung ist
 
 
Simonton's Methode der Vorstellungstechniken:

 
In den 70-er Jahren war ein 61 Jahre alter Mann — nennen wir ihn Frank — an einer Variante von Halskrebs erkrankt, die fast immer tödlich verläuft. Als seine Ärzte ihn schon fast aufgegeben hatten — sein Gewicht war von 59 auf 44 kg zurückgegangen, er hatte Atembeschwerden und war schon so schwach, dass er kaum noch Speichel abschlucken konnte, zog man den Strahlenonkologen Carl Simonton hinzu. Simonton versicherte dem Patienten, dass jetzt nur noch er selbst den Verlauf seiner Krankheit beeinflussen könne. Hierzu brachte er dem todkranken Frank eine Reihe von Entspannungs- und Bildvorstellungsübungen bei, die Simonton und seine Kollegen am Cancer Counseling and Research Center in Dallas, Texas, entwickelt hatten.
 
Dreimal am Tag, so Simonton's Rat, solle Frank sich möglichst intensiv vorstellen, dass die Bestrahlung, die er erhielt, aus Millionen winziger Energiekügelchen bestünde, die seine Krebszellen bombardierten, so dass die von seinem Immunsystem ausgesandten weißen Blutkörperchen wie ein Heer römischer Soldaten über sie herfallen, sie abschlachten und die dann schließlich toten und sterbenden Krebszellen hin zu Leber und Niere schleppen konnten, damit sie von diesen beiden Organen aus dem Körper herausgeschwemmt würden.
 
Die Ergebnisse waren frappierend und überstiegen bei weitem die Behandlungserfolge, die sich in solchen Fällen bei einer reinen Strahlungstherapie einstellen: Frank blieb von den üblichen negativen Nebenwirkungen der Strahlentherapie — Schädigungen der Haut und der Schleimhäute — weitgehend verschont. Er gewann Kraft, sein früheres Gewicht stellte sich wieder ein, und nach nur 2 Monaten waren sämtliche Krebssymptome verschwunden.
 
Simonton war überzeugt, dass diese erstaunliche Genesung ohne die täglich durchgeführen Bildvorstellungsübungen nicht eingetreten wäre.
 
In einer Anschluss-Studie unterwiesen Simonton und seine Kollegen 159 Krebspatienten, die als unheilbar galten, in diesen Vorstellungstechniken — mit einem durchaus beeindruckenden Resultat:

     
    Die zu erwartende Überlebensdauer liegt in solchen Fällen bei etwa 12 Monaten.
     
    Nach 4 Jahren aber waren 63 dieser Patienten immer noch am Leben.
       
    • 14 von ihnen zeigten keine Krankheitssymptome mehr,
       
    • bei 12 war der Krebs rückläufig
       
    • und bei weiteren 17 hatte sich die Krankheit wenigstens nicht mehr verschlimmert.

     
    Die durchschnittliche Überlebenszeit der gesamten Gruppe war 24.4 Jahre — doppelt so lang wie der US-amerikanische Normwert.

 
Quelle: Stephanie Matthews-Simonton, Carl Simonton und James L. Creighton: Getting well again (New York: Bantam Books, 1980), S. 6-12.
 
 
Simonton hat noch eine Reihe ähnlicher Studien durchgeführt, stets mit positiven Resultaten.
 
Obgleich sein Verfahren umstritten blieb, fanden einige Forscher seine Versuchsergebnisse so überzeugend, dass er das Simonton Cancer Center aufbauen konnte, ein erfolgreiches Forschungs- und Behandlungszentrum in Pacific Palisades, Kalifornien, in dem Patienten mit unterschiedlichsten Erkrankungen seine Bild­vorstel­lungstechnik erlernen. Wie eine Bestandsaufnahme 1988 gezeigt hat, galt sie damals als die vierthäufigste  a l t e r n a t i v e  Krebsbehandlungsmethode.
 
Quelle: Jeanne Achterberg: Mind and Medicine: The Role of Imaginary in Healing, ASPR Newsletter 14, Juni 1988, Seite 20.
 
 
Heute wird seine Methode der Bildvorstellungstechniken nicht nur in Nordamerika, sondern auch in Europa und Japan von aufgeschlossenen Ärzten angewandt, um die mit etablierten Therapien angestrebten Heilerfolge zu beschleunigen und nachhaltiger zu machen.
 
Wer Übungsanleitungen dazu sucht, findet sie z.B. in Jeanne Achterberg: Die heilende Kraft der Imagination, 1990.
 
In Deutschland werden auch Seminare dazu angeboten.

 

 Beitrag 0-24
Der Placebo-Effekt belegt: Was uns steuert — auch als Materie — sind Überzeugungen

 
 

 
Zum ganz erstaunlichen Stellenwert des Placebo-Effekts

 
 
Bruce Lipton, ein Zellbiologe, versucht schon seit etwa 1970 seinen Fachkollegen klar zu machen, wie wichtig es ist, dass die Biologie aufhört, jedes Lebewesen nur reduziert auf seinen rein materiell existierenden Teil zu betrachten. Er hat dafür sehr gute Argumente (wie mir die Lektüre seines Buches » Intelligente Zellen — Wie Erfahrungen unsere Gene steuern « klar gemacht hat). Vieles ist allein schon seiner zusammenfassenden Erklärung des Entstehens von Leben, Bewusstsein und Gehirn zu entnehmen.
 
Wer sich nicht die Mühe machen möchte, sein Buch zu lesen, um mehr darüber zu lernen, wie der Geist den Körper steuert und beinflusst, könnte dennoch daran interessiert sein, wenigstens über den allseits bekannten — auch von der Schulmedizin anerkannten — Placebo-Effekt etwas dazuzulernen:


Bruce Lipton (S. 135-140, etwas gekürzt)
 
Jeder Medizinstudent lernt, dass Patienten sich oft schon dann besser fühlen, wenn sie nur annehmen, dass man sie behandelt hat. Dieser Effekt ist erstaunlicher Beweis für die Heilkraft des Körper-Geist-Systems. Für den typischen Schulmediziner grenzt der » doch nur eingebildete « Placebo-Effekt an Quacksalberei oder wird von ihm darauf zurückgeführt, dass der Patient schwach und leicht beinflussbar sei. Medizinische Fakultäten erwähnen den Placebo-Effekt deswegen nur am Rande, um sich so möglichst schnell ihren » wirksameren « Heilmethoden zuwenden zu können.
 
Ich [ Bruce Lipton ] halte das für einen kapitalen Fehler. Der Placebo-Effekt sollte in der medizinischen Ausbildung eine ganz wichtige Rolle spielen. Man darf die Kraft des Geistes nicht unterschätzen: Sie ist nicht weniger wirksam als Chemikalien und Skalpelle. Die Schulmedizin sollte nicht mehr länger glauben, dass unser Körper dumm und unsere Gesundheit nur mit äußerer Hilfe aufrecht zu erhalten sei.
 
Der Placebo-Effekt bedarf gründlicher wissenschaftlicher Untersuchung, denn könnte man herausfinden, wie man ihn steuert, wäre er ein höchst effizientes, nebenwirkungsfreies Intrument zur Krankheitsbekämpfung.
 
Manche Historiker weisen darauf hin, dass der Placebo-Effekt in der Medizin seit jeher eine große Rolle gespielt hat. Das muss schon deswegen so gewesen sein, da die Mediziner ja noch bis gegen Ende des 19. Jahrhunderts über gar keine wirksamen Methoden verfügten (Krankheiten wurden mit Aderlass behandelt, Wunden mit Arsen, und wenn gar nicht mehr half, kam als "Allheilmittel" Klapperschlangenöl zum Einsatz). Und doch ging es so manchem Patienten selbst nach solcher Behandlung besser — ganz so wie heute, wenn ein Arzt im weißen Kittel seinem Patienten im Brustton der Überzeugung die hohe Wirksamkeit der Pille erklärt, die er verschreibt und die doch nur ein Placebo ist.
 
Was uns heilt muss also doch in erster Linie unsere Überzeugung sein!
 
Obgleich die Frage danach, wie Placebos wirken, im Großen und Ganzen von der Schulmedizin ignoriert wird, haben sich in letzter Zeit doch auch ein paar angesehne Wissenschaftler damit beschäftigt. Ihre Ergebnisse legen nahe, dass selbst Scheinoperationen Wirkung zeitigen können:
    Eine 2002 im New England Journal of Medicine veröffentlichte Studie der Baylor School of Medicine überwachte Patienten, die sich wegen schwerer Knieschmerzen operieren lassen wollten. Der Leiter der Untersuchung, Dr. Bruce Moseley, wollte herausfinden, welche Art von Operation seinen Patienten am besten half. Er ordnete seine Patienten jeweils einer von 3 Gruppen zu:
     
    • Denen aus Gruppe 1 wurde der geschädigte Knorpel abgeschliffen.
       
    • Denen aus Gruppe 2 wurde das Gelenk gespült und so alles Material entfernt, das eine Entzündung verursachen konnte.
       
    • Gruppe 3 aber wurde nur zum Schein operiert: Der Patient wurde betäubt, Moseley machte die 3 Standardeinschnitte und redete und bewegte sich so, als führe er eine Operation durch — er planschte sogar mit etwas Salzwasser, um die Geräusche der Kniewaschung nachzuahmen. Nach 40 Minunten nähte er die Schnitte wieder zu, ganz so, wie er es bei einer gewöhnlichen Operation auch getan hätte.

    Alle 3 Gruppen erhielten gleiche postoperative Behandlung, zu der auch ein Gymnastikprogramm gehörte.
     
    Die Ergebnisse waren schockierend:
     
    • Ja, die wirklich operierten Patienten aus Gruppe 1 und 2 erfuhren die erwartete Besserung.
       
    • Der Placebo-Gruppe aber ging es ebenso gut!

     
    Dr. Moseley » wusste «, dass die Knieoperationen helfen würden, und er » wusste «, dass es im Bereich von Operationen kein Placebo-Effekt zu erwarten war — und dennoch war genau der eingetreten!
     
    Im Fernsehen ausgestrahlte Reportagen stellten die erstaunlichen Ergebnisse ausführlich dar. Sie zeigten Mitglieder der Placebo-Gruppe, die nun wandern gingen bzw. Basketball spielten — alles Dinge, die ihnen vor ihrer Scheinoperation unmöglich waren.
     
    Man hat diesen Patienten erst 2 Jahre später mitgeteilt, dass man sie gar nicht operiert hatte. Ein Mitglied dieser Gruppe, Tim Perez, konnte vor der Operation nur mit einem Stock gehen — jetzt aber spielte er mit seinen Enkeln Fußball. Im Interview sagte er: In dieser Welt ist alles möglich, wenn man es sich in den Kopf setzt: Ich weiß jetzt, dass unser Geist Wunder vollbringen kann.

Auch bei der Behandlung anderer Krankheiten, darunter Astma und Parkinson, haben Placebo-Effekte schon starke Wirkung gezeigt. Und bei der Behandlung von Depressionen waren sie gar so effektiv, dass der Psychiater, Walter Brown, Placebo-Pillen als Erstbehandlung für leichte und mittlere Depressionen vorschlug [Brown 1998]. Browns Untersuchungen haben gezeigt, dass die Placebo-Pillen sogar dann funktionierten, wenn die Patienten wussten, dass sie kein wirkstoffhaltiges Medikament erhielten.
 
 
Ein weiter Hinweis auf die Macht der Placebos (d.h. die Macht positiven Denkens) findet sich in einem Bericht des amerikanischen Gesundheitsministeriums:
    Darin steht [ Horgan, 1999 ], dass sich in einer Studie die Hälfte der betrachteten depressiven Patienten nach der Einnahme eines Medikaments besser fühlten, während es bei der Placebo-Kontrillgruppe immerhin noch 32 Prozent waren.
     
    Angesichts solcher Effektivität des Placebo-Effekts ist es nicht erstaunlich, dass die 8.2 Mrd Dollar schwere Antidepressiva-Industrie sich der Kritik stellen muss, dass die Pharmakonzerne die Wirksamkeit ihrer Mittel recht schamlos übertreibt.
     
    Irving Kirsch, ein klinischer Psychologe, hat 2002 festgestellt, dass gemäß klinischer Studien etwa 80 Prozent der Wirkung von Antidepressiva auf den Placebo-Effekt zurückzuführen seien.
     
    Um Zugriff auf die Daten der Untersuchungen zu den meist verkauften Antidepressiva zu bekommen, musste er sich auf die verfassungsrechtlich garabtierte Informationsfreiheit berufen, denn die Gesundheitsbehörden wollten sie herausgeben.
     
    In einem Interview mit dem Discovery Channel sagte Kirsch: Der Unterschied zwischen der Reaktion auf das Medikament und der Reaktion auf das Placebo betrug im Durchschnitt weniger als 2 Punkte auf einer klinischen Skala, die 50 bis 60 Punkte erreicht. Kirsch sah diesen Unterschied als, wie er wörtlich sagte, » klinisch bedeutungslos «.
     
    Eine interessante Tatsache zur Wirksamkeit von Antidepressiva ist auch, dass sie in den klinischen Versuchen im Laufe der Jahre immer besser abschnitten. Diese lässt darauf schließen, dass ihre Wirkung zum Teil auf geschickter Vermarktung beruht (allein auf dem Glauben also, dass sie wirken).
     
    Dass oft nur der Glaube an ihre Wirkung die Wirkung zeitigt, beweist der Fall Janis Schonfeld aus 1997:
     
      Sie nahm an einem Test der Wirksamkeit des Mittels Effexor teil und war absolut verblüfft, als man sie später darüber informierte, dass sie nur ein Placebo bekommen hatte:
       
      Diese Pillen nämlich hatten sie nicht nur von ihrer jahrelangen Depression befreit, die EEGs zeigten auch, dass ihre Großhirnrinde nun viel aktiver war als zuvor [ Leuchter et al., 2002 ]. Zudem hatte Schonfeld während der Behandlung an Übelkeit gelitten, einer bekannten Nebenwirkung von Effexor, über die man sie informiert hatte.
       
      Schonfeld war, nachdem die Ärzte ihr eröffnet hatten, sie habe nur ein Placebo genommen, fest davon überzeugt, dass man sich geirrt haben müsse. Die Wissenschaftler mussten ihren Bericht zweimal überprüfen, bis sie ihnen glaubte.

 
Zitierte Quellen:
 
  • Kirsch I. et al (2002): The Emperor's New Drugs: An Analysis of Antidepressant Medication Data Submitted to the U.S. Food and Drug Association. Prevention & Treatment, American Phsychological Association 5: Article 23
     
  • Leuchter A.F. et al (2002): Changes in Brain Function of Depressed Subjects During Treatment with Placebo. American Journal of Psychiatry 159(1): 122-129
     
  • Moseley J.B. (2002): A Controlled Trial of Arthroscopic Surgery for Osteoarthritis of the Knee. New England Journal of Medicine 347(2): 81-88
     
  • Horgan J. (1999): Prozac and Other Placebos. The Undiscovered Mind: How the human Brain defies Replication, Medication, and Explanation. New York, The Free Press, pp 102-136
     


 
Besonders klar — und durch Messungen der Gehirnströme über jeden Zweifel erhaben — wurde der Placebo-Effekt und die Macht der Überzeugungen nachgewiesen durch ein im Jahr 2014 an der TU München durchgeführtes Expirement:


Prof. Markus Ploner, TU München (2015):
 
Zwanzig Probanden erhielten zuerst unterschiedlich starke schmerzhafte Laserpulse abwechselnd auf zwei Bereiche auf ihrem Handrücken. Die Wahrnehmung eines jeden Schmerzreizes wurde anschließend mündlich bewertet.
 
Im weiteren Verlauf des Experiments erhielten sie die gleichen Reize noch einmal mit dem Unterschied, dass vorher beide Bereiche eingecremt wurden. Obwohl beide Cremes ohne Wirkstoff waren, bekamen die Probanden gesagt, dass eine der Cremes eine schmerzlindernde Wirkung habe.
 
Das Ergebnis: Die Probanden bewerteten die Schmerzen auf dem Hautbereich mit der angeblich schmerzlindernden Creme signifikant schwächer als auf der anderen Hautstelle.
 
Die Wissenschaftler konnten das auch im Gehirn sichtbar machen: Trotzdem die Probanden die gleichen Schmerzreize erhielten, feuerten die Nervenzellen beim zweiten Durchlauf ein anderes Muster von Signalen.
 


 
 
 
Nocebos: Die Macht  n e g a t i v e r  Überzeugung

 
 
Wenn der Geist durch  p o s i t i v e  Suggestion zur Heilung beiträgt, nennt man das den Placebo-Effekt.
Wenn nun aber umgekehrt der Geist durch  n e g a t i v e  Suggestion die Gesundheit schädigt, spricht man vom Nocebo-Effekt.
 
Natürlich beruhen beide auf ein und demselben Mechanismus:


Bruce Lipton (S. 140-141, etwas gekürzt)
 
In der Medizin kann der Nocebo-Effekt ebenso mächtig sein wie der Placebo-Effekt. Wer ins Sprechzimmer eines Arztes spricht, sollte das wissen — und vor allem sollte der Arzt sich dieses Zusammenhangs stets bewusst sein. Wenn er einem Patienten sagt » Sie haben höchstens noch 6 Monate zu leben « (und wenn der ihm glaubt), wird das die Wahrscheinlichkeit, dass es tatsächlich so kommt, deutlich erhöhen. In der Sendereihe Placebo: Mind over Matter des Discovery Channel von 2003 wird über einige höchst interessante medizinische Fälle berichtet.
     
    Einer dieser Berichte handelte von einem Arzt aus Nashville. Clifton Meador hatte gut 30 Jahre lang den Nocebo-Effekt erforscht und war dabei 1974 auf einen Schuverkäufer inm Ruhestand gestoßen, Sam Londe, bei dem man Speiseröhrenkrebs diagnostiziert hatte — eine Krankheit, die damals als mit Sicherheit tödlich galt. Londes Krebs wurde behandelt, aber unter Medizinern war klar, dass er wiederkehren würde. Daher war niemand überrascht, als Londe wenige Wochen nach der Diagnose starb.
    Die Autopsie des Toten aber brachte eine große Überraschung: Man fand nur sehr wenig Krebs in seinem Körper, auf keinen Fall genug, um daran zu sterben: In seiner Leber und seiner Lunge fanden sich ein paar Flecken, aber keine überhaupt keine Spur von Speiseröhrenkrebs, der doch für seinen Tod verantwortlich sein sollte. Woran also war Londe gestorben, wenn nicht an Krebs? Starb er, weil er glaubte, dass er sterben würde?
     
    Dieser Fall verfolgte Meador noch drei Jahrzehnte nach Londes Tod. Ich dachte, er hätte Krebs. Er dachte, er hätte Krebs. Jeder um ihn herum dachte das. Haben wir ihm die Hoffnung genommen [und so seinen Tod verursacht]?

 


 
 
 
Und hier das allgemeine Prinzip:



Bruce Lipton, (S. 142-143, etwas gekürzt)
 
Unsere Überzeugungen — seien sie positiv oder negativ — beeinflussen nicht nur unsere Gesundheit, sondern jeden Aspekt unseres Lebens. Henry Ford hatte recht, als er sagte:
 
Ob du glaubst, du kannst es,
oder ob du denkst, du kannst es nicht
du wirst stets recht behalten.

 
Unsere Überzeugungen sind wie die Filter vor dem Objektiv einer Kamera — sie verändern unseren Blick auf die Welt, und unsere Biologie passt sich dem an, was wir sehen bzw. zu sehen glauben. Wenn wir anerkennen, dass unsere Überzeugungen solche Anpassung hervorrufen, dass sie also derart mächtig sind, haben wir den Schlüssel gefunden, unser Wohlbefinden in durchaus nennenswertem Umfang zu steuern.
 
Mit unserer genetischen Veranlagung müssen wir leben — unsere Meinung und Überzeugung aber  k ö n n e n  wir ändern.
 
In meinen Vorträgen verteile ich an dieser Stelle rote und grüne Plastikfilter an die Zuhörer. Jeder ist frei, den einen oder anderen zu wählen. Dann bitte ich sie, laut in den Raum zu rufen, ob sie die Bilder, die ich nun an die Wand projeziere, als friedlich oder angsterregend wahrnehmen.
  • Wer den roten » Überzeugungsfilter « gewählt hat, wird auf dem Dia das einladende Bild eines Häuschens, Blumen, und einen sonnigen Himmel sehen sowie die Botschaft » Ich lebe in Liebe und Frieden «.
     
  • Wer nun aber durch einen der grünen Filter sieht, wird eine bedrohlichen Himmel, Fledermäuse und Schlangen sowie ein dunkles Haus sehen mit der Aussage » Ich lebe in Angst «.

 
Es begeistert mich immer wieder, wie aus demselbem in roten und grünen Farben gehaltenen Bild die einen herauslesen » Ich lebe in Liebe und Frieden « während die anderen herauslesen » Ich lebe in Angst «.
 
Dann bitte ich die Teilnehmer. durch den jeweils anderen Filter zu schauen. Es geht mir darum, zu zeigen, dass wir  w ä h l e n  können, was wir sehen.
 
Sie, lieber Zuhörer, können in Frieden oder in Angst leben. Sie  h a b e n  die Wahl, zu was es kommt.
 
Wenn Sie sich für ein Leben voller Angst entscheiden, wird Ihre Gesundheit in dem Maße nachlassen, in dem Sie sich als Reaktion darauf hinter einen Schutzpanzer zurückziehen.
 
Lehrer wie Buddha und Jesus haben uns das schon seit Jahrtausenden erzählt. Jetzt ist es auch für die Wissenschaft nachvollziehbar:
 
 
Nicht unsere Gene,
 
sondern unsere Überzeugung — subjektive Wahrnehmungen — steuern unser Leben.

 
 
 
Leben in diesem Sinne umfasst unsere  u n b e w u s s t e n , aber auch all unsere  b e w u s s t e n  Reaktionen auf unsere Umwelt.


 


Östliche Philosophie sprach es so aus (war sich aber wohl nicht bewusst, dass man unter den » Gewohnheiten « hier  a u c h  das zu verstehen hat, was jede einzelne Zelle unseres Körpers sich angewöhnt hat):


Deine Überzeugungen werden deine  Gedanken
Deine Gedanken werden deine  Worte
Deine Worte werden dein  Handeln
Dein Handeln wird zu deinen  Gewohnheiten
Deine Gewohnheiten formen deine  Werte
Deine Werte werden zu deiner  Bestimmung



 

 Beitrag 0-30
Wie Zellen aus quantenchemischer Sicht funktionieren

 
 

 
Aufbau und Funktion biologischer Zellen

 
 
Jede Zelle besteht aus zwei wichtigen Teilen:
  • dem Zellkern: Er sicher das Überleben der Zelle.
  • und einer Zellmembran, d.h. einer Hülle, die sozusagen das Gehirn der Zelle darstellt: Die Membran empfängt Umweltsignale, so dass jene — mehr oder weniger modifiziert — den Zellkern erreichen und dort zur Produktion von Produktion von Proteinen führen.

Die Umweltsignale treffen auf Proteine (sog. Regulationsproteine), die bewirken, dass ein und dasselbe Gen gut 2000 verschiedene Varianten eines Proteins erzeugen kann.
 
 
 
Warum aber will die Zelle denn überhaupt Proteine erzeugen?
 
Jede Zelle besteht aus 4 Typen großer Moleküle: Polysacchariden (Zucker), Lipiden (Fett), Nukleinsäuren (DNS/RNS) und Proteinen.
 
Die Zellen brauchen alle, aber am wichtigsten und weit zahlreicher als alle anderen sind die Proteine: Unser Körper braucht etwa 100.000 verschiedene Proteine, um zu funktionieren (kann aber, potentiell, bis zu 25.000 • 2.000 = 50.000.000 verschiedener Varianten davon erzeugen. Wir werden noch sehen, warum.
 
Jedes Protein ist eine lange Kette wie über Kugelgelenke miteinander verbundener Moleküle, die Aminosäuren sind. Die meisten tragen positive oder negative Ladung, und so bewirken elektromagenische Kräfte, dass sie einander abstoßen oder anziehen, wodurch es dann dazu kommt, dass die gesamte Kette sich biegt und letztlich die Form eines Fadens hat, den man zusammengeknüllt hat. Da die beiden End-Aminosäuren des Fadens negative Ladung haben, sich also abstoßen, haben sie die Tendenz, sich möglichst weit voneinander zu entfernen, so dass die Kette keinen beliebig kompakten zusammengeknüllten Zustand annehmen kann.
 
Die genaue räumliche Verteilung der Anordnung der Aminosären in der Kette spiegelt einen ausgeglichenen Zustand seiner elekromagnetischen Ladungen wider (eine Art Gleichgewichtszustand des Protein-Moleküls, den die Biologen seine Konformation nennen.
 
Diese sehr gelenkigen, beweglichen Proteine stellen aufgrund ihrer Bauweise ein noch eindrucksvolleres Wunder dar, die ihre präzisen 3-dimensionalen Formen erlauben jedem Protein, sich mit anderen zu verbinden: Wenn sich Proteine begegnen, sie physisch und energetisch zu einander passen, verbinden sie sich bis schließlich etwas entsteht, das an das Getriebe oder Räderwerk einer alten Taschenuhr erinnert.
 
 
 
Doch zurück zu Zelle, Zellkern und Zellmembran:
  • Wird einer Zelle ihre Membran genommen, ist die Zelle sofort nur noch totes Material.
     
  • Nimmt man ihr jedoch den Zellkern, so kann sie noch bis zu einem Monat weiter Umweltsignale aufnehmen und verarbeiten, stirbt danach aber dennoch, denn ohne Zellkern
     
    • kann sie sich nicht teilen (also fortpflanzen)
       
    • und kann defekt gewordene Proteine auch nicht mehr durch neue ersetzen (denn nur die Gene in der RNA können das, die RNA aber residiert im Zellkern als » Arbeitskopie « der DNA.
       
    • Die DNA wiederum hat man als » Sicherungskopie der Erbinformation « zu sehen. Kopien in diesem Sinne sind logische Kopien, denn chemisch unterscheiden sich DNA und RNA sehr wohl.

 
Neue wissenschaftliche Erkenntnisse zeigen, dass es  U m w e l t s i g n a l e  sind, die Protein-Erzeugung anstoßen (indem sie die Regulationsproteine in der Schutzhülle um die DNS beeinflussen, die DNA dann Information an die RNA weiterleitet und deren Gene dann neue Protein-Moleküle erzeugen).
 
Inzwischen gilt als gesichert, dass ein sehr viel dünnerer Fluss von Information auch in umgekehrter Richtung stattfindet, so dass die RNS gelegentlich auch den genetischen Code, die DNA, umschreiben wird. Howard Temin, der das in den 60-er Jahren entdeckte, wurde zunächst verlacht, bekam aber später den Nobelpreis für eben diese Entdeckung ( der reversiven Transkriptase, wie man das heute nennt ).
 
Reversive Transkriptase erlangte traurige Berühmtheit, als klar wurde, dass die RNS des AIDS-Virus über diesen Weg die DNS der infizierten Zelle manipuliert.
 
 
Genetik beschreibt den Einfluss der DNS, Epigenetik den Einfluss der Umweltsignale auf die Produktion der Proteine.
 
Da ankommende Umweltsignale durch die Regulationsproteine modifiziert werden, ist jedes neu produzierte Protein-Molekül in der nun konkret entstehenden Variante Funktion aller drei an seiner Produktion beteiligten Instanzen:
  • dem ankommenden Signal (das ein Molekül oder ein Boson sein kann),
  • dem Regulationsprotein (das mit dem Signal kollidiert) und
  • dem Gen (das zusammen mit dem neuen Zustand des Regulationsproteins zur Bildung des Proteins führt, welches die Zelle weiter entwickelt).
Ein und dasselbe Gen kann so zur Bildung von gut 2000 unterschiedlichen Varianten eines Proteins führen.
 
Damit wird klar:
 
Wie ein Körper sich fortentwickelt
 
bestimmt neben seinen Genen ganz wesentlich auch die  U m w e l t , in der er lebt
 
( d.h. nahezu alles, was daraus mit seinen Zellen in Berührung kommt )

 
 
Quelle: Lipton, B. (2006): Intelligente Zellen, Kap. 2 (S. 49-74)
 
 
 
DNS-Moleküle sind fadenförmig und bestehen aus vier stickstoff-haltigen Basen: A, T, C, G = Adenin, Thymin, Cytosin, Guanin. Die Sequenz, in der diese Basen auftreten, bestimmt die Sequenz der Aminosäuren in jedem einzelnen Protein. Zudem sind die DNS-Fäden in Segmente unterteilt, die man Gene nennt: Kopiervorlage für je ein bestimmtes Protein.
 
Nebenbei: Selbst die erst nach der Jahrtausendwende entstande Literatur zum Umfang des meschlichen Genoms, ist sich keineswegs darüber einig, um wie viele Gene genau es sich denn hierbei eigentlich handelt. Sicher scheint jetzt nur zu sein, dass kaum 25.000 sind (also viel weniger als die rund 150.000, die man noch Mitte der 90-er Jahre erwartet hatte).
 
Der Nobelpreisträger David Baltimore, einer der weltweit angesehensten Gentechniker überhaupt, schrieb 2001: F a l l s  im menschlichen Genom nicht noch viele Gene gibt, die unsere Computer bislang nicht erkennen konnten, müssen wir zugeben, dass wir unsere im Vergleich zu Würmern und Pflanzen zweifellos größere Komplexität nicht durch zusätzliche Gene gewonnen haben ...
 
Noch erstaunlicher [Bruce Lipton: Intelligente Zellen (2006) S. 64-65]:
  • Der primitive Fadenwurm — der ein aus exakt 969 Zellen bestehender, schnell wachsender, sich rasch vermehrender Organismus mit einem Gehirn aus nur etwa 300 Zellen ist — verfügt über ein Genom aus etwa 24.000 Genen.
     
  • Die Fruchtfliege aber, die einen weit weniger primitiven Organismus darstellt, hat ein nur halb so umfangreiches Genom.

Wir müssen daraus wohl schließen, dass die Komplexität und Entwicklungsstufe, die einem biologischen Wesen zugeordnet sind, kaum etwas mit der Zahl G seiner Gene zu tun hat. Allerdings korrespondiert die Zahl B der Basenpaare, die sich in einem Genom finden, auch nicht unbedingt mit der Zahl der Gene: Nach Wikipedia ist
  • ( G, B ) = ( 30.907,    200.000.000 )  beim gemeinen Wasserfloh, aber
  • ( G, B ) = ( 22.500, 3.000.000.000 )  beim Menschen


 

 Beitrag 0-25
Wie es zu biologischer Intelligenz, Leben und Bewusstsein kommt

 
 

 
Wie es zu biologischer Intelligenz, Leben und Bewusstsein kommt

 
 
In seinem Buch Intelligente Zellen — Wie Erfahrungen unsere Gene steuern beschreibt der Zellbiologe Bruce Lipton
  • welche Art von Intelligenz allein schon jeder einzelnen Zelle biologischer Wesen innewohnt,
  • nach welchem Prinzip sie funktioniert
  • und auch, dass die Natur sie nicht im Zellkern, sondern in der Zellmembran implementiert:
     
Die Membran ist — ebenso wie ein Chip im Computer — ein flüssiger, kristalliner Halbleiter mit Toren (bei Zellmembranen sind das Rezeptor-Proteine) und Kanälen (das sind spezielle Proteine, die es der Zelle erlauben, Nährstoffe aufzunehmen und Abfallstoffe auszuscheiden).
 
Lipton skizziert dann auch, wie es zu Leben, Bewusstsein, Gehirn und zunehmend mehr Intelligenz kommt:


Bruce Lipton (S. 126-129, etwas gekürzt)
 
In den vorangehenden Kapiteln wurde gezeigt,
  • dass schon die Membran jeder Zelle gewisse Intelligenz enthält,
  • dass die Membran nach Struktur und Funktionsweise einem Computer-Chip vergleichbar ist
  • und wie die Funktionen der Zellen infolge molekularer Bewegungen des "Protein-Gewebes" aufgerufen werden.

Die Bewegung der Protein-Bausteine wird durch Umweltsignale ausgelöst, wobei die Umweltsignal-Stoffe (aus der Umgebung der Zelle kommend) sich mit den in der Zelle existierenden verhaltenserzeugenden zytoplasmischen Proteinen an der Zellmembran treffen: Die Membran empfängt Reize und erzeugt in Reaktion auf jedes solche Signal eine angemessene lebenserhaltende zelluläre Reaktion. In diesem Sinne kann die Zellmembran als » Gehirn « der Zelle gesehen werden, dessen physikalische Untereinheiten die integralen Rezeptor- und Effektor-Proteine der Membran sind (IMPs).
 
Wo ein Rezeptor-Protein R einen Reiz an ein Effektor-Protein E weiterleitet, startet das einen reaktionserzeugenden Protein-Prozess.
 
Jede Zelle reagiert auf in dieser Weise auf eine Vielzahl grundlegender » Wahrnehmungen « in ihrer Welt. Sie bemerkt z.B. die Anwesenheit von Kalium, Calcium, Sauerstoff, Glukose, Histamin, Östrogen, Gift, Licht oder was auch immer für sie einen Reiz darstellen kann.
 
Die gleichzeitige Reaktion zehntausender solch reflexiver Wahrnehmungsschalter in der Membran, deren jeder einem bestimmten Umweltsignal zugeordnet ist, erzeugen gemeinsam das komplexe Verhalten einer lebenden Zelle.
 
 
Während der ersten 3 Milliarden Jahre des Lebens auf unserem Planeten bestand die Biospähre nur aus freilebenden Einzellern wie Bakterien, Algen und Protozäen. Traditionell betrachten wir diese Lebensformen als Einzelwesen, doch inzwischen weiß man, dass individuelle Zellen bestimmte Signalmoleküle freisetzen können, die das Verhalten anderer Organismen beeinflussen. Dies führt zu einem koordinierten Verhalten einer verstreuten Population einzelliger Organismen. Derartige Bildung primitiver Gemeinschaften verbesserte die Überlebenschancen der Einzeller.
     
    Die einzelligen Schleimpilz-Amöben sind gutes Beispiel dafür, wie Signalmoleküle zur Bildung einer Gemeinschaft führen: Sie leben vereinzelt im Boden und suchen nach Nahrung. Wenn jene aufgebraucht ist, erzeugen diese Einzeller einen Überschuss eines Stoffwechselproduktes namens cAMP, das sie an ihre Umgebung abgeben. Wenn diese freigesestzen Moleküle sich mit cAMP-Rezeptoren anderer Schleimpilz-Amöben verbinden, erzeugt es in ihnen ein Aggregationsverhalten, so dass ein mehrzelliger Körper (Fruchtkörper genannt) entsteht. Er stellt das Reproduktionsstadium des Schleimpilzes dar.
     
    Während der Hungerperiode teilen die alternden Zellen ihre DNS miteinander und erzeugen eine nächste Generation. Die jungen Amöben überdauern zunächst als inaltive Sporen. Sobald es aber wieder Nahrung gibt, bilden die Nahrungsmoleküle das Signal der Aktivierung und eine neue Population von Einzellern beginnt ihr Dasein.

Mir geht es hier vor allem darum, dass einzellige Organismen in einer Gemeinschaft leben, in der sie ihre » Wahrnehmung « einander mitteilen und ihr Verhalten koordinieren, indem sie Signalmoleküle freisetzen. Das cAMP war eine der evolutionär frühesten Formen eines regulativen, verhaltensgesteuerten Sekrets.
 
Lange Zeit nahm man an, die grundlegenden menschlichen Signalmoleküle (allen voran Hormone, Neuropeptide, Zytikine und Wachstumsfaktoren) seinen erst im Zuge der Bildung mehrzelliger Lebensformen entstanden. Die jüngste Forschung aber hat gezeigt, dass sich schon die Einzeller in den frühesten Stufen der Evolution solcher Botenstoffe bedienten.
 
 
Im Laufe der Evolution maximierten die Zellen die Zahl der Wahrnehmungsproteine (der IMPs) in der Membran: Um mehr wahrzunehmen und damit die Wahr­scheinlichkeit ihres Überlebens zu erhöhen, sammelten sich die Zellen zunächst in Form von Kolonien und später in Form hochorganisierter Zellverbände (die dann Organe und Gewebe des Körpers bilden). In gemeinschaftlichen Organisationsformen kommt es zur Spezialisierung der Zellen: Die intelligente Informationsverarbeitung der Zellmembran wird von den spezialisierten Zellen des Nerven- und des Immunsystems übernommen.
 
 
Erst vor etwa 700 Millionen Jahren erkannten die Zellen einen Vorteil darin, sich zu eng geknüpften mehrzelligen Gemeinschaften zusammenzuschließen, die wir als Pflanzen und Tiere bezeichnen. Die koordinierenden Signalmoleküle der freilebenden Einzeller behielten auch in diesen Gemeinschaften ihre Funktion und Rolle. Die Zellgemeinschaften aber konnten — durch Regulierung des Freisetzens und der Verteilung dieser steuernden Signalmoleküle — ihre Funktionen koordinieren und so als  e i n  Wesen agieren.
 
In Mehrzellern, die noch kein Nervensystem ausgebildet haben, implementieren die Signalmoleküle eine Art elementares "Denken", indem sie Information zwischen den Zellen transportieren. Nur in solchen Organismen nimmt noch wirklich  j e d e  Zelle sämtliche Reize der Umgebung wahr und reagiert darauf zielgerichtet.
 
Als die Zellgemeinschaften aber größer und komplexer wurden, musste eine neue Lösung gefunden werden: In zunehmend komplexeren Zellverbänden kann nicht jede Zelle einfach tun und lassen, was sie will — wirklich funktionieren kann die Gemeinschaft nur, wenn sich alle Beteiligten auf einen gemeinsamen Plan einlassen. Ein Grund hierfür ist, dass jede Zelle nur wahrnehmen kann, was in ihrer unmittelbaren Umgebung an Reizen vorhanden ist, sie hat keine Wahrnehmung dessen, was weiter entfernt oder gar außerhalb des Organismus abspielt. Die komplexen Verhaltenkontrollen, die ein mehrzelliger Organismus braucht, mussten Aufgabe zentraler Informationsverarbeitung werden. Dies führte zu einer Spezialisierung, die schuf, was man heute Nervenzellen nennt.
 
Auch entstand eine zentrale Verarbeitungsstelle: das Gehirn. Es erhielt höchste Wahrnehmungsautorität: Jede Zelle muss sich ihr beugen.
 
Dieser wichtige Punkt sollte berücksichtigt werden, wenn wir die Zellen unserer Organe und Gewebe für unseren Gesundheitszustand verantwortlich machen. Er erklärt, warum positives oder negatives Denken unsere Gesundheit fördern oder zerstören kann ( Placebo- und Nocebo-Effekt ).
 
 
In höheren, bewussteren Lebensformen entwickelt das Gehirn eine Spezialisierung, die es dem Organismus ermöglicht, sich auf seine regulatorischen Signale einzuschwingen. Dieses sog. limbische System übersetzt die chemischen Kommunikationssignale in Empfindungen, die von wirklich allen Zellen der Gemein­schaft wahrgenommen werden.
 
Wegen seiner Fähigkeit, den Fluss aller verhaltensregulierenden Signale in der Zellgemeinschaft zu koordinieren, war das limbische System ein großer evolutionärer Fortschritt. Je effizienter sich das innere Signalsystem machte, desto größer konnte das Gehirn werden. Auch entwickelten die mehrzelligen Organismen immer mehr Zellen, die auf eine zunehmend größer werdende Zahl aus der Umwelt kommender Nachrichten reagieren konnten.
 
Eine einzelne Zelle kann nur auf einfache sensorische Nachrichten (wie etwa rot, rund, aromatisch, etc.) reagieren. Erst die zusätzliche Geisteskraft vielzelliger Lebewesen ist in der Lage, diese einfachen Empfindungen zu solchen höherer Komplexität zusammenzusetzen (um z.B. einen Apfel als solchen zu erkennen).
 
Evolutionär erlerntes, grundlegendes Reflexverhalten wird durch genetisch festgelegte Instinkte an die Nachkommen vererbt. Die Evolution des Gehirns mit seiner zunehmenden Anzahl von Neuralzellen bot dem Organismus die Chance, sich nicht nur auf instinktives Verhalten zu verlassen, sondern auch aus Lebenserfahrung zu lernen. Neues Reflexverhalten entsteht durch Konditionierung. Das klassische Beispiel dafür sind Hunde, denen Pawlow beibrachte, beim Klingeln einer Glocke zu geifern, da sie gelernt hatten, dass solches Klingeln die unmittelbar bevorstehende Ankunft von Futter bedeutete. Dies war ein eindeutig unbewusstes, erlerntes Reflexverhalten.
     
  • Es gibt sehr einfache Reflexverhalten (wie etwa das Ausschlagen des Beines, wenn das Reflexhämmerchen aufs Knie schlägt),
  • aber auch außerst komplexes Reflexverhalten (dann etwa, wenn wir mit 100 km/h bei dichtem Verkehr über die Autobahn fahren und gleichzeitig tief in Gedanken oder tief in ein Gespräch verwickelt sind).
Konditionierte Verhaltensweisen können so anspruchsvoll sein, wie sie wollen: Man braucht dabei dennoch  n i c h t  zu denken, denn die neuralen Verbindungen sind durch einen vorausgegangenen Lernprozess » fest verdrahtet «, so dass immer gleiche Reaktion sichergestellt ist.
 
Man nennt solche Reaktionsmuster » Gewohnheiten «.
 
Bei niedrigen Tieren dient das gesamte Gehirn der rein gewohnheitsmäßigen Reaktion auf Reize. Pawlows Hunde sabbern reflexartig, nicht absichtlich.
 
Das Unterbewusstsein handelt  i m m e r  reflexartig: Es unterliegt nicht der Vernunft oder dem Denken.
 
Menschen und höher entwickelte Tiere haben einen besonderen Bereich des Gehirns entwickelt, mit dem sie denken, planen und  b e w u s s t e  Ent­scheidungen treffen können: die vordere Großhirnrinde. Sie ist offenbar auch der Sitz des selbst-bewussten Denkvermögens — eine Art Sinnesorgan, mit dem wir uns selbst beobachten, unsere Gefühle überwachen können und auf langfristige Erinnerungen zurückgreifen können.
 
Die Fähigkeit des Bewusstseins, die vorprogrammierte Verhaltensweisen des Unterbewusstseins zu überschreiben, ist Grundlage unseres freien Willens.
 
Wenigstens beim Menschen ist die Lernfähigkeit des Gehirns so weit entwickelt, dass wir Wahrnehmungen — statt sie selbst zu erkennen — auch von unseren Lehrern übernehmen können. Sie verankern sich in unserem Gehirn und werden zu unser eigenen » Wahrheit «. Doch was, wenn unser Lehrer im Irrtum war (wir also mit Fehlinformation gefüttert werden)? Nun: Das Unterbewusstsein reagiert auf Reize gemäß seiner Programmierung und ist nicht in der Lage, sich über langfristige Konsequenzen Gedanken zu machen. Es arbeitet, wie eine Maschine. Unsere von anderen übernommene Fehleinschätzung zu überprüfen sieht es nicht vor. Und so kommt es, dass wir uns in manchen Dingen immer wieder unangemessen verhalten.
 
Kurz: Unsere Reaktionen auf Umweltreize werden durch unsere Wahrnehmungen gesteuert, doch nicht alle unserer » Wahrnehmungen « sind zutreffend. Daher wäre es richtiger, die steuernde » Wahrnehmung « eine Überzeugung zu nennen:
 
 
Was uns steuert, sind demnach  Ü b e r z e u g u n g e n .

 

 


 
Wirklich  ü b e r z e u g t  zu sein ist wichtig,
 
denn nur rein formal positiv zu denken — darauf weist Lipton auch hin — reicht nicht:


Lipton (S. 166-171, etwas gestrafft)
 
Die Evolution der höheren Säugetiere hat eine Wahrnehmungsebene hervorgebracht, die wir Selbstbewusstsein nennen. Sie stellt einen wichtigen evolutionären Fortschritt dar, denn unterbewusstes Denken (sozusagen unser » Autopilot «) ist fest konfiguriert, wohingegen unser bewusstes Denken (vergleichbar mit maunu­eller Steuerung eines Autos) sich dynamisch, d.h. von Fall zu Fall neu, konfiguriert. Wichtige Folge hiervon ist, dass
  • bewusstes Denken pro Sekunde nur etwa 40 von außen kommende Reize verarbeiten kann,
     
  • wohingegen unser Unterbewusstsein bis zu 20 Millionen pro Sekunde verarbeitet (als etwa 500.000 mal schneller ist).

Die beiden Arten unseres Denkens arbeiten unabhängig voneinander, was zur Folge hat, dass sich bewusstes Denken auf etwas konzentrieren kann (wie etwa auf die Party, zu der Sie am Freitag gehen wollen), während gleichzeitig Ihr Unterbewusstsein dafür sorgt, dass Sie Ihr Auto auch in dichtem Verkehr sicher und unfallfrei steuern.
 
Nur das  b e w u s s t e  D e n k e n  verfügt über die Möglichkeit, auf Umwelteinflüsse auch kreativ zu reagieren. Insbesondere kann es durch Selbstreflexion sein Verhalten beobachten, während es abläuft, und es kann vorprogrammiertes Verhalten unterbrechen und neue Reaktionen entwickeln. Dieser Fähigkeit wegen ist bewusstes Denken die Quelle unseres freien Willens.
 
Beide Denkarten zusammen sind ein wirklich phänomenales Gespann: Das bewusste Denken ist unser Selbst, die Quelle unserer Kreativität und unseres freien Willens. Doch wer kümmert sich in der Zwischenzeit um das Tagesgeschäft? Das Unterbewusstsein. Und wie geht es diesen Geschäften nach? Genau so, wie es programmiert wurde.
 
 
Das Verhalten, das unser Unterbewusstsein an den Tag legt, entspricht nicht immer unseren Zielen, denn die meisten unserer grundlegenden Verhaltensweisen wurden durch die Beobachtung, vor allem auch durch die  u n b e w u s s t e  (nicht willensgesteuerte) Beobachtung anderer Menschen programmiert. Dies ist der Grund, warum viele Menschen überrascht sind, wenn sie hören, dass sie » genau so, wie ihre Mutter oder ihr Vater « reagieren (wie die Menschen also, durch deren Vorbild sie programmiert wurden). Die Vergeblichkeit unseres Kampfes mit unserem Unterbewusstsein ist eine schwierige Botschaft, denn die meisten von uns haben schon früh gelernt, dass ein starker Wille etwas Bewunderswertes ist. Also versuchen wir immer wieder, unser unbewusstes Programm zu überrumpfen. Diese Bemühungen aber treffen auf Widerstand, da die Zellen verpflichtet sind, dem unterbewussten Programm zu gehorchen.
 
Der Kampf unseres bewussten Willens gegen die uns unbewusste Programmierung kann zu ernsten neurologischen Störungen führen.
    Im auf einer wahren Geschichte beruhenden Film Shine wird das thematisiert: Der australische Konzertpianist David Helfgott trotzt seinem Vater, indem er nach London geht, um Musik zu studieren. Sein Vater aber — ein Holocaust-Überlebender — hat das Unterbewusstsein seines Sohnes dahingehend programmiert, dass die Welt ein unsicherer Ort sei, der lebensgefährlich sein kann. Der Vater besteht deswegen darauf, dass es am sichersten sei, möglichst nahe bei der Familie zu bleiben. Helfgott aber, der wusste, dass er das Zeug zu einem großartigen Pianisten hatte, versuchte sich vom Vater zu lösen, um seinen Traum wahr zu machen.
     
    In London spielt Helfgott in einem öffentlichen Musikwettbewerb das besonders schwierige Dritte Klavierkonzert von Rachmaninow. Der Film zeigt den Konflikt zwischen seinem bewussten Denken (das erfolgreich sein will) und seinem Unterbewusstsein (das es für lebengefährlich hält, sichtbar und bekannt zu werden). Helfgotts Bewusstsein erzwingt sich die Kontrolle, bis er — nun schweißüberströmt — den letzten Ton gespielt hat. Dann wird er ohnmächtig, weil ihn der Kampf mit seiner unbewussten Programmierung zu viel Energie gekostet hat. Sein Sieg über sein Unterbewusstsein kostet ihn einen hohen Preis: Als er wieder zu sich kommt, ist er geistesgestört.
Zu den konventionellen Methoden, mit destruktivem Verhalten umzugehen, gehören Medikamente und Gesprächstherapien. Neuere Ansätze legen uns nahe, unsere Programmierung zu ändern, weil man erkannt hat, dass dem unterbewussten Tonband mit Vernunft nicht beizukommen ist. Diese Methoden bauen auf Erkentnissen der Quantenphysik auf und lassen sich unter dem Begriff Energetische Psychiologie zusammenfassen, ein aufkeimendes neues Feld, das auf der Neuen Biologie beruht.
 



Lipton (S. 126-126, nur der Hauptgedanke)
 
Bevor ich mich weiter über die unglaubliche Kraft unserer Gedanken und meine Studien über die Zusammenhänge zwischen Körper und Geist auslasse, möchte ich noch eines klarstellen:
 
Ich bin keineswegs der Meinung, dass positives Denken immer körperliche Heilung bringt. Um Kontrolle über seinen Körper und sein Leben zu haben, bedarf es positiver  Ü b e r z e u g u n g  . Wenn Menschen bewusst nur so tun, als dächten sie positiv, schwächen sie sich dadurch eher, da ihnen dann ja bewusst ist, dass sie alle Möglichkeiten, Verbesserung ihres Lebens zu erreichen, erschöpft haben.
 
Da das Unterbewusstsein nun aber etwa 500.000 mal mehr neurologische Verarbeitungskapazität hat als das Bewusstsein, muss uns klar sein, welches der beiden Programme gewinnen wird: auf jeden Fall unser Unterbewusstsein (bei nur scheinbar positivem Denken also der Nocebo-Effekt ).
 



 

 Beitrag 0-27
Wie auch Geist den Körper steuert — und sich dabei durchsetzen kann

 
 

 
Wie das zentrale Nervensystem die Reaktion der Körperzellen auf Umweltreize korrigieren kann
 
kurz:
 
Wie der Geist den Körper steuert

 
Bruce Lipton erklärt es so:


Lipton (S. 134-135, gekürzt)
 
Die Erkenntnis, dass tiefe Überzeugungen Einfluss auf die Steuerung biologischer Prozesse nehmen, gewann ich aufgrund meiner Studien mit geklonten Endo­thelialzellen (Zellen aus der Innenwand der Blutgefäße): Die Zellen meiner Kulturen veränderten ihr Verhalten in Abhängigkeit der aus ihrer Umwelt kommenden Reize:
  • Wenn ich den Zellen Nährstoffe gab, bewegten sie sich darauf zu.
  • Wenn ich aber ihre Umgebung vergiftete, zogen die Zellen sich von diesem Reiz zurück, so als ob sie diese Moleküle fürchteten.

Meine Forschung konzentrierte sich auf die » Wahrnehmungsschalter « in der Membran der Zellen, die den Übergang vom einen zum anderen Verhalten steuern. Der wichtigste Schalter, mit dem ich mich befasste, hat einen Protein-Rezeptor, der auf Histamin reagiert (das der Körper als eine Art Alarmsystem einsetzt). Ich fand zwei Arten von Schaltern, H1 und H2, die auf das gleiche Histaminsignal reagieren:
  • Wenn aktiviert, rufen die H1-Schalter eine Schutzreaktion hervor ähnlich der der Zellen in den Kulturschalen mit vergifteter Umgebung.
  • Die H2-Histamin-Rezeptoren aber rufen einen Wachstumsimpuls hervor.

Nun ist es aber so, dass das Signal Adrenalin, mit dem der Körper auf allgemeine Notsituationen reagiert, ebenfalls zwei verschiedene, dieses Signal erkennende Rezeptoren hat: Alpha und Beta genannt. Die Andrealin-Rezeptoren führten zum gleichen Zellverhalten wie es bei den Histamin-Rezeptoren zustande kam:
  • Wenn in einem IMP-Schalter ein Alpha-Adrenalin-Rezeptor sitzt, löst die Anwesenheit von Adrenalin eine Schutzreaktion aus.
  • Wenn dort aber eine Beta-Andrealin-Rezeptor sitzt, aktiviert das gleiche Signal eine Wachstumsreaktion [ Lipton, Bensch, et al, 1992 ].

Wirklich aufregend aber wurde es, als ich meinen Zellkulturen gleichzeitig Histamin  u n d  Adrenalin zufügte: Ich konnte feststellen, dass die Adrenalinsignale (die im Körper vom Zentralnervensystem freigesetzt werden) stärker sind als die lokal freigesetzten Histaminsignale. Mit anderen Worten: Die Zellen in unserem Körper sind unterschiedlich einflussreich, wenn es darum geht, auf Signale zu reagieren.
 
Ich fand diese Beobachtung äußerst aufregend, da ich sie so interpretiere, dass der Geist — über das Adrenalin des zentralen Nervensystems — stärkerer Wirkung fähig ist als der Körper, dem das lokale Histaminsignal entspricht.
 
 
Ich wollte die Konsequenzen dieser Entdeckung in meinem Forschungsbericht erläutern, doch meine Kollegen traf fast der Schlag angesichts der Vorstellung, dass in einem zellbiologischen Bericht etwas über die Beziehung zwischen Geist und Körper stehen sollte. Sie wollten es nicht, da der Geist kein anerkanntes biologisches Modell abgibt. Biologen sind Newtonianer: Für sie zählt nur, was aus Materie besteht. Also fügte ich nur einen kryptischen Kommentar über die Bedeutung dieser Studie hinzu, ohne zu erklären, worin die Bedeutung zu sehen ist.
 
Mein Standpunkt: Die herkömmliche Überzeugung der Biologen, dass Geist — als örtlich scheinbar nicht lokalisierbare Energie — keine Wirkung auf Materie haben könne, ist eine erlernte Überzeugung, die nicht mehr haltbar erscheint für jeden, der die Erkenntnisse der Quantenphysik ernst nimmt. Biologen und Schul­mediziner weigern sich noch, das zur Kenntnis zu nehmen.
 


Referenzierter Forschungsbericht:
  • Lipton, Bensch, et al. (1992): Histamine-modulated Transdifferentiation of Dermal Microvascular Endothelial Cells, Experimental Cell Research 199: 279-291


 

 Beitrag 0-29
Über die — derzeit wahrscheinlichste — wahre Natur aller biologischen Organismen

 
 

 
Zur wahren Natur aller biologischen Wesen

 
 
Wie sich aus durch erarbeiteten Beobachtungen und Thesen als am wahrscheinlichsten ergibt, muss jeder biologische Organismus — angefangen bei einer einzigen Zelle bis hin zu Pflanzen, Tieren und schließlich Menschen — als eine Summe von Wellen im Sinne der Quantenmechanik verstanden werden.
 
 
Hieraus folgt, dass dieses Wesen
  • wenigstens in seinen nicht-materiellen Teilen weit länger existieren kann als sein Körper,
     
  • es in ganz extremen Ausnahmefällen sogar mehrfach mit gleicher biologischer Identität in körperliche Existenz hineingeboren werden kann
     
  • vor allem aber, dass es — wie schwach auch immer — über das gesamte Universum hinweg verteilt existieren kann.

 
Warum man von der Gültigkeit der ersten beiden dieser Aussagen ausgehen sollte sollte, wird gut erklärt auf Seite » Bruce Liptons Erkenntnisse und seine Schlussfolgerung daraus «.
 
Die dritte Eigenschaft aber wäre dann einfach nur triviale Folgerung gut gesicherter quantenphysikalischer Erkenntnisse nämlich:
  • Jede Welle breitet sich um die Stelle herum, an der sie erzeugt wurde, mit Lichtgeschwindigkeit kugelförmig ins gesamte Universum aus.
     
  • Wellenpakete, unter denen man ja die Summe sehr vieler Wellen versteht, haben i.A. nur an einer einzigen, stark lokalisierten Stelle im Universum wesentlich von Null verschiedenen Wert.
     
  • Dies impliziert, dass auch  n u r  dort eine irgendwie nennenswerte Wahrscheinlichkeit dafür besteht, dass dieses Paket von Wellen — das Wesen also, von dem wir sprechen — mit anderen Wellenpaketen so kollidiert, dass es zum Zeitpunkt dieser Kollision beobachtet und durch sie modifiziert wird.

 
Wichtige Folgerung aus all dem wäre dann auch, dass biologische Organismen, wirklich  g e n a u  betrachtet, kaum zueinander disjunkt sein können (aber auch das wissen wir ja schon: Wir brauchen da ja nur an uns selbst und an alle in unserem Körper lebenden Bakterien und/oder Viren zu denken, von einzelnen körpereigenen Zellen mal ganz abgesehen).
 
Wer Bruce Liptons Buch Intelligente Zellen gelesen hat, wird dann auch nicht mehr erstaunt darüber sein, dass jede Gemeinschaft biologischer Organismen — etwa die Gemeinschaft sämtlicher auf dieser Erde lebenden Menschen — ebenfalls biologischer Organismus im angenommenen Sinne ist. Kein Wunder also, dass die Evolution dieser speziellen Gemeinschaft durch die gleichen Naturgesetze getrieben wird, wie schon lange vor ihr (und natürlich auch jetzt noch) die Evolution großer biologischer Zellverbände ganz allgemein.

 

 Beitrag 0-127
Wie Genomvergleich uns den Weg der Evolution zu zeigen in der Lage ist

 
 

 
Was Genom-Vergleich uns zeigt

 
 
Seitdem der Mensch gelernt hat, sein eigenes Genom — ja sogar das Genom aller Lebewesen — zu kartieren, lässt sich durch den Vergleich der Genome auch der lange Weg der Evolution recht gut nachverfolgen.
 
Darwin (der Mitte des 19. Jahrhunderts lebte), hatte noch keine Möglichkeit, herauszufinden, über welchen Mechanismus Evolution durch Selektion möglich wird. Wir aber sehen heute, dass die Varianten, die er postulierte, durch natürlich auftretende Mutationen der DNA bewerkstelligt werden.
 
    Sie treten schätzungsweise mit einer Rate von 1 : 100 Millionen Basenpaaren pro Generation auf. Da jeder von uns zwei Genome zu je 3 Milliarden Basenpaaren hat — geerbt von Vater und Mutter — ergibt sich so, dass jeder von uns einzigartig wird durch etwa 60 Mutationen, die bei seinen Eltern noch nicht vorhanden waren.

 
Die meisten Mutationen treten in unwichtigen Teilen des Genoms auf und haben daher wenig oder gar keine Auswirkung. Der Grund hierfür: Mutationen in den wichtigeren Teilen des Genoms sind i.A. schädigend und werden schnell aussortiert, da sie die Fähigkeit zur Reproduktion beeinträchtigen.
 
Zu seltenen Gelegenheiten aber tritt eine Mutation auf, die einen leichten selektiven Vorteil bedeutet. Diese neue "Schreibweise" der DNA wird dann eine geringfügig höherer Wahrscheinlichkeit haben, an die Nachkommen weiter gegeben zu werden. Über sehr lange Zeiträume hinweg kann sie sich dann in allen Mitgliedern der Spezies durchsetzen und schließlich zu größeren Veränderungen der einen oder anderen biologischen Funktion führen.
 
    Sozusagen im Zeitraffer-Tempo kann man solche Evolution beobachten in Form schneller Variation krankheitserregender Viren, Bakterien und Parasiten, durch die es zu schneller Ausbreitung von Epidemien kommen kann. So sind z.B. die schnellen evolutionären Veränderungen des HIV-Virus, der AIDS verursacht, zu einer großen Herausforderung für die Entwicklung wirksamer Impfstoffe geworden.

 
Genomvergleich führt zur Erkenntnis, dass jedes Paar von Arten einen gemeinsamen Vorfahren hat, beispielsweise der Mensch und die Maus, deren Genome heute mit besonders hoher Genauigkeit bestimmt sind:
 
    Ihr Inventar protein-kodierender Gene ist bemerkenswert ähnlich, und auch die Länge der beiden Genome unterscheidet sich nur wenig. Auch die Ordnung der Gene — die Reihenfolge also, in der sie nacheinander auftreten — ist in wichtigen Abschnitter der DNA dieselbe, obgleich dazwischen durchaus mehr oder wenier nicht-kodierender Gene — sog. Junk DNA, Folgen sog. ancient repetitive elements (AREs) — zu finden sein kann. Sie entstammen "springenden Genen", die sich kopieren und an diversen anderen Stellen im Genom einfügen können, meistens ohne funktionelle Folgen. Genome von Säugetieren sind übersät mit solchen AREs, rund 45% des menschlichen Genoms bestehen aus solchem gegentischen Strandgut.
     
    Wenn man nun längere Abschnitte des Menschen- und Mausgenoms so ausrichtet, dass sich entsprechende Folgen kodierender Gene neben einander liegen, findet man häufig auch zwei identische AREs an etwa derselben Stelle, und weiß daher, dass sie als Mutation in einem gemeinsamen Vorfahren von Mensch und Maus entstanden sein müssen.

 
Die der Spezies Mensch am nächsten verwandten Arten sind Schimpansen (gefolgt von Orang-Utan und Makake): Die Genome von Schimpanse und Mensch sind, von Junk DNA mal abgesehen, zu 96% gleich. Man lese dazu auch die Meldung: Nur der Mensch verfügt über ein spezielles Gen, das nach Meinung der Forscher dafür verantwortlich sein könnte, dass wir sprechen können. Es sorgt für die Produktion einer speziellen Nukleinsäure, der sogenannten microRNA miR-941.
 


Francis S. Collins (2006):
 
Neuerdings interessiert man sich sehr für das Gen FOXP2, welches die Sprachentwicklung zu beeinflussen scheint:
 
Die Geschichte von FOXP2 begann mit der Beobachtung einer Familie in England, deren Mitglieder über drei Generation starke Schwierigkeiten beim Sprechen hatten. Sie hatten Schwierigkeiten, Worte entsprechend grammatikalischen Regeln anzuordnen oder komplexe Satzstrukturen zu erfassen. Die Muskeln ihrer Münder, Gesichter und Kehlköpfe hatten zu kämpfen, sich so zu bewegen, dass bestimmte Laute hervorgebracht wurden.
 
Mit schier unglaublicher genetischer Spürarbeit fand man heraus, dass bei den betroffenen Mitgliedern dieser Familie nur ein einziger Buchstabe des DNA-Codes im FOXP2-Gen auf Chromosom 7 falsch war. Die Tatsache, dass ein so kleiner Fehler solch tiefgreifende Sprachschwächen verursacht, ansonsten aber keine Folgen hat, war erstaunlich.
 
Noch erstaunter aber war man, als sich zeigte, dass die Sequenz desselben FOXP2-Gens bemerkenswert stabil in allen Säugetieren vokommt. Die dramatische Ausnahme ist der Mensch, bei dem sich vor etwa 100.000 Jahren zwei bedeutsame Veränderungen in der kodierenden Region des Gens ereigneten. Man nimmt nun an, dass diese Veränderung in FOXP2 zur Sprachentwicklung beim Menschen beigetragen hat.
 


 
In diesem Zusammenhang ist interessant:
 
Populationsgenetiker, die mit mathematischen Methoden die Geschichte von Tier, Pflanzen- und Bakterien-Populationen rekonstruieren, glauben durch Genom­vergleich erkannt zu haben, dass sich alle heute lebenden Menschen auf eine gemeinsame Gruppe von Vorfahren zurückführen lassen, die aus nur etwa 10.000 Personen bestand und vor 100.000 bis 150.000 Jahren gelebt haben muss.
 
Dies passt zu fossilen Befunden, die zu zeigen scheinen, dass der Aufenthaltsort dieser unserer Vorfahren Ostafrika war.
 
 
 
Quelle: Francis S. Collins: Gott und die Gene (2006), S. 100-114.

 
 
 
Ganz erstaunlich ist auch, dass die Komplexität des Genoms stark unterschiedlicher Spezien keineswegs der Komplexität ihrer durch uns beobachtbaren typischen Eigenschaften entspricht. Hier einige Beispiele:
     
  • Das menschliche Genom besteht aus nur etwa 25.000 Genen.
     
  • Schon ein Seeigel hat etwas mehr: ca. 26.000.
     
  • Das Genom von Pflanzen kann sogar deutlich mehr haben. Reis z.B. verfügt über etwa 38.000 Gene.

 
Seit 2016 denkt man Hinweise darauf zu haben, dass alles irdische Leben einen gemeinsamen Vorfahren hat.

 

 Beitrag 0-413
Unser Denken und Fühlen — wie es sich aus quantenphysikalischer Sicht heraus darstellt

 
 

 
Unser Denken und Fühlen

aus quantenphysikalischer Sicht heraus

 
 
Unser Gehirn ist ein quantenmechanisches System, welches für uns konstruiert, was wir unsere Realität nennen (z.B. Farben korresponierend zur Wellenlänge von Licht, das den Sehpurpur in unserem Auge erreicht, letztlich aber alle Bedeutung von Signalen, die unsere Sinnesorgane erreichen).
 
Rein alles, was wir als real erachten (= unsere Interpretation der uns erreichenden Signale) ist eine sich ständig — im Detail wenigstens — modifizierende Menge mit JA oder NEIN beantworteter Fragen. Jede Antwort darauf stellt genau ein Bit an Information dar und wird erzeugt durch einen Kollaps der Wellenfunktion, welche uns und insbesondere die Menge all unserer Neuronen, beschreibt: unseren Denkapparat.
 
Diese Bits aber sind, so scheint es jedenfalls, nicht irgendwo in unserem Gehirn gespeichert (wie man früher dachte), sondern bestimmen Form und Intensität elektromagnetischer Signale, deren Quelle unser Gehirn und unser Nervensystem sind.
 
Als extrem energieschwache — und daher als Wellen sehr großer Wellenlänge — werden nun aber fast alle der von unserem Gehirn erzeugten elektromagnetischen Wellen weit über unseren Schädel hinaus existieren, sich also mit Lichtgeschwindigkeit ausgehend von uns im gesamten Universum ausbreiten, bis sie sich — die einen fast sofort, die anderen erst in weiter Zukunft — dort durch Dekohärenz auflösen zu Signalen, die andere belebte oder unbelebte Materie auf quantenmechanischer Ebene, in sehr geringen Ausmaß also, hinsichtlich ihres Zustands abändern (genauer: sie verschmelzen dort mit einem Elektron eines Atoms jener Materie – so extrem gering also ist diese Auswirkung).
 
Umgekehrt können so auch Gedanken anderer Menschen oder Lebewesen das eine oder andere Atom in unserem Gehirn in einen Zustand versetzen, den es ohne jene Gedanken anderer nicht gegeben hätte.
 
Bisher ist Wissenschaft nicht in der Lage, solchen Einfluss auf unser Gehirn zu messen oder gar zu untersuchen. Vorhanden — ganz extrem schwach vorhanden — ist er aber auf jeden Fall, und es kann wohl auch nicht ausgeschlossen werden, dass in extrem seltenen Fällen solcher Einfluss dann doch eine Rolle spielt in dem Sinne, dass er uns — irgendwie, als nur flüchtiger Gedanke — bewusst wird.
 
 
Etwas häufiger werden solche Einflüsse ganz sicher auch unser unbewusstes Denken beeinflussen.

 
Nebenbei noch: Wenn auf die beschriebene Weise ein aus dem Gehirn eines Lebewesens A kommendes Photon den Zustand eines Atoms im Gehirn eines anderen Lebewesens modifiziert, wird das natürlich auch Quantenverschränkung zur Folge haben. Was sich daraus dann an Korrelation ergeben kann, ist noch weit weniger zu durchschauen.

 

 Beitrag 0-105
Hin zu einer Wissenschaft des Bio-Engineerings

 
 

 
Erste Ansätze einer Wissenschaft

Bio-Engineering

 
 
Gegeben die Erkenntnis der Quantenphysik, dass alle Materie — und damit auch jedes Lebewesen — letztlich ein System mit einander wechselwirkender Pakete von Wellen mit Wirkpotential darstellt, würde man erwarten, dass sich dies früher oder später auch über Experimente wird nachweisen lassen.
 
Und tatsächlich ist dem so. Hier einige Beispiele:

     
  • Heilung mittels Weitergabe durch die Natur elektromagnetisch kodierter Information:
     
    Mitte der 90-er Jahre hat eine von Gariaev geführte Gruppe von Wissenschaftlern Ratten durch Injektion von Alloxan in die Betazellen der Bauchspeicheldrüse eine schwere Schädigung zugefügt:
     
    Alloxan schädigt diejenigen Zellen der Bauchspeicheldrüse, die Insulin herstellen. Da nun kein Insulin mehr ausgeschüttet wurde, stieg der Blutzuckerspiegel der Ratten bis in pathologische Bereiche hinein.

       
    • Eine Gruppe der Ratten bekam keinerlei Behandlung und starb nach der Giftinjektion.
       
    • Eine andere Gruppe wurde mit Radiowellen bestrahlt, auf die mit einem Laserstrahl sog. » Heilinformation « aufgeprägt worden war: Sie war gesammelt worden durch Abscannen von elektromagnetischer Strahlung, die man empfangen hatte von den Bauchspeicheldrüsen neugeborener, vollkommen gesunder Ratten. Die organeigene Strahlung der gesunden Bauchspeicheldrüsen war erfasst, addiert und verstärkt worden, und der Laserstrahl, der auf die erkrankten Ratten gerichtet wurde, war mit der so gewonnenen Information moduliert.
       
    • Ergebnis des Experiments: Der Blutzuckerspigel der krank gemachten, dann aber betrahlten Ratten sank rasch ab. Sie wurden wieder gesund.
     
    Gariaev, Peter: Wave based Genome (in Russisch, 1994), Wave Genetic Code (in English, 1997), Moskau],
    Gariaev et al.: The DNA-wave Computer (in: Journal of Non-Locality and Remote Mental Interactions 2(1), 2003
     
     
  • Eine Arbeitsgruppe um R.O. Becker, USA, beschrieb Neubildung amputierter Extremitäten bei Lurchtieren infolge elektromagnetischer Potentialaufprägungen.
     
    Aber schon vorher — in Anfang der 70-er Jahre — hatte man erstaunliche Differenzierungs- und Dedifferenzierungseffekte beim Applizieren von Potentialen an Pflanzen und Amphibien beobachtet.
     
    Murray D.G. (1967): A Method for producing Cellular Dedifferentiation by means of very small Electric Currents (in: Transactions of the New York Academy of Science, Vol 29
    Becker R.O., Murray G. (1970): The Electrical Control System Regulating Fracture Healing in Amphibians (in: Clinical Orthopaedics and Related Research, No. 73  

     
  • Ein erstes Patent für einen Apparat und eine Methode zur Informationsübertragung mit Hilfe von Potentialfeldern für medizinische Anwendungen wurde schon Anfang der 80-er Jahre vergeben:
     
    Gellinas R.C. (1984): Apparatus and method for transfer of information by means of curl-free magnetic vector-potential fields, US Patent 4,432,098.

 
Was sich hier andeutet fasst Ulrich Warnke zusammen in der Bemerkung: Wie es scheint, könnte die Erfüllung des Wunschtraumes von der Rückführung einer kranken in eine gesunde Zelle schon bald nur noch eine Frage der Bioingenieurskunst sein.

 

 Beitrag 0-391
Über den — noch wenig konkreten — Feldbegriff der Biologen

 
 

 
Zum Feldbegriff der Biologen

 
Der in der Entwicklungsbiologie verwendete Begriff des morphogenetischen Feldes ist nicht identisch mit den von Sheldrake angenommenen Feldern (die er ursprünglich ebenso nannte, heute aber genauer als morphische Felder bezeichnet).


Fritz-Albert Popp erklärt (1997):
 
Der Feldbegriff der Biologen hat sich unabhängig von dem der Physiker entwickelt. Wo Biologie von » Kraft « oder einem » Kraftfeld « spricht, ist damit i.A. keine physikalische Kraft gemeint.
 
Ganz sicher war das so bei Alexander Gurwitz, als er in seinen Notizen 1912 von einem » Kraftfeld « sprach.
 
Während in der Physik der Feldbegriff mathematisch formuliert ist — und daher mit großer Eleganz und höchster Perfektion die Stärke lokal wirkender Kräfte genau beschreiben kann —, sind biologische Felder etwas weit weniger Konkretes:
 
Der Feldgedanke der Biologen entstand aus dem Wunsch heraus, irgendwie ausdrückbar zu machen, was die spektakulären Experimente des deutschem Embryologen Hans Dries 1891 an Erkenntnissen gebracht hatten: Sie hatten die Annahme eines lokalen (unmittelbaren) kausalen Zusammenhangs zwischen der Struktur und der zeitlichen Entwicklung des Embryos widerlegt.
    Nachdem Driesch gezeigt hatte, dass sich ein ganzer Organismus aus nur einer Zelle entwickelt, wobei nach der ersten Zellteilung jede der Tochterzellen jeweils die Hälfte des späteren Organismus ausbildet, bewies er, dass überraschenderweise zwei vollständige Organismen aus den beiden Tochterzellen entstehen, wenn man sie zwingt, sich getrennt von einander zu entwickeln.
Damit war klar geworden: Es kann keine lokale, eindeutige Ursache-Wirkungs-Relation zwischen Struktur und deren zeitlicher Entwicklung geben.
 
Obgleich die Biologen auch heute noch darüber zerstritten sind, wie weit ihre Annahmen von der strengen Gültigkeit lokaler Wechselwirkung abweichen müssen — was sich auf räumliche ebenso wie zeitliche Lokalität bezieht —, herrscht Einigkeit darüber, dass das Konzept der morphogenetischen Felder das Geschehen im Prinzip beschreiben kann. (C.H. Weddington in Major Problems in Developmental Biology, Locke M. (Hrsg.), Academic Press 1966, S. 105-124).
 
Sheldrake ging — wie er ja auch selbst sagt — bei seiner Idee morphischer Resonanz vom schon existierenden Begriff des morphogenetischen Feldes aus, hat ihn aber erweitert um sog. » morphische Resonanz « und Nichtlokalität. Unter morphischen Feldern also muss man sie diese, erst durch ihn vorgeschlagene Variante des Feldes vorstellen:
 
 
Das morphische Feld erstreckt sich nicht-lokal über die gesamte Raumzeit, was bedeuten soll, dass es Ereignisse und formgebende Prozesse miteinander ver­knüpft, welche weder am gleichen Ort noch zu gleicher Zeit stattfinden. Die Stärke dieser » Wechselwirkung « wird als weitgehend unabhängig von der räumlichen Distanz der Ereignisse angenommen.
 
Die entscheidene Aussage über dieses Feld ist die Annahme, dass es darin eine auf die Formbildung Einfluss nehmende » morphische Resonanz « gäbe, womit gemeint ist, dass — sobald Materie irgendwo Form annahm — der Einfluss dieses Feldes zur Folge hat, dass sich häufiger als nur zufällig oft gleiche oder recht ähnliche Form auch anderswo bildet — in gewisser Weise autokatalytisch — und dass jede solche Wiederholung eines formbildenden Prozesses die Wahrscheinlichkeit vergrößert, dass er nochmals wiederholt wird.
 


 
Quelle: Fritz-Albert Popp: Rupert Sheldrake in der Diskussion — Das Wagnis einer neuen Wissenschaft des Lebens (1997), S. 194-196.

 
 
Eine erste denkbare Möglichkeit, wie das morphische Feld physikalisch realiert sein könnte, hat (im selben Buch) Hans-Peter-Dürr beschrieben. Eine kurze Zusammenfassung seiner Argumentation findet sich auf Seite Wie plausibel ist Sheldrakes Idee morphischer Resonanz?

 
 
 
Auch noch interessant sind Popps Überlegungen zur Frage
 
 
Kann morphische Resonanz (wenn sie denn existieren sollte) direkt überhaupt beweisbar sein?


Fritz-Albert Popp erklärt (1997, S. 202-203):
 
Es wird oft übersehen, dass eine große Vielfalt von Effekten, die sich in unserer Realität abspielen, messtechnisch nur schwer, wenn überhaupt erfassbar ist. Unser technisches Instrumentarium muss — bei allem Respekt vor seiner rasanten Entwicklung — im Vergleich zum Sensorium biologischer Lebewesen immer noch nur als » rudimentär « bezeichnet werden.
 
Ich selbst habe erlebt, wie noch in den 1970-er Jahren fast niemand an die Existenz der Biophotonen glauben wollte, und das nur deshalb, weil es keine alle überzeugende Nachweismöglichkeit gab.
 
Gurwitz, der als erster Anzeichen für die Existenz von Biolicht fand, wurde als » falscher Prophet « gebrandmarkt, und einen Italiener, der ähnliche Beobachtungen in den 1930-er Jahren gemacht hatte, wurde totgeschwiegen. An solchen Vorstellungen hat sich bis heute [1997] kaum was gändert — und das, obgleich es inzwischen weltweit etwa 40 Gruppen von Wissenschaftlern gibt, die täglich Biophotonen messen und nun zweifelsfrei wissen, dass biologische Systeme nur leben, solange sie Biophotonen emittieren.
 
Ähnliche Vorurteile könnten uns dazu veranlassen, Sheldrakes These als Spinnerei abzutun.
 
Man sollte aber bedenken, wie schwierig es sein muss, ein nicht lokales morphisches Feld nachzuweisen, das einfach nur die Wahrscheinlichkeit für die Koinzidenz bestimmter Ereignisse ein klein wenig erhöht.
 
Bereiche unserer » Realität « zu analysieren, die sich vielleicht noch lange der Nachweisbarkeit entziehen, aber dennoch Relevanz für unsere Entwicklung haben können, wird immer eine extrem schwierige Aufgabe sein. Offensichtlich aber ist, dass es solche Bereiche gibt.
 
So können sich beispielsweise schwächste Effekte, die immer in die gleiche Richtung wirken, über Jahrzehnte dramatisch aufschaukeln, ohne dass sie in den üblichen Zeiten der Laboruntersuchungen signifikant nachweisbar wären.
 
Es scheint mir daher wertvoller, die experimentelle Herausforderung der » morphischen Felder « anzunehmen, als sie ungeprüft abzutun.

 



 

  Beitrag 1913-1
Wie Quantenmechanik und physikalische Chemie Darwin korrigieren

 
Auch Biologie ist nur Physik:

Wie Quantenmechanik und physikalische Chemie Darwin korrigieren


Nach Darwin bedeutet Evolution einfach nur zufällig eintretende Mutation gefolgt von natürlicher Auslese.

Heute wissen wir es genauer, denn unser Wissen über die allgemeinen Eigenschaften von Molekülen zeigt uns: Mutation ist letzlich der Übergang eines Quantensystems von Zustand A nach Zustand B, wobei dieser Zustandsübergang
  • entweder provoziert wurde (durch Zusammenstoß des Quantensystems mit einem Elementarteilchen, z.B. dem Zusammenstoß eines Lebewesens mit Röntgenstrahlung)

ABER: Ob ein Quantensprung von Zustand A nach Zustand B oder C führt, wird durch den Paaren ( A, B) und ( A, C) zugeordnete Übergangswahrscheinlichkeiten geregelt, die sich aus den Wellenfunktionen aller möglichen Zustände ergeben.

Daraus folgt: Auch spontan eintretende Mutation ist in aller Regel nicht ohne Richtung. Dies führt zu einer Art von Auslese, die noch  v o r  dem Prozess der natürlichen Auslese stattfindet und jene daher gewissermaßen kanalisiert (sog. Quantenauslese — durch Biologen in der Evolutionstheorie recht lange ignoriert).


Motor der Evolution ist eben diese, ständig stattfindende, Quantenauslese.

Natürliche Auslese kann nur das bewerten, was ihr von der Quantenauslese zur Bewertung vorgelegt wird.


Versteht man Evolution als einen Prozess von Übergängen zwischen virtuellen Quantenzuständen, wie es die Quantenbiologie heute zu Recht tut, so ergibt sich:

Die sich entwickelnde Komplexität der Lebensformen entsteht keineswegs aus dem Nichts und auch nicht aus dem Chaos, sondern über Quantensprünge, die einer kosmischen Ordnung gehorchen, welche unabhängig davon existiert, ob oder wie oft Quanten und Quantensysteme ihnen mögliche Zustände tatsächlich annehmen.

Unter der Aktualisierung eines Quantenzustands versteht die physikalische Chemie das Springen des Quantensystems in eben diesen Zustand. So jedenfalls gebraucht Lothar Schäfer in seinem Buch "Versteckte Wirklichkeit" diesen Begriff. Er sagt:

In gewissem Sinne ist jeder von uns zu jedem Zeitpunkt Aktualisierung eines komplizierten Quantenzustandes, der schon lange vor unserer Geburt in der Quantenstruktur des Universums als Ordnungsmuster angelegt war, also existiert hat, und der auch lange nach unserem Tod als — dann wieder als nur virtueller (sprich: als gerade nicht durch ein Quanten­system angenommener) Zustand — weiter existieren wird.

Seine Aktualisierung durch uns
  • war möglich,
  • war keineswegs notwendig,
  • könnte sich aber wiederholen.
Wie groß die Wahrscheinlichkeit solcher Wiederholung ist, scheint eine eher nur untergeordnete Frage.

Wenn identische DNS-Moleküle aber nicht durch Kopieren entstehen, sondern durch wiederholtes Auftreten ein und desselben Quantenzustandes, erhält auch der Begriff der Abstammung eine etwas andere Bedeutung ...

grtgrt
 

  Beitrag 1913-3
Vorauswahl durch quantenphysikalischen Zufall

 
 
Hans-m aus 1913-2:
Du machst es (in Beitrag 1913-2) komplizierter, als es ist.

Nach Deiner Aussage würde jedes zufällige Ereignis in der Quantenphysik seine Ursache finden.
Wenn Du eine Münze oder einen Würfel wirfst oder eine Roulettekugel ihr Feld findet, jeder "Zufall" wäre ein Ergebnis der Quantenphysik.

Hallo Hans-m,

du scheinst mich gründlich missverstanden zu haben, denn ich behaupte keineswegs, dass jeder Zufall einzig und allein ein Ergebnis der Quantenphysik sei.

Meine Aussage ist: Der Weg hin zu einem neuen Lebewesen führt stets über eine sehr lange Kette von Zuständen, die  a b w e c h s e l n d  Ergebnis von physikalischem Zufall einerseits und Zufall im Sinne deiner Beispiele andererseits sind. Hierbei gilt:

Der quantenphysikalisch zufällige Schritt besteht im Kollabieren einer Wellenfunktion, sprich: im physikalisch zufälligen Reduzieren einer Menge möglicher Quanten­zustände auf genau einen, der zu materieller Wirklichkeit W führt. Erst in dieser Wirklichkeit wirkt dann Zufall im Sinne deiner Beispiele.

Damit ist klar: Die Wirklichkeit, in der Zufall im Sinne deiner Beispiele wirkt, hätte — falls der vorangehende quantenphysikalische Zufall sich anders entschieden hätte — in eben dieser Form W gar nicht erst existiert (jedenfalls nicht hinsichtlich aller nur denkbaren Details).

Beste Grüße,
grtgrt
 

  Beitrag 1913-4
Wie auch chemische Gesetze die Evolution steuern

 
 
Wie in Beitrag 1913-3 gezeigt, wird Evolution durch zweierlei Zufall gesteuert:
  • durch einen vordergründig wirkenden (das ist der, von dem Darwin und die Beispiele aus Beitrag 1913-2 sprechen),
  • daneben aber auch durch einen hintergründig wirkenden (das ist der quantenphysikalische).

Es ist wichtig, zu sehen, dass der hintergründige den vordergründigen kanalisiert, selbst aber auch kanalisiert wird durch die den Quanten zugeordneten Wahrschein­lichkeitswellen (durch das also, was Heisenberg als die der kosmischen Ordnung zugrundeliegenden " Tendenzen und Neigungen" nennt: siehe Beitrag 1915-5).


Da nun aber Wahrscheinlichkeiten nichts anderes als dimensionslose Zahlenverhältnisse sind, kommt man nicht umhin, feststellen zu müssen:

Zitat von Lothar Schäfer in: Versteckte Wirklichkeit, S. 47:
 
An der Wurzel der Wirklichkeit finden wir Zahlenverhältnisse — nichtmaterielle Prinzipien, auf denen die Ordnung dieser Welt gegründet ist.

Die Grundlage der materiellen Welt ist somit nichtmateriell.

 


Wem das zu abstrakt ist, der sollte sich vor Augen führen, dass man — ausgehend von der Kenntnis der den Quanten zugeordneten Wahrscheinlichkeitswellen — die Struktur von Molekülen berechnen kann, letztlich also die Gesetze der Chemie.

Wie weit man da heute schon ist, weiß ich nicht genau. Auf jeden Fall gilt:
  • Schon 1998 gelang es, die Struktur von Cambrin zu berechnen. Cambrin ist mit etwa 640 Atomen ein eher kleines Protein-Molekül. Über noch größere Erfolge berichten Treppen et al., 2002, J. Phys. Chem. A. 106; 5498-5503.
  • Insbesondere weiß man: Die Struktur selbst der größten röntgenographisch erforschten Proteine kann durch quanten-chemische Berechnungen ihrer Teile vorhergesagt werden (Jiang et al., 1995, Phys. Chem. 99:10521).
Solcher Erfolg der Quantenchemie bei der zuverlässigen Berechnung der Eigenschaften von Molekülen — unabhängig von ihrer Größe — beweist ganz klar:


Alle Moleküle, ob groß oder klein, sind Quantensysteme,

und so wirkt der quantenphysikalische Zufall hinein in sämtliche chemikalischen Vorgänge (!).


Das ist für die Evolution durchaus bedeutsam, wenn man sich vor Augen führt, dass quantenphysikalischer Zufall ja nur bezogen auf das Ergebnis je eines einzelnen Ereignisses absoluter Zufall zu sein scheint, statistisch gesehen aber, wie oben gerade erklärt, durchaus kanalisierend wirkt.

grtgrt

PS: Zur Terminologie, den Zufall betreffend, siehe Beitrag 1911-1.

 

  Beitrag 1953-1
Wie konnte die Natur Leben hervorbringen?

 
 

Wie konnte die Natur Leben hervorbringen?


Hans-Peter-Dürr, argumentiert in seinen Reflexionen eines Quantenphysikers in etwa wie folgt:
 

Das Phänomen "Leben" sollte man nicht mehr als außerhalb der übrigen, sogenannten "unbelebten" Natur angesiedelt sehen.


Im Kontext der alten, auf Determinismus gegründeten Naturauffassung war das nahezu unmöglich, da der Mensch sich stets instinktiv dagegen gewehrt hat, nur als voll deterministisch arbeitendes Uhrwerk eingeordnet zu werden. Solcher Unverträglichkeit zu entgehen, zog man einen deutlichen Trennungsstrich zwischen dem Menschen und der übrigen Natur.

Diese "künstliche Trennung von Mensch und seiner Umwelt" habe viel mit der ökologischen Krise zu tun, die heute die menschliche Zivilisation existentiell bedroht. Es ist dies eine Behauptung, die ich (grtgrt) nicht so recht nachvollziehen kann. Sehr überzeugend aber finde ich alles weitere:


Die neue Physik, so Dürr,
  • gestatte uns, die störende Fessel der strengen Determiniertheit abzustreifen oder wenigstens zu lockern,
  • sei aber zur Begründung der vermuteten Willensfreiheit des Menschen wohl noch nicht ausreichend.
Diese Freiheiten nämlich seien aufgrund der [durch Wellenfunktionen fest vorgegebenen Wahrscheinlichkeiten prinzipiell und primär recht bescheiden und nahe daran durch die fast vollständige Ausmittelung der mikroskopischen "Lebendigkeit" bei makroskopischen Zusammenballungen vollends erdrückt zu werden.


Und dann kommt Dürr zu einem wirklich interessanten Punkt:

Eine vollständige statistische Ausmittelung jener Lebendigkeit erfolgt nur dann, wenn die ein Gesamtsystem bildenden Teile genügend unabhängig voneinander sind.

Da nun aber die Architektur jedes quantenmechanischen Systems nicht nur über die zwischen seinen Teilen wirksamen Grundkräfte bestimmt ist, sondern darüber hinaus durch Wahrscheinlichkeiten, die sich aus seiner Wellenfunktion ergeben, kann ein solches System nicht einfach nur als Summe seiner Teile verstanden werden — eine Tatsache, der man heute noch viel zu wenig Rechnung trägt:
  • Bei der Beschreibung von Molekülen nehmen Chemiker als selbstverständlich an, daß man dabei i.W. mit den groben Approximationen auskommt, welche nur die Intensitäten aber nicht die Phasenbeziehungen der Materiewellen der Elektronen berücksichtigen.
  • Ähnlich die moderne Biologie: Sie — so argumentiert Dürr — sei von den Erfolgen der analytischen Betrachtung des Lebendigen so beeindruckt, daß sie sich heute immer weiter von einer ganzheitlichen Betrachtungsweise entfernt. Sie tue dies in der Überzeugung, damit den Forderungen der exakten Naturwissenschaften am besten entgegenzukommem, übersehe aber, dass es hierfür einer geeigneten Ergänzung der heute dominanten rein analytischen Betrachtung bedürfte.
  • Von welch zentraler Bedeutung eine solche Ergänzung sein kann, beweist die durch die moderne Chaostheorie aufgedeckte Tatsache, dass selbst schwächste Einwirkungen zu völlig verschiedenartiger Entwicklung führen können.

Wer darüber nachdenkt, ob Leben auf diese Weise entstanden sein könnte, müsste meiner Meinung nach aber mindestens noch mit berücksichtigen, was mein Beitrag 1948-18 zu erklären versucht.


grtgrt
 

  Beitrag 1948-18
Zerfall und Evolution

 
 

Über Zerfall und Evolution


Sei S ein in sich abgeschlossenes, sich selbst überlassenes System, welches von einem Zustand z1 in einen Zustand z2 gerät.

Nehmen wir an, dieser Zustandsübergang sei atomar, seine Ursache also ein Elementarereignis (d.h. das spontane Entstehen eines Paares virtueller Elementarteilchen bzw. Kollision und Neuaufteilung von Elementarteilchen).

Nach Beitrag 1948-15 ist jeder Zustand z von S eine Mischung aus

  • Ordnung einerseits (Synonym: z.O = Form = kybernetischer Informationsgehalt) und
  • Unordnung andererseits (Synonym: z.U = Entropie = nachrichtentechnische Informationsdichte).

Den Fall z1.O = 0 mal ausgenommen, gibt es stets sehr viel mehr Zustände des Systems, die ungeordneter sind als Zustand z1. Da zudem jedes Elementarereignis absolut zufälliges Ergebnis hat, ist die Wahrscheinlichkeit, dass es zu einem weniger geordneten Zustand z2 führt größer als die, dass z2 geordneter als z1 ist.

Mit anderen Worten:

Die Wahrscheinlichkeit, dass der Zustandsübergang Zerfall bewirkt, ist größer als die, dass er evolutionär wirkt (d.h. zu mehr Form bzw Ordnung führt).


Dennoch ist die Wahrscheinlichkeit, dass er Evolution zur Folge hat eben NICHT Null.


 

  Beitrag 1953-2
Läßt sich Biologie komplett auf Physik zurückführen?

 
 

Läßt sich Biologie komplett auf Physik zurückführen?


Diese Frage, so Dürrs Standpunkt, kann aufgrund unserer heutigen Einsichten weder klar mit JA, noch klar mit NEIN beantwortet werden.

Aber schon die Frage

Könnte Leben und Bewusstein allein auf Basis physikalischer Gesetze erklärbar sein?


würde Dürr eher mit JA beantworten. Und das obgleich er auch feststellt:


Lebewesen — Pflanzen, Tiere, Menschen — mit Maschinen zu verwechseln, wäre falsch, denn:
  • Eine Maschine ist eine Menge gut in einander greifender Teile (sie passen zueinander, formen einander aber nicht).
  • Ein Lebewesen aber ist wie ein Gedicht, das auf jeder Organisationsstufe — Buchstabe, Wort, Satz, Strophe — zusätzliche Dimensionen erschließt und schon vorhandenen neue Bedeutung geben kann.

 

 Beitrag 0-23
Bestehen Lebewesen wirklich  n u r  aus Materie?

 
 

 
Bestehen Lebewesen wirklich  n u r  aus Materie?

 
 
Fragen wir spezieller: Wie wahrscheinlich ist es, dass jeder Mensch ausschließlich aus Materie besteht?
 
Materie ist nur  e i n e  Form, in der Energie auftreten kann. Legt nicht allein schon diese Tatsache die Frage nahe, ob nicht zumindestens  d e n k e n d e  Lebewesen aus mehr als nur Materie bestehen? Könnte es nicht sehr gut sein, dass z.B. jeder Mensch in seiner physischen Existenz aus Teilen besteht, die nicht in Form von Materie vorliegende Energie sind?
 
Die meisten Menschen sterben in einem Alter, das weit höher ist als das Alter jeder einzelnen Zelle, aus der sie kurz vor ihrem Tode (auf Materie reduziert) bestehen: Ihr Körper — das weiß man heute — ist einem Anzug vergleichbar, der sich abnützt und laufend dort durch neues Gewebe ersetzt wird, wo altes sich verschlissen hat. Damit aber kann doch ganz offensichtlich kein materieller Teil eines Menschen — auch nicht sein Gehirn — mit ihm selbst identifiziert werden. Wenn sein Gehirn aber nur Schnittstelle zwischen seinem materiellen und seinem NICHT materiellen Teil ist, stellen sich zwei überaus relevante Fragen:
 
  • Kann die Lebensdauer seines nicht-materiellen Teiles (seines "Geistes" also) größer sein als die seines Körpers?
  • Und wie könnte Physik seinen nicht-materiellen Teil modellieren (unter der Annahme, dass er vollständig aus Energie besteht und somit auch nur Paket von Wellen ist, die sich ständig auf- und abbauendes Kraftpotential darstellen)?

 
Wie der Placebo-Effekt — und die Tatsache, dass es ihn wirklich gibt — sehr deutlich zeigt, kann der nichtmaterielle Teil des Menschen den materiellen Teil nicht nur steuern, sondern in seiner Entwicklung positiv oder negativ beeinflussen.
 
Anders ausgedrückt: Der nicht in Form von Materie vorliegende Teil des Menschen kann den Körper des Menschen (d.h. seinen in Form von Materie vorliegenden Teil) wenigstens so weit mit gestalten, als dass er Druck aufbauen kann, der mitbestimmend dafür ist, in welche Richtung jener Körper sich entwickelt. Interessant ist, dass dieser Druck wohl auch auf Körper anderer Individuen einwirken kann:
 
    Im Jahre 1952 machte ein junger britischer Arzt — Albert Mason — einen Fehler, der ihm zu kurzer Berühmtheit verhalf: Mason behandelte einen 16-jährigen Jungen gegen sein Warzen mit Hypnose (da Mason und auch andere Ärzte damit schon öfters Erfolg hatten). Der vorliegende Fall war ein ganz besonders schwerer: Die lederne Haut des Buben erinnerte an die eines Elefanten, nicht an die eines Menschen. Während der Junge in einer hypnotischen Trance war, erzählte im Mason, die Haut auf seinem Arm werde heilen, so dass er dort bald rosarote, ganz normale Haut haben werde. Und tatsächlich, als der Junge eine Woche später wieder kam, sah der Arm zu Masons Freude sehr gesund aus. Doch als Mason den Jungen zu einem Chirurgen mitnahm, der zuvor erfolglos versucht hatte, dem Jungen zu helfen, erfuhr Mason, dass er eine Fehldiagnose gestellt hatte: Der Chirurg, äußerst erstaunt über die nun gesunde Haut, teilte Mason mit, der Junge litte nicht an Warzen, sondern stattdessen an einer unheilbaren Erbkrankheit (an Ichthyose, einer angeborenen Verhornstörung der Haut). Durch die Kraft des Geistes hatten Mason und sein Patient etwas erreicht, das zu jener Zeit als absolut unmöglich galt. Mason setzte die Hypnose-Sitzungen fort und zum allgemeinen Erstaunen wurde die gesamte Haut des Jungen allmählich gesund und rosa (gesunde Haut hatte er vorher nur auf seiner Brust gehabt).
     
    Als Mason im British Medical Journal über seine so erfolgreiche Behandlung der Ichthyose veröffentlichte [Mason, 1952], gab es eine Sensation: Die Medien stürzten sich auf ihn, und zahlreiche Patienten mit dieser bis dahin unheilbaren Krankheit baten ihn um Hilfe. Doch es zeigte sich, dass die Hypnose nicht das Wundermittel war, auf das sie gehofft hatten: Mason arbeitete mit einigen dieser Patienten, doch es gelang ihm nie mehr, ähnliche Ergebnisse zu erzielen wie mit dem Jungen. Mason selbst schrieb dieses Versagen seiner eignenen inneren Einstellung zu. Er konnte nicht wieder zu der unbefangenen Haltung zurückfinden, in der er nach seiner festen Überzeugung » einen schweren Fall von Warzen « behandelt hatte. Er war sich jetzt vollkommen bewusst, dass er etwas behandelte, was alle anerkannten Mediziner als eine angeborene, unheilbare Krankheit betrachteten. Er tat zunächst so, als sei er davon unbeeindruckt, doch später (2003) erzählte er in einem Interview im Discovery Channel, dass er diese Leichtigkeit nur vorgetäuscht habe.
     
    Die interessante Frage, die sich nun stellt, ist: Wie konnte es kommen, dass in diesem Fall der menschliche Geist stärker war als genetische Programmierung? Und wie konnte Masons innere Einstellung zum Heilungsversuch dessen Ergebnis beeinflussen?
     
    [ Mason, 1952 ]: A Case of Congenital Ichthyosiform Erythrodermia of Brocq Treated by Hypnosis. British Medical Journal 30: 442-443


 

 Beitrag 0-336
Warum Biophotonik nichts Esoterisches ist

 
 

 
Was – und wie seriös – ist Biophotonik?

 
 
Biophotonik ist ein Zweig der Biophysik,
     
  • der sich erst unter starken Geburtswehen etablieren konnte,
     
  • heute aber weltweit anerkannt ist.
     
  • Es begann damit, dass — unabhängig voneinander — zwei zunächst anerkannte Wissenschaftler (erst der Russe Alexander Gurwitsch, später dann der Deutsche Fritz-Albert Popp) entdeckt hatten, dass Biomasse Licht speichert und umso intensiver auch abstrahlt, je frischer und je wertvoller sie als Lebensmittel noch ist.

Gurwitsch hat die Anerkennung seiner Entdeckung durch Fachkollegen nicht mehr erlebt, erst Popp hat ihr zum Durchbruch verholfen (obgleich auch seine Hochschulkarriere dadurch ein Ende fand).
 
Wie im Nachhinein bekannt wurde, ist auch italienischen Physikern in den 1950-er und 1960-er Jahren dieses Licht — das man heute Biophotonen nennt, schon aufgefallen.
 
Der erste Physiker, der in Deutschland (1976) Biophotonen zweifelsfrei nachweisen konnte, war Bernhard Ruth, der damals bei Popp promoviert hat. Noch zur Jahrtausendwende gehörte seine Apparatur zu den empfindlichsten, zuverlässigsten und zeitlich stabilsten Photonenmessgeräten, die bis dahin gebaut worden waren.
 
 
Da Biolicht nun also zweifelsfrei nachweisbar geworden war, wurde es schließlich doch noch Forschungsgegenstand auch anderer Wissenschaftler. Ende der 1990-er Jahre gab es dazu weltweit schon etwa 30 Forschungsgruppen. Allein an der Tohoku-Universität in Japan wurden zwischen 1994 und 1999 gut 100 Mio Dollar für Biophotonenforschung eingesetzt.
 
Die Intensität des von Biomasse abgestrahlten Lichts reicht von einigen wenigen bis hin zu einigen tausend Photonen pro Sekunde und Quadratzentimeter Oberfläche des lebenden Systems.
 
 
Neben der Grundlagenforschung in der Biophysik spielt die Beobachtung der Biophotonen heute schon in mehreren Bereichen eine wichtige Rolle, z.B.
     
  • wenn man die Unterschiede zwischen normalen Zellen und Tumorzellen studieren möchte,
     
  • oder Lebensmittel auf Frische und Qualität zu untersuchen wünscht.
     
  • So hat sich z.B. herausgestellt, dass Eier gesunder Hühner signifikant mehr Biophotonen abgeben als Eier erkrankter Hühner.

 
Welch interessante Ergebnisse Untersuchungen solcher Art erbringen können, zeigt folgendes Beispiel:
    Man dachte zunächst, dass ein unterschiedlicher Gehalt an Lecithin die unterschiedliche Lichtemission von Batterie- und Freilandeiern auslösen würde, erlebte dann aber eine Überraschung: Die Beimengung der gleichen Menge von Lecithin, die im Dotter ohnehin schon vorhanden ist, erhöht die Lichtintensität nicht etwa um das Doppelte, sondern erstaunlicherweise um bis das 10-fache. Unabweisbare Schlußfolgerung scheint zu sein: Das das natürlich im Ei vorhandene Lecithin bei weitem nicht die gleiche Leuchtreaktion zeigt, wie das zugemischte, lann Lecithin im Ei mit Sicherheit nicht als bloße Beimengung vorliegen: Es muss im Dotter in spezifischer Weise eingebunden sein, so dass es im Lichttest kaum noch reagiert.
     
    Kein Zweifel: Der Photonentest spiegelt nicht nur Inhaltsstoffe wider, sondern auch Struktur und innere Ordnung des Lebensmittels.
     
    Insbesondere haben jene Test gezeigt:
       
    • In Freilandeiern sind keineswegs größere Lecithinmengen vorhanden sind als in Eiern der in Batterien gehaltenen Hühner — nicht einmal wenige Prozent mehr.
       
    • Lecithinmoleküle erhöhen durch ihren natürlichen Einbau in den Dotter seine Lichtspeicherfähigkeit infolge eines bedeutsamen Synergieeffekts, der — wie in einer Gesellschaft — die Wechselwirkung der einzelnen Partner begünstigt.

 
Noch viel mehr solch interessante Fakten sind skizziert in Popp: Die Botschaft der Nahrung (1999). Er schreibt dort u.A.:
 
    Wir sind primär nicht Kalorienfresser, Fleischfresser, Vegetarier oder Allesfresser, sondern im Grunde genommen Ordungsräuber und Lichtsäuger.
     
    So manch einer mag noch Zweifel daran hegen, dass wir uns tatsächlich von Licht ernähren. Bei Pflanzen aber ist das unbestreitbar so. Sie beziehen per Photosynthese ihre Energie direkt von der Sonne. Photonen verschweißen die überall vorhandenen Kohlendioxid- und Wassermoleküle zu Glukosepäckchen. Sie schließen sich in diese Zuckerdepots selbst ein und stehen als Lebensmittelquelle jedem höheren Lebewesen zur Verfügung.
     
    In Tieren und Menschen — die ja direkt oder indirekt von Pflanzen leben — werden die Zuckermoleküle wieder aufgebrochen in Kohlendioxid und Wasser. Das Kohlendioxid wird über die Lunge, das Wasser über die Haut oder mit dem Urin ausgeschieden. Im Organismus übrig bleibt die Sonnenenergie, die das Lebe­wesen auf bisher nicht verstandene Weise antreibt, versorgt und — nach Schrödinger — auch ordnet  [ Schrödinger: What is Life? (1945), Nachdruck: Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet (Piper 1999) ].
     
    Wie könnte bewiesen werden, dass Licht die Qualität unserer Lebensmittel bestimmt? Ich stecke ein schönes, ausgewachsenes Blatt einer Topfpflanze in ein Licht­messgerät und registriere den abklingenden Lichtstrom des Blattes. Dann wiederhole ich den gleichen Versuch mit einem schon welken Blatt der gleichen Pflanze. Ich sehe erhebliche Unterschiede: Nur das noch gesunde Blatt leuchtet lange und intensiv, bevor das gespeicherte Licht schließlich entweicht.
     
    Hohe Qualität  [ noch Ordnung bewahren zu können? ]  — so lässt sich folgern — signalisiert sich durch hohe Lichtspeicherfähigkeit.

 
 
VORSICHT aber: Leider gibt es viele Esoteriker, die das Thema Biophotonik als Rechtfertigung ihrer skurrilen Ideen missbrauchen. Man muss gelegentlich schon sehr genau hinhören, um zu sehen, wer da streng wissenschaftlich oder doch eher nur wie ein Esoteriker argumentiert.
 
Einer, vor dessen Aussagen ich — jetzt mal ganz unabhängig von Biophotonik — explizit warnen möchte, ist Ulrich Warnke. Was er so von sich gibt, scheint mir wirklich nur Pseudowissenschaft zu sein. Die Quanten­physik jedenfalls hat er nicht wirklich verstanden. Daran ändert auch die Tatsache nichts, dass er bis März 2010 Akademischer Oberrat an der Universität Saarbrücken war.
 
 
Wer dagegen Popp verdächtigt, nicht wissenschaftlich genug vorzugehen, der hat nicht verstanden, dass Popp nichts anders macht, als zu untersuchen, wie sich aus der Lichtspeicherfähigkeit von Biomasse auf die Qualität jener Biomasse schließen lässt.
 
 
 
Wie es zur Aussendung von Biophotonen kommt, ist bislang ungeklärt:
     
  • Die meisten Wissenschaftler halten sie für ein Nebenprodukt des Stoffwechsels, ähnlich wie metabolische Prozesse immer auch Abwärme produzieren, vergleichbar mit einem Verbrennungsmotor.
     
  • Einzelne Forscher folgen mehr den Überlegungen von Gurwitsch und vermuten eine weiter gehende Bedeutung der Biophotonen.
     
  • Popp denkt, dass die Lichtquanten von der DNA emittiert werden und Information enthalten, die andere DNA-Moleküle erreicht. Er weist auf die hochfrequenten Schwingungen hin, die in den Erbmolekülen stattfinden. Dabei verdrillt sich die spiralförmige DNA stärker und entspannt sich wieder und das mehrere Milliarden Mal pro Sekunde. Bei jeder dieser Schwingungen, so vermutet Popp, gebe die DNA ein Biophoton ab.


 

 Beitrag 0-122
Wie sich die physikalische Größe » Spin « definiert

 
 

 
Zum » Spin « der Elementarteilchen

 
 
Gewisse Elementarteilchen — Elektronen etwa — verhalten sie wie kleine Magnete.
 
Wir denken uns die Lage dieses Magneten beschrieben durch einen imaginären Pfeil — genannt » Spin « — und stellen dann fest, dass der eine recht merk­würdige Eigenschaft hat:
 
Wählt man irgend eine, völlig beliebige Richtung und frägt das Teilchen dann, ob sein Spin in diese Richtung zeige, so bekommt man entwder die Antwort JA oder die Antwort NEIN, niemals aber irgend eine andere Antwort.
 
Statt JA oder das NEIN sagen die Physiker « Spin up « bzw. » Spin down «.
 
 
Das Merkwürdige also ist, dass es dem Spinpfeil irgendwie nicht möglich zu sein scheint, in eine Richtung zu zeigen, die nicht die ist, auf die sich unsere Frage bezog.
 
Noch merkwürdiger: Werden zwei Teilchen gleicher Art, die Spin haben, z.B. zwei Elektronen e1 und e2, durch ein und dasselbe atomare quantenphysikalische Ereignis erzeugt, so sind sie hinsichtlich Spin mit einander verschränkt.
 
Dies bedeutet: Fragen wir e1 nach seinem Spin, so wird es mit » up « oder » down « antworten. Dieselbe Frage dann auch dem e2 gestellt, wird die jeweils andere Antwort ergeben — und das selbst dann noch, wenn e2 inzwischen ans andere Ende der Milchstraße gebracht worden ist.
 
 
Note: Der Begriff der » Verschränkung « von Quanten wurde geprägt durch Erwin Schrödinger: Discussion of Probability Relations between seperated Systems, Proceedings of the Cambridge Philosophical Society 31, 555 (1935).

 


Paul Davies (2006):
 
Teilchen mit Spin = 1/2 verhalten sich ziemlich merkwürdig, wenn ihre Achse gedreht wird (was man durch Anlegen eines Magnetfeldes bewirken kann):
    Man stelle sich einen großen Körper vor, der rotiert, z.B. unsere Erde. Wird sie um 180 Grad um eine Achse in der Äquatorebene gedreht, werden Nord- und Südpol vertauscht. Nochmalige Durchführung derselben Drehung stellt den alten Zustand wieder her.
     
    Macht man nun aber dasselbe mit einem Elektron (oder einem anderen Fermion), muss man es um nicht weniger als 720 Grad drehen — d.h. zwei volle Drehungen machen — bis es sich wieder im Ausgangszustand befindet.

Damit ist Spin eine Eigenschaft, die man nicht anschaulich machen kann. Es gibt sie aber ohne jeden Zweifel.
 
 
Erstaunlicherweise konnten Julius Weiss und Bruno Zumino ein mathematisches Schema entwickeln, welches das unterschiedliche Rotationsverhalten sämtlicher Teilchen mit Spin — sei er nun ganz oder halbzahlig (Bosonen und Fermionen) — unter einen Hut bringt. Man nennt es Supersymmetrie:

 
 
Spin 0    Spin 1/2    Spin 1    Spin 3/2    Spin 2
Higgs    Higgsino
SLepton    Lepton
SQuark    Quark    Gravitino    Graviton
    Gluino    Gluon
    Photino    Photon
    Zino    Z
    Wino    W

 
 
Da es bisher nicht gelungen ist, Superpartner nachzuweisen nimmt man an, dass wir in einem Blasenuniversum leben, in dem die Supersymmetrie wenigstens teilweise gebrochen ist.
 
Note: Ein komplett symmetrischer Zustand vergleichen mit einem, in dem die Symmetrie gebrochen ist, lässt sich veranschaulichen durch einen auf seiner Spitze stehenden Bleistift. Fällt er um — was man dann einen spontanen Symmetriebruch nennt — kann er in beliebiger Richtung am Boden liegen: Es gibt also sehr viele Zustände, die den voll symmetrischen Zustand durch einen weniger symmetrischen — dafür aber deutlich stabileren — ersetzen. In einem dieser angekommen, deutet nichts mehr hin auf die Existenz des voll symmetrischen Zustandes.
 
Konsequenz daraus:
 
Selbst wenn es Menschen niemals gelingen sollte, wenigstens für ein Teilchen seinen Superpartner nachzuweisen, wäre das noch kein Beweis dafür, dass Supersymmetrie ganz grundsätzlich nicht existiert.
 



 

 Beitrag 0-164
Was ist 1 Elektronvolt ( 1 eV )?

 
 

 
Was ist 1 eV (als Maß für Energie und Masse)?

 
 
Teilchenphysiker verwenden als Masseinheit für Energie (und oft auch Ruhemasse) das Elektronvolt (eV):

 
 
1 eV = 1.602176487 • 10-19 Joule
 
ist die Menge kinetischer Energie, die ein Elektron gewinnt, wenn es eine Beschleunigungsspannung von 1 Volt durchläuft.

 
 
Joule in eV umzurechnen (und umgekehrt) hilft z.B. der Webservice Unit Juggler.
 
In der Physik ist es üblich, auch die Ruhemasse von Elementarteilchen in eV anzugeben, was Sinn macht, da nach Einsteins Gleichung E = mc2 Masse und Energie zueinander äquivalent sind.
 
In solchen Angaben allerdings denkt man sich die Lichtgeschwindigkeit c auf 1 normiert (so dass man sie weglassen kann).
 
Wegen  J = kg(m/s)2  ergibt sich
 
1 eV  =  1.783 • 10-36 kg • c2

 
 
Die Vorsilben Mega (M), Giga (G) und Tera (T) stehen für Million, Milliarde und Billion.
 
So haben z.B. ein Elektron bzw. ein Proton eine Ruhemasse von 0.51 MeV bzw. 938.27 MeV ( streng genommen: MeV/c2 ).
 
VORSICHT also: Die Konvention, c auf 1 normiert zu sehen, kann schon auch verwirren.

 

 Beitrag 0-166
Wie man die Signifikanz experimentalphysikalischer Beobachtungen quantifiziert

 
 

 
Die Standardabweichung σ (Sigma) als Maß für Relevanz

 
 
Als sich im CERN der Verdacht zu konkretisieren begann, das Higgs-Teilchen entdeckt zu haben, war man sehr vorsichtig mit solcher Behauptung.
 
Als Maß für die Wahrscheinlichkeit, dass man tatsächlich fand, was man zu finden hoffte, gilt dort nämlich Sigma: die sog. Standardabweichung. Sie zeigt, wie selten das erwartete Signal — mit der Genauigkeit, mit der man es jeweils identifizieren konnte — in der Menge aller Signale auftritt:
     
  • Bei σ = 3 spricht man von einem » Hinweis «.
     
  • Erst ab σ = 5 fühlt man sich berechtigt, von einer » Beobachtung « bzw. » Entdeckung « zu sprechen.

σ = 3 erfüllen 0.15 Prozent aller aufgezeichneten Signale,
 
σ = 5 aber erfüllt unter 3.3 Mio Signalen nur jeweils eines.

 
VORSICHT aber: Die Konvention ist nicht umkehrbar. Mit anderen Worten: Ein Sigma-5-Nachweis bedeutet noch keinswegs, dass mit einer Wahrscheinlichkeit von 1/3300000 (= 99.99997 Prozent) ein neues oder gar ein bestimmtes Teilchen beobachtet wurde.
 
DENN: Die Standardabweichung sagt nur etwas aus über die statistische Fluktuation beobachteter  W e r t e , aber noch rein gar nichts darüber, ob gewisse beobachtete Werte tatsächlich des Effekts wegen zustande kamen, den man nachzuweisen wünscht.

 

 Beitrag 0-167
Über träge und schwere Masse

 
 

 
Masse und Gewicht


Merke:
 
     
  • Masse [ = träge Masse = Ruhemasse ] ist ein Maß für die Trägheit, d.h. für den Widerstand eines Körpers hinsichtlich seines Bewegungszustandes: Je größer die Masse eines Körpers, desto mehr Kraft ist notwendig, ihn zu bremsen oder zu beschleunigen.
     
  • Gewicht [ = schwere Masse = gravitative Masse ] ist ein Maß für die gravitative Anziehung zweier Körper (die proportional zur auf den Körper einwirkenden Gravitationskraft ist, im schwerelosen Raum also verschwindet).

 
Nur im gleichen Schwerefeld sind Masse und Gewicht zueinander äquivalent.

 
So hat z.B. ein Elektron immer und überall gleiche Masse, doch es wiegt umso weniger, je weiter es von der Erde entfernt ist.
 
So also muss man es verstehen, wenn man irgendwo liest, dass — bei geeigneter Wahl der Einheiten — träge Masse und schwere Masse stets gleich seien.
 
Siehe auch Einstein Online, wo gleich dreierlei Massenbegriffe unterschieden werden.
 


 
Einstein hat (1948) dafür plädiert, unter der Masse eines Körpers seine Ruhemasse zu verstehen - und nichts sonst.

 
Daran hält man sich bis heute, siehe Wechsel im Wortgebrauch.
 
Die sog. relativistische (oder bewegte) Masse, von der manche sprechen, ist eigentlich nur ein anderes Maß für Energie.

 

  Beitrag 2102-143
Definition: Sichtbares Licht

 
Horst in 2102-140:
Wir sollten uns darüber im Klaren sein, daß [ sichtbares ] Licht tatsächlich nichts anderes ist, als eine Bezeichnung für die subjektive Empfindung eines geringen Anteils der uns bekannten elektromagnetischen Strahlung im Frequenzbereich von 380 bis 780 Nanometer.

Auch das sichtbare Licht ist nur ein eine Definition dafür, wie wir Menschen eine elektromagnetische Strahlung wahrnehmen
Eigentlich müsste man sagen für den Menschen sichtbares Licht, denn bestimmte Tiere, wie etwa Insekten können auch noch infrarotes bzw UV-Licht "sehen"

Und was ist z.B. mit Haien, die auch andere elektromagnetische Strahlung wahrnehmen. Dadurch "sehen" sie z.B. Tiere, die sich im Sand eingegraben haben. Jeder Nervenimpuls sendet ein, wenn auch kleines, EM-Signal aus. Wie die Haie diese EM-Strahlung wahrnehmen ist unbekannt. Ob sie das EM-Bild "sehen" liegt daran, wie die Daten vom Hai-Gehirn interpretiert, bzw dem Tier ins Bewusstsein gerufen werden.
Setzte man Haie vor eine starke EM-Quelle, dann ist das so, als würde man vor einem Menschen eine Blendgranate zünden.

Ebenso könnte es sein, das ausserirdishes Leben, falls es denn existiert, eine ganz andere Wellenlänge als "Sichtbares Licht" bezeichnet.
Die Evolution schöpft immer die Möglichkeiten aus, die zur Verfügung stehen.
Leben diese Aliens etwa in der Nähe eines Pulsars, dessen EM-Felder stärker sind als das Licht zwischen 380nm - 780 nm so könnte es durchaus sein, das deren "Augen" für die Wellenlänge der Pulsar-Energie optimiert sind. Für unser sichtbares Licht sind sie womöglich absolut blind.

Wie wir unsere Welt wahrnehmen hängt nur von den Informationen ab, die uns unsere Sinne liefern. Aber auch Eigenschaften oder Ereignisse, die durch uns nicht beobachtbar sind, können existieren.

Daher dürfen wir Vorhandenes nicht ausschließlich nach dem beurteilen, was es zu sein scheint.

Wir können nie sicher sein, sein eigentlichen Wesen schon erfasst zu haben.
 


Das Wesen beispielsweise, das wir Materie zuschreiben, variiert unerwartet stark, je nachdem, auf welcher Größenskala wir sie betrachten.
 

  Beitrag 2112-7
Definition: Licht

 
 
Horst in 2112-6:
 
Ps. Und der der Rest der elektromagnetischen Strahlung?


In der Physik wird unter "Licht" grundsätzlich alle elektromagnetische Strahlung verstanden (wer das nicht will, muss von "sichtbarem Licht" sprechen).



Siehe etwa Was ist Licht?. Harald Lesch sagt dort explizit, er spreche jetzt nur über sichtbares Licht.

 

  Beitrag 1948-1
Definition: Information

 
 

Über sieben verschiedene Informationsbegriffe

Zwischenergebnisse auf dem Weg hin zu einer Antwort auf die Frage: Was ist Information im Sinne der Natur?



Information wird heute — neben Materie und Energie — vielfach als eine dritte Grundgröße angesehen (Brockhaus, S. 657). Information, als Begriff, scheint nicht auf andere Größen zurückführbar zu sein. Dennoch ist der Informationsbegriff fundamentaler Baustein aller Kommunikationsprozesse.


1. Der semantische (zwischen-menschliche) Informationsbegriff

Hier versteht man unter Information korrektes Wissen, welches man sucht, findet oder mitgeteilt bekommt.
Zwischen dem semantischen und dem nachrichtentechnischen Informationsgehalt einer Nachricht besteht KEINE wie auch immer geartete Beziehung:


2. Der nachrichtentechnische Informationsbegriff

Der Informationsgehalt einer Nachricht ist die Zahl binärer Entscheidungen, die man benötigt, eben diese Nachricht von einer ebenso komplexen anderen zu unterscheiden.

Da jede Nachricht eine Folge von Zeichen ist, kann auch jedes Zeichen als so eine Nachricht aufgefasst werden. Da nicht alle Zeichen mit gleicher Wahrscheinlichkeit auftreten, liegt es nahe, ihren Informationsgehalt mit der Wahrscheinlichkeit ihres Auftretens zu gewichten. Werden diese Produkte aufsummiert, so erhält man eine Zahl, die man nach Shannon als mittleren Informationsgehalt, Informationsdichte oder auch als Entropie der Nachricht bezeichnet.


3. Der sprachwissenschaftliche Informationsbegriff

Er verfeinert den semantischen Informationsbegriff dahingehend, dass neben Syntax und Semantik einer Nachricht auch noch deren Pragmatik Gegenstand der Betrachtung sein kann: Es kann vorkommen, dass unterschiedliche Empfänger ein und derselben Nachricht ihr unterschiedliche Information entnehmen (Pragmatik = empfängerspezifische Sicht auf semntische Inhalte).


4. Der kybernetische Informationsbegriff

Zunehmende Ordnung bedeutet zunehmende Information: Information ist das, was den Unterschied ausmacht.
Wo kybernetischer Informationsgehalt zunimmt, reduzieren sich Entropie und nachrichtentechnischer Informationsgehalt (und umgekehrt).
Die Kybernetik (das Wort bedeutet eigentlich "Steuermannskunst") abstrahiert reale Systeme hinsichtlich gewisser Eigenschaften und Verhaltensweisen zu Modellen — die man dann kybernetische Systeme nennt — und untersucht deren Struktur und Verhalten.


5. Der naturwissenschaftliche Informationsbegriff

Er wurde wesentlich geprägt durch Carl-Friedrich von Weizsäcker (Physiker und Philosoph) und kennzeichnet sich so:

Ein Telegramm enthält Information. Ist die nun als etwas Materielles oder Bewußtseinsinhalt? Antwort: weder noch:
  • Die Druckerschwärze auf einem per Fax versandten Papier ist verschieden von der Druckerschwärze des beim Empfänger ankommenden Exemplars: "Information ist gerade das, was beiden Zetteln gemeinsam ist" (Weizsäcker 1974).
  • Ähnliches gilt für den (pragmatischen) Inhalt jeder Nachricht: Das, was der Absender gedacht hat, kann verschieden sein von dem, was der Empfänger denkt. Dennoch ist beiden etwas gemeinsam. Eben das ist Information.
Und daraus folgert Weizsäcker:

"Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." (Weizsäcker 1974)


6. Der biologische Informationsbegriff

Weizsäcker findet den Gebrauch des Informationsbegriffs in Zusammenhang z.B. mit dem Chromosomensatz "völlig legitim" (Weizsäcker 1974), obwohl hier niemand spricht oder einem anderen Menschen etwas mitteilt. Spannende Frage also:

Wie lässt sich Information jenseits der menschlichen Sprache verstehen?


Und wie lässt sich verstehen, dass die Natur ganz offensichtlich Information erzeugt, wo doch gilt:

» Information ist nicht etwas, was auf der Straße herumliegt so wie Kieselsteine, sondern
Information wird erzeugt; und sie wird erzeugt nur von denjenigen, welche imstande sind, in Begriffen zu denken. «
(Weizsäcker 1973)



7. Der physikalische Informationsbegriff

Wäre so einer schon erarbeitet, müsste er wohl mindestens den biologischen und den kybernetischen verallgemeinern (und gemeinsame Wurzel beider sein).
Nicht vergessen sollte man: Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die weit mehr auf Freiheitsgrade zurückzuführen sind als auf ein Ursache-Wirkungs-Verhältnis.

Somit scheint Information die Grundlage aller Selbstorganisation zu sein.



Siehe auch: Capurro, wo u.A. berichtet wird, wie Weizsäcker den Begriff "Evolution" einordnet:

Die moderne Naturwissenschaft basiert nicht nur auf dem Begriff der Erfahrung, sondern auch auf dem der Evolution.


Was bedeutet Evolution?


Antwort: Evolution ist "Vermehrung der Menge an Form", oder anders formuliert: ein "Anwachsen der Information" (Weizsäcker 1973).

Und: "Information ist nur, was Information erzeugt." (Weizsäcker 1974).



Auch der großen Frage, wie Bewusstsein entsteht, ist Weizsäcker (allerdings ohne Ergebnis) nachgegangen:


» Das Bewußtsein taucht in der Evolution aus dem Meer des Unbewußtseins auf.
Ist also doch Form das Zugrundeliegende und Bewußtsein eine ihrer Ausprägungen? «

» Aber wie kann Form Bewußtsein erzeugen? Ist sie selbst geistig? Was könnte man damit meinen? «

(Weizsäcker 1992)



Gebhard Greiter (grtgrt)
 

Nachtrag (am 15.2.2013):

In seinem Buch "Die Evolution des Geistigen" weist Thomas Görnitz darauf hin, dass jedes physikalische Objekt — als Träger von Information —

  • zugängliche und auch
  • nicht zugängliche Information (Entropie)

trägt bzw. tragen kann. Wichtiger Teil seiner zugänglichen Information ist die Information darüber, an welcher Stelle im Universum es sich befindet.

Allgemeiner: Genau der Teil seines Zustandes, den die Natur uns (im Prinzip wenigstens) zugänglich macht, ist Träger seiner zugänglichen Information.


Wie Görnitz auf den Seiten 156-158 seines Buches zeigt, kann berechnet werden, wie groß die Entropie eines Objekts ist:

Zitat von Görnitz:
 
Wenn man sich ein Schwarzes Loch mit dem Materiegehalt unseres Universums denkt, so hätten beide gleiche Dichte und Ausdehnung. Ließe man nun noch ein Teilchen in das Schwarze Loch fallen, so würde des Teilchens zuvor zugängliche Information unzugänglich und damit zu berechenbarer Entropie.

Mit diesem Gedankenexperiment konnte ich zeigen, dass dann beispielsweise einem Planck-Black-Hole, dessen Entropie in unserem Kosmos 1 Bit ist, insgesamt etwa 1062 QuBits entsprechen (deren Menge zuvor als Menge unverborgener Information mit der Entropieformel nicht berechenbar war).

Für ein Proton [als Informationsträger] ergibt sich so, aus den heutigen astronomischen Beobachtungsdaten, ein Wert von 1041 QuBits.

Das liegt sehr nahe am früher von C.F. v. Weizsäcker vorgeschlagenen Wert von 1042 QuBits.
 


Interessant ist auch, was er auf Seite 172 sagt:

Zitat von Görnitz:
 
Entropie ist Information, die unbekannt ist, entweder weil eine Kenntnisnahme zu aufwändig oder zu uninteressant wäre (wie beispielsweise das Schicksal eines einzigen Atoms in einem Gas).

Entropie ist — salopp gesagt — Informationsmüll, wie Akten nach dem Schreddern: alle Buchstaben sind noch da, aber man kann nichts damit anfangen. Man muss sie aber los werden, um Platz für Neues zu schaffen.

Problematisch an dieser seiner Aussage aber ist, dass sie nicht unterscheidet zwischen
  • Information, die man  i g n o r i e r t , und
  • Information, die uns prinzipiell  u n z u g ä n g l i c h  ist (wie etwa die in einem Schwarzen Loch oder die in Daten, zu denen die Natur uns noch keinen Decodierungsschlüssel zur Verfügung gestellt hat).

 

  Beitrag 1951-1
Definition: Thermodynamische Entropie

 
 

Was genau ist Entropie?


Ist S ein in sich abgeschlossenes System und Z(t, S) sein Zustand zum Zeitpunkt t, so versteht man unter der Entropie E(t, S) von S zum Zeitpunkt t die Länge der kürzesten Bitfolge, über die sich der Zustand Z(t, S) komplett beschreiben lässt.


Entropie ist ein Maß für die Komplexität von Systemzuständen.

Je ungeordneter ein Systemzustand, desto höher seine Entropie.


 

  Beitrag 1954-1
Definition: Well Defined Degrees of Freedom (WDDF)

 
 

WDDF — Well Defined Degrees of Freedom


Zum physikalischen Informationsbegriff:

Grtgrt aus 1948-1:
 
Wäre so einer schon erarbeitet, müsste er wohl mindestens den biologischen und den kybernetischen verallgemeinern (und gemeinsame Wurzel beider sein).
Nicht vergessen sollte man: Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die weit mehr auf Frei­heitsgrade zurückzuführen sind als auf ein Ursache-Wirkungs-Verhältnis.

Somit scheint Information die Grundlage aller Selbstorganisation zu sein.

 


Wie in Beitrag 1948-34 schon erklärt wurde, stellen Ordnung und Unordnung die beiden Grundformen dar, in denen Information auftreten kann. Ihr Bezug zu Freiheitsgraden ist offensichtlich:
  • Ordnung setzt  G r e n z e n  für Freiheitsgrade,
  • Unordnung ist Symbol für die  A u s s c h ö p f u n g  von Freiheitsgraden.

Nicht zuletzt deswegen kommt mir bei der Suche nach einer Antwort auf die Frage, was denn nun eigentlich das Wesen eines Begriffs von Information ausmachen könnte, der tauglich wäre, Basis aller physikalischen Gesetze zu sein, der Verdacht, dass es sich hierbei um ein Naturgesetz handeln könnte,

welches Freiheitsgraden entspricht,

entlang derer sich jeder im Universum ablaufende Prozess entwickelt in dem Sinne, dass die Natur
  • ihn zwingt, sich NUR in ihrem Rahmen zu entwickeln
  • ihm ansonsten aber jede Freiheit lässt, den Rahmen, diese Freiheitsgrade also, VOLL auszuschöpfen.

Der durch die Freiheitsgrade gesetzte Rahmen in Kombination mit absolutem Zufall im Sinne der Quantenphysik könnte zur Folge haben, dass solche Prozesse selbstorganisierend sind und so Ordnung entsteht, die der Evolution fähig ist — einer Evolution, die gezielt die jeweils stabileren Strukturen begünstigt, weil die ja, eben
w e g e n  ihrer Stabilität, selbst wieder zu steuernden Faktoren werden in dem Sinne, dass sie den Zufall mehr und mehr kanalisieren:

Hinreichend stabile Strukturen verändern die Wahrscheinlichkeiten, mir der ansonsten gleich wahrscheinliche Ereignisse zufällig eintreten.


Gebhard Greiter (grtgrt)
 

  Beitrag 1954-5
-

 
 
Henry aus 1954-4:
"Ordnung" wird durch Gravitation geschaffen, "Unordnung" ist der systemimantente "Drang" nach völliger Gleichverteilung, nach Ausgleich zwischen Potentialen. Der antopozentrische Begriff der "Freiheitsgrad" hat hier keinerlei Bedeutung.

Hi Henry,

"Ordnung" wird keineswegs nur durch Gravitation geschaffen, sondern — um nur EIN Beispiel zu geben — auch durch die einem Quantensystem (einem Molekül etwa) zugeordnete Wellenfunktion ψ.

Auch meinen Begriff "Freiheitsgrade" interpretierst du viel zu eng:

Nimm z.B. ein Molekül und die ihm zugeordnete Wellenfunktion. Sie definiert sog. "Knotenflächen". Die wiederum stellen die Menge aller Raumpunkte dar, an denen sich kein einziges Elektron im Molekül aufhalten kann (kein Elektron wird sich dort zeigen, wenn man versucht, es zu beobachten).

Damit ist diese Wellenfunktion Beschreibung eines sehr komplizierten "Freiheitsgrades". Er gibt dem Orbitalmodell des Moleküls eine ganz bestimmte Struktur (siehe etwa diesen Artikel und die Bilder darin) und sagt den Elektronen, wo sie sich zeigen bzw. nicht zeigen dürfen.

Gruß,
grtgrt
 

  Beitrag 1963-13
Dekohärenz: Hier treffend charakterisiert

 
 
Irena aus 1963-12:
 
... jede Wechselwirkung ist eine Äußerung der Wellenfunktion, die durch diese Äußerung irreversibel wird (Dekohärenz).

Es geht nicht um ständigen Zerfall und Erzeugung der Materie. Es geht nur um ständige ERZEUGUNG der Materie, die durch ständige Wechselwirkungen der Quanten sich manifestiert.


Genau so sehe ich das auch.

grtgrt
 

  Beitrag 1963-32
Wichtige Klarstellung

 
Hi,

hier der Antwort zum mit E... diskutierten Thema Wellenkollaps/Dekohärenz von einem Fachmann Joachim Schulz (siehe auch http://www.scilogs.de/wblogs/blog/quantenwelt/conte...) aus Quantenforum ( http://www.quantenforum.de/viewtopic.php?f=6&t=... ):

Zitat:
Ja, genau. Der neue Zustand nach dem Kollaps ist wieder ein Quantenzustand, der durch eine neue, reduzierte Wellenfunktion beschrieben wird. Es ist nicht so, dass da aus einer Welle ein klassisches Teilchen entsteht, das von da an keine Welleneigenschaften mehr hat. Die Welt bleibt quantenmechanisch.

Gruß Irena

Hinweis von grtgrt:
 
Wichtig noch:

Die Wellenfunktion — bzw. der Zustand nach dem Kollaps — ist nicht wirklich reduziert, sondern  e r s c h e i n t  uns nur so, da man den Zustand ja stets als Linearkombination zweier zueinander orthogonaler Zustände darstellt (gegeben durch die Messfrage). Nach dem "Kollaps" aber ist einer dieser beiden Zustände aber der, in den die "Messung" das Quant gebracht hat.

Der hin und wieder angetroffene Begriff » reiner Zustand « ist stets nur relativ zur Messfrage wohldefiniert, denn Antwort auf eine quantenphysikalische Messfrage kann ganz grundsätzlich stets nur ein JA oder ein NEIN sein.

So kann man z.B. ein Photon nicht nach seiner Polarisierung fragen. Man kann stets nur eine der — unendlich vielen — möglichen Polarisierungsrichtungen R vorgeben und dann fragen: » Liebes Photon, bist du in Richtung R polarisiert? «

Die Antwort wird ein JA oder ein NEIN sein — und das auch dann, wenn das Photon vor seinem Zusammentreffen mit der Messapparatur in einer Richtung polarisiert gewesen sein sollte, die weder R noch senkrecht zu R war:

Ergebnis einer Messung ist eben stets nur Wissen über den Zustand des Photons  n a c h  der Messung.

 

 

  Beitrag 1986-1
Wie physikalische Objekte dekohärent werden (und sich so fortentwickeln) — Lebenszyklus der Elementarteilchen

 
 

Zum Lebenszyklus von Elementarteilchen

und

wie makroskopische Objekte dekohärent werden (und sich so fortentwickeln)



Es ist vernünftig, sich vorzustellen, dass jedes Elementarteilchen
  • durch ein Elementarereignis erzeugt wird
  • und im nächsten Elementarereignis, an dem es beteiligt ist, stirbt.

Ein Elementarereignis in diesem Sinne ist ein Ereignis E, welches
  • zwei virtuelle Teilchen (solche mit extrem kurzer Lebensdauer und entgegengesetzter Ladung) aus dem Nichts entstehen lässt
  • oder Kollision von Elementarteilchen (sein Input ist dann eine Menge sich allzu nahe kommender Elementarteilchen, sein Output ist eine andere Menge von Elementarteilchen).

Mit anderen Worten:

Jedes Elementarereignis E ersetzt eine Menge von Elementarteilchen durch eine andere.

Eine – und nur eine – dieser beiden Mengen kann leer sein (recht oft aber sind beide nicht leer).


Obgleich die Teilchen in Output( E ) denen in Input( E ) oft recht ähnlich sind, sollte man sie dennoch als neue Teilchen begreifen, die als Ersatz der alten ins Leben gerufen werden.

Alle Elemente von Output( E ) existieren zunächst in einem Überlagerungszustand. Erst wenn so ein Teilchen mit anderen kollidiert, — interagiert —, konkretisiert sich sein Zustand (die Kopenhagener Deutung nennt das den Zusammenbruch der Wellenfunktion des Teilchens, in modernerer Sprache sagt man stattdessen auch, das Teilchen werde dekohärent). Der Wert der Eigenschaften, die so als einziger und zugleich letzter Zustand des Teilchen dem Beobachter erfahrbar werden, sind sozusagen die einzige Äußerung, mit der das Teilchen sich seiner Umgebung mitteilt.


Makroskopische physikalische Objekte O, solche also, die aus mehr als nur einem Elementarteilchen bestehen, werden schrittweise und ständig neu dekohärent. Jeder solche Schritt besteht darin, dass ein zu O gehörendes Elementarteilchen dekohärent wird (sich also ersetzt durch andere bzw. durch ein anderes, ihm sehr ähnliches).

Beispiel: Wenn ein Elektron eine Moleküls mit einem daherkommenden Photon hinreichend hoher Energie kollidiert, kann es vorkommen, dass das Elektron ersetzt wird durch eines in einem höheren, also energiereicheren Orbital des Moleküls (oder Atoms). Das Photon hört auf zu existieren oder wird ersetzt durch ein weniger energiereiches.


Aus ein und demselbem Elemetarereignis hervorgehende Elementarteilchen e1 und e2 werden oft (aber – wie man heute erkannt zu haben glaubt – nicht immer) miteinander verschränkt sein. Verschränkung ist eine Art Verwandtschaftsbeziehung, die bewirkt, dass, wenn e1 dekohärent wird, e2 ohne jede Verzögerung in einen Zustand gerät, der bewirkt, dass wenn e2 irgendwann auch dekohärent wird, der Wert des Zustandes, in dem es sich e2 dann zeigt, korrelliert ist zu dem, in dem sich vormals e1 gezeigt hat.

Man könnte also sagen: Sind e1 und e2 miteinander verschränkte Elementarteilchen, und wird e1 dekohärent, so wird e2 virtuell dekohärent, existiert aber weiter (virtuell, d.h. immer noch in einem Überlagerungszustand). Dies gilt unabhängig davon, wie weit e1 und e2 von einander entfernt waren, als e1 dekohärent wurde (und so seine Existenz beendet hat).


Gebhard Greiter (grtgrt)

 

  Beitrag 1972-87
Was die Kollision von Elementarteilchen konkret bedeutet

 
 

Was man unter der Kollision zweier Elementarteilchen versteht


Genau dann, wenn zwei Elementarteilchen einander zwingen, gemeinsam dekohärent zu werden
( d.h. zu verschmelzen und sich neu aufzuteilen )
sagt man, sie kollidieren.



Siehe auch: Lebenszyklus eines Elementarteilchens

 

  Beitrag 2008-1
-

 
 

Zu dem, was Quantenphysiker den » Messprozess « nennen

Er passiert, wo immer Quantensysteme Q und M miteinander kollidieren,



und besteht darin, dass mit einer Messvorrichtung M kollidierende Quanten oder Quantensysteme Q durch sie gebeten werden, sich zu einem bestimmten Zustand Z( M) zu bekennen (man nennt das die durch M definierte Messfrage).

Z( M) ist durch M mehr oder weniger genau definiert und heißt

  • gemischter Zustand, wenn weniger genau gemessen wird (wobei das Messergebnis dann eine Wahrscheinlichkeitsaussage ist, die aber lediglich unsere aus der Ungenauigkeit der Messung resultierende subjektive Unkenntnis ausdrückt — keineswegs aber quantische Unbestimmtheit).

Die Messung selbst besteht darin, dass das mit M kollidierende Quant
  • sich entweder zum Zustand Z( M) bekennt
  • oder von der Messapparatur verschluckt wird.

Wenn sich das Quant zum Zustand Z( M) bekennt, wird es die Messapparatur in diesem Zustand Z( M) verlassen: M hat es dann sozusagen in den Zustand Z( M) gezwungen. Die Wahrscheinlichkeit, mit der das passiert, wird umso kleiner sein, je mehr sich Z( M) vom Zustand Z( Q) unterscheidet (hier bezeichnet Z( Q) den Zustand, in dem Q die Messapparatur M erreicht).

Der spontane Übergang von Z( Q) nach Z( M) ist das, was man als Zustandsprojektion oder — weit dramatischer — als Kollaps der Wellenfunktion bezeichnet: Die Schrödingergleichung von Q — und damit seine Wellenfunktion — werden durch eine neue, etwas abgeänderte Version ersetzt.

Wer betonen möchte, dass dieser Austausch der Schrödingergleichung spontan und ohne jeden Zeitverzug stattfindet, der nennt den Kollaps der Wellenfunktion auch einen Quantensprung. Görnitz (S. 84) weist darauf hin, dass dies stets die kleinstmögliche reale Veränderung ist, die mit oder am System Q geschehen kann.


Da die Messapparatur frei ist, jede mögliche Frage zu stellen, gilt:

Zitat von Görnitz, S. 85:
 
Quantentheorie determiniert die  M ö g l i c h k e i t e n  [ über die Schrödingergleichung , aber NICHT die Fakten.



Ein System wird sich demnach nicht beliebig entwickeln, sondern deterministisch gesetzmäßig, das aber so, dass
  • die Eigenschaft "deterministisch" sich auf die Menge in Zukunft  m ö g l i c h e r  Zustände bezieht;
  • Welche davon dann wirklich eintreten, hängt ab vom Ergebnis der Messfragen, die das System gezwungen sein wird zu beantworten.

Zitat von Görnitz, S 85:
 
Hier eröffnet sich wichtiger Spielraum im Weltgeschehen ... :

Es ist keine Willkür zu erwarten, aber auch keine absolut durchgängige Determiniertheit. [Die Freiheit, die ein Quantensystem Q hat, sich zu entwickeln, steigt mit der Anzahl und der Verschiedenheit der Messfragen, die es gezwungen wird zu beantworten.
 


Meine Zusammenfassung dessen, was
Görnitz auf den Seiten 80-85 seines Buches "Die Evolution des Geistigen" sagt


 

  Beitrag 1995-1
Inwiefern anfassbare Gegenstände nur Illusion sind

 
 

Wie es zur Illusion anfassbarer Gegenstände kommt


Jeder Gegenstand G, den man anfassen und fühlen kann, ist eine Konfiguration von Elementarteilchen.

Jedes dieser Teilchen existiert zunächst nur virtuell, d.h. noch nicht mal an einem genau definierten Ort: Es existiert nur als ein Energiepaket T, für das die Wellenfunktion ψ unseres Universums U zu jedem Punkt P der Raumzeit eine Wahrscheinlichkeit w( P,T ) dafür nennt, dass T in Punkt P als Teilchen beobachtbar wird. Wo solche Beobachtung dann tatsächlich stattfindet, bedeutet das, dass T mit wenigstens einem anderen Teilchen in dem Sinne kollidiert, dass beide miteinander verschmelzen und aus dieser Verschmelzung sehr oft neue Elementarteilchen entstehen.

Das Entstehen zweier Teilchen T aus dem Nichts ebenso wie die eben beschriebene Kollision von Elementarteilchen nennt man ein Elementarereignis E. Versteht man unter input( E) bzw. output( E) die Menge aller durch E vernichteten bzw. neu erzeugten Elementarteilchen, so kann maximal eine dieser beiden Mengen leer sein. Auf jeden Fall aber haben beide identischen Gesamtimpuls.

Der spontane, plötzliche Übergang von input( E) zu output( E) entspricht einer winzigen Äbänderung von G, die sich bemerkbar macht
  • einerseits durch aus G kommende Strahlung – Licht etwa –
  • und andererseits über eine leichte Abänderung der Kräfte, die zwischen den G darstellenden Elementarteilchen wirken in dem Sinne, dass Teilchen, die Ruhemasse haben, sich nicht beliebig nahe kommen können, dass es ihnen aber umgekehrt auch ziemlich schwer fällt, sich allzu weit voneinander zu entfernen.

Mit anderen Worten:

Ständig in G eindringende Strahlung (wenigstens die allgegenwärtige kosmische Hintergrundstrahlung) ist für die meisten in G stattfindenden Elementarereignisse E verantwortlich. Da für sehr viele der in G stattfindendes Elementarereignisse E die Menge output( E) Teilchen enthält, die aus G als Strahlung entweichen — sehr oft als sichtbares Licht —, wird G über sie durch unsere Sinne — entweder direkt oder über geeignet konstruierte Detektoren — beobachtbar.

Mehr noch: Die zwischen den G darstellenden Materieteilchen wirkenden Kräfte führen zu einem Kräftegleichgewicht, welches — da es ja durch jedes Elementarereignis nur ein klein wenig abgeändert wird — zur Folge hat, dass G seine Form i.A. nur langsam ändert (und dass Widerstand spürt, wer den Gegenstand G berührt oder gar versucht in wegzuschieben oder zusammenzudrücken).

Diese Sinneswahrnehmungen also sind es, die — aufsummiert durch unser Gehirn — zu dem führen, was wir als einen uns sichtbaren oder durch uns berührbaren Gegenstand begreifen.


Gebhard Greiter (grtgrt)
 

  Beitrag 1995-10
-

 
 
Harti aus 1995-6:
Hallo Grtgrt,

es wäre zweckmäßig zunächst mal näher zu beschreiben, zu definieren, was unter "Illusion" verstanden werden soll .

Was ich in Beitrag 1995-1 unter dem Begriff Illusion verstehe, ist dort ganz genau beschrieben — es bedarf keiner weiteren Erklärung.

Gruß, grtgrt
 

  Beitrag 1995-11
-

 
 
Horst aus 1995-8:
Hallo grtgrt,

gehe ich dann recht in der Annahme, dass somit auch Illusionen angreifbare Masse besitzen und der Schwerkraft unterliegen?

Masse und Schwerkraft finden sich in dem, für das die Illusion steht (Illusion = Erscheinungsbild).

 

  Beitrag 1995-5
-

 
 

Ein Dachziegel — und doch auch Billiarden von Kathedralen


Erst Rutherford (1871-1937) erkannte, dass jedes Atom fast nur aus Leere besteht. Zu Atom und Atomkern schrieb er:

Zitat von Rutherford:
 der Atomkern — ein Staubkörnchen auf dem Boden einer Kathedrale;

die Elektronen — wie ein paar Fliegen im Gewölbe der Kathedrale.


Dazwischen Leere — nichts.


 

  Beitrag 1995-68
Letztlich besteht unsere gesamte Welt nur aus Energie in Form von Bewegung

 
 

Auch ein Dachziegel ist — letztlich — nur durch Bewegung gegebene Energie



Seit langem weiß man, dass der Atomkern winzig ist im Vergleich zum gesamten Atom. Dennoch sind mehr als 99.9% der Atommasse im Kern konzentriert. Daher ist die Behauptung, jedes Atom sei i.W. leerer Raum, durchaus zutreffend.

Die Aussage allerdings, dort sei Vakuum, wäre falsch (die Experimentalphysik versteht unter "Vakuum" die Abwesenheit von Atomen, und das kann es im Inneren der Atome natürlich nicht geben). Auch der Ausdruck "leerer Raum" ist eher eine Metapher. Wirklich gemeint ist, dass der Raum im Inneren der Atome ausschließlich Orte enthält, an denen man zu gegebenem Zeitpunkt mit bestimmter Wahrscheinlichkeit ein Elektron antreffen könnte.

Auch wenn man noch weiter ins Kleine vordringt, wird es nicht anders: Man liest immer wieder, dass die Nukleonen (die Protonen und Neutronen also, aus denen der Atomkern besteht) aus Quarks bestehen. Jene Quarks aber stellen jeweils nur einen winzigen Bruchteil der Masse eines Protons oder Neutrons dar (nur etwa 2%). Die restlichen 98% der Masse jeden Nukleons sind gegeben durch die Bewegung der Quarks gemäß Einsteins Formel m = E/c2.


Letztlich ist alles in unserer Welt nur Energie in Form von Bewegung:

Energie — auch in Form von Materie — ist nichts anderes als Bewegung (von was auch immer).



Dem Sinne nach zitiert aus
Görnitz: Die Evolutionen des Geistigen, S. 124 und 122



Ein Elektron an einem bestimmten Ort "aufzufinden oder anzutreffen" bedeutet wirklich NUR, dass von diesem Ort ein Signal ausgeht, welches zeigt, dass dort ein Elektron und mindestens noch ein anderes Quant an ein und demselben Elementarereignis beteiligt sind. Wichtig ist, sich darüber klar zu sein, dass

beide Teilchen nicht-lokale Aspekte haben.


Eben das vergisst man allzu oft.

 

  Beitrag 1995-75
-

 
 
Stueps aus 1995-69:
 
ich meine gehört zu haben, dass die meiste Masse in Bindungsenergie gebunden ist.

Hi Stueps,

das scheint falsch zu sein, wie man folgendem Gedankenaustausch im Forum PhysikerBoard entnehmen kann:


Personen jh8979 und Gustav123 behaupten dort, die Masse des Protons käme vor allem durch die Bindungsenergie der starken Wechselwirkung.

Ein gewisser TomS widerspricht dieser Behauptung gleich zwei Mal, indem er schreibt:


Zitat von TomS:
 
Bindungsenergie ist hier irreführend, ...

Die (näherungsweise bzw. exakt) masselosen Quarks und Gluonen im Protonen bewegen sich relativistisch, d.h. die Ruhemasse des Protons entspricht einer hohen kinetischen Energie. Aber auch dieses Bild ist leicht verwirrend; es ist nicht einfach, die Masse des Protons mit unseren Alltagsbegriffen zugleich anschaulich und einigermaßen korrekt zu erklären.

Zitat von TomS:
 
... im Falle der QCD die Bindungsenergie (= die Stabilität des gebundenen Zustandes) einerseits und die Masse (des gebundenen Zustandes) andererseits nichts miteinander zu tun haben.

Bindungsenergie (pro Quark) ist letztlich die Energie, die benötigt wird, den gebundenen Zustand aufzubrechen bzw. ein Quark zu isolieren (vgl. Ionisierungsenergie eines Elektrons im Atom). Das funktioniert mit einem einzelnen Quark aufgrund des Color-Confinements sowieso nicht. Trotzdem liegt natürlich eine Bindungsenergie vor, die die Stabilität des Nukleons beschreibt. Aber diese Bindungsenergie kann man nun nicht einfach mittels E=mc2 in einen Massendefekt umrechnen; diese Vorgehensweise aus der Kernphysik ist in der QCD nicht anwendbar.
 

 

  Beitrag 1995-76
-

 
Hallo Gebhard,

ich bin mir sicher, dass Bindungsenergie eine wesentliche Rolle spielt. Jedoch eben neben der Ruhemasse der einzelnen Komponenten nicht die einzige, wie ich vermute, und in vorigem Beitrag vorgerechnet habe. Die Bindung zwischen den einzelnen Quarks wird mithilfe von Gluonen und deren "Farben" beschrieben und ist zwar schon nicht einfach nachzuvollziehen, aber wenn man sich Mühe gibt, geht es noch. Die Gluonen sind die Teilchen der starken Kernkraft. Diese Kraft hält auch die Nukleonen im Atomkern zusammen, und rührt letztlich auch von den Gluonen her. Dieser Prozess zwischen den Nukleonen ist jedoch für einen Laien fast nicht nachzuvollziehen. Das meint "TomS" wahrscheinlich in deinem Beitrag mit

Zitat:
Trotzdem liegt natürlich eine Bindungsenergie vor, die die Stabilität des Nukleons beschreibt. Aber diese Bindungsenergie kann man nun nicht einfach mittels E=mc2 in einen Massendefekt umrechnen; diese Vorgehensweise aus der Kernphysik ist in der QCD nicht anwendbar.

Die QCD beschreibt den Bindungsprozess zwischen den Nukleonen wesentlich tiefergehender als die Kernphysik und leider auch ungleich komplizierter.

Ich weiß nicht, ich lehne mich mal jetzt weit aus dem Fenster und vermute, dass relativistische Effekte in den Prozessen, die in Atomkernen stattfinden, einen wesentlichen Beitrag zur Gesamt-Ruhemasse eines Atomkerns beitragen. Und da scheinen dann die von dir erwähnten Bewegungsenergien eine weitere wesentliche Rolle zu spielen.

Nebenbei: Quarks haben eine Ruhemasse, sie sind nicht, wie vielleicht die Neutrinos, näherungsweise masselos (mindestens 1 700 000 eV c-2 für ein up-Quark sind ziemlich weit von näherungsweise nichts entfernt). Und die Masselosigkeit der Gluonen wird zwar im Standardmodell angenommen, nachweisen kann man dies jedoch zur Zeit nur experimentell. Und in Experimenten kann eine Ruhemasse von Gluonen derzeit nicht ausgeschlossen werden. Also genieße die Ausagen von "TomS" mit einer gewissen Vorsicht.

Grüße
 

  Beitrag 1995-77
-

 
Stueps aus 1995-76:
Hallo Gebhard,

ich bin mir sicher, dass Bindungsenergie eine wesentliche Rolle spielt. Jedoch eben neben der Ruhemasse der einzelnen Komponenten nicht die einzige, wie ich vermute, und in vorigem Beitrag vorgerechnet habe. Die Bindung zwischen den einzelnen Quarks wird mithilfe von Gluonen und deren "Farben" beschrieben und ist zwar schon nicht einfach nachzuvollziehen, aber wenn man sich Mühe gibt, geht es noch. Die Gluonen sind die Teilchen der starken Kernkraft. Diese Kraft hält auch die Nukleonen im Atomkern zusammen, und rührt letztlich auch von den Gluonen her. Dieser Prozess zwischen den Nukleonen ist jedoch für einen Laien fast nicht nachzuvollziehen. Das meint "TomS" wahrscheinlich in deinem Beitrag mit

Zitat:
Trotzdem liegt natürlich eine Bindungsenergie vor, die die Stabilität des Nukleons beschreibt. Aber diese Bindungsenergie kann man nun nicht einfach mittels E=mc2 in einen Massendefekt umrechnen; diese Vorgehensweise aus der Kernphysik ist in der QCD nicht anwendbar.

Die QCD beschreibt den Bindungsprozess zwischen den Nukleonen wesentlich tiefergehender als die Kernphysik und leider auch ungleich komplizierter.

Ich weiß nicht, ich lehne mich mal jetzt weit aus dem Fenster und vermute, dass relativistische Effekte in den Prozessen, die in Atomkernen stattfinden, einen wesentlichen Beitrag zur Gesamt-Ruhemasse eines Atomkerns beitragen. Und da scheinen dann die von dir erwähnten Bewegungsenergien eine weitere wesentliche Rolle zu spielen.

Nebenbei: Quarks haben eine Ruhemasse, sie sind nicht, wie vielleicht die Neutrinos, näherungsweise masselos (mindestens 1 700 000 eV c-2 für ein up-Quark sind ziemlich weit von näherungsweise nichts entfernt). Und die Masselosigkeit der Gluonen wird zwar im Standardmodell angenommen, nachweisen kann man dies jedoch zur Zeit nur experimentell. Und in Experimenten kann eine Ruhemasse von Gluonen derzeit nicht ausgeschlossen werden. Also genieße die Ausagen von "TomS" mit einer gewissen Vorsicht.

Grüße

http://de.wikibooks.org/wiki/Teilchenphysik:_Erhalt...

Stuebs, Gebhard!

Die "Farben" der Quarks sind nichts anderes als ihre Ladungen. So wie die elektromagnetische Kraft überwunden werden muss, damit z. B. Kerne verschmelzen können, muss die "Farbe" überwunden werden, damit z. B. Up- und Downquarks Nukleonen bilden können.

Um den Begriff "Bindungsenergie" richtig einzuordnen: Es wird die Energie "Bindungsenergie" genannt, die bei der Kernfusion freigesetzt wird, aber auch z. B. beim Beta-Zerfall (Radioaktivität). Aber, Stuebs, mach dir doch mal Gedanken, wie sich die entsprechende Energie innerhalb der Nukleonen verhält, bzw. wie kommt die Energie denn zustande? Wie jede Energie ist sie sinnlos, wenn sie einfach nur vorhanden ist, es muss ein Niveaugefälle vorhanden sein, oder aber, es muss einen Effekt geben, der Energie umwandelt – und das ist in den Nukleonen der Fall.

Die Nukleonen (also Protonen, Neutronen) bestehen aus Quarks, genauer aus Up- und Downquarks. Und diese Quarks werden durch die (masselosen!) Gluonen zusammengehalten, und zwar durch den ständigen Austausch von Gluonen. Gluonen sind dir Übermittler der Starken Wechselwirkung, sie gehören zum Feld der Starken Wechselwirkung, wie die Photonen als Übermittler der elektromagnetischen Wechselwirkung zum elektromagnetischen Feld gehören. Dieser Austausch ist Bewegungsenergie. (Der gesamte Prozess ist ungleich komplexer, es gehören wegen der räumlich kleinen Dimension auch virtuelle Austauschteilchen dazu) und ich maße mir nicht an, ihn auch nur Ansatzweise zu verstehen.)

Wie kommt es denn überhaupt zu einer Kernfusion? Nur aufgrund unseres allseits beliebten Tunneleffektes und wegen der hohen Temperaturen in den Sternen, hervorgerufen durch die Schwerkraft. Die Temperaturen allein würden nicht ausreichen, deshalb der Tunneleffekt, und die Temperatur bedeutet nichts anderes als Bewegungsenergie, denn für ein einzelnes Nukleon kann man nicht von Temperatur sprechen. Durch die Bewegungsenergie und der Tunneleffekt lässt sich die abstoßende Wirkung der gleichartig geladenen Nukleonen überwinden. Die dabei freigesetzte Bindungsenergie wird zum kleinen Teil als Bewegungsenergie auf die Nukleonen übertragen, zum anderen als Gammastrahlung freigesetzt – davon leben wir.

Letztlich ist es also nicht nur die "vordergründige" Wärme (was nichts anderes ist, als die Bewegungsenergie der einzelnen Atome als statistischen Wert darzustellen) der Sonnenoberfläche, die unser Leben auf unserer schönen Erde ermöglicht, sondern sie – die Bewegungsenergie – steht auch ganz am Anfang der Energieerzeugung (jetzt mal von der Gravitation abgesehen).

Und zum Schluss: Relativistische Effekte können keinerlei Einfluss auf eine "Gesamtruhemasse" haben, denn die Ruhemasse ist eine Erhaltungsgröße, so wie die Energie ebenfalls.

Diese Links könnten für uns interessant sein:

http://www.leifiphysik.de/web_ph11_g8/grundwissen/1...
http://www.buw-output.uni-wuppertal.de/ausgabe1/fodor/
http://www.teilchenwelt.de/forum/index.php?page=Thr...
 

  Beitrag 1995-9
Leben wir als Teil einer nur errechneten (simulierten) Welt?

 
 
Zara.t. aus 1995-7:
Heute weiß man, dass die Leere des Vakuums alles andere als leer ist. Jeder Punkt der Raumzeit ist eine Überlagerung von möglichen Teilchen. Besser: von virtuellen Teilchen, die nicht direkt gemessen werden können und von Möglichkeiten "reale" Teilchen zu messen.

Hi Zara,

genau so hat es mein Beitrag 1995-1 ja auch beschrieben.


Zara.t. aus 1995-7:
 
Rutherford hat noch vollkommen klassisch gedacht. Dieses Atommodell konnte nicht funktionieren. Elektronen, die wie Planeten die Sonne, den Kern umkreisen müßten in den Kern stürzen. Auch aus diesem Problem heraus entwickelte sich die Quantenmechanik.


Natürlich: Rutherfords Atommodell war noch nicht so genau, wie wir es heute wissen. Dennoch erscheint mir sein Vergleich recht erhellend.

Deine Aussage aber, dass sich "aus diesem Problem" die Quantenmechanik entwickelt hätte, stimmt so nicht. Ursache ihres Entstehens war die Entdeckung des Wirkungsquantums durch Max Planck (1899, im Dez 1900 der Fachwelt verkündet).

Nebenbei: Anton Zeilinger vermutet, dass die Quantelung aller physikalischen Größen und Prozesse darauf zurückzuführen sein könnte, dass unsere ganze Welt letztlich nur aus Information besteht und die sich eben nur durch Bitfolgen kodieren lässt.

Hätte er recht (und in dem Fall wäre sogar Energie nur Illusion), wäre es gar nicht mehr so abwegig, auch die Möglichkeit in Betracht zu ziehen, dass unser ganzes Universum — und damit sogar wir selbst — vielleicht nur Teil einer gigantisch angelegten Computer­simulation sein könnten (so wie Brian Greene das, als nicht wirklich ausschließbare Möglichkeit, allen E...es in Kap. 10 seines Buches "The Hidden Reality" ja auch schon diskutiert und auf Plausibilität hin zu durchdenken versucht).


Gruß, grtgrt


PS: Anton Zeilinger und Andreas Mücklich gehen noch weiter, indem sie vermuten, dass die Natur jedem physikalischen Objekt nur endlich viele Bits zugesteht, sich selbst zu beschreiben. Dies würde begründen, warum Heisenbergs Unschärfe-Relation gilt: Je genauer eine Eigenschaft des Objekts beschrieben ist, desto mehr jener Bits sind hierfür verbraucht, und desto weniger stehen zur Verfügung, dazu komplementäre Eigenschaften des Objekts wirklich genau zu beschreiben. Wenn das Objekt dann, wie durch Zeilinger vermutet, nur aus seiner Beschreibung besteht, ist klar, dass die Unschärfe in Wirklichkeit  U n b e s t i m m t h e i t  ist: Wirklich scharf also kann kein Objekt existieren.

Wäre unsere Welt nur eine simulierte (d.h. errechnete), müsste man jene begrenzt langen Bitfolgen als die Variablen sehen, die im simulierenden Programm das physikalische Objekt darzustellen haben. Dies würde erklären, warum sie begrenzt sind.


Nach Zeilinger lässt sich das keineswegs nur für Elementarteilchen so sehen, sondern auch für beliebig komplexe Objekte — beispielsweise für ganze Messapparaturen.
Er zeigt das am Beispiel solcher, die einen Mach-Zehnder-Interferometer nutzen, mit dem man für Photonen zwei Arten von Information sammeln kann — niemals aber Information beider Art zugleich: Diese Arten von Information sind zueinander komplementär im Sinne der Unbestimmtheitsrelation (wie Zeilinger auf Seite 202 seines Buches Einsteins Schleier recht überzeugend darlegt).

 

  Beitrag 1995-25
-

 
 
Hi E...,

danke für den Link hin zum Interview mit Anton Zeilinger.

Besonders zwei Definitionen daraus sollte man sich auch ihrer Formulierung nach gut merken:
  • Der quantenmechanische Zustand ist die Information, die wir über die Welt haben [so die Kopenhagener Interpretation
     

  Beitrag 1995-27
-

 
 
E... aus 1995-23:
... komplexe makroskopische Systeme sich in  k e i n e m  Quantenzustand befinden und deshalb auch  k e i n e  Illusion sein können.

Quelle: http://www.heise.de/tp/artikel/7/7550/1.html

Hi E...,

diese deine Aussage ist natürlich falsch, und das in gleich zweierlei Hinsicht. Hier mein Beweis:
  • Da Zeilinger im durch dich gefundenen Artikel sagt, der quantenmechanische Zustand eines Systems sei die Information ist, die wir über das System haben, ist jedes makroskopische, durch uns beobachtbare System doch ganz klar in einem solchen Zustand.
  • Als was uns das System erscheint (sein "Erscheinungszustand", die "Illusion" also) wird hervorgerufen durch uns erreichende Quanten, die — erzeugt durch sein ständiges dekohärent werden — von jenem Objekt ausgehen. Es sind Quanten, die die entsprechenden Elementarereignisse sozusagen "aus dem Objekt heraus­schlagen" (genauer: aus einer Verschmelzung des Objekts mit den Quanten seiner Umgebung, die es dekohärent machen und so auch mit seiner Umgebung verschränken können).

Gruß, grtgrt
 

  Beitrag 1995-26
-

 
Dekohärenz beudet Verschränkung des Systems mit der Umwelt. Nicht mehr und nicht weniger.
 

  Beitrag 1995-31
Zur Wechselwirkung makroskopischer Objekte mit auf sie treffenden Quanten

 
 
Sehr treffend finde ich, was Norbert Hinterberger in einem Leserbrief an die Zeitschrift "Spektrum der Wissenschaft" sagt:

Zitat von Norbert Hinterberger, Hamburg:
 
Der Teilchenbegriff ist vermutlich rein subjektiv – intersubjektiv zwar, aber eben subjektiv für den Teil der Welt, den wir klassisch sehen.

H. Dieter Zeh hat dazu wiederholt in überzeugender Weise argumentiert.

Der Welle-Teilchen-Dualismus scheint physisch diskret nicht vorhanden zu sein. Objektiv beziehungsweise physisch fundamental scheint nur die Welle zu sein.

Unter Laborbedingungen (ohne Dekohärenz) lässt sich das ja auch deutlich zeigen, wie wir hier – insbesondere in dem kleinen Film – sehen. Das Molekül wird von den Experimentatoren selbst als Materiewellenüberlagerung beschrieben, sobald wir seine Welleninterferenzen auf dem Schirm sehen. Warum lassen wir es nicht dabei?

Was uns an dieser Welle erscheint wie ein "Kollaps der Wellenfunktion" zu einem "Teilchen" an einem bestimmten Ort zu einer bestimmten Zeit im Fall einer Messung, ist einfach die inzwischen recht bekannte Tatsache, dass wir mit der Messung wie mit jeder beliebigen anderen Wechselwirkung auch das zu messende System stören oder zerstören beziehungsweise zur Dekohärenz bringen.

Das heißt aber nicht, dass die Superposition » kollabiert «. Im Gegenteil: Sie ist jetzt in einer noch großräumigeren Verschränkung definiert.
 


Nebenbei: Dass Laborbedingungen Dekohärenz ausschließen können, ist natürlich nicht wirklich richtig, denn vor Neutrinos etwa kann uns wohl kein noch so gutes Labor abschirmen.

Dies bringt mich auf noch einen anderen Gedanken:

Wo ein Quantensystem von Bosonen durchquert wird, werden entsprechende Elementarereignisse es wohl nur umbauen. Zu Dekohärenz – im Sinne einer Verschränkung des Objekts mit seiner Umgebung – kommt es wohl erst dann, wenn das Objekt mit  F e r m i o n e n  kollidiert.

grtgrt
 

  Beitrag 1995-38
-

 
 
Stueps aus 1995-37:
 
Da Neutrinos selbst auf großen Skalen so gut wie nie wechselwirken, stören sie auch erst recht nicht Laborexperimente, die sich auf kleinsten räumlichen Skalen in Bruchteilen von Sekunden abspielen. Heißt etwas salopp übersetzt:

Liebe Laborexperimente, keine Angst vor Neutrinos! Die tun nix!
 

Hi Stueps,

was du da sagst, gilt ganz sicher in sehr guter Näherung.

Die Tasache aber, dass es eben NUR in sehr guter Näherung richtig ist, bedeutet doch, dass das eine oder andere der Neurinos, die die Abschirmung des Labors nicht aufhalten konnte, dann — natürlich nur in seltenen Fällen — eben doch mit einem im Labor befindlichen Quant kollidieren kann.

Andere Frage an dich:

Warum bist du so sicher, dass derzeit realistisch machbare Laborabschirmungen wirklich jedes Quant, das nicht gerade ein Neutrino ist, vom Inneren des Labors fernhalten können? Könnte es da nicht noch weitere Ausnahmen geben (wenn man ganz genau ist)? Gravitons etwa, falls sie schon nachweisbar wären? Oder Higgs-Teilchen?

Und was, wenn vielleicht sogar ein Antimaterie darstellendes Teilchen daher käme?

Gruß, grtgrt
 

  Beitrag 1995-48
Klassische Existenz physikalischer Objekte ist eine Illusion

 
 
Stueps aus 1995-43:
 
Es ist meines Wissens nach unter Wissenschaftlern nicht die Frage, dass physikalische Systeme in klassischer Form existieren, sondern wann sie klassisch werden.

Hi Stueps,

physikalische Objekte existieren nicht in klassischer Form — sie  z e i g e n  sich nur in dieser Form (dann nämlich, wenn ein Elementarereignis passiert und zur Folge hat, dass aus dem Objekt Quanten in seine Umgebung entkommen. Sie sind es, was wir sehen bzw. registrieren, und so den Eindruck gewinnen, das Objekt selbst sei sichtbar und würde klassisch existieren).

Die Tatsache, dass pro Sekunde wahnsinnig viele solche Ereignisse passieren, suggeriert uns den Eindruck eines stehenden "Bildes" (eben ganz so, wie wir ja z.B. auch das durch eine gute Fernsehkamera erzeugte Bild eines sich gerade NICHT bewegenden Gegenstandes als stehend empfinden, obgleich doch in Wirklichkeit all die Pixel, aus denen es sich zusammensetzt, pro Sekunde öfters neu geschrieben werden als unsere Augen noch unterscheiden können).

Gruß, grtgrt
 

  Beitrag 1995-34
Was man unter einem Quantenzustand versteht

 

Ein Quantenzustand ist nach Wikipedia:

Zitat:

In der quantenmechanischen Behandlung eines physikalischen Systems ist der momentane Zustand des Systems ein mathematisches Objekt, das für jede am System mögliche (fehlerfreie) Messung und für jedes der dabei möglichen Messergebnisse die Wahrscheinlichkeit festlegt, mit der das betreffende Messergebnis erhalten wird.


Zeilingers Aussage verstehe ich so, dass wir durch die Komplexität der klassischen Systeme sie nie in eine Art quantenmechanischer Gleichung setzen können, durch die alle Teilchen mathematisch in dem System erfasst sind. Nichts anders in der klassischen Welt. Wir haben schon bei zwei makrokosmischen Objekten die Schwierigkeit sie mathematisch zu erfassen. Bei drei Objekten ist es schon praktisch unmöglich. Unterschied nur nur, die drei Objekte können wir jederzeit sehen, die Teilchen sind für unserer Wahrnehmung prinzipielle gesperrt. Hier sind wir angewiesen auf die Mathematik.

Dies bedeutet aber nicht, dass ein klassisches Objekt kein quantenmechanisches System wäre.

LG, Irena

Grtgrt ergänzt:

Was Irena hier sagt, ist schon allein deswegen richtig, weil sich die klassische und die quantenmechanische Beschreibung jeden Objekts ja nur dadurch unterscheiden, dass
  • die klassische einfach nur Fakten beschreibt (die der ständige Kollaps der Wellenfunktion erzeugt),
  • die quantentheoretische aber — als Wellenfunktion des Objekts — zudem noch alle durch solche Fakten geschaffenen Möglichkeiten.
Man lese dazu auch, was genau man under der Quantisierung eines physikalischen Objektmodells versteht.
 

  Beitrag 1972-86
Elementarteilchen sind als Energieportion NICHT verdünnbar

 
 
Wrentzsch aus 1972-84:
 
Was verhindert das Vergehen einer Energieeinheit bei räumlicher Ausdehnung,
hält etwas dagegen, sodass sich das Quant verändert und stabil wird oder die Energie Quantelt?

Hi Wrentsch,

dass ein Quant (= eine Energieportion) sich räumlich ausdehnt, bedeutet nur, dass die Punkte im Raum, an denen man das Quant potentiell wird beobachten können, immer mehr auseinander wandern – so wie seine Wellenfunktion das vorhersagt. Erst wenn das Quant mit anderen kollidiert wird es dekohärent (um sich so an einer mehr oder weniger unscharf definierten Stelle zu zeigen und gleichzeitig zu sterben: siehe Lebenszyklus eines Elementarteilchens).

Mit anderen Worten: Es ist nicht so, dass das Quant (als Energieportion) sich mehr und mehr verschmiert und damit verdünnt. Lediglich der Bereich, der alle Punkte enthält, an denen man es mit einem anderen Elementarteilchen kollidieren kann, wird ständig größer).

PS: Unter "seiner Wellenfunktion" ist — wenn man es ganz genau nimmt — die unter Berücksichtigung der ART formulierte Wellenfunktion unseres gesamten Universums zu verstehen.

Gruß, grtgrt
 

  Beitrag 1999-49
Wie Thomas Görnitz Dekohärenz erklärt

 
 
Vor einiger Zeit kam es hier im Forum zu Meinungsverschiedenheiten darüber, wie Dekohärenz wirkt.
Görnitz wenigstens erklärt sie sehr schön:




Was Thomas Görnitz über » Dekohärenz « sagt



Zitat von Görnitz, S. 196-197:
 
Das Entstehen eines Faktums bedeutet für ein System, dass an diesem alle Möglichkeiten bis auf eine verloren gehen.

Dazu muss natürlich daran erinnert werden, dass sich aus einem Faktum sofort wieder neue Möglichkeiten ergeben, die teilweise auch mit den alten übereinstimmen werden und teilweise von diesen verschieden sind. Es wird also unter den neuen solche geben, die vorher unmöglich waren, und einige der zuvor vorhandenen werden nicht wieder erneuert.

Dieser Vorgang, der früher ... als » Messprozess « bezeichnet worden ist, zerstört den linearen Charakter der quantentheoretischen Systembeschreibung. Die Linearität drückt die mögliche Addition der Zustände innerhalb eines Systems aus (Vektoraddition). Wir hatten [auch] davon gesprochen, dass das Zusammensetzen von Teilsystemen zu einem Ganzen eine » Multiplikation « ist. Daher ist die Zerlegung eines Ganzen in Teile etwas ähnliches wie eine » Division «. Solche eine Zerlegung passiert, wenn ein System von Möglichkeiten abgeschnitten wird, die in das All entfliehen. ...

Es gibt eine Reihe sehr bewährter Näherungsverfahren, die solchen Informationsverlust sehr treffend modellieren. Das wichtigste unter ihnen ist als » Dekohärenz « weithin bekannt geworden:

Bei hinreichend großen und schweren Reaktionspartnern (z.B. winzigste Staubpartikelchen) werden die Quantenkorrelationen zwischen diesen [Reaktionspartnern] sehr schnell sehr klein und können nach kurzer Zeit praktisch ignoriert werden. Dies bedeutet im Rahmen der Schichtenstruktur, dass damit zu einer klassischen Beschreibung des zugeordneten Prozesses übergegangen werden kann,  o h n e  dadurch grundlegend falsch zu werden.
 


Hinweis: Unter der » Schichtenstruktur « versteht Görnitz (S. 88) den ständigen Kollaps der Wellenfunktion in Kombination mit ihrem sofortigen Neu-Aufleben in leicht modifizierter Version. Niemand außer ihm benutzt hierfür dieses wenig passende Wort.


Quelle (auf die sich die Seitenzahlen beziehen): Thomas & Brigitte Görnitz: Die Evolution des Geistigen, 2008
 

 Beitrag 0-174
Warum es Kreativität, aber keine nicht relativen Wahrheiten gibt

 
 

 
Was formale Logik

von kreativer Logik unterscheidet

 
 
Nur formale Logik arbeitet garantiert fehlerfrei, denn sie konstruiert auf mathematischem Wege aus als wahr angenommenen Aussagen (sog. Axiomen) mit Hilfe einiger weniger, wiederholt angewandter, absolut eindeutiger Regeln Aussagen, die dann ebenfalls als wahr eingestuft werden.
     
  • Der Vorteil formaler Logik liegt darin, dass sie absolut objektiv arbeitet.
     
  • Wie man heute jedoch weiß, führt formale Logik keineswegs immer zum Ziel (Gödels Unvollständigkeitssatz).

 
Neben formaler Logik gibt es etwas, das man Beurteilungslogik nennen könnte: Man sucht — auf welchem Weg auch immer — nach Aussagen, die plausibel erscheinen, und wird sie als wahr einstufen, wenn sie unter Berücksichtigung möglichst umfangreichen Wissens als » mit an Sicherheit grenzender Wahrscheinlichkeit wahr « eingestuft werden. Diese Einstufung allerdings wird genau dann subjektiv geprägt sein, wenn sich die Wahrheit der Aussage nicht über formale Logik erschließen lässt.
     
  • Der Vorteil von Beurteilungslogik liegt vor allem darin, dass sie den Denkenden kreativ machen kann (und in sehr viel mehr Fällen zum Ziel führt, als rein formale Logik).
     
  • Erkauft wird dieser Vorteil durch die Tatsache, das Beurteilungslogik notgedrungen fehleranfällig ist.

 
Beiden Denkwegen gemeinsam ist, dass alle mit ihrer Hilfe gefundenen Wahrheiten  b e d i n g t e  Wahrheiten sind, d.h. Implikationen der Form
 
 
{ D, P }  impliziert  W

 
wo P eine Menge wohldefinierter, als wahr anerkannter Aussagen ist und D die Menge aller Definitionen der Konzepte, über die W und P sprechen.
 
Wo unterschiedliche Parteien per Beurteilungslogik zu unterschiedlichen Überzeugungen kommen, liegt das nicht selten daran, dass sie — ohne sich das klar gemacht zu haben — von leicht unterschiedlichen Definitionen D ausgehen.
 
 
Somit gilt stets ( auch im Sinne von Realität vs Wirklichkeit ):
 
 
Alle Logik ist entweder  kreativ = subjektiv und bestechlich:  r e a l e  Logik
 
oder  formal = objektiv und unbestechlich:  w i r k l i c h e  Logik.


 

 Beitrag 0-141
Kann menschliches Denken vollkommen objektiv sein?

 
 

 
Kann menschliches Denken absolut objektiv sein?

 
 
Sicher nicht, denn immer wieder lässt sich feststellen, dass auch wirklich ehrlich um Objektivität bemühte Menschen logisch allzu einseitig argumen­tieren — und das umso deutlicher, je fester sie davon überzeugt sind, recht zu haben.
 
Hier ein prominentes Beispiel:


Der Physiker Honerkamp stellt fest (2015):
 
Papst Bendedikt XVI. wird oft dafür gerühmt, dass er so beherzt gegen den Relativismus gekämpft habe. In diesem Zusammenhang wurde häufig auf die Predigt verwiesen, die er in der Messe des Kardinalskollegiums vor der Wahl des neuen Papstes im Jahr 2015 gehalten hat, wo es u.a. heißt:
 
    Wie viele Glaubensmeinungen haben wir in den letzten Jahrzehnten kennen gelernt, wie viele ideologische Strömungen, weie viele Denkweisen [...].
     
    Das kleine Boot des Denkens vieler Christen ist nicht selten von diesen Wogen zum Schwanken gebracht, von einem Extrem ins andere geworfen worden: vom Marxismus zum Liberalismus bis hin zum Libertinismus; vom Kollektivismus zum radikalen Individualismus; vom Atheismus zum Synkretismus, und so weiter [...].
     
    Einen klaren Glauben nach dem Credo der Kirche zu haben wird oft als Fundamentalismus abgestempelt, wohingegen der Relativismus — das sich 'vom Windstoß irgendeiner Lehrmeinung Hin-und-her-treiben-lassen' — als die heute zeitgemäße Haltung erscheint.
     
    Es entsteht eine Diktatur des Relativismus, die nichts als endgültig anerkennt und als letztes Maß nur das eigene Ich und seine Gelüste gelten lässt.

Dass man als Hüter eines religiösen Glaubens kein Freund des erkenntnistheoretischen Relativismus ist, muss man aus Konsistenzgründen wohl akzeptieren.
 
Aber muss man deswegen den philosophischen Relativismus als ein » vom Windstoß irgendeiner Lehrmeinung Hin-und-her-treiben-lassen « diskreditieren und verächtlich machen und dieses ihm unterstellte Treibenlassen dann auch noch auf die moralische Ebene übertragen?
 
Und sollte der Relativismus wirklich eine Diktatur sein, dann wäre sie mir lieber als eine Diktatur der "Wahrheit".
 
Der italienische Philosoph Gianni Vattimo hat das auf den Punkt gebracht: » Ich kenne viele Blutbäder, die von Menschen verübt wurden, die dachten die Wahrheit zu besitzen, aber ich habe noch nie von Blutbädern gehört, die von fanatischen Relativisten verübt worden wären. «
 


 
Meine (grtgrt's) persönliche Meinung:
 
So wie selbst mathematische Wahrheiten fast immer nur auf Basis bestimmter Voraussetzungen zutreffen, wird das wohl für alle durch Menschen erkannten Wahrheiten gelten. Und welcher Theologe möchte denn wirklich die Hand dafür ins Feuer legen, dass nicht auch Gott relativ denkt und urteilt?

 

  Beitrag 2110-26
Was Meinungen von Argumenten unterscheidet

 
 

Argumente wollen beantwortet werden.

Meinungen aber wollen nur zur Kenntnis genommen werden.


 

  Beitrag 1489-72
Vererben interessanter Webauftritte

 
 
Bernhard Kletzenbauer in 1489-71:
 
Manu hielt es zum Beispiel für sinnvoll ein Zeitforum zu errichten.
Wird es abgeschaltet wenn er stirbt?


Ich denke da auch an andere Webauftritte, die viel Knowhow enthielten und doch plötzlich verschwunden waren.

Deswegen sollte meiner Meinung nach jeder Webauftritt in seinem Wurzelverzeichnis eine Liste all der Seiten haben und pflegen, die Suchmaschinen (wie Google) als der Öffentlichkeit geschenktes Backup betrachten und deswegen auch noch zeigen dürfen, wenn das Original nicht mehr existiert.

Natürlich bedürfte es dazu der Mitarbeit der Suchmaschinen-Betreiber (bei Google, so denke ich, könnte man da auf offene Ohren stoßen).

Stichwort: Vererbung (Schenkung) von Webauftritten

 

  Beitrag 1149-147
-

 
 
Hans-m aus 1149-142:
 
Hallo Henry,
es ist schön, wie du dich in der Welt der Fremdwörter auskennst.
es wäre schöner, wenn die von deiner Identität ausgeführten schriftlichen Passagen nicht permanent die Nutzung Interaktiver Enzyklopädien, zur Findung einer verbalen Erklärung erforderlich machen würden.
 


Hallo Hans-m,

Henry ebenso wie sehr viele andere, die Fremdwörter (genauer: Fachjargon) benutzen, tun es nur aus dem Grund, weil jenes Wort seiner Semantik nach genauer definiert ist als ein deutsches Wort bzw. eines aus der Umgangssprache.

Auch sollte uns bewusst sein: Jeder von uns kann nur dort dazulernen, wo er auf etwas trifft, das er noch nicht wirklich versteht — und sei es ein Fremdwort.
Es in Wikipedia nachzuschlagen, wird uns immer Gewinn bringen: letztlich verursacht durch den, der uns mit jenem Wort konfrontiert hat.

Gruß, grtgrt

 

  Beitrag 1907-1
Meine kleine Theorie des Denkens

 
Hier zur Diskussion gestellt:

Meine kleine Theorie des Denkens


An mir selbst glaube ich beobachtet zu haben, dass es zwei grundsätzlich verschiedene Modi des Denkens gibt, die sich — wie in einem Staffellauf — regelmäßig abzuwechseln haben:
  • Wer im Büro vor seinem Schreibtisch sitzt (um dort eine konkrete, vielleicht recht knifflige Aufgabe zu lösen), denkt völlig anders als jemand, der z.B. im Zug sitzt, die Landschaft an sich vorbeiziehen sieht, und dennoch in Gedanken dasselbe Problem wälzt:
  • Im Büro bewegt sich mein Verstand, wie ein Hund, der an einer Leine durch einen Park geführt wird und deswegen den Gehweg um nicht mehr als wenige Handbreit verlassen kann.
  • Im Zug dagegen (genauer: wenn ich meine Gedanken in Muße schweifen lassen kann), bewegt sich mein Verstand — wie jener Hund, wenn er von der Leine gelassen wird — eher neben dem Weg, auch mal weiter von ihm entfernt, und hin und wieder unter diesen oder jenen Busch schuppernd. Nicht selten entdecke ich so, an was ich sonst nie gedacht hätte.

Mir ist zudem schon lange klar geworden:

Sich gedanklich in ein Problem zu verbeißen, kann nur über kurze Zeit hinweg hilfreich sein. Genauer:

  • Als Mathematiker hat man hin und wieder Beweise für Theoreme zu finden, die bis dahin noch niemand bewiesen hatte. Einen Beweis für eine schon lange im Raum stehende Vermutung zu finden, kann Wochen, ja sogar Monate dauern. Sich in diesem Fall zu verhalten, wie ein Roboter, der niemals ermüdet, ist völlig falsch aus folgendem Grunde:
    Wer so einen Beweis sucht, ist vergleichbar mit einer Person, die vor einem Urwald steht, in ihm irgendwo — sagen wir in bestimmter Richtung R(1) — einen kleinen Weiher vermutet und sich jetzt mit einer Machete einen Weg nach dort zu erkämpfen beginnt.
  • Unter der Voraussetzung, dass die vermutete Richtung genau stimmt, wäre man tatsächlich am besten ein Roboter, eine Maschine also, die nie ermüdet. Falls die angepeilte Richtung aber nicht genau die richtige ist, würde der Roboter — eben deswegen, weil er nie ermüdet — den Weiher nie finden: Er würde dann ja unaufhörlich in Richtung R(1) laufen und somit am Weiher vorbei, was schließlich zur Folge hätte, dass er sich immer weiter von ihm entfernt.
    Wer den Weg aber als jemand sucht, der ermüdet und deswegen irgendwann mal innehalten muss, um sich auszuruhen, wird während dieser Ruhepause seinen Verstand "von der Leine lassen" und dann wahrscheinlich feststellen, dass statt Richtung R(1) eine etwas andere Richtung R(2) die wahrscheinlichere ist (z.B. deswegen, weil man sich plötzlich bewusst wird, dass die bisherige Richtung, aus diesem oder jenem Grund, an den man zunächst gar nicht gedacht hatte oder der erst jetzt bemerkbar wird, nicht wirklich richtig sein kann). Mehrfache Korrekturen solcher Art führen uns dann i.A. wirklich hin zum gesuchten Ort.

Meine Konsequenz daraus:

Die Tatsache, dass der Mensch unweigerlich ermüdet, mag ein Grund dafür sein, dass er kreativ ist, also Dinge findet, die er niemals finden würde, wenn er ermüdungsfrei wäre und so seinen Geist auch niemals "von der Leine lassen" würde.

Wer jetzt denkt "Hurra, da brauch’ ich mich bloß ein bisschen auf die faule Haut zu legen und schon wird alles gut", den muss ich enttäuschen:

Es gibt Aufgaben, z.B. Rechenaufgaben bestimmter Art, die sind so schematisch und dennoch so komplex, dass sie sich wirklich nur mit engelsgleicher Geduld lösen lassen und unter unbeirrbarem Festhalten am einmal gewählten Weg (ich denke da z.B. an Störungsrechnung in der Physik).

Solche Rechnungen aber lösen wir i.A. dadurch, dass wir ein Programm schreiben, das uns gestattet, sie einem Computer zu überlassen — immer vorausgesetzt, wir halten vorher inne, um so zu erkennen, dass dieser Weg der bessere ist.

Dass Leute zu wenig innehalten und deswegen stur wie ein Ochs die Ackerfurche entlang gehen, ist gar nicht so selten. Wenig erfahrene Software-Tester etwa, so meine Beobachtung, werden oft nicht müde, ein und dieselben komplizierten, sterbenslangweiligen Eingaben immer wieder im Dialog zu machen, ohne sich Rechenschaft darüber zu geben, dass den Test zu automatisieren, viel besser wäre (und ihn zudem noch nachvollziehbar machen würde).

Auch das ist ein Beispiel dafür, dass "den Verstand von der Leine zu lassen" oft effektiver ist, als wild "an der Leine zu zerren", an der man selbst oder andere ihn zu führen suchen.
 

  Beitrag 1907-2
Zunehmende Weisheit geht einher mit abnehmender Kreativität

 
 
Interessant ist auch, welche Art des Denkens man in welchem Alter bevorzugt:


Richard Feynman war einer der wenigen Physiker, die wirklich ihr ganzes Leben lang mathematische Denkwege mit derselben Leichtigkeit gegangen sind, wie rein umgangsprachlich formulierte.

Dennoch war auch ihm schmerzlich bewusst, dass das Alter kein Freund des Physikers ist. An vielen Bürotüren im Caltech hing folgender Vers, den man Dirac zuschreibt, der lange Zeit Feynmans Vorbild war (dessen Widerstand gegen die Renormierungsmethodik Feynman dann aber doch nicht mehr verstehen konnte — was ihm die Wahrheit im Vers wohl besonders präsent machte):


Age, of course, is like a fever chill
That every physicist must fear.
He is better dead than living still
When once he's past his 30-th year.



Man kann diese Beobachtung auf Kreativität ganz allgemein bezogen sehen, doch denke ich, dass insbesondere rein formales Denken uns Menschen mit zunehmendem Alter zunehmend schwerer fällt (ich kann das auch an mir selbst durchaus beobachten).

In diesem Zusammenhang ist eine Studie interessant, die zeigt, dass selbst Leute, die hauptberuflich Wissenschaftler sind, mathematische Formulierung fürchten und zu meiden suchen: siehe den Artikel Schreckgespenst Mathematik.

Das ist schade, denn es könnte schon in wenigen hundert Jahren — dann nämlich, wenn der Mensch gelernt haben wird, Roboter zu bauen, die man von Menschen kaum noch unterscheiden kann — dazu führen, dass Roboter zu einer Art Übermensch werden ...

Isaak Asimov scheint mir ein wirklicher Visionär gewesen zu sein ...

 

  Beitrag 1942-1
Zu wörtlich Genommenes führt an der Wahrheit vorbei

 
 
Eine Meinung Platons war:

Alles sinnlich Wahrnehmbare ist nur unvollkommenes und daher recht fragwürdiges Abbild der Wirklichkeit.


Hier EINE mögliche Anwendung dieser Erkenntnis:


Wenn ich Platons Höhlengleichnis neben das stelle, was Niels Bohr uns über der Physiker Möglichkeiten sagt, die Natur zu verstehen (siehe 1896-52), so scheint mir klar:

Beider Beispiele sind treffende Illustration ein und derselben Erkenntnis, die da wäre:


Zu wörtlich genommene Beobachtung führt an der Wahrheit vorbei.

Was wir registrieren, ist schon allein deswegen ein meist nur unvollkommenes Bild der eigentlichen Sache.



Und das ist auch so, wo wir uns gegenseitig Konzepte oder Wahrheiten gezielt mitzuteilen versuchen:

Die Sprache nämlich, die zu nutzen wir gezwungen sind, ebenso wie Beispiele, auf die wir uns mit beziehen müssen, um überhaupt verstanden zu werden, wirken nicht selten wie zu wenig robuste Kartons, in denen beschädigt wird, was wir zu transportieren wünschen.

Man könnte auch sagen: Wie ein Photo übers Fax nur unvollkommen ankommt, so unvollkommen kommt an, was wir zu sagen versuchen. Nur diejenigen unserer Zuhörer, die auf derselben Abstraktionsebene denken wie wir auch, werden uns RICHTIG verstehen.

Wer z.B. die Schöpfungsgeschichte in der Bibel allzu wörtlich nimmt, kommt zum Schluss, was in der Bibel steht, sei Unsinn. Wer sich aber vor Augen führt, welche sprachlichen Bilder den Autoren der Bibel damals zur Verfügung standen und IHNEN somit am ehesten geeignet erschienen, die mitzuteilende "Idee" zu transportieren,
dem wird schnell klar, wie große Ähnlichkeit die moderne Urknalltheorie mit den wesentlichen Aussagen der biblischen Schöpfungsgeschichte hat.


Interessant noch:

Mathematische formulierte Wahrheiten sind die einzigen, die man nie zu wörtlich und auch nie zu wenig wörtlich nehmen kann.

Sie sind — genau deswegen — die einzigen, die sich beschädigungslos von Kopf zu Kopf transportieren lassen.


grtgrt

 

  Beitrag 1942-10
Über den (sehr) hohen Stellenwert perfekter Sprachbeherrschung

 
 
Gregor Lämmer aus 1942-9:
 
Die Sprache richtig zu beherrschen, ist eine Kunst, derer nur wenige fähig sind. Trotz aller Mängel der Sprache kann ein genialer Mensch mit der Sprache mehr ausdrücken, als in ihr enthalten ist.

Hierbei denke ich an Nicolás Gómez Dávila, der dies sehr trefflich ausgedrückt hat in dem Satz:

Unnütz, jemandem einen Gedanken erklären zu wollen, dem eine Anspielung nicht genügt.

An alle:

Was Gregor hier sagt, spricht mir aus der Seele.

Leider wissen heute zunehmend weniger Deutsche den Wert perfekter Sprachbeherrschung zu schätzen.


Das gilt leider auch für Germanisten, wie sie mit ihrer misslungenen Rechtschreibreform selbst bewiesen haben — Schande über sie!

grtgrt
 

  Beitrag 1942-30
Daten — Information — Deutung — Reaktion

 
 
Irena aus 1942-29:
 
wenn man beginnt, sich mit der Deutung der Information zu beschäftigen, kommt man zum Schluss, dass die Erklärung der Information als alleinigen Gründer der Materie unsinnig ist. Weil die Information immer mit einer Deutung komplementär ist.

Hallo Irena,

im Grunde genommen, muss man die folgenden 4 Begriffe nebeneinander stellen:
  • Daten (als Form, in der uns Information — irgendwie kodiert — erreicht),
  • diese Information selbst,
  • ihre Deutung
  • und die aufgrund der Deutung erfolgende Reaktion auf jene Information.

Zunächst ist festzustellen:
  • Ein und dieselbe Information kann in Form verschiedener Daten vorliegen (kann also verschieden kodiert und transportiert sein).
  • Geeignetes Abstrahieren von diesen Formen liefert uns die Information selbst (sofern wir beim Dekodieren keinen Fehler machen).
  • Jene Information zu deuten bedeutet dann nichts anderes, als zu versuchen, sich all ihre Konsequenzen auszumalen (formal gesprochen: Deutung = Übergang zur transitiven Hülle). Da jenen Übergang zu finden, schwierig sein kann, wird man dabei i.A. Fehler machen — und wenn es nur der Fehler ist, einige Konsequenzen schlichtweg zu übersehen.
  • Der Wissensstand, bei dem man so angelangt ist, triggert dann eine Reaktion, die die Realität verändert und so zu neuen Daten führt.

Diesen Zyklus immer und immer wieder zu gehen, bezeichnet man als Informationsverarbeitung — was nichts anderes als ein Prozess ist, der schrittweise Daten entgegennimmt und schrittweise Reaktion darauf erzeugt.

Der den Prozess treibende Mechanismus — ein Mensch, oder die Natur selbst — funktioniert nicht voll deterministisch.

Das wiederum hat zur Folge, dass die Reaktion durch die eingehenden Daten nicht wirklich eindeutig definiert ist (als Mensch macht man Fehler, als Natur funktioniert man im Kleinsten absolut zufällig, liefert also für unteilbare Ereignisse zufällige Reaktion, die statistisch gesehen aber dennoch wieder durch existierende Information ψ beschrieben ist).

Der Korridor der Möglichkeiten, die so zu Realität werden können und teilweise auch werden, ist demnach durch ψ — die Wellenfunktion des Universums — beschrieben und eingegrenzt.

Die Natur — als der Mechanismus, der den Prozess abarbeitet — ist gegeben durch die 4 Grundkräfte. Sie, so vermutet man heute, könnten auf eine einzige Kraft zurückführbar sein, die man dann — so meine ich — gut als den "Geist" der Natur sehen könnte.

Materie wird dann also letztlich — so wie in Beitrag 1924-1 beschrieben — durch jenen "Geist" geschaffen.


Gruß, grtgrt
 

  Beitrag 1942-32
Wie Informationsverarbeiter funktionieren sollten

 
 
Irena aus 1942-31:
Hallo grt,
ich denke, du bist zu sehr gefangen in der Welt der Programmierer.

Du magst recht haben, denn derzeit bin ich in erster Linie Informationsverarbeitungs-Experte (das beinhaltet Programmierung, ist aber noch deutlich mehr).

Auch sehe ich mich in dieser Rolle selbst als einen Information verarbeitenden Mechanismus, der nach dem oben beschriebenen Prinzip funktioniert und sich dabei bemüht, möglichst wenig Fehler zu machen, d.h.
  • gründlich zu lesen und genau zuzuhören (d.h. bei der Überführung empfangener Daten in Information jene dann nicht verfälscht oder zu stark reduziert vorliegen zu haben)
  • so erhaltene Information korrekt zu deuten (sprich: nichts dazu zu phantasieren, keine Vorurteile zu haben, und beim Bilden ihrer transitiven Hülle logisch korrekt vorzugehen) und schließlich
  • Verarbeitungsergebnisse zu erzeugen (= Reaktion), die anderen nützen und andere provozieren, mir möglichst viele weitere Daten – weitere Information also – zu liefern.

Zitat von Irena:
Zunächst kann du die Reaktion vergessen. Nicht jede Wahrnehmung einer Information bedeutet folgende Reaktion.

Auch wenn die Reaktion leer ist, sollte man sie nicht vergessen: Auch eine leere Reaktion ist eine Reaktion (und die Tatsache, dass sie leer ist, kann Bedeutung tragen).

Die leere Reaktion auch als Reaktion zu sehen ist ebenso nützlich, wie eine Zahl 0 zu haben oder — in der Mengenlehre — den Begriff der leeren Menge.


Zitat von Irena:
Sagen wir Daten ist Information.

Man sollte die beiden Begriffe NICHT gleichsetzen, da verschiedene Daten dieselbe Information darstellen können.


Gruß, grtgrt
 

  Beitrag 1942-34
Warum es wichtig ist, Fehler machen zu dürfen (und auch tatsächlich welche zu machen)

 
 
Irena aus 1942-33:
Dennoch bist du "verdammt" Fehler zu machen.

Das ist absolut richtig, und es gilt für mich ebenso wie für jeden anderen.

Aber ich habe mich oft gefragt, ob nicht genau diese Tatsache letztlich der Grund dafür ist, dass Menschen auch kreativ sind.


Der Grund, warum auch das Machen von Fehlern wichtig ist — ganz gleich, ob wir oder unsere Geschrächspartner sie machen — ist wohl der, dass jeder  e r k a n n t e  Fehler uns zwingt, eine Stelle genauer zu betrachten, über die wir sonst allzu flüchtig hinweg gegangen wären:

Fehler zwingen uns, Dinge genauer zu betrachten, als wir es sonst täten — und haben so nicht selten positive Konsequenzen ...


Zitat von Irena:
 
Es lässt sich hier eine Analogie mit der Mutationen zu ziehen. Wäre der Mechanismus der Zellteilung so perfekt, dass keine Mutationen entstünden, wäre keine Evolution möglich.

... und wohl auch keine Kreativität.

Denn mit dir bin auch ich der Meinung, dass — wo zu viele Mutationen einander zu schnell ersetzen — sie keine Zeit haben, einander zu ergänzen um so zu neuen Schöpfungen zu führen (zu komplexeren ebenso wie zu schöneren oder sinnvolleren).


Mit besten Grüßen,
grtgrt
 

  Beitrag 1916-7
Warum man versuchen sollte, eine Theorie zu widerlegen, bevor man sie als Unsinn einstuft

 
 
An alle (und besonders an E...):

Mein Prinzip ist das von Feynman, d.h.

Solange eine Theorie nicht schlüssig widerlegt ist,

sollte man sie nicht lächerlich machen (oder als esoterisch einordnen),

sondern man sollte Gründe finden, die dazu geeignet sind, sie als widerlegt zu betrachten.



Karl Popper bemerkt ganz richtig: Es ist einfacher, eine Theorie zu widerlegen, als sie zu beweisen.

Meine Konsequenz daraus: Wer nicht mithelfen will, sie zu widerlegen, der schweige wenigstens.

Beste Grüße,
Gebhard Greiter (grtgrt)
 

  Beitrag 1916-9
Was Karl Popper wirklich gesagt hat (1)

 
 
Okotombrok aus 1916-8:
 
Zitat von Grtgrt:
 
Karl Popper bemerkt ganz richtig: Es ist einfacher, eine Theorie zu widerlegen, als sie zu beweisen.

Das scheint aus dem Gedächtnis zitiert zu sein, gesagt hat er

Zitat von Karl Popper:
 
Ein Satz (oder eine Theorie) ist dann und nur dann empirisch wissenschaftlich, wenn er falsifizierbar ist.
Popper, Karl: Handlexikon zur Wissenschaftstheorie. München, Deutscher Taschenbuchverlag, 2. Auflage 1994. Seite 82


Man sollte nur in Ausnahmefällen aus dem Gedächtnis zitieren. Erst ein ordentliches Zitat mit Quellennachweis ermöglicht es dem Leser, die Aussage im Kontext zu verstehen und überhaupt erst zu überprüfen.
 


Ich grüß’ dich, Okotombrok,

ja, du hast recht, ich habe nur sinngemäß zitiert (eben aus dem Gedächtnis), und zudem gebe ich dir recht: Besser wäre ein wörtliches Zitat. Das aber erfordert, jene Stelle auch wirklich zu finden. Nun arbeite ich aber leider in keiner Umgebung, die mir einfachen Zugriff auf entsprechende Literatur gewähren würde. Die meisten Bücher, die ich gelesen habe, waren ausgeliehen. Sie nochmals einzusehen, könnte mich sehr viel Zeit kosten — Zeit, die ich nicht habe.


Da man mir (ebenfalls in diesem Forum) schon mal vorgeworfen hat, ich würde zu viel zitieren und zu wenig selbst nachdenken, sei an dieser Stelle festgestellt:

Um einzusehen, dass es einfacher ist, eine Theorie zu widerlegen als zu beweisen, muss man nicht unbedingt wissen, was Popper denn nun wortwörtlich gesagt hat.

Die Theorie etwa, "Alle Menschen haben rote, blonde oder schwarze Haare"
  • ist widerlegt, sobald man eine Person gefunden hat, die entweder Glatzkopf ist oder schlohweißes Haar hat.
  • Umgekehrt würde eine Bestätigung der These erfordern, die Haarfarbe sämtlicher Menschen festzustellen — was praktisch unmöglich ist.

Beste Grüße,
grtgrt
 

  Beitrag 1916-12
Was Karl Popper wirklich gesagt hat (2)

 
 
Henry aus 1916-10:
Grtgrt aus 1916-7:
 
Karl Popper bemerkt ganz richtig: Es ist einfacher, eine Theorie zu widerlegen, als sie zu beweisen.

Herr Popper bezieht sich auf Theorien, die eine experimentell bestätigte Basis haben, und nicht auf Theorien, die sich weder beweisen noch widerlegen lasse.
 

Hi Henry,

die Tatsache, dass ich keine Gänsefüßchen gesetzt habe, zeigt, dass ich nur sinngemäß zitiert habe.

Und weiter: Glaubst du wirklich, dass Popper den Gedanken in dieser einfachen Form, in der ich ihn mir gemerkt habe, nicht auch gedacht hat?

Desweiteren bin ich der Meinung: Was andere sagen — und seien sie noch so berühmt — soll uns vor allem Anregung sein, weiter zu denken. Welchen Sinn sollte es machen, dort stehen zu bleiben, wo ihnen die Kräfte ausgingen? Ihr Verdienst ist, uns den ersten Teil des Weges erspart zu haben — von jener Haltestelle dann weiter gehen müssen wir schon selbst (auch sie würden von uns sonst nur enttäuscht sein).

Beste Grüße,
grtgrt
 

  Beitrag 2035-187
Was Karl Popper wirklich gesagt hat (3)

 
 
Bauhof aus 2035-183:
 
Eine Theorie in der Physik ist nicht beweisbar, sondern nur widerlegbar (Karl Popper).

Hi Eugen,

wenn Popper davon spricht, dass nur widerlegbare Theorien Sinn machen, will er damit keineswegs sagen, dass eine Theorie nicht beweisbar sein kann.
Es geht ihm vielmehr darum, dass man als Theorie nur etwas bezeichnen sollte, dessen Wahrheit  e n t s c h e i d b a r  ist (prinzipiell wenigstens).

Hätte man nämlich eine Theorie, die weder beweisbar noch widerlegbar ist, wäre die ja absolut nutzlos.

Beispiel einer beweisbaren — und gerade deswegen NICHT widerlegbaren — Theorie ist z.B. die Ansicht "Die Quadratwurzel aus 625 ist 25". Sie ist
  • zutreffend,
  • beweisbar
  • nicht widerlegbar
  • und ganz sicher eine Theorie für jeden, der sich noch keinen Beweis dafür überlegt hat.

Popper spricht wohl auch nicht von "widerlegbar" sondern von "falsifizierbar" und meint damit:


Sollte die Theorie falsch sein, muss es möglich sein, ein Gegenbeispiel zu finden — einen Beweis dafür, dass sie falsch ist.


Gruß, grtgrt
 

  Beitrag 2035-196
-

 
 
Bauhof aus 2035-193:
 
Es geht nicht primär ums Falsifizieren, sondern zunächst erst mal darum, ob eine physikalische Theorie oder Aussage überhaupt falsifizierbar ist. Das heißt, wenn eine physikalische Theorie nicht falsifizierbar ist, dann muss man dieser "Theorie" den Theorie-Status aberkennen. Das heißt einfach ausgedrückt: Diese Theorie ist so schlecht, dass sie nicht mal falsch sein kann.

Genau so sehe ich das auch.

Die Begriffe "widerlegbar" und "falsifizierbar" bedeuten aber keineswegs dasselbe:
  • eine widerlegbare Theorie ist falsch,
  • eine falsifizierbare kann falsch oder richtig sein.

grtgrt
 

  Beitrag 2035-203
-

 
 
Stueps aus 2035-202:
Hallo Leute,

ich habe Popper diesbezüglich immer so verstanden:

Eine Theorie muss, um überhaupt als solche etabliert werden zu können, überprüfbar sein.

So kann ich ein fliegendes Spaghettimonster als Schöpfer unserer Welt postulieren, nur überprüfen kann ich so etwas nicht. Ich kann es also weder bestätigen, noch falsifizieren (widerlegen).


Danke Stueps,

genau so hat Popper es gemeint.

Bleibt nur noch anzumerken: Falsifizierbarkeit impliziert Überprüfbarkeit.


Gruß, grtgrt
 

  Beitrag 2035-208
-

 
Henry aus 2035-205:
(Das eine Theorie überprüfbar sein muss, damit sie bewertet werden kann, ist banal).

Hallo Henry,

ganz und gar nicht. Genau darauf wollte m.E. Eugen mit "nicht einmal falsch" abzielen.

Henry aus 2035-205:
Popper hat definitiv nicht einfach überprüfbar gemeint, sondern er ist davon ausgegangen, dass eine Theorie, die auf Induktion beruht, nicht verifiziert, aber sehr wohl falsifiziert werden kann.

M.E. hat Popper eben grundsätzlich auf Überprüfbarkeit hingewiesen, um dann zu zeigen, dass wir nur induktiv (laienhaft: vom Kleinen auf´s Große schließend) überprüfen können. So können wir aus unserer "Innensicht" niemals etwas global beweisen, wohl aber etwas widerlegen:

Das alte und viel bemühte Beispiel mit den schwarzen Schwänen. Die Theorie "es gibt keine schwarzen Schwäne" gilt solange als bestätigt (nicht jedoch bewiesen!), wie wir nur weiße Schwäne beobachten. Sobald ein schwarzer Schwan auftaucht, gilt diese Theorie jedoch als widerlegt/falsifiziert.

Diese Theorie ist überprüfbar und somit auch falsifizierbar.

Henry, der zweite Teil deines Satzes bezüglich Induktion ist natürlich richtig.

Grüße
 

  Beitrag 2035-209
-

 
 
Bauhof aus 2035-207:
Grtgrt aus 2035-201:
 
Als Logiker muss ich Dir da ganz entschieden widersprechen. Der Begriff "widerlegbar" ist synonym zu "es gibt einen Gegenbeweis" (ob man ihn kennt oder nicht, spielt dabei keine Rolle).

Hallo Grtgrt,

als Logiker und Mathematiker kannst du das so sehen. Aber hier in der Physik wird das offenbar nicht so eng gesehen. In dem Wiki-Artikel z.B. wird synonym von Falsifizierbarkeit/Widerlegbarkeit gesprochen.

M.f.G. Eugen Bauhof

Hallo Eugen,

wenn sich zwei Wissenschaften verschiedener Logik bedienen würden, wäre das alarmierend.

Es ist aber gar nicht so. Weder bei Popper, noch in Texten über Popper finde ich irgendetwas, dem ich nicht zustimmen könnte.

Auch der Artikel, dessen Link Du uns da schickst, enthält nirgendwo eine Gleichsetzung der Begriffe "Falsifizierbarkeit" und "Widerlegbarkeit". Er suggeriert lediglich eine gewissen Nähe dieser Begriffe (und die ist ja tatsächlich gegeben).

Beste Grüße,
Gebhard
 

  Beitrag 2035-215
-

 
 
Bauhof aus 2035-207:
 
Grtgrt aus 2035-201:
 
Der Begriff "widerlegbar" ist synonym zu "es gibt einen Gegenbeweis" (ob man ihn kennt oder nicht, spielt dabei keine Rolle).

Hallo Grtgrt,

als Logiker und Mathematiker kannst du das so sehen. Aber hier in der Physik wird das offenbar nicht so eng gesehen. In dem Wiki-Artikel z.B. wird synonym von Falsifizierbarkeit/Widerlegbarkeit gesprochen.

M.f.G. Eugen Bauhof


Hallo Eugen,

in der Sprache der Physiker muss man sagen:

Eine physikalische Theorie ist genau dann  f a l s i f i z i e r b a r , wenn gilt:

Es ist ein Experiment denkbar, das — wenn die Theorie falsch sein sollte — etwas der Theorie Widersprechendes aufdeckt.



Gruß, grtgrt
 

  Beitrag 1916-15
Was es bedeutet, eine physikalische Theorie zu beweisen

 
 
An alle:

Wer schon mal in einer dunklen Nacht einen längeren, total unbeleuchteten Weg durch Wald oder Felder gegangen ist, der wird wissen, wie froh man ist, irgendwann dann doch wieder auf ein oder zwei Straßenlaternen zu treffen: Sie zeigen uns, dass wir noch auf dem rechten Weg sind.

Wo ich jemand zitiere, den ich für kompetent halte, spielen solche Zitate für mich deselbe Rolle wie jene Straßenlaternen: Sie zeigen mir — und hoffentlich auch dem Leser meiner Beiträge — dass da jemand so ähnlich dachte wie ich, und ich deswegen so falsch nicht liegen kann.

Den genauen Wortlaut zu kennen, wäre interessant, ist aber nicht so wichtig, wenn man sicher sein kann, dass derjenige wirklich so gedacht hat.

Mit anderen Worten: Was mein Verhältnis zu Theorien betrifft, ist es genau so, wie H... das in Beitrag 1916-14 beschreibt.


PS: Vielen Dank für den Link, H.... Ich wusste bisher nicht, dass jemand sich schon Gedanken darüber gemacht hat, wie Universen interagieren könnten (Ausnahme natürlich die Theorie, nach der Baby-Universen aus Schwarzen Löchern hervorgehen).

Gruß
grtgrt
 

  Beitrag 1923-19
Nur mathematische Gesetze, NICHT aber mathematische Methodik sind Naturgesetz

 
 
Henry aus 1923-15:
Die Mathematik funktioniert aber nur, wenn wir ihr Werte bereitstellen, sie liefert die Werte nicht aus sich heraus.

Hi Henry,

da kann ich dir nicht recht geben — insbesondere alle Stringtheoretiker sehen das ganz anders. Sie nämlich werden nicht müde, immer wieder darauf hinzuweisen, dass
  • das Standardmodell der Elementarteilchen-Physik etwa 20 freie Variable hat (Werte also, die es NICHT selbst bereitstellt),
  • wohingegen die Stringtheorie – die das Verhalten der Natur zu modellieren, rein nur mathematische Gesetze betrachtet – alle jene Konstanten selbst schon liefert. Stringtheorie kennt nur einen Parameter: die String-Kopplungskonstante. Ihr Wert ist spezifisch zu einem (der vielen möglichen) Universen.

Henry aus 1923-15:
Außerdem wissen wir, dass die Mathematik selbst nicht vollständig ist.

Auch das ist so nicht richtig: Kurt Gödel hat lediglich bewiesen, dass kein formaler KALKÜL, der wenigstens die natürlichen Zahlen und alle für sie gültigen Gesetze der Addition und Multiplikation modellieren kann, nicht beides sein kann: vollständig UND widerspruchsfrei.

So ein Kalkül aber ist nur ein kleiner, wenn auch wesentlicher Teil der Mathematik. Im übrigen darf man mathematische Methodik nicht verwechseln mit mathematischen Gesetzen — nur jene sind Naturgesetz.


Beste Grüße,
grtgrt
 

  Beitrag 1923-39
Gödels Satz - eine Klarstellung

 
 
Hi Henry,

natürlich ist es für Leute, die keine Vorlesungen über mathematische Logik gehört haben, schwierig, zu verstehen, was Gödels Satz genau sagt.

Wenn du mir nicht glaubst, dann glaube vielleicht Lothar Schäfer (habe eben jetzt im Index zu seinem Buch nachgesehen und bin so zu Seite 71 geführt worden, wo steht):

Zitat von Schäfer:
 
In der Mathematik ist Gödels Theorem der Beweis, dass komplexe logische Systeme, wie Arithmetik, zu ihrer Begründung Postulate benötigen, die sie nicht mit ihren eigenen Lehrsätzen beweisen können, sondern nur mit Begriffen eines umfassenderen Systems, das sozusagen auf einer höheren Stufe operiert.

Kein mathematisches System ist in sich abgeschlossen, weil Axiome, die für den Beweis seiner Lehrsätze benötigt werden, sich nicht selbst beweisen können.
 


Der springende Punkt ist:

Jeder KALKÜL im Sinne von Gödels Satz ist nur EIN logisches System.


Die Mathematik als Ganzes (als Vereinigung ALL ihrer logischen Systeme) kann man vergleichen mit einer Ebene, die komplett überdeckt ist mit Kreisringen, die sämtlich denselben Mittelpunkt M haben. Jeder dieser Kreisringe R( K) entspricht EINEM der mathematischen Kalküle K, und es gilt:
  • Aussagem in Inneren des Kreisringes R(K) sind die Axiome, auf denen K aufbaut (die K also nicht beweisen kann bzw. als wahr voraussetzt).
  • Aussagen auf dem Kreisring R(K) sind all die Aussagen, die K beweisen kann.
  • Alle weiteren Aussagen liegen ausserhalb von R(K). Sie zu beweisen benötigt man einen mächtigeren, dem K übergeordneten Kalkül. Auch der aber ist ein mathematischer Kalkül.

Nochmals also: Verwechsle bitte nie die Mathematik mit nur einem einzigen formalen Kalkül.

Was ich als den Mittelpunkt M aller R(K) bezeichne ist im übrigen nichts anderes als das Axiom vom Widerspruch (Aristoteles hat es wohl als Erster in seiner überaus grundlegenden Bedeutung klar erkannt). Es ist Basis all unseres logischen Denkens.

Beste Grüße,
grtgrt
 

  Beitrag 2060-47
Nur versucht, die Gedanken anderer logisch nachzuvollziehen, wird dazulernen

 
 
Emmins in 2060-45:
 
Ich neige dazu, Diskussionen durch zusätzliche Gesichtspunkte etwas komplizierter zu machen. Gerade wenn man Lösungen für Probleme sucht, tut man m.E. gut daran, Positionen anderer nachzuvollziehen ...


Gerade das scheint mir ein besonders sinnvolles und fruchtbares Vorgehen ...

Interessanter für jeden an solcher Diskussion Beteiligten wird es zudem noch sein.

 

  Beitrag 1964-93
Was man braucht, eine Hypothese als NICHT-falsifizierbar zu erkennen

 
 
Irena aus 1964-90:
Grtgrt aus 1964-89:
 
Wodurch siehst du bewiesen, dass die Hypothese der Baby Universen nicht falsifizierbar sei?

Nicht ich muss beweisen. Es muss ein beobachtbarer Tatbestand geben, dem diese Hypothese widerspräche.

Hi Irena,

aus meiner Sicht, ist die Sache so:

Eine Hypothese ist falsifizierbar, sobald man sich eine Situation vorstellen kann, die jener Hypothese widerspricht (z.B. ein Experiment mit entsprechenden Ausgang).

Daraus folgt:
    Solange man sich keine solche Situation vorstellen kann, kann man die Hypothese nicht als falsifizierbar bezeichnen — als NICHT falsifizierbar erkannt ist sie deswegen aber noch lange nicht (!). Vielmehr ist über ihre Falsifizierbarkeit einfach noch nicht entschieden.
    Das liegt daran, dass man ja nicht ausschließen kann, dass — irgendwann in der Zukunft — jemand doch ein Experiment findet, dem ein Ausgang möglich sein könnte, der die Hypothese als falsch entlarvt.
Somit ist klar:
    Eine Hypothese darf erst dann als NICHT falsifizierbar bezeichnet werden, wenn es einen Beweis dafür gibt — ein logisches Argument also, welches aus der Annahme, sie sei falsifizierbar, einen Widerspruch herleitet.

Beste Grüße,
grtgrt
 

  Beitrag 1995-22
Ontologie vs Ontosophie

 
 
Henry aus 1995-21:
 
Warum schreibst du dann nicht "mit den Sinnen erfassen", z. B.? Wenn ich dich zitieren darf: "Jeder Gegenstand G, den man anfassen und fühlen kann, ist eine Konfiguration von Elementarteilchen." Für mich ist das mitnichten hinreichend allgemein formuliert. ...


Und "Ontologie" ist die Lehre vom "Sein".


Nun, Henry,

vielleicht hast du recht. Habe das jetzt korrigiert zu "Jeder Gegenstand G, den man anfassen, fühlen oder auch nur sehen kann".


Unser Missverständnis, die Ontologie betreffend, war darauf zurückzuführen, dass

Ich würde es tatsächlich vorziehen, wenn die Philosophen statt "Ontologie" treffender "Ontosophie" sagen würden. Irgendwie scheinen sie dieses Wort aber nicht gemocht zu haben, da es ja — obgleich erst Mitte des 18. Jahrhunderts aufgekommen — heute wohl nicht mehr gebraucht wird.

Wie so oft bei Philosophen, scheint mir ihre Definition auch sonst wenig logisch: Was bitte soll "das Ende" denn mit "dem Sein" zu tun haben?

Auch der Unterschied zwischen dem "Sein" und dem "Seienden" ist mir keineswegs klar.

Und führt nicht das auf der Philosophenseite (dort von einem Philosophen) gegebene Beispiel im Bild zur Dreifaltigkeitslehre eher auf Ontologie im Sinne der Informatiker?


Danke also, habe was dazugelernt.

Gruß, grtgrt
 

  Beitrag 1997-155
Das unfruchtbare (mittelalterliche) Denken und das neue (wissen

 
 
Harti in 1997-153:
 
Der Hinweis auf irgendwelche Autoritäten, die anderer Ansicht sind, überzeugt mich nur, wenn ich aus deren Darlegungen folgern kann, dass meine Ansichten falsch sind.


Genau so soll man sich verhalten!

Nebenbei: Es gilt heute — im Gegensatz zum frühen Mittelalter — als unwissenschaftlich, Argumente, die man sich zutraut nachzuprüfen, im Zweifelsfalls nicht auch 
w i r k l i c h  nachzuprüfen und ggfs. zu  v e r w e r f e n :  Natürlich nur unter Vorlage schlüssigerer Argumente.


Wer das nicht zulassen will, denkt wie die kirchlichen Inquisitoren, welche die Begründer modernen wissenschaftlichen Denkens eingesperrt, gefoltert oder sogar am lebendigen Leibe verbrannt haben.

 

  Beitrag 2016-43
Was es bedeutet, wie ein Wissenschaftler zu denken

 
 
Henry aus 2016-41:
 
Keine (physikalische) Theorie ist beweisbar, sondern nur falsifizierbar.

Na ja: Zumindestens durch Beobachtung zu bestätigen ist so mache Theorie doch (weswegen denn auch Einstein so scharf drauf war, dass damals jemand sich die Mühe machen sollte, zu beobachten, ob man anläßlich einer Sonnenfinsternis die durch seine Theorie vorhergesagte Ablenkung des an der Sonne vorbeiziehenden Lichts im von ihm vorhergesagten Ausmaß bestätigt fände).

Nebenbei: Einstein hatte Glück, dass das deutsche Team auf der Krim damals — der Spionage verdächtigt — am Arbeiten gehindert wurde.
Zu dem Zeitpunkt nämlich, war seine Vorhersage noch um einen Faktor 2 falsch. Erst zwei britische Teams konnten ihn anlässlich einer in Afrika und Südamerika beobachtbaren späteren Sonnenfinsternis bestätigen — hinsichtlich seiner dann schon korrigierten Vorhersage.

Man sieht: Auch mit dem Falsifizieren ist das so ein Sache ....


Henry aus 2016-41:
 
... oder um nicht ganz abzuheben, es lässt sich nicht entscheiden, ob die Raumzeit real ist oder nicht, ob Raum und Zeit tatsächlich eine Einheit bilden oder nicht, ob es ein Blockuniversum ist oder nicht. Man kann die eine oder die andere Ansicht vertreten, ohne gegen physikalische Gesetze zu verstoßen.

Als mathematisches Objekt betrachtet (oder auch als physikalisches Modell) ist die Raumzeit durchaus hinreichend real, um sagen zu können, ob durch sie Raum und Zeit untrennbar verschmelzen oder ob nur ihre Beziehung zueinander — wie kompliziert auch immer die sein mag — Gegenstand des Modells ist.


Worauf es mir ankommt: Es ist unerheblich, ob man sich als Philosoph, Physiker, Informatiker, oder sonst was sieht — was zählt ist einzig und allein, dass man keiner Aussage einen Wahrheitswert zuordnet, den gültige Logik als falsch oder auch nur als derzeit unbegründet sehen müsste.

Mindestens unterscheiden sollte man hierbei die folgenden 4 einander jeweils ausschließenden Fälle
  • WAHR
  • FALSCH
  • UNENTSCHEIDBAR
  • derzeit keinem dieser Fälle hinreichend gut begründbar zuzuordnen.

Was man da als "hinreichend gut begründbar" zu sehen hat, hängt davon ab, wie sicher man sein möchte (oder anderen suggeriert zu sein).

 

  Beitrag 1997-157
-

 
 
Bauhof in 1997-156:
 
Henry und viele andere haben es jahrelang versucht, Harti mit sachlich vorgetragen Argumenten zu überzeugen. Hat nicht gefruchtet. Deshalb sind dann auch ab und zu deutliche Worte angebracht, wenn jemand keinem Argument zugänglich ist.

Auch der Profi Zara.t. gebraucht manchmal deutliche Worte, wenn es "zu bunt wird". Zu Henry sagte er im Beitrag 1981-62 folgendes:

Zitat:
Leute passt auf, an dem was Henry erzählt stimmt fast nix

Das habe ich jetzt nicht zitiert, um Henry vorzuführen, sondern nur damit du dir eine Vorstellung machen kannst, welche deutlichen Worte Zara.t. dir gegenüber möglicherweise gebrauchen wird, wenn du in Sachen Zwillingsparadoxon nicht zur Einsicht kommst.

Eugen Bauhof


Na ja, Eugen,

ich muss gestehen, dass ich hin und wieder durchaus versucht bin, Gleiches zu Dir zu sagen.


Bauhof in 1997-156:
 
Henry und viele andere haben es jahrelang versucht, Harti mit sachlich vorgetragen Argumenten zu überzeugen. Hat nicht gefruchtet.


Vielleicht deswegen, weil einiges seiner Argumente durchaus richtig waren ( von Euch aber nicht als richtig erkannt wurden )?

Wir sollten berücksichtigen: Wahres ist von Falschem oft extrem schwierig zu unterscheiden. Und weiter:


W e n n  eine Aussage wahr ist,

gilt das unabhängig davon, wie viele Personen und wie viele Fachbücher sie als falsch einstufen.



Es wundert mich deswegen sehr, dass selbst Du, Okotombrok und besonders Henry meistens nur  M e i n u n g e n  verbreiten, aber ganz selten versuchen, der Frage nachzugehen, wo in einer  S c h l u s s f o l g e r u n g  der Fehler liegen könnte.

In meinem Beruf kommt es gar nicht so selten vor, dass jemand ein ihm zunächst unumstößlich erscheinendes Urteil doch revidiert, sobald er versucht hat, den anderen durch einen  B e w e i s  zu überzeugen (Beweis = Zerlegung einer Schlussfolgerung in eine Folge einfacherer, immer kleinerer Schlussfolgerungen so lange, bis beide Personen sehen, wo denn nun genau die eine oder andere einem Denkfehler aufgesessen ist).


Beste Grüße,
Gebhard

 

  Beitrag 2016-55
Zum Stellenwert von Falsification

 
 
E... aus 2016-54:
Grtgrt aus 2016-50:
(...)
Und noch eine Sache: Zutreffende Theorien kann man natürlich niemals (zurecht) falsifizieren. Aber genau diese Theorien sind ja die wertvollen (!).
(...)

Was bitte ist denn ein (zu recht oder zu unrecht) falsifizieren?


Etwas zurecht falsifiziert zu haben bedeutet, beim Falsifizieren keinen Denkfehler gemacht zu haben.



Wer z.B. Software testet, denkt oft, der Testtreiber hätte einen Fehler gefunden. Hin und wieder aber stellt sich raus, dass der Fehler im Testtreiber lag, also nicht dort, wo man ihn vermutet hat. Analoges kann natürlich auch beim Versuch der Falsifizierung einer Theorie passieren.

 

  Beitrag 2016-57
-

 
Zitat von Gebhard:
Nun Henry,

es ist halt doch "so eine Sache" mit der Falsifikation:

Hätte man das Team in Kiew nämlich seine Beobachtungen durchführen lassen, hätten seine Zahlen dem widersprochen, was Einstein damals voraussagte.
Die Wahrscheinlichkeit ist groß, dass man dann seine Theorie als widerlegt betrachtet hätte (und nicht einfach nur seine Rechnung, die den Fehler wirklich enthielt).
Wer nämlich macht sich die Mühe, etwas Kompliziertes zu verstehen, wenn andere ihm sagen, es gäbe schon ein Gegenbeispiel?

Und noch eine Sache: Zutreffende Theorien kann man natürlich niemals (zurecht) falsifizieren. Aber genau diese Theorien sind ja die wertvollen (!).

Logisch korrekte Falsifikation ist demnach nicht mehr als ein Weg, Sackgassen schnell als solche zu erkennen.

Gruß, grtgrt

Hallo, Gebhard!

Erst noch mal zur Philosophie und Physik (oder allgemeiner den Naturwissenschaften). Natürlich hab ich da auch Blödsinn geschrieben, was wohl zum Teil an der Fragestellung lag. Weshalb sollte es einen Unterschied zwischen Philosophie und Physik geben? Es gibt gar keinen, es sind zwei völlig verschiedene Ebenen der Betrachtungsweise.

Was man nach meiner Ansicht aber sagen kann ist, dass man, um Naturwissenschaft zu betreiben, möglichst objektiv vorgehen sollte. Dazu gehört auch, die Philosophie (im Sinne einer Weltsicht) außen vor zu lassen. Andererseits kann ein schlüssiges philosophisches Weltbild nicht auf die Erkenntnisse der Naturwissenschaften verzichten.

Weiter ist die Frage, ob wir z. B. in einem Blockuniversum leben oder nicht oder ob die Raumzeit real ist oder nicht erst einmal gar keine philosophische Frage. Das Blockuniversum ist eine (mögliche) Folgerung aus den Annahmen der SRT (Nichtgleichzeitigkeit der Ereignisse), und ob die Raumzeit real ist oder nicht ist Spekulation und hat erst einmal überhaupt keinen Einfluss auf die Voraussagen, die sich nach der Theorie tätigen lassen. "Philosophisch" werden all diese Erkenntnisse oder Interpretationen, wenn wir uns mit den Folgen für unser Dasein und für unser Selbstverständnis als Menschen beschäftigen.

Wie arbeiten Physiker (oder allgemein Naturwissenschaftler)? Es ist ein Zusammenspiel von Theorie und Experiment. Nebenbei: Das Erstellen eines Computerprogramms und seine Testphasen mit der Entwicklung einer physikalischen Theorie vergleichen zu wollen ist – sage wir mal – zumindest weit hergeholt.

Die Theorie muss selbstverständlich zunächst einmal darauf geprüft werden, ob sie nicht bereits weitgehend bestätigten Erkenntnissen widerspricht, und ob sie in sich widerspruchsfrei ist. In erster Linie aber darf sie nicht dem widersprechen, was wir "Naturgesetzte" nennen, also z. B. den verschiedenen Erhaltungssätze oder den verschiedenen Konstanten. Und hier beginnt auch schon die Einsicht, dass jede Theorie erst einmal nur eine Theorie "auf Abruf" sein kann. Logischer Weise ist für die Konstanten und Erhaltungssätze die Allgemeingültigkeit zu fordern, und starke Indizien sprechen dafür, das dem so ist. Aber wir können es nicht wissen! Wir sind noch nie in anderen Gegenden unseres Kosmos gewesen, wir wissen nur von den experimentellen Ergebnissen hier auf der Erde (kosmisch gesehen macht es keinen Unterschied, ob wir auf der Erde oder in einer Raumstation sind). Und vielleicht noch wichtiger: Wir wissen nicht, ob sich die Konstanten / Erhaltungssätze in der Zeit ändern.

Dann muss eine Theorie Annahmen / Voraussagen machen, die sich experimentell überprüfen lassen. Nun sagt eine akzeptable Theorie natürlich nicht nur eine Aussage wie z. B. "Lichtstrahlen werden durch das Gravitationsfeld der Sonne abgelenkt". Aber selbst die Bestätigung dieser Voraussage ist eben nur die Bestätigung EINES Experimentes, das nach wissenschaftlichen Kriterien aber eigentlich nicht nur an der Sonne mehrfach wiederholt werden muss, und zwar unter IDENTISCHEN Voraussetzungen, sondern es müsste, um allgemein gültig zu sein, an ALLEN Sternen und auch sonstigen schweren Objekten überprüft werden. Dann, und NUR dann kann davon gesprochen werden, dass die Voraussage der Theorie in diesem Punkt allgemeingültig bestätigt ist. Und das ist nur eine Aussage, die z. B. die ART macht. Um tatsächlich sagen zu können, die ART ist bestätigt, müssen sämtliche ihrer Voraussagen experimentell in ähnlicher Weise bestätigt werden. Und es sind ja noch nicht einmal alle Lösungen für die Gleichungen der ART gefunden worden, geschweige denn überprüft.

Das oben Gesagte zeigt, warum eine Theorie nicht verifiziert werden kann, und auch, warum eine noch so gut durchdachte und im Experiment bestätigte Theorie sehr wohl falsifiziert werden kann. Wirklich falsifiziert wäre sie aber nur, falls sie den Grundlagen der Physik (Naturgesetze) widerspräche oder falls sich die Grundlagen selbst als falsch erweisen sollten. Und so ganz unwahrscheinlich ist das gar nicht.
 

  Beitrag 2016-58
-

 
 
Hallo Henry,

alles, was du in Beitrag 2016-57 sagst, sehe auch ich so: Du hast recht.

Wenn ich die Methodik der Falsifikation nicht ganz so konkurrenzlos dastehen lassen möchte, liegt das einfach daran, dass sie ausschließlich dazu dienen kann "gedankliches Unkraut" baldmöglichst zu beseitigen. Zutreffende Modelle zu erstellen, hilft sie aber nicht. Bestätigung durchs Experiment aber hilft, auch wenn — wie du ganz richtig feststellst — so eine Bestätigung noch lange kein Beweis ist (und es einen wirklichen Beweis möglicherweise nie geben kann).

Das Erstellen von Software ist wirklich was ganz anderes als das Erarbeiten einer physikalischen Theorie.

Mein Beispiel "Software-Test" war lediglich gedacht, darauf hinzuweisen, dass, wo Widersprüche entdeckt werden, zunächst mal nicht klar ist, auf welcher der beiden Seiten der entsprechende Denkfehler denn liegt, oder ob der entdeckte Widerspruch denn wirklich die Ursache hat, die man denkt, dass er hat (gerade dafür ist Einsteins Rechenfehler ja schon ein sehr schönen Beispiel).

Beste Grüße,
grtgrt
 

  Beitrag 2035-227
-

 
 
Bauhof aus 2035-226:
Grtgrt aus 2035-225:
 
Eine falsifizierbare Theorie ist eine, die widerlegt werden kann,  W E N N  sie falsch ist  ( und eben nur dann ).

Hallo Grtgrt,

und wie würdest du eine nicht falsifizierbare Theorie charakterisieren?

M.f.G Eugen Bauhof


Eine nicht falsifizierbare Theorie ist eine, die zu widerlegen selbst dann nicht gelingt, wenn sie falsch ist.

Die Stringtheorie etwa legt nahe, dass es grob 10500 verschiedene Typen möglicher Universen gibt. Eine Theorie z.B., die sagt oder voraussetzt, dass es im Kosmos zu jedem dieser Typen wenigstens ein Universum gibt, dessen Kräfte und Elementarteilchen sich so verhalten, wie dieser Typ beschreibt, ist nicht falsifizierbar (nach allem, was wir derzeit wissen und für bestätigt halten).

 

  Beitrag 2035-233
-

 
 
Bauhof aus 2035-232:
Henry aus 2035-229:
 
Falsifizierbarkeit bzgl. einer Theorie bedeutet nicht, DASS eine Theorie falsch ist, sondern erlaubt die Frage, OB sie falsch ist.

Hallo Henry,

ja.
Vielleicht noch etwas genauer:
Falsifizierbarkeit beinhaltet die Möglichkeit des Scheiternkönnens. Denn Falsifizierbarkeit besagt, dass Theorien nur dann wissenschaftlicher Charakter zukommt, wenn sie mit möglichen oder doch denkbaren Beobachtungen in Widerspruch stehen können. Wenn eine Theorie mit allen möglichen Beobachtungen prinzipiell von vornherein nicht widerlegbar wäre, dann kommt ihr kein wissenschaftlicher Charakter zu.

M.f.G. Eugen Bauhof


Das ist richtig, kann aber noch verschärft werden:


F a l s i f i z i e r b a r k e i t  bedeutet, dass die Theorie, WENN sie falsch sein sollte, tatsächlich auch als falsch erkannt werden kann.


W i d e r l e g b a r k e i t  bedeutet, dass die Theorie als falsch erkannt werden kann (und somit tatsächlich falsch ist).


 

  Beitrag 2059-1
Über Streitkultur (speziell im Umfeld Theoretischer Physik)

 
 

Das sicherste Anzeichen dafür, dass jemand die Argumente ausgehen, ist stets, dass er dazu übergeht, nur noch so zu antworten, dass er seinem Gesprächspartner Dummheit vorwirft.

Speziell für Vertreter der Theoretischen Physik gilt, was einer von ihnen selbst sagt (und viele andere denken oder dachten):

Zitat von Magueijo (2003):
 
Tatsächlich gibt es in der Wissenschaft keine bessere Methode, verrückt zu werden, als die Zweifel, die von anderen an der eigenen Idee vorgebracht werden, als persönliche Angriffe anzusehen — selbst wenn die Bemerkungen vor Verachtung oder Bosheit triefen und wenn man absolut sicher ist, dass alle Anwesenden einen für einen ausgemachten Dummkopf halten.

So ist das nun mal in den Naturwissenschaften. Jede neue Idee ist so lange dummes Geschwätz, bis sie jede erbarmungslose Kritik überlebt hat.
 

Sich solch erbarmungsloser Kritik wirklich zu stellen ist notwendig, um zu zeigen, dass die eigene Theorie — obgleich sie falsifizierbar sein sollte — nicht zum Widerspruch geführt werden kann.

 

  Beitrag 1209-32
Die Natür könnte immer "noch verrückter" sein ...

 
 
Haronimo in 1209-29:
 
Obwohl manche hier meinen, dass du zu viel Unsinn verbreitest ...


Das beste, was mir passieren könnte, wäre, wenn es jemand gelänge, mir dies oder das, was ich so schreibe, tatsächlich als Unsinn nachzuweisen ...

Aber so mancher denkt da wohl, dass hoch Spekulatives auf jeden Fall falsch sein müsse.


Ich jedenfalls will nicht vergessen, dass Bohr, Wheeler und einige andere mehrfach darauf hinwiesen, dass man als Theoretischer Physiker gar nicht gewagt genug denken könne: Die Natur könnte immer "noch verückter" sein.

Selbst die Geschichte der Mathematik kennt einige Beispiele, wo nicht die etablierten Professoren recht hatten, sondern der blutige Anfänger (Kronecker vs Cantor sind da ein recht schönes Beispiel).

 

  Beitrag 1209-33
Was Logik uns sagt, hat anderes Gewicht als was Meinungen uns sagen

 
 
Grtgrt in 1209-32:
 
Haronimo in 1209-29:
 
Obwohl manche hier meinen, dass du zu viel Unsinn verbreitest ...


Das beste, was mir passieren könnte, wäre, wenn es jemand gelänge, mir dies oder das, was ich so schreibe, tatsächlich als Unsinn nachzuweisen ...


Meinungen können falsch sein.

Strenge, unangreifbare Logik ist der einzige Kritiker, dem ich mich beuge.

 

  Beitrag 1209-35
-

 
 
Haronimo in 1209-34:
Grtgrt in 1209-33:
 
Meinungen können falsch sein.

Aber Meinungsfreiheit nicht.Sonst befänden wir uns in ein diktatorische Umfeld .Wer will dass schon ?

Ja, Haronimo,

Meinungsfreiheit ist wichtig.

Ich will auch gar niemand seine Meinung nehmen — wenn ich sie für falsch halte (und die Person mir nicht ganz gleichgültig ist), konfrontiere ich sie halt mit Gegen­argumenten. Sollte man sie nicht einsehen, bleibt unser beider Meinung halt nebeneinander stehen.

Warum andere das nicht immer so locker sehen, kann ich nicht so recht verstehen.

Gruß, grtgrt
 

 Beitrag 0-17
Nur mathematische Logik führt zu absolut objektiver Schlussfolgerung

 
 

 
Nur mathematische Logik führt zu absolut objektiver Schlussfolgerung

 
 
In der Medizin — das ist zweifelsfrei erwiesen — spielt die Erwartungshaltung der Patienten eine große Rolle: Ein Medikament wirkt umso besser, je mehr der Patient davon überzeugt ist, dass es Wirkung haben wird. Man nennt das den Placebo-Effekt.
 
Aber schlimmer noch: Wo Arzneimittel getestet werden, ist es wichtig, dass solcher Test im Doppel- oder gar Dreifachblindverfahren durchgeführt wird, was bedeutet, dass das Wissen darüber, welcher Patient das zu testende Mittel bekam und wem stattdessen nur ein Placebo verabreicht wurde (ein Mittel also, das gar keine Wirkung haben sollte), weder den Versuchspersonen noch den Personen, die die Versuchspersonen beobachten, bekannt wird.
 
Letzteres zu erreichen kann schwierig sein, wenn das zu testende Mittel noch während des Versuches beobachtbare Nebenwirkungen haben kann: Der die Patienten beobachtende Arzt wird, wo sich solche Nebenwirkung zeigt, — und sei es nur Übelkeit oder Schlaflosigkeit — geneigt sein, anzunehmen, dies sei ein Patient, der das echte Mittel (das Verum) erhielt. Ganz gleich, ob dem dann wirklich so sein sollte: Er wird mindestens unbewusst voreingenommen reagieren, was sich auf jeden Fall dort auf die Objektivität seiner Beobachtungsergebnisse auswirken wird, wo zwischen Wirkung und Nichtwirkung nur schwer unterschieden werden kann.
 
Mit anderen Worten: Es gibt nicht nur den Placebo-Effekt, sondern auch den sog. Experimentator-Effekt, der ebenfalls zu nur scheinbar richtigen Ergebnissen führt.
 
Somit gilt:

Absolut objektive Beobachtung
 
ebenso wie absolut objektive Schlussfolgerung,
 
sind nur möglich, wo sie sich das Erkannte allein mathematischer Gesetzmäßigkeiten wegen zeigt.

 
Mathematik ist demnach der einzige uns bekannte Denkmechanismus, mit dessen Hilfe sich absolut objektive Schlussfolgerungen ziehen lassen.


 

 Beitrag 0-540
Wo auch heute noch selbst manche Physiker falsch argumentieren

 
 

 
In Sachbüchern für Physik

gelegentlich anzutreffende Denkfehler



Falsch ist, dass ...
 
... es eine kleinste Portion von Energie gäbe (und jede andere ganzzahliges Vielfaches davon sei):

 
Im Buch A Big bang in a little Room (Zeya Morali, 2017) liest man auf Seite 32:
    ... the smallest denomination that the energy of tiny particles can take is known as a quantum of energy: A photon can have 1 quantum of energy, or 2 quanta, or 72 quanta, or any other whole-number-multiple ... but not 3/4 of a quantuim, or 42+1/3 quanta of energy, say.

 
Das ist falsch, denn:
    Tatsächlich wahr ist, dass die Energie eines Photons stets gegeben ist als Produkt von Plancks Wirkungsquantum und der Frequenz des Photons. Letztere kann beliebig klein werden, wie z.B. die Tatsache beweist, dass kosmischer Raum — schon seit dem Urknall — expandiert und daher die Wellenlänge der Photonen (z.B. die der kosmischen Hintergrungstrahlung) sich ständig vergrößert.

 
Wie man sieht, verwechselt die Autorin des Buches Energie mit Wirkung: Ein ganz gravierender Fehler, der einer promovierten theoretischen Physikerin, die heute als Wissenschaftjournalist arbeitet, besser nicht unterlaufen sollte.
 
In ihrem Buch besonders aussagekräftig und wohl auch richtig dargestellt sind vor allem Inhalt und Geschichte der Inflationstheorie einschließlich der ewiger Inflation: Dieser Teil des Buches — Kapitel 3, 4 und 5 — ist auf jeden Fall lesenswert. Er berichtet, was die Urheber jener Theorien — Guth, Linde und Vilenkin — der Buchautorin in Interviews selbst mitgeteilt haben.
 
Mehr zum Buch insgesamt sagt Sabine Hossenfelders Rieview.
 
Mein Ratschlag: Wer an Kosmologie als Wissenschaft interessiert ist — statt an wilder, absolut unbegründeter Spekulation ergänzt um geradezu naiv anmutende Hinweise der Autorin auf Gott — lese die Kapitel 3 bis 5 des Buches, aber nichts weiter sonst.
 
|
 
Auf Seite 38 des Buches zeigt sich, dass Morali das wichtigste Experiment der Quantenphysik — das Doppelspaltexperiment — noch nicht richtig verstanden hat, und auch nicht Hugh Everett's Viele-Welten-Theorie. Sie schreibt:
    "According to Everett's speculation, when Suarez set up his double-slit experiment [...], the moment he made a quantum measurement of the path of the photon — to check if it took the left or the right slit — reality fractured, creating two almost identical clone universes. The only difference between the two would be that in one [...] Suarez detected that the photon traveled through the left slit, while at the same instant his parallel self in an alternative version of Zaragoza was recording the outcome that the photon had traveled through the right slit."

Tatsächlich richtig ist: Niemand kann beobachten, dass das Photon durch nur einen Spalt kommt: Es kommt IMMER durch beide.
 
Genauer: Beim Versuch, Pfadinformation zu erhalten, muss man hinter die Spalten Polarisationsfilter setzen, welche ankommendendes Licht spaltenspezifisch senkrecht zu einander polarisieren: Wie man feststellt, verschwindet dann die Interferenz (einfach deswegen, da senkrecht zu einander polarisiertes Licht nicht interferieren kann). Leider scheint das bisher auch einigen anderen Physikern noch gar nicht so richtig klar zu sein. Sie stellen dann das Verschwinden der Interferenz beim Versuch, Pfadinformation zu erhalten, als großes Geheimnis hin: als etwas Unerklärbares, das mit beitrage zur angeblichen "Unverständlichkeit" des Quantenverhaltens.
 
Schlimmer noch: Der Physiker David Deutsch argumentiert in seinem Buch The Fabric of Reality (1997) allen Ernstes, dass das Doppelspaltexperiment die Existenz der "vielen Welten" im Sinne von Hugh Everett III beweise. Er denkt wirklich — wie Morali ja auch —, sie alle würden in gleich konkreter Weise existieren. Tatsächlich aber existieren sie nur als logische Gebilde im Konfigurationsraum aller Möglichkeiten, über deren Eintreten oder Nicht-Eintreten die Zukunft entscheiden wird.
 




Falsch ist, dass ...:
 
... es unter unendlich viele Paralleluniversionen mindestens zwei mit genau gleichem Inhalt geben muss,
 
oder ein Affe, wenn er nur hinreichend lange tippen könnte, mit Sicherheit irgendwann Shakespears gesammelte Werke reproduziert haben würde.

 
Beides wird von zahlreichen Sachbuchautoren — gelegentlich auch von Professoren der Physik, u.A. von Alexander Vilenkin — so behauptet. Genauer:
 
Einige Kosmologen — und z.B. auch zahlreiche populärwissenschaftliche Darstellungen der Multiversentheorie — stellen es als selbstverständlich hin, dass alles, was möglich ist, in irgend einem (sog. Parallel-) Universum auch tatsächlich vorkomme. Die Wahrscheinlichkeitstheorie, so schreiben sie, würde es beweisen, wenn man davon ausgehe, dass es unendlich viele Universen gäbe.
 
Aber tut sie das wirklich? Ganz offensichtlich nicht, denn:

    Wer sich eine Menge von N gleich wahrscheinlichen Teilchenkonfigurationen vorstellt, wird zu Recht behaupten können, die Wahrscheinlichkeit dafür, dass eine ganz bestimmte davon wirklich auftritt, sei 1/N (also positiv). Wenn nun aber N gegen unendlich strebt, strebt 1/N gegen Null. Betrachtet man also eine unendlich große Menge möglicher Zustände eines Universums, kann nicht mehr be­hauptet werden, die Wahrscheinlichkeit dafür, dass ein ganz bestimmter davon wirklich eintreten werde, sei positiv. Ebenso wenig kann behauptet werden sie sei Null. Sie ist also undefiniert, und somit kann man weder sicher sein, dass sich der fragliche Zustand ergibt, noch kann man sicher sein, dass er sich nicht ergibt.
     
     
    Man erkennt: Nicht jede Argumentation, die im Falle nur endlich vieler Alternativen schlüssig wäre, kann auch noch angewandt werden, wo es sich um mehr als nur endlich viele Alternativen handelt.

 



 

 Beitrag 0-454
In welchem Ausmaß ist alles Weltgeschehen deterministisch?

 
 

 
Wie deterministisch entwickelt sich die Welt?

 
 
Wenn wir unter der Welt den Inhalt der Raumzeit aus Sicht der Physik verstehen, so lässt sich feststellen:
 
     
  • Die kleinsten Geschehnisse, die Physik kennt, sind Quantenfluktuationen. Ihr Ergebnis ist — nach allem, was man weiß — absolut zufällig.
     
  • Erst wo sich, aus welchen Gründen auch immer, mehr makroskopische Strukturen und Objekte bilden, verhalten die sich (nur aus makroskopischer Sicht heraus) zunehmend deterministisch.

 
Erst aus gröberer Sicht heraus also ergibt sich — gut korrespondierend mit der Größe Form schaffender Strukturen — zunehmend deterministischeres Verhalten. Auf Quantenebene aber, d.h. was Abänderung sämtlicher Objekte durch Geschehnisse kleinstmöglicher Wirkung betrifft, entwickeln auch große Objekte sich nicht-deterministisch: getrieben durch Quantenfluktuation verändert sich auf extrem kleiner Skala ständig was an ihnen.
 
Quantenfluktuation nagt an der Form aller Objekte ebenso, wie Wind und Wetter am Zustand nie renovierter Gebäude nagen und sie so schließlich zerfallen lassen.
 
 
Die Evolution (und Bewusstsein) — so scheint es — wirken zielgerichtet.
 
Quantenflunktuation aber will einfach nur Veränderung herbeiführen.


 

  Beitrag 1963-1
Eine neue — sehr naheliegende — Deutung quantenphysikalischer Messergebnisse (und verschränkter Quanten)

 
 


Eine neue — wirklich naheliegende — Deutung quantenphysikalischer Messergebnisse


Gebhard Greiter (grtgrt)



Die ständig stattfindenden Dekohärenzprozesse (allgemeiner: die Neudefinition der Wellenfunktion eines Quantensystems in jedem Elementarereignis) wird gegenwärtig so interpretiert, dass hierdurch Realität produziert wird: ein konkreter Zustand, den man wohl am treffendsten als eine Art Schnappschuss begreift, der die Stelle, an der das Elementarereignis passiert, abphotographiert: Details dazu in den Beiträgen 1915-107, 1915-66 und 1915-86 (die man am besten versteht, wenn man sie in eben dieser Reihenfolge nachliest).

Zudem gibt es das heute viel diskutierte Phänomen der Quantenverschränkung, welches dadurch gekennzeichnet ist, dass Messungen der Eigenschaften zueinander verschränkter Quanten zueinander korrelliertes (in bestimmten Beispielen sogar absolut identisches) Ergebnis liefern, obgleich der Wert der jeweils beobachteten Größe auch da noch ein absolut zufällig eintretender ist.

Beispiel: Wenn ein Atom zwei zueinander verschränkte Photonen aussendet und man deren Polarisation misst, stellt man fest, dass beide stets gleich polarisiert sind. Andererseits kann der konkrete Wert der Polarisation für so ein Paar in keiner Weise vorausgesagt werden. Er ist ebenso wahrscheinlich wie der jeweils andere (wenn die Versuchsanordnung so ist, dass die eingesetzten Polarisationsfilter genau zwei Werte möglich machen).

Diese Beobachtung kann so interpretiert werden, dass die Messung uns nicht einen Schnappschuss jener Photonen zeigt, sondern nur einen Schnappschuss einer Projektion p dieser Photonen auf einen Teilraum unserer Welt, der weniger Dimensionen hat als diese Welt selbst und zudem noch so beschaffen ist, dass auf bestimmte Weise zueinander verschränkte Photonen unter dieser Projektion denselben "Schatten" werfen (sprich: auf ein und dasselbe Objekt abgebildet werden).

Eine Möglichkeit, sich jene Schattenwelt vorstellen, wäre, sich daran zu erinnern, dass der Stringtheorie entsprechend unser Universum über seine 4 uns sichtbaren Dimensionen hinaus noch bis zu 7 weitere, sog. aufgerollte Dimensionen hat. Es könnte also gut sein, dass jene Projektion p das Photon einfach nur in einen Teilraum projeziert, der durch einige dieser aufgerollten Dimensionen aufgespannt wird. Er ist dann auf jeden Fall nur endlich groß, aber ohne Anfang und Ende.


Meine Frage an Euch alle:

Kann mir jemand beweisen, dass diese Deutung KEINEN Sinn macht (bzw. falsch sein muss)?



grtgrt

PS: Man könnte noch weiter gehen, indem man sich frägt, ob unsere Welt nicht vielleicht zwei unterschiedliche Existenzformen hat: Eine, die das ist, was wir als unsere reale Welt W wahrnehmen, und eine andere, die ihr Bild unter p ist: p( W) also. Vielleicht also ist p gar keine Projektion, sondern eher ein Isomorphismus, der uns — im Beispiel oben — ein wirkliches Objekt einfach nur ausschnittsweise zeigt: eben so, dass wir denken, wir sähen zwei unterschiedliche Photonen?

 

  Beitrag 2075-193
-

 
 
Stueps in 2075-188:
 
Im Speziellen deutet die (für uns Laien sehr schwer nachzuvollziehende) Verletzung der Bellschen Ungleichung darauf hin, dass diese Art Zufälle echt sind, und nicht auf Parametern beruhen, die wir nicht erkannt haben und erkennen können.


Hallo Stueps,

meinem Verständnis nach beweist die Bellsche Ungleichung (in Kombination mit Aspects Experimenten) nicht das Vorliegen von absolutem Zufall, sondern stattdessen nur die sog. » spukhafte Fernwirkung « — die Tatsache also, dass miteinander verschränkte Quanten zueinander korrelliertes Verhalten aufweisen  o h n e  dass vorher schon bestimmt worden sein kann, wie sie auf welche Messfrage antworten werden.

Gruß, grtgrt
 

  Beitrag 2009-78
Statt ( Zeit, Länge, Masse ) besser ( Zeit, Geschwindigkeit, Energie)

 
 
Bauhof in 2009-73:
Grtgrt in 2009-71:
 
FRAGE an alle: Kann mir jemand ein physikalisches Gesetz nennen, in dessen mathematischer Formulierung die Lichtgeschwindigkeit c irgendwie anders auftritt als nur in Form eines Quotienten v/c, wo v für die Geschwindigkeit eines bestimmten physikalischen Objekts steht?

Hallo Grtgrt,

E2 = (p•c)2 + (m•c2)2 ; mit p = Impuls
Auf was willst du hinaus?

M.f.G. Eugen Bauhof


Hallo Eugen,
Hallo Stueps,

meine Frage war falsch gestellt. Was ich wirklich fragen wollte war:

Kann mir jemand ein physikalisches Gesetz nennen,
in dessen mathematischer Formulierung die relativistische Geschwindigkeit v eines bestimmten physikalischen Objekts
in irgend einer anderen Form auftritt als in der Form v/c, wo c die Lichtgeschwindigkeit bezeichnet?


So gestellt — das fällt mir eben jetzt auf — weiß ich selbst sogar die Antwort: Sie lautet NEIN ( denn es ist ja stets v = (v/c)c ).


Nun zu Eugens Frage, worauf ich damit hinaus wollte:

Die Größe eines physikalischen Objekts wird üblicherweise über 3 Grundgrößen spezifiziert. Sie sind


Zeit (als Vielfaches von Sekunde)   —   Länge (als Vielfaches von Meter)   —   Masse (als Vielfaches von Kilogramm)



Dazu äquivalent wäre das Grundgrößensystem

Zeit (als Vielfaches von 1 sec)   —   Geschwindigkeit (als Vielfaches von c)   —   Energie (als Vielfaches von 1 eV)



Da c und eV "Naturkonstanten" sind, braucht der Mensch dann nur noch festzulegen, was er unter 1 sec verstehen möchte.

Mit anderen Worten: Begriffe wie Meter oder Joule sind gar nicht notwendig (bzw. sind einfach nur Namen, mit denen der Mensch bestimmte Vielfache von ( c sec ) bzw. von 1 eV bezeichnet. Die festzulegen ist er natürlich frei, und so definiert er gegenwärtig 1 m = ( c/299 792 458 ) sec.

Nach heute gültiger Konvention versteht man unter 1 sec die Periode einer Mikrowelle, die mit einem ausgewählten Niveauübergang im Caesiumatom in Resonanz ist. Daher wird sie als Atomsekunde bezeichnet. Atomuhren basieren auf der Messung dieses Übergangs.

Spannende Frage wäre jetzt:

Ist das wirklich auch aus Sicht der Natur die natürlichste Wahl für eine Grundgröße der Zeit?

Oder haben wir die erst noch zu entdecken?


 

  Beitrag 2009-81
-

 
 
Stueps aus 2009-79:
Grtgrt aus 2009-78:
Spannende Frage wäre jetzt:

Ist das wirklich auch aus Sicht der Natur die natürlichste Wahl für eine Grundgröße der Zeit?

Hallo Gebhard:

... m.E. wäre die natürlichste Wahl die Planck-Zeit.

Grüße


Hi Stueps,

in Planck-Zeit findet sich zwar eine konkrete Formel für die Planck-Zeit, aber es steht dort auch, dass es sich dabei um eine "Abschätzung" handelt.

Ferner steht dort

"Die Planck-Zeit ... beschreibt das kleinstmögliche Zeitintervall, für das die bekannten Gesetze der Physik gültig sind".


Die erste dieser beiden Aussagen suggeriert mir, dass die Natur die Planck-Zeit (und z.B. auch die Planck-Länge) nicht genau, sondern nur ihrer Größenordnung nach definiert sind.

Noch genauer: Nicht die Natur definiert die Werte von Planck-Zeit, Planck-Länge, usw. sondern unsere Modelle zusammen mit unserer Vorstellung von "Modell macht hinreichend genaue Aussagen bis hin zur Größenordnung ..." tun das.

Was ich sagen will ist: Es ist ein bisschen Geschmackssache, was man als "hinreichend genaue Aussagen" einstuft, und es ist zeitabhängig, was wir als "unsere besten Modelle" der Natur verfügbar haben, und deswegen ist die Planck-Skala eher nur eine Größenordnung denn eine wohldefinierte Naturkonstante.

Beste Grüße,
grtgrt
 

  Beitrag 2009-107
Seit 1983 ist die Lichtgeschwindigkeit Basis aller Längenmaße

 
 
Henry aus 2009-103:
 
ES WURDE NICHT DER BETRAG DER LICHTGESCHWINDIKGEIT FESTGESETZT, SONDERN DER WERT IST DIE DEFINTION FÜR EIN METER!


Bauhof aus 2009-104:
Hallo Henry,

ist das nicht nur Wortklauberei?
Wenn der Wert von c mit Hilfe der Strecke von einem Meter definiert wurde, dann ist das doch nur die operative Beschreibung einer Festsetzung. Wo siehst du da einen Unterschied in der Ausdrucksweise? Bist du zufrieden, wenn ich schreibe, der Wert der Lichtgeschwindigkeit ist exakt definiert zu c = 299 792 458 m/s ?

M.f.G. Eugen Bauhof

Henry aus 2009-106:
 
Hallo, Eugen und auch E...!

Ich hab es nicht glauben wollen und halte meine Argumentation immer noch für richtig, aber Fakt ist wohl, dass der Wert von c TATSÄCHLICH festgelegt wurde!

http://de.wikipedia.org/wiki/Boulder-Gruppe

Das überrascht mich doch sehr! Immerhin kann man sagen, dass es abweichende Messungen gibt, aber die sind äußerst gering und man hat sich wegen des Bezugs zum Meter so entschieden. Nun ja, sorry dafür!

An alle:

Die Gleichung c = 299 792 458 m/s ist ganz klar eine Definition des Meters (und das schon allein deswegen, weil nicht der Mensch, sondern die Natur die Größe der Lichtgeschwindigkeit bestimmt).

Und genau so verstehe ich auch den Artikel der Boulder-Gruppe, auf den Henry hinweist. Im letzten Satz seines Abschnittes "Das Ende der Messung der Lichtgeschwindigkeit" steht dort ja sogar explizit, dass die Definition des Meters abgeändert wurde.

Sollte die Lichtgeschwindigkeit also über die Zeit hinweg leicht schwanken, ändert das nichts an der Zahl 299 792 458. Es schwankt dann lediglich die Länge des Meters.

Gruß, grtgrt

 

  Beitrag 2009-110
-

 
 
Henry aus 2009-108:
 
Auf der 17. Generalversammlung für Maß und Gewicht im Jahr 1983 wurde die Lichtgeschwindigkeit im Vakuum auf c = 299.792.458 m/s definiert.

Dieser krumme Wert wurde gewählt, um eine möglichst geringe Abweichung vom Urmeter zu haben. (Auszug aus eben jenem Artikel im Wikipedia)

 

Hallo Henry,

da drückt sich Wikipedia einfach nur ungenau aus. Statt "Lichtgeschwindigkeit" ist die "Darstellung der Lichtgeschwindigkeit als Vielfaches von m/s" gemeint.

Und wenn Du's mir immer noch nicht glauben solltest, dann lies bitte die Original-Veröffentlichung der Boulder-Group. Es wird dort (zu Beginn des letzten Absatzes auf Seite 191) gesagt:

Zitat:
 
The new definition of the meter, accepted by the 17th Confe´rence Ge´ne´rale des Poids et Mesures in 1983, was quite simple and elegant:

"The metre is the length of the path traveled by light in vacuum during a time interval of 1/299 792 458 of a second."

 

Gruß, grtgrt

 

  Beitrag 1985-353
Erst die nachvollziehbare Begründung einer Meinung macht die Meinung wertvoll

 
 
Henry in 1985-352:
 
Meine Ansichten sind (jedenfalls meistens, ...) ganz gut mit Hintergrundwissen abgesichert.
 


Was Du da sagt, Henry, bezweifle ich ja gar nicht.

Das Problem ist nur: Wenn Du mir nur deine Meinung mitteilst — ohne mir zu sagen, wie sie sich begründet oder woher Du sie hast — nimmst Du mir, wenn sie nicht mit meiner übereinstimmen sollte, jede Möglichkeit, zu prüfen, wer von uns beiden denn jetzt recht haben könnte bzw. wo  m e i n  Denkfehler liegen könnte. Kurz:


Die nachvollziehbare Begründung einer Meinung ist mehr wert als nur die Meinung selbst.



 

 Beitrag 0-156
Rotverschiebung kann 3 unterschiedliche Ursachen haben

 
 

 
Rotverschiebung kann 3 Ursachen haben

 
 

Rotverschiebung durch Dopplereffekt
 
 
Rotverschiebung beim Verlassen eines Schwerefeldes
 
 
Rotverschiebung durch Expansion des Raumes
 
 
Rotverschiebung kann 3 Komponenten haben

 
 
Quelle: Andreas Müller, Max-Planck-Institut für extraterrestrische Physik, Garching

 
 
Warum auf eine Gravitationsquelle zukommendes Licht blauverschoben, von ihr ausgesandtes aber rotverschoben ist, erklärt sehr schön Helmut Hetznecker auf den Seiten 82-84 seines Buches Kosmologische Strukturbildung, Spektrum-Verlag 2009:
 
Wie Einsteins Spezielle Relativitätstheorie zeigt, sind Masse und Energie äquivalent. Selbst Photonen haben demnach in einem Schwerefeld Gewicht.
 
Verlässt nun also ein Strahlungsquant den Potentialtopf einer Gravitationsquelle, so verliert es Energie — ganz so wie ein Ball, den man senkrecht nach oben wirft. Nun ist die Energie jeden Photons aber proportional zu seiner Frequenz. Sie also wird geringer (= rotverschoben), wenn das Photon sich von der Gravitationsquelle entfernt.

 

 Beitrag 0-217
Gravitation dehnt Zeit und Licht

 
 

 
Formeln für
 
Gravitative Rotverschiebung und entsprechende Dehnung der Zeit

 
 
Im Schwerefeld vergrößert sich die Wellenlänge von Licht, und alle Uhren gehen dort langsamer.
 
So sagt Einsteins Theorie, und 1959 von Pound und Rebka erstmals vorgenommene Messungen haben es bestätigt:
 
 
Gravitative Rotverschiebung führt zu einem optischen Dopplereffekt, der gegenüber der Ruhe-Wellenlänge λ0 zu einer Wellenlängen-Änderung
 
 
Δλ   =   mEGL/2c2rR2

 
führt. Hierin bezeichnen mE und rE Masse und Radius der Erde, L die Höhendifferenz, die das Licht ausgehend vom Erdboden hin zum höher gelegenen Detektor überwinden muss, G Newtons Gravitationskonstante, und c die Lichtgeschwindigkeit.
 
 
Beim Experiment von Pound und Rebka betrug der Höhenunterschied 22,5 Meter, so dass die vorhergesagte Rotverschiebung einer Eisen-57-Spektrallinie Δλ0  =   4,9 • 10-15 betrug — im Einklang mit Messungen, die diesen Wert 1959 mit einer Ungenauigkeit von 10% — bestätigten.
 
 
1964 gelang es Pound und Snider, ihn mit einer Ungenauigkeit von unter 1% zu messen.

 
 
Da die Zeit über eine Frequenz ν definierbar ist und dann ν = c/λ gilt, lässt sich aus der gravitativen Rotverschiebung auf die Zeitdehnung Δt schließen, die für eine Uhr eintritt, welche in der Entfernung r vom Schwerpunkt einer Masse m eines Körpers K vom Radius rS  =  2Gm/c2 retaltiv zur Zeit t0 eines Beobachters fern vom Gravitationsfeld. Man hat
 
 
Δt(r)   =   Δt0 ( 1 – rS/r )1/2

 
 
Die Größe rS ist übrigens der sog. Schwarzschild-Radius des Körpers K.
 
Befindet sich eine Raumsonde   Δt = 1 Jahr lang   r = 35 km   entfernt vom Rand eines Schwarzen Lochs mit 10 Sonnenmassen, so vergehen während dessen für weit entfernt außerhalb des Schwerefeldes weilende Beobachter   Δt0 = 2,5 Jahre  .

 
 
Für eine kreisförmige Umlaufbahn muss der Orbitalradius größer als das 1,5-fache von rS sein.
 
Die gravitative Zeitdehnung für eine Uhr im Orbit ist dann   Δt(r)   =   Δt0 ( 1 – 3rS/2r )1/2  .

 

 
 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 302-303.

 

 Beitrag 0-405
Zur Dichte Dunkler Energie (= der Energie des Vakuums)

 
 

 
Zur Dichte Dunkler Energie



Helmut Satz (2016):
 
Wie die Auswertung von Messergebnissen zeigt, entspricht die Vakuumenergie des Universums etwa 7 Protonen pro Kubikmeter.
 
Mit anderen Worten: Leerer Raum von der Größe des Erdballs enthält an Dunkler Energie in etwa so viel Energie wie 1 Gramm Wasser.
 
Eben deswegen macht Dunkle Energie sich erst auf intergalaktischer Skala bemerkbar. Kleine Objekte — unsere Erde oder auch Sterne — kann sie nicht vergrößern.
 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 164


 

 Beitrag 0-211
Kosmologische Konstante und die Energie des Vakuums

 
 

 
Die kosmologische Konstante

 
 
Im November 1915 publizierte Einstein die erste von ihm selbst als fertig erachtete Fassung seiner Feldgleichung der Allgemeinen Relativitätstheorie (ART).
 
Wie ihm erst ein Jahr später bewusst wurde, hatte er darin eine Integrationskonstante stillschweigend weggelassen, d.h. angenommen, ihr physikalisch einzig sinnvoller Wert sei Null.
 
Diese Größe — heute durch den griechischen großen Buchstaben Λ bezeichnet und kosmologische Konstante genannt — hat sich inzwischen als wichtiger Parameter unseres Universums herausgestellt. Physikalisch lässt sie sich auffassen
     
  • entweder als eine Eigenschaft der Raum-Zeit-Geometrie
     
  • oder als Energiedichte des Vakuums.

Jeder positive Wert dieser Konstanten resultiert in beschleunigter Raumexpansion — und seit 1998 weiß man, dass viele unserer astronomischen Beobachtungen auf eben sie hindeuten.

     
    Interessant ist, dass Einstein selbst, diese Konstante zwar zunächst doch berücksichtigt hat, dies aber später — 1931, George Gamov gegenüber — als seine größte Eselei bezeichnete (da sie seinem Glauben an ein statisches Universum widersprach).
     
    Dieses Beispiel zeigt sehr schön, wie wichtig es zu sein scheint, den Aussagen der Mathematik zu vertrauen — also nicht zu glauben, dass durch sie aufgedeckte Möglichkeiten nicht doch etwas mit physikalischer Realität zu tun haben könnten.
     
    |
     
    Heute gilt Λ als die einfachste Erklärung für die Triebkraft der kosmischen Expansion: für das, was man Dunkle Energie nennt (oder auch negative Gravitation).
     
    Man kann es auch so sagen: Dunkle Energie ist ein Konzept, welches Einsteins kosmologische Konstante verallgemeinert zu einer zeitlich variablen Größe.
     
    Der aus kosmologischen Beobachtungen ermittelte derzeitige Wert der Zahl ist um etwa 120 Größenordnungen kleiner, als der durch die Quantenfeldtheorie vorhergesagte. Irgendwas also hat man bisher noch nicht verstanden. Man könnte aber auch auf die Idee kommen, diese Diskrepanz als Anzeichen dafür zu deuten, dass Gravitation — als durch die Quantentheorie bisher vernachlässigte Kraft — selbst im Vakuum noch eine recht große Rolle spielt.

 
 
Ist H der Hubbleparameter und setzt man ΩΛ = Λ/(3H2), so zeigen Einsteins Gleichungen, dass die Expansion des Raumes sich beschleunigt, solange ΩΛ größer als die halbe Massendichte Ωm/2 ist.
 
Die beste Übereinstimmung mit heute vorhandenen Beobachtungsdaten ergibt sich, wenn man Ωm = 0,3 und ΩΛ = 0,7 annimmt, was ganz deutlich die Bedingungen für beschleunigte Expansion des Raumes erfüllt.
 
 

 
Verletzt das Vakuum den Energie-Erhaltungssatz?

 
 
Dass physikalische Größen wie Energie und Impuls in einem geschlossenen System weder verschwinden, noch zusätzlich auftauchen können, ist ein ganz zentraler Grundsatz der klassischen Physik und war wichtiger Ausgangspunkt von Einsteins Entwicklung der ART.
 
Für expandierende Raumzeiten allerdings, lassen sich solche Erhaltungssätze bisher  n i c h t  begründen.
 
Paul Davies und Edward R. Harrison — beides Kosmologen — argumentierten schon in den 80-er Jahren, dass man die Expansion des Raumes als Energiequelle sehen müsse, ohne dass klar sei, woher jene Energie kommt.
 
Und auf der Frühjahrstagung 2015 der Deutschen Physikalischen Gesellschaft wies Gerhard Schäfer (Universität Jena) darauf hin: "Das Thema Energie in der relativistischen Kosmologie ist eine Katastrophe."
 

 
 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 188 bzw. 191-192.
 
Lies auch: Das Rätsel der kosmischen Vakuumenergiedichte und die beschleunigte Expansion des Universums
 
Lies ferner: Dis komologische Konstante


 

 Beitrag 0-65
Sind Dunkle Energie und die Energie des Vakuums ein und dasselbe?

 
 

 
Ist Dunkle Energie die Energie des Vakuums?

 
 
Wenn Wissenschaftler die durch Forschungssatelliten gesammelten Daten analysieren (insbesondere die von WMAP und neueren Satelliten), kommen sie zu dem erstaunlichen Schluss, dass glatte 73 Prozent des Universums aus sogenannter » Dunkler Energie « bestehen.
 
Sie, so die häufigste Vermutung, sei die Energie des Vakuums.
 
Irritierend aber ist, dass die theoretisch vorhergesagten Werte für die Menge an Vakuumenergie von jenen Beobachtungen um ganze 120 Größenordnungen
abweichen (!).
 
Schon Tesla — der Erfinder des Wechselstroms, der mehr als 700 Patente angemeldet hatte, von denen einige zu Meilensteinen der Geschichte der Techniken zum Erzeugen und Transportieren von Strom geworden sind — hat als erster die Meinung vertreten, dass sich aus dem Vakuum Energie gewinnen ließe. Allerdings machte er sich falsche Vorstellungen über deren Menge: Heute nämlich lässt sich der Betrag Dunkler Energie auf der Erde berechnen und stellt sich dabei als extrem gering heraus.
 
Peinlich ist, dass die Physiker heute keine Idee haben, wie sich die Vakuumsenergie berechnen ließe.
 
Als unerschöpfliche Energiequelle wird sie sich bis auf weiteres — und vielleicht nie — nutzen lassen. Ob Tesla eine Idee dazu hatte, weiß man nicht. Auf jeden Fall hat er nichts dergleichen seinen Notizbüchern anvertraut.

 

  Beitrag 2016-148
Was wir bislang über Dunkle Energie zu sagen wissen

 
 
Struktron in 2016-147:
Hallo alle miteinander,
obwohl ich wenig Zeit habe, habe ich mal das Wichtigste hier gelesen und festgestellt, dass die dunkle Energie etwas in Vergessenheit geraten ist.
Einen eigene Theorie dazu kann ich momentan nicht ausarbeiten, weil ...
Lothar W.


Hi Lothar,

kann Du uns wenigstens bestätigen, dass auch aus deiner Sicht der gegenwärtige Stand der Erkenntnis aussieht wie folgt:



Ist Dunkle Energie nur die Energie des Vakuums?


Einige Forscher vermuten, dass die Vakuumenergie die in der Kosmologie diskutierte Dunkle Energie ist, die wesentlichen Einfluss auf die kosmologische Konstante und damit auf die zeitliche Entwicklung des Universums hat.

John Baez etwa schreibt:

Zitat von Baez:
People talk a lot about
  • » vacuum energy « or » zero-point energy « - that is, the energy density of empty space.
  • In cosmology, people also call this quantity the » cosmological constant «, or » dark energy «.


Dennoch ist heute noch  k e i n e s w e g s  bewiesen, dass sich hinter allen vier dieser Begriffe ein und dasselbe Phänomen verbirgt.

Tatsache ist:

Die absolut größte Abweichung zwischen den Aussagen aktueller physikalischer Modelle einerseits und tatsächlich beobachteter Eigenschaften der Natur andererseits besteht ganz klar darin, dass
  • Unsere Modelle zu eine Energiedichte des Vakuums von 10108 J/cm3 führen,
  • wohingegen Beobachtungen nur auf einen Wert in der Größenordnung 10-9 bis 10-11 J/m3 hinweisen.

Diese geradezu abenteuerliche Diskrepanz — immerhin ein Faktor von etwa 10120 zeigt deutlich, dass hier noch irgendwo ein Zusammenhang sein muss, den weder Physiker noch Kosmologen bisher entdeckt haben.

Und so schreibt Lisa Randall denn auch:


Zitat von Randall auf Seite 416 und 417 in "Die Vermessung des Universums":
 
Die Erklärung des Wertes der dunklen Energie ist das vielleicht größte Rätsel, mit dem Physiker und Kosmologen heute ringen:

Die Quantenmechanik sagt uns, dass das Vakuum — der Zustand, in dem es keine dauerhaften Teilchen gibt — tatsächlich mit flüchtig existierenden Teilchen angefüllt ist, die nur [extrem] kurze Zeit existieren umd dann sofort wieder zu verschwinden. Sie können beliebige Energie besitzen, manchmal sogar eine, die so groß ist, dass Gravitationseffekte nicht mehr vernachlässigbar sind.

Diese hochenergetischen Teilchen tragen extrem viel Energie zum Vakuum bei: weit mehr als die lange Entwicklung unseres Universums zu gestatten scheint: Damit das Universum so aussieht wie wir es wahrnehmen, muss der Wert der Vakuumenergie verblüffende 120 Größenordnungen kleiner sein als die Energie, die wir der Quantenmechanik zufolge erwarten würden.

Mit diesem Problem ist noch eine weitere ungelöste Frage verbunden:

Warum leben wir eigentlich zu einer Zeit, in der Materie, dunkle Materie [= Materie die nicht mit Licht wechselwirkt und dunkle Energie vergleichbare Dichte haben? Die Tatsache, dass diese Dichten so nahe beieinander liegen erscheint rätselhaft, da diese Koinzidenz (grob gesprochen) erst zu unserer Zeit gegeben ist. Im frühen Universum machte die dunkle Energie einen viel größeren Bruchteil des Ganzen aus, und auch in fernerer Zukunft wird sie einen viel größeren Bruchteil ausmachen.
 

Lisa Randall weist auch darauf hin (Seite 414-415 ihres Buches), dass Expansion des Raumes Strahlung und Materie verdünnt, die Dichte dunkler  E n e r g i e  aber bislang nicht verändert hat.

Die Existenz dunkler  M a t e r i e  hält man für bewiesen, da Galaxien größere Anziehungskraft ausüben als durch ihre sichtbare Materie erklärbar (besonders gut beobachtbar ist das, wo sich im Raum Gravitationslinsen finden). Neuerdings vermutet man auch, dass die ISS schon dunkle Materie registriert haben könnte.
Wie nahe Teilchen-Detektoren dem Nachweis dunkler Materie sind, findet sich gut hier beschrieben.

Mehr zu den 20 Größenordnungen Unterschied zwischen Modell und Wirklichkeit findet sich in: Five Answers to the same Question.

 

 Beitrag 0-494
Wie macht sich Dunkle Materie bemerkbar?

 
 

 
Dunkle Materie — weswegen?



Sabine Hossenfelder erklärt (2018):
 
Das Universum verbirgt etwas vor uns. Man weiß das seit 1930, als Fitz Zwicky das Hooker-Telekop mit einem Spiegel von 2,5 Meter Durchmesser auf den Coma-Galxienhaufen richtete: ein paar hundert Galaxien. Sie bewegen sich mit einer Geschwindigkeit, die abhängt von der Gesamtmasse, deren Gravitationskraft sie als haufen zusammenhält.
 
Zu seinner Überraschung stellte Zwicky nun aber fest, dass sie sich deutlich schneller bewegen, als mit dieser Masse erklärt werden kann. Und so vermutete er, dass der Haufen weitere Materie enthielt, die kein Licht abgab: Dunkle Materie (daher also der Name).
 
Als Vera Rubin — 40 Jahre später — die Rotation von mehr als 60 Galaxien untersuchte, stellte sie fest, dass in jeder von ihnen die äußeren Sterne schneller als erwartet ums Zentrum der jeweiligen Galaxi kreisen.
 
Das Tempo aber, das ein Stern benötigt, um in einer stabilen Umlaufbahn zu bleiben, hängt ab von der Gesamtmasse im Zentrum seiner Bewegung, und dass sich die äußeren Arme jener Galaxien so schnell drehen, konnte nur bedeuten, dass jene Galaxien mehr Masse enthalten musste als sichtbar war.
 
Inzwischen weiß man, dass die Schwankungen der kosmischen Hintergrundstrahlung nur zu den Daten passen, wenn mehr Materie vorhanden ist als sichtbar.
 
Sie ist auch nötig, um die Bildung galaktischer Strukturen im Universum unseren Beobachtungen anzupassen.
 
Weitere Hinweise auf dunkle Materie liefert der Gravitationslinsen-Effekt: Galaxienhaufen krümmen den Weg des Lichts mehr, als man nach ihrer sichtbaren Masse erwarten müsste.
 
 
 
Damit scheint klar:
 
Dunkle Materie existiert.
 
Aus was aber könnte sie bestehen?

 
Hier die wichtigsten Vermutungen dazu:
     
  • Die erste Vermutung war, dass Galaxien unerwartet viel schwer erkennbare stellare Objekte enthalten, wie etwa Schwarze Löcher oder Braune Zwerge. Sie aber müsste es dann aber auch in der Milchstraße geben, und sie müssten häufig Gravitatonslinseneffekte auslösen, die man so nicht beobachtet.
     
  • Der Gedanke, dass der Raum bevölkert ist von zahlreichen recht kompakte Objekten, die kleiner sind als Sterne, ist noch nicht völlig verworfen, allerdings ist unklar, wie sie entstanden sein könnten.
     
  • Daher favorisiert man derzeit eine andere Art dunkler Materie: Teilchen, die sich in Wolken sammeln und in nahezu kreisförmigen Halos um die sichtbaren Scheiben galaktischer Materie schweben.
     
    Teilchen bekannter Art interagieren jedoch fast alle zu heftig und verklumpen zu sehr, als dass sie solche Halos formen könnten — mit Ausnahme von Neutrionos, aber die sind zu leicht, bewegen sich zu schnell und verklumpen zu wenig.

Was also ist jene unbekannte Dunkle Materie? Sie muss etwas bisher noch Unbekanntes sein.
 
Seit 1990 gab es etwa 25 unterschiedliche Ideen, die in Beobachtungsprojekte mündeten, mit dem Ziel, eine Antwort zu finden — bisher ohne jeden Erfolg.
 


 
Quelle: Sabine Hossenfelder: Das hässliche Universum (2018), S. 259-263
 
Lies auch: Was lässt sich über Dunkle Materie sagen?
 
Ein Lösungsvorschlag aus 2019


 

 Beitrag 0-499
Wie sich zeigt, dass Galaxien in einen Halo Dunkler Materie eingebettet sind

 
 

 
Wie man die Masse von Erde und Sonne errechnet

und warum Galaxien in » Dunkle Materie « eingettet zu sein scheinen



Helmut Satz (2016) rechnet vor:
 
Nach Isaac Newton ist die Anziehungskraft F zwischen zwei Massen M und m im Abstand R von einander gegeben durch
 
 
F  =  GMm / R2  ,

 
 
wobei G = 6.7 × 10-11 m3/kg s2 die universelle Newtonsche Gravitationskonstante ist.
 
Dieses Gesetz ist Spezialfall des ersten Newton'schen Hauptsatzes der Mechanik, welcher lautet:
 
 
F = ma  ,

 
 
worin a die Beschleunigung ist, die eine Masse M unter Einwirkung einer Kraft F erfährt.
 
Auf der Erdoberfläche können wir die durch die Schwerkraft erzeugte Beschleunigung messen. Sie ist — wie schon Galilei durch seine Fallstudien gezeigt hat — für alle Massen gleich ( 9.8 m/s2 ).
 
Wenn wir den Radius der Erde kennen ( 6.4 × 106m ), erhalten wir durch Zusammenführen beider Gleichenungen
 
 
M  =  aR2 / G  =  5.3 × 1024 kg

 
 
für das Gewicht der Erde. Wir haben sie nun also "gewogen".
 
Die Planetenbahnen werden bestimmt durch das Wechselspiel der anziehenden Schwerkraft der Sonne und der ihr entgegengesetzt wirkenden, durch die Kreisbewegung hervorgerufenen Zentrifugalkraft
 
 
K  =  mv2 / R  ,

 
 
wobei hier m die Masse des Planeten ist, R der Radius seiner als kreisförmig angenommenen Bahn um die Sonne und v seine Umlaufgeschwindigkeit.
 
Zusammen mit der ersten Gleichung liefert uns das
 
 
v2 = GM/R  ,

 
worin M die Erdmasse ind R = 4 × 108 km den Abstand zwischen Erde und Mond bezeichnet.
 
Mit Hilfe von 2πR für die wieder als kreisförmig angenommende Umlaufbahn kommt daraus
 
 
T2  =  (2π)2 R3 / ( GM )

 
für die Umlaufzeit T von bekanntlich 30 Tagen.
 
Eben diese Gleichung gilt auch für den Umlauf der Planeten um die Sonne, wenn wir M als Sonnenmasse nehmen.
 
So also ergibt sich die Keplersche Regel v2 ∼ GM/R, die von allen Planeten des Sonnensystems respektiert wird. Die darin als M auftretende Sonnenmasse kann man bestimmen aus unserem Wissen über Umlaufzeit (1 Jahr) und Abstand zur Sonne ( 1.5 × 1011 m ) im Fall der Erde: MSonne = 2 × 1030 kg.
 
Wir sehen: Die Sonnenmasse ist etwa 500 000 Mal so groß wie die Erdmasse.
 
 
Wenn nun, wie bei den Randsternen von Spiralgalaxien, die Umlaufgeschwindigkeit unabhängig vom Abstand zum Schwerkraftzentrum wird, bei steigendem R also konstant bleibt, so muss nach der letzten Gleichung (6) die Galaxienmasse innerhalb der Umlaufbahn dieser Randsterne linear mit R wachsen. Da sich nun aber weiter außen kaum noch Sterne finden, muss da wohl tatsächlich dunkle Materie sein (bzw. dazu äquivalente Konzentration von Energie).
 
Die Dichte der » Dunklen « Materie ( Mdm/R3 ) fällt mit R-2 ab, wenn die Masse linear mit R ansteigt.
 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 179-180


 

 Beitrag 0-360
Der bisher interessanteste Versuch, Dunkle Materie zu erklären

 
 

 
Wie man sich ein Quark-Gluonen-Plasma vorzustellen hat

 
Nukleonen — Protonen und Neutronen — in ihre Bestandteile, die jeweils 3 Quarks, zu zerlegen, ist ihrer so extrem starken Wechselwirkung wegen (sie wirkt wie ein Gummiband, das nicht zerreißen kann) unmöglich. Wie aber muß man sich dann ein Plasma vorstellen, dessen Teilchen nur Quarks und Gluonen sind?
 


Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 252-253 :
 
Die Kraft, welche — als sog. starke Wechselwirkung — in Protonen und Neutronen die Quarks zusammenhält, hat die erstaunliche Eigenschaft, dass sie mit zunehmendem Abstand der Quarks stärker (statt schwächer) wird. Eben deswegen lässt sich kein einzelnes Quark aus einen Proton oder Neutron herausbrechen.
 
Je näher Quarks nun aber zusammenrücken, desto schwächer wird jene Kraft. Man nennt das asymptotische Freiheit.
 
Dieses Verschwinden der Kraft macht sich bemerkbar, sobald Protonen und Neutronen auf extrem engen Raum zusammengedrückt werden — wie etwa in Neutronensternen und Schwarzen Löchern.
 
Dabei können die Mitglieder dieser Dreierverbände von Quarks einander so nahe kommen, dass die Kraft praktisch gar nicht mehr vorhanden ist, sie also gar keine Bindung an ihre Verbundpartner mehr spüren. Sie erkennen in einem solchen Zustand ihren eigenen Verbund vom Typ Proton oder Neutron nicht mehr, sondern verhalten sich mehr oder weniger wie absolut freie Teilchen.
 
Als solch freies Quark-Gluonen-Plasma hat die kosmische Materie direkt nach dem Urknall tatsächlich vorgelegen.
 


 
 
 
Gibt es Himmelskörper, die nur aus Quarks bestehen?

Sie wären dunkel und die ältesten überhaupt:



Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 255-257 :
 
Etwa 10-6 sec nach dem Urknall (= 1 Mikrosekunde) war das Quark-Gluonen-Plasma so weit abgekühlt, dass es zu kondensieren begann. Es war dies der Zeitpunkt, zu dem sich Protonen und Neutronen gebildet haben — vielleicht aber auch größere ladungsfreie farbneutrale Verbände von Quarks.
    Zum Vergleich: Wenn man Wasserdampf schnell und stark abkühlt, bilden sich winzige Schneeflocken.

Wie Crawford und Greiner ( 1994: The Search for Strange Matter ) errechnet haben, sind bei diesem Zerfall des Plasmas in schneeflockenartige Gebilde als Ergebnis am wahrscheinlichsten Teilchenverbände, die zu etwa gleichem Anteil aus up-, down- und strange-Quarks bestehen und sich nach einem inneren Schalenmodell unter Wahrung von Paulis Ausschließungsprinzip aufbauen lassen.
 
Man schätzt, dass sich auf diese Weise Multi-Quark-Kokons ergeben haben könnten, deren Durchmesser zwischen 10-7 cm bis hin zu 10 Zentimertern gereicht haben könnte. Edward Witten sagt voraus, dass sie i.W. zwischen 109 bis 1018 Gramm schwer sein sollten mit einem durchschnittlichen Durchmesser von dem einer Billardkugel. [ Bei einer zufälligen Kollision eins solchen Körpers mit der Erde würde er sie einfach durchschlagen und dabei lediglich eine Schockwelle im Erdkörper auslösen, mit der eventuell fürchterliche Verheerungen und Erdbeben einhergingen. ]
 
Die ganz normalen, uns heute bekannten Protonen und Neutronen würden sich dann sozusagen erst aus dem noch nicht kondensierten Rest der Quarks ergeben haben — nachdem die meisten strange-Quarks bereits in die leichteren Ups und Downs zerfallen waren und sich deswegen danach nur noch die üblichen farb­neutralen Dreier-Verbände bilden konnten.
 
Solche nur aus Quarks bestehen Mammutobjekte — weit kleiner, aber gut vergleichbar mit Neutronensternen — müssten sich heute noch auffinden lassen und könnten sogar den überwiegenden Teil aller Dunklen Materie darstellen. Sie wären sozusagen dunkle Sterne mit maximal wenigen Zentimetern Durchmesser: Winzige Staubkörner verglichen mit leuchtenden Sternen.
 
Unmengen von ihnen könnten sich gravitativ verklumpen, ohne dass dabei elektromagnetische Strahlung entstünde.
 
So wäre z.B. zu erklären, dass der Hydra-Zentaurus Galaxien-Haufen (ein Nachbar des Virgo-Clusters, in dem wir zuhause sind) mit seinen nie gesehenen 1015 Sonnenmassen nur wenig leuchtende Materie enthält.
 



 

 Beitrag 0-279
Wieso Dunkle Materie als schon relativ gut quantifiziert gelten kann

 
 

 
Dunkle Materie: 3 Wege, sie zu quantifizieren

 
 
Weg 1:
    Galaxien finden sich meist in größere Strukturen — sog. Galaxienhaufen — eingebunden. Man erwartet, dass diese Gebilde durch ihre eigene Schwerkraft gebunden Systeme sind. Nun sind aber die Geschwindigkeiten der Galaxien in diesen Haufen so groß, dass sie auseinander fliegen müssten, wenn es darin nicht etwas gäbe (dunkle Materie), welches zusätzliche Gravitationskräfte zur Folge hat.
     
    Durch Vermessung der Geschwindigkeiten von Galaxien wurde für eine ganze Reihe von Haufen eine Massenbilanz aufgestellt, die dazu zwingt, einen hohen Anteil an unsichtbarer Materie für diese Objekte anzunehmen.
     
    Die nicht leuchtende Masse, die einzelne Galaxien in einem sphärischen » Halo « umgibt, reicht hierfür jedoch bei weitem nicht aus. Mindestens das 10-fache an dunkler Materie ist nötig.

 
Weg 2:
    Beobachtung der mittels Satelliten registrierbaren starken Röntgenstrahlung der Galaxienhaufen:
     
    Sie stammt — so nimmt man an — von einem 100 Mio Grad heißen Gas zwischen den Galaxien, das wohl nur durch die Schwerkraft nicht sichtbarer Massen gebunden sein kann, da es sonst aus dem Haufen verdampfen müsste. Der Wert der Dichte passt zu dem aus der Bewegung der Galaxien erschlossenen.

 
Weg 3:
    Viele Galaxienhaufen wirken als Gravitationslinsen, d.h. sie lenken Lichtstrahlen ab, die von weiter entfernten Galaxien zu uns gelangen, so dass wir hinter dem Haufen liegende Galaxien mehrfach sehen. Die Art der Verzerrung erlaubt Rückschlüsse auf die Massenverteilung in den Galaxienhaufen. Auch diese Beobachtung führt auf den gleichen hohen Anteil von (vermuteter) dunkler Materie.

 
 
Man kommt so auf 3 unterschiedlichen Wegen zum selben Ergebnis:

 
Etwa 15 Prozent — genauer: zwischen 12 und 18 Prozent — der kritischen Dichte unseres Universums scheinen Dunkle Materie zu sein.
 
Note: Die normale, aus uns bekannten chemischen Elementen bestehende Materie erreicht nur etwa 5 Prozent der kritischen Dichte.
 
Diese Schätzungen erfassen nicht über jeden der Haufen gleichmäßig verteilte Materie oder Energie, solche also, die noch keine Klumpung zeigt.

 
 
Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 56-57


 

 Beitrag 0-133
Dunkle Materie: Die derzeit populärsten Hypothesen

 
 

 
Wie man versucht, sog. » Dunkle Materie « zu erklären

 
 
Die empirische Beweislage zugunsten dunkler Materie ist mittlerweile erdrückend:
 
Verschiedene astronomische Beobachtungen in Kombination mit Messwerten zur kosmischen Hintergrundstrahlung haben dazu geführt, dass man die heute vorhande Menge dunkler Materie recht genau zu beziffern weiß:
 
Die uns bekannte Materie — solche, die Licht ausstrahlt — stellt nur etwa 1/6 aller im All vorhandenen Gravitationsquellen dar.

 
 
Konkrete Indikatoren für Dunkle ( d.h. mit Licht  n i c h t  wechselwirkende ) Materie sind:
     
  • Die Sterne rotieren um galaktische Zentren zu schnell, ganz so, als ob da mehr Masse in der Galaxie wäre als wir sehen.
     
  • Galaxien in Galaxienhaufen bewegen sich so, als wären da deutlich mehr Massen beteiligt.
     
  • Gravitationslinseneffekte treten auch dort auf, wo wir keine Massen sehen.
     
  • Im Bulletcluster messen wir den Massenschwerpunkt an anderer Stelle als wir sichtbares Gas sehen.
     
  • in der kosmologischen Hintergrundstrahlung gibt es eine Resonanz, die nur mit zusätzlicher Masse zu erklären ist, die nicht elektromagnetisch wechselwirkt.

 
Galaxien scheinen eingebettet in jeweils eine Wolke dunkler Materie. Was aber ist dunkle Materie?
 
Zahlreiche mögliche Antworten auf diese Frage sind bisher als falsch erkannt worden.
 
 
Insbesondere kann man inzwischen mit Sicherheit ausschließen, dass dunkle Materie sich aus nicht leuchtenden Himmelskörpern zusammensetzt:
    Beweis hierfür sind Berechnungen zu Kernreaktionen im frühen Universum — dem etwa 380.000 Jahre alten Universum. Die nämlich sagen die derzeitige Dichte leichter chemischer Elemente, etwa die Dichte von Wasserstoff, Deuterium, Helium und Lithium, recht genau voraus, und diese Zahlen stimmen hervorragend überein mit dem, was Astronomen beobachten. Diese Übereinstimmung gilt als einer der spektakulärsten Erfolge der Urknalltheorie.
     
    Da diese Ergebnisse recht empfindlich reagieren auf leicht abgeänderte Annahmen über die damals vorhandene Menge an Protonen und Neutronen, sind sie unvereinbar mit der Annahme, dass Dunkle Materie einfach nur gewöhnliche, nicht leuchtende Materie sein könnte.
     
    Aus Planeten und kleinen Sternen bestehen kann die Dunkle Materie deswegen nicht. Untersuchung von Gravitationslinsen bestätigen das.

 
Noch nicht entschieden ist über zwei andere Hypothesen, deren eine von den Kosmologen und deren andere von den Kernphysikern kommt:

     
  • Möglichkeit 1:
     
    Die jede Galaxis einhüllende Wolke dunkler Materie könnte aus einer Vielzahl Schwarzer Löcher bestehen. Man hat keine klare Vorstellung davon, wie sie entstanden sein könnten. Diese Möglichkeit aber widerspricht nicht den Beobachtungen.
     
     
  • Möglichkeit 2:
     
    Dunkle Materie könnte aus Teilchen bestehen, die wir noch nicht kennen. Nennen wir sie DM-Teilchen. Sie müssten

       
    • massereich und stabil sein
       
    • und dürften keinerlei Ladung tragen (weder elektrische Ladung noch Farbladung im Sinne der QCD).

     
    Man stellt sich das so vor:
     
    Als das Universum noch sehr heiß und sehr dicht war, gab es recht häufig Kollisionen aller möglichen Teilchen, aus denen dann auch solche hervorgingen, die deutlich energiereicher waren als die von uns heute beobachteten.
     
    Als Folge der Ausdehnung des Raumes kühlte das Universum sich dann ab, so dass Kollisionen dann immer seltener die Kraft hatten, die schweren DM-Teilchen zu erzeugen. Da man annimmt, sie seine stabil, konnten sie dann nur noch durch Annihilation (sehr heftigen Zusammenprall) ausgelöscht werden. So ein Zusammenprall aber wurde immer unwahrscheinlicher, so dass DM-Teilchen dann — grob gesprochen — irgendwann weder zerstört noch neu geschaffen wurden. Physiker nennen das einen » Freeze out «.
     
    Die theoretische Physik kann die nach diesem (bisher nur hypothetischen) Freeze-out verbliebenen Reste berechnen und so die Menge der im heutigen Universum noch vorhandenen DM-Teilchen hinsichtlich ihrer physikalischen Eigenschaften vorhersagen. Man kommt so zum Ergebnis, dass DM-Teilchen über die schwache Kraft wechselwirken und eine Masse im Bereich von 0.1 bis 1 TeV haben sollten. Vertreter dieser Theorie nennen sie daher WIMPs weakly interacting massive particles «). Der LHC im CERN scheint gerade noch stark genug, sie zu entdecken.
     
    Für diese Theorie spricht, dass, falls unsere Welt supersymmetrisch sein sollte, die für diesen Fall vorhergesagten Neutralinos Kandidat für DM-Teilchen sein könnten:
     
    Ein WIMP nämlich ist einem Neutralino recht ähnlich, sollte aber auch deutlich mehr Masse haben — vermutlich bis hin zum 100-fachen einer Protonenmasse.
     
    Wie Neutrinos durchdringen WIMPs die Erde fast ohne jeden Zusammenstoß mit deren Teilchen. Die Bezeichnung » Dunkle Materie « wäre dann irreführend, denn dunkle Körper absorbieren Licht, ohne welches zu emittieren.
     
    Obgleich weit mehr dunkle als gewöhnliche Materie zu existieren scheint, wären WIMPs sehr dünn verteilt: In jedem Qubikkilometer Raum um uns herum erwartet man etwa ein halbes Milliardstel Gramm dunkler Materie. Sie umgibt uns wie eine Art extrem schwacher Geruch.
     
    Mit ihrer hohen Geschwindigkeit von etwa 1 Million km/h würden WIMPs, wenn sie mit einem Atomkern kollidieren, etwas Energie abgeben. Die aber ist so gering, dass man einen 1018 Tonnen (= 1% der Mondmasse) schweren Detektor bauen müsste, um mit der Stärke dieser Strahlung eine herkömmliche 100-Watt-Birne zu betreiben.
     
    Man sucht WIMPs deswegen mit Vorrichtungen tief unter der Erde, muss die Detektoren aber auch dort gegen die natürliche Radioaktivität des Felsgesteins abschirmen, da die deutlich intensiver ist als das erwartete Signal dunkler Materie. Mehr dazu in Kirko Stimmer: Suche nach WIMPs.
     
    Die Vermutung, dunkle Materie bestehe aus WIMPs, stützt u.A. eine Beobachtung aus 2015.
     
     
  • Möglichkeit 3: Bisher unbekannte große Gaswolken
     
    Am 18.4.2015 registrierte das Parkes-Radioteleskop in Australien einen nur eine Millisekunde andauernden Ausbruch von Radiostrahlung im All.
    Es war schon das 17. Mal, dass so ein Radioblitz beobachtet wurde. Bisher aber wusste niemand, woher sie kamen. Weil sie nur extrem kurz andauern, wurden sie oft erst Monate oder Jahre später in aufgezeichneten Daten entdeckt.
     
    Dieses Mal aber haben die Astronomen in Australien Kollegen auf der ganzen Welt sofort benachrichtigt, und so kam es, dass von mehreren Erdteilen aus sechs Tage lang ein Nachglimmen des Blitzes beobachtet werden konnte. Dies hat dazu geführt, dass man feststellen konnte: Der Blitz kam aus einer von uns etwa 6 Milliarden Lichtjahre entfernten Galaxie. Er könnte entstanden sein bei einem Zusammenstoß zweier Neutronensterne.
     
    Noch interessanter: Die Astronomen konnten feststellen, dass die Strahlung auf dem Weg zu uns gebrochen wurde. Und so entdeckten die Forscher bisher unbekannte heiße Gaswolken zwischen uns und der Galaxie, aus der der Blitz kam. Die Dichte dieser Wolken passt zur bislang vermissten Materie.
     
    Quelle: Christian Endt: Astronomen finden verborgene Materie, SZ vom 26.2.2016

 
 
Quelle i.W. Gian Francesco Giudice: Qdyssee im Zeptoraum — Eine Reise durch die Physik des LHC, Springer 2012, S. 304-312.


 

 Beitrag 0-538
Dunkle Materie — Warum sie eben doch auch ganz normale Materie sein könnte

 
 

 
Dunkle Materie
 
— Warum sie eben doch auch ganz normale Materie sein könnte —

 
 
Über das wahre Wesen sog. Dunkler Materie gibt es bisher nur Spekulationen.
 
Gut zusammengefasst finden sie sich erklärt und nach Plausibilität eingeordnet in Sabine Hossenfelders Vortrag.
 
Letztlich steht Hossenfelder heute im Lager derer, die denken, Einsteins Gravitationstheorie bedürfe doch noch irgend welcher Korrektur.
 
Ich selbst bin da ganz entschieden anderer Meinung:
 


Gebhard Greiter (2021):
 
Meine ganz persönliche Meinung zu Dunkler Materie:
 
Dass Galaxien als Materietöpfe zu sehen in dem Sinne, dass sie in je einer Wolke kosmischen Staubes schwimmen, die in ihnen und nahe an ihnen dichter ist als anderswo (aber dennoch im Inneren der Galaxie von fast konstanter Dichte), könnte ich mir tatsächlich noch am ehesten als Erklärung für die Existenz dunkler Materie vorstellen, denn:
 
Es kann ja tatsächlich der gesamte Inhalt des Universums (soweit er Materie darstellt) als gigantische Staubwolke aufgefasst werden mit "Staubkörnern" jeder nur denkbaren Größe (angefangen bei einzelnen Elementarteilchen und Molekülen bis hin zu Sternen und Schwarzen Löchern). Galaxien sind Schwerpunkte dieser Wolke von "Staub": Regionen also, in denen sie deutlich dichter ist als anderswo. Hiervon beobachtbar sind aner nur kleine Teilwolken enthalten, die sich lokal so weit verdichtet haben, dass sie zu leuchten begannen: entweder als Gaswolke oder gar als Stern. Dennoch muss es da aber jede Menge weiteren Staubes geben, der noch weit davon entfernt ist, sich derart weit verdichtet zu haben, dass er sich entweder stark erhitzen konnte oder wenigstens so dicht wurde, dass er in der Lage ist, zu verstecken, was hinter ihm existiert.
 
Mein Verdacht: Dieser Rest des "Staubes" (vor allem soweit er aus ganzen Gesteinsbrocken besteht) macht in Summe das aus, was wir dunkle Materie nennen, besteht aber letzlich doch nur aus stark verdünnter ganz normaler Materie jeder nur denkbaren Art von Bruchstücken früherer Sterne: Man hat (was Astrophysiker heute aber NICHT glauben) möglicherweise nur unterschätzt, wie viel das insgesamt an Staub sein kann: an Staub, der zu dünn sind, um durch uns beobachtbar zu sein (sei es in Folge eigener Lichtabstrahlung oder da er für uns nennenswert verdunkeln könnte, was hinter ihnen liegt).
 
Wenn man sich eine solche Wolke aus Staub und nicht allzu großen Gesteinsbrocken vorstellt, wird – wenn sie im Inneren der Galaxie liegt – ihre Umgebung von Sternen sie in jede Richtung fast gleich stark zu ziehen bemüht sein, so dass sie sich weder auflösen noch groß in nur eine Richtung bewegen oder sich gar schnell weiter verdichten kann.
 
Dass man sich bei entsprechenden Berechnungen gewaltig irren kann, scheint mir jedenfalls durchaus möglich.
 
Denken wir dazu mal an interstellare Objekte:
 
Aufgrund der großen Entfernungen können sie in der Regel nur erkannt werden, wenn sie unser Sonnensystem passieren. Man hat bisher nur ganze zwei entdeckt. Wie will man da wissen, wie viele es wirklich geben könnte?
 
Mit anderen Worten: Ich kann mir bisher einfach nicht vorstellen, wie es gelungen sein sollte, für Gesteinsbrocken jeder nur denkbaren Größe deutlich unterhalb typischer Mond abzuschätzen, in welcher Dichte sie in Galaxien oder dem Weltraum tatsächlich vorkommen.
 
|
 
Ich muss zugeben, dass ich von Modified Newtonian Gravity (MOND) rein gar nichts halte. Diese Theorie scheint mir — ihrer Qualität nach — gut vergleichbar mit der Theorie der Epizyklen aus dem Mittelalter: Sie konnte Beobachtungsergebnisse (die Bahnen der Planeten, wie wir sie von der Erde aus sehen) erstaunlich genau erklären, hat sich aber dennoch als falsch erwiesen (und war um Welten komplexer als die ganz einfache Newtonsche Theorie).
 
Ich würde mir wünschen, dass die Astrophysiker mal versuchen würden, zu quantifizieren, wie sich der Prozentsatz Dunkler Materie in sehr alten Regionen des Weltalls vergleicht mit dem in z.B. unserer Lokalen Gruppe. Mein Verdacht nämlich ist, dass die Dichte Dunkler Materie korrelliert sein könnte mit der Zahl der Supernovae, die in einer betrachteten Region des beobachbaren Universums schon stattgefunden haben. Jede Supernova nämlich zerstört lokal, was Gravitation an Verklumpung von Gas und Staub schon hat schaffen können und erhöht in einer wirklich großen Umgebung des explodierten Sterns die Zahl der "Staubteilchen" großer Granularität (= Gesteinsbrocken, welche die Macht der Explosion eines Sternes in seine Umgebung geblasen hat).
 
Mit anderen Worten: Würde man feststellen, dass der Prozentsatz Dunkler Materie für weit von uns entfernete (und daher jüngere) Galaxiencluster kleiner ist als für uns nahe liegende, wäre das starker Hinweis darauf, dass Dunkle Materie eben doch ganz normale, nicht leuchtende Materie ist bestehend aus dünnen, da weiträumig verstreuten Wolken von Gesteinsbrocken, wie Supernovae sie ja wohl zur Folge haben können.
 


 
Erstaunlicher Weise hat meine Vermutung, dass Galaxien des frühen Universums weniger Dunkle Materie enhielten, inzwischen Bestätigung gefunden: Man lese den Bericht » Kaum Dunkle Materie in frühen Galaxien « (2017):
 
 
 

 
 
VORSICHT aber: Selbst wenn es offenbar richtig zu sein scheint, dass Galaxien im frühen Universum kaum Dunkle Materie enthielten, so muss das noch lange nicht bedeuten, dass deswegen auch schon meine oben vernutete Begründung dafür richtig ist.
 
Man lese deswegen auf jeden Fall auch, welche Schlussfolgerungen man aus der Beobachtung des Bullet Clusters zieht (in dem sich zwei mit einander kollidierende Galaxienhaufen mischen): Es sieht so aus als würde sich dort Dunkle und normale Materie mit anderer Geschwindigkeit vom Zusammenstoß befreien als die Gaswolken.
 
 
 
Einen erfolgreichen Versuch, Ströme Dunkler Materie in unserer nahen Umgebung zu beobachten skizziert das Video » Verborgenes Netz Dunkler Materie entdeckt « (2021).
 
 
Warum die meisten Astrophysiker heute vermuten, dass Dunkle Materie aus WIMPs (= "Weakly Interacting Massive Particles") besteht, bekommt man gut erklärt im Vortrag von Prof. Thomas Lohse (2017). Er erklärt auch, wie sich im Bullet Cluster normale und Dunkle Materie anders verschieben als das leuchtende Gas.

 

 Beitrag 0-89
Leben wir in einer Welt gebrochener Supersymmetrie?

 
 

 
Sind supersymmetrische Ansätze der Teilchenphysik
 
sinnvoller als nur eichsymmetrische?

 
 
Unter einer Eichtheorie versteht man eine physikalische Feldtheorie, die einer lokalen Eichsymmetrie genügt (was bedeutet, dass die von der Theorie vorhergesagten Wechselwirkungen sich nicht ändern, wenn eine bestimmte Größe lokal frei gewählt wird).
 
In der Quantenmechanik etwa werden Teilchen nicht mehr durch Ort und Impuls, sondern durch die sogenannte Wellenfunktion ψ(x,t) beschrieben. Sie ist ein Feld, also eine — i.A. komplexwertige — Funktion von Raum und Zeit. Eindeutig aber ist sie keineswegs, denn
 
für jedes reele φ beschreiben  ψ(x,t)  und  e ψ(x,t)  denselben Zustand.

 
Es handelt sich hier um eine globale Symmetrie ( mathematisch gegeben durch die Lie-Gruppe U(1), denn die besteht gerade aus allen komplexen Zahlen e ).
 
 
Das Problem mit den Eichtheorien ist, dass sie
  • nicht eindeutig sind
     
  • und auf unendlich große Zwischenergebnisse führen, die durch Renormierung zurechtgestutzt werden müssen, damit die Theorie der Realität entsprechende Aussagen macht.

Zudem gibt es unendlich viele mögliche Eichtheorien, und diejenigen, die man auswählt, die Wechselwirkungen der Physik zu beschreiben, müssen ad hoc zurechtgestutzt werden, damit sie mit den Beobachtungen der realen Welt übereinstimmen. Schlimmer noch: Die Eichtheorien sagen nichs darüber aus, wie viele verschiedene Arten von Teilchen es geben sollte.
 
Die Physiker würden statt der Eichtheorien gerne eine eindeutige Theorie haben, die klar dazu Stellung nimmt, wie viele Teilchenarten es gibt. Ein Schritt hin zu einer Theorie mit diesen Eigenschaften wurde 1974 mit der Erfindung der sog. Supersymmetrie getan. Ausgangspunkt war die Frage, wie eine vollkommen symmetrische Welt beschaffen sein müsse, in der jedem Fermion ein Boson mit gleicher Masse entsprechen würde.
 
In der Natur beobachten wir solche Symmetrie nicht, aber das könnte man damit erklären, dass die Symmetrie gebrochen wurde wie im Fall der elektroschwachen Wechselwirkung. Brechung der Symmetrie tritt immer dann ein, wenn der symmetrische Zustand instabil, der gebrochen symmetrische aber stabil ist:
 
 
 
gebrochene Symmetrie
 
Quelle: Crashkurs in Quantenmechanik
 
Die gezeigte Situation wäre symmetrischer, wenn die Kugel auf der Bergspitze läge — die Lage aber ist nicht stabil.

 
 
 
Mathematisch ergeben sich Möglichkeiten, Supersymmetrien zu beschreiben, die möglicherweise zu Beginn des Urknalls bestanden, dann aber gebrochen wurden mit dem Effekt, dass die uns bekannten Teilchen kleiner Masse entstanden, während ihre Superpartner — Teilchen mit sehr großer Masse — sich schon bald in einen Schauer leichterer Teilchen aufgelöst haben.
 
Um heute Superteilchen zu erzeugen müssten wir Bedingungen schaffen wie zu Beginn des Urknalls. Die dazu notwendigen hohen Energien aber lassen sich heute selbst im CERN noch bei weitem nicht erzeugen. Man bräuchte dazu Teilchenbeschleuniger von mindestens der Größe unseres Sonnensystems.
 
 
Man sieht: Das alles ist noch mit sehr viel WENN und ABER versehen, weist aber doch einen großen Pluspunkt auf:
 
Es gibt verschiedene Spielarten einer supersymmetrischen Feldtheorie. Sie alle variieren das Thema durch Einschränkungen der Symmetrie, was ur Folge hat, dassvso eine Theorie dann auch nur eine begrenzte Anzahl verschiedener Teilchenarten zulässt: Einge Versionen enthalten hunderte, doch andere lassen sehr viel weniger zu, und keine der Theorien sagt voraus, dass die Zahl der fundamentalen Teilchen unendlich sein könnte.
 
Das beste aber ist: Supersymmetrische Theorien kommen ohne Renormierung aus, erfordern also keine Verletzung von Regeln der Mathematik.
 
Das wäre gut, aber die Physiker wissen, dass da noch etwas fehlt — sie wissen nur nicht was.
 
Verschiedene supersymmetrische Theorien stimmem recht gut mit den verschiedenen Erscheinungen der realen Welt überein, aber keine erklärt alles.
 
    Besondere Erwähnung verdient eine, die man die N = 8 Superschwerkraft nennt:
     
    Ihr liegt ein hypothetisches Boson zugrunde, das Graviton, welches die gravitative Wechselwirkung vermittelt.
     
    Es wird begleitet von
     
    • 8 weiteren Teilchen (daher N = 8), die man Gravitinos nennt,
       
    • 56 Materieteilchen (vor allem Quarks und Elektronen)
       
    • sowie 98 weiteren Teilchen, die nicht-gravitative Wechselwirkung vermitteln (Photonen, Gluonen und andere Bosonen)
     
    Das ist eine große Menge verschiedener Teilchen, aber die Theorie sagt sie voraus und lässt keine weiteren zu.
     
    Wie energiereich die Gravitinos seien, sagt die Theorie nicht. Es könnte sich um geisterhafte Teilchen mit extrem wenig Masse handeln, die praktisch nie mit irgend etwas wechselwirken. Andererseits könnten sie aber auch extrem massereich sein, so dass Menschen wohl nie werden Beschleuniger bauen können, die hinreichend viel Energie bereitstellen, sie zu erzeugen und zu beobachten.

 
Die Problem sind immens, doch für supersymmetrische Theorien spricht mindestens, dass sie widerspruchsfrei sind und endlich und keinerlei Renormalisierung bedürfen. Sie vermitteln den Physikern das Gefühl, mit ihnen auf der rechten Spur zu sein.
 
 
Wie aber kann es je gelingen, sie zu überprüfen?
 
Dieses Punktes wegen nimmt die Kosmologie, die ja das gesamte Universum zu erforschen sucht, heute solch gewaltigen Aufschwung. Heinz Pagels — geschäftsführender Direktor der New Yorker Akademie der Wissenschaften — sage 1983 (Zitat): Wir sind bereits in die Ära der Physik nach dem Beschleuniger eingetreten. Für sie wird die gesamte Geschichte des Universums zum Prüfstand der fundamentalen Physik.
 
Uns so widmen sich die Kosmologen heute mit nicht geringem Eifer auch der Teilchenphysik ...
 
 
 
Quelle: John Gribbin: Auf der Suche nach Schrödingers Katze — Quantenphysik und Wirklichkeit, Piper 2004, S. 282-286.

 
 
 
Was Supersymmetrie (SUSY) wahrscheinlich macht

 
Warum man sich heute vor allem auf supersymmetrische Varianten der Stringtheorie konzentriert — warum man also glaubt, die Physik unserer Welt müsse supersymmetrisch sein —, liegt vor allem daran, dass man nachrechnen konnte, dass die Kopplungskonstanten der starken Wechselwirking (rot), der schwachen Wechselwirkung (grün) und der elektromagnetischen Kraft (violett) mit steigender Energie nur dann konvergieren, wenn Supersymmetrie gegeben ist:
 
 
 
Kopplungskonstanten konvergieren nur unter der Annahme von Supersymmetrie
 
Quelle: DESY

 
 
Supersymmetrische Teilchen haben sich bisher hartnäckig ihrer Entdeckung entzogen. Es stellt sich daher die Frage, ab welchem Zeitpunkt die experimentellen Fakten so stark gegen SUSY sprechen, dass man sich trotz all ihrer Vorzüge nach etwas anderem umschauen muss.
 
Wann also kann man sagen, dass SUSY (Supersymmetrie) falsifiziert wurde? Diese Frage ist nicht leicht zu beantworten, da SUSY eine gebrochene Symmetrie sein muss (ansonsten hätten die Superpartner die gleichen Massen wie die Teilchen des Standardmodells und wären schon lange beobachtet worden). Wie der Übergang von voller zu gebrochener SUSY vor sich gegangen sein könnte, ist noch unverstanden.
 
Verzichtet man in der Stringtheorie auf Supersymmetrie, so sagt sie Tachyonen voraus (Teilchen, die sich grundsätzlich nur schneller als Licht bewegen). Erst die Superstringtheorie garantiert, dass keine Tachyonen involviert sind und gewährleistet die Erhaltung des wertvollen und bisher immer verifizierten Kausalitätsprinzips ('Ursache kommt vor der Wirkung').
 


 

 Beitrag 0-132
Supersymmetrie und die GUT (Grand Unified Theory) vereinigen 3 Kopplungskonstanten

 
 

 
Supersymmetrie und die GUT

 
 
Die Idee der Supersymmetrie (SUSY) hat mehrere Wurzeln:
     
  • Julius Wess und Bruno Zumino erfanden sie als Vermutung,
     
  • Neveu und Schwarz — sowie unabhängig von ihnen Pierre Ramond — haben sie 1971 in der Stringtheorie entdeckt.

Ihr heutiges Gewicht erlangte SUSY, als
     
  • 1976 Scherk, Gliozzi und Olive zeigen konnten, dass supersymmetrische Stringtheorie frei von bestimmten Unendlichkeiten ist und
     
  • 1981 Schwarz und Green einen Beweis dafür fanden, dass die gesamte Stringtheorie supersymmetrisch ist (dies zu betonen spricht man heute von Superstrings und Superstringtheorie).

Erst der Schwarz und Green 1984 gelungene Nachweis, dass die Stringtheorie — da supersymmetrisch — frei von Anomalien und Unendlichkeiten ist, hat die Stringtheorie von einem Außenseiter zum einem ebenso zentralen Thema wie SUSY gemacht.
 
 
 
Noch lange bevor die Idee der Supersymmetrie als möglicherweise brauchbar anerkannt war, sind Howard Georgi und Sheldon Glashow auf die Vermutung gestoßen, dass die starke und die elektroschwache Kraft unterschiedliche Facetten einer einzigen Kraft sein könnten.
 
Ihr Vorschlag ist heute bekannt als Grand Unified Theory (GUT).
 
 
Das Standardmodell hingegen beschreibt die starke, die schwache und die elektromagnetische Kraft durch eine Eichsymmetrie, die sich in 3 Lie-Gruppen ausdrückt und somit 3 Kopplungskonstanten hat. Sie bestimmen die Stärke der jeweiligen Kraft und lassen sich recht genau durch Messung bestimmen.
 
Wie aber soll dann die GUT — und damit eine einzige Kopplungskonstante — alle drei Kräfte beschreiben können, wo sie doch unterschiedliche Stärke haben?
 
 
Die Antwort darauf versteckt sich im Vorhandensein virtueller Teilchen:
 
Betrachten wir zunächst nur die elektromagnetische Kraft. Der klassischen Physik zufolge übet ein elektrisch geladenes Objekt — eine Elektron etwa — eine Kraft aus, die sich mit dem Quadrat der Entfernung vom Objekt verringert. Nun lehrt uns die Quantenmechanik aber, dass der Raum ständig und überall mit Wolken virtueller Teilchen durchsetzt ist. Das Elektron stößt sie ab bzw. zieht sie an, je nachdem, ob sie negativ oder positive Ladung tragen.
 
Damit ist die Stärke der Ladung des Elektrons — aus gewisser Entfernung gesehen — reduziert durch einen Schwarm positive geladener, zum Elektron hin gezogener virtueller Teilchen. Näherd man sich dann aber dem Elektron, so verschwindet diese Wirkung zusehens, da zwischen uns und dem Elektron dann zunehmend weniger solcher Teilchen sein werden.
 
Dieser Effekt lässt sich vergleichen mit dem Licht einer Straßenlaterne, das im Nebel vor uns auftaucht: Wir werden sie umso klarer erkennen, je näher wir ihr kommen (weil dann zwischen ihr und uns weniger Nebel sein wird, der Licht verschluckt).
 
Wir sehen also:
  • In der klassischen Physik hängt zwar die Stärke der elektromagnetischen Kraft von der Entfernung ab, nicht aber die Ladung des Objekts.
     
  • Anders in der Quantenmechanik: Hier nehmen wir die Ladung als entfernungsabhängig wahr.
In der QED aber kommt der elektrischen Ladung die Rolle der Kopplungskonstanten zu, und so muss sie entfernungsabhängig sein.
 
Auch die Kopplungskonstante der QCD hängt von der Entfernung ab. Hier aber wächst sie mit zunehmender Entfernung, da virtuelle Gluonen die Farbladungen verstärken, nicht aber abschirmen. [Für die Entdeckung dieser Abhängigkeit erhielten Gross, Politzer und Wilczek 2004 den Nobelpreis.]
 
 
 
Entfernungsabhängigkeit der Werte dreier Kopplungskonstanten
 
Quelle: Giudice: Odyssee im Zeptoraum, Springer 2012

 
 
 
Noch bei einem Abstand von 2 Nanometern lassen sich alle 3 Kopplungskonstanten gut messen. Rechnet man das Ergebnis solcher Beobachtung um auf Ent­fernungen von nur noch 10-32 Metern, kommt es fast schon zu einer Übereinstimmung aller 3 Konstanten.
 
Die eigentliche Überraschung aber:
 
Führt man jene Berechnung auch unter der Annahme von Supersymmetrie durch,
 
so ergibt sich — im Rahmen experimenteller Fehlergrenzen — tatsächlich für alle 3 Konstanten derselbe Wert.

 
Dies also ist der Grund dafür, dass man heute vermutet, unsere Welt sei supersymmetrisch.
 
Der Beweis hierfür — so denkt man heute — könnte sich noch mit dem LHC im CERN finden lassen, denn wie andere Überlegungen (s.u.) zeigen, sollten die Superpartner der uns inzwischen bekannten Teilchen jeweils nicht mehr als etwa 1 TeV Energie tragen.

 
 
 
Begründen lässt sich das so: Jedes der beiden Teilchen, die ein Superpaar bilden, trägt viel zur Dichte der Higgs-Substanz bei. Beider Beiträge sind exakt gleich, haben entgegengesetztes Vorzeichen und sollten einander daher aufheben. Wer die Berechnung ein erstes Mal durchführt, dem erscheint diese vollkommene Aufhebung großer Beiträge wie ein großes Wunder.
 
Zufall aber ist das keineswegs — denn was sich hier manifestiert ist die Macht gegebener Symmetrien: Die Higgs-Substanz — im gewöhnlichen Raum durch virtuelle Teilchen gestört — bleibt im Superraum vollkommen unberührt.
 
In Wirklichkeit aber kommt es der Anwesenheit virtueller Teilchen wegen zu einer spontanen Brechung dieser Symmetrie, so dass die Aufhebung der durch die beiden Superpartner produzierten Beiträge nur noch grob gegeben ist. Unter der Voraussetzung, dass der verbleibende Effekt nicht wieder ein Natürlichkeitsproblem zur Folge hat, kommt man zum Schluss, dass die Massen der erwarteten Superpartner auf etwa 1 TeV begrenzt sein sollten.
 
 
 
Nebenbei noch:
 
SUSY wird nicht nur im Rahmen der Stringtheorie betrachtet, sondern ist heute auch eine schon vollständig spezifizierte Erweiterung des Standardmodells der Elementarteilchen. Doch der Preis dafür ist hoch: Eine enorme Menge freier, d.h. nur durch Messung bestimmbarer Parameter.
 
Rüdiger Vaas nennt 12 Varianten der SUSY-Theorie, die jeweils unterschiedlich viel freie Parameter haben (zwischen 3 und 105).
     
  • Eine davon — CMSSM — gilt schon fast als widerlegt, da sie durch Zwangsbedingungen stark simplifiziert ist, deren Parameterraum sich als Ergebnis von Messungen am LHC schon als nahezu leer erwiesen hat.

 
Im Rahmen des Standardmodells sind nur Protonen, Elektronen und Neutrinos völlig stabile Teilchen (wobei sich Elektronen und Neutrinos aber in einander um­wandeln können). Alle andere Teilchen zerfallen, wenn frei, in Sekundenbruchteilen — abgesehen von freien Neutronen, deren Lebensdauer knapp 15 Min beträgt.
 
 
Auch GUT existiert als Theorie in mehreren Varianten:
     
  • Die einfachste davon — mit Symmetriegruppe SU(5) — würde erst durch SUSY so ergänzt, dass die Kehrwerte der Kopplungsstärken der schwachen, der starken und der elektromagnetischen Kraft ab etwa 1016 GeV gleich sind.
     
    Eben diese GUT-Variante aber gerät derzeit in Bedrängnis, da sie bisher nicht entdeckten Protonenzerfall voraussagt. Im übrigen sind die im Bild gezeigten Kurven für die Entwicklung der Kopplungsstärken in zunehmend höhere Energiebereiche hinein schon ab etwa 200 GeV extrapoliert (!).
     
  • In anderen GUT-Modellen — darunter einem mit Symmetriegruppe SO(10) — konvergiert die Stärke der Kräfte auch ohne SUSY.
     
  • All das zeigt, dass SUSY — dann aber auch die Stringtheorie — sich durchaus noch als Irrweg erweisen könnten.

Ende der 80-er Jahre begann das Interesse an den GUT-Theorien nachzulassen — nicht zuletzt deswegen, weil jede von ihnen eine bestimmte (wenn auch das Alter unseres Universums um etwa 20 Größenordnungen übersteigende) mittlere Zerfallszeit für Protonen voraussagt, bisher aber noch kein einziger Protonenzerfall beobachtet werden konnte — und das, obgleich es eine ganze Reihe von Detektoren gibt, in denen nach Anzeichen dafür gesucht wird.
 
GUT widerspricht dem Standardmodell der Elementarteilchenphysik, denn ihm zufolge kann es keinen Protonenzerfall geben, da er den Erhaltungssatz für die Baryonenanzahl verletzen würde.
 
 
 


 

 Beitrag 0-330
Magnetische Monopole — gibt es sie?

 
 

 
Magnetische Monopole — gibt es sie?

 
 
Die GUT-Theorien sagen die Existenz magnetischer Monopole voraus, d.h. die Existenz von Elementarteilchen, deren jedes einen einzelnen magnetischen Nord- oder Südpol darstellt.
 
Warum aber hat man solche Teilchen bisher nicht gefunden?
 
Alan Guth — nachdem er 1979 die Inflationstheorie vorschlug — hat sich mit dieser Frage eingehend befasst und glaubt errechnet zu haben, dass derartige Teilchen nur entstehen können bei Temperaturen, wie sie in unserem Universum schon kurz nach Beginn der Inflationsphase nicht mehr geherrscht haben.
 
Da der durch Menschen einsehbare Teil des Weltalls damals aber extrem kleinen Durchmesser hatte — wohl kleiner als die Plancklänge —, sein nicht wahrscheinlich, dass er damals mehr als nur ganz wenige magnetische Monopole enthalten haben kann. Sie könnten heute durchaus noch existieren, wären dann aber in unserem Universum extrem selten, da nun ja über einen kugelförmigen Bereich verteilt, dessen Radius ca. 43 Mrd. Lichtjahre beträgt.
 
Wir dürfen deswegen nicht erwarten, auch nur ein oder zwei davon wirklich zu finden.

 

 Beitrag 0-139
Eichsymmetrie und seine Basis: Das Noethersche Theorem

 
 

 
Das Noethersche Theorem

 
 
Emmi Noether — eine ganz herausragende Mathematikerin — hat entdeckt, dass jede nicht diskrete (d.h. fließende, also kontinuierliche) Symmetrie einer physikalischen Theorie einen Erhaltungssatz zur Folge hat.
 
Ihr Theorem sagt z.B.
  • Invarianz gegenüber jeder Verschiebung der Zeitkoordinate impliziert den Energie-Erhaltungssatz.
     
  • Invarianz gegenüber jeder Verschiebung der Raumkoordinaten impliziert den Impuls-Erhaltungssatz.
     
  • Invarianz gegenüber Drehungen im Raum impliziert den Drehimpuls-Erhaltungssatz.

Noethers Entdeckung dieser Zusammenhänge hilft bei der Entwicklung von Theorien:
 
Wo Experimente darauf hindeuten, dass es für eine Größe einen Erhaltungssatz geben könnte, kann man das als Hinweis darauf deuten, dass in der Theorie eine Symmetrie zu finden sein sollte (auch wenn zunächst nicht klar ist, welche das sein könnte).
 
 
In der Physik — und auch in Noethers Theorem — ist mit einer Symmetrie nicht notwendig eine geometrischer Art gemeint:
Ein symmetrisches Modell ist dort eines, welches
  • unter einer gewissen Menge von Transformationen seiner selbst invariant ist
     
  • und diese Menge von Transformationen sich als Gruppe im mathematischen Sinne darstellt.
Man spricht dann von Eichtransformationen und von Eichsymmetrie.
 
 
Erstes Beispiel einer eichinvarianten Theorie war die Maxwellsche Theorie der Elektrodynamik:
    Es werden dort sog. Eichfelder transformiert, und die Invarianz besteht darin, dass die messbaren Felder — das elektrische und das magnetische Feld — durch die Transformation sich nicht ändern, obgleich sie sich aus den Eichfeldern — das sind hier elektromagnetische Potentiale — berechnen lassen.
     
    Diese Symmetrie impliziert den Erhaltungssatz für elektrische Ladung.

Mit den Eichfeldern hat man sozusagen grundlegendere Felder eingeführt, die nicht direkt messbar sind und durch eine Eichtransformation umdefiniert werden können ohne dass der physikalische Gehalt sich ändert. [Hohnerkamp, 2015]
 
Man könnte nun denken, dass solche Hintergrundfelder einzuführen und ihre Symmetrie (Eichinvarianz) zu betrachten, künstlich und überflüssig ist.
 
Dennoch erwies eben diese Idee sich als Schlüssel zur Formulierung der sog. Quantenelektrodynamik (QED).
 
Und nicht nur das: Sie wies auch den Weg zur verallgemeinerten Quantenfeldtheorie der elektroschwachen Theorie und schließlich der heutigen Standardtheorie zur Beschreibung der starken, der schwachen und der elektromagnetischen Wechselwirkung — der Grand Unified Theory (GUT).
 
Während in der QED das Eichfeld für ein Photon steht, beschreiben die Eichfelder der allgemeineren Standardtheorie auch die Austauschteilchen der starken und schwachen Wechselwirkung. Hier also sind die Eichfelder keine Hilfsfelder mehr wie in der klassischen Elektrodynamik, sondern die Bosonen selbst.
 
 
Wir sehen:
 
Es war die Idee der Eichsymmetrie,
 
die letztlich zur gelungenen Vereinheitlichung von nun schon 3 der insgesamt 4 physikalischen Grundkräfte geführt hat.

 
Selbst in der Allgemeinen Relativitätstheorie — für die es bisher ja noch keine Quantenversion gibt — findet sich das Eichprinzip verwirklicht: Das Eichfeld ist dort die Metrik, und die Eichtransformationen sich die allgemeinen Koordinatentransformationen. [Hohnerkamp, 2015]
 
 
Quelle: Josef Honerkamp: Wissenschaft und Weltbilder, Springer 2015, S. 228-233

 
 
Nach Wolfgang Osterhage (Seite 154) besteht die Eininvarianz darin, dass man den Potential-Nullpunkt frei wählen (ihn "eichen") kann, ohne dass das Einfluss auf physikalische Vorgänge hat.
 
Er sagt auch, dass die Erhaltungssätze für Leptonen- und Baryonenzahl mit Quantensymmetrien verknüpft seien und es über die bisher hier genannten Symmetrien für Zeit und Raum nur noch eine weitere geben könne: die Supersymmetrie. Sie beeinflusst den Spinwert — erhöht oder erniedrigt ihn um 1/2 —, macht also aus Fermionen Bosonen und aus Bosonen Fermionen.

 
 
Über die vier oben schon erwähnten Erhaltungssätze hinaus — die für Energie, Impuls, Drehimpils und Ladungsdichte — gibt es noch zwei weitere:
     
  • den für die Baryonenzahl ( garantiert durch die SU(2) Symmetrie des starken Isospins ) und
     
  • den für die Leptonenzahl ( garantiert durch die SU(2) Symmetrie des schachen Isospins ).

Neben den fließenden, also kontinuierlichen Symmetrien gibt es weitere, die diskret sind. Es sind dies
     
  • Ladungskonjugation (C, charge),
     
  • Parität (P, räumliche Spiegelung) und
     
  • Zeitumkehr (T, time).

Auch jede Kombination von ihnen erhält — fast immer — das Verhalten des betrachteten Systems. Seltsamerweise aber gibt es da Ausnahmen: Bestimmte Prozesse, in denen die  s c h w a c h e  Wechselwirkung eine Rolle spielt, verletzen C, P oder CP.

 

 Beitrag 0-222
Gravitative Eichtheorien — können sie ART und Quantentheorie vereinen?

 
 

 
Die Einstein-Cartan-Theorie

 
 
Nach Fertigstellung seiner Allgemeinen Relativitätstheore hat Einstein bis hin zu seinem Tode versucht, sie zu einer sog. Einheitlichen Feldtheorie zu verallgemeinern: zu einer Theorie, in der neben der Gravitationskraft auch die eltromagnetische Kraft mit berücksichtigt sein sollte (die Kernkräfte waren zunächst noch gar nicht bekannt).
 
Schon 1925 dachte er, eine Lösung zu haben, die er dann aber doch bald wieder verwarf.
 
 
Einen Ansatz, den er 1928-1931 zusammen mit dem Franzosen Elie Cartan entwickelt hatte — Fernparallelismus mit Torson — betrachtet man heute erneut:
 
Es liegt ihm die Idee zugrunde, dass Spin Torsion erzeugt und somit zu einer gewissen Verdrillung der Raumzeit führen könnte.
 
    Dennis Sciama — Steven Hawkings Doktorvater — betont, dass man diese Idee nicht einfach nur als ad-hoc-Modifikation der ART zu sehen hat, sondern dass sie auf einer tiefen gruppentheoretisch und geometrisch begründbaren Grundlage ruht. Er sagt (Zitat):
     
    Wenn der Elektronenspin 1915 schon entdeckt gewesen wäre, dann habe ich wenig Zweifel, dass Einstein es für wünschenswert gehalten hätte, die Torsion in seine ursprüngliche Formulierung der ART mit einzubeziehen. Allerdings sind die normalerweise auftretenden Abweichungen zahlenmäßig  s e h r  klein, so dass der Vorteil zunächst nur ein gänzlich theoretischer wäre:
     
    Zur ART abweichende Aussagen werden erst für Materiedichten ab etwa 1054 Gramm pro Kubikzentimeter erwartet bei Abständen unter 10-26 cm.
     
    Zum Vergleich: Selbst Neutronensterne haben eine Dichte von » nur « 1016 Gramm pro Kubikzentimeter.

 
Für Theoretiker hat die Einstein-Cartan-Theorie einige Vorzüge: Sie könnte einen besseren klassischen Grenzfall einer künftigen Quantengravitationstheorie liefern als die ART, welche die Torsion ignoriert.
 
Und schon in den 70-er Jahren wurde erkannt, dass die sog. Einfache Supergravitationstheorie äquivalent ist zur Einstein-Cartan-Theorie im Falle eines masselosen Feldes mit Spin.
 
Die Supergravitationstheorie gilt als vielversprechende Etappe auf dem Weg zu einer Weltformel, da sie grundlegende Symmetrien zwischen Kräften und Materie enthält und ein Grenzfall der M-Theorie ist (ebenso wie die 5 Stringtheorien).
 
    Im Februar 1930 schrieb Einstein an Cartan: ... komme mir mit dieser Theorie vor wie ein Affe, der nach langem Suchen eine ungeheuere Kokosnuss gefunden hat, sie aber nicht öffnen kann, so dass er nicht einmal weiß, ob etwas drin ist.
     
    Cartan muss es ähnlich gesehen haben, denn er antwortete schon wenige Tage später, man stehe ratlos vor einer Mauer, es sei unklar, wie ein Loch hineingeschlagen werden könnte, und er hoffe auf ein göttliches Wunder.
     
    Solcher und noch anderer Schwierigkeiten wegen, hat Einstein diesen Ansatz dann nicht weiter verfolgt.
     
    Wer denkt, Einstein hätte danach nichts mehr geleistet, irrt sich: Trotz der vielen Sackgassen, in die er geriet, hat er noch bis 1 Tag vor seinem Tod Rechnungungen durchgeführt, von denen er hoffte, dass sie ihn zur angestrebten einheitlichen Feldtheorie führen ...
     
    Sein Nachlass — etwa 63.000 Dokumente und Notizen — wird Forscher noch lange beschäftigen.

 
Die Einstein-Cartan-Theorie ( EC-Theorie ) — für spinlose Materie identisch mit der ART — ist Spezialfall einer noch umfassenderen Klasse von Gravitationstheorien, den sog.
 
 
Gravitative Eichtheorien auf Basis der Lorentz-Poincaré-Gruppe

 
 
Obgleich sie mathematisch schon hervorragend ausgearbeitet sind, wissen selbst viele Physiker nichts von ihnen. Das ist erstaunlich, denn sie schlagen eine Brücke hin zur Elementarteilchenphysik, also zur Quantenphysik (die mit Einsteins Theorie zu vereinen, ja erklärtes Ziel aller Quantengravitationstheorien ist).
 
Die nach Poincaré benannte Symmetriegruppe — sie umfasst die Lorentz-Gruppe — hat 10 Parameter:
     
  • vier für Verschiebungen (Translationen raumzeitlicher Art)
     
  • drei für Drehungen (räumliche Rotation)
     
  • drei für die Loretz-Transformationen (raumzeitliche Rotationen)

Sie alle beschreiben den Übergang von einem Bezugssystem zu einem anderen, welches sich relativ zum ersten mit konstanter Geschwindigkeit bewegt.
 
Diese Symmetriegruppe repräsentiert sämtliche innerhalb der relativistischen Mechanik möglichen Transformationen. Außerdem lassen sich mit ihr im Rahmen der SRT sämtliche Elementarteilchen klassifizieren hinsichtlich Mass und Spin. Entscheidend hierbei ist, dass Ruhemasse, Spin und Ladung nicht der quantenmecha­nischen Unbestimmtheitsrelation unterliegen: Sie lassen sich gleichzeitig sehr genau messen und gelten daher als eindeutig bestimmte Eigenschaften der Elementarteilchen.
 
Mittels der Poincaré-Gruppe — so zeigte sich in den 60-er Jahren — lässt sich auch eine Gravitationstheorie formulieren: die Poincaré-Eichtheorie.
 
Tatsächlich ist es möglich, noch allgemeinere Geometrien und Symmetrien zu wählen. Sie führen zur Klasse der metrisch-affinen Eichtheorien (mit etwa 100 freien Größen). Die Poincaré-Eichtheorie ist ein Spezialfall der Weyl-Cartan-Eichtheorien (die auch Stauchung berücksichtigen), und die wiederum sind Spezialfall der metrisch-affinen-Eichtheorien (die zudem noch Scherung berücksichtigen).

 
 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 466-479.


 

 Beitrag 0-500
Einstein Feldgleichung wenigstens grob verstehen

 
 

 
Einsteins Feldgleichung

erklärt und kommentiert durch Helmut Satz



Helmut Satz (2016):
 
Die ursprünglich von Einstein aufgestellten Gleichungen lauteten
 
 
Rμν  –  (1/2) R gμν  =  c-4 8πG Tμν  ,

 
wobei G die Newtonsche Gravitationskonstante und c die Lichtgeschwindigkeit bezeichnet.
 
Die Indizes μ und ν geben Zeit und Raum an und durchlaufen somit die Werte 0 (Zeit) und 1,2,3 (Raum).
 
Der sog. metrische Tensor gμν definiert die Raumzeit ohne Gravitation, d.h. den flachen Minkowski-Raum. R ist ein Skalenfaktor (sog. Ricci-Krümmungsskalar).
 
Der sog. Energie-Impuls-Tensor Tμν beschreibt den Rauminhalt. d.h. die Energiedichte ρ im Raum sowie den daraus resultierenden Druck p.
 
Der sog. (Ricci-) Krümmungs-Tensor Rμν schließlich beschreibt die durch den Rauminhalt erzeugte Krümmung von Raum und Zeit.
 
Alle Tensoren der Gleichung sind symmetrisch (so dass man statt 16 nur 10 Gleichungen hat).
 
 
Eine Aussage dieser Gleichungen ist, dass sich die Größe des Weltraums aufgrund seines Inhalts verändern kann.
Das Maß dieser Änderung ist der schon erwähnte Skalenfaktor R = a(t) — er skaliert die Abstände im Raum und somit die Raumgröße.
 
Für ihn ergeben sich aus Einsteins Gleichung zwei Beziehungen, die als erster 1922 der russische Physiker Alexander Friedmann hergeleitet hat. Die erste
 
 
H2  =  (( da/dt )/a )2  =  ( 8πG/3 )ρ – k/a2  ,

 
bestimmt die Geschwindigkeit v = da/dt, mit der sich die Skala verändert ( H ist somit das, was man heute den sog. Hubble-Parameter nennt).
 
ρ ist die Energiedichte im Raum, und
 
k spezifiziert die Raumstruktur: Für flachen Raum ist k = 0, für sphärischen k = 1 unf für hyperbolischen k = –1.
 
 
Friedmanns zweite Gleichung bestimmt die Veränderung der Skalengeschwindigkeit (da/dt)dt = a'' = v' und sagt:
 
 
a''/a  =  –( 4/3 )πG ( ρ + 3p )  ,

 
Dieser zweite von Friedmann abgeleitete Zusammenhang zeigt, dass Einsteins Wunsch nach einem statischen Universum durch seine Gleichungen in ihrer Urform (s.o.) nicht erfüllbar ist, denn selbst wenn man bei sphärischer Krümmung des Raumes (k = 1) Friedmanns zweite Gleichung zu irgend einem Zeitpunkt da/dt = 0 zulassen würde, zeigt die Gleichung, dass sich das rasch wieder ändern muss.
 
Einstein sah nun aber, dass die mathematische Struktur seiner Gleichungen eine Abänderung erlaubt: Man kann der linken Seite einen additiven Term hinzufügen, so dass die Gleichung dann lautet:
 
 
Rμν  –  (1/2) R gμν  +  Λμν  =  c-4 8πG Tμν  ,

 
wo Λ eine universelle, positive, räumlich und zeitlich konstante Größe ist (eine sog. kosmologische Konstante).
 
Sie hat zur Folge, dass sich zur rechten Seite beider Gleichungen von Friedmann die Zahl Λ/3 addiert.
 
 
 
Damit schien Einsteins Wunsch nach einem statischen Universum zunächst erfüllbar: Bei sphärischer Raumkrümmung nämlich (k = 1) gibt es gemeinsame Werte Λ, p und ρ, welche die erste und die zweite Ableitung von a nach der Zeit zu Null machen.
 
Schon bald aber wurde klar, dass jede noch so kleine zeitliche Schwankung der Energiedichte das statische Universum instabil machen würde in dem Sinne, dass der Raum dann sofort zu expandieren oder zu kontrahieren beginnen würde.
 
Hinzu kam Hubbles Entdeckung, des expandierenden Weltalls: Das Universum ist tatsächlich nicht statisch.
 
Einstein soll deswegen die Einführung seiner "kosmologischen" Konstanten als "größte Eselei seines Lebens" bezeichnet haben.
 
Heute denkt man eher, dass seine Konstante vielleicht doch Sinn macht:
 
Mit Λ = 0 nämlich kann man zwar ein expandierendes Universum erhalten, aber nur eines, bei der die Expansionsrate mit der Zeit abnimmt.
Mitte der 1990-er Jahre gesammelte Supernova-Daten zeigen nun aber, dass die Expansionsrate sich mit der Zeit vergrößert statt verkleinert, was ein positives, hinreichend großes Λ erfordert.
 
Erst damit lassen sich die neueren Vorstellungen von Multiversum und Iflation problemlos in den gegebenen Rahmen einfügen.
 
Man schreibt den Λ-Term dann auf die rechte Seite der Gleichung, um zu betonen, dass die Entwicklung der Krümmung des Raumes
     
  • nicht nur durch die von den Objekten im Raum kommende Energiedichte T bestimmt ist,
     
  • sondern eben auch durch ein dem Raum selbst innewohnendes, konstantes Feld Λ der Gravitation entgegen wirkender Energie.

Mit Hilfe der genannten Supernova-Beobachtungsdaten kann man die Größe von Λ dann sogar errechnen.
 
Und so gibt man Einsteins Feldgleichung heute die Form
 
 
Rμν  –  (1/2) R gμν  =  c-4 8πG Tμν  –  Λμν  ,

 
 
Der Energie-Impuls-Tensor T: Quelle des Gravitationsfeldes
 
Der Energie-Impuls-Tensor

 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 181-184


 

 Beitrag 0-220
Einsteins Verhältnis zur Philosophie

 
 

 
Einstein und die Philosophie

 
 
Wert und Problematik der Philosopie — und des Arbeitens der Philosophen — hat meiner Ansicht nach besonders treffend Einstein erkannt:


Einstein zur Philosophie (Zitate):
 
Ist nicht die ganze Philosopie wie in Honig geschrieben? Es schaut wunderbar aus, wenn man es betrachtet, aber wenn man ein zweites Mal hinschaut, ist alles weg.
 
Die Philosophie gleicht einer Mutter, die alle übrigen Wissenschaften geboren und ausgestattet hat. Man darf sie in ihrer Nacktheit und Armut daher nicht geringschätzen, sondern muss hoffen, dass etwas von ihrem Don-Quixote-Ideal auch in ihren Kindern lebendig bleibe, damit sie nicht in Banausentum verkommen.
 
... Oft und gewiss nicht ohne Berechtigung ist gesagt worden, dass der Naturwissenschaftler ein schlechter Philosoph sei. Warum also sollte es nicht auch für den Physiker das Richtigste sein, das Philosophieren den Philosophen zu überlassen?
 
... In einer Zeit, in welcher die Physiker über ein festes, nicht angezweifeltes System von Fundamentalbegriffen zu verfügen glaubten, mag dies wohl so gewesen sein, nicht aber in einer Zeit, in welcher das Fundament der Physik problematisch geworden ist, wie gegenwärtig [1936].
 
In solcher Zeit des durch die Erfahrung erzwungenen Suchens nach einer neuen, solideren Basis kann der Physiker die kritische Betrachtung der Grundlagen nicht einfach der Philosophie überlassen, weil nur er selbst am besten weiß und fühlt, wo ihn der Schuh drückt.
 


Einstein — obgleich stets ein besonders pragmatisch denkender und handelnder Physiker — nahm die Philosophie ernst:
     
  • Schon als 13-jähriger las er Kants Kritk der reinen Vernunft.
     
  • Früh schon befasste er sich eingehend mit den Werken von Ernst Mach und Henri Poincaré.
     
  • Während seiner Zeit in Berlin war Einstein Mitglied eines Philosophenkreises, in dem eifrig diskutiert und gelesen wurde. Noch Jahre später rezipierte er mit Begeisterung Spinoza.
     
  • Auch wies Einstein mehrfach darauf hin, dass Philosophie eingefahrene Vorurteile zu erkennen, wenn nicht sogar zu überwinden hilft.

 
 
Einstein über Wissenschaft und Kunst

 
Auf Bitte eines Zeitschriftenherausgebers zur Modernen Kunst schrieb Einstein:


Einstein (Jan 1921):
 
Wo die Welt aufhört, Schauplatz des persönlichen Hoffens, Wünschens und Wollens zu sein, wo wir uns ihr als freie Geschöpfe bewundernd, fragend, schauend gegenüberstellen, da treten wir ins Reich der Kunst und Wissenschaft ein.
     
  • Wird das Geschaute und Erlebte in der Sprache der Logik nachgebildet, so treiben wir Wissenschaft,
     
  • wird es durch Formen vermittelt, deren Zusammenhänge dem bewussten Denken unzugänglich, doch intuitiv als sinnvoll erkannt sind, so treiben wir Kunst.

Beiden gemeinsam ist die liebevolle Hingabe an das Überpersönliche, Willensferne.
 


 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 411-427.


 

 Beitrag 0-298
Magnetische Monopole — ein immer noch ungeklärtes Rätsel der Physik?

 
 

 
Ladungseigenschaften:
 
Das einzig Unsymmetrische am Elektromagnetismus

 
 
Trotz der so wunderschön symmetrischen Beziehung zwischen elektrischer und magnetischer Wechselwirkung — die James Clark Maxwell 1864 aufgedeckt und mathematisch formuliert hat — gibt es da ein bis heute nicht geklärtes Phänomen:
 
 
Warum treten elektrische Ladungen einzeln auf (als Elektronen und Positronen),
 
magnetische Ladungen aber stets paarweise (als sog. Nord- und Südpol eines Magneten)?

 
 
Und warum haben, wenn ein Stabmagnet auseinander gebrochen wird, beide der so entstehanden Teile jeweils wieder einen Nord- und einen Südpol?. Es gilt dies übrigens bis hinunter zu den einzelnen Atomen.
 
Andererseits ist selbst noch die ganze Erde ein Magnet mit zwei solchen Polen: Ihr Magnetfeld wird erzeugt von ihrem Kern, der i.W. aus einer riesigen rotierenden Kugel aus flüssigem Eisen besteht. Die Detais ihrer Rotationsbewegung bestimmen die Richtung des Feldes und damit die Lage der beiden entgegengesetzt geladenen magnetischen Pole der Erde. Da die magnetischen Pole in ständiger Bewegung sind, stimmen sie nicht exakt überein mit den geogra­phischen Polen der Erde. Tatsächlich haben die magnetischen Pole der Erde ihre Richtung im Verlauf der vergangenen Jahrmilliarden mehrfach vertauscht und könnten es jederzeit wieder tun.
 
Der theoretische Physiker Paul Dirac fand 1931 einen mathematischen Beweis dafür, dass die Existenz magnetischer Monopole mit der Quantenmechanik, d.h. mit unserem heutigen Standardmodell der Elementarteilchen, verträglich ist. Er konnte sogar zeigen, dass — ganz analog zu elektrischen Ladungen — auch alle magnetischen Ladungen stets ganzzahliges Vielfaches einer kleinstmöglichen Ladungsportion sein müssen.
 
Es scheint kein Naturgesetz zu geben, welches die Existenz magnetischer Monopole, d.h. die Existenz von Materieteilchen mit nur  e i n e m  magnetischen Pol, ver­bieten würde. Dennoch ist trotz intensiver Suche bis heute kein einziges solches Objekt gefunden worden. Gibt es sie also wirklich?
 
Selbst wenn es Monopole geben sollte, wären sie offenbar extrem selten — weit seltener als die allgegenwärtigen elektrischen kleinsten Ladungsportionen (die in Gestalt von Elektronen und Positronen existieren).

 

 Beitrag 0-434
Magnetische Monopole — warum es sie geben kann, obgleich wir keine finden

 
 

 
Warum es magnetische Monopole geben kann,

obgleich wir keine finden



John D. Barrow (2011):
 
Die von Alan Guth vorgeschlagene, heute allgemein akzeptierte Inflationstheorie liefert eine naheliegende Erklärung für gleich 3 Phänomene:
     
  • die erstaunliche Isoptropie und Flachheit des beobachtbaren Universums,
     
  • die Nähe seiner Expansionsrate zur kritischen Trennungslinie zwischen ewiger Expansion und späteren Big Crunch,
     
  • und das Fehlen einer gewaltigen Menge von Monopolen.

 
Magnetische Monopole können entstehen, wenn in verschiedene Richtungen weisende magnetische Kräfte in Konflikt geraten. Der Inflationstheorie nach aber war die Region, aus der unser sichtbares Universum entstand — heutiger Durchmesser 3 • 1027 cm — nur etwa 3 • 10-25 cm groß gewesen.
 
Die Wahrscheinlichkeit, dass eine derart kleine Region frei von magnetischen Fehlanpassungen, d.h. frei von Monopolen ist, dürfte groß sein, selbst wenn sich in jedem Kubikzentimer des vor-inflationären Raumes Milliarden solch magnetischer Fehlstellen fanden.
 
 
Das hohe Maß an Glätte, das wir im Universum beobachten, scheint darauf zurückführbar, dass in einem inflationären Raum unser gesamtes sichtbares Universum das aufgeblähte Bild einer winzigen Fluktuation ist, die durch Photonen geglättet wurde, welche die Energieüberschüsse von heißeren hin zu kühleren Regionen transportierten.
 


 
Quelle: John D. Barrow: Das Buch der Universen (2011), S. 212-213

 
 
Historische Notiz: Die Inflationstheorie hat sich durchgesetzt während eines 2-wöchigen Wörkshops, der Juni/Juli 1982 in Cambridge stattfand. Eine erste Zusammenfassung seiner Ergebnisse gaben J.D. Barrow und M.S. Turner: » The inflationary universe. Birth, death and transfiguration « in: Nature 298 (1982), p. 801-805. Dieser Nature-Artikel wurde hand­schriftlich eingereicht und war schon 5 Tage später veröffentlicht.
 
Ausführlicher sind die Ergebnisse jenes Workshops beschrieben in G. Gibbons, S.W. Hawking und S.T.C. Siklos (Hrsg.): The Very Early Universe, Cambridge 1983.


 

 Beitrag 0-36
Wir kennen nun mit größter Wahrscheinlichkeit schon wirklich  a l l e  Fermionen

 
 

 
Was das gefundene Higgs-Teilchen uns bewiesen hat

 
 
Wie berichtet wird, ist über die Eigenschaften des 2012 entdeckten Higgsteilchens nun bewiesen, dass die Wahrscheinlichkeit, dass die Natur über die 12 heute im Standardmodell der Elementarteilchenphysik genannten Fermionen hinaus noch weitere kennt, jetzt kleiner als 10-7 ist.
 
Anders gesagt:
    Wir scheinen nun wirklich  a l l e  Fermionen zu kennen.
     
    Zudem dürfen wir nun auch davon ausgehen, dass das top-Quark (welches 350000-mal schwerer als das Elektron ist) tatsächlich das masse-reichste aller stabilen Elementarteilchen ist.

 
DENN: Das Higgs-Teilchen gibt allen anderen Teilchen ihre Masse. Da im CERN zusätzliche Fermionen bislang nicht gefunden wurden, müss­ten sie schwerer sein als die bisher bekannten. Das aber hätte zur Folge, dass sie auch stärker mit dem Higgs-Teilchen wechselwirken. Diese Wechsel­wirkung wiederum würde die Eigen­schaften des Higgs-Teilchens derart verändern, dass man es mit heute verfügbaren Teilchenbeschleunigern noch  n i c h t  hätte nachweisen können.

 

 Beitrag 0-463
Quarks — Warum man sie stets nur eingebettet in Hadronen (= Mesonen oder Nukleonen) vorfindet

 
 

 
Wie man erkannt hat, dass Quarks wirklich Teilchen sind

 
 
Ende der 1960er und Anfang der 1970er Jahre hat man in Stanford
 
 
Die experimentelle Untersuchung von Quarks begann Ende der 1960er Jahre in Stanford: Man hat stark beschleunigte Elektronen mit ebenso stark beschleunigten Protonen kollidieren lassen und dann beobachtet, wie sich die aus solcher Kollusion entstandenen Teilchen verhielteN:
     
  • In Stanford hat man nur die gestreuten Elektronen beobachtet. Für die Interpretation dessen, was beobachtet wurde, bekamen Friedman und Taylor 1990 den Nobelpreis.
     
  • Die ausführlichsten Untersuchungen zur Quarkstruktur des Protons fanden später im Hamburger Forschungslabor DESY statt:

Dort hat man um den Detektor, der die Streuprodukte beobachtet, eine supraleitende Spule gelegt. Soweit bei der Kollision elektrisch geladene Teilchen entstehen, hinterlassen sie Spuren im Detektor. Aus der Krümmung dieser Spuren im Magnetfeld lassen sich dann die Impulse dieser Teilchen bestimmen.
 
Außerhalb der Spule befinden sich sog. Kalorimeter (= Detektoren, an welche die Streuprodukte dann ihre gesamte Energie abgeben). Aus den gemessenen Impulsen und Energien kann die gesamte Reaktion konstruiert werden.
 
 
Man erkennt:
    Bei einer Proton-Elektron-Kollision wird das Elektron nach unten gestreut, zudem aber fliegt nach oben weg ein ganzes Bündel geladener Teilchen (fast alle sind Pionen). Zusammengezählt tragen sie genau den Impuls, den das Elektron an das Proton abgegeben hat.

Interpretiert wird diese Beobachtung wie folgt:
    Das Elektron hat aus dem Proton ein Quark herausgeschlagen. Seiner (sehr starken) Farbladung wegen, "saugt" es aus dem Vakuum Paare, deren jedes aus einem Quark und einem Antiquark besteht und vereinigt sich mit einem davon, so dass es sich so zu einem Meson oder einem Nukleon ergänzt hat.
     
    Dass Quarks nicht frei existieren können, hat demnach mit ihrer starken Farbladung zu tun.
     
    Auch das, was vom Proton nach der Kollision noch übrig war, trägt solch starke Farbladung und neutralisiert sich ebenso schnell auf eben dieselbe Weise.

Die Farbladungen der Quarks nennt man Blau, Grün, Rot, die der Antiquarks nennt man — dem entsprechend — Antiblau, Antigrün, Antirot.
 
Es ist eindrucksvoll zu sehen, wie gut solche Namensgebung und das Verhalten dieser Ladungen an die Gesetze der Farbenlehre erinnert:
     
  • Die Summe von Rot, Grün, Blau ist farbneutral (weiß) ebenso wie die Summe von Antirot, Antigrün und Antiblau.
     
  • Die Antifarbe von Blau ist Gelb (= Rot + Grün), die von Grün ist Magenta (= Rot + Blau), die von Rot is Cyan (= Grün + Blau), und die Summe von Farbe und Antifarbe ist farbneutral.

Unter den Hadronen versteht man heute sämtliche Teilchen, die aus Quarks bestehen. Es sind dies
     
  • Baryonen = alle Teilchen, die aus 3 Quarks bestehen, und
     
  • Mesonen = alle Teilchen, welche aus einem Quark und einem Antiquark bestehen (Pionen sind Mesonen).

Sie alle sind in der Sprache der starken Wechselwirkung farbneutral.
 
 
 
Über Vakuumpolarisation

 
 
Photonen tragen keine elektrische Ladung. Nun kann sich aber jedes Photon für im Rahmen der Unschärferelation erlaubte Zeit als virtuelles — i.A. also nur recht kurzlebiges — Elektron-Positron-Paar darstellen. Es wird dann durch die ausgesandte Ladung polarisiert (das virtuelle Positron wird z.B. abgestoßen, das virtuelle Elektron aber angezogen). Hierdurch wird die Ladung räumlich verschmiert. Man nennt das eine Abschirmung der Ladung, da im Inneren das elektrische Feld — dem Coulombgesetz folgend — weiter steigt. Dieser Effekt — Vakuumpolarisation genannt — ist nur in der Nähe einer Ladung von Bedeutung.
 
Ganz analog dazu kann auch jedes Gluon in ein virtuelles Quark-Antiquark.Paar übergehen. Die Folgen sind die gleichen wie im Falle des Photons: Die starke Ladung wird abgeschirmt.
 
Ganz anders aber sieht es aus, wenn sich das Gluon in zwei virtuelle Gluonen aufspaltet (sich also über eine von der Unschärferelation erlaubte Zeit hinweg als Paar von Gluonen darstellt, welche dann die starke Ladung "verschmieren"):
 
    Wie Gross, Politzer und Wilczek — belohnt durch einen Nobelpreis — erkannt haben, überwiegt die Fortpflanzung der starken Ladung durch die Spaltung dann bei weitem den Effekt der Abschirmung der starken Ladung. Die Anziehung zwischen den Quarks nimmt daher mit steigendem Abstand zu und wirkt nun wie eine elastische Feder: Bei kleinem Abstand ist sie schwach, bei großem entsprechend groß (!).

Man nennt diesen Effekt Confinement, da sich die Quarks dann bei kleinen Abständen (wie man sie nur in Stößen mit hoher Energie erreicht) deswegen fast wie freie Teilchen benehmen können. Die Physiker nennen das asymtotische Freiheit (asymtotic freedom).
 
Die Tatsache, dass die zwischen farbig geladenen Teilchen gegebene Kraft mit zunehmender Entfernung wider Erwarten nicht schwächer wird, erklärt den oben erwähnten » Saugeffekt «, mit dessen Hilfe freie Quarks unter virtuellen Teilchen extrem schnell wieder einen Partner finden, mit dem zusammen sie dann Meson oder Nukleon werden.
 
 
Mit Computersimulationen kann man zeigen, dass sich zwischen zwei statischen Quarks (Paarerzeugung wird unterdrückt) ein Potential ausbildet, das mit dem Abstand linear zunimmt. Es führt zu einer mit wachsendem Abstand konstant bleibenden Kraft (im Gegensatz zu z. B. Gravitation und Elektromagnetismus, deren Kraft mit zunehmendem Abstand quadratisch abnimmt).
 
Dieses lineare Potential wird damit erklärt, dass sich auf Grund der Farbladung die Gluonen zu einem Strang verbinden, dessen Energie mit der Länge wächst. Ein farbgeladenes Teilchen vom Rest zu trennen würde deswegen extrem hohe Energie erfordern. Somit ist eine Trennung der Quarks von den Gluonen nur unter bestimmten Bedingungen und stets nur für sehr kurze Zeit möglich.
 
In der Realität wächst die Energie natürlich nicht ins Unendliche an. Ab einer gewissen Energie — d.h. ab einem gewissen Abstand zwischen den Quarks — können neue Quark-Antiquark-Paare entstehen, die sich mit den vorherigen zu neuen farblosen Zuständen binden. Dieser Effekt wird » String-Breaking « genannt.
 
 
 
Quelle: Bogdan Povh: Von den Tiefen des Alls in den Mikrokosmos, Springer 2017, S. 194-200.


 

 Beitrag 0-31
Paul Diracs kosmische Zahl

 
 

 
Paul Diracs kosmische Zahl

 
 
Vergleicht man die elektrische Kraft zwischen Proton und Elektron im Wasserstoffatom mit der Gravitationskraft ihrer winzigen Massen, so stellt man fest, dass der Faktor, um den sie stärker ist, eine 40-stellige ganze Zahl ist ( 2.3 • 1039 ).
 
Es ist dies eine der ganz wenigen Zahlen, die uns die Natur selbst mitteilt. Sie ist leicht und mit hoher Genauigkeit messbar, und doch haben wir bisher keine Theorie, sie zu berechnen.
 
Seltsamer Weise tritt sie noch an zwei anderen Stellen auf:
  • Teilt man den Radius des sichtbaren Weltalls durch den Radius des kleinsten  s t a b i l e n  Teilchens (des Protons), so ergibt sich eine Zahl von eben dieser Größenordnung. Sie ist bei weitem nicht so genau bestimmbar, aber dass man auf dieselbe Größenordnung kommt, ist schon merkwürdig.
     
  • Nun aber eine weiter Überraschung: Schätzt man die Zahl der Protonen im sichtbaren Universum, so erhält man in etwa das Quadrat dieser Zahl.
    Kann auch das noch Zufall sein?

 
Diracs Beobachtung lässt sich so veranschaulichen, dass man mit allen Protonen im (sichtbaren) Universum gerade seine derzeitige Oberfläche bedecken kann. Da die mit der Expansion des Raumes anwächst, erscheint dies auf den ersten Blick widersinning. Nur an Zufall zu glauben fällt schwer (und hat Dirac alarmiert).
 
Weiter ist interessant [nach Unzicker, S. 263], dass Diracs Beobachtung auch einen Bezug zur Quantenmechanik hat. Diese ordnet jedem Teilchen eine Wellenlänge zu ( die sog. Compton-Wellenlänge λ = h/mc ), die größte Struktur, bei der man noch sinnvoll von einer » Teilchengröße « sprechen kann.
 
Aus Diracs Hypothese, so schreibt Unzicker, ergebe sich, dass diese Wellenlänge des Protons mit seiner tatsächlichen Größe übereinstimmt, die Rutherford 1914 als erster gemessen hat (siehe dazu auch ArXiv.org/abs/hep-ph/0201222, wo den beiden Nobelpreisträgern Steven Weinberg und Frank Wilczek dieser Zusammenhang wohl nicht bewusst zu sein scheint).
 
So erscheinen die Abmessungen der Teilchen zum ersten Male nicht mehr nur willkürlich. Natürlich ist Diracs Idee noch keine komplette Theorie. Ein Hinweis darauf, dass die Größen und die Massen der Elementarteilchen berechenbar sein könnten, ist sie aber auf jeden Fall. Leider haben die Physiker von heute das Nachdenken darüber freiwillig aufgegeben.

 
 
Quelle: A. Unzicker: Auf dem Holzweg durchs Universum, Hanser 2012, S. 259-263
 
Für Rechendetails und Wahrscheinlichkeiten siehe: Diracs grosse Zahlen


 

 Beitrag 0-4
Zum eigentlichen Wesen aller Elementarteilchen

 
 

 
Das wahre Wesen aller Elementarteilchen

 
 
Letztlich ist jedes Elementarteilchen einfach nur Energieportion in Form einer Potentialwelle (das Potential, das sich da wellenartig auf- und abbaut ist Kraftpotential im Sinne der 4 Grundkräfte der Natur: Elektromagnetische Kraft, Gravitationskraft, starke oder schwache Kernkraft).
 
Jede dieser Wellen breitet sich als Kugelwelle im Raum mit Lichtgeschwindigkeit aus und wird nur verformt, wo sie auf Hindernisse trifft (das ist ganz analog zu Wasserwellen: auch die verformen sich, wo sie auf Hindernisse treffen, etwa auf im Wasser stehende Pfosten).
 
Wo man den Eindruck hat, ein einzelnes Elementarteilchen beobachtet zu haben, war das nur eine Stelle, an der es sich (als Energieportion) mit anderen vereinigt hat, und die so entstandene Summe von Energie sich meist sofort erneut in eine Menge von Elementarteilchen zerlegt hat.
 
An welchen Stellen in Raum und Zeit eine solche Interaktion (= spontane Umwandlung von Wirkungspotential in Wirkung) am ehesten wahrscheinlich ist, wird beschrieben durch eine dem Elementarteilchen zugeordnete Wahrscheinlichkeitswelle ψ (entdeckt 1925 durch Erwin Schrödinger und als überzeugendes Modell gut bestätigt durch inzwischen schon sehr viele Versuche der Quantenphysiker).
 
 
 
 
Materiewellen

 
Schon 1923 hatte Louis de Broglie in seiner Doktorarbeit die Meinung vertreten, dass nicht nur Elektronen, sondern grundsätzlich alle Materieteilchen sich verhalten wie stehende Wellen, die — wie die Schwingungen einer Gitarrensaite — nur mit jeweils ganz bestimmten, diskreten Frequenzen auftreten können. Diese Idee war so ungewöhnlich, dass die Prüfungskommision sich externen Rat holte. Auch Einstein wurde gefragt; er gab ein positives Urteil ab, und so wurde de Broglies Dissertation akzeptiert.
 
Und tatsächlich: Man hat inzwischen sogar bei Fullerenen (das sind aus je 60 Atomen bestehende Moleküle) solches Wellenverhalten beobachten können.
 
Warum sich ein so komplexes Gebilde aber tatsächlich als  W e l l e  statt als W e l l e n p a k e t   zeigt (dem ja dann ja keine Frequenz zuzuordnen wäre), erscheint zunächst unverständlich.
    FRAGE 1 also: Kann mir jemand diesen Punkt erklären?
     
     
    Mein Erklärungsversuch wäre:
    Schickt man Photonen einzeln durch den Doppelspalt, so wird klar, dass die (selbst dann noch) beobachtete Interferenz darauf zurückzuführen sein muss, dass jede dieser Lichtwellen mit sich selbst interferiert. Sie kann das, da der Doppelspalt sie aufgeteilt hat in zwei sich überlappende Teile:
     
     
    Quelle: http://kimheeley.edublogs.org

     
     
    Nun besteht ein Fulleren aber aus  z a h l r e i c h e n  Elementarteilen (Elektronen, Nukleonen), die sich aber — wenn das Molekül durch den Doppelspalt gesandt wird — im Verbund bewegen, aber leicht zueinander verschoben (da sie im Molekül unterschiedlichen Schwerpunkt haben). Dies muss dazu führen, dass das Interferenzbild — da es ja als die Summe der Interferenzbilder für die einzelnen elementaren Teile des Moleküls ergibt — nicht mehr ganz scharf sein kann.
    Meine Vorhersage also: Je größer der Durchmesser von durch den Doppelspalt geschickter NICHT elementarer Teilchen wird, desto unschärfer muss das Interferenzbild werden. Und genau das beobachtet man ja auch ...
     
    Schickt man einzelne Photonen nacheinander statt zum Doppelspalt zu einem halbdurchlässigen Spiegel (einem Strahlteiler), so beobachtet man Analoges: Jedes Photon  s c h e i n t  genau einen der beiden Wege zu nehmen (weil es nur am Ende je eines der beiden Wege detektiert wird). Dennoch geht es — als Potentialwelle — beide Wege, denn es ergibt sich Interferenz (dies zeigen Experimente, die als erster Alan Aspect durchgeführt hat).
    Auch hier also interferiert die Welle mit sich selbst, weil der Strahlteiler sie in sich überlappende Teile zerlegt. Sie lassen sich unterschiedlich polarisieren, und die Interferenz wird zunehmend schwächer, je größer der Winkel zwischen den beiden Polarisationsrichtungen wird: Wie auch beim Quantenradierer können senkrecht zueinander polarisierte Teile der Welle natürlich  n i c h t  interferieren.

 
So nebenbei stellen sich mir noch zwei weitere Fragen:
    FRAGE 2: Könnte es sein, dass miteinander verschränkte Photonen einfach nur Teile einer einzigen (sich um Hindernisse herum ausbreitenden) Welle sind?
    FRAGE 3: Wie kommt es, dass eine Materiewelle (z.B. als Elektron) Schwingung von etwas ist, dessen Länge konstant zu sein scheint?

 
Siehe auch: Beschreibung einiger Experimente

 

 Beitrag 0-13
Photonen (allgemeiner: Elementarteilchen) sind nicht » Teilchen « im buchstäblichen Sinne

 
 

 
Photonen — wie man sie besonders treffend charakterisiert

 
 
Photonen verhalten sich zum elektromagnetischen Feld wie Wasserwellen zum Teich, in dem man sie beobachtet: So wie das Wasser das Medium darstellt, über das jene Wellen sich manifestieren, ist das elektromagnetische Feld das Medium, über das Photonen sich manifestieren:
 
 
Ein Photon ist eine Manifestation der Störung des elektromagnetischen Feldes (und somit ein Phänomen).

 
So sagt Irena. In die gleiche Richtung scheint mir Stueps zu denken, wenn er schreibt:
 
Elementarteilchen, so denke ich, sind vielleicht nicht elementar. Nicht in dem Sinne, dass sie sich vielleicht noch weiter "zerlegen" ließen, oder eben nicht. Meine Vermutung ist, dass nur die Eigenschaften, über die sich Elementarteilchen im Grunde vollständig charakterisieren lassen, die wahren Elemente unserer Welt sind: Spin, elektrische Ladung, Parität, magnetische Quantenzahl, Masse und so weiter ...

 

  Beitrag 2058-14
Photon = sich in Form einer Welle ausbreitende Energieportion

 
 
Henry in 2058-13:
 
Ephot = hf sagt, dass die Energie eines Protons von der Frequenz des Lichtes abhängt, richtig, aber es heißt nicht, dass ein Photon eine Wellenlänge hätte!

Hallo Henry,

die Begriffe Photon und Lichtwelle bezeichnen ein und dasselbe: eine Energieportion, die sich in Form einer Welle durch den Raum ausbreitet.

Wo uns eine solche Lichtwelle als Teilchen  e r s c h e i n t , ist das nur ihre Wechselwirkung mit anderen Potentialwellen an einem bestimmten Ort.

Gruß, grtgrt
 

  Beitrag 2058-19
-

 
 
Hans-m in 2058-18:
 
Bei der Rot-Blau-Verschiebung des Lichts stellt sich mir folgende Frage:
Wie hoch oder wie niedrig kann die Wellenlänge bzw Frequenz des Lichts eigentlich werden?

Das Licht liegt zwischen 780 nm 384 THz (rot) und 380 nm 789 THz (violett).


Hallo Hans-m,

der letzte Satz dieses Zitates versteht unter "Licht" nur das uns sichtbare Licht.

In der Physik aber ist "Licht" ein Synonym für "elektromagnetische Strahlung". Deren Frequenz kann — siehe hier — beliebig hoch ebenso wie beliebig niedrig sein.

Es gibt aber wohl kein Gerät, mit dem man elektromagnetische Strahlung wirklich  j e d e r  Frequenz nachweisen kann.

Gruß, grtgrt
 

  Beitrag 2009-88
Wie schwer können Elementarteilchen höchstens sein?

 
 
Wrentzsch aus 2009-87:
 
Aus der Überschrift resultiert diese Frage: "Warum sollte die Ruhemasse unbegrenzt sein?"


Im Modell der Stringtheorie entspricht jedes Elementarteilchen einem schwingenden String. Je höher die Frequenz dieser Schwingung, desto höher die Energie (bzw. Masse) des Teilchens.

Dies vor Augen, könnte man schon vermuten, dass es beliebig massereiche Teilchen geben kann (wenigstens in dem Sinne, dass die in unserem Universum gültigen physikalischen Gesetzte sie erlauben — wie oft sie dann tatsächlich entstehen, und wie lange sie leben, mag noch eine andere Frage sein).

 

  Beitrag 2009-1
Die Ruhemasse möglicher Elementarteilchen ist begrenzt

 
 


Die Ruhemasse möglicher Elementarteilchen ist begrenzt



Auf Seite 156 seines Buches "Die Evolution des Geistigen" erwähnt Thomas Görnitz eine interessante Konsequenz der Bekenstein-Hawking-Formel über die Entropie Schwarzer Löcher. Er schreibt:

Zitat von Görnitz:
 
Die Entropie der Schwarzen Löcher wächst mit dem Quadrat ihrer Ausdehnung ...

Das kleinste theoretisch noch denkbare Schwarze Loch, ein sog. Planck-Black-Hole — hat nach der Formel von Bekenstein und Hawking lediglich eine Entropie von 1 Bit. Ein noch kleineres Schwarzes Loch (mit noch weniger Information im Inneren) ist demnach undenkbar.

Was aber durch die Bekenstein-Hawking-Formel NICHT erfasst wird, ist, dass dieses Planck-Black-Hole gleichzeitig wegen seiner winzigen Ausdehnung von 10-33 cm mit einer ungeheuer großen [einer entsprechend großen Menge an zugänglicher Information über seinen Ort im Kosmos verbunden ist.

Wir hatten außerdem davon gesprochen, dass die Energie umgekehrt proportional zur Ausdehnung ist, und da ein solches Mini-Black-Hole die kleinste denkbare Ausdehnung besitzt, wird es die größte Energie besitzen, die ein elementares Objekt überhaupt haben kann.


Ein Planck-Black-Hole ist demnach das massereichste elementare Quantenobjekt, das möglich ist.

Es hat die kleinste physikalisch mögliche Ausdehnung (10-33 cm) und die größte denkbare Energiedichte (1094 g/cm3).


In der Tat hat es eine Masse von etwa 1020 Protonen. Diese Masse ist im Verhältnis zur Masse anderer Elementarteilchen riesig groß.

 

 Beitrag 0-7
Was virtuelle Teilchen von realen unterscheidet

 
 

 
Was virtuelle Teilchen von realen unterscheidet

 


Frank Wilzek ( Nobelpreisträger 2004 )
 
Virtuelle Teilchen sind spontane Fluktuationen eines Quantenfeldes von extrem geringer Lebensdauer: Transienten, die in unseren Gleichungen erscheinen, nicht aber in Messgeräten.
 
Durch Energiezufuhr können spontane Fluktuationen über einen Schwellwert verstärkt werden, was bewirkt, dass virtuelle Teilchen zu realen Teilchen werden: Reale Teilchen sind Anregungen eines Quantenfeldes mit einer für Beobachtung brauchbaren  B e s t ä n d i g k e i t .
 


 
 
Wilczek bekam 2004 den Nobelpreis für die Entdeckung von Effekten, die man Asymptotische Freiheit und Confinement nennt.


 

  Beitrag 2009-70
Unterscheide echte und nur scheinbare Elementarteilchen

 
 

Über echte und nur scheinbare Elementarteilchen


Unter einem Elementarteilchen kann man grundsätzlich zweierlei verstehen:
  • ein Teilchen, das elementar im Sinne der Natur ist
  • oder ein Teilchen, das elementar im Sinne aktueller physikalischer Erkenntnis ist.

Wie sich am Beispiel der Protonen und Neutronen zeigt, sind beide Begriffe wahrscheinlich noch NICHT identisch, denn:

Vor Entdeckung der Quarks galten Proton und Neutron als elementar, seitdem aber weiß man, dass sie keineswegs elementar sind, denn jedes von ihnen ist eine Konfiguration von Quarks und Gluonen (3 Valenz-Quarks, jede Menge virtueller Quarks, und zahlreicher Gluonen).

Genauer noch: Je schneller sich ein Proton oder Neutron bewegt, desto größer ist die Zahl darin vorhandener virtueller Quarks und Gluonen (die sog. Quark Sea), und beim Zusammenstoß zweier Protonen etwa kann es sich auch einfach nur um einen Zusammenstoß solch virtueller Teilchen handeln (genau das übrigens macht den LHC so effektiv).

Wenn also jemand (wie etwa Coyne und Cheng über die Stringtheorie) Anzeichen dafür findet, dass jedes Elementarteilchen ein Schwarzes Loch sein könnte, dann können damit eigentlich nur Elementarteilchen im Sinne der Natur gemeint sein, also nicht notwendig all die Teilchen, die unser Standardmodell der Elementarteilchen­physik heute als elementar sieht, denn:

Dieses Modell könnte ja noch zu ungenau sein, da heutige Experimentalphysik nichts aufzulösen gestattet, was kleiner als 10-18 m ist.
Und warum sollten wir glauben müssen, dass die weiteren 17 Größenordnungen bis hin zur Plancklänge nicht noch weitere Struktur enthalten können?


Interessant in diesem Zusammenhang scheint mir, was Lisa Randall auf Seite 117-118 ihres Buches "Die Vermessung des Universums" schreibt:

Zitat von Randall:
 
... sagt uns die Quantenmechanik, dass die Untersuchung [ zunehmend kleiner Skalen [ zunehmend höhere Energien erfordert.

Aber sobald die Energie, die in einer kleinen Region eingefangen wurde, zu groß ist, kollabiert die Materie zu einem Schwarzen Loch.


Von diesem Punkt an dominiert die Gravitation. Mehr Energie vergrößert dann diese schwarzen Löcher ... und so wissen wir einfach nicht, wie wir irgend eine Ent­fernung, die kleiner als die Plancklänge ist, erforschen sollen.

Nebenbei: Diese Festellung ist die einzige, die ich bislang als gutes Argument dafür sehen kann, dass auch die Raumzeit selbst gequantelt sein könnte.

 

  Beitrag 2070-1
Selbst Elektronen sind nicht atomar!

 
 

Physiker haben erstmals Elektronen in zwei separate Teile aufgespalten


Dabei entstehen zwei Teilchen — genannt Spion und Orbitron —, von denen jedes eine bestimmte Eigenschaft des Elektrons trägt.

Mehr dazu im Artikel Forscher halbieren Elektronen (2012).

 

  Beitrag 2070-4
-

 
 
Irena in 2070-3:
 
Du scheinst ein wichtiges Satz außer Acht zu lassen. Die Teilchen sind "existent" nur innerhalb des Atoms.

Auch Quarks haben sich bisher nur als Teil von Nukleonen beobachten lassen (aber niemals einzeln).


 

  Beitrag 2070-8
-

 
 
Hans-m in 2070-5:
 
Oder wolltest Du sagen, dass die entdeckten Elementarteilchen (Spion und Orbitron) nur innerhalb des Elektrons existent sind?


Was genau beobachtet wurde, war ( siehe: Spin and orbital moments seperate ):

Zitat:
 
The electron's break-up into two new particles has been gleaned from measurements on the copper-oxide compound Sr2CuO3.
This material has the distinguishing feature that the particles in it are constrained to move only in one direction, either forwards or backwards.

Using X-rays, scientists have lifted some of the electrons belonging to the copper atoms in Sr2CuO3 to orbitals of higher energy, corresponding to motion of the electron around the nucleus with higher velocity.

After this stimulation with X-rays, the electrons split into two parts. One of the new particles created, the spinon, carries the electron's spin and the other, the orbiton, the increased orbital energy. In this study, the fundamental spin and orbital moments have been observed, for the first time, to separate from each other.
 

 

  Beitrag 2070-2
Wellen scheinen in unserer Welt die einzigen atomaren Objekte zu sein

 
 
Die Meldung Forscher halbieren Elektronen (siehe Beitrag 2070-1) bringt mich auf eine völlig verrückte Idee:

Was wir als Elementarteilchen bezeichnen ist letztlich ein Paket von Potentialwellen (ich sage ausdrücklich: ein   Pa k e t  von Wellen, denn wäre es eine Welle, könnte man ihm keinen — wie unscharf auch immer — definierten Ort zuordnen).

Als Wellenpaket aber müsste es durch Fourier-Analyse in Wellen zerlegbar sein. Und so scheinen nur Wellen die atomaren Objekte unserer Welt zu sein.

Leider können wir diese Fourier-Analyse nicht durchführen, denn letztlich ist auch jedes Elementarteilchen nur Teil des einzigen in sich abgeschlossenen Quantensystems, das es in unserem Universum gibt: der Gesamtheit all dessen, was in unserer Raumzeit existiert. Doch dieses Summe von Wellen — dieses Wellenpaket also — ist viel zu komplex als dass wir es als wohldefinierte Funktion kennen könnten. Wie also soll man da eine Fourier-Analyse bewerkstelligen?


Nebenbei: Was sagen eigentlich die Stringtheoretiker dazu, dass man sogar Elektronen noch zerlegen kann? Ich frage das, da die Stringtheorie jedes Elementarteilchen als Schwingungszustand eines Strings oder einer Membran sieht, deren Projektion auf den 3-dimensionalen Raum nur Punkt und demnach ohne jede Ausdehnung ist (diese Membran entfaltet sich sozusagen nur in den maximal 7 Extradimensionen, die der Stringtheorie entsprechend existieren sollen).

Es würde mich freuen, wenn dazu jemand was sagen könnte ...

 

  Beitrag 2070-7
The Young-Mills Existence and Mass Gap Problem

 
 
Grtgrt in 2070-2:
 
Was wir als Elementarteilchen bezeichnen ist letztlich ein Paket von Potentialwellen (ich sage ausdrücklich: ein   Pa k e t  von Wellen, denn wäre es eine Welle, könnte man ihm keinen — wie unscharf auch immer — definierten Ort zuordnen).

Als Wellenpaket aber müsste es durch Fourier-Analyse in Wellen zerlegbar sein. Und so scheinen nur Wellen die atomaren Objekte unserer Welt zu sein.
 


Berücksichtigt man die Tatsache, dass die Höcker eines Wellenpakets i.A. langsamer wandern als mit Lichtgeschwindigkeit (weil sich das Wellenpaket in Abhängigkeit seiner sich wandelnden Umgebung ja ständig umkonfiguriert), scheint mir, dass diese Sicht vielleicht sogar hin zu einer Antwort auf das Yang-Mills Existence and Mass Gap Problem führen könnte:

Zitat:
 
The successful use of Yang-Mills theory to describe the strong interactions of elementary particles depends on a subtle quantum mechanical property called the "mass gap": the quantum particles have positive masses, even though the classical waves travel at the speed of light.

This property has been discovered by physicists from experiment and confirmed by computer simulations, but it still has not been understood from a theoretical point of view.

 

 Beitrag 0-310
Naturalismus, Idealismus und Dualismus: Wie verhält sich Geist zu Materie?

 
 

 
Naturalismus, Idealismus und Dualismus

 
 
Josef Hohnerkamp charakterisiert sie kurz wie folgt:
     
  • Naturalisten glauben: Geist emergiert aus Materie (letzlich also aus Energieverteilung).
     
  • Idealisten sind der umgekehrten Meinung: Materie, so denken sie, ist eine Schöpfung des Geistes.
     
  • Dualisten sehen Geist und Materie als zwei unabhängige Entitäten.

ABER: Der Dualismus — zurückgehend auf Decartes — hat heute kaum noch Anhänger.
 
Am zahlreichsten scheinen heute die Naturalisten (siehe Holm Tetens: » Der Naturalismus: Das metaphysische Vorurteil unserer Zeit? «, 2013).
 
 
Bedenken sollte man:

Gebhard Greiter (2017):
 
Die Existenz zeitlos gültiger mathematischer Wahrheiten
 
und die Einsicht, dass Materie durch sie geformte Energieverteilung darstellt,
 
scheinen den Standpunkt der Idealisten zu stützen.

Noch völlig unklar ist:
 
Wie unabhängig voneinander existieren Geist und Energie?

 
 
Und was genau ist denn eigentlich Geist?
     
  • Haben wir darunter zu verstehen, was mathematische Wahrheiten garantiert und die Natur zwingt, ihnen zu gehorchen?
     
  • Oder sollten wir unter Geist wirklich nur den Teil in uns zu verstehen, der uns z.B. befähigt, mathematische Wahrheiten als solche zu erkennen?

Mindestens die Antwort auf die Frage » Wie unabhängig voneinander existieren Geist und Energie? « wird doch wohl davon abhängig sein, welche der beiden Definitionen wir zugrunde legen. Was also sollen wir unter Geist verstehen? Sind noch weitere Möglichkeiten denkbar, diesen Begriff zu definieren?
 



 

 Beitrag 0-309
Was man unter » Emergenz « versteht — und was sie, als Diener der Evolution, erschaffen kann

 
 

 
Beispiele für Emergenz

und für emergierende Eigenschaften

 
 
Wenn ein physikalisches Objekt aus zahlreichen Teilobjekten besteht, kann es Eigenschaften haben, die keines der Teilobjekte haben kann. Man spricht dann von durch Emergenz zustandegekommenden, von  e m e r g i e r e n d e n  Eigenschaften.
 
Es sind dies Eigenschaften, die sich einzig und alleine aus dem Zusammenwirken der Teile des Gesamtobjekts ergeben.
 
 
Beispiele von Objekten mit emergierenden Eigenschaften sind:
     
  • Wasser — als Menge zahlreicher Wassermoleküle — kann sieden oder gefrieren. Einzelne Wassermoleküle aber können weder Eis noch Dampf sein.
     
  • Gas — als Menge zahlreicher Gasmoleküle — kann Temperatur haben. Ein Molekül für sich alleine aber kann weder warm noch kalt sein.

 
Weitere Beispiele für auf Emergenz zurückzuführende Eigenschaften wären:
     
  • Die Klugheit oder das Bewusstsein einer Person: Keines der Moleküle, aus denen die Person besteht, kann klug oder sich seiner selbst bewusst sein.
     
  • Gesundheit oder Krankheit einer Person: Keines der Elementarteilchen, aus denen die Person besteht, kannn gesund oder krank sein.

 
Wo immer neue Eigenschaften emergieren, d.h. aus dem Nichts auftauchen, werden neue Begriffe nötig und die Beschreibung von Beziehungen, die es auf der Ebene der Teilobjekte — wenn man sie einzeln betrachtet — noch gar nicht gab.
 
Je höher die Beschreibungsebene, desto komplexer ist das zu beschreibende Objekt und desto summarischer wird man über die auf niedrigeren Beschreibungsebenen relevanten Beziehungen sprechen: Wichtig ist denn nicht mehr eine einzelne jener schon früh dazugekommenen Beziehungen, denn eine einzelne zu haben oder nicht zu haben würde das die oberste Beschreibungsebene darstellende Bild nicht merkbar abändern.
 
Die auf einer Beschreibungsebene hinzukommenden Namen für emergierende Eigenschaften und für Beziehungen zwischen Einzelteilen, müssen als Denkwerkzeuge betrachtet werden, die uns helfen — ja sogar erst ermöglichen — über das Zusammenwirken der Einzelteile des Objekts zu sprechen. Nur so können Menschen zu einem Konsens darüber kommen, welche Wirkung eintritt und was real existiert.
 
Das, was die entstandene Realität dann ausmacht, ist also nicht der Charakter des Fundamentalen, sondern die Möglichkeit, durch Nachprüfung einen intersubjektiven Konsens herzustellen bezüglich dessen, was sich da durch Emergenz ergeben hat.
 
 
Welche Eigenschaften genau infolge der Interaktion von zunächst nur einzeln existierenden Teilchen das dann zustandekommende neue Ganze haben wird, hängt ab von Art und Intensität der Interaktion. Hier zwei Beispiele:
     
  • Wasserstoff und Sauerstoff sind zwei Gase, die erst bei sehr tiefen Temperaturen (bei –250 bzw. –180 Grad Celsius) flüssig werden. Vermischt man sie dann, kommt hoch explosives Knallgas zustande [1986 hat das zur Challanger-Katastrophe geführt: Wegen eines undichten Ventils konnten beide Flüssigkeiten sich vermischen.]
     
  • Andererseits können sich Wasserstoff- und Sauerstoffatome aber auch zu H2O, d.h. zu Wassermolekülen vereinigen — Wasser aber ist überhaupt nicht explosiv und bei ganz anderen Temperaturen flüssig.

 
Man erkennt: Die Eigenschaften von Quantensystemen, z.B. von Molekülen, werden bestimmt durch die Struktur ihrer Elektronenwolke. Nur der Eigenschaften dieser Wolke wegen verhalten sich Moleküle in Reaktion mit ihrer Umwelt wie eine Ganzheit, die völlig andere Eigenschaften hat, als irgend eines der Atome, die gemeinsam das Molekül bilden.
 
Bemerkenswert auch: Bei einem Molekül verhält sich nur seine Gesamtladung wie die Summe der Ladungen der beteiligten Atome. Sein chemisches Verhalten aber ist ein völlig anderes als das der einzelnen Atome.
     
  • Wir sehen: Die Erkenntnisse der Quantentheorie legen uns ein Weltbild nahe, in dem — mindestens unter bestimmten Gegebenheiten — alles mit einander zusammenhängt und vieles tatsächlich erst dieses Zusammenhangs wegen existiert: Wechselwirkende Objekte können sich zu Ganzheiten mit völlig neuen Eigenschaften zusammenfinden und so auch einige oder gar alle ihrer Eigenschaften verlieren.

 
Quantentheorie hat auch die mathematische Struktur aufgedeckt, die jene neuen Ganzheiten dann haben können, und entsprechendes Transformationsverhalten der Materie, für welches es in der klassischen Physik kein Vorbild gibt.
 
 
Kurz:
 
Wo immer Objekte miteinander interagieren (zusammenwirken), entsteht Neues.
 
Erst dieses Phänomen macht Evolution möglich.

 
 
Nicht zuletzt — durch Naturwissenschaft aber (noch?) nicht durchschaubar — verbindet Emergenz die materielle Welt auch mit der Welt des Geistes:
 
Es kommt ständig zu spontaner Selbstorganisation einfacher Elemente und so auch zu komplexen Systemen, die vollig neue Strukturen aufweisen, und deren kollektive Eigenschaften und Fahigkeiten ganz anders sind als die der Teile, die sich da zusammenfanden. Die Strukturen, Eigenschaften und Fahigkeiten der Systeme lassen sich aber nur in einfachen Fällen (und höchstens noch auf chemischer Ebene) berechnen.
 
Emergenz ist in der Natur der Normalfall — keineswegs nur Ausnahme — und das auf allen Ebenen der Welt bis hinauf in die Ebene des Geistes und der menschlichen Gesellschaft. Unsere Welt hat sich Schritt für Schritt aus emergenten Systemen aufgebaut und durch sie immer reichhaltiger gemacht, vom Urknall bis in die Gegenwart, und sie entwickelt sich so auch standig weiter.
 
Lies mehr dazu in Günter Dedié: Die Kraft der Naturgesetze: Emergenz und kollektive Fähigkeiten von den Elementarteilchen bis zur menschlichen Gesellschaft (2015).

 

 Beitrag 0-471
Emergenz — ihr wahres Wesen und ihr Stellenwert

 
 

 
Was genau ist Emergenz?

 
 
Unter Emergenz versteht man das Phänomen, dass zunächst unabhängig existierende Teilchen sich spontan — als Gesamtheit — zusammentun können, es so zu neuer Form kommt, und sie i.A. Eigenschaften zur Folge haben wird, welche einzeln für jedes der Teilchen nur noch selten Sinn machen.
 
Rolf Heilmann definiert: » Information ist Maß für vorhandene Form. « Wo Form zerfällt, geht Information verloren.


Rolf Heilmann (2015, S. 116):
 
Atome können Moleküle bilden, die sich zu Zellen zusammenfinden können, woraus dann Gewebe, Organe und schließlich ganze Lebewesen werden.
 
Bei Menschen kommt es dann sogar zu Bewusstsein und sozialem Gefüge.
 
Jeder dieser Übergänge von einer Ebene auf eine höhere, kompliziertere hat neue Form mit neuen Eigenschaften des so Geformten zur Folge.
 
Was wir Emergenz nennen, ist das Auftauchen solch neuer Eigenschaften. Es sind Eigenschaften, die nur dem Verband der Objekte, die sich hier kooperierend zusammenfanden, zukommen können.
 
 
Magnetismus ist ein gutes Beispiel hierfür:
    Wenn wir einen Magneten zerteilen, stellt sich jeder der so entstandenen Teile wieder als Magnet mit zwei Polen dar. Es scheint also so, dass selbst noch jedes Atom eines Magneten magnetisch ist. Und das stimmt auch: Jedes reagiert wie eine kleine Kompassnadel.
     
    Sie beeinflussen sich durch ihre Magnetfelder gegenseitig und richten sich so an einander aus: sie » kooperieren « mit dem Effekt, dass ein großer Magnet entsteht, dessen Stärke sie nur als Gemeinschaft erreichen können.
     
    Wird nun aber magnetisches Material ordentlich erhitzt — bei Eisen auf etwa 800 Grad Celsius —, geraten die Atome in derart starke Bewegung, dass keine Kopplung und keine gemeinsame Ausrichtung mehr möglich ist: Die kleinen Magnetfelder heben sich gegenseitig auf, der Magnetismus des Materials als Ganzem verschwindet.
     



Rolf Heilmann (2015, S. 166-168):
 
Für die Übergänge von einer Strukturebene auf die nächst höhere interessieren sich vor allem Festkörper-Physiker, denn sie können sich die neu entstehenden bzw. verloren gegangenen Qualitäten wenigstens ansatzweis erklären.

     
    Dass Milliarden mal Milliarden von Atomen spontan — ohne unser Zutun — beim Abkülen zu einem perfektem Gitter erstarren (sich also anordnen), grenzt schon an ein Wunder.
     
    Wir müssen ja bedenken, dass die Atome selbst im Gitter noch mit extrem hohen Geschwindigkeiten hin und her schwingen.

Doch nicht nur beim Übergang einer Flüssigkeit zum Festkörper finden wir derart frappierende Ordnungsphänomene. Wie oben in ersten Beispiel schon klar wurde, richten sich in manchen Strukturen Atome plötzlich so aus, dass der ganze Körper » magnetisch « wird.
 
Oder es verschindet ab einer bestimmten Temperatur schlagartig der elektrische Widerstand im Material, so dass sich die Elektronen dann ohne irgendwelches Hemmnis durch die Drähte bewegen.
 
Solch wunderlichen Vorgänge kann es nach dem klassischen Verständnis von Physik gar nicht geben.
 
 
Bevor man sich nun aber an die Erklärung immer komplexerer Vorgänge heranwagt, macht es Sinn, erst mal die emergenten Prozesse zu studieren, die zu einfachen, regelmäßigen Strukturen führen.
 
Einer der prominentesten Theoretiker auf diesem Gebiet ist der Amerikaner Philip Warren Anderson (geb. 1923), der für seine Arbeiten den Nobelpreis erhielt.
 
Schon 1972 schrieb er in einem viel beachteten Artikel im Fachblatt Science » More is differentMehr ist anders «.
 
Er weist dort darauf hin, dass sich mit jedem Übergang zu einer neuen Qualität die geometrischen Verhältnisse in den Strukturen radikal ändern. Es treten die schon bei Magneten erwähnten Symmetriebrüche auf.
 
Da sich solche Übergänge nicht nur bei Festkörpern, sondern in vielen Strukturen unserer Welt abspielen, sieht Anderson nur im kooperativen Miteinander der Wissenschaftler eine Chance, das Geheimnis der Emergenz zu ergründen.
     
    Anderson ist der Meinung, dass "die Arroganz der Teilchenphysiker" jetzt ja wohl hinter uns liege, "aber wir müssen uns noch von der mancher Molekular­biologen erholen, die darauf aus zu sein scheinen, alles über den menschlichen Organismus nur auf Chemie zu reduzieren — von einer gewöhnlichen Erkältung über die mentalen Erkrankungen bis hin zu religiösen Gefühlen ...".
     
    Robert B. Laughlin (geb. 1950) — ebenfalls Nobelpreisträger und ein entschiedener Verfechter der überragenden Bedeutung der Emergenz — gibt ihm recht, denn er schrieb: "Die Gesetze der Quantenmechanik, die Gesetze der Chemie, die Gesetze des Stoffwechsels und die Gesetze der Häschen, die in den Innenhöfen meiner Universität vor Füchsen flüchten, gehen alle auseinander hervor, ... ".

 


 
Quelle: Rolf Heilmann: Auch Physiker kochen nur mit Wasser, Herbig 2015
 
Prof. Rolf Heilmann forschte in Leipzig über die Wechselwirkung von Licht mit Kristallen, entwickelte später Lasersysteme für Satelliten und lehrt heute an der Hochschule für Angewandte Wissenschaften in München Physik.


 

 Beitrag 0-259
Dynamische Systeme, Emergenz und Chaos

 
 

 
Dynamische Systeme

und ihr nur wenig berechenbares Verhalten

 
 
Die zeitliche Dynamik komplexer — aus vielen Teilchen bestehender — Systeme wird durch Differential- und/oder Differenzengleichungen beschrieben, welche Potenzen, trigonometrische Funktionen und ähnliche Ausdrücke enthalten.
 
Ihre deswegen nicht-lineare Zeitdynamik kann zu neuen Ordnungsstrukturen ebenso wie zu Chaos führen.
 
Nicht-lineare Systeme können konservativ oder dissipativ sein.
     
  • Dissipativ nennt man das System, wenn es Energie oder menschliche Arbeit verbraucht und Wärme an seine Umgebung abgibt.
     
    Jedes Lebewesen ist Beispiel für ein dissipatives System, da es ständig Material und Energie mit seiner Umwelt austauscht und sich so nach Form und Struktur ändern wird.
     
  • Konservativ nennt man das System, wenn es in sich abgeschlossen (von seiner Umgebung getrennt) ist.
     
    Sämtliche idealisierten Systeme der klassischen Mechanik — in denen man Reibungsverluste ignoriert — sind konservative Systeme. Leibniz, Newton und Einstein gingen davon aus, dass ihr Verhalten im Prinzip voll deterministisch und mit beliebiger Genauigkeit berechenbar sei.
     
    Heute wissen wir, dass dem nicht so ist. Der Grund hierfür:
     
    In jedem System, in dem mehr als zwei Körper aufeinander einwirken, kann die Wirkung beliebig stark von den Anfangsbedingungen abhängig sein.
     
    Schon Ende des 19. Jahrhunderts war das Poincaré aufgefallen: Er bewies, dass das 3-Körper-Problem der Astronomie nicht integrierbar ist und zu völlig unvorhersehbaren, chaotischen Bahnen jener Körper führen kann.
     
    Doch erst die Rechenkapazitäten moderner Großcomputer haben die Grenzen prinzipieller Berechnbarkeit des Verhaltens von Mehrkörpersystemem in aller Deutlichkeit gezeigt. Die Unvorhersagbarkeit des Wetters auf längere Zeitdistanz ist gutes Beispiel hierfür: Schon ein winzig kleiner, auf der Wetterkarte unbeachtet gebliebener Wirbel kann chaotische Veränderungen der Großwetterlage auslösen (sog. Schmetterlingseffekt). Damit ist bewiesen:
     
    Die prinzipielle Eindeutigkeit der Lösungen mathematischer Gleichungen garantiert keine beliebig genaue Berechenbarkeit auf länger Zeitdistanz hinweg.
     
    Mit anderen Worten: Man weiß nie, wie kurz der Abstand hin zum nächsten Bifurkationspunkt noch ist, und man weiß auch nicht, ob sein Erreichen Emergenz oder stark chaotisches Verhalten zur Folge haben wird.

 
 
Was sind Bifurkationspunkte eines dynamischen Systems?

 
Die Dynamik eines dynamischen Systems kennt nur 2 Trends:
     
  • Übergang in eine Gleichgewichtslage (womit es zu Emergenz kommt) oder
     
  • Übergang zu chaotischem Verhalten.

Was aber passiert, wenn wir das System in Abhängigkeit eines Parameters betrachten?
     
  • Durch Variation des Parameters können Fixpunkte entstehen oder zerstört werden bzw. an Stabilität gewinnen oder verlieren.
     
    Solche Änderungen in der Dynamik werden als Bifurkationen bezeichnet.
     
    Die Parameterwerte unter denen es zu einer Bifurkation kommt, nennt man Bifurkationspunkte.

 
 
Wie es zu Emergenz kommt

 
Nichtlineare Entwicklung der Zustände dynamischer Systeme muss nicht immer zu Chaos, sondern kann auch zu Selbstorganisation neuer Formen und Strukturen führen.
 
Sie entstehen dadurch, dass gewisse äußere Kontrollparameter — Temperatur, Energiezufuhr — so lange verändert werden, bis der alte Zustand instabil wird und in einen neuen umschlägt. Solcher Phasenübergang lässt sich als Symmetriebrechung von Gleichgewichtszuständen verstehen. Bei kritischen Werten entstehen spontan makroskopische Ordnungsstrukturen, die die sich durch synergetische, kollektive Kooperation mikroskopischer Systemteilechen ergeben.
 
Die Entstehung neuer Ordnung ist also keineswegs unwahrscheinlich und rein zufällig, sondern findet unter bestimmten Nebenbedingungen gesetzmäßig statt.
     
  • Beispiel 1: Die Strömungsmuster in einem Fluss direkt hinter einem Hindernis (z.B. einem Brückenpfeiler):
     
    Wie sie aussehen ist abhängig von der Strömungsgeschwindigkeit: Zunächst kann das Stömungsbild hinter dem Hindernis homogen sein. Erst wenn die Strömungsgeschwindigkeit zunimmt, kommt es zu Wirbelbildung. Es treten zunächst periodisch Bifurkationen auf, dann quasi-periodische Wirbelbildung, die schließlich in ein chaotisches Wirbelbild übergehen.
     
    Auf Mikroebene haben Wechselwirkungen der Wassermoleküle in Abhängigkeit von der Strömungsgeschwindigkeit zu den neuen makroskopischen Strömungsbildern geführt.
     
  • Beispiel 2: Der zu Laserlicht führende Phasenübergang:
     
    Es kommt spontan zur Koodinierung zunächst ungeordneter Photonen, sobald die äußere Energiezufuhr des Lasersystems einen bestimmten, recht hohen kritischen Wert erreicht hat.

Mehr dazu in: Klaus Sedlacek: Emergenz: Strukturen der Selbstorganisation in Natur und Technik, 2010, aus vielen Quellen Zusammenkopiertes, 192 Seiten.

 
 
Quelle: Klaus Mainzer: Zeit — von der Urzeit zur Computerzeit, Beck'sche Reihe (1995, 2011), S. 73-88.
 
Klaus Mainzer, Ordinarius für Wissenschaftstheorie an der Uni Augsburg, hat Mathematik, Physik und Philosophie studiert.


 

 Beitrag 0-468
Der Energie-Erhaltungssatz — hier genau formuliert

 
 

 
Zum Energie-Erhaltungssatz



Thomas Görnitz (2015):
 
Der Satz von der » Erhaltung der Energie « wurde
     
  • vom Arzt und Physiker Robert Mayer (1814-1878) entdeckt
     
  • und später von Hermann von Helmholz (1821-1894) endgültig ausformuliert.

Er wird oft so verstanden, dass die Energie in einem abgeschlossenen System — worunter man eines versteht, welches mit seiner Umgebung keine Energie austauscht — unverändert bleibt.
 
Dies gilt aber nur, solange das System sein Volumen nicht verändert.
 



Thomas Görnitz (2015):
 
Seit Einsteins Relativitätstheorie wissen Kosmologen, dass es für realistische kosmologische Modelle keinen Energie-Erhaltungssatz geben kann.
 
Man kann ihn zwar für den Minkowski-Raum herleiten, der aber hat mit der kosmologischen Realität nichts zu tun. Er ist ein Raummodell, das den Raum als flach und in jeder Dimension als zwingend unendlich weit darstellt. Quantenfeldtheorie und Elementarteilchenphysik werden dennoch in diesem Modell abgehandelt — unter der Annahme, das der Energie-Erhaltungssatz Gültigkeit habe.
 


 
Quelle: Thomas und Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein, Springer 2015, S. 517 und 518

 

 Beitrag 0-12
Wie sich Energie definiert

 
 

 
Was ist Energie?

 
 
In Abänderung dessen, was Hans-m in 2132-11 schreibt, würde ich definieren:
 
 
Energie ist dort, wo Zustand sich verändert oder Kraft auf Gegenkraft trifft.

 
Mit anderen Worten:
 
 
Energie ist die Möglichkeit, auf Zustandsveränderung hinzuwirken.

 
Energie ist z.B. dort, wo
  • sich etwas bewegt (kinetische Energie),
  • wo sich Kraftpotential aufbaut oder aufgebaut hat,
  • wo Kohlenstoff- und Sauerstoffatom eine Bindung eingehen (chemische Energie).

 
Schon das erste Beispiel ist ein sehr interessantes, denn wo zwei Objekte — ein Objekt X und sein Beobachter B — sich relativ zueinander gleichförmig bewegen, wird die entsprechende kinetische Energie
  • aus Sicht von B stets nur X zuzuschreiben sein
  • und zudem noch proportional zur Masse von X sein.
Andererseits kann natürlich auch X als Beobachter von B gesehen werden. Was also, wenn X ein riesiges, B aber nur ein winziges Objekt ist?
 
Schon dieses einfache Beispiel also zeigt:
 
 
Energie lässt sich stets nur beobachterspezifisch quantifizieren.


 

 Beitrag 0-124
Wie Einstein entdeckt hat, dass auch Masse einfach nur Energie ist

 
 

 
Begründung der Formel  E  = m c2



Der Physiker von Baeyer schreibt:
 
Als Einstein seine neuen Gesetze der Mechanik aufstellte, fand er, dass sich das Axiom von der Erhaltung der Energie in sich abgeschlossener Systeme nur dann aufrecht erhalten lässt, wenn man die unerwartete Formel
 
E  =  m c2

 
annimmt ( siehe auch wie man das nachrechnet ).
 
Sowohl die Spezielle wie auch die Allgemeine Relativitätstheorie führten somit überraschenderweise zu einer Verallgemeinerung der universellen Gesetze von Rudolf Clausius (dem Entdecker des zweiten Hauptsatzes der Thermodynamik). Ausgedrückt in der Sprache der modernen Physik lauten sie:

 
Die Energie des Universums – einschließlich der Ruheenergie massiver Körper – ist konstant.
 
( Aber macht, das zu sagen denn überhaupt Sinn?
 
Sicher nicht für einzelne Universen, wohl aber für den Kosmos insgesamt.
)
 
 
Die Entropie des Universums – einschließlich der Schwarzer Löcher – nimmt niemals ab.
 


 
Quelle: Hans Christian von Baeyer: Das informative Universum, Verlag C.H.Beck 2005, S 237.


 

  Beitrag 2058-1
Wie relativ ist Energie?

 
 

Wie man der kosmischen Rotverschiebung wegen erkennt, haben Photonen, die in einer fernen Galaxis erzeugt werden, aus Sicht ihrer Quelle kürzere Wellenlänge (also höhere Frequenz und deswegen höhere Energie) als aus unserer Sicht.

FRAGE also:
  • Wohin ist ein Teil ihrer Energie verschwunden?
  • Geht solcher Schwund auch nur gequantelt vor sich, oder müssen wir Energie ebenso relativ sehen wie Raum und Zeit?

 

  Beitrag 2058-17
Energie ist relativ (wie Zeit und Raum)

 
Hallo zusammen,

die Frage des Threads lautet: ist Energie relativ.

Meine Antwort: ja, die Energie die wir wahrnehmen ist abhängig vom Bezugssystem des Beobachters. Dafür habe ich Beispiele angeführt die bisher keiner widerlegen konnte. Ich könnte noch weitere Beispiele anführen, erspare mir das aber an dieser Stelle, da es hier scheinbar um etwas anderes geht.
Nur so viel – die Vorstellung, Licht könnte gedehnt oder gestaucht werden, oder sich auf eine größere Entfernung verteilen, halte ich für eine falsche Vorstellung.
Beispiel:
Eine Rakete A sendet ein blaues Lichtsignal aus. Ein in der Nähe befindliches zur ersten RaketeA fortbewegende Rakete B empfängt dieses Signal rotverschoben, also mit weniger Energie. Eine weiter entfernte Rakete C, die zur ersten Rakete A ruht, empfängt das Lichtsignal als Blau, also mit höherer Energie wie Rakete B, obwohl das Licht über eine "längere Strecke", wie du es Henry ausdrückst, verteilt ist.

Mit Energieverlust hat das nichts zu tun und habe ich auch nie behauptet.

mfg okotombrok
 

  Beitrag 2058-20
-

 
 
Okotombrok in 2058-17:
 
Die Frage des Threads lautet: Ist Energie relativ?

Meine Antwort: ja, die Energie die wir wahrnehmen ist abhängig vom Bezugssystem des Beobachters.

Dafür habe ich Beispiele angeführt die bisher keiner widerlegen konnte. Ich könnte noch weitere Beispiele anführen, erspare mir das aber an dieser Stelle, ...


Hallo Okotombrok,

das Beispiel, das Du in Beitrag 2058-3 gegeben hast — die Lage-Energie eines Steines — beweist m.E. keineswegs, dass die Gesamtenergie eines physikalischen Objektes relativ ist:

Es zeigt lediglich, dass der Teil seiner Energie, der aus Sicht des Beobachters in bestimmter  F o r m  vorliegt, seiner Menge nach relativ ist.


Dennoch hast du natürlich recht: Energie ist relativ, was alleine schon daraus folgt, dass die Energie, die ein Objekt darstellt, impulsabhängig ist, sein Impuls aber geschwindigkeitsabhängig, und Geschwindigkeit stets nur als relative Geschwindigkeit existiert (vom der Geschwindigkeit, mit der sich Licht ausbreitet, mal abgesehen).

Gruß, grtgrt


PS: Der Seite http://www.energievergleich.de/energie-lexikon/mech... entnehme ich:

Jeder Körper, an dem Arbeit verrichtet worden ist, besitzt mechanische Energie, die sich in drei Formen manifestiert. Diese sind:
  • kinetische Energie (Bewegungsenergie),
  • potentielle Energie, also der Lageenergie, die sich für jeden Körper aus seiner Position im Schwerefeld ergibt,
  • Spannenergie, die aus der elastischen Verformung eines Körpers resultiert.
Mechanische Energie ist immer das Produkt aus Strecke und in Richtung der Strecke wirkender Kraft.
Darüber hinaus können Teile der Energie eines Körpers vorliegen in Form von
  • Wärmeenergie,
  • Druck-Volumenenergie,
  • Strahlenenergie,
  • Kernenergie,
  • elektrischer Energie.

 

  Beitrag 2058-21
Die einzig sinnvolle Erklärung für den (nur scheinbaren) Energieverlust

 
Okotombrok in 2058-17:
Hallo zusammen,

die Frage des Threads lautet: ist Energie relativ.

Meine Antwort: ja, die Energie die wir wahrnehmen ist abhängig vom Bezugssystem des Beobachters. Dafür habe ich Beispiele angeführt die bisher keiner widerlegen konnte. Ich könnte noch weitere Beispiele anführen, erspare mir das aber an dieser Stelle, da es hier scheinbar um etwas anderes geht.
Nur so viel – die Vorstellung, Licht könnte gedehnt oder gestaucht werden, oder sich auf eine größere Entfernung verteilen, halte ich für eine falsche Vorstellung.
Beispiel:
Eine Rakete A sendet ein blaues Lichtsignal aus. Ein in der Nähe befindliches zur ersten RaketeA fortbewegende Rakete B empfängt dieses Signal rotverschoben, also mit weniger Energie. Eine weiter entfernte Rakete C, die zur ersten Rakete A ruht, empfängt das Lichtsignal als Blau, also mit höherer Energie wie Rakete B, obwohl das Licht über eine "längere Strecke", wie du es Henry ausdrückst, verteilt ist.

Mit Energieverlust hat das nichts zu tun und habe ich auch nie behauptet.

mfg okotombrok

So, da bin ich wieder!

Ich fange noch mal an. Gebhard stellte die Frage, ob die kosmische Rotverschiebung mit einem Energieverlust einhergeht, ob dieser Schwund gequantelt ist.

Mein Antwort darauf: Energie ist immer gequantelt ist (siehe Planck und Einstein), es gibt aber keinen Energieverlust, sondern allenfalls Umwandlung von Energie von einer in eine andere Form.

Energie ist eine Erhaltungsgröße und kann nicht "schwinden".

Die kosmische Rotverschiebung ist nicht mit einem Energieschwund verbunden. Energie ist – wie gesagt - eine Erhaltungsgröße, kann also per se nicht "verlustig gehen".

Die Frage, wo sie denn geblieben wäre, wenn sie denn schwinden würde, ist also nicht sinnvoll, Energie kann in verschiedene Formen umgewandelt werden, wo aber ist die "Energieform", in die sich das Licht gewandelt haben sollte?

Licht verliert keine Energie, wenn es sich durch den Raum bewegt, das ist ein gesichertes Faktum, es sei denn, es tritt in Wechselwirkung mit Materie (Gas, Staub) oder es wird durch Gravitationspotentiale gelenkt, beides lässt sich aber aus der beobachteten Rotverschiebung herausrechnen.

Was bleibt, ist die Rotverschiebung an sich, und die ist auf die Expansion des Raumes zurückzuführen, was heißt, die größeren Wellenlängen sind genau darauf zurück zu führen, die Energie ist auf ein größeres Volumen verteilt und nicht "verschwunden". Als Beispiel denke man z. B. an die kosmische Hintergrundstrahlung : Die Energie der gesamten kosmischen Hintergrundstrahlung war etwa vierhunderttausend Jahre nach dem großen Knall (oder dem wie auch immer gearteten Anfang) auf ein Volumen mit dem Radius von eben vierhunderttausend Lichtjahren verteilt, heute entspricht das Volumen einem Radius von 13,7 Milliarden Lichtjahren, das genau und sonst nichts ist der Grund, warum die kosmische Hintergrundstrahlung heute eine Temperatur von rund 2,7 Grad Kelvin hat mit der entsprechenden Wellenlänge im Mikrowellenbereich.

Weiter ist die Bewegung der Galaxien aufgrund der Expansion des Raumes keine Relativbewegung. Die Rotverschiebung ist von jedem Punkt des Kosmos dieselbe, es handelt sich nicht um eine Bewegung innerhalb der Raumzeit, sondern um eine Bewegung der Raumzeit selbst, und diese Bewegung wäre allenfalls von "außen" betrachtet eine Relativbewegung, für Objekte innerhalb des Kosmos ist sie absolut.

Was ist mit der Rotverschiebung der Galaxien aufgrund ihrer Eigenbewegung? Diese Bewegungen sind natürliche relativ, also nur in Bezug zueinander zu bestimmen. Was heißt das für die Rotverschiebung?

Auch für dieses Licht gilt der Satz der Energieerhaltung.

Licht, das von einem Stern zu uns kommt, ist je nachdem, ob der Stern sich uns nähert oder sich von uns entfernt, blau- oder rotverschoben. Was bedeutet das für die Energie des Lichtes, das uns erreicht? Wenn wir außer Acht lassen, dass das Licht z. B. das Gravitationsfeld des jeweiligen Sternes verlassen muss und aufgrund DESSEN eine Rotverschiebung erfährt, haben wir es auch hier nicht mit einem Energieverlust zu tun. An Doppelsternensystemen kann man nachweisen, dass auch das Licht des Begleiters leicht rot- oder blauverschoben ist, je nach dem, ob er sich in Bezug auf uns zu uns hin oder zu uns weg bewegt, während er sein Muttergestirn umkreist. Da nicht anzunehmen ist, dass sich die Energie des Lichtes ändert, je nachdem, wo sich der Begleiterstern auf seiner Bahn in Bezug auf uns befindet, ist es also auf die größer oder kleinere Entfernung zurück zu führen, mit welcher Wellenlänge das Licht uns erreicht, es kann nicht an einem "Energieverlust" liegen.

Das Beispiel mit der Lichtquelle (Laserkanone) hat einen entscheidenden Haken: Man kann Licht selbst nicht beobachten! Was heißt das? Wir müssen auch am Entstehungsort des Laserstrahles einen Detektor benutzen,um das Licht zu registrieren (das wir Laserlicht z. B. grün sehen, liegt an der Atmosphäre, im Vakuum sehen wir nichts!). Wenn wir also den Laserstrahl verfolgen wollen, müssen wir in bestimmten Entfernungen im Raum Detektoren installieren, sinnvoller Weise Spiegel, anhand des so reflektierten Strahles würden wir aber feststellen, das sich die Detektoren aufgrund unserer Eigenbewegung von uns entfernen, was eine Rotverschiebung des Strahles zur Folge hätte.

Wir sehen also das Licht, wenn wir es registrieren, auf jeden Fall rotverschoben, egal, ob wir es als ursprünglich von einem entfernten Objekt kommend messen, oder ob wir das Licht erst von einer "heimischen" Quelle aussenden.

Es liegt an der Bewegung, dass das Licht rot- oder blauverschoben wird, das ist richtig, aber es hat nichts mit einem Energieverlust zu tun, Energie ist – ich muss mich wiederholen – eine Erhaltungsgröße, wir müssen also erklären, warum es eine Rot- oder Blauverschiebung gibt, und es gibt keine andere Erklärung als die sich vergrößernde bzw. verkleinernde Wegstrecke, die das Licht aufgrund der Bewegung zurückleben muss; und das liegt an der Konstanz der Lichtgeschwindigkeit, deshalb die Verschiebung.
 

  Beitrag 2058-23
-

 
Die Energieerhaltung bei der Rotverschiebung, auch die durch die Expansion des Universums verursachte, erklärt sich letztendlich dadurch, dass Energie eine relative Größe ist. Und darum geht es im Titel des Threads: Ist Energie ebenso relativ wie Zeit und Raum?

Da meine bisherigen Erläuterungen wohl nicht verstanden wurden, hier folgendes Zitat aus
Wissenschaft Online (Autor ist der Astrophysiker Andreas Müller):

Zitat:
Rot- und Blauverschiebungen bergen ein weiteres Verständnisproblem: Wo bleibt die Strahlungsenergie, wenn z.B. das stark rotverschobene Photon einer entfernten Galaxie auf der Erde ankommt?

Keine Sorge, der Energieerhaltungssatz wird nicht verletzt. Man darf eben nur die Energie im Bezugssystem Galaxie mit derjenigen im Bezugssystem Erde vergleichen, wenn man auch berücksichtigt, dass das Universum zum Zeitpunkt der Emission des Photons in der Galaxie ein anderes Universum war, als zum Zeitpunkt der Ankunft des Photons auf der Erde! Präzise gesagt unterscheiden sich beide Bezugssysteme im Skalenfaktor R(t), auch Weltradius genannt. 'Rotverschobene, kosmologische Photonen' sind ähnlich zu den 'gravitationsrotverschobenen Photonen' in einem Schwerefeld zu sehen. Denn die Strahlungsenergie geht in beiden Fällen an die (dynamische bzw. gekrümmte) Raumzeit verloren. Kosmologische Rotverschiebung und Gravitationsrotverschiebung sind rein geometrische Effekte.

Es spiegelt sich jedoch auch die Relativität des Beobachters darin wider, denn es spielt eine Rolle, in welchem Bezugssystem er sitzt.

mfg okotombrok
 

  Beitrag 2058-24
Die 3 Varianten der Rotverschiebung wirklich genau erklärt

 
 
Danke, Okotombrok,

der Artikel in wissenschaft online ist wirklich hilfreich. Ich sehe die Sache jetzt also so:

Wo Rotverschiebung auftritt, ist sie Summe von insgesamt 3 Ursachen:
  • kosmologischer Rotverschiebung,
  • gravitativer Rotverschiebung (meist zu vernachlässigen) und
  • lokaler Rotverschiebung aufgrund eines Dopplereffekts.

Im ersten Fall ist entsprechender Energieverlust der Photonen Umwandlung eines Teiles ihrer Energie in Druck, der die Raumzeit zunehmend "aufgeblasen" hält.

Im letzten Fall ist entsprechender Energieverlust einzig und allein auf die relative Sicht des Beobachters zurückzuführen, der das Licht rotverschoben sieht.
Wo er das Licht blauverschoben sieht, ist entsprechender Energiegewinn ebenfalls einfach nur dieser relativierten Sicht geschuldet.


Vielen Dank,
grtgrt
 

 Beitrag 0-460
Entropie ist fehlendes Wissen — und daher ein recht relativer Begriff

 
 

 
Entropie ist fehlendes Wissen

 
 
Entropie ist relativ, denn sie steht immer für fehlendes Wissen:
     
  • entweder für fehlendes Detailwissen über den Zustand eines physikalischen Systems
     
  • oder für fehlendes Wissen über die Bedeutung einer empfangenen Nachricht.


 

 Beitrag 0-116
Entropie ist durch uns nicht wahrgenommene Information

 
 

 
Entropie im thermodynamischen Sinne

 
 
Erfunden hat diesen Begriff der deutsche Physiker Rudolf Clausius. Er hat ihn mathematisch definiert als
 
Entropie  =  Wärme dividiert durch Temperatur

 
Hierbei ist Wärme die Summe der kinetischen Energie der sich gegeneinander bewegenden Teile des Systems.
 
Entropie hat eine Eigenschaft, die der ältere Begriff "Energie" nicht hat: Wenn ein System sich selbst überlassen ist, wie etwa eine Tasse Tee auf einer Tischplatte, so wird die Summe der Entropie dieser Portion Tee und der Entropie der Umgebungsluft niemals abnehmen. Diese Beobachtung führte Clausius zur Entdeckung des Zweiten Hauptsatzes der Thermodynamik:
 
Ohne äußere Einflüsse wird die Entropie eines Systems niemals abnehmen.

 
Dieses Gesetz bestätigt sich durch die Beobachtung, dass in einem System ungleichmäßig verteilte Wärme stets aus der Region höherer Temperatur in die Region niedrigerer Temperatur fließt.
 
Sich das präsent zu machen stelle man sich zwei würfelförmige Eisenblöcke gleicher Größe vor. Block B1 sei 100 Grad warm, Block B2 aber nur 1 Grad. Wenn wir sie aneinander rücken, so dass sie sich entlang einer Seite berühren, wird Wärme vom heißeren Block in den kälteren fließen. Die Summe der Wärme-Energie beider bleibt hierbei erhalten,
  • doch wird B1 die Entropiemenge Wärme/Temperatur = 1/100 verlieren,
     
  • während B2 die Entropiemenge 1/1 gewinnt.
Somit steigt die Entropie des Gesamtsystems um 1/1 - 1/100 = 0.99 (sie würde sinken nur dann, wenn die Temperatur aus der kühleren in die wärmere Region flösse).
 
 
Boltzmann war mit all dem noch nicht zufrieden, da er sich die Frage stellte, was das Verhältnis Wärme/Temperatur (Entropie also) denn eigentlich bedeute.
Was man damals schon wusste, war nur:
  • Wärme ist die Bewegungsenergie der chaotisch hin und her fliegenden Atome.
     
  • Temperatur entspricht der mittleren Energie der einzelnen Moleküle.
     
  • Gasdruck ist das Ergebnis der kollektiven Stöße der Moleküle gegen die Wand des Behälters.
Noch rätselhaft aber war das Wesen der Entropie. Man wusste nur, dass die Entropie eines Gesamtsystems sich als Summe der Entropien seiner Teilsysteme darstellt. Zudem kannt man das Ergebnis von vier in diesem Zusammenhang interessanter Experimente (durchgeführt mit 4 Paaren gleicher Glasbehälter mit flachen, rechteckigen Seitenwänden):

     
  • Versuch 1: Man fülle einen der Behälter mit einem farbigen Gas, mit Bromgas etwa, das braun ist, und lasse den anderen leer (gasfrei). Verbindet man die beiden Flaschen dann mit einem Schlauch und öffnet den Durchfluss, so dehnt das Bromgas sich aus und wird schnell den gesamten zur Verfügung stehenden Raum füllen. Da sich die Gasmoleküle nicht sehr oft treffen und von den Wänden wie Tennisbälle elastisch zurückgeworfen werden, behalten sie ihre ursprüngliche Geschwindigkeit, nehmen nun aber doppelt so viel Raum ein wie vorher. Konsequenz daraus: Die Temperatur des Gases bleibt erhalten, sein Druck aber verringert sich.
     
  • Versuch 2: Man fülle zwei der Flaschen mit Wasser: eine davon mit heißem, die andere mit kaltem und presse sie dann aneinander. Wie oben schon beschrieben wird eine Wärmeausgleich stattfinden: Die sich schneller bewegenden Moleküle werden langsamer, die langsameren werden schneller.
     
  • Versuch 3: Das dritte Paar von Flaschen fülle man mit zwei verschiedenen Gasen, die eine mit Brom (braun), die andere mit Luft (farblos). Verbindet man ihre Öffnungen mit einem Schlauch und öffnet den Durchfluss, werden die beiden Gase sich vermischen, bis schließlich der gesamte Innenraum der Flaschen einheitlich mit einenr schwach-braunen Mischung aus Brom und Luft gefüllt ist.
     
  • Versuch 4: Das vierte Flaschenpaar fülle man mit Brom gleicher Temperatur und so, dass der Druck in beiden Flaschen gleich groß ist. Nachdem die Verbindung geöffnet ist, sieht man keinerlei Veränderung, obgleich auch jetzt viele Moleküle von der einen in die jeweils andere Flasche wandern.

 
In allen 4 Versuchen bleibt die in den Flaschen enthaltene Gesamtenergie konstant. Die Entropie im Inneren des Flaschenpaars wird in Versuch 1, 2 und 3 steigen,
in Versuch 4 aber konstant bleiben. Was nun ist der Grund hierfür?
 
Hier nun hatte Boltzmann die Eingebung, die ihn bekannt gemacht hat: Er sah den Unterschied in der  A n o r d n u n g  der Moleküle zu Beginn und nach Ende der Experimente, und ihm wurde bewusst: Ein zufälliger Prozess würde mit sehr viel größerer Wahrscheinlichkeit zu einer Anordnung der Moleküle führen, wie sie nach dem Experiment vorliegt, statt zu einer, wie sie zu Beginn vorlag.
 
Wieso aber verändert Versuch 4 die Entropie des Gesamtsystems nicht (wo wir doch wissen, dass auch hier viele Moleküle aus der einen in die andere Flasche gelangen und so doch auch zu einem neuen Zustand des Systems führen)?
 
Der Grund hierfür: Der Beobachter hat keine Möglichkeit, diese beiden verschiedenen Zustände von einander zu unterscheiden (weder durch Hinsehen, noch mit chemischen oder physikalischen Verfahren). Die Tatsache, dass die Entropie in Versuch 4 unverändert bleibt, ist deutlicher Hinweis darauf, dass sie nur etwas mit dem zu tun haben kann, was wir über das System  w i s s e n .
 
 
Genau das ist der Grund, warum man Entropie auch mit Unordnung (= fehlender Information) gleichsetzt.
 
Boltzmann sah diese Beziehung und führte sie noch weiter aus: Der Wert der Entropie eines Systems wächst von Null (wenn wir alles über den Systemzustand wissen) bis hin zu einem Maximalwert (der dann eintritt, wenn wir praktisch nichts wissen): Entropie quantifiziert das Ausmaß unseres Unwissens über die Einzelheiten der Bewegungen gegen einander beweglicher Teile des Systems.
 
 
Über diesen Umweg — die Identifikation von Entropie mit fehlender Information — brachte Boltzmann das Konzept der Information in die Physik.
 
Dass er dann zu seiner berühmten Formel
 
Entropie  =  k • log( Z )

 
gelangt ist (mit Z als Anzahl aller möglichen Systemzustände), liegt daran, dass
  • die Formel verträglich sein musste mit der Tatsache, dass die Entropie der Teilsysteme eines Systems die Summe der Entropien der Teilsysteme ist — und das obgleich doch die Anzahl aller Zustände des Gesamtsystems das  P r o d u k t  der entsprechenden Zahlen für die Teilsysteme ist.
     
  • Die Boltzmann-Konstante k schließlich ist einfach nur ein Normierungsfaktor, der Boltzmanns Quantifizierung der Entropie verträglich macht mit der von Clausius (Entropie = Wärme/Temperatur).

 
 
 
Entropie im informationstechnischen Sinne

 
 
Die Physik — so schreibt Honerkamp — versteht unter Entropie das Ausmaß uns fehlenden Wissens über dem Mikrozustand eines physikalischen Systems:
Je mehr Mikrozustände (z.B. einer Menge von Gas) möglich sind, desto unwahrscheinlicher wird es, dass ein ganz bestimmter vorliegt, und desto höher ist deswegen die Entropie des Systems der sich unabhängig voneinander bewegenden Teilchen.
 
Informationstechnisch präzisiert man das wie folgt:
 
 
Bezeichnet Z die Zahl aller einem System möglichen Zustände, so ist
 
 
log2( Z ) sein maximal möglicher Informationsgehalt.

 
Als informationstechnische Entropie des Systems (synonym: Unordnung) bezeichnet man den Teil dieser Information, der sich einem Beobachter nicht erschließt, wenn es Systemzustände gibt, die aus seiner Sicht ununterscheidbar sind.
 
Man sieht also:
 
Der Begriff » Information « ebenso wie die Gleichung
 
Informationgehalt = maximal möglicher Informationsgehalt abzüglich Entropie
 
machen erst Sinn, wenn man einen betrachtenden, denkenden Menschen ins Spiel bringt: Sie sind nur relativ zu ihm wohldefiniert.

 
 
 

Note: Physiker tun sich häufig schwer mit dem Entropiebegriff. Dies aber nur dann, wenn ihnen nicht bewusst ist, dass er sich aus informationstechnischer Sicht heraus eben doch ein klein wenig anders definiert als in der Thermodynamik.
 
 
Bücher, die sich ganz dem Nachdenken über das Wesen der Information widmen, sind:

 

 Beitrag 0-406
Thermodynamisches Gleichgewicht maximiert die Entropie idealer Gase

 
 

 
Entropie und thermodynamisches Gleichgewicht

 
 
Ein in sich abgeschlossenes System frei gegen einander beweglicher Teilchen — man nennt solche Systeme ideale Gase — befindet sich genau dann im thermischen Gleichgewicht, wenn es absolut gleichförmige Struktur hat, d.h. wenn die Gleichförmigkeit der Teilchenverteilung praktisch nicht mehr wachsen kann.
 
Was in populärwissenschaftlicher Literatur als "Unordnung" bezeichnet wird, ist nichts anderes als das Ausmaß, in dem die Teilchenverteilung gleichförmig ist.
 
Da die Gleichförmigkeit der Teilchenverteilung mit der Temperatur des Gases — d.h. mit der Geschwindigkeit seiner sich frei gegen einander bewegenden Teilchen — steigt, lässt sich auch sagen: Die Entropie des Systems — sie quantifiziert unser fehlendes Wissen über seinen Miikrozustand — wächst mit seiner Temperatur.
 
 
 
Gegenstand der Wärmelehre sind Teilchensysteme, die man mit sehr guter Näherung als ideales Gas betrachten kann.
 
Genau genommen aber kennt die Natur keine idealen Gase. Der Grund hierfür: Da jedes Teilchen Energie darstellt und daher Gravitation erzeugt, reduziert es die Freiheit der sich relativ zu ihm bewegenden anderen Teilchen.

 

 Beitrag 0-154
Entropie korrespondiert mit Systemkomplexität

 
 

 
Entropie korrespondiert mit Systemkomplextität

und auch mit der Genauigkeit, mit der man den jeweiligen Systemzustand kennt

 
 
Ist S ein in sich abgeschlossenes System und Z(t,S) sein Zustand zum Zeitpunkt t, so macht es Sinn, unter der Kompexität K(t,S) von S zum Zeitpunkt t die Länge der kürzesten Bitfolge zu verstehen, über die sich der Zustand Z(t,S) komplett beschreiben lässt.
 
 
Je komplexer die einem System möglichen Zustände sind, desto höher kann
 
seine Entropie (im informationstechnischen Sinne) sein.

 
 
Note: Entropie ist eine  s u b j e k t i v e  Größe: Sie ist umso kleiner, je genauer der Beobachter den Systemzustand kennt.

 

 Beitrag 0-403
In schnell expandierenden Gasen ist Entropie kein Maß für Strukturlosigkeit (= sog. "Unordnung")

 
 

 
Zum 2. Hauptsatz der Thermodynamik

und dem

Zusammenspiel von Dichte, Entropie und Ordnung

 
 
Nach dem 2. Hauptsatz der Thermodynamik kann die Entropie eines sich selbst überlassenen Systems praktisch nie abnehmen und wird maximal sein, wenn absolutes Gleichgewicht herrscht (dann also gar nichts mehr passieren kann).
 
Wie aber verträgt sich dieses Gesetz mit der Tatsache, dass der Inhalt unseres Universums zunächst ein absolut gleichmäßig verteiltes dichtes Plasma war — eine absolut strukturlose Welt — sich dann aber schnell immer reichhaltigere Strukturen — Atome, Sterne, Galaxien — entwickelt haben (Ordnung also) und die Entropie des Universums dennoch ständig nur zunahm?
 
Kann es also wirklich richtig sein, dass — wie man oft liest — Entropie ein Maß für Unordnung ist?
 
 
Helmut Satz, Prof. em. für Theoretische Physik, stellt klar:


Zitat von S. 141 in seinem Buch Kosmische Dämmerung:
 

Zunahme von Entropie ist nicht — wie mitunter behauptet wird — gleichbedeutend mit
 
Zunahme von Unordnung (= Strukturlosigkeit).

 
 
Ausführlicher (S. 136-141):
 
 
Lange Zeit wurde das scheinbare Dilemma zwischen dem Entstehen von Struktur im Universum und dem 2. Hauptsatz der Thermodynamik dadurch umgangen, dass man annahm, dass sich unsere Welt zunächst in einem nicht näher definierten Zustand niedriger Entropie befand, um sich dann über die zeit hinweg immer von einem geordneten Zustand in einer zunehmend ungeordneten mit entsprechend höherer Entropie zu entwickeln — eben solange, bis es dann den sog. » Wärmetod « sterben würde, sprich: von maximaler Entropie und ohne jede Struktur sein würde.
 
Nach heutigem Wissen ist diese Vorstellung nun aber nicht mehr haltbar: Wir denken, den Zustand des Universums direkt nach dem Urknall zu kennen (strukturloeses Plasma), haben zudem gelernt, dass der Raum ständig expandiert, und fragen uns nun, ob diese Expansion das Erreichen eines Gleichgewichts (d.h. einen Zustand maximaler Entropie) denn überhaupt jemals erlaubt.
    Wenn Teilchen elektrisch geladen sind und die Zahl der positiv bzw. negativ geladenen gleich groß ist, kann bei hoher Temperatur und Dichte könnte nur ungeordnetes Plasma Zustand höchster Entropie sein. Bei niedriger Temperatur aber würden sie sich zu ladungsneutralen Gruppen (Atomen und Molekülen) zusammenfinden.
     
    Für ein Medium aus nicht oder nur schwach wechselwirkenden Teilchen ist der Zustand größter Entropie immer ein ungeordnetes, strukturloses und daher absolut gleichförmig verteiltes Gas. Wenn die Wechselwirkung infolge fallender Temperaturen aber stärker wird, kann es zu Kristallbildung kommen.

Schon 1975 hat David Kayzer den Einfluss expandierenden Raumvolumens auf den 2. Hauptsatz der Thermodynamik als mögliche Ursache für das Entstehen kosmischer Strukturen vorgeschlagen. Wird nämlich ein Behälter, der Gas im thermischen Gleichgewicht enthält, rasch vergrößert, bilden im expandierenden Gas die Expansionsrate und die Relaxationsgeschwindigkeit zwei kritische, einander entgegengesetzte Faktoren:
    Ist die Expansionsrate hinreichend klein, hat das System genügend Zeit, ständig neu maximale Entropie zu erreichen,
     
    andernfalls aber wächst die maximale Entropie rascher als die tatsächliche, so dass das System sich ständig weiter vom thermischen Gleichgewicht — absoluter Strukturlosigkeit — entfernt.

Das, so sei betont, steht in Einklang mit dem 2. Hauptsatz: Die Entropie nimmt ständig zu, erreicht aber nie das dem jeweiligen Volumen (= der jeweiligen Dichte) zugeordnete Maximum.
 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 136-141

 
 
Kommentar: Dieses Buch beschreibt glasklar der Astrophysiker aktuellstes Verständnis davon,
     
  • wie es zum Urknall kam
     
  • und wie Materie, Raum, und die heutige Struktur des Universums entstanden sind.

Lediglich Kapitel 6 des Buches — wo es um das richtige Verstehen des 2. Hauptsatzes der Thermodynamik geht und seine Nicht-Anwendbarkeit auf die Evolution des Universums — könnte etwas geschickter formuliert sein. Es wird dort erklärt:

 
Dass unser Universum in seiner bisherigen Geschichte ständig an Struktur gewonnen hat, scheint dem 2. Hauptsatz der Thermodynamik zu widersprechen. Das aber ist nicht so, denn:
 
Der 2. Hauptsatz — den jeder Physiker als mit Sicherheit richtig erachtet — besagt, dass die Entropie eines sich selbst überlassenen idealen Gases bei nahezu jedem Zustandsübergang zunehmen wird.
 
In populärwissenschaftliche Büchern wird Entropie als ein Maß für "Unordnung" bezeichnet, was aber nur grob richtig ist:
     
  • Mit "Unordnung" ist Strukturlosigkeit gemeint (wohingegen "Ordnung" als "von reichhaltiger Struktur" zu verstehen ist).
     
    Der Autor versucht dann zu erklären, warum Entropie und Strukturlosigkeit keineswegs immer proportional zu einander wachsen.
     
    Mich erinnert das daran, dass nach Josef Hohnerkamp Entropie uns fehlendes Wissen über den Mikrozustand eines Systems quantifiziert und daher ein relativer Begriff ist: Unterschiedliche Betrachter eines Systems können unterschiedlich viel Wissen über seinen Mikrozustand haben.
     
  • Der 2. Hauptsatz gilt nur für sog. "ideale Gase", d.h. für Systeme, deren Teile sich — abgesehen von Zusammenstößen — absolut unbeeinflusst von einander bewegen.
     
  • Gaswolken im All aber (ebenso wie das Plasma direkt nach dem Urknall) können  n i c h t  als ideales Gas eingestuft werden, da ja Elementarteilchen stets von mindestens der Gravitationskraft zu einander hin gezogen werden. Sie ist zwar extrem schwach, addiert sich aber vorzeichenlos, da Gravitation — im Unterschied zur elektromagnetischen oder auch der starken Wechselwirkung — keine ladungsabhängige Kraft ist (Summanden sich also nicht zu Null aufaddieren können).

Fazit also:

Den 2. Hauptsatz der Thermodynamik aufs Universum anwenden zu wollen, wäre falsch.


 

 Beitrag 0-260
Entropie und der thermodynamische Zeitpfeil: Boltzmanns Theorie

 
 

 
Entropie und der 2. Hauptsatz der Thermodynamik

erklärt durch Klaus Mainzer

 
 
Boltzmanns statistisch-mechanischer Ansatz bestand darin, das makroskopische Geschehen durch mikroskopische Vorgänge mit sehr vielen Teilchen und sehr vielen Freiheitsgraden zu erklären:
 
Ein beobachtbarer Makrozustand — beschrieben durch ortsabhängige Dichte, Druck, Temperatur — kann i.A. durch eine große Anzahl Z von Mikrozuständen verwirklicht werden.
 
Nach Boltzmann ist  die Entropie  S = k • ln( Z )  des Makrozustandes eines Systems ein Maß für die Wahrscheinlichkeit, mit der sich die Moleküle eines Gases so gruppieren, dass es den beobachtbaren Makrozustand einnimmt.
 
 
Boltzmann wies darauf hin, dass der 2. Hauptsatz der Thermodynamik — welcher sagt, dass die Entropie geschlossener Systeme niemals abnimmt — nicht allein aus den Gesetzen der Mechanik folgt, sondern nur gelten kann unter der zusätzlichen Annahme einer extrem unwahrscheinlichen Anfangsbedingung.

     
    Ungleichmäßige Verteilungen gehen dann in Gleichverteilung über.
     
    Im allgemeinen ändert eine zeitliche Umkehr der mikroskopischen Bewegungen nichts an der Konvergenz hin zur Gleichverteilung.
     
    Der 2. Hauptsatz gilt also nicht mit Sicherheit, sondern stets nur mit extrem großer Wahrscheinlichkeit.
     
    Zudem sind irreversible Vorgänge nur besonders häufig und wahrscheinlich, ihre Umkehrung aber selten und unwahrscheinlich.

 
Insbesondere lässt der 2. Hauptsatz lokal Abweichungen (Schwankungen, Fluktuationen) zu, deren experimentelle Bestätigung Boltzmann nicht mehr bewusst miterlebt hat: 1905 zeigte Einstein, dass die den Botanikern damals schon lange bekannte Brownsche Bewegung Fluktuationen darstellt, welche lokale Durch­brechungen des durch den 2. Hauptsatz postulierten Wahrscheinlichkeitstrends darstellen: Mikroskopische, in einer Flüssigkeit aufgeschwemmte Teilchen zeigen, dass sie von Atomen zufällig einmal von einer, dann von einer anderen Seite stärker angestoßen werden. Es kommt so zu einer regellosen Zitterbewegung, obgleich sich doch aller Wahrscheinlichkeit nach die Stöße voll kompensieren müssten.

 
 
Über den thermodynamischen Zeitpfeil

 
Poincaré und Zermelo betonten (1896), dass jeder Zustand eines mechanischen Systems mit endlich vielen Freiheitsgraden sich irgendwann wiederholen — oder wenigstens annähernd wiederholen — müsse. Da also sämtliche Zustände wenigstens annähernd wieder neu eintreten, könne es einen Zeitpfeil, der mit Entropiezunahme verbunden ist, nicht geben.
 
Boltzmann begegnete dieser Argumentation mit dem Einwand, dass mit zunehmender Zahl der Freiheitsgrade die Wiederkehrzeiten extrem lang würden.
 
Insgesamt, so Boltzmann, komme man zum Ergebnis, dass die Gesetze der Mechanik zeitlich reversibel, das wirkliche Geschehen aber nahezu irreversibel sei.
 
Es gebe also 2 Möglichkeiten:
    1. Die Welt könne aus einem sehr unwahrscheinlichen Anfangszustand weit weg von Gleichverteilung entstanden sein.
     
    2. Wenn die Welt nur groß genug ist, gibt es irgendwo starke Abweichungen von der Gleichverteilung.

Bei der Auflösung solche außergewöhnlicher Zustände ist der Prozess einsinnig und wird als Zeitpfeil empfunden.
 
Nach Boltzman gibt es also gar keine ausgezeichnete Zeitrichtung.
 
 
Die Tatsache, dass wir Menschen ein Zeitbewusstsein haben, könnte — so hat man dann aus Boltzmanns Theorie gefolgert — gut darauf zurückzuführen sein, dass der Bereich des Universums, in dem wir leben, noch weit vom Gleichgewicht entfernt ist.
 
Die am ehesten geeignete Grundlage einer Theorie des Lebens wäre dann eine Thermodynamik des Nicht-Gleichgewichts.

 
 
Quelle: Klaus Mainzer: Zeit — von der Urzeit zur Computerzeit, Beck'sche Reihe (1995, 2011), S. 76-79.

 

 Beitrag 0-543
Über Entropie, dissipative Strukturen, und Leben

 
 

 
Entropie

— Hier erklärt als Unlust von Energie sich zu wandeln —

 
 
Im Forum gutefrage.net hat ein Naturwissenschaftler, der sich dort Hamburger02 nennt, zwei recht lesenswerte Erklärungen abgegeben.
 
Da dieser Herr Ilya Prigogine's Theorie dissipativer (= Energie entwertender) Strukturen verstanden zu haben scheint — was ich von mir nicht behaupten kann —, sei hier wiedergegeben, was er schrieb:
 


 
Entropie ist einer der abstraktesten Begriffe, die es in der Physik gibt, und daher gar nicht mal so einfach zu erklären.
 
Entropie kann man nicht anfassen, sehen oder direkt messen. Auch viele Lehrer, Physiker und Chemiker haben mit diesem Begriff größte Schwierigkeiten und können kaum erklären, was Entropie eigentlich sein soll.
 
Selbst Einstein oder Hawking hatten damit so ihre Probleme und teils sogar bezweifelt, ob es Entropie wirklich gibt oder ob das nicht bloß ein künstlicher menschgemachter Begriff sei.
 
Inzwischen ist aber nachgewiesen, dass Entropie tatsächlich existiert als etwas, das naturgesetzlichen Charakter hat. Ich versuche, den jetzt etwas anders zu erklären, als man das sonst hört oder liest:
 
Der Energieerhaltungssatz (= 1. Hauptsatz der Thermodynamik) macht nur Aussagen über die Energiemenge.
 
Nun hat man aber im Laufe der Zeit festgestellt, dass Energie nicht nur nach ihrer Menge beurteilt werden kann, sondern auch danach, wie einfach es ist, gegebene Energie Arbeit verrichten zu lassen. d.h. wie einfach es ist, sie von der Form, in der sie vorliegt in irgend eine andere Form umzuwandeln. Hiernach nämlich bemisst sich ihr Wert.
     
  • Höchsten Wert besitzt sie als Gravitationsenergie. Sie nämlich lässt sich mit Abstand am leichtesten in eine andere Energieform umwandeln, z.B. in kinetische Energie. Dazu braucht man einen Gegenstand nur loszulassen und er fällt von alleine nach unten, nimmt also Geschwindigkeit auf.
     
  • Geringsten Wert als Wärmeenergie bei Umgebungstemperatur. Sie arbeiten zu lassen ist nahezu unmöglich. So besitzt die Luft der Atmosphäre durch ihre Temperatur zwar jede Menge innere Energie, aber mit der z.B. eine Maschine zu betreiben oder einen Körper zu beschleunigen, ist praktisch unmöglich.

 
Entropie quantifiziert fehlenden Wert von Energie in diesem Sinne.
 
Umso höher die Entropie eines Systems, desto weniger nutzbar ist seine Energie, um Arbeit zu leisten.

     
    Will das mal an einem Beispiel verdeutlichen. Wenn du irgendwo ein Kilo Äpfel kaufst, reicht nicht nur die Kenntnis der Menge, also 1 kg, denn musst du entsprechend der Qualität dieser Äpfel unterschiedliche Preise bezahlen. Die teuersten Äpfel haben Handelsklasse A. Sie besitzen noch keine Entropie. Die sind makellos und die kann man unbeschränkt in andere Apfelprodukte umwandeln, sei es ein Apfel zum essen, in Apfelkuchen, Apfelsaft oder was immer du willst. Äpfel der Handelsklasse B haben schon kleine Qualitätsmängel. Die bietet man nicht mehr unbedingt auf einer Obstschale zum Essen an, aber Apfelkuchen oder Apfelsaft kann man noch gut daraus machen. Billig sind sogenannte Saftäpfel. Die kommen gar nicht mehr in den Handel, sondern werden nur noch zu Apfelsaft gemacht. Die schlechteste Qualität haben völlig verfaulte Äpfel, denn aus denen kann man gar nichts mehr machen. Diese verfaulten Äpfel haben damit die maximale Entropie, sie bestehen nur noch aus Abfall.

 
Nun sagt der 2. Hauptsatz der Thermodynamik aus, dass in einem geschlossenen System die Entropie immer nur zunehmen, aber niemals abnehmen kann. Dieser Grundsatz gilt im gesamten Universum sowohl für die Energie als auch für die Äpfel. Wenn jemand eine Kiste mit Äpfeln der Handelsklasse A hat, muss er nichts tun, damit die Entropie zunimmt. Die Äpfel faulen im Laufe der Zeit ganz von alleine. Es ist aber noch niemals beobachtet worden, dass aus einer Kiste faulender Äpfel im Laufe der Zeit von alleine Äpfel der Handelsklasse A wurden.
 
Energie verfault nicht, da spricht man von Entwertung (= Dissipation). Alle Energie strebt danach, entwertet zu werten und das geht auch von alleine.
 
Kurz: Alle Energie strebt dazu, sich letztlich in Wärme umzuwandeln. Bei allen praktischen Prozessen, bei denen Energie umgewandelt wird, entsteht — meistens durch Reibung — auch Abwärme, mit der man nichts mehr anfangen kann. In dieser Abwärme steckt die entstandenen Entropie. Diese Abwärme verringert immer auch den Anteil der Energie, der umwandelbar bzw. arbeitsfähig bleibt. Zusammenfassung: Entropie ist ein Maß für die Nutzbarkeit von Energie. Je höher die Entropie eines Systems, umso mehr hat seine Energie sich schon entwertet und umso geringer ist ihre Fähigkeit, Arbeit zu leisten.
 
Alle Energie im Universum hat das natürliche Bestreben, sich zu entwerten.
 
Nur Kräfte, die auf Teile des Systems wirken, können Entwertung von Systemenergie aufhalten oder rückgängig machen.
 
Um die Entropie in einem geschlossenen System zu verringern, muss immer Energie zugeführt werden. Man braucht Kräfte, die ordnend eingreifen., d.h. von aussen kommende Energie, die arbeitet.
 
 
    Hätte man also eine Kiste mit Äpfeln mittleren Entropie (= solche, die erst wenig angefault sind), könnte man aufwertend eingreifen, indem man überall das Faulige wegschneidet und wegwirft, so dass man aus dem Rest immerhin noch Saft machen könnte.
     
    Genauso wäre das auch mit Energie. Um die Entropie eines geschlossenen Systems zu verringern, muss man von außen hochwertige Energie zuführen. Der Energieabfall, Entropie also, würde dann in der Umwelt landen und deren Entropie entsprechend erhöhen.
     
    Häufig wird Entropie im Schulunterricht auch als ein Maß für im System herrschende Unordnung bezeichnet. Hohe Ordnung bedeutet dabei hohe Qualität, also niedrige Entropie, während maximale Unordnung maximale Entwertung (= maximale Entropie) bedeutet.
     
    Unordnung bedeutet fehlende Arbeit verrichtende (= Ordnung schaffende) Energie.


 


 
An was man Leben als solches erkennen kann



Hamburger02 ( mit einer Präzisierung durch Brian Greene ):
 
Note: Was im Folgenden erklärt wird, war gedacht als Antwort auf eine Frage, die lautete:
    Auch aus unserer alltäglichen Erfahrung kann Ordnung nur dort entstehen, wo Arbeit von außen geleistet wird.
    Also muss es auch etwas (jemanden?) geben, das oder der die Ordnung (das Leben) auf der Erde schafft. Ist das nicht aus der Thermodynamik so??

Hamburger02 beantwortet sie wie folgt (ergänzt durch eine Präzisierung seitens Brian Greene):
 
Das ist nur in der Nähe des Thermodynamischen Gleichgewichtes so. Dieses Argument, der 2. Hauptsatz der Thermodynamik würde der Entstehung von Leben widersprechen, kommt gerne mal von Kreationisten, ist aber falsch. Meine Erfahrung ist außerdem aus Diskussionen zu diesem Thema, dass fast alle, die dieses Argument bringen, es nur nachplappern, selbst aber das Wesen und die Bedeutung der Entropie überhaupt nicht verstanden haben.
 
Ich hole dazu etwas aus: Mitte des 19. Jahrhunderts erkannten unabhängig voneinander Rudolf Clausius und William Thomsen (ab 1892 zu Lord Kelvin befördert), dass natürliche Prozesse immer nur in eine Richtung ablaufen, was daran liegt, dass dabei Energie immer entwertet wird, indem ihre Arbeitsfähigkeit verringert wird ("Dissipation of energy"). Clausius führte dann einen Äquivalenzwert für die Verminderung der Arbeitsfähigkeit ein und nannte diesen » Entropie «. 1877 leitete Ludwig Boltzmann statistisch die Größe der Entropie her, wodurch sie berechenbar wurde. In den 1960er Jahren vollendete dann H. D. Baehr das Lehrgebäude der klassischen Thermodynamik und führte die Begriffe Exergie und Anergie in die Thermodynamik ein.
     
  • Exergie ist dabei die Energie, die 0 Entropie enthält und beliebig umwandelbar (arbeitsfähig) ist,
     
  • während Anergie zu 100% Entropie darstellt und somit keinerlei Arbeit mehr leisten kann.

 
Und nur nebenbei: Baehr kannte ich sehr gut persönlich, da er mein Lehrer war.
 
Alle, die mit der Thermodynamik und insbesondere dem 2. Hauptsatz mit der Aussage über die Entropie beginnen, beginnen mit der Betrachtung geschlossener Systeme nahe des Thermodynamischen Gleichgewichtes und lernen den Grundsatz
 
» Entropie kann niemals abnehmen sondern immer nur zunehmen «

 
[mit einer kleinen Einschränkung, die Brian Green erklärt, z.B. auf den Seiten 24-33 seines Buches Until the End of Time: Er macht uns klar, dass man schreiben sollte:

 
» Mit fast an Sicherheit grenzender Wahrscheinlichkeit
 
wird in einem energetisch abgeschlossenen System jeder Zustandsübergang bewirken, dass
 
die Entropie des Systems zugenommen hat.
«

 
 
Man sieht deswegen oft die Entropie an den Zeitpfeil gekoppelt, denn wenn Vorgänge immer nur in eine Richtung verlaufen können, da Entropie nur zunehmen kann, dann kann auch die [ thermodynamische ] Zeit stets nur in eine Richtung laufen und andersrum, wenn die Entropie abnehmen könnte, müsste auch die Zeit rückwärts laufen.
 
Diesen Grundsatz haben auch so ziemlich alle Physiker verinnerlicht und den hatte auch Stephen Hawking bis 1986 vertreten, (siehe z.B. hier).
 
 
Und da wären wir bei Ilya Prigogine und seiner Theorie Dissipativer Strukturen angelangt:
 
In einem Gesamtsystem wird Entropie [ mit an Sicherheit grenzender Wahrscheinlichkeit ] niemals sinken. Sie kann aber lokal in einem System sinken und dadurch neue Strukturen erzeugen. Die Senkung der Entropie lokal geschieht aber immer auf Kosten der Umwelt, deren Entropie dadurch umso schneller zunimmt. Die lokale Abnahme der Entropie ist unabdingbare Voraussetzung, dass neues wie z.B. Sonnensysteme oder Leben entstehen kann.
 
Wie es gelingt, dass eine lokale Abnahme der Entropie, z.B. bei der Entstehung von Leben, entstehen kann und wie diese lokale Abnahme der Entropie zur Selbstorganisation führt, wird in der Theorie Dissipativer Strukturen beschrieben.
 
Der Kern dieser Theorie beschreibt die Fälle, in denen Energie, und zwar viel mehr als bei obigen Systemen, aus der Umwelt in ein System gepumpt wird. Treten nun in diesem System mindesten 3 Wechselbeziehungen zwischen den einzelnen Systemelementen auf, dann können sich diese gegeneinander aufschaukeln und das ganze System zum Kippen bringen. Das ist der Moment der Selbstorganisation, in dem das System nach dem Kippen mit einer höheren Ordnungsstruktur das Chaos wieder verlässt.
 
Sowohl die ständige Entropiezunahme in geschlossenen bzw. toten Systemen als auch die lokale Entropieabnahme in lebenden Systemen hat eine gemeinsame Triebfeder. Sie besteht darin, dass sich jegliche Energie versucht, so schnell wie möglich zu entwerten. Exergie versucht von alleine immer zur Anergie zu werden. Dieses bestreben der Energie, Arbeit zu leisten und dabei an Arbeitsfähigkeit zu verlieren ist die Triebkraft für alle Vorgänge in der Natur. Das geht von einfachen Prozessen wie dem Herunterfallen eines Glases vom Tisch und dem Zerschellen auf dem Boden, das bewirkt dass der Regen herunterfällt und in strudelnden Bächen und Flüssen zum niedrigsten Energieniveau, dem Meer, strebt und bewirkz auch, dass Wälder abfackeln, wenn man nur einen kleinen Impuls (z.B. brennende Zigarette) dafür gibt.
 
Dissipative Strukturen, zu denen auch das Leben gehört, spielen sich grundsätzlich fernab des thermodynamischen Gleichgewichtes ab. Hier führt der Begriff von Unordnung im Zusammenhang mit der Entrópie völlig in die Irre. Das liegt daran, dass die statistische Herleitung der Entropie über die Vorstellung von Ordnung und Unordnung immer voraussetzt, dass sich ein System im thermodynamischen Gleichgewicht befindet.
 
Das ist bei lebenden Systemen aber nie der Fall, die sind extrem weit vom thermodynamischen Gleichgewicht entfernt.
 
Daher macht es hier keinen Sinn, Entropie mit Unordnung zu assoziieren, sondern da macht es nur noch Sinn, Entropie als ein Maß für die bereits erfolgte Entwertung von Energie hin zur Wärme zu betrachten.
 
Nun hat Prigogine festgestellt, dass in sogenannten dissipativen Strukturen, zu denen jegliches Leben gehört, die Energieentwertung, also die Umwandlung von Exergie in Anergie, noch viel schneller geht, als bei rein physikalischen Vorgängen. Wenn hochwertige Energie, also Exergie, irgendwelche Voraussetzungen vorfindet, wo sie die Möglichkeit hat, sich auf diesem schnellen Weg zu entwerten und dabei besonders viel Entropie zu erzeugen, dann nutzt sie diesen Weg auch.
 
Bei den dissipativen Strukturen, zu denen wie gesagt alles Leben gehört, tritt aber das Phänomen auf, dass in ihnen zwar enorm viel Entropie erzeugt wird, dass sie aber die Fähigkeit haben, noch schneller diese Entropie an die Umwelt abzugeben, als in ihrem inneren erzeugt wird, wodurch im Inneren solcher Strukturen bzw. Systemen die Entropie tatsächlich sinkt.
 
Genau dieses Phänomen, dass Leben zwar besonders viel Entropie erzeugt, aber gleichzeitig noch mehr Entropie an die Umwelt abgeben kann und dadurch die innere Entropie im Gegensatz zu toten Systemen erniedrigen kann, zeichnet Leben als solches aus. Tote Systeme sind dazu nicht in der Lage. Und Schuld daran ist das Bestreben der Energie, sich so schnell wie möglich zu entwerten.
 
Dieser ganz grundsätzliche Unterschied zwischen toten und lebenden Systemen, nämlich die eigene innere Entropie aktiv zu verringern, dient Forschern nach außeriridischem Leben als Hauptkriterium dafür, solches zu entdecken, selbst wenn es äußert exotische Formen annimmt, die wir ohne dieses Kriterium womöglich gar nicht als Leben erkennen würden. Basierende auf dieser prinzipiellen Eigenschaft von Leben ist man auch zu der Erkenntnis gekommen, dass Leben auch ohne die typischen irdischen Rahmenbedingungen entstehen kann, z.B. auch auf Silizium- anstatt auf Kohlenstoffbasis.
 



 

  Beitrag 1948-39
Entropie und Informationskapazität werden mit derselben Elle gemessen

 
 
Henry aus 1948-37:
Nein, ich sprechen NICHT von Information im nachrichtentechnischen Sinne, sondern von Information bzg. auf die Thermodynamik. Die Entropie beschreibt das abgeschlossene System, das sich stetig durch permanente Umwandlung aller Energien in Wärmeenergie einem Zustand minimaler Information und maximaler Entropie zubewegt.

Hi Henry,

du scheinst noch nicht realisiert zu haben, dass die Begriffe

» Entropie « und » fehlender Informationsgehalt « gleiche Definition haben.


Es ist zudem falsch zu glauben, dass das System durch "ständige Umwandlung aller Energien" einem Zustand mit minimalem Informationsgehalt zustrebt.

Richtig ist: Der Bewegung seiner Teilchen wegen wechselt das System ständig seinen Zustand. Und hierbei ergibt sich, dass der neue Zustand i.A. einer ist, der weniger Informationsgehalt hat als der ursprüngliche. Ursache hierfür ist: Es gibt deutlich mehr Zustände, die anderen gleichen, also Zustände, die recht individuell aussehen (und daher hohen Informationsgehalt haben).

Gruß, grtgrt
 

  Beitrag 1948-46
Voraussetzung für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik ist ...

 
 
Thomas der Große aus 1948-42:
 
Jedenfalls wäre es toll, wenn Du Deinen Erhaltungssatz an Beispielen erläutern könntest.


Hi Thomas,

ein ganz zentrales Beispiel ist der 2. Hauptsatz der Thermodynamik. Er stellt fest:


Ein großes System von Teilchen, die sämtlich ein und denselben Freiheitsgrad haben,

wechselt schrittweise all seine kybernetisch dargestellte Information (Ordnung also) in nachrichtentechnisch dargestelle um.



Die Vorbedingung, dass sämtliche Teilchen des Systems denselben WDDF haben, ist notwendig, wie folgendes Beispiel zeigt:

Nimm an, du hast einen großen, mit Wasser gefüllten Topf, in den man dann eine gute Portion sehr feinen Quarzsand gibt und gut umrührt. Nachdem der Sand sehr fein ist, wird er sich beim Umrühren fast gleichmäßig im Wasser verteilen, so dass, wenn man das Rumrühren aufhört, ein System "braune Brühe" existiert, welches fast schon maximal mögliche Entropie hat (d.h. fast alle darin enthaltene Information liegt in nachrichtentechnischer Form vor).

Nachdem man den Topf dann aber einige Stunden oder gar Tage in Ruhe hat stehen lassen, werden sich die Sandteilchen — da ihr spezifisches Gewicht größer ist als das von Wasser — fast alle ganz am Boden des Topfes befinden, und das Wasser drüber wird klar und rein sein.

Das, so denkt man zunächst, widerspreche dem 2. Hauptsatz der Thermodynamik. In Wirklichkeit aber ist dem keineswegs so:

Da nämlich jedes Sandteilchen höheres Gewicht als ein Wasseratom hat, zerrt die Gravitationskraft an jedem einzelnen Sandteilchen viel mehr als an jedem einzelnen Wasser­atom. Die Voraussetzung also, dass sämtliche gegeneinander beweglichen Teilchen im Topf identischen WDDF haben müssen, ist NICHT gegeben, und so lässt sich der Satz gar nicht erst anwenden (!).


Gruß, grtgrt
 

  Beitrag 1951-7
Systemkomplexität

 
 
C... aus 1951-6:
 
hast du den Begriff "Komplexität" definiert?
Hat ein hoch komplexes System (z.B. ein Lebewesen oder ein Gehirn) demnach hohe Entropie?


Hi C...,

unter "Komplexität" verstehe ich, was man im umgangsprachlichen Sinne (ohne eigene Definition also) darunter versteht.

Wenn ich dennoch eine Definition geben muss, so sage ich:


Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.



Begründung: Die Komplexität eines Systems steht und fällt mit seiner Fähigkeit, Information festzuhalten. Es macht daher Sinn, zu definieren:


Unter der Komplexität eines in sich abgeschlossenen Systems versteht man seine Kapazität als Informationsspeicher.



Über die Schwierigkeit, sie zu quantizifieren, spricht Beitrag 1951-22.


C... aus 1951-6:
 
M.E. benötigt man zunächst mindestens zwei Systeme mit verschiedenen Unterscheidungskriterien: z.B. einen Mikrozustand und einen Makrozustand.
In System 1 unterscheidbare Zuststände (Mikrozustände) müssen im System 2 (Makrozustand) ununterscheidbar sein.

Im genannten Beispiel zweier verschiedener Systeme können dieselben Makrozustände somit durch verschiedene Mikrozustände realisiert werden.
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.

Was du hier sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Gruß,
grtgrt
 

  Beitrag 1951-15
Beispiele (1) und die implizite Voraussetzung im 2. Hauptsatz der Thermodynamik

 
C... aus 1951-12:
Grtgrt aus 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.


Ich fürchte, dem kann ich nicht folgen.
Du hattest doch versucht, Entropie über den Begriff "Komplexität" zu definieren.
Wenn du jetzt "Komplexität" über den Begriff "Entropie" definierst, drehst du dich im Kreis.

Hi C...,

ich will nicht einen Begriff mit Hilfe des anderen definieren, sondern will einfach nur sagen, dass beide Begriffe dasselbe meinen (steht ja schon so im Titel diesen Themas).

Du wirst mich jetzt fragen: Ja warum gibt es dann zwei Worte? Nun, das liegt einfach nur am Sprachgebrauch, der sich da eingebürgert hat. Von "Entropie" wurde zunächst nur in der Theorie der Gase gesprochen, in der Thermodynamik also.

Heute muss man das so sehen:
  • Der Begriff "Komplexität" ist der umgangssprachliche. Er ist auf alle Systeme anwendbar.
  • Wo man statt seiner den Begriff "Entropie" verwendet, bedeutet das, dass man damit implizit mit sagt, dass man von einem System spricht, in dem alle gegen einander beweglichen Teile denselben oder fast denselben WDDF (Well Defined Degree of Freedom) haben — eben ganz so, wie das typischerweise in einer Gaswolke der Fall ist.

Letzteres gerät heute allzu oft in Vergessenheit, und dabei erklärt sich doch nur so, dass z.B. ein Ei leicht vom Tisch fällt und am Boden zerschellt, das Umgekehrte aber gar nicht vorkommt: Kein zerborstenes Ei setzt sich rein nur vom Zufall gesteuert wieder schön zusammen um sich dann sogar noch auf den Tisch hinauf an die alte Stelle zu begeben.

Siehe auch mein nicht ganz so burschikos gewähltes Beispiel in Beitrag 1948-46.


C... aus 1951-12:
 
Ist deiner Definition gemäß für ein Gehirn ein Zustand denkbar, der höhere Entropie hat, als diejenige eines Proteindrinks gleicher mikroskopischer Zusammensetzung und Masse?

Das würde ich eher verneinen, denn die Atome unseres Gehirns sind in ihrer Bewegungsfreiheit mit Sicherheit weit weniger frei als die in einer Flüssigkeit, und sei es denn ein Proteindrink.

Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung aber gar nichts aus (man vergleiche die Diskussion in Beitrag 1951-22).


Beste Grüße,
grtgrt
 

  Beitrag 1951-17
-

 
Grtgrt aus 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Hallo Gebhard, nee, oder?
Da habe ich ein genau entgegengesetztes Verständnis, welches ich gern immer anhand unseres menschlichen Hirns erläutere:

Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

(Natürlich kann man das Leben an sich in seiner Vielfalt als noch komplexer auffassen, aber das tut für meine Erläuterung erst mal nix zur Sache.)

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?
 

  Beitrag 1951-19
-

 
Stueps aus 1951-17:
 
Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?

Hi Stueps,

du hast schon recht, aber du sprichst nicht nur über aus Unordnung kommendem Informationsgehalt (dem nachrichtentechnisch kodierten, den wir Entropie nennen), sondern auch über den aus Ordnung resultierenden (dem kybernetisch kodierten).

Siehe Beitrag 1948-1.


Gruß, grtgrt
 

  Beitrag 1951-18
Beispiele (2)

 
 
C... aus 1951-12:
 
Zitat von Grtgrt:
Was du hier [Anm.: d.h. C... in Beitrag 1951-6 sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Bilde mittels "System 1" systematisch 6-stellige Zahlen, indem du z.B. 6 mal würfelst. Die Wahrscheinlichkeit, eine 111111 zu würfeln, ist dieselbe wie diejenige, eine 355621 (in dieser Reihenfolge) zu werfen.
Du kannst nun ein übergeordnetes Ordnungssystem ("System 2") festlegen, in welchem du z.B. 111111 oder 555555 als ein 'Sextett' bezeichnest. Die Ziffernfolge z.B. 55 oder 33 innerhalb einer beliebigen sechstelligen Zahl bezeichne als Duplett.

Mit diesem Ordnungssystem ist nun die Wahrscheinlichkeit ein Sextett (wozu auch 111111 gehört) zu würfeln, geringer, als diejenige ein Duplett (wozu auch 355621 gehört) zu würfeln, weil es nur 6 von 6^6 Möglichkeiten für ein Sextett gibt, während es 30*6^4 von 6^6 = 5/6 (ob´s stimmt, wirst du besser wissen - jedenfalls mehr) Möglichkeiten gibt, ein Duplett zu erhalten.

Die Entropie eines Dupletts ist mit S = k*log(W) somit höher als die eines Sextetts.


C...,

mir scheint, du willst mich aufs Glatteis führen!

Oder willst du einfach nur sehen, ob ich den Unterschied zwischen bedingter und nicht-bedingter Wahrscheinlichkeit kenne?

Sei's drum. Meine Defininition sagen, dass für jeden Systemzustand Z gilt:


Entropie
= Komplexität
= nachrichtentechnischer Informationsgehalt
= kleinste Zahl binärer Entscheidungen, die ausreichen, den Zustand Z komplett zu beschreiben



Wann aber ist Z als Sextett oder als Duplett komplett beschrieben?

Die Antwort auf diese Frage ist ganz klar davon abhängig, ob ich ein konkretes Duplett (bzw. Sextett) als Duplett (bzw. Sextett) von anderen gleicher Art unterscheiden soll, oder ob ich einen Zustand dieser Art von irgendeiner 6-stelligen Folge der 6 Ziffern 1 bis 6 zu unterscheiden habe.

Für welchen Fall also willst du, dass ich dir den nachrichtentechnischen Informationsgehalt berechne?

  • Ein Sextett von anderen Sextetts zu unterscheiden, erfordert 3 binäre Entscheidungen.
  • Ein Duplett von anderen 6-stelligen Dupletten zu unterscheiden erfordert mindestens 35 binäre Entscheidungen erfordern (kann aber – je nach Exemplar – auch 3 mal so viel erfordern [ wir betrachten Folgen, nicht Mengen, gewürfelter Ergebnisse ).
  • Ein Sextett oder ein Duplett als Element des kartesischen Produktes { 1,2,3,4,5,6 }6 zu identifizieren, erfordert stets 36 binäre Entscheidungen.


Nun zur spannenden Frage, warum das so ist: Ganz einfach:

  • Im ersten Fall hat das betrachtete System nur 6 Elemente (jedes in stark redundanter Codierung),
  • im zweiten Fall hat es 65 (Redundanz in ihrer Codierung haben nur jene, in denen erst die beiden letzten Ziffern gleich sind)
  • und im letzten Fall hat das System sogar 66 Elemente (alle redundanzfrei codiert).

Dieses Beispiel zeigt, so finde ich, recht deutlich, wie sich der konkret zugelassene WDDF auf die Komplexität des Systems auswirkt: Mehr Freiheit führt zu mehr durch das System darstellbaren Nachrichten.

Man erkennt auch, dass nicht die Form der Codierung eines Zustandes, sondern nur der Zustand selbst (als Abstraktum) zur Zahl der durch das System kodierbaren Nachrichten beiträgt.


Gruß, grtgrt
 

  Beitrag 1951-22
Wie definiert man Systemkomplexität?

 
 
Hi C...,

danke für deinen Hinweis und deine Aufmerksamkeit.

Du hast völlig recht, ich habe meine Vorstellungen über Systemkomplexität durcheinander gebracht und bin so zu einer wenig sinnvollen Antwort auf die Frage nach der Komplexität unseres Gehirns gekommen.

Tatsache ist, wie du ganz richtig sagst, dass ich bisher den Begriff "Komplexität" nur im umgangssprachlichen Sinne verwendet habe.

Andererseits war in meinem Hinterkopf das Wissen vorhanden, dass man für Systeme, auf die der 2. Hauptsatz der Thermodynamik anwendbar ist, den Begriff sehr wohl präzisieren kann:
  • Genau diese Systeme nämlich haben (wenigstens potentiell) Zustände maximaler Entropie — Zustände also, die sämtliche im System vorhandene Information nachrichtentechnisch kodieren. Da sie nun aber in dieser Form exakt quantifizierbar ist, kann man ihren Umfang als die dem System innewohnende Komplexität definieren.
  • Dieses Vorgehen funktioniert aber NICHT mehr für Systeme, in denen die einzelenen Teilchen eingeschränkten oder gar individuell eingeschränkten WDDF haben. Für sie gibt es — nicht einmal mehr potentiell — wenigstens einen Zustand maximaler Entropie. Der nämlich könnte nur dann eintreten, wenn sich die durch den WDDF der einzelnen Teilchen gegebenen Restriktionen auf Nichts reduzieren. Dann aber hätte das System — unser Gehirn etwa — seine Funktionsfähigkeit (und daher auch seine Identität) verloren: In einem Sarg dahinfaulende Gehirnmasse kann man eben nicht mehr als Gehirn bezeichnen.

Langer Rede kurzer Sinn also:

Ich kenne keine präzise Definition für die Komplexität von Systemen,
in denen die Voraussetzungen für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik NICHT gegeben sind.


Damit muss ich meine letzte Aussage in Beitrag 1951-15 ergänzen durch den Zusatz: "Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung gar nichts aus".


Danke nochmals, C..., deine Aufmerksamkeit hat mir wichtige Einsicht beschert.

Mit besten Grüßen,
grtgrt
 

  Beitrag 1959-1
Die genaue Formulierung des Entropie-Gesetzes

 
 


Zustandsentropie und Entropie-Entwicklung geschlossener Systeme


Sei S ein in sich abgeschlossenes System — z.B. unser Universum — und seien weiter Z1 und Z2 zwei diesem System mögliche Zustände.



Man nennt Z2 von höherer Entropie als Z1,

wenn es dem System leichter fällt, sich aus Zustand Z1 nach Zustand Z2 zu begeben als umgekehrt von Z2 nach Z1.



Diese Definition verallgemeinert den 2. Hauptsatz der Thermodynamik ( dessen Voraussetzungen nur für Gase erfüllt sind ) auf ganz beliebige, in sich abgeschlossene Systeme.


Nur diese Definition des Entropie-Begriffs ist verträglich mit beidem:

  • einerseits mit der Aussage, dass die Entropie eines in sich abgeschlossenen Systems stets nur zunimmt (extrem selten auftretende Zustandsübergänge mal ausgenommen)
  • und andererseits auch mit den bekannten Tatsachen,
    • dass sich im Universum Materie zu Klumpen (Planeten, Sternen, Galaxien) gruppiert
    • und kein vom Tisch gefallenes und dann am Boden zerschelltes Ei sich von selbst wieder zusammensetzt.
       
    • Mit der Tatsache also, dass alle im System vorhandenen Teile sich entsprechend der dort ebenfalls vorhandenen Kraftfelder gruppieren unter Berücksichtigung gegebener oder nicht gegebener Freiheitsgrade (automatischer Abbau von Ungleichgewicht).


Gebhard Greiter (grtgrt)
 

  Beitrag 1959-3
-

 
 
Pepe aus 1959-2:
 
Wo siehst Du denn eine Unverträglichkeit zwischen dem 2. Hauptsatz und den Punkten die du nennst?

Wo sich Materie zusammenklumpt, entsteht bleibende Struktur (und somit kybernetisch kodierte Information).
Das steht im Widerspruch zum 2. Hauptsatz der Thermodynamik, nach dem sich ja alle Teilchen im Gesamtsystem immer gleichmäßiger verteilen müssten.

Gruß, grtgrt
 

  Beitrag 1959-5
-

 
 
Henry aus 1959-4:
 
Entropie ist ... das Maß für die Anzahl der möglichen Zustände, die ein System ohne äußere Einwirkung einnehmen kann; und jeder dieser möglichen Zustände ist gleich wahrscheinlich.

Hi Henry,

diese Formulierung deiner letzten Aussage kann so nicht richtig sein, denn wäre sie richtig, würde daraus folgen, dass die Entropie eines Systems eine (für das System spezifische) Konstante wäre.

Das aber kann nicht sein, denn der 2. Hauptsatz der Thermodynamik sieht sie als zustands-spezifische Größe (als Maß für die "Ordnung" bzw. "Unordnung" des Systems, wie du weiter oben ja selbst sagst). Wahrscheinlich aber wolltest du ja sagen:


Je größer die Anzahl möglicher Zustände, die ein System ohne äußere Einwirkung annehmen kann,
desto größer ist die  m a x i m a l e  durch dieses System unterstützte Entropie.


Was nun einen einzelnen Systemzustand betrifft, so würde ich sagen:


Die Entropie eines Systemzustandes Z ist proportional zur Anzahl aller dem System möglichen, von Z nicht unterscheidbaren Zustände.


Meiner Ansicht nach gilt der 2. Hauptsatz der Thermodynamik so aber nur für Gase (noch genauer: nur für ideale Gase). Für andere Systeme muss man ihn differenzierter formulieren, was aber leider nur in wenigen Büchern wirklich passiert.


Gruß, grtgrt


PS: Von Zuständen zu sprechen, die von Z nicht unterscheidbar sind, macht nur Sinn, wenn man den einzelnen Teilchen eine jeweils eigene Identität einräumt (so dass, wenn zwei — die ansonsten wie Zwillinge gleiche Eigenschaften haben — ihren Platz vertauschen, das zu einem neuen Zustand führt). In der Quantenphysik allerdings würde man diese beiden Zustände als ein und denselben betrachten.

Meine Formulierung in Beitrag 1959-1 umgeht dieses Problem (ist also unabhängig davon, ob jemand nicht unterscheidbare Zustände des Systems miteinander identifiziert oder nicht).


 

  Beitrag 1959-10
-

 
 
Henry aus 1959-9:
 
JEDEM Zustand des Systems kann ein Wert der Entropie zugeordnet werden, das ist allein abhängig von der Gesamtzahl ALLER möglichen Zustände und hat nichts mit der Größe der Ordnung in einem System zu tun. Nur scheint es in unserem Kosmos so zu sein, dass die Wahrscheinlichkeit, einen Zustand größerer Unordnung einzunehmen, größer ist als Zustände größerer Ordnung. Das hat aber mit der Anzahl der Zustände zu tun, die eine größere Unordnung repräsentieren, diese Anzahl ist sehr viel größer als die Anzahl geordneter Zustände, und deshalb ist die Wahrscheinlichkeit, in einem "Schnappschuss" in einer Gaswolke einen Zustand von Unordnung zu machen größer als für einen Zustand von Ordnung.

Nachtrag auf eine Gaswolke bezogen: Auch wenn keine anderen Kräfte in der Wolke vorliegen als die kinetischen, also die Bewegung der Moleküle, gibt es eine Wahrscheinlichkeit, dass sich die Gesamtzahl der Moleküle in eine Raumbereich ansammelt und so eine gewisse Ordnung entsteht. Und diese Anordnung hat die gleiche Wahrscheinlichkeit wie jede ander Anordnung auch. Die Wolke befindet sich ständig in einem neuen Zustand, nur lassen sich die einzelnen Zustände wegen der größeren Anzahl von "unordentlichen" Zuständen nicht voneinander unterscheiden.

In der kosmischen Realtät sieht es aber anders aus: Bei entsprechend niedrigen Temperaturen und der Gravitation innerhalb der Gaswolke wird sich eine Gaswolke zusammenziehen und es entsteht ein Stern. Und korrekter Weise dürfte man nicht einfach von "Gaswolken" sprechen, denn es ist natürlich nicht nur Gas, sondern es sind auch Staub in riesigen Mengen und Gesteinsbrocken, die sich in einer solchen Wolke finden.
 

Hi Henry,

so formuliert stimme ich dir zu (ohne jede Einschränkung).


Vielleicht interessiert dich noch, was Andreas Mücklich in seinem Buch "Das verständliche Universum" sagt. Er schreibt dort:

Zitat von Mücklich, aus Seite 51 und 52 seines Buches:
 
Sie [die Entropie beschreibt ganz allgemein, wie wahrscheinlich ein bestimmter Ablauf geschieht. ...

Oft wird die Entropie sehr nachlässig als ein Maß für die Unordnung bezeichnet. Demnach nähme gemäß dem zweiten Hauptsatz der Wärmelehre die Unordnung im Universum ständig zu. Bei dieser oberflächlichen Argumentation kann man sich nur wundern, wie Sterne, Planeten und Leben überhaupt entstehen konnten.

Und doch steht die Entropie diesen Prozessen nicht im Weg, denn sie wird durch den Begriff der Unordnung im Sinne der Gleichverteilung leider nicht ausreichend beschrieben:
  • Für die zusammenstoßenden Teilchen eines idealen Gases mag dies noch korrekt sein. Hier wirken keine Kräfte zwischen den Teilchen, und der wahrscheinlichste Zustand ist ein gleichmäßig durchmischtes Gas.
  • Aber wenn wir Körper betrachten, zwischen denen eine anziehende Gravitationskraft wirkt, so stimmt dieses Bild nicht mehr. Jetzt können Zustände mit höherer Entropie auch klumpiger sein als mit niedriger Entropie. Ein Planet ist demnach ein Körper mit einer höheren Entropie als seine ursprünglichen Bestandteile und keineswegs ein Widerspruch zum zweiten Hauptsatz der Thermodynamik.

Gruß, grtgrt
 

 Beitrag 0-373
Wie sich unsere Erde — und Leben darauf — entwickelt haben

 
 

 
Geschichte der Erde

und des biologischen Lebens darauf

 
 
Kurz nachdem sie entstanden war — vor etwa 4,6 Mrd. Jahren — war unsere Erde ein gluflüssiger Ball mit Oberflächentemperaturen von bis zu 1200 Grad. Es gab da noch keine dauerhafte Atmosphäre, auch keine Ozeane. Die Strahlungsleistung der Sonne betrug nur etwa 70% ihrer heutigen Leistung, steigerte sich aber ständig bis in unsere Tage hinein.
 
Die Oberfläche der Erde kühlte sich langsam ab, und durch Abgasung entstand eine Atmosphäre. Sie war dicht und bestand zum größten Teil aus Kohlendioxid. Der damals noch extrem große Luftdruck glich die geringe Strahlungsleistung der jungen Sonne aus.
 
Nachdem sich die Oberfläche der Erde langsam abgekühlt hatte, konnten sich Erdkruste und erste Kontinente bilden, und schließlich begann ein etwa 1000 Jahre andauernder heftiger Regen, der Vertiefungen in der Erdkruste mit Ozeanen füllte. Zusätzlich wurde durch den nun einsetzenden Silikat-Karbonat-Kreislauf über Verwitterung und Kalkbildung sehr viel Kohlendioxid gebunden, in der kontinentalen Kruste abgelagert und dem atmosphärischen Recycling durch das Abtauchen vieler Teile der Erdkruste dauerhaft entzogen. Genauer:
 


Harald Lesch (2016):
 
So wie das Wetter heute ist, kann es früher nicht gewesen sein. Die Uratmosphäre der Erde war ganz anders: In organischen Sedimenten und in Kalkstein ist der Anteil an Kohlenstoff etwa 100 000 Mal so hoch wie in der heutigen Atmosphäre. Das kann nur bedeuten, dass
  • die sehr dichte und mit Wolken verhangene Uratmosphäre zu etwa 95% aus Kohlendioxid bestand,
  • das bei einem Druck, der 80 bis 100 Mal höher war als der Luftdruck heute
  • und deswegen die Entstehung des Lebens auf der Erde unter ganz anderen Bedingungen stattfand, als wir sie heute kennen:

Der hohe Konzentrationsgehalt an Kohlendioxid verringerte sich zunächst fast ausschließlich durch Verwitterung und den Aufbau von Kalkgestein.
 
Wegen der im Lauf der Erdgeschichte fortschreitenden Evolution trat dann aber die Biosphäre als treibender Motor für den Kohlenstoffkreislauf und die Klimaentwicklung immer stärker in den Vordergrund. Die Menge der Biomasse erhöhte sich gewaltig — vor allem im Zuge der Ausbildung der Waldsysteme.
 
Zusätzlich entwickelten die Primärproduzenten — Bakterien, Plankton und Landpflanzen — immer stabilere Zell- und Stützgewebe. Ihre Zersetzung hat sie nur zum Teil wieder in Kohlenstoff und Wasser zurückverwandelt. Ein eben so großer Teil blieb unzersetzbar und wurde langfristig im Erdboden gespeichert. Aus diesem organischen Material — Kerogen genannt — wurde über die Jahrmillionen hinweg fossiler Brennstoff.
 
    Kerogen ist die häufigste Form von organischen Kohlenstoffen in der Erdkruste. Gelangt das von den Bakterien allmählich gebildete Kerogen tiefer in das Erdinnere, wird zunächst das darin enthaltene Wasser herausgepresst.
     
    Wenn Temperaturen um 100 °C oder mehr herrschen und durch darüber liegende Sedimentschichten größerer Druck aus das Kerogen ausgeübt wird, setzen Stoffumwandlungsprozesse ein, die Erdöl und Erdgas freisetzen. Der größte Teil des Kohlenstoffs auf der Erde ist aber nicht in den fossilen Brennstoffen gebunden, sondern im Kalkstein (CaCO3) und im Schiefer.
     
    Kerogen macht dennoch selten mehr als ein Prozent des Sediments aus, so dass pro Tonne Kerogen 100 Tonnen Gestein abzubauen und 99 Tonnen Asche zu entsorgen wären.

In der Urzeit blieben nur Spuren von Kohlendioxid in der Atmosphäre. Nur ihretwegen ist der Treibhauseffekt nicht völlig zusammengebrochen. Wäre das geschehen, hätte eine dann anbrechende unumkehrbare Eiszeit unseren Planeten für immer zu einem Eisklumpen gemacht.
 


 
Die eben beschriebene Phase der langsamen Abkühlung und des steten Kohlendioxidverbrauchs hielt bis vor etwa 2,5 Mrd. Jahren an — eben so lange, bis das Energiebudget der Erde einen kritischen Wert unterschritt und die erste große Eiszeit einsetzte. Sie dauerte 200 Mio. Jahre. (Zum Vergleich: Die erst viel später, vor etwa 170 Mio. Jahren, entstandene Spezies der Dinosaurier hat nur 135 Mio. Jahre existiert.)
 
Höchstwahrscheinlich handelte es sich nicht um eine durchgehende Eiszeit, sondern um mehrere, sich mit Warmzeiten abwechselnde Folge von Vereisungsphasen, während derer die bakterielle Produktion ebenso wie die chemische Verwitterung jeweils fast zum Stillstand kam und der Kohlendioxid-Wert der Atmosphäre wieder anstieg, so dass sie wärmer wurde und die Vereisung zum Stillstand brachte.
 
Dieses Wechselspiel wiederholte sich, bis die Sonneneinstrahlung, die inzwischen auf etwa 85% ihres heutigen Wertes angestiegen war, den Mangel an Kohlendioxid wieder ausglich.
 
Zu Ende jener großen Eiszeit traten erstmals Sedimente auf, die durch Schichtungen und Ablagerungen entstanden waren. Da sie auffällig rote Farbe hatten, nimmt man an, dass hier erstmals der Sauerstoff frei in der Atmosphäre vorkam, denn die rote Farbe der Sedimente ergibt sich schlicht und einfach durch Rost, d.h. durch Eisen, welches freiem Sauerstpff ausgesetzt ist.
 
 
Nun, vor etwa 2,5 Mio. Jahren, kam es zur nächsten großen Veränderung der Erde — wieder getrieben durch einzellige Lebewesen: Die Photosynthese war entstanden. Sie brachte nahzu dramatische Veränderungen mit sich.
 
    Die Photosynthese ist ein physiologischer Prozess zur Erzeugung von energiereichen Biomolekülen aus energieärmeren Stoffen mithilfe von Lichtenergie. Er wird von Pflanzen, Algen und einigen Bakterien in Gang gesetz und getrieben.

Zunächst hielt damals vor allem der Stoffwechsel der Bakterien den Kohlendioxidanteil der Atmosphäre auf einem Vielfachen, etwa dem 20-fachen seines heutigen Wertes.
 
Der Sauerstoffanteil in der Atmosphäre und im Oberflächenwasser der Ozeane stabilisierte sich auf etwa das 0,5 bis 1 Prozent seines heutigen Wertes und lies so vielfältige Stoffwechselwege — mit und ohne Sauerstoff — zu.
 
Zudem entstanden autotrophe Bakterien. Es sind dies solche, die auf organische Stoffe verzichten und anorganische Substanzen in körpereigene organische verwandeln können. Autotroph sind
 
  • die grünen Pflanzen (sie ernähren sich von Mineralien und Photosysthese)
  • und viele Zellen ohne Zellkern, die sog. Prokayoten.

Andererseits erschienen zum ersten Mal heterotrophe Organismen, die zum Aufbau ihrer Zellsubstanz und ihren Energiestoffwechsel organisches Substrat (= Kohlenstoffverbindungen) benötigen, was sie von der Existenz anderer Lebewesen abhängig macht. Heterotroph sind
 
  • die meisten Bakterien,
  • aber auch sämtliche die Pilze und Tiere.

 
Von nun an hieß es » Fressen und gefressen werden «. Die Bakterien entwickelten die Fähigkeit, sich zu vielzelligen, aber überwiegend undifferenzierten Aggregaten zusammenzuschließen.
 
Den entscheidenden Impuls für solche Höherentwicklung gab der nun möglich gewordene Einbau heterotropher und autothropher Bakterien als funktionale Einheiten in andere bakterien.
 
Durch solche Kooperation entstanden vor etwa 2,3 Mio Mrd. Jahren tierische und pflanzliche Eukaryoten mit deutlich stabileren Zellwandstrukturen als bei den bakterien. In der Folgezeit wurde durch die gesteigerte organische Produktion und Einbettung der zersetzungsresistenten Zellwandstrukturen in die Erdkruste der Atmosphäre erneut viel Kohlöendioxid entzogen. Noch verstärkt wurde dieser Trend durch die vor etwa 1,5 Mrd. Jahren auftauchenden mehrzelligen Organismen.
 
Vor etwa 900 bis 600 Mrd. Jahren vermehrten sich Bakterien und Plankton ganz enorm, und zudem begann das langsame Aufblühen der Algen. Die damit einhergehende Verringerung des atmosphärischen Kohlendioxids hat das Erdklima deutlich abgekühlt. Diese Eiszeitperiode — obgleich auch durch längere Warmzeiten unterbrochen — war vermutlich die gravierendste, die es je auf der Erde gab. Selbst niedrige Breiten bis fast hin zum Äquator waren betroffen. Sie endete vor 580 Mio Jahren.
 
Die Sonne strahlte damals schon mit 96% ihrer heutigen Kraft.
Der Kohlendioxid-Gehalt der Atmosphäre war damals nur noch 15 bis 20 Mal höher als heute.
 
Der Sauerstoffgehalt der Luft betrug schon einige Prozent und erlaubte so vielfältiges pflanzliches und tierisches Leben.
 
In diese Phase viel auch die Entwicklung der Hartteile — Knochen, Kalkschalen und pflanzliches Stützgewebe —, was in der Folgezeit zu einer starken Zunahme der Artenvielfalt und Individuengröße geführt hat.
 
 
Die nächste Vereisungsperiode war weniger gravierend und auf die Südpolregion beschränkt. Ursache für sie war wohl, das vor ca. 450 Mio Jahren Landpflanzen ent­standen, die dann schnell das Festland eroberten. Zu dieser Zeit sank der Kohlendioxidgehalt der Atmosphäre auf nur noch etwa das 10-fache seines heutigen Wertes.
 
Schon bald nach der ersten Besiedlung des Festlandes durch Landpflanzen entstanden vor etw 400 Mio Jahren verholzte Gewächse, die bald Bäume und ganze Wald­kolonien bildeten. Hierdurch wuchs die Biomasse nochmals stark an auf Kosten des Kohlendioxid-Gehalts der Atmosphäre.
 
Vor etwa 300 Mio Jahren näherte sich der Sauerstoffgehalt der Atmosphäre seinem heutigen Wert. In diese Zeit fällt eine vierte Vereisungsperiode, die weite Teile des damaligen Südkontinents Gondwana betraf.
 
Durch Kollision der Kontinente formte sich schließlich der Superkontinent Pangäa.
 
Ab da kamen die plattentektonische Aktivität in der Erdringe für einge Zeit zum Stillstand, was den Kohlendioxid-Ausstoßm durch Vulkanismus verringerte ind den Treibhauseffekt abschwächte.
 
 
Vom ausgehenden Erdaltertum vor 270 Mio. Jahren bis vor etwa 35 Mio. Jahren gab es kaum noch Vereisungen. Eine wichtige Rolle beim Produzieren von Kohlendioxid durch Recycling des organischen Materials übernahm jetzt die damals entstehende Landtierwelt (Amphibien, Reptilien, Insekten, ...). Zudem wirkten sich auf das Klima aus
  • die stärker gewordene Sonneneinstrahlung
  • und auch die mit dem Zerbrechen von Pangäa einhergehende Erhöhung vulkanischer Aktivitäten, die Kohlendioxid ausstießen.

Solange Pangäa existierte (bis vor etwa 180 Mio Jahren) war das Klima extrem kontinental geprägt und die Kontinente von riesigen Wüstengebieten durchsetzt.
 
Nach dem Zerbrechen von Pangäa wurde das Klima warm und feucht bis in hohe Breiten hinauf. Diese Periode erreichte vor etwa 100 Mio Jahren ihren Höhepunkt mit Temperaturen von 14 bis 16 Grad Celsius im tiefen Ozean.
 
Damals setzten sich im Meereswasser die Phytoplankontypen durch (Kieselalgen, Grünalgen und Blaualgen) und auf dem Land die Blütenpflanzen.
 
 
Wie wir rekapitulierend feststellen, hat immer wieder der Gehalt an Kohlendioxid in der Atmosphäre eine ganz wesentliche, stark steuernde Rolle gespielt. Wer heute über den Klimawandel nachdenkt (der diesen Gehalt massiv beeinflusst), sollte das nicht vergessen.
 
 
 
Quelle: Lesch & Kummer: Wie das Staunen ins Universum kam, Patmos-Verlag 2016, S. 170-176


 

 Beitrag 0-163
Was zum — sehr plötzlichen — Aussterben der Saurier geführt hat

 
 

 
Was (wahrscheinlich) das Aussterben der Saurier verursacht hat

 


Mathias Bröckers, 1998 :
 
1980 erschien eine Arbeit des Nobelpreisträgers Louis Alvarez und seiner Mitarbeiter in der Zeitschrift » Science «, in der die bisher plausibelste Erklärung für das Aussterben der Saurier präsentiert wurde:
 
Die Autoren, darunter auch sein Sohn Walter Alvarez, gehen davon aus, dass am Ende der Kreidezeit — vor etwa 65 Mio Jahren — ein riesiger Astereoid auf der Erde einschlug: ein Himmelkörper von etwa 10 km Durchmesser, der
     
  • mit einer Geschwindigkeit von etwa 20 km/sec auf der Höhe von Yukatan (Mexiko) ins Meer stürzte
     
  • und hierbei etwa das 5-Milliardenfache der Sprengkraft der Hiroshima-Bombe freigesetzt haben könnte.

Nach Vorstellung der Autoren müssten sich die Staubwolken der Explosion auf der gesamten Erde verbreitet haben und müssten — anhand von Gesteins­ablagerungen — selbst heute noch nachweisbar sein: vor allem Iridium, ein Material, das auf der Erde kaum vorkommt, aber Bestandteil von Astereoiden ist.
 
Und in der Tat: Eben diesen Nachweis von Iridium in den entsprechenden Gesteinsschichten an vielen Stellen der Erde konnten sie erbringen.
 


 
 
Quelle: Mathias Bröckers: Das sogenannte Übernatürliche, Eichborn 1998, S. 250-251

 
Der Einschlag eines Asteroiden vor 65 Millionen Jahren gilt als gesichert, allerdings gab es zu dieser Zeit auch eine Phase intensiven Vulkanismus im Hochland von Dekkan (Indien). Die dabei freigesetzten Staubteilchen und Asche könnten zu einer starken Absorption des Sonnenlichtes geführt haben und damit zu einer globalen Abkühlung. Einige Hypothesen gehen sogar davon aus, dass dieser Vulkanismus mit dem Asteroideneinschlag in Verbindung stehen könnte, also praktisch durch ihn ausgelöst wurde.
 
Das Aussterben der Dinosaurier vor 65 Mio Jahren ist nicht die einzige Episode von Massensterben in der Erdgeschichte. Innerhalb der vergangenen 500 Mio Jahre gab es mehrere Einschnitte, bei denen jeweils bis zu 80 Prozent allen tierischen und pflanzlichen Lebens vernichtet wurde.
 
Dass die Gattung » Mensch « die nächste dieser planetarischen Katastropen überleben wird, kann bezweifelt werden.

 

 Beitrag 0-104
Lässt sich vergangenes Geschehen — seinem Ergebnis nach — auch nachträglich noch beeinflussen?

 
 

 
Ist vergangenes Geschehen — seinem Ergebnis nach —

durch späteres Geschehen beinflussbar?

 
 
Ich persönlich kann mir das nur schwer vorstellen.
 
Dennoch muss ich zur Kenntnis nehmen, dass gelegentlich auch Wissenschaftler, die absolut seriös zu arbeiten scheinen oder — wie Anton Zeiliger etwa — ganz sicher absolut professionell arbeiten, der Meinung sind, Anzeichen dafür gefunden zu haben, dass das Resultat gewisser Experimente nicht unabhängig war von Ereignissen, die erst stattfanden,  n a c h d e m  jene Resultate schon produziert waren.
 
 
Genauer: Einzelne Biologen, Verhaltensforscher und gelegentlich auch Quantenphysiker denken beobachtet zu haben, dass ein durch sie betrachtetes Geschehen seinem Ergebnis nach durch ein erst später stattgefundenes Geschehen mit beeinflusst worden sein muss.
 
Sie gehen davon aus, dass dieser Einfluss auf quantenphysikalischer Ebene stattfand und ihre Experimente statistisch signifikant seien.
 
Soweit Biologen, Mediziner oder Verhaltensforscher von solchen Experimenten berichten (und als seriös erscheinen), sind es stets Experimente, die mit der Funktion unseres Unterbewusstseins zu tun hatten.
 
 
Im Folgenden seien einige solcher Beobachtungen aufgelistet:

     
  • Anton Zeiliger (wörtlich in 2012): ... Das bedeutet letztlich, dass ein Quantencomputer in der Vergangenheit mit einem Problem zu rechnen beginnen kann
    von einem Input, der erst in der Zukunft existiert.

     
    Zeilinger bezieht sich hier auf ein Experiment, über das er und 5 seiner Mitarbeiter berichten in Nature Physics 8, 479–484 (2012): Experimental delayed-choice entanglement swapping.
     
     
  • Vordatierung von Sinnesreizen: In 1990 von Benjamin Libet durchgeführten Experimenten soll — gut reproduzierbar — das subjektive Erleben eines Hautreizes im Durchschnitt schon etwa 50 ms  v o r  der tatsächlichen Reizung aufgetreten sein (siehe hier).
     
    Zitiert aus Gerhard Roth: Bewusste und unbewusste Handlungssteuerung aus neurobiologischer Sicht, Seite 75-111 in: Geisteswissenschaften und Innovationen, Frieder Meyer-Krahmer und Siegfried Lange (Hrsg.), Springer 1999.
     
     
  • Ergebnis eines Experiments durchgeführt von Daryl Bem (Cornell University, 2010): Probanten erinnerten sich in einem Erinnerungstest mit höherer Wahr­scheinlichkeit genau an jene Wörter, die sie erst später aufgrund einer zufallsgenerierten Vorgabe am Computer abschreiben sollten.
     
    Diese Fähigkeit des » Vorhersehens « konnte in einem anderen Test bestätigt werden.
     
     
  • Schon lange ist bekannt, dass Wortkommentare zu einem Bild, die extrem kurz eingeblendet werden — kürzer als das Bewusstsein sie wahrnehmen kann — die Bewertung des Bildes durch einen Beobachter beeinflussen: Wurde z.B. in ein mit groben Strichen gemaltes Landschaftsbild eines der Worte schön oder hässlich eingeblendet, haben Betrachter es hinterher in der Tat mehrheitlich als schön bzw. hässlich eingestuft. Solch sublimal primings wurden in der Werbung verboten, da die Käufer damit manipuliert werden könnten.
     
    Im Test wurde dieses bekannte Verfahren abgeändert: Nun sollten die Probanten das Bild beurteilen, bevor das bewertende Wort eingeblendet wurde. Und tatsächlich wurden die Bilder, zu denen erst später eine bestimmte Bewertung eingeblendet wurde, schon vorher von den Zuschauern entsprechend beurteilt. Es war, als wisse das Bewusstsein schon beim Anblick des Bildes, welches Wort später eingeblendet werden sollte.
     
    In weiteren Tests kam es zu identischen Ergebnissen: Ganz normale Menschen konnten mit einer Signifikanz leicht über der Zufallsquote künftige Ereignisse vorhersehen. Die Effektgrößen EG (eine Bewertungsgröße zur Wahrscheinlichkeit des Eintreffens der Ereignisse) lagen höher als bei einer Reihe wissenschaft­lich anerkannter kausaler Effekte, etwa der Verwendung von Kondomen und der Senkung von HIV-Infektionen oder dem Passivrauchen und dem Lungen­krebsrisiko.
     
    In den Versuchen von Daryl Bem und seinem Team an der Cornell University wurde auch klar, dass es Personen gibt, die eine besonders hohe Trefferquote zeigen (eine bis hin zum Doppelten der durchschnittlichen Quote).
     
     
  • In rund 87.000 Experimenten der Forschungsgruppe Princeton Engineering Anomalies Research (PEAR) an der Princeton University sollten Probanden den zufälligen Ausstoß der beiden Möglichkeiten Kopf oder Zahl mit ihren Gedanken so verändern, dass eine Richtung vorherrschte — und das Tage (bis zu 2 Wochen)  n a c h d e m  die Geräte gelaufen waren.
     
    Und das gelang tatsächlich in signifikanter Weise, so dass die Experimentatoren zum Schluss kamen: Gedanken können über Raum und Zeit hinweg Effekte auslösen, die ihren Ursprung in der Vergangenheit haben.
     
    [Jahn et al. 1997: Correlation of random binary sequences with pre-stated operator intention: A review of a 12-year program, in: Journal of Scientific Exploration 11 (3), 345-367]
     
     
  • Experimente des Physikers Hellmut Schzmidt von Lockheed Martin waren noch ausgefeilter und erbrachten gleiches Ergebnis:
     
    • Ein Zufallsgenerator wurde an ein Stereo-Audio-Gerät angeschlossen, und Klicklaute wurden auf Band aufgezeichnet, ohne dass irgend jemand zuhörte (Originalband). Die Klicks wurden zufällig etwa gleichmäßig auf den rechten und linken Kanal verteilt.
    • Das Original wurde kopiert und weggesperrt.
    • Die Kopien wurden an Studenten gegeben, die mit Kopfhörern die Bänder abhörten und die Absicht einbrachten, mehr Klicks am linken Ohr zu hören.
    • Gleichzeitig wurden unabhängig von den ablaufenden Kopien mit dem Audiogerät und dem Zufallsgenerator Kontrollbänder aufgezeichnet, ohne dass jemand zuhörte.

    Die Auswertung von gut 20.000 solcher Versuche (von 1971-1975) ergab, dass in 55% der Fälle auf dem nicht abgehörten Originalband ebenso wie auf den abgehörten Kopien mehr Klicks auf dem linken Kanal vorhanden waren. Auf dem Kontrollband war die Zufallsverteilung aber geblieben.
     
    [Schmidt und Stapp, 1993: Study of PK with pre-recorded random events and the effects of pre-observation in: Journal of Paraphsychology 57: 351]
     
     
  • Dass es Rückwärtsverursachung durch Intention tatsächlich gibt, belegen auch Experimente der Physiker Dick Biermann und Joop Houtkoper (Universität Amsterdam), welche zeigen: Die Intention kann in der Zeit rückwärts wirken, d.h. vergangene Ereignisse sind ihrem Ergebnis nach rückwirkend beeinflussbar.
     
    Dies passiere — so denkt Ulrich Warnke — zu genau dem Zeitpunkt, an dem bestimmte Eigenschaften oder Verhaltensmuster allgemein sichtbar in Erscheinung treten, aber nur dann, wenn die betroffenen Eigenschaften des Systems zwischendurch nicht irgendwie » beobachtet « bzw. abgerufen wurden.
     
    Ich denke nicht, das man das so sagen kann. Warnke geht — das zeigen andere Stellen in seinem Buch, etwa solche auf Seite 138 — von einem falschen Verständnis der Kopenhagener Interpretation aus: Er versteht sie allzu wörtlich und berücksichtigt nicht den historischen Kontext, in dem sie entstand.
     
    [Biermann und Houtkoper, 1975: Explanatory PK tests with programmable high speed random number generator in: European Journal of Parapsychology 1 (1): 3-14]

 
Note: All diese Beispiele fand ich im Buch Quantenphilosophie von Ulrich Warnke (S. 111-121).
 
Es werden dort noch 3 oder 4 weitere genannt, die mir aber deutlich weniger überzeugend erscheinen, da, was dort beobachtet wurde, sich auch rein zufällig so ergeben haben könnte.


 

 Beitrag 0-328
Zum Wert der Wissenschaft — und warum man auch sie kritisch zu hinterfragen hat

 
 

 
Wissenschaft ist ...
 
 
nicht deshalb vertrauenswürdig, weil sie immer recht hätte,
 
sondern weil sie uns stets die  b e s t e n  Antworten liefert, die bisher gefunden wurden.

 

 

 Beitrag 0-181
Geist und Materie — wie sie sich definieren

 
 

 
Geist und Materie

 
 
Ganz offensichtlich besteht all unsere Realität aus Geist und Materie, wobei
 
  • ein  m a t e r i e l l e s  Objekt  eines ist, dem sich Impuls und Energie zuordnen lassen,
     
  • ein  g e i s t i g e s  Objekt  aber stets nur als Bewusstseinszustand in den Köpfen biologischer Wesen existieren kann.

Da sich geistige Objekte in mündlicher oder schriftlicher Form weitergeben lassen, ist klar, dass sie in Form von Nachrichten existieren können, die sich materiellen Objekten aufprägen lassen und dann (als Form) durch sie zwar nicht verstanden, aber doch über Zeit und Raum hinweg transportiert werden können.
 
Bevor es Menschen gab — Wesen mit Bewusstseinszustand — gab es keine geistigen Objekte ( oder vielleicht doch? ).
 
Wo z.B. ein Wolf sein Revier durch Urin markiert, spätestens aber dann, wenn er so eine Markierung findet, existiert ganz sicher auch ein geistiges Objekt.

 
 
Quelle der Definition: Josef Hohnerkamp: Was können wir wissen? (Springer 2013, Kap.7: Wandlungen des Materiebegriffes)

 

 
Harte und weiche Naturwissenschaft

 
 
Es wundert mich immer wieder, wie schwer es manchen Menschen fällt, den Unterschied zwischen Naturwissenschaft und Geisteswissenschft zu erklären.
 
Welch ausweichende Antworten man da bekommt, zeigt sich z.B. auf gutefrage.net in [1] und [2].
 
Selbst wer ernsthaft versucht, eine zu geben (wie etwa Michael Blume), produziert zwar interessante, meist aber doch recht umständliche Erklärungen.
 
Daher hier nun meine eigene Antwort:
 
 
Es gibt Wissenschaften — ich nenne sie die harten Naturwissenschaften —, die sich ausschließlich mit Materie befassen: Physik, Chemie, Biologie, Neurologie und natürlich sämtliche Ingenier-Wissenschaften.
 
Daneben gibt es die reinen Geisteswissenschaften — die also, die sich nur mit geistigen Objekten befassen: Mathematik, Erkenntnistheorie, und Sprachwissenschaft.
 
Die meisten Wissenschaften allerdings sind ganz klar Mischformen, die sich grob — aber doch nicht ausschließlich — mit Geistigem oder Materiellem befassen: Psychologie, Medizin, Wirtschaftswissenschaft, Geschichte und — als Extremfall — die Philosophie (die ja einfach nur nach Wahrheit und Erkenntnis sucht).
 
Künstler verbinden sogar ganz gezielt Materielles mit Geistigem.
 
 
Mein Fazit also:

 
Es gibt keine klare Trennung von Naturwissenschaft und Geisteswissenschaft.
 
Verwunderlich ist das nicht, denn Teil der Natur sind auch die geistigen Objekte.
 
 
Die Natur umfasst mehr — weit mehr — als nur materielle Objekte.
 

 
 
Gebhard Greiter, Jan 2016

 

 Beitrag 0-186
Warum man heute selbst das Licht noch als Materie einstuft

 
 

 
Was gilt heute als Materie?

 
 
Heute gilt als Materie tatsächlich alles, was Energieträger ist — sogar das Licht.
 
Das war nicht immer so, doch wie es dazu kam, erklärt der Physiker Prof. em. Josef Hohnerkamp so:
 


Hohnerkamp (2013, stark gekürzt):
 
Der englische Naturforscher Isaac Newton stellte fest, dass es bei verschiedenen Körpern auch einer verschiedenen Kraftanstrengung bedarf, ihre Bewegung zu ändern. Er führte als Maß für solche Trägheit den Begriff Masse ein und postulierte auch gleich, dass jene Masse dafür verantwortlich sei, dass Körper sich gegenseitig anziehen. Fortan galt die Eigenschaft, Masse zu besitzen, als Spezifikum materieller Objekte (und auch heute findet man das oft so formuliert, z.B. in Wikipedia).
 
Materielle Objekte sind danach alle Objekte, die Masse besitzen und daher Trägheit bei Bewegungsänderung zeigen sowie von anderen Objekten gleicher Art angezogen werden.
 
Erst Einsteins Allgemeine Relativitätstheorie mache uns klar, dass dazu auch Licht gehört und man das Wort » Masse « besser durch » Energie « ersetzt, da ja Masse im Sinne Newtons nicht notwendig Ruhemasse ist.
 
 
Was aber wurde nun aus dem Begriff » Materie « ?
 
Offensichtlich bestehen alle Objekte, die man vor Einstein als materiell bezeichnet hatte, aus Elementarteilchen, d.h. aus Quanten. Auch das Licht — sich uns als Welle eines elektromagnetischen Feldes zeigend — ist auf mikroskopischer Ebene ein Strom von Quanten.
 
Somit musste man sich neu überlegen, was denn nun das Spezifikum eines materiellen Objekts sein solle.
 
 
Mit Hilfe der Relativitätstheorien und der Quantenphysik ist leicht einzusehen, wie die Definition des Begriffs » Materie « abzuwandeln ist, um diesen neuen Einsichten Rechnung zu tragen:
 
 
Was ein materielles Objekt kennzeichnet, ist nicht die Eigenschaft (Ruhe-) Masse zu haben,
 
sondern die Eigenschaft Energieträger zu sein.

 
 
Aber nicht nur das: Wer die Spezielle Relativitätstheorie kennt, der weiß, dass die Energie immer zusammen mit einem Impuls auftritt, diese beiden Größen also ebensowenig von einander trennbar sind wie Zeit von Raum.
 
Demnach sagt die Physik heute:
 
Materielle Objekte sind alle,
 
denen sich ein Energie-Impuls-Vektor zuordnen lässt.

 
 
Note: Da sich die neue Sprechweise noch nicht überall durchgesetzt hat — und alte Schriften ohnehin nicht abänderbar sind — wird häufig noch von Masse gesprochen, wo eigentlich Materie bzw. die sie darstellende Energie gemeint sind.

 
Sie ist relativ, d.h. aus der jeweils subjektiven Sicht unterschiedlicher, relativ zueinander bewegter Bezugssysteme heraus unterschiedlich groß.
 


 
Quelle: Josef Hohnerkamp: Was können wir wissen? (Springer, 2013), S. 53-59

 
 
 
Nicht-Pysiker verstehen unter Materie deutlich weniger: Für sie ist Materie nur das, was Summe von Elementarteilchen ist, die Ruhemasse haben (sich also nicht mit Lichtgeschwindigkeit bewegen können).

 

 Beitrag 0-137
Raum, Zeit und alles darin Existierende lassen sich nicht voneinander trennen

 
 

 
Raum, Zeit und alles darin Existierende

formen einander

und sind deswegen untrennbar miteinander verwoben

 
 
Wie Einsteins Gravitationstheorie zeigt, bestimmen nicht nur Massen, sondern z.B. auch elektromagnetische Felder — jede Verteilung von Energie — nach Maßgabe seiner Feldgleichungen die Metrik der Raumzeit.
 
Die erste Prüfung für Einsteins Gleichung war natürlich die Frage, ob man Newtons Gravitationsgesetz dort als Näherung wiederfindet. Da sich nun aber für einzelne materielle Körper — beispielsweise unser Sonnensystem — das Gravitationsfeld nach Maßgabe von Einsteins Feldgleichung relativ leicht errechnen lässt, zeigte sich schnell,
  • dass der Hauptterm der Lösung tatsächlich Newtons Gesetz ist
     
  • und dass die zusätzlichen Terme, die über diese Näherung hinausgehen, sogar noch ein altes Problem der Himmelsmechanik lösen:
     
    Bei den Berechnungen der Bahn des Planeten Merkur mittels Newtons Gesetz hatte sich bezüglich seiner Wanderung des sonnennächsten Punktes im Raum (der sog. Periphereldrehung) stets eine kleine Diskrepanz zur Beobachtung ergeben. Berücksichtigt man nun aber die zusätlichen Terme, so verschwindet sie.

Weitere Test waren erfolgreich und sind ausführlich diskutiert worden.
 
Beide — die spezielle wie auch die allgemeine Relativitätstheorie — gelten heute als etabliert und finden vielfältige Anwendung: Die GPS-Navigationsgeräte unserer Autos, Flugzeuge und Schiffe etwa würden ohne sie nicht funktionieren.
 
 
Damit sind nun nicht mehr nur Raum und Zeit untrennbar miteinander verwoben, sondern auch alle materiellen Dinge und alle Energie tragenden der Welt mit der Raumzeit.
 
Insbesondere sehe ich (Gebhard Greiter) in der Tatsache, dass erst Einsteins Theorie GPS-Geräte hinreichend genau macht, einen überzeugenden Beweis dafür, dass nicht einfach nur unser Zeitgefühl — welches ja relativ ungenau ist — die Zeit konstruiert.
 
 
Die Aussagen der Realativitätstheorien über Raum und Zeit haben unter denen, die diese Theorien studiert oder anhand von Experimenten überprüft haben, große Begeisterung hervorgerufen.
 
Dennoch gab es unter Philosophen, Theologen, ja selbst Physikern auch heftigen Widerspruch. Die Tatsache nämlich, dass Einstein aus einem physika­lischen Prinzip (dem Äquivalenprinzip) etwas über Raum und Zeit folgern konnte, das empirische Bestätigung fand, stand im Widerspruch zu Aussagen von Kant, nach denen weder Raum noch Zeit empirische Begriffe seien, sondern lediglich Formen des Anschauens, die — wie Kant überzeugt war — noch "vor aller Wahrnehmung eines Gegenstandes in uns angetroffen werden".
 
Von Philosophen wurden unterschiedlichste Versuche unternommen, damit fertig zu werden. Details dazu findet man in Hentschel K.: Interpretationen und Fehl­inter­pretationen der Allgemeinen Relativitätstheorie durch Zeitgenossen Albert Einsteins (Birkhäuser 1990).
 
 
Quelle: Josef Honerkamp: Wissenschaft und Weltbilder, Springer 2015, S. 211-213


 

 Beitrag 0-319
Wie sich Raum definiert

 
 

 
Wie sich Raum definiert

 
 
Der Physiker Paul Davies schrieb:
 
Die Kosmologen haben lange darum gerungen, wie man die Expansion des Universums mit einfachen Worten am besten erklären kann. Für Laien am ehesten verständlich könnten folgende vier Aussagen sein:
     
  • Der Raum befindet sich im Universum — nicht umgekehrt das Universum im Raum.
     
  • Der Urknall fand überall im Raum statt — nicht nur an einem bestimmten Punkt.
     
  • Er bestand in der schlagartigen Ausdehnung des Raumes — war also nicht einfach nur eine Explosion irgendwo im Raum.
     
  • Das expandierende Universum gleicht einem Hefeteig, der aufgeht. Die Abstände von Rosinen darin (der Galaxien) vergrößern sich dadurch ständig.

 
Etwas genauer noch lässt sich sagen:

 
Die Tatsache, dass Raum existiert, bedeutet nichts anderes, als dass
 
zueinander disjunkte Objekte zum Austausch von Information Zeit benötigen.

 
 
Ihr Abstand ist proportional zur Zeit, die jedes Signal  m i n d e s t e n s  benötigt, um von einem der Objekte zum jeweils anderen zu kommen.

 
Kein Signal kann schneller sein als ein Lichtsignal.

 
Damit ist eine Eigenschaft des Lichts dafür verantwortlich, dass Zeit und Raum existieren.

 
Unter dem Urknall versteht man ein Ereignis, welches die so definierten Abstände aller damals existierenden Objekte fast schlagartig um mindestens den Faktor 1050 vergrößert hat.

 

 Beitrag 0-433
Der Zeitpunkt, zu dem — aus Sicht der Physik — ein Ereignis eintritt

 
 

 
Der Zeitpunkt, zu dem ein Ereignis eintritt

 
 
Der Zeitpunkt, zu dem ein Ereignis E durch einen Beobachter B beobachtet wird — in dem Sinne, dass ihn Licht oder eine Gravitationswelle erreicht, das bzw. die durch E abgestrahlt wurde — ist der Zeitpunkt, zu dem sich E frühest möglich dem B bekannt gemacht haben kann.
 
Wer weiß, wie lange diese Nachricht unterwegs war — d.h., wer weiß, wie weit Ort(B) von Ort(E) in räumlicher Hinsicht entfernt ist — wird wissen, wann E eintrat.
 
Kein Signal kann sich schneller ausbreiten als Licht im Vakuum.
 
 
 
Der Endlichkeit der Lichtgeschwindigkeit wegen hat das folgende Konsequenzen:
 
 
Die Zeit eines Objektes X, welches sich von einen Beobachter B weg bewegt, wird — aus Sicht von B — langsamer vergehen als seine eigene Zeit.
 
Die Zeit eines Objektes X, welches sich auf einen Beobachter B zu bewegt, wird — aus Sicht von B — schneller vergehen als seine eigene Zeit.
 
 
Mit » aus Sicht von B « ist hier die rein nur beobachtungstechnische Sicht gemeint.

 
 
 
Nebenbei noch:

 

 Beitrag 0-144
Die zentralen Aussagen von Einsteins Relativitätstheorie

 
 

 
Spezielle Relativitätstheorie sagt:

 
 
Unabhängig vom Zustand eines Beobachters wird das Licht sich relativ zu ihm mit stets gleicher Geschwindigkeit bewegen. Daraus folgt:
 
Sind A und B zwei relativ zueinander bewegte identisch gebaute Objekte, die jeweils identisch gebaute Uhren enthalten, so werden — nur aus Sicht von B
     
  • die Uhr von A langsamer gehen als die Uhr von B,
     
  • alle Abstände auf A in Bewegungsrichtung verkürzt sein
     
  • und A — wieder nur aus Sicht von B — mehr Masse haben als B.

Diese Unterschiede sind nur beobachtungstechnisch begründete Unterschiede, die zustande kommen, weil die Lichtgeschwindigkeit endlich ist.
 
Dies nämlich bewirkt, dass fern vom Beobachter eintretende Ereignisse ihm erst als etwas später eingetreten erscheinen und dieser Zeitverzug umso größer sein wird, je weiter entfernt vom Beobachter das Ereignis stattfindet.
 
Und natürlich gilt, dass umgekehrt aus Sicht von A
     
  • die Uhr von B langsamer geht als die von A,
     
  • alle Abstände auf B in Bewegungsrichtung verkürzt sind
     
  • und B mehr Masse hat als A.

Mehr dazu findet sich erklärt auf Seite » Relativitätstheorie beschreibt beobachterspezifische Realität «.
 
 
Konsequenz aus all dem:

 
Jede Quantifizierung von Zeit oder Masse (= Objektenergie) ist relativ,
 
d.h. abhängig davon, wie sich das beobachtete Objekt relativ zum Beobachter bewegt.

 
 
Beweis: Die Objektenergie ergibt sich als Summe der Bewegungsenergie des Objekts (die relativ ist, da alle Geschwindigkeit relativ ist) und der Ruheenergie des Objekts (welche seine Ruhemasse multipliziert mit dem Quadrat der Lichtgeschwindigkeit ist).

 
 
Wichtiger Hinweis:
    Wer von » Masse « spricht, kann damit entweder die relativistische (reale) Masse eines Objekts meinen (wie wir hier) oder seine Ruhemasse. Nur letztere ist aus Sicht aller Beobachter — d.h. bezogen auf jedes Bezugssystem — gleich.
     
    Einstein hat dafür plädiert, nur die Ruhemasse als Masse zu bezeichnen (siehe Wechsel im Wortgebrauch).
     
    Wer sicher sein möchte, immer richtig verstanden zu werden, der sollte den Begriff » Masse « gar nicht mehr gebrauchen, sondern einfach nur noch die Begriffe Energie und Ruhemasse.

 
In » The Concept of Mass in the Einstein Year « liest man (zu Beginn von Kapitel 5 auf Seite 16):

L.B. Okun (2006, 2008):
 
The relation discovered by Einstein is not  E = mc2 , but  E0 = mc2 , where E0 is the energy of a free body at rest introduced by Einstein in 1905.

 


Lies mehr dazu auf Seite » Relativistische Dynamik «


 

 Beitrag 0-432
Auch Druck erzeugt Gravitation

 
 

 
Auch Druck erzeugt Gravitation



John Barrow (Zitat):
 
Nach Einsteins Gravitationstheorie sind alle Formen von Energie Quellen von Gravitationskraft — auch Druck.
 
Es ist also paradoxerweise so, dass der Druck, der sich in von Gravitation zusammengepresster Materie aufbaut, die Kontraktion der Materie nicht zum Halten bringen kann, sondern sie sogar noch beschleunigt und damit den Augenblick "unendlicher" Dichte schneller herbeiführt.
 


 
Quelle: John D. Barrow: Das Buch der Universen (2011), S. 184

 
 
Wenn Fermionen (z. B. Protonen, Elektronen oder Neutronen) in Sternen zu großer Dichte konzentriert sind, tritt der Gravitation, die nach innen wirkt und zu höherer Dichte führt, ein Entartungsdruck (auch: Fermi-Druck) entgegen. Der Entartungsdruck wirkt dem Gravitationsdruck entgegen und hat seine Ursache im Pauli-Prinzip, das verbietet, dass zwei Fermionen einen identischen Quantenzustand annehmen können.
 
 
In einem Doppelsternsystem kann ein Weißer Zwerg durch einen Akkretionsfluss von seinem Begleitstern weiter anwachsen. Wenn seine Masse dabei die Chandrasekhar-Grenze erreicht, kann der Entartungsdruck den Gravitationsdruck nicht mehr kompensieren. Man könnte daher annehmen, es entstünde dann ein Neutronenstern. Stattdessen kommt es aber durch die ansteigende Temperatur und Dichte zu neuen Kernfusionsreaktionen und es entsteht eine Supernova vom Typ Ia, denn der Weiße Zwerg besteht im Gegensatz zu einem Neutronenstern noch aus fusionsfähiger Materie.
 
 
Ein Neutronenstern ist ein astronomisches Objekt, dessen wesentlicher und namensgebender Bestandteil Neutronen sind. Ein Neutronenstern steht am Ende seiner Sternentwicklung und stellt damit das Endstadium eines massereichen Sterns dar, der die Chandrasekhar-Grenze nicht erreicht. Es wurden Massen dieser Sterne zwischen etwa 1,2 und 2,0 Sonnenmassen festgestellt. Somit sind Neutronensterne extrem kompakt — dichter als ein Atomkern. Damit sind Neutronensterne die dichtesten bekannten Objekte ohne Ereignishorizont. Typische Neutronensterne drehen sich sehr schnell und sind stark magnetisiert.
 
FRAGE: Warum steht die Existenz von Neutronensternen nicht im Widerspruch zu dem, was John Barrow oben sagt?
 
Neutronensternen gilt intensives Forschungsinteresse, da Details ihres dynamischen Verhaltens und ihrer Zusammensetzung noch unbekannt sind und an ihnen extreme Materieeigenschaften unter in der Natur beobachtbaren Bedingungen untersucht werden können.

 

 Beitrag 0-316
Was man unter » Raum « versteht

 
 

 
Was ist Raum?

 
 
Einsteins Allgemeine Relativitätstheorie bestätigt, was schon Leibniz vermutet hat:
 
 
Raum als solchen gibt es gar nicht - es gibt nur Abstand zwischen Materie.
 
Abstände sind relativ, d.h. stets nur relativ zu einem jeweils fest gewählten Objekt mit Ruhemasse eindeutig quantifizierbar.
 
Dieses Objekt nennt man dann den Beobachter.

 
 
Wie unterschiedlich groß der Abstand zweier Objekten aus Sicht unterschiedlicher Beobachter ist, hängt davon ab,
     
  • wie schnell und in welche Richtung sich jedes der beiden Objekte relativ zum Beobachter bewegt,
     
  • und welcher Beschleunigung Beobachter und beobachtete Objekte unterliegen.


 

 Beitrag 0-178
Die Natur kennt keine Zeit — sie kennt nur objektspezifische Eigenzeit (= Alter)

 
 

 
Wirklich ist nur Alter — aber nicht die Zeit

 
 
Immer noch kann die Theoretische Physik nicht beantworten, was denn nun eigentlich das wahre Wesen der Zeit ist. Der gegenwärtige Stand der Diskussion findet sich — gezielt vollständig und sehr genau — aufgeschrieben in den Büchern
 

Meiner Ansicht nach aber haben Einstein und die Quantenphysik das Rätsel um die Zeit längst gelöst, denn:

 
 
Die Natur kennt keine Zeit — sie kennt nur Alter
 
im Sinne von » Eigenzeit «

 
Beweis hierfür ist folgende Argumentation:
 
Einstein und Bohr haben uns gelehrt, dass es zwischen Wirklichkeit und Realität einen ganz gravierenden Unterschied gibt:
     
  • Wirklichkeit ist das objektiv Vorhandene (dessen Funktionsweise wir aber nicht kennen),
     
  • Realität aber ist der Menschen subjektive Sicht auf die Wirklichkeit (es kann dies die Sicht eines Individums oder auch die Sicht einer ganzen Gruppe von Individuen, beispielsweise einer ganzen Gesellschaft sein, oder gar sämtlicher Menschen überhaupt).
     
    Anders ausgedrückt: Realität ist stets etwas nur durch unseren Verstand Konstruiertes — etwas nicht Wirkliches (siehe Wie real ist die Welt um uns herum?).

Nun weiß man aber:
     
  • Einsteins Spezielle Relativitätstheorie zeigt: Jede Quantifizierung von Zeit ist subjektiv (genauer: abhängig vom gewählten Bezugssystem).
     
  • Seine Allgemeine Relativitätstheorie aber — und insbesondere das sog. Zwillingsparadoxon sowie seine den Physikern ja bekannte Lösung — zeigen:
     
    Da sich das Alter eines Objekts aufgrund seiner Eigenzeit ergibt, ist Alter etwas Objektives, d.h. etwas, das man als wirklich (statt als nur real) anzusehen hat. Experimente im Labor mit schnell im Kreis bewegten, und damit beschleunigten Myonen bestätigen das:
     
    In ihrem Experiment verglichen die Wissenschaftler zehntausend ruhende Teilchen im Labor mit zehntausend schnell bewegten Teilchen im Speicherring.
    Die Messung zeigte, dass nach zwanzig Mikrosekunden kein einziges ruhendes Myon mehr vorhanden war, aber doch noch 8600 bewegte Myonen. Das Zwillingsparadoxon ist hier in spektakulärer Weise realisiert: Die meisten im Kreis bewegten Myonen existieren noch, wenn fast alle ruhenden schon zerfallen sind.
     
    Quelle: http://www.weltderphysik.de/gebiete/theorie/albert-einstein-und-die-relativitaetstheorie/spezielle-relativitaetstheorie/
     
    Siehe auch: Myonen und Spezielle Relativitätstheorie.
     
    Auch die zentralen Ergebnisse der beiden Relativitätstheorien sollte man sich nochmals vor Augen geführt haben.

 
 
Nebenbei: Auf die Frage, » Was ist Zeit? « soll Einstein einmal geantwortet haben » Zeit ist, was man von der Uhr abliest «. Wie meine Argumentation oben zeigt, wissen wir jetzt, dass Einstein damit recht hatte — und das wirklich im buchstäblichen Sinne. Was er sagte, war ganz offenbar mehr als nur eine flapsige Bemerkung (wie klar auch immer ihm selbst das gewesen sein mag). Sein Gefühl dafür, was physikalisch richtig sein mag, war einzigartig.
 
 
Da wir jetzt also wissen, dass Zeit stets nur das subjektiv gefärbte Ergebnis einer Beobachtung von Eigenzeit ist, stellt sich die Frage, warum wir sie in unserem Alltagsleben dennoch dermaßen erfolgreich nutzen. Das aber liegt daran,
  • dass in unserem Alltagsleben die Unterschiede zwischen Zeit und objektspezifischer Eigenzeit gering genug sind, dass man sie vernachlässigen kann
  • bzw. dass wir gelernt haben, sie zu berücksichtigen in jedem Kontext, in dem sie nicht mehr ignoriert werden dürfen (beim GPS-System etwa).
Tatsache also ist: Nicht Zeit, sondern Eigenzeit, ist das, was uns hilft. Eigenzeit aber ist normiert quantifizierte Veränderung des Objekts, dem sie sich zuordnet. Solche Normierung gelingt nur im Fall hinreichend einfach gebauter Objekte (Atomuhren). Wir nutzen sie als Stellvertreter komplizierterer Objekte — wählen sie aber für jedes Objekt so, dass seine Eigenzeit und die der es vertretenden Uhr nur unwesentlich unterschiedlich sind.
 
 
Nebenbei noch: Was für das Paar Zeit und Eigenzeit richtig ist, gilt natürlich auch für das Paar Länge und Abstand: Länge ist das beobachterspezifisch subjektiv gefärbte Ergebnis einer Beobachtung von Abstand.
 
 
Mit der hier angesprochenen beobachterspezifischen Subjektivität ist natürlich stets das vom Beobachter gewählte Bezugssystem gemeint.
 
Natürlich lässt sich der eben beschriebene Sachverhalt aber auch über die Physik hinaus noch als richtig erkennen: Je spannender die Tätigkeit ist, die ein Mensch gerade ausübt, desto schneller wird ihm — seinem Gefühl nach — die Zeit vergehen. Ursache so entstandener Subjektivität ist dann (z.B.), wie oft jene Person sich gedrängt fühlt, auf eine Uhr zu sehen.
 
 
Nebenbei noch: Wie wir jetzt wissen, muss Einsteins Ausspruch
 
 
Zeit ist, was man von der Uhr abliest.

verstanden werden als
 
Zeit ist stets nur, was man von der eigenen Uhr abliest.

 
 
Letztlich ist jedes Objekt seine eigene Uhr.
 
Und tatsächlich schrieb Einstein (1905 in seinem Aufsatz Zur Elektrodynamik bewegter Körper): "Es könnte scheinen, dass alle die Definition der Zeit betreffenden Schwierigkeiten dadurch überwunden werden können, dass ich an Stelle der Zeit die Stellung des kleinen Zeigers meiner Uhr setze."
 
 
Da beschleunigte Objekte im Vergleich zu nicht beschleunigten aus der Sicht Dritter weniger schnell altern, sind die Entfernungen, die ein Mensch während seines Lebens im Prinzip überwinden kann, nur deswegen begrenzt, weil sein Organismus nur begrenzt hohe Beschleunigung auszuhalten im Stande ist.
 
Für Objekte, die sich mit Lichtgeschwindigkeit bewegen, gibt es keine Zeit.

 

 Beitrag 0-180
Welche Eigenschaften hat Eigenzeit? Ist sie wirklich?

 
 

 
Eigenschaften der Eigenzeit

 
 
Auch Einsteins Relativitätstheorie ist nur eine Theorie. Wir können deswegen nicht sicher sein, dass sie in allem recht hat, was sie uns sagt. Legen wir sie aber zugrunde, so haben wir davon auszugehen, dass Eigenzeit folgende Eigenschaften hat:
     
  • Sie ist — mit letzter Genauigkeit wenigstens — nur durch das Objekt selbst beobachtbar.
     
  • Wie viel Eigenzeit ein Objekt verbraucht, um von einem Ereignis E1 zu einem anderen Ereignis E2 zu kommen, ist davon abhängig, welchen Weg durch die Raumzeit es nimmt (Beweis: das Zwillingsparadoxon und seine Lösung durch die ART).
     
  • Der Fluß der Eigenzeit entspricht einer Alterung des Objekts.
     
  • Wir kennen nur ganz wenige Objekte, von denen wir nicht mit Sicherheit sagen können, ob sie unendlich alt werden können. Es sind dies
     
    • der Kosmos (bzw. Universen)
    • sowie alle Elementarteilchen, von denen wir bisher nicht wissen, ob sie zerfallen (Protonen und Neutrinos).

     
  • Nach Einsteins Theorie lässt sich nicht ausschließen, dass Eigenzeit der Wirklichkeit zuzurechnen ist. In dem Fall könnt es gut sein, dass wir nie mehr über sie erfahren, als wir jetzt schon wissen.

 
Dass wir über Eigenzeit tatsächlich schon alles wissen, was die Natur uns offenbart, ist keineswegs klar (selbst dann nicht, wenn sie sich tatsächlich der Wirklichkeit zurechnen sollte).
 
Spekulationen, die es noch zu klären gibt, sind wenigstens folgende:
     
  • Hat tatsächlich  j e d e  Art von Objekten eine durch die Natur gegebene Halbwertszeit?
     
    Diese Vermutung liegt nahe, da wir für alle uns bekannten Elementarteilchen — Protonen und Neutrinos ausgenommen — eine Halbwertszeit beobachtet haben, die sogar noch ihrem Wert nach Naturgesetz zu sein scheint, obgleich dieser Wert spezifisch zur Art der Teilchen ist.
     
    Nur für Protonen und Neutrinos scheint er — wenn sie überhaupt zerfallen — jenseits dessen zu liegen, was für menschliche Experimentalphysik bisher nachweisbar war.
     
    Auch alle uns bekannten Arten biologischer Lebenwesen haben eine für die jeweilige Art typische mittlere Lebenserwartung.
     
    Dies gilt selbst für große unbelebte Objekte, für Sterne etwa, ja sogar für Schwarze Löcher (auch wenn für sie die "Art" durch ihre Masse gegeben erscheint, Masse aber — wie wir wissen — relativ ist).
     
  • Man könnte auf die Idee kommen, daraus zu folgern, dass der Fluß der Eigenzeit — den wir ja auch unter dem Begriff "Alterung" kennen — Objektverschleiß bewirkt.
     
    Auch scheint die Existenz von Eigenzeit immer an die Existenz des Objekts gebunden zu sein, dem sie sich zuordnet. Dies ist der Grund dafür, dass ich in Notiz Wirklich ist nur Alter — aber nicht die Zeit für die Eigenzeit auch den Begriff » Alter « verwende.
     
    Solch physikalisches Objektalter darf natürlich nicht mit dem im Sinne von Biologie oder Medizin verwechselt werden, da letzteres ja auch mit Zerfall von Form zu tun hat, die per Emergenz entstand.

 
 
Ein Spezialfall von Eigenzeit ist

die Eigenzeit nicht beschleunigter Objekte (sog. proper Time): Sie ist nicht-relativ.


Lee Smolin in seinem Buch » Time Reborn « (S. 58-59):
 
If you remove everything corresponding to the observations of particular observers from the description of nature given by Special Relativity, there remains the casaul structure. Since this is all that's observer-independent, it must — if the theory is true — correspond to physical reality [Wirklichkeit]. Hence, to the extent that Special Relativity is based on true principles, the universe is timeless. It is timeless in two senses:
  • There is nothing corresponding to the experience of the present moment,
  • and the deepest description is of the whole history of causal relations at once.
Relationships are the only reality that corresponds to time — relationships of a causal sort.
 
Besides the causal structure, there is another piece of information all observers agree about:
 
Consider a physical clock, which ticks off seconds, floating freely in space. It strikes noon, then a minute later ist strikes a minute past noon. The first event can be considered a cause of the second. In between the clock ticks 60 times. The number of times it ticked between the two events is something else all observers, regardless of their relative motion, can agree about. This is called the proper time.
 
[Smolin ergänzt in Fußnoten 6 und 9, S. 276-277]:
 
This does not mean that all clocks will tick the same number of times between two events. Consider two movings clocks that pass each other when they both read noon, they seperate. One of them accelerates and reverses direction, passing the other clock again when that clock reads 12:01. The accelerating clock will display a different time. But the point is that all observers will agree about how many times one particular clock ticks between two events.
 
The clock that ticks the most times between two events is the one that is free-falling — and
 
because the time a free-falling clock measures is distinguished in this way, we call it the proper time.

 
The geodesics of spacetime, as opposed to space, are the paths that take the most proper time rather than the shortest distance:
 
A free-falling clock ticks faster and thus more often than any other clock traveling between two events. This leads to a good piece of advice: If you want to stay young, accelerate.
 


 
Was Smolin hier sagt, bedeutet: Der zeitliche Abstand zweier Ereignisse, die nicht gleichzeitig stattfinden, ist nicht eindeutig, denn
     
  • sein Wert ist zwar nach oben hin begrenzt
     
  • kann aber jeden noch so kleinen Wert haben (für entsprechend stark beschleunigte Objekte).

 
In Summe lässt sich feststellen:
 
Die Wirklichkeit der Zeit scheint sich darin zu erschöpfen, dass jedes sich nicht mit Lichtgeschwindigkeit bewegende Objekt einem Zwang zu altern unterliegt. Warum der mit zunehmender Beschleunigung des Objekts geringer wird, ist wohl die eigentlich interessante Frage.

 

 Beitrag 0-179
Warum Masse nicht additiv ist — ein besonders extremes Beispiel

 
 

 
Wie sich Masse addiert

und selbst ein System von Photonen noch Ruhemasse haben kann

 
 
Im Rahmen der Relativitätstheorie beschreibt man den Bewegungszustand durch einen 4-dimensionalen Impulsvektor, dessen Koordinaten sich aus Energie und Impuls bzw. der Geschwindigkeit des Körpers ergeben.


Hohnerkamp (ein Professor für Physik) erklärt:
 
Bei einem System von zwei Körpern ergibt sich der 4-dimensionale Implusvektor des Systems einfach durch Addition der entsprechenden Impulsvektoren der beiden Körper, und die Masse des Systems erhält man durch Lösen der Gleichung
 
( mc2 )2  =  E2 – ( pc )2 ,

 
in der m, E, p für Masse (im Sinn von Ruhemasse), Energie und Impuls des Gesamtsystems stehen.
 
Das Verblüffende ist nun, dass die Masse dieses 2-Körper-Systems keineswegs gleich der Summe der Massen der beiden Körper ist und sogar noch von den Geschwindigkeiten seiner einzelnen Teilsysteme abhängt.
 
Erst im Extremfall sehr kleiner Geschwindigkeiten ergibt sich die Additivität der Massen, wie man sie aus der Newtonschen Mechanik kennt.
 
 
Ein besonders extremer Fall von Nicht-Additivität ist der folgende:
 
Seien die beiden Körper ein Elektron und sein Antiteilchen (ein Positron), deren Impulse entgegengesetzt sind, so dass der Gesamtimpuls verschwindet. Die Masse dieses Systems ist verschieden von Null. Wenn Elektron und Positron aufeinander treffen und in zwei Photonen zerstrahlen, so ändert das weder die Gesamtenergie, noch den Gesamtimpuls, und so bleibt dann auch die Masse des Gesamtsystems gleich — besteht jetzt aber nur noch aus 2 Lichtwellen. Man hat dann also ein System aus zwei Photonen mit Ruheenergie (Masse), obgleich die beiden Photonen als die einzigen Konstituenten des Systems masselos sind. Die Masse des Gesamtsystems besteht tatsächlich nur aus der Energie der beiden Lichtwellen.
 
Wie auf solche Weise verschiedenste Energieformen zur Ruhemasse eines Systems beitragen können, sieht man auch bei der Erwärmung eines Körpers: Die einzelnen Konstituenten gewinnen dadurch im Mittel an Bewegungsenergie, was die Ruhemasse des Körpers erhöht obgleich die Summe der Massen der einzelnen Konstituenten konstant bleibt.
 
 
Interessant ist, dass die Masse des Gesamtsystems keineswegs immer größer ist als die Summe der Massen seiner Konstituenten.
 
Beispiele hierfür sind jedes Atom und jeder Atomkern: Ihr Zusammenhalt wird durch die elektromagnetische Kraft bzw. die starke Wechselwirkung garantiert. Die Energie, die man aufwenden muss, um solche Bindungen zu lösen, nennt man Bindungsenergie.
 
Die Masse eines Atoms (oder Atomkerns) ergibt sich stets als Summe der Massen seiner Konstituenten abzüglich der Bindungsenergie.
 


Quelle: Josef Hohnerkamp: Was können wir wissen? (Springer, 2013), S. 29-31

 
 
Analog der Argumentation in » Wirklich ist nur Alter — aber nicht die Zeit « lässt sich einsehen: Da auch die Energie materieller Objekte — ihre reale Masse — relativ ist, kann sie nicht wirklich sein (ihre Größe ist abhängig vom Bezugssystem, in dem man als Betrachter argumentiert).

 

 Beitrag 0-317
Understandig GPS

 
 

 
GPS and Relativity

 
 
General relativity dictates that a clock runs slower in a gravitational field, the stronger the field the slower the clock:
    A GPS satellite's clock runs faster when observed from a receiver on the earth as the satellite is in a weaker gravitational field. Conversely a consequence of special relativity is that a clock moving with respect to the observer appears to run slow.
As a GPS satellite is moving in the reference frame of an observer on the earth, a time dilation effect occurs and the satellite's clock appears to run slower.
 
 
So the general and special relativistic effects work in opposition to one another, with the gravitational effect being the more dominant for a GPS satellite. Thus an uncompensated satellite master clock would appear to run fast to the earth-bound receiver.
 
 
In the real GPS satellites the relativistic effect is nominally compensated by reducing the master 10.23 MHz clock down by 0.00457 Hz before launch. For an ideal satellite in a circular orbit, this would remove the effect.
 
With an elliptical orbit the satellite clock will still not be correct to an earth observer as it speeds up and comes closer to the earth on one half of it's orbit (clock slows down) and slows down and goes further from the earth in the other half of it's orbit (clock speeds up). Thus the receiver must make compensation for this according to the eccentricity of the orbit and the satellite's position within the orbit at a given time.
 
 
Note: One can also calculate the Doppler effect (which is much greater than the effects mentioned above) and obtain the relative speed, which may also be included in the calculation of position.
 
 
Quelle: Understanding GPS


 

 Beitrag 0-322
Treiber der Evolution sind spontane Symmetriebrüche

 
 

 
Treiber der Evolution sind spontane Symmetriebrüche

 
 
Unter einem spontanen Symmetriebruch verstehen Physiker den plötzlichen Übergang eines von außen nicht beeinflussten Systems aus einem Zustand Z1 in einen Zustand Z2, der weniger symmetrisch, dafür aber deutlich stabiler ist.
 
Kleinste Kräfte — und daher anscheinend nur der Zufall — entscheiden, wie der neue Zustand aussehen wird.
 
Gutes Beispiel ist ein senkrecht hingestellte dünne Stange: Da das Gravitationsfeld der Erde rotationssymmetrisch ist, wird es ihm völlig gleichgültig sein
     
  • ob die Stange senkrecht steht oder liegt
     
  • und in welche Richtung sie fällt, wenn z.B. eine kleine Luftbewegung oder eine Erschütterung des Bodens sie aus dem Gleichgwicht bringt.

Wer diesen Versuch sehr oft wiederholt, wir feststellen, dass die Richtungen, in welche die Stange nach nur sehr kurzem Stehen umfällt, gleichverteilt sind. Dies zeigt uns, dass den hier wirkenden physikalischen Gesetzen tatsächlich hohe Symmetrie innewohnt — auch wenn das anhand des Einzelfalls nicht erkennbar ist.
 
 
Hier noch ein komplizierteres Beispiel:
 
Sämtliche DNA-Moleküle uns bekannten biologischen Lebens haben die Form einer rechts-drehenden Helix. [ Die Wendeltreppe in mittelalterlichen Burgen dreht sich manchmal nach rechts, manchmal nach links, aber die DNA dreht sich immer nach rechts. ]
 
Es gibt keinen vernünftigen Grund, warum biologisches Leben sich nicht auch auf links-drehende DNA stützen könnte: Sie hätte gleiches chemisches Verhalten, wäre ebenso stabil, und nichts an ihr würde irgendein physikalisches Gesetz verletzen. Der Grund hierfür: Die elektromagnetischen Gesetze, welche die Bildung von Molekülen bestimmen, sind gegenüber Vertauschung von rechts und links völlig unempfindlich. Im Fachjargon ausgedrückt: Der Elektromagnetismus ist spiegelsymmetrisch.
 
 
Interessant am Symmetriebruch ist, dass steigende Temperatur ihn häufig wieder heilt. Es gilt:
     
  • Systeme mit hoher Temeratur sind mehr durch Symmetrie bestimmt, als solche tiefer Temperatur.
     
  • Bei absinkender Temperatur kommt es zu zunehmend mehr Symmetriebrüchen und — makroskopisch gesehen — zur Bildung deutlich vielfältigerer Form.

Man denke z.B. an Wasser: Interessante Eiskristalle oder Eisbrocken jeder nur denkbaren Form gibt es nur, wenn Wasser gefroren ist. All diese Formen verschwinden wieder, wenn sich die Temperatur erhöht und über den Schmelzpunkt von Eis ansteigt.
 
 
Wie sinkende Temperatur die Bildung makroskopischer Formen begünstigt, zeigt auch sehr schön der Magnetismus des Eisens:
 
Er hat keine Vorzugsrichtung, und so ist das Gesamtfeld gleich Null. Unterhalb der Curie-Temperatur aber, setzt das Magnetfeld spontan ein, da sich dann alle Mini-Magnete in gleiche Richtung drehen und so die Rotationssymmetrie der zugrunde liegenden elektromagnetischen Gesetze gebrochen wird. Nur wenn ein Eisenstab zu schnell abgekühlt wird, wird die zufällige Ausrichtung der Mini-Strukturen eingefroren und so die Rotationssymmetrie bewahrt. Der Stab als Ganzes zeigt dann keine magnetische Vorzugsrichtung.
 
Ein fast noch schöneres Beispiel sind Bose-Einstein-Kondensate: Wird eine Menge von Atomen gleichen Typs auf nahezu den absloluten Nullpunkt abgekühlt, verhält sich die gesamte Menge dieser Atome wie ein einziges (bzw. wie eine im Gleichschritt marschierende Kompanie von Soldaten).
 
 
Merken wir uns also:
 
Je mehr Symmetrien einen Prozess bestimmen, desto weniger wird er makroskopisch Formen generieren und erhalten:
 
 
» Hitze geht einher mit ärmlicher Gestaltung — Kälte aber mit reicher Gestaltung «


 

 Beitrag 0-389
Warum alles Geschehen auf zunehmend gröberen Skalen mehr und mehr deterministisch wird

 
 

 
Warum makroskopisches Geschehen vorhersagbar ist,

obgleich auf Quantenebene Zufall regiert

 
 


Der Quantenphysiker Hans-Peter Dürr (1997, wörtlich zitiert) erklärt:
 
"Aus Überlagerung von Offenheit [ auf Quantenebene ] wird [ auf gröberen Skalen ] Bestimmtheit:
 
Wenn wir einen Würfel auf den Tisch werfen, ist es völlig offen, welche Augenzahl erscheinen wird.
 
Wenn wir hingegen eine sehr große Zahl von Würfeln gleichzeitig auf den Tisch werfen, ist das Ergebnis i.W. eindeutig: Alle Augenzahlen kommen gleich oft vor.
In der Summe also entsteht aus begrenzter Offenheit eine Bestimmtheit.
 
Dies gilt allerdings nur, wenn die vielen Würfel völlig unabhängig von einander sind.
 
Wenn sie etwas miteinander verklebt sind, ergeben sich keine so einfachen Antworten."
 


Grund für diesen Sachverhalt ist, dass auf Quantenebene zwar nicht vorhersagbar ist, welche der gegebenen Möglichkeiten realisiert werden wird, wohl aber mit welcher Wahrscheinlichkeit sich jede einzelne gegen ihre Konkurrenten durchsetzen wird.
 
 
 
Quelle: Hans-Peter Dürr & Franz-Theo Gottwald: Rupert Sheldrake in der Diskussion — Das Wagnis einer neuen Wissenschaft des Lebens (1997), S. 274.


 

 Beitrag 0-390
Warum selbst mikrobiologische Modelle heute noch zu ungenau sind

 
 

 
Wie viel Information kann das Elektronfeld z.B. der DNA tragen?



Der Quantenphysiker Hans-Peter Dürr erklärt:
 
Die Quantenphysik hat einen ersten wesentlichen Schritt gemacht, die oft störende Fessel strenger Determiniertheit zu lockern. Sie zeigt uns:
 
 
Die Zukunft ist prinzipiell offen!
 
Diese Erkenntnis ist richtig, führt uns aber dennoch nicht auf absolut freien Willen, denn:

 
Für jedes Quantenereignis kann eines seiner beiden möglichen Ergebnisse eintreten — es wird aber dennoch immer nur mit ganz bestimmter Wahrscheinlichkeit eintreten.
 
Dies hat zur Folge, dass die im Mikroskopischen gegebene Unvorhersagbarkeit sich auf größeren Skalen zunehmend ausmittelt, also verschwindet — außer wenn eine Kohärenz der Möglichkeitswellen sich makroskopisch ausbilden kann.
 
 
Die Frage der Kohärenz spielt in der konventionellen Mikrobiologie bisher keine Rolle, da als selbstverständlich angenommen wird, dass man bei der Beschreibung von Atomen und Molekülen i.W. mit der groben Approximation der Chemiker auskommen wird, welche zu Modellen führt, die nur die Intensitäten (Aufenthalts­wahrscheinlichkeiten), aber nicht auch die Phasenbeziehungen der Materiewellen der Elektronen berüchsichtigen.
 
 
Der bisherige Erfolg der vergröberten Vorstellung (der Chemiker) in der Biologie ist m.E. noch kein ausreichender Beweis dafür, dass in der dabei unberücksichtigt bleibenden Phasenstruktur der Gesamtwelle der DNS-Doppelhelix nicht doch — ähnlich wie bei einem photographischen Hologramm — Information steckt, die für die Morphogenese wesentlich ist.
 
So glauben wir im Alltag ja zunächst, dass wir uns durch Photographie ein i.W. naturgetreues Abbild von Gegenständen oder Landschaften verschaffen zu können.
 
Bessere Kenntnis der Optik aber belehrt uns, dass beim üblichen Photographieren ein Großteil der an uns durch das Licht gesandten Information verloren geht: Information, die uns erst durch weit raffiniertere Nachweismethoden — wie eben neuerdings die der Holographie, welche auch die Phasenbeziehungen registriert — wenigstens teilweise zugänglich gemacht werden kann.
 


 
Quelle: Hans-Peter Dürr & Franz-Theo Gottwald: Rupert Sheldrake in der Diskussion — Das Wagnis einer neuen Wissenschaft des Lebens (1997), S. 235-238.


 

 Beitrag 0-8
Der Kosmos kennt keine eindeutig quantifizierbaren Abstände und Geschwindigkeiten (die des Lichts ausgenommen)

 
 

 
Die Entfernung zwischen zwei Objekten
 
ebenso wie die Geschwindigkeit eines Objektes mit Ruhemasse
 
hat niemals vom Beobachter unabhängigen Wert

 
 
Wie Relativitätstheorie uns zeigt, gilt ganz grundsätzlich:
  • Der zeitliche, räumliche oder raumzeitliche Abstand unterschiedlicher Punkte der Raumzeit kann keinen vom Beobachter unabhängig definierbaren Wert haben.

 
 
Darüber hinaus gilt:
  • Wo der Abstand zweier Punkte x und y sich verändert, wird auch die Geschwindigkeit v(x,y), mit der er sich verändert, nur beobachterspezifischen Wert haben können.
  • Welchen Wert sie aus Sicht eines Beobachters B bekommt, hängt mit davon ab, wie groß der Winkel zwischen x und B einerseits und x und y andererseits ist.
  • Wie eine Rechnung des Physikers Giolini zeigt, ist dieser Wert vB(x,y)  k e i n e s w e g s  durch die Lichtgeschwindigkeit begrenzt: Er kann tatsächlich beliebig groß sein.

 
Dass vB(x,B) kleiner als c ist, gilt aber sicher dann,
 
wenn x sich entlang der Geodäte bewegt, die x mit B verbindet — auf dem Weg also, den Signale nehmen, die zwischen ihnen fließen.

 
 
Interessant ist, dass über all das hinaus, mindestens noch ein weiteres Faktum existiert, welches uns klar macht, dass selbst die ART keinen beobachter-unabhängigen Abstandbegriff kennt:


Grtgrt
 
Wie auf Seite Zur Geometrie der Allgemeinen Relativitätstheorie erläutert, gibt es nämlich — wenn man ganz genau ist — überhaupt keine Metrik des Raumes, die ortsunabhängig wäre. Jene, die unsere Geräte — das GPS etwa — verwenden, gilt mit ausreichend guter Näherung zwar durchaus in einem weiten Umfeld der Erde, aber eben nicht im gesamten Universum:
 
Sie gilt so genau z.B. nicht mehr über große kosmische Entfernungen hinweg
 
und vor allem nicht auf Geodäten, die nahe an Schwarzen Löchern vorbeiführen (z.B. nahe am Zentrum unserer Milchstraße).

 
Nun könnte man aber auf den Gedanken kommen, als universellen Abstand zweier Objekte X und Y im Raum, die Entfernung zu definieren, die sich ergibt, wenn man entlang der X und Y verbindenden Geodäte über die (durch Einsteins Feldgleichungen ortsabhängig definierte) Metrik integriert. Das aber funktioniert aus gleich mehreren Gründen nicht:
  • Wir kennen keine Formel für jene Metrik, die mit absoluter Genauigkeit überall auf dem Weg gelten würde (und da die Raumzeit kein Vektorraum sondern nur Riemannsche Mannigfaltigkeit ist, kann es eine universell gültige ja auch gar nicht geben).
  • Aber selbst wenn es so eine Formel gäbe, müsste sie — da die Massen im Raum sich relativ zueinander bewegen — einen Zeitparameter enthalten. Nun gibt es aber gar keinen universell gültigen Zeitbegriff ...
  • Und letztlich ist ja auch schon die konkrete  L a g e  der Geodäte zeitlich variabel ...
Wir sehen:

Keineswegs nur die Quantenphysik kennt naturgegebene Unschärfe.
 
Selbst die makroskopische Geometrie des Universums stellt sich uns als unscharf dar!

 



 

  Beitrag 2112-27
Die Aussagen der SRT richtig verstehen

 
 
Wrentzsch in 2112-26:
 
Geschwindigkeiten näher an Lichtgeschwindigkeit sollen den Zeitablauf verlangsamen nach der SRT.


Nur aus der  S i c h t  von jemand, der vom Zeitablauf eines Objekts spricht, das sich mit solcher Geschwindigkeit relativ zu ihm bewegt.

( Siehe hierzu auch Beitrag 2113-1 )


 

  Beitrag 2113-1
Nachweis einer Klarstellung zur SRT

 
 

In Wikipedia wird völlig richtig erklärt:



Bewegte Uhren scheinen langsamer zu gehen:

Jeder Beobachter, relativ zu dem die Uhr sich bewegt, hat diesen Eindruck.

Das Ausmaß allerdings, in dem unterschiedliche Beobachter eine bewegte Uhr langsamer gehen sehen, kann von Beobachter zu Beobachter verschieden groß sein. Kurz:


Wie schnell ein Beobachter eine Uhr gehen sieht,

hängt davon ab, wie schnell er sich ihr gegenüber bewegt.



Man kann das einsehen wie folgt:

    Hat man zwei Objekte, die sich mit konstanter Geschwindigkeit von einander weg bewegen, so wird jedes von beiden den Eindruck haben, die Zeit beim jeweils anderen vergehe langsamer. Da sich diese beiden Beobachtungen aber widersprechen, steht fest, dass es sich hierbei um einen nur beobachtungstechnisch bedingten Effekt handelt: um ein Scheinergebnis, welches sich der Realität des Beobachters zuordnet, aber nicht Wirklichkeit sein muss.

    Und tatsächlich gilt ja im Rahmen von Einsteins Theorie immer:

    Jede Beobachtung ist ihrem Ergebnis nach abhängig vom Bezugssystem, aus dem heraus der Beobachter argumentiert.

    Anders gesagt: Wir sprechen stets nur über beobachterspezifische Realität



Kleine Übungsaufgabe:

    Nimm an, wir hätten einen Schienenweg, der einen Kreis darstellt. Irgendwo auf dieser eingleisigen, kreisförmigen Strecke stehen zwei baugleiche Lokomotiven, deren Rückseiten sich berühren und die zum selben Zeitpunkt in entgegengesetzte Richtung abfahren, stets identisch beschleunigt werden, aber anhalten in dem Moment, in dem sie sich wieder berühren (sie kommen ja nicht an einander vorbei). Beide, so nehmen wir an, transportieren baugleiche Uhren, die beim Start der Lokomotiven 12:00 zeigten.

    FRAGE: Werden die beiden Uhren unterschiedliche Zeit anzeigen, wenn die beiden Lokomotiven wieder aufeinander treffen? (Sie werden dann jeweils genau gleich weit gefahren sein.) Wie verträgt sich deine Antwort mit der Tatsache, dass während der Fahrt aus Sicht jeder der beiden Uhren
     
    • die jeweils andere langsamer ging, solange der Abstand zwischen ihnen sich vergrößert hat
    • bzw. schneller ging, sobald der Abstand zwischen ihnen sich wieder verkleinerte.




Okotombrok in 1997-99:
 
Grtgrt in 1997-94:
 
Das Szenario symmetrisch zu machen erlaubt uns zu erkennen, dass — in der SRT —

die beobachtete Zeitdilation nur in den  S i c h t e n  der beiden Beobachter auftritt, aber eben  n i c h t  in der Raumzeit selbst.

Dummes Zeug,
das einzige, was dein Szenario erkennen lässt ist, dass unter gleichen Bedingungen Bedingungen herrschen, die zu gleichen Bedingungen führen.
 



Nun, Okotombrok,

so richtig verstanden hast Du die SRT wohl nicht, denn auch Physiker betonen, dass die SRT nur von beobachterspezifischen  S i c h t e n  spricht, aber keineswegs von Raumstruktur:
 

Zitat von Helmut Satz (2013):
 
Wenn in einem Raumschiff, das sich mit einer hohen konstanten Geschwindigkeit v relativ zur Erde bewegt, die Lichtgeschwindigkeit c die gleiche ist, wie in einem irdischen Labor, dann muss aus unserer Sicht das Längenmaß des Raumschiffes kürzer sein als unseres oder deren Uhr muss langsamer sein als unsere oder beides.

In der Tat tritt beides auf. Ein festes Maß d0. ein Standardmeter, hat den gleichen Wert für uns hier wie für die Passagiere des Raumschiffs.

Aber von uns aus gemessen erscheint deren Standardmeter d0 auf eine Länge d geschrumpft

d  =  d0 • ( 1 – (v/c)2 )1/2


Und ein festes Zeitintervall t0 erscheint, von der Erde ais gesehen, länger geworden zu sein, den Wert

t  =  t0 • ( 1 – (v/c)2 )–1/2

zu haben.
 


Quelle: Seite 212 des Buches Gottes unsichtbare Würfel von Helmut Satz (Verlag C.H. Beck 2013)

Der Autor — Helmut Satz — war von 1971 bis 2001 Professor für Theoretische Physik an der Universität Bielefeld.


 
Fast noch deutlicher wird Grtgrt bestätigt durch Bojowald:

Zitat von Martin Bojowald (2008):
 
Wenn wir uns beim Betrachten einer Situation schneller bewegen als ein zweiter Beobachter, so erscheinen uns räumliche und zeitliche Abstände in den beobachteten Ereignissen anders als diesem.

Wie ein Wechsel des Sichtwinkels die räumlichen Ausdehnungen ineinander überführt, so wandelt ein Ändern der Geschwindigkeit beim Beobachten räumliche in zeitliche Abstände um und umgekehrt.

Aus diesem Grunde ist die Unterscheidung zwischen räumlicher und zeitlicher Ausdehnung vom Standpunkt (oder genauer von der "Standbahn", wenn wir uns wirklich bewegen) abhängig und hat keine physikalische Basis unabhängig von Beobachtern. Anstatt Raum und Zeit zu trennen, gibt es nur ein einziges gemeinsames Objekt: die Raumzeit.
 



Quelle: Seite 24 des Buches Zurück vor den Urknall von Martin Bojowald (Fischer Taschenbuchverlag, 3. Auflage 2012)

Martin Bojowald lehrt Theoretische Physik an der Penn State University, USA.


 
Völlig richtig wird der wahre Sachverhalt auch beschrieben durch Carrier. Seine Formulierung enthält auch eine Begründung:

Zitat von Martin Carrier (2009):
 
Kennzeichnend für die SRT ist der Vorrang raumzeitlicher Größen vor ihren räumlichen und zeitlichen Bestandteilen. Dieser Primat der 4-dimensionalen Größen wurde zuerst 1908 von Minkowski hervorgehoben: Von Stund an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken und nur noch eine Art Union der beiden soll Selbständigkeit bewahren.

Minkowski erkannte, dass sich die SRT als eine spezifische, neuartige Geometrie darstellen lässt, in der die raumzeitlichen Abstände eine zentrale Stellung insofern einnehmen, als sie die  o b j e k t i v e n  Beziehungen zwischen Ereignissen wiedergeben, während deren räumliche und zeitliche Bestimmungsstücke vom Bewegungszustand des Beobachters abhängen und in diesem Sinne  s u b j e k t i v  sind.

Genauer: Der [mit Hilfe der Minkowski-Metrik errechnete] Viererabstand ist die zentrale Größe der Raumzeit der SRT. Im Unterschied zur Raum-Zeit der klassischen Physik bleibt allein diese Größe bei einem Wechsel des Inertialsystems erhalten — nicht aber der 3-dimensionale räumliche Abstand oder der 1-dimensionale zeitliche.

Wegen dieser Invarianz ist der Viererabstand fundamentaler [ der Wirklichkeit näher ] als die vom Bezugssystem abhängigen räumlichen und zeitlichen Größen.

Dennoch ist es nicht die 4-Dimensionalität als solche, die die Relativitätstheorie auszeichnet: Auch Ereignisse in der Newtonschen Raum-Zeit werden ja erst durch 3 Ortskoordinaten und eine Zeitkoordinate vollständig lokalisiert. Kennzeichnend für die SRT ist vielmehr der Vorrang raumzeitlicher Größen vor ihren räumlichen und zeitlichen Bestandteilen. ...

Insofern beinhaltet der Übergang von der Newtonschen zur Einsteinschen Raumzeit die Ersetzung 3-dimensionaler bzw. 1-dimensionaler absoluter Größen durch jeweils nur  e i n e  4-dimensionale absolute Größe.
 

Insbesondere sagt Carrier (nach Erklärung eines scheinbaren Paradoxons):

Zitat von Martin Carrier (2009):
 
Deutlich wird, dass die relativistische Längenkontraktion eine Folge des Verfahrens der Längenmessung ist.
 



Quelle: Seite 33-39 des Buches Raum-Zeit von Martin Carrier (de Gruyter 2009)

Carrier ist Professor für Philosophie an der Universität Bielefeld mit Schwerpunkt Wissenschaftsphilosophie
Er begann seine Ausbildung mit einem Studium der Physik.



  Man lese auch
 

 Beitrag 0-38
Zur Lösung relativistischer Paradoxa bei Längenmessung

 
 

 
Zur Lösung relativistischer Paradoxa bei Längenmessung

 
Quelle: Martin Carrier: RaumZeit, de Gruyter 2009

 
 
Die Zeitdilation der SRT besagt, dass aus gleichförmig zueinander bewegten Inertialsystemen heraus der Uhrengang im jeweils anderen verlangsamt erscheint: Die jeweils als ruhend betrachtete Lichtuhr geht am schnellsten — so dass aus ihrer Sicht der zeitliche Abstand zweier Ereignisse am größten ist.
 
Die Lorentz-Kontraktion leitet sich wie folgt daraus ab:
 
Ein Beobachter lege in seinem Ruhesystem zwei Markierungen mit Abstand LB (aus seiner Sicht) an. Eine Uhr U bewege sich am Beobachter vorbei und passiere beide Markierungen (an denen in diesem Ruhesystem synchrone Uhren postiert seien). Für diesen ruhenden Beobachter benötigt die bewegte Uhr U dafür die Zeitspanne ΔBt, so dass sich für B die Geschwindigkeit der Uhr zu  vB = LB / ΔBt  ergibt.
 
Das Zusammentreffen von Uhr und Markierung stellt ein objektives Ereignis dar, das unabhängig vom Bezugssystem der jeweiligen Betrachters als solches erkannt wird, und so kann man den Vorbeizug der Uhr an den beiden Markierungen auch vom Standpunkt der bewegten Uhr her beschreiben:
 
Aus ihrer Perspektive bewegen sich die Markierungen sowie der vormals ruhende Betrachter, so dass dessen Zeitangaben einem Dilatationseffekt unterliegen (seine Uhren scheinen aus Sicht von U langsamer zu gehen als U selbst). Resultat ist, dass aus Sicht von U der Beobachter B die Zeitspanne  ΔUt = ( 1 – v2/c2 ) • ΔBt  misst.
Es ist also ΔUt < ΔBt .
 
Da die Relativgeschwindindigkeit beider Systeme aus Sicht von U ebenso groß wie aus Sicht von B, ergibt sich LUU = LBB , wo LU den zunächst unbekannte Abstand beider Markierungen aus Sicht von U bezeichnet. Umformung dieser Gleichung führt auf  LU = ( 1 – v2/c2 ) • LB , und so ist LU < LB . Resultat also:
 
Bewegten Beobachtern U erscheinen räumliche wie auch zeitliche Abstände verkürzt um den Faktor ( 1 – v2/c2 ) ,
 
wo v die Geschwindigkeit bezeichnet, mit der sie sich relativ zu den im anderen System ruhenden Markierungen bewegen.

 
 
Damit ergibt sich nun folgendes Paradoxon :
 
Ein Zug, der eine Ruhelänge von 120 m fahre durch einen Tunnel, der in seinem Ruhesystem eine Länge von 100 m hat. Wir nehmen an, er fahre mit einer Geschwindigkeit v, die so groß ist, dass gilt: ( 1 – v2/c2 ) = 0.5
 
Die Frage, ob sich der Zug jemals zur Gänze im Tunnel befindet, ist jetzt nicht mehr ganz einfach zu beantworten, denn
  • aus Sicht eines im Tunnel stehenden Beobachters hat der Zug eine Länge von 60 m, der Tunnel aber eine von 100 m.
  • Aus Sicht der Reisenden im Zug aber ist der Zug volle 120 m lang, der Tunnel aber nur 50 m.
Passt der Zug nun also in den Tunnel oder nicht?


Martin Carrier (auf Seite 37 seines Buches "Raumzeit") erklärt, an was man hier nicht denkt
 
Dieser zunächst paradoxe Befund klärt sich durch die Berücksichtigung der Relativität von Gleichzeitigkeit:
 
Jede Längenmessung erfordert, dass Anfang und Ende eines Objekts  g l e i c h z e i t i g  markiert werden. Markiert man aber Anfang und Ende eines bewegten Objektes zu unterschiedlichen Zeiten, dann ist es nicht erstaunlich, dass sich abweichende Werte ergeben. Wegen der Relativität der Gleichzeitigkeit unter­scheiden sich die Urteile beider Beobachter über die Gleichzeitigkeit der Markierung der beiden Enden — mit der Folge unterschiedlicher Messergebnisse.
 
Deutlich wird, dass die relativistische Längenkontraktion eine Folge des  V e r f a h r e n s  der Längenmessung ist.
 


 
In welchem Ausmaß uns Längen an einem relativ zu uns bewegten Objekt verkürzt erscheinen — oder stattdessen sogar verlängert — hängt (wegen der Endlichkeit der Lichtgeschwindigkeit) zudem noch davon ab, wie groß der Winkel zwischen der Bewegungsrichtung und der uns mit dem bewegten Objekt verbindenden Strecke ist. Details dazu erklärt die Notiz » Sieht ein fast lichtschnell bewegtes Objekt immer verkürzt aus? «.
 
 
Note: Carriers Argumentation ist weiterer Beweis dafür, dass Okotombrok in Beitrag 1997-99 mit seinem Urteil "Dummes Zeug" eben doch im Irrtum war (siehe auch Grtgrts Beitrag 2113-1, dessen Antwort auf Okotombroks Meinung im Forum als nicht erwünscht galt und deswegen dort Opfer der Zensur wurde).

 

 Beitrag 0-66
Lässt Beschleunigung — oder Geschwindigkeit — uns langsamer altern?

 
 

 
Wer in der Raumzeit von einem Ereignis A zu einem Ereignis B kommen möchte, sollte wissen:

 
 
Beschleunigung hat einen Weg durch die Raumzeit zur Folge
 
auf dem wir Zeit sparen ( d.h. weniger altern )

 
 
Der Physiker Joachim Schulz argumentiert, dass nicht Beschleunigung, sondern Geschwindigkeit für das jeweils bewegte Objekt die Zeit bestimmt, um von A nach B zu kommen.
 
Das aber fand ich zunächst überhaupt nicht nachvollziehbar, denn der Titel seiner Seite » Nicht die Beschleunigung macht die Zeit « schien mir genau das Gegenteil von dem zu behaupten, was Schulz selbst am Ende einer seiner anderen Seiten über die Ergebnisse des Maryland-Experiments sagt (ich zitiere):
 


Ergebnis des Maryland-Experiments (nach Joachim Schulz):
 
Die im Maryland-Experiment verwendeten Atomuhren wurden in speziellen Transportbehältern gelagert, in denen sie von Umwelteinflüssen aller Art abgeschirmt wurden. Dadurch sollten Störungen des Experiments zum Beispiel durch Temperaturschwankungen ausgeschlossen werden. Die Flugzeuge flogen nicht, wie im Hafele-Keating-Experiment, um die Erde, sondern sie kreisten über der Chesapeake Bay im Bundesstaat Maryland (USA) in ständiger Sichtweite zum Flughafen. Vor dort aus wurde ihr Kurs durch Laserpeilung genau verfolgt und die Zeit der Atomuhr am Boden wurde durch kurze Laserimpulse ständig mit der Zeit der Atomuhren in den Flugzeugen verglichen.
 
Die Flugzeuge kreisten nämlich zunächst fünf Stunden auf 25.000 Fuß, stiegen dann auf 30.000 Fuß, wo sie fünf Stunden kreisten, um dann die letzten fünf Stunden auf 35.000 Fuß zu kreisen. Wie das folgende Bild aus der Original-Veröffentlichung zeigt, war die Messung genau genug um nachzuweisen, dass die Uhren tatsächlich um so schneller gingen, je weiter sie aus dem Gravitationsfeld der Erde heraus waren
.
 
 
 

 
 
Note: Die Uhren wurden nacheinander in 3 unterschiedlichen Höhen (25.000, 30.000, und 35.000 Fuss über Meeres­niveau) transportiert.
 
Die Flugzeuge waren immer in Sichtweite des Flughafens, flogen also nicht besonders schnell.

 


 
Dass Joachim Schulz mit seiner Aussage, nur Geschwindigkeit — aber keinesfalls Beschleunigung — mache die Zeit, dennoch recht hat, erkennt, wer sich vor Augen führt, dass seine Aussage sich auf einen schon fest gewählten Weg bezieht. Tatsächlich gilt:
 

 
Über mehr oder weniger Beschleunigung wählt man den Weg durch die Raumzeit.
 
Ihn dann gegeben, bestimmt die Geschwindigkeit, mit der wir uns räumlich bewegen, die Zeitspanne, die wir benötigen, um von A nach B zu kommen.

 
 
Beweis: Durch die Raumzeit bewegt jedes Objekt sich  s t e t s  mit Lichtgeschwindigkeit.

 
 
 
Note: Zu erkennen, wie ich Schulz missverstanden hatte, halfen mir eine Diskussion, die Herr Senf anstieß und zu der vor allem Chrys und Schulz selbst Entscheidendes beitrugen. Herzlichen Dank meinerseits an sie alle!
 
Mehr Details am Ende meiner Seite zum Zwillingsparadoxon.

 
 

 
Man kann es auch so ausdrücken:
 
Bewegt sich eine Objekt von Ereignis E1 durch die Raumzeit hin zu Ereignis E2, so wird sein Weg,
  • ausschließlich durch die Zeit führen — entlang einer Geodäte, die E1 mit E2 verbindet —, wenn das Objekt keinerlei Beschleunigung unterliegt (sich also stets in freien Fall befindet).
     
  • Erst Beschleunigung bewirkt, dass sein Weg  a u c h  durch den Raum führt. Entsprechend kürzer wird die Reisezeit, denn sie ist die Länge der zeitlichen Komponente seines Weges — sie wird nur zu Null, wenn das Objekt sich mit Lichtgeschwindigkeit bewegt (es kann dann aber keine Ruhemasse haben).

 
 
Wir sehen:
 
Je beschleunigter sich ein Objekt bewegt,
 
desto größere räumliche Distanzen (aus Sicht anderer) kann es während seiner Lebenszeit überbrücken.

 
 


Lee Smolin schreibt (auf S. 59 und 279 seines Buches TIME REBORN, 2013):
 
Consider a physical clock, which ticks off seconds, floating freely in space. It strikes noon, and later it strikes a minute past noon. In between the clock ticked sixty times. The number of times it ticked between the two events is something  a l l  observers, regardless of their relative motion, can agree upon. This is called the proper time.
 
This, however, does  n o t  mean that all clocks will tick the same number of times between two events:
 
Consider two moving clocks that pass each other when they both read noon, then seperate. One of them accelerates and reverses direction, passing the other clock again when that clock reads 12:01. The accelerating clock will display a different time. But the point ist that all observers agree about how many times one particular clock ticked between these two events. The clock that tickes the most times between two events is the one that is free-falling — and because the time a free-falling clock measures is distinguished in this way, we call it the proper time.
 



Josef Honerkamp schreibt (auf S. 194 seines Buches Wissenschaft und Weltbilder, 2015):
 

In starken Gravitationsfeldern gehen Uhren langsamer.

 
Beobachten wir z.B. ein Objekt, welches in ein Schwarzes Loch fällt und dabei seiner Eigenzeit nach jede Sekunde ein Signal aussendet:
 
Wir werden feststellen, dass — nach unserer, des Beobachters, Eigenzeit — die Abstände zwischen den Signalen immer größer werden, auch nachdem man die Laufzeiten der Signale in Rechnung gestellt hat.
 
Die Zeit verrinnt im Objekt immer langsamer, je näher das Objekt dem Schwarzen Loch kommt, bis sie schließlich stillsteht und damit das Objekt für uns alle Zeit am gleichen Ort erscheint.
 


 
Dass auch weltweit bekannte Physiker und Buchautoren sich nicht immer völlig unzweideutig ausdrücken, wenn sie über unterschiedlich schnell verstreichende
E i g e n z e i t  sprechen, zeigt folgendes Zitat:


Steven S. Gubser (Zitat von S. 2-3 seines Buches Das kleine Buch der Stringtheorie, 2011):
 
Wenn jemand ganz schnell im Kreis läuft, während ihm jemand, der daneben steht, zuschaut, verstreicht die Zeit für den Läufer langsamer als die Zeit für den Zuschauer.
 
Wenn beide eine Uhr bei sich tragen, vergeht auf der Uhr des Läufers weniger Zeit als auf der des ruhenden Zuschauers.
 


Die erste dieser beiden Aussagen wäre weniger missverständlich, wenn da stünde » vergeht für den Läufer weniger Zeit als für den Zuschauer «.

 

  Beitrag 1997-80
Bernd Sonne und Reinhard Weiß rechnen das Zwillingsparadoxon auf Basis nur der SRT nach

 


Beschleunigung — und wirklich nur sie — dehnt Eigenzeit

Henry in 1997-67:
 
Um nicht immer aus Wikipedia zu zitieren:

» Durch Einstein wurde unser Verständnis von Raum und Zeit radikal neu gestaltet: Phänomene wie Zeitdilatation und Lorentz-Kontraktion und die Verschmelzung von Raum und Zeit im Raum-Zeit-Kontinuum sind eine natürliche Konsequenz der Speziellen Relativitätstheorie. «


Ein Zitat aus http://www.wissenschaft-online.de/astrowissen/ von Dr. Andreas Müller.

Der Autor Dr. Andreas Müller ist Astrophysiker und wissenschaftlicher Koordinator im Exzellenzcluster "Origin and Structure of the Universe" der Technischen Universität München.


Hallo Henry,

diese Aussage Müllers ist richtig — aber eben  n u r  wegen der Vergröberung, mit der sie formuliert ist. Diese Vergröberung (ein Ausblenden wirklich wichtiger Details) besteht darin, dass diese Formulierung den qualitativen Unterschied zwischen der Raumzeit einerseits und beobachterspezifischen  S i c h t e n  darauf andererseits völlig ignoriert.

Tatsache ist:

Eine Dilation der Zeit und zu ihr korrelierte Kontraktion von Längen gibt es NUR im Sinne der  S i c h t e n ,
aber keineswegs im Sinne der Struktur der Raumzeit (der SRT) selbst.


Dass dem wirklich so ist, erkennt man sehr schön, wenn man sich zwei Personen X und Y vorstellt, die sich mit gleichförmiger Geschwindigkeit zuerst voneinander ent­fernen um dann, wenn jeder den jeweils anderen in einer Entfernung von genau 100 km vermutet, mit eben derselben Geschwindigkeit wieder aufeinander zuzufliegen.
Bitte beachte:
  • Dies ist ein absolut symmetrisches Szenario.
  • Aus Sicht der einen Person geht die Uhr der jeweils anderen langsamer,
  • und doch werden beide Uhren — wenn die beiden Personen sich wieder treffen — genau gleiche Zeit anzeigen (das folgt aus der Symmetrie des Szenarios und ist deswegen so, weil X und Y dann ja auch wieder dasselbe Bezugssystem haben).

Wir sehen also: Das Zwillingsparadoxon gibt es  n u r  in der Raumzeit der ART, aber  n i c h t  in der Raumzeit der SRT.

In der SRT sind beobachtete Unterschiede wirklich  n u r  darauf zurückzuführen, dass Beobachter, die solche Unterschiede feststellen, aus unterschiedlichen Bezugs­systemen heraus argumentieren.

In der ART dageben kommt unterschiedliches Altern der Zwillinge durchaus zustande, da hier auch die für beide Personen unterschiedlichen Beschleunigungen mit be­rücksichtigt werden: eine Art von Kraftwirkung also, die die SRT gar nicht erst zu betrachten versucht.

Gruß,
grtgrt
 

PS: Eine erweiterte, über Einstein hinausgehende Form der SRT löst das Zwillingsparadoxon dennoch. Genauer:

Obgleich Einstein selbst im Rahmen der SRT niemals auch beschleunigte Bewegung diskutiert hat, hat man das — so etwa um das Jahr 2000 herum — dennoch versucht und hierbei schnell festgestellt, dass die Lorentztransformation der SRT auch Aussagen darüber machen kann, wie sich Beschleunigung auf das beschleu­nigte System auswirkt (siehe etwa ein durch Joachim Schulz beschriebenes Gedankenexperiment).

Dass solche Ergebnisse tatsächlich mit denen der ART übereinstimmen, wird — wenigstens für die dem Zwillingsparadoxon zugrundeliegende Situation — explizit nachgerechnet von Bernd Sonne und Reinhard Weiß in ihrem Buch Einsteins Theorien: Spezielle und Allgemeine Relativitätstheorie für interessierte Einsteiger und zur Wiederholung (Springer, 2013). Ihre Rechnung auf Seite 111 bis 129 des Buches zeigt klar, dass auch die SRT den für die Zwillinge entstandenen Altersunterschied

ausschließlich auf jene Phasen der Reise zurückführt, in denen die beiden Zwillinge unterschiedlich beschleunigt waren.


FAZIT also:
  • Wer von der SRT (in Einsteins Fassung) ausgeht, geht von einer Theorie aus, die zu beschleunigten Bewegungen nichts aussagen will und demnach auf die Situation des Zwillingsparadoxon gar nicht anwendbar ist.
  • Seit etwa 2000 aber geht man nicht mehr davon aus, dass die SRT — wenn man versucht, sie auch auf beschleunigte Bewegung anzuwenden — falsche Aussagen macht. Soweit man nämlich Beispiele in SRT  u n d  ART durchgerechnet hat, kam man zum gleichen Ergebnis (was aber nicht heißt, dass wirklich alles, was die ART sagt, auch mit Mitteln der SRT nachrechenbar wäre).
    Es kommt hier wohl die Tatsache zum Tragen, dass in jeder hinreichend kleinen Umgebung eines nicht singulären Punktes P der Raumzeit der ART die SRT sehr gute Approximation der ART ist.



 

 Beitrag 0-69
Was selbst geringe Beschleunigung — wenn sie lange genug anhält — bewirken kann

 
 

 
Was selbst geringe Beschleunigung — wenn sie lange genug anhält — bewirken kann

 
 
Auf den Seiten 208-211 seines Buches Die Physik des [ heute noch ] Unmöglichen (Rowohlt 2008) versucht der Physiker Michio Kaku zu erklären, was man mit einem sog. Staustrahltriebwerk erreichen könnte. Er schreibt da:
 


Michio Kaku (2008):
 
Im Prinzip könnte sich Staustrahltriebwerk — durch Aufsammeln im Weltraum reichlich vorhandenen Wasserstoffgases — bis in alle Ewigkeit selbst antreiben und schließlich weit entfernte Sonnensysteme erreichen.
 
Da die Zeit — laut Einstein — sich in der Rakete verlangsamt, könnte es möglich sein, astronomische Entfernungen zu überbrücken, ohne die Crew in einen Kälteschlaf versetzen zu müssen. Den Uhren an Bord zufolge würde man
  • nach 11 Jahren Beschleunigung mit 1g den Sternhaufen der Plejaden erreichen, der 400 Lichtjahre von der Erde entfernt ist.
     
  • Schon in 23 Jahren würde man zur Andromeda-Galxis gelangen, die 2 Mio Lichtjahre von der Erde entfernt ist.
     
  • Rein theoretisch könnte so ein Raumschiff innerhalb der normalen Lebensspanne eines Besatzungsmitglieds selbst noch die Grenze des [ von der Erde aus ] sichtbaren Universums erreichen, obgleich auf der Erde dann schon viele Milliarden Jahre vergangen sein mögen.

 


 
Interessant ist, dass Kaku den erfolgreichen Bau eines Staustrahltriebwerks als » Umöglichkeit ersten Grades « einstuft, worunter er Techniken versteht, die mensch­liche Ingenieure heute noch weit überfordern, aber doch vielleicht schon im nächsten Jahrhundert möglich werden könnten (da sie keine bekannten Naturgesetzte verletzen und da erste Ideen sie zu verwirklichen schon existieren).
 


Michio Kaku (2008):
 
Mein Favorit unter den Kandidaten, die uns zu den Sternen bringen könnten, ist das Staustrahltriebwerk, denn:
 
Wasserstoff gibt es im Universum in Hülle und Fülle, und so ein Triebwerk könnte ihn auf seiner Reise einschaufeln und hätte somit eine unerschöpfliche Quelle für Rakententreibstoff. Der eingesammelte Wasserstoff würde auf einige Millionen Grad erhitzt, so dass er fusionierte und die Energie einer thermonuklearen Reaktion freisetzte.
 
Triebwerke dieser Art wurden 1960 vom Physiker Robert W. Bussard vorgeschlagen. Er berechnete das Gewicht eines Staustrahltriebwerks zu etwa 1.000 Tonnen um theoretisch einen ständigen Schub von 1g aufrecht erhalten zu können (1g = Schwerebeschleunigung — was mit dem Stehen auf der Erde vergleichbar ist).
 
Könnte ein Staustrahltriebwerk 1 Jahr lang mit 1g beschleunigen, würde es [ von der Erde aus gesehen ]   77 Prozent der Lichtgeschwindigkeit erreichen, so dass dann interstellare Reisen möglich sein könnten.
 
 
Die Erfordernisse für ein Staustrahltriebwerk sind einfach zu berechnen, denn
  • zum einen kennt man die durchschnittliche Dichte von Wasserstoffgas im Universum,
     
  • und zum anderen können wir ungefähr errechnen, wie viel Wasserstoff verbrannt werden muss, um ständige Beschleunigung von 1g zu erreichen.
     
  • Hieraus lässt sich die Größe der Schaufel ableiten, die notwendig wäre, den Wasserstoff einzusammeln (unter plausiblen Annahmen lässt sich ausrechnen, dass eine Schaufel von etwa 160 km Durchmesser ausreichen würde. Sie im Weltraum zu bauen könnte — dank der Schwerelosigkeit dort — tatsächlich machbar sein.

 



 

 Beitrag 0-14
Die gesamte Natur ist Summe aus Geist, Zufall und Energie

 
 

 
Die Natur ist:  Geist, Zufall und Energie

 
 
So wie die Bibel den Gott, von dem sie spricht, als Summe von 3 Personen sieht, so muss Naturwissenschaft bekennen:
 
Der Gegenstand ihrer Betrachtung — die Natur — existiert ganz offensichtlich als Summe von 3 Phänomenen, die man kurz als
 
 
Geist, Zufall, und Energie

 
bezeichnet, dann aber doch etwas erklären muss:
 
  • Unter Geist versteht der Naturwissenschaftler das Wirken zeitlos gültiger mathematischer Gesetze.
    Sie existieren und wirken unabhängig davon, ob der Mensch sie nun kennt oder nicht, d.h. ob er sie schon entdeckt oder eben noch nicht entdeckt hat.
     
  • Zufall — gemeint ist absoluter Zufall im Sinne der Quantenphysik — regiert überall dort, wo mathematisches Gesetz keine Vorschriften mehr macht (d.h. überall dort, wo der einem existierenden Zustand innewohnende Drang, sich zu verändern, nach mindestens zwei Richtungen hin absolut gleich stark ist).
     
  • Energie schließlich ist zu verstehen als quantifizierbares Wirkpotential. Es kann (aus Sicht der Physiker) in recht unterschiedlichen Formen vorliegen, i.W. als
     
    • kinetische Energie
    • als Kraft, die drückt oder zieht
    • oder als potenzielle Energie (die aber eher doch nur Erscheinungsform drückender oder ziehender Kraft ist).

 
Das mit Abstand wichtigste Phänomen, über das absoluter Zufall sich bemerkbar macht, ist Quantenfluktuation (Vakuumfluktuation). Wir können heute nicht ausschließen, dass selbst der sich anscheinend völlig zufällig ergebende Wert einer quantenphysikalischen Messung durch Quantenfluktuation beeinflusst eintritt.
 
Da durch Quantenfluktuation stets Paare virtueller Teilchen entstehen bzw. sich gegenseitig vernichten, muss — wer den Energie-Erhaltungssatz ernst nimmt — aller Energie, die in Form von Elementarteilchen existiert, eine Art logisches Vorzeichen zuschreiben. Dieses Vorzeichen mit berücksichtigt, könnte die Summe aller Energie stets Null sein, womit dann klar wäre, dass selbst alle Energie noch allein durch Geist und absoluten Zufall erzeugt sein könnte.
 
Da absoluter Zufall einfach nur das Fehlen einer vom Geist gegebenen Regel ist, wäre so die gesamte Natur auf Geist und Zufall allein zurückgeführt.

 

  Beitrag 2102-145
Das Bild, das wir uns vom Existierenden machen, ist oft allzu einseitig

 
 
Hans-m in 2102-143:
 
Wie wir unsere Welt wahrnehmen hängt nur von den Informationen ab, die uns unsere Sinne liefern. Aber auch jene Ereignisse, die wir nicht wahrnehmen, sind trotzdem existent.

Daher dürfen wir das Universum nicht ausschließlich nach dem beurteilen, was es uns preisgibt.



Das ist absolut richtig und gilt nicht nur für Ereignisse, sondern auch für Eigenschaften, die wir Vorhandenem zuschrieben.

Die Situation ist immer die gleiche: Wir haben einen Sinneseindruck, den wir extrapolieren, und so zu einem Bild machen, wie die Wirklichkeit aussehen könnte.
Wer nicht vorsichtig genug ist, macht den Fehler, das Bild mit der Wirklichkeit gleichzusetzen.

Extrapolation aber vergrößert Fehler, und da unser Sinneseindruck — das, was das Universum uns über sich preisgibt — nur einen extrem kleinen Teil aller existierenden Dinge, Ereignisse und ihrer Eigenschaften zum Gegenstand hat,  m ü s s e n  wir geradezu damit rechnen, dass es deutlich anders ist als wir denken.


PS: Hans-Peter Dürrs gut begründete Feststellung » Es gibt keine Materie « ist eindrucksvollstes Beispiel dieser Tatsache.

Aber schon Bhudda war klar: Wer 7 von Geburt an Blinde zum ersten Mal an einen Elephanten heranführt, ihn zu berühren, wird feststellen, dass die entsprechende Sinneswahrnehmunug jener Blinden sie zu sieben völlig verschiedenen Vorstellungen führt, was für eine Art Tier der Elefant denn wirklich sei.

 

  Beitrag 2039-1
Es gibt keine Materie — erst unsere Sinne konstruieren sie (als Eindruck)

 
 
Wie es zur Illusion anfassbarer Objekte kommt, und wo der Anfang von Leben zu finden sein könnte, wurde hier im Forum schon mehrfach gefragt und zu beantworten versucht.

Eben aber finde ich in Hans-Peter Dürrs Buch "Geist, Kosmos und Physik" einige ganz besonders interessante Feststellungen dazu. Sie sind Kern seines modernen, holistischen Weltbildes, welches sich auf die Erkenntnisse der Quantenphysik gründet:


Zitat von Dürr (S. 36-37, etwas gekürzt):
 
Die neue Weltsicht ist im Grunde holistisch, nicht atomistisch: Es existiert eigentlich nur das Eine, das Ungetrennte, das Untrennbare. ...

Das untrennbare Eine ist Prozesshaftes, Potentialität, aber nicht nur Möglichkeit, sondern auch das Vermögen zur Schaffung von Realität und von greifbar Seiendem [bestehend aus anfassbaren Objekten].

Die zeitliche Evolution besteht in einem fortschreitenden Prozess der Differenzierung dieses Untrennbaren durch Errichtung von Grenzzäunen (physikalisch: auslöschende Überlagerung von Potentialwellen).

Man ist an Zellteilung erinnert, wo sich eine Zelle ja auch vermehrt durch Neubildung von Zellwänden.

Dies imitiert die Entstehung unabhängiger Subsysteme, die als Teile des Gesamtsystems fungieren und aus denen dieses Gesamtsystem "zusammengesetzt" erscheint. Dies ist aber nie der Fall, weil der Zusammenhang viel tiefer geht, so wie etwa die sichtbar getrennten weißen Schaumkronen auf stürmischer See ja auch nicht die Betrachtung rechtfertigen, das Meer sei aus Wellen und Schaumkronen zusammengesetzt.

Das Sinnstiftende im Zusammenwirken der Als-ob-Teile entsteht immer aus dem Ganzen, das sie einschließt. Dieses Ganze, Eine, ist immer da.

Auch wir, die wir alle hier im Raum leben, sollten uns nicht vorstellen, dass wir wirklich getrennte Teile dieser Wirklichkeit sind, lose zusammengehalten durch einige Licht-, Laut- und andere von der Physik identifizierbaren Signale, die wir uns zur Verständigung wechselseitig zuwerfen. Wir sind alle Teile dieses selben Einen, derselben Potentialität, und spüren das auch: Wie sonst nämlich könnten ein paar hingeworfene Worte und Sätze mit ihrem dürftigen, abzählbaren Informationsgehalt sich in unserem jeweiligen Bewusstsein so reich entfalten.
 


Hier wird ganz klar deutlich, dass alles materiell Existierende seiner wahren Natur nach nur Wellenpaket ist.

Und so schreibt Dürr denn auch:


Zitat von Dürr, S. 44:
Ich habe als Physiker 50 Jahre lang — mein ganzes Forscherleben — damit verbracht zu fragen, was eigentlich hinter der Materie steckt. Des Endergebnis ist ganz einfach:

Es gibt keine Materie!


Diese so provokativ klingende Aussage Dürrs soll aufrütteln und uns klar machen:

Was unsere Interpretation der Wirklichkeit als Materie kennt, kennt sie auch als Wellenpaket im Feld der 4 physikalischen Grundkräfte.



Interessant ist ferner wie sich Dürr vorstellt,
  • dass es zu Leben kam,
  • dass materielle Objekte, Lebewesen und Anderes, nur endlich langes Leben haben und
  • wie sich Emergenz erklärt (er benutzt dieses Wort nicht, erklärt ihr Zustandekommen aber wenigstens ansatzweise):


Zitat von Dürr, S. 39-42, einiger Kürzungen wegen nicht ganz wörtlich:
 
Unsere Mesowelt ist eine statistisch ausgemittelte Mikrowelt (vergleichbar einem Ameisenhaufen, der von Ferne wie ein statischer Hügel aussieht, der beim genauen Hinsehen aber ungeheuere Beweglichkeit zeigt: Dass sich dies Gewimmel nicht auch im Großen ausprägt, liegt daran, dass für jede Ameise, die in einer Richtung läuft, es immer auch eine andere gibt, die das Umgekehrte macht, weshalb dann im Durchschnitt keine Bewegung des Ganzen sichtbar ist).

Dass diese Ausmittelung so vollständig gelingt, liegt wesentlich am 2. Hauptsatz der Thermodynamik, welcher besagt, dass in einem sich selbst überlassenen System jede Besonderheit, jedes Ausgezeichnetsein, im Laufe der Zeit zerstört wird (man denke an einen Schreibtisch, der, wenn wir nicht aufräumen, immer unordentlicher wird).

Deshalb verstehen wir nicht, wie es in der Natur mit ihrem starken Hang zur Unordnung überhaupt dazu kommt, dass sich bei der Evolution hochdifferenzierter Systeme (wie uns Menschen etwa) Unordnung über lange Zeit hinweg hinweg nicht durchsetzen kann.

Was also ist da passiert? Hat die Natur für ihren lebendigen Teil nicht vielleicht doch bei einer höheren Instanz eine Ausnahmeregelung den Zweiten Hauptsatz betreffend erwirkt?

Nach heutiger Einsicht scheint es keine solche Ausnahmeregelung zu geben. Die unbelebte wie die belebte Natur basieren auf derselben Art von Prä-Materie, die im Grunde eigentlich keine Materie ist. Sie kann sich auf verschiedene Weise organisieren:
  • Einmal ungeordnet und unkorreliert. Dann wird das resultierende Gesamtsystem stumpf, langweilig, apathisch (und wir nennen es unbelebte Materie).
  • Prä-Materie kann sich aber auch auf differenziertere, raffiniertere Weise formieren. Es entstehen dann Stukturen, in denen das im Grunde embryonal Lebendige selbst noch in der Mesowelt zum Ausdruck kommt und so lebendiger Organismus wird. Die eingeprägte Potentialität wird makroskopisch sichtbar. Das Gesamtsystem muss dazu weit weg von seinem Gleichgewichtszustand sein, um ein Ausmitteln seiner inneren Lebendigkeit zu vermeiden.
    Stellen Sie sich ein physikalisches Pendel vor (als herabhängenden, beweglichen Stab mit einem Gewicht unten). Es pendelt beim Anstoßen vorhersehbar und berechenbar um seine unter stabile Gleichgewichtslage. Dreht man aber Stab und Gewicht weit weg von unteren, stabilen Gleichgewicht nach ganz oben, so gibt es dort eine weitere Gleichgewichtslage. Sie ist instabil, und so wissen wir nicht, ob das Pendel auf die eine oder die andere Seite fallen wird. In diesem Instabilitätspunkt wird die inhärente Lebendigkeit des Systems sichtbar, weil es von winzig kleinen Unterschieden abhängt, ob der Pendel zum einen oder zum anderen Bewegungsablauf veranlasst wird. Die Naturwissenschaft kennt viele Systeme mit solch eingeprägten, dynamischen Instabilitäten. Sie führen zu, wie man sagt, "chaotischem" Bewegungsverhalten: Kleine Veränderungen in den Ursachen bewirken extrem große Unterschiede in den Folgen: Der Schlag eines Schmetterlings kann einen Taifun auslösen.

Leben — belebte makroskopische Oranismen — erfordern Strukturen in der Nähe inhärenter Instabilitäten. Aber Instabilitäten kippen. Um sie also lange in der Balance zu halten, müssen sie dauernd nachjustiert werden durch etwas, das sie neu austariert (intelligente Zuführung von Energie).

Diese Situation steht nicht im Widerspruch zum 2. Hauptsatz der Thermodynamik (d.h. zur allgegenwärtigen, dominanten Tendenz zur Unordnung). Denn es ist ja auch unsere ordnende Hand, die unseren Schreibtisch immer wieder in Ordnung bringen kann. Sie darf dabei aber nicht nur werkeln; sie muss darauf achten, was sie tut: Sie muss intelligent sein, den sonst beschleunigt sie nur den Prozess hin zur Unordnung.

Lebendige Systeme brauchen deswegen ... Intelligenz, eine geistige Führung, die prinzipiell im immateriellen Form-Grund verankert ist und sich in der Milliarden Jahre langen Evolution des Biosystems durch ein Plus-Summen-Spiel in komplexen Verästelungen immer höher entwickelt hat.
 

 

  Beitrag 2102-146
Ein Standardargument all derer, die Denkverbote aufstellen wollen, ist ...

 
Grtgrt in 2102-145:
...das, was das Universum uns über sich preisgibt — nur einen extrem kleinen Teil aller existierenden Dinge, Ereignisse und ihrer Eigenschaften zum Gegenstand hat,  m ü s s e n  wir geradezu damit rechnen, dass es deutlich anders ist als wir denken.

Hallo Grtgrt,

das kommt darauf an, worüber man redet.
Wenn man über das physikalische Universum redet, dann können wir das Universum ausschließlich nach dem beurteilen, was es uns preisgibt.

Wer nur über esoterische Wald- und Wiesenphilosophie mit religiöser Einfärbung reden will, der rechnet immer damit, dass es deutlich anders ist als die Physiker denken.

Aber das bringt die Wissenschaft nicht weiter.

M.f.G. Eugen Bauhof
 

  Beitrag 2102-148
aber: Denkverbote machen keinen Sinn

 
 
Ja, Eugen,

so allgemein gesprochen (2102-146) hast Du natürlich recht.

Aber die richtige Grenze zu ziehen ist schwierig: Was genau gibt das Universum uns denn preis?
  • Wollen wir darunter verstehen, was der oder jener, diese oder jene Wissenschaft schon erkannt hat?
  • Oder eher das, was im Prinzip erkennbar sein könnte?
  • Und wenn ja: Woher wollen wir so genau wissen, was prinzipiell erkennbar sein kann? Viel davon wird ja schließlich etwas sein, dessen Existenz uns heute noch nicht mal im Entferntesten bewusst ist.

Kurz: Ich halte rein gar nichts von Denkverboten.


Sinnvoller Prüfstein der Sinnhaftigkeit unseres Denkens und Diskutierens kann allein sein,

wie logisch unangreifbar vorgebrachte Argumente sind.


Gruß, grtgrt
 

  Beitrag 2102-150
-

 
Hallo Eugen Bauhof,

Bauhof in 2102-146:
Wer nur über esoterische Wald- und Wiesenphilosophie mit religiöser Einfärbung reden will, der rechnet immer damit, dass es deutlich anders ist als die Physiker denken.

Aber das bringt die Wissenschaft nicht weiter.

Ansichtssache.

Ein allseits bekannter Experte soll mal gesagt haben: Phantasie sei wichtiger als Wissen.

MfG
Harti
 

  Beitrag 2104-12
Kann Geist nur als Teil eines Körpers existieren (anders gefragt: stirbt er mit dem Körper)?

 
 
Hans-m in 2104-3:
 
Geist ohne Körper ist wie ein Programm ohne Prozessor.

Für jeden Gedanken, den wir haben, benötigen wir unser Gehirn.
Unser Körper, in dem Fall das Gehirn, ist somit die Hardware, ohne die die Software (Bewusstsein) nicht existieren würde.


Ich würde vorsichter sagen: Für jeden Gedanken, den  w i r  haben, benötigen wir unser Gehirn.

Aber kann denn wirklich jemand beweisen, dass es keine Wesen geben  k a n n , die NUR aus Geist bestehen?
Und wie plausibel wäre die Annahme, dass dem so ist?


Man bedenke:
  • Materie ist nur  e i n e  Form, in der Energie vorkommt.

 

 Beitrag 0-466
Warum Lebewesen aus Sternenasche bestehen

 
 

 
Die kernphysikalische Evolution

— Warum Lebewesen aus Sternenasche bestehen —

     
     
    Harmonische Feldanregungen — man kann sie als QuBits auffassen — finden sich zusammen zu Elementarteilchen.
     
    Dies ist der erste Schritt der Evolution, in dessen Folge es dann kommt zu
       
    • erst   kernphysikalischer Evolution: dem Entstehen der Elemente
       
    • dann   chemischer Evolution: dem Entstehen unterschiedlichster Arten von Molekülen
       
    • und schließlich   biologischer Evolution: dem Entstehen sich selbst steuernder Materie, die Fließgleichgewicht aufrecht erhalten kann.



Thomas Görnitz (2015):
 
Unter kernphysikalischer Evolution versteht man die Vörgänge, die — getrieben durch die starke Wechselwirkung — zu immer komplexeren Atomkernen führen.
 
Die ersten Sterne entstanden aus Wolken von Wasserstoff und Helium, welche durch die Gravitation zusammengepresst und deswegen in ihrem Inneren immer heißer wurden. Dies hat Kernfusionsprozesse in Gang gesetzt, im Rahmen derer schrittweise Elemente mit immer schwereren Atomkernen enthanden — Kohlenstoff, Sauerstoff, Stickstoff, usw. bis hin zu Eisen, in dessen Kern die durch den Fusionsprozess freigesetzte Bindungsenergie pro Nukleon am größten ist: Sie ist dort etwa 1 Million mal größer als wenn sich Kohlenstoff und Sauerstoff in einer Flamme — einem chemischen, also keinem kernphysikalischen Prozess — zu Kohlendioxid verbinden.
 
Sobald in sehr großen Sternen der Berennstoffvorrat zu Ende geht — ihr Kern dann also aus Eisen bestehet, worin derr Prozess der Kernfusion zum Erliegen kommt, dann fällt der innere Druck weg, so dass jene Sterne implodieren, d.h. in sich zusammenfallen, da dem Druck in ihren äußeren Hüllen dann kein Gegendruck im Kern mehr gegenüber steht.
 
Dieser Vorgang löst eine gewaltige Explosion aus, die dazu führt, dass der Stern als Supernova einen Großteil seiner Materie als strahlende Staubwolke in den Weltraum hinaus pustet.
 
Innerhalb dieser Explosion und der damit verbundenen gewaltigen Freisetzung von Energie kommt es dann endlich auch noch zur Fusion von Elementen, die schwerer als Eisen sind bis hin zum Uran.
 
 
 
Unser Sonnensystem besteht zum überwiegenden Teil aus Material,
 
das schon zwei solche Explosionen erlebt hat, d.h. als Asche aus ihnen hervorging.

 
Sie fanden nacheinander schon vor Milliarden von Jahren statt.

 
 
 
Hinweis: Die Supernovae werden von Astrophysikern in verschiedene Gruppen eingeteilt. Besonders wichtig sind die vom Typ 1A, welche entstehen, wenn ein Neutronenstern von einem Begleitstern Materie absaugt. Es gibt dann eine scharfe Grenze, bis zu der hin solche Anhäufung von Materie gehen kann. Wenn sie erreicht ist, explodiert dieser so wachsene Stern dann als Supernova.
 
Da alle Supernovae vom Typ 1A nahezu gleiche Helligkeit haben, dienen sie als Standardkerzen für das Bestimmen kosmischer Entfernungen.
 
 
 
Die Freisetzung in Sternen erbrüteter Elemente durch solche Explosionen ist erste notwendige Voraussetzung dafür, dass Objekte wie Planeten und Kometen entstehen können und darauf dann schließlich Leben.
 
Bis es aber wirklich zu Leben kommt, muss erst noch chemische Evolution einsetzen: der Vorgang also, der Atome zu Molekülen zusammenführt, welche durch Austausch von Photonen (vor allem virtuellen Photonen) — durch elektromagnetische Wechselwirkung also — zusammengehalten werden.
 


 
Quelle: Thomas und Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein, Springer 2015, S. 536-537

 

 Beitrag 0-467
Chemische Evolution — wie sich aus Sternenasche organische Moleküle formen

 
 

 
Chemische Evolution

— die notwendige Vorstufe biologischer Evolution —



Thomas Görnitz (2015):
 
Unter chemischer Evolution versteht man das Enstehen immer komplexerer Moleküle, wie sie durch die Eigenschaften der elektromagnetischen Wechselwirkung ermöglicht wird, d.h. durch den Austausch realer und virtueller Photonen zwischen Atomen, die sich so zu Gruppen zusammenfinden, in denen sie ihre äußeren Elektronen "vergesellschften", d.h. gemeinsam nutzen. Elektronen in solcher Rolle nennt man Valenzelektronen.
 
Sterne sind so heiß, dass in ihnen Moleküle keinen Bestand haben können. Im Weltraum aber — weit weg von Sternen — ist es derart kalt, dass chemische Prozesse ganz unvorstellbar langsam ablaufen. Wenn aber Planeten und Kometen hinreichend nahe um einen Stern kreisen, dann eröffnet sich auf ihnen die Möglichkeit chemischer Evolution.
 
So haben die Astrophysiker auf im Sonnensystem gefundenem Gestein neben Wasser und Kohlenmonoxid auch schon Alkohol und andere organische Moleküle finden können.
 
 
Wie man sich die Evolution bei organischen Molekülen in etwa vorstellen kann:

 
Durch die Anwesenheit eines Katalysator-Moleküls können zwei organische Moleküle dazu angeregt werden, eine Beziehung einzugehen: Der Katalysator — in der Biologie nennt man ihn ein Enzym — kann verglichen werden mit einem Tutor, der ben beiden Beteiligten verdeutlichen kann, welche Beziehungsmöglichkeit für sie besteht.
 
Unter seinem Einfluss verformen sich die beiden Moleküle, die er zusammenbringen möchte, so, dass sie eine chemische Bindung entsteht. Katalysatoren sind deswegen höchst speziell geformte Moleküle. Beispiele sind
     
  • die aus der Biologie bekannten Proteine,
     
  • aber auch die Oberflächen spezieller Metalle wie sie etwa zur Abgasentgiftung im Auto verwendet werden.

Beim Andocken an den Katalysator verändert sich die räumliche Elektronenenstruktur der Atome oder Moleküle in einer Weise, die ihre chemische Verbindung überaus deutlich erleichtert.
 
In ganz ähnlicher Weise können Katalysatoren aber auch eine Zerlegung von Molekülen anstoßen und herbeiführen.

 
 
 
Man kann davon ausgehen, dass vor dem Beginn der biologischen Evolution recht umfangreiche chemische Evolution stattgefunden hat.
 
Lange Zeit war in den Darstellungen des Lebens die Sicht einseitig auf dem » Kampf ums Dasein « gerichtet. Heute aber wird die Symbiogenese — als Fortsetzung der Katalyse, d.h, der chemischen Evolution in den Bereich primitiver Lebewesen hinein — als ebenso wichtig erachtet.
 


 
Quelle: Thomas und Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein, Springer 2015, S. 543-547

 

 Beitrag 0-398
Gene sind keineswegs autonom

 
 

 
Gene sind keineswegs autonom — und Meme gibt es nicht

 


Simon Conway Morris ( ab S. 257 in Jenseits des Zufalls ):
 
In ihrem Aufsatz » Das Gen ist tot, es lebe das Gen « legt Eva Neumann-Held dar, dass den Sachverhalt sträflich vereinfacht, wer Gene als autonome Erbeinheiten betrachtet:
 
Gene sind erst durch ihren jeweiligen Kontext sinnvoll anzusprechen — einen Kontext, der in der Praxis oft nur schwer oder gar unmöglich genau zu erfassen ist. Zuverlässige Vorhersagen über die Wirkung eines bestimmten Gens sind daher kaum möglich.
 
Und so ist es irreführend von Genen beispielsweise für Schizophrenie oder Aggressivität zu sprechen. Erst wenn die richtige Kombination von Auslösern zustande kommt, kann das Risiko steigen — oder auch fallen.
 
Außerhalb ihres zellulären Milieus ist die DNA nichts weiter als ein lebloser Faden.

 
 
Solche Überlegungen konnten jedoch nicht verhindern, dass sich die Hardliner mit ihrer Ansicht durchgesetzt haben, die Gene hätten das Sagen.
 
Besonders beim Soziologen E.O. Wilson steigert sich dies zu einem — absolut unberechtigten — unbegrenzten Glauben an die Erklärungskraft dieses Konzeptes insofern, als er selbst noch Gesellschaft, Kunst und Religion durch die Gene gesteuert sieht.
 
An Inbrunst und Überzeugung mangelt es ihm nicht, aber wer das Buch ganz nüchtern liest, wird feststellen, dass Wilsons Argumentation vielfach auf logischen Sprüngen, unzulässigen Voraussetzungen und zu starker Vereinfachung basiert.
 
 
Das vermeintliche Primat der Gene findet seine Entsprechung im Irrglauben an sog. Meme in der nichtstofflichen Natur. Ist vielleicht die kleine Melodie, die Ihnen nicht mehr aus dem Kopf geht, ein Mem?
 
Man wundert sich, wie platt viele solcher Beispiele sind — bis man schließlich begreift, dass auf diese Weise einmal mehr die Bösartigkeit religiöser Überzeugung unter Beweis gestellt werden soll. Nur gut dass Ersatzreligionen wie das Konsumdenken und der Kaufwahn auf "menschenwürdigeren" Wegen entwickelt wurden, ohne dass irgend etwas Memartiges dabei eine Rolle gespielt hätte!
 
Kurz: Das Memkonzept ist unhaltbar — es basiert auf lächerlichen Simplifizierungen, die eigentlich nur durch sehr unsauberes Denken in die Welt gekommen sein können.
 



 

 Beitrag 0-396
Wie lange noch wird Homo Sapiens existieren?

 
 

 
Vom recht » buschigen « Stamm der Hominiden

hat nur Homo Sapiens überlebt

 
 
Unter Evolutionsbiologen besteht Einigkeit darüber, dass
     
  • Schimpansen (als Spezies) und die Gattung Homo einen gemeinsamen Vorfahren haben
     
  • und der Hominidenstammbaum ursprünglich sehr viele Zweige hatte.

Von letzteren hat nur Homo Sapiens überlebt, nachdem er seine Schwesterart (Homo neanderthalensis) vor nunmehr etwa 30 000 Jahren verloren (oder ausgerottet) hat.
 
Mit den Schimpansen, deren Art wir heute auszurotten im Begriff sind, wird es noch einsamer um Homo sapiens werden.
 
Um diese scheinbar gefährliche Ausdünnung eines ursprünglich so üppingen Busches von Arten (mindestens sieben) wird viel Wesens gemacht, denn sie macht uns klar: Wenn auch der Mensch verschwindet — durch eine planetarische Katastrophe, einen Nuklearkrieg oder durch selbstverursachte Zerstörung unserer Umwelt — dann war es das.
 
Interessant in diesem Zusammenhang ist, dass es primitive Arten gibt (Bakterien), deren Kolonien zwar schnell wachsen, dann aber schließlich in ihren ebenso schnell zunehmendem eigenen Abfall sterben.
 
 
Ähnlich viele Zweige wie der Busch der Homoniden (6 Mio Jahre alt) hatte der der Australopithecinen, der aber schon vor nunmehr 2 Mio Jahren verschwand.

 

 Beitrag 0-397
Evolution ist beides: Divergent in erzeugter Vielfalt, aber konvergent hinsichtlich optimaler Lösungen

 
 

 
Evolution ist beides:

divergent in entstehender Vielfalt,

aber konvergent in Richtung optimaler Lösungen

 
 
Es ist tatsächlich so, als würde im recht buschigen Baum der Arten jeder Ast im Zuge seiner Fortentwicklung auch die bis dahin gemachten Erfahrungen anderer Äste mit berücksichtigen.
 
 
Dies seinen Kollegen klar zu machen hat Simon Conway Morris sein Buch » Jenseits des Zufalls « geschrieben.
 
Er widerspricht dort — unter Auflistuing vieler Beobachtungen — klar der Meinung von S.J. Gould, der denkt: » Wenn das Band des Lebens noch mal abliefe, so würde eine völlig andere Biosphäre entstehen, in der nichts auch nur entfernt Menschenähnliches aufkäme, und so müssen wir uns wohl damit abfinden, dass sich keine zwei Biospären im Universum sonderlich ähnlich sind. «
 
Morris ist ganz entschieden entgegengesetzter Meinung. Er schreibt: » Doch alles, was wir über Evolution wissen, deutet in die entgegengesetzte Richtung: Konvergenz ist allge­genwärtig, und die beschränkten Möglichkeiten des Lebens lassen das Aufkommen gewisser biologischer Eigenschaften und Typen sehr wahrscheinlich, wenn nicht sogar unvermeidlich erscheinen. Alle Erklärungen, warum auf keinem noch so weit entfernten Planeten irgend eine Entsprechung zum Homo Sapiens herumlaufen kann, gehen am Kern der Sache vorbei: Es geht nicht um den genauen Weg der Evolution, sondern um die Wahrscheinlichkeit, mit der sich jeder einzelne der sukzessiven Entwicklungsschritte vollziehen kann, die dann schließlich in unserem Menschsein kulminieren. «
 
Morris weiß sich mit dieser Meinung in guter Gesellschaft mit Robert Bieri, der schrieb: » Wenn wir jemals in der Lage sein werden, erfolgreich mit anderen denkenden Wesen außerhalb unseres Sonnensystems zu kommunizieren, werden sie weder Kugeln noch Pyramiden, weder Würfel noch Pfannkuchen sein. Aller Wahrscheinlichkeit nach sähen sie uns erschreckend ähnlich. «
 
 
 
Note: Ganz erstaunlich ist, wie gut, was Morris und Bieri zu sehen glauben, zu dem passt, was Rupert Sheldrake vermutet: morphische Resonanz.
 
 
Wenn also richtig ist, was Morris feststellt, indem er sagt » Die Evolution kennt viele Wege, aber nur wenig Ziele «, so dürfte Sheldrake einer physikalischen Begründung dieser Tatsache recht nahe gekommen sein.
 
Hans-Peter Dürr erklärt sogar, wie morphische Resonanz ganz konkret vom elektromagnetischen Feld implementiert sein könnte. Man lese seinen Aufsatz Sheldrakes Vorstellungen aus dem Blickwinkel der modernen Physik, S. 224-249 im Buch Rupert Sheldrake in der Diskussion (1997).
 
 
 
 
Zwei besonders überzeugende Beobachtungen, die Morris nennt sind:
     
  • Es gibt im gesamten Baum der Evolution biologischer Lebewesen nur zwei grundsätzlich verschiedene Formen von Augen: Linsenaugen (wie wir sie haben) und Komplexaugen (wie Insekten sie haben). In jedem Ast des Baumes findet sich die eine dieser beiden Lösungen — ist aber auch immer ganz dediziert erst dort entstanden: Nie hat sich die eine Lösung in die andere umentwickelt. Beide Varianten sind auf unterschiedlichen Zweck hin optimiert, man könnte meinen vorausschauend (ein Komplexauge, das ebenso deutlich sehen kann wie unser Linsenauge, müsste nämlich einen Durchmesser von etwa 1 Meter haben).
     
  • Ein Beispiel gleicher Qualität findet sich im Reich der Pflanzen, wo sich zwei recht unterschiedliche Verfahren der Photosythese entwickelt haben: Der C4-Photosytheseweg ist biochemisch deutlich komplexer als der C3-Weg. Er ist so komplex, dass es schwer vorstellbar erscheint, er könne sich rein zufällig in mehr als nur einer Pflanzengruppe entwickelt haben. Tatsächlich aber ist er mindestens 31 Mal unabhängig von einander entstanden.
     
  • Dass eine extrem optimierte, extrem komplexe Lösung auch schon nahe der Wurzel des Evolutionsbaumes zu finden ist, zeigt der genetische Code (d.h. die allen Arten gemeinsame Codierungsvorschrift für DNA):
     
    Freeland und Hurst haben entdeckt (1998): » Der natürliche genetische Code weist Anzeichen einer Optimierung auf, die um zwei Größenordnungen optimaler ist als zuvor angenommen: In unserem Modell war unter einer Million zufällig erzeugter Codevarianten nur einer effizienter [...] als der natürliche Code — der genetische Code ist so etwas wie ein Sechser im Lotto. «
     
    Dieses Ergebnis wird noch erstaunlicher, wenn man sich vor Augen führt, dass die etwa 106 Codes, die Freeland und Hurst untersuchten, nur einen winzigen Bruchteil aller insgesamt denkbaren 1018 Codes darstellen.
     
    In einer Folgeuntersuchung stellten Freeland und seine Mitarbeiter fest, dass die Zahl der alternativen Codes, die unter Berücksichtigung aller bekannten Beschränkungen wirklich funktionieren können, vermutlich recht klein ist (und so etwa bei nur 270 000 liegt). Als sie dann noch die Ähnlichkeiten zwischen verschiedenen Aminosäuren berücksichtigten, kamen sie staunend zum Schluss, dass » die Wahl der Natur durchaus auf den besten aller möglichen Codes gefallen sein könnte. «
     
    Quelle: Steve Freeland & Laurence Hurst in Journal of Molecular Evolution, Vol 47 (1998) pages 238-248 and in Molecular Biology and Evolution, Vol 17 (2000), pages 511-518.

Wir sehen:
 
Wo optimale Lösungen benötigt werden,
 
kann die Evolution sogar extrem schnell konvergieren

und verlässt sich dann wohl nicht auf Zufall.

 
 
 
Überlegenswert:
 
Von Konvergenz spricht man, wo sich im Baum der Arten in unterschiedlichen Ästen und Zweigen die gleiche Lösung ergab — das aber erst, nachdem sich jene Äste und Zweige schon lange auseinander entwickelt hatten.
 
Nun sollte man aber bedenken: Solange wir die Ursache konvergenter Evolution nicht kennen, wissen wir natürlich auch nicht, worin genau sie besteht und ob nicht doch gleiche Formen in unterschiedlichen Zweigen identische Ursache haben — es könnte ja eine Ursache sein, die schon lange im Erbgut existent war (ganz so, wie ja auch die gleiche Form sämtlicher Blätter eines Kastanienbaumes schon in seiner DNA angelegt ist lange bevor viele der Zweige existieren, an denen sich jene Blätter dann wirklich aus je einer Knospe entfalten. Ist das, was man heute als Junk DNA einordnet, nicht vielleicht doch der Plan für Lösungen, die sich erst in ferner evolutionärer Zukunft entfalten werden? Kann die Evolution im Bedarfsfall vielleicht deswegen so erstaunlich schnell reagieren?
 
 
Interessant ist auch, dass man konvergente Evolution nicht nur hinsichtlich sich formender Materie beobachtet, sondern irgendwann sogar in Gesellschaftsstrukturen.
 
Eusoziale Gesellschaftsstruktur etwa ist nicht nur in Insektengruppen (Ameisen, Bienen, Termiten, Wespen) soweit wir wissen unabhängig entstanden, sondern auch bei den Garnelen und verschiedenen Säugern, insbesondere den Nacktmullen. [ eusozial = selbstlos, aber keineswegs immer freiwillig selbstlos ]
 
Fast identisch ist auch das gesellschaftliche Verhalten der Wale und der Elefanten.
 
 
 
Am Ende seines Buches weist Conway Morris ausdrücklich darauf hin, dass die so zahlreichen Beispiele für konvergente Evolution kein Argument gegen die vorherrschende Meinung seien, dass Anpassung der Motor der Evolution ist. Dennoch sei wohl den wenigsten klar, wie groß die Reichweite der Anpassung gerade auch im Bereich der Moleküle — im Bereich chemischer Evolution also — wirklich ist.
 
 
Morris betont auch: Das Phänomen der evolutionären Konvergenz weist darauf hin, dass die Zahl verfügbarer Alternativen strikt begrenzt ist, woraus man folgern müsse, dass die Evolution 99,999... Prozent des wahrhaft gigantischen Raumes aller theoretisch denkbaren biologischen Möglichkeiten gar nicht erkundet haben kann.
 
Wenn dem so ist, sei davon auszugehen, dass eine Erforschung der Art und Weise, wie die Evolution bestimmte funktionale Lösungen ansteuert, das Fundament einer allgemeingültigen Theorie der Biologie liefern könnte. Im Wesentlichen postuliere dieser Ansatz die Existenz von » Attraktoren « [ in dem Sinne, wie mathematische Chaostheorie sie kennt ].
 
Dies werfe die Frage auf, wie die unermessliche Weite des biologischen Möglichkeitsraumes tatsächlich durchmessen wird: Die Anzahl potentieller Sackgassen ist ja offensichtlich so riesig groß, dass eigentlich alle Zeit seit Anbeginn des Universums nicht ausreichen kann, unter den Abermillionen potentieller Lösungen die wenigen zu finden, die tatsächlich funktionieren. [ Morris erinnert hier an die skeptische Bemerkung von Fred Hoyle, er könne sich nicht vorstellen, dass ein Wirbelsturm, der über einen Schrottplatz hinwegfegt, einen Jumbojet zusammensetze. ]

 

 Beitrag 0-399
Evolution aus philosophischer Sicht — Conway Morris' sehr konstruktive Kritik

 
 

 
Evolution aus philosophischer Sicht

 


Simon Conway Morris ( ab S. 258 in Jenseits des Zufalls ):
 
Trotz aller Haarspalterei und Scheinheiligkeit, mit denen die Ultradarwinisten versuchen, Evolution und Religion als mit einander unverträglich darzustellen, gibt es auch andere Meinungen.
 
John Greene etwa schrieb: » Schlussendlich gelang es Darvin nicht, die moralische Mehrdeutigkeit des menschlichen Fortschritts zu fassen. Er scheiterte — wie viele der heutigen Sozialwissenschaftler auch —, da er kein angemessenes Konzept vom Menschen hatte. «
 
Und Greene schreibt weiter: » Naturwissenschaft wird zwecklos und sogar zerstörerisch, wenn ihr nicht eine religiöse Reflexion Bedeutung und Richtung verleiht, die den Sinn und Wert der menschlichen Existenz zum Thema hat. «
 
 
Dass die Karte des menschlichen Genoms so etwas wie der Codex Hammurabi unseres Jahrtausends wird, glauben inzwischen nur noch ganz Hartgesottene. Doch in der öden Welt des Reduktionismus üben die Mythen der genetischen Determination genug Anziehungskraft aus, um neue Pläne voranzutreiben, vor allem auf dem Gebiet der Eugenik.
 
Derzeit sind es noch primär die nicht-menschlichen Lebewesen, die nach den Vorstellungen einiger als Knetmasse genutzt werden sollten. Die Vorstellung, dass die Welt — so, wie sie uns gegeben wurde — gut und wertvoll ist, hat sich offenbar in nichts aufgelöst.
 
Heute herrscht die Ansicht vor, die Biospäre sei unendlich verformbar, und dieses Ansinnen wird moralisch verbrämt durch die Behauptung, all dies diene dem Wohl der gesamten Menschheit — obgleich es in Wirklichkeit doch nur die Kassen großer Konzerne füllen soll.
 
Die Diversität unserer bewährten Nutzpflanzen und -tiere ist auf dem besten Wege, zugunsten irgend welch neuer Produkte beschnitten zu werden.
 
Dass das machbar ist, haben Temple Smith und Harold Morowitz schon zu Beginn der 1980-er Jahre beschrieben mit den Worten: » Dank der theoretischen Vorarbeit stehen wir heute unmittelbar davor, genetische Merkmale mit einander kombinieren zu können, die sich in der Natur möglicherweise nie vereinigt hätten. «
 
Diese Aussicht aber erfüllt sie keineswegs mit Begeisterung. Sie schrieben: » Jetzt wird ein Glücksspiel gespielt, ohne dass den Beteiligten unbedingt klar wäre, wie hoch der Einsatz ist. «
 
Was sich aus den Eingriffen in das Erbgut von Mais und bald auch Schweinen ergibt, kommt mit Sicherheit früher oder später auch beim Menschen zur Anwendung. T.H. Huxley hat sich — im Gegensatz zum fortschrittsgläubigen Galton — von dieser eugenischen Zukunftsmalerei entsetzt abgewandt mit dem Argument, dass kein Mensch genug wissen könne, um solche Entscheidungen verantwortungsvoll treffen zu können.
 


 
Conway Morris beendet sein Buch, indem er zusammenfassend schreibt:

Ab S. 262 in Jenseits des Zufalls (etwas gekürzt):
 

Hauptziel des Buches war es, zu zeigen, dass die Bedingtheiten der Evolution und die Allgegenwärtigkeit von Konvergenz die Emergenz menschenähnlicher Geschöpfe nahzu unausweichlich machen [ eine bis heute noch nicht allgemein akzeptierte Meinung ].
 
Entgegen vorherrschender Meinung und der allgemeinen ethischen Verzagtheit meine ich, dass Zufallsereignisse auf lange Sicht keine große Auswirkung auf das entwicklungsgeschichtliche Endprodukt haben.
 
Die Existenz von Leben auf der Erde bleibt ein Wunder.
 
Auch wenn Leben ein universelles Prinzip zu sein scheint, könnten wir gut im All alleine sein. Ob dem so ist, werden wir vielleicht nie herausfinden.
 
Das Dilemma, vor dem wir stehen, besteht darin, dass die wissenschaftliche Methode, die uns erlaubt, die Natur zu erforschen, uns auch Werkzeuge in die Hand gibt, die Welt hemmungslos zu manipulieren — vorgeblich zu Gunsten des Gemeinwohls, de facto aber doch zu Gunsten weniger und zum Nachteil vieler.
 
Diese Machermentalität verträgt sich nicht mit den überlieferten Weisheiten und erklärt — zum Teil jedenfalls — die hartnäckige Feindschaft zwischen naturwissenschaftlichem Handeln und religiösen Bedenken. Gingen die Wissenschaften daraus als Sieger hervor, wäre dies ein Pyrrhussieg: Das besiegte Reich läge in Trümmern, niederschmetternde Leere überall.
 
Konstruktive Annäherung beider Parteien wäre wünschenswert, ist aber schwierig und wird für gewöhnlich misstrauisch beäugt. Im Wesentlichen könnte es darum gehen, welche Kerneigenschaften mit dem Schöpfungsgedanken im Einklang stehen. Meines Erachtens sind dies
     
  • die der Evolution zugrunde liegende Einfachheit, d.h die Beschränkung auf ganz wenige Grundbausteine,
     
  • die Existenz eines gigantisch großen Raumes von Möglichkeiten, in dem genau jener winzige Bruchteil angesteuert wird, der tatsächlich funktionieren kann,
     
  • die Empfindlichkeit des Prozesses und seiner Ergebnisse, aufgrund derer alternative Lösungen katastrophal unangepasst wären,
     
  • das Inhärenzprinzip, demzufolge Komplexität mindestens so oft durch Rekrutierung und Neuordnung schon vorhandener Bausteine entsteht wie durch Neuerfindung im engeren Sinne,
     
  • das erstaunliche Nebeneinander von überbordender Biodiversität und allgegenwärtiger Konvergenz
     
  • sowie — nicht zuletzt — die unausweichliche Emergenz von Bewusstsein und die Indizien dafür, dass es bei Tieren viel weiter verbreitet ist, als wir zugeben wollen.


 

 Beitrag 0-335
Quantenfluktuation und Chaostheorie (mathematische Gesetze) sind die Schöpfer aller Dinge

 
 

 
Was die Evolution treibt, steuert und so extrem kreativ macht

 
 
Alles, was sich im Rahmen der Evolution entwickelt, entwickelt sich konform zu physikalischen Gesetzen. Obgleich sie extrem einfach sind, bringt die Evolution im Kosmos unvorstellbar vielfältige, äußert komplexe Energiekonfigurationen hervor — bis hin zu biologischen Lebewesen, die Bewusstsein haben.
 
Der Mechnismus, der so gewaltige Vielfalt bewirkt, ist quantenphysikalischer Zufall (Quantenfluktion) kombiniert mit den Gesetzen der Chaostheorie.
 
Zufall und Chaos verhindern langfristige Vorhersagen.
 
 
Erstaunlich ist, dass sie Selbstorganisation möglich machen, d.h. die Entwicklung eines Systems hin zu einer Ordnung, die unabhängig von speziellen Anfangs­bedingungen ist.
 
 
Dem Konzept der Selbstorganisation haben zum Durchbruch verholfen:

 

 Beitrag 0-278
Evolution scheint mehr zu sein als nur blindes Experimentieren

 
 

 
Evolution dürfte mehr sein als nur Zufall und Auslese

 


Niels Bohr (etwa 1930, wie Heisenberg sich erinnert):
 
Die Darwinsche Theorie enthält zwei unabhängige Aussagen:
     
  • Die eine behauptet, dass im Prozess der Vererbung immer neue Formen ausprobiert werden, von denen die meisten äußerer Umstände wegen nicht überlebensfähig sind.
     
    Empirisch gesehen dürfte das richtig sein.
     
  • Es wird aber zweitens auch angenommen, dass die neuen Formen durch rein zufällige Störungen der Genstruktur zustande kommen.
     
    Diese zweite These ist — auch wenn wir uns nur schwer etwas anderes vorstellen können — eher problematisch:
     
    Es kann zwar über hinreichend lange Zeit alles Mögliche auch tatsächlich rein zufällig entstehen — doch ist diese Aussage nur richtig, wenn unbeschränkt viel Zeit zur Verfügung steht: weit mehr Zeit als die nur 15 Mrd. Jahre, die seit dem Urknall vergangen sind.
     


 
Der Mathematiker von Neumann dachte ähnlich: Einem Biologen, der überzeugter Anhänger des Darwinismus war, hat er es einmal klar zu machen versucht, indem er ihn an Fenster führte und sagte:
 
    Sehen Sie dort drüben auf dem Hügel das hübsche weiße Landhaus? Es ist durch Zufall entstanden: Im Lauf der Millionen Jahre hat sich geologischer Prozesse wegen der Hügel gebildet, Bäume sind gewachsen, morsch geworden, zerfallen und wieder gewachsen; der Wind hat gelegentlich die Spitze des Hügels mit Sand bedeckt, Steine sind – vielleicht durch einen vulkanischen Prozess – dorthin geschleudert worden, sind durch Zufall aufeinander liegen geblieben, usw.
     
    Natürlich ist im Laufe der Erdgeschichte meist irgend etwas anderes entstanden, aber einmal eben — nach langer, langer Zeit — auch das Landhaus.

Der Biologe war natürlich nicht sehr glücklich über diese Argumentation.
 
Sie zeigt, dass Zufall und Auslese allein wohl nicht ausreichen, in Milliarden kleinster Schritte zunehmend Sinnvolleres zu schaffen — und schon gar nicht über Millionen von Jahre hinweg immer nur Veränderung in Richtung zunehmend  s i n n v o l l e r e r , stark anwachsender Komplexität bewirken können.
 
Hierfür sprechen auch folgende Beobachtungen der Evolutionsforscher (Conway Morris etwa hat darauf afmerksam gemacht):
 
    Offensichtlich werden in der Selektion sehr oft Lösungen anstehender Probleme bevorzugt, die sich nicht aus Anpassungsdruck herleiten lassen, sondern viel eher auf vorgegebene Organisationsprinzipien — vielleicht auch auf schon anderswo vorher gemachte "Erfahrungen". Sie treten bei der Lösung bestimmter Aufgaben unter vällig verschiedenen Umständen immer wieder auf. Man spricht deshalb von » Konvergenz «.
     
    Dachte man sich beispielsweise früher die Entwicklung von Linsenaugen als Weiterentwicklung eines "Urauges", welche einer Kette von passenden Umständen und glücklichen Zufällen zu verdanken ist, so hat man nun herausgefunden, dass
     
    • das Auge des Menschen,
       
    • das einer Krake
       
    • und das einiger Arten von Ringelwürmern

    unabhängig von einander in völlig getrennten Entwicklungslinien entstanden sind.
     
    Conway Morris betont: Das Linsenauge ist mindesten siebenmal in der Evolutionsgeschichte unabhängig erfunden worden. Nicht nur bei Wirbeltieren, sondern auch bei stammesgeschichtlich weit entfernten Tieren wie Tintenfischen und Ringelwürmern. In der Regel aber immer bei sehr agilen, räuberischen und intelligenten Organismen.
     
    Es gibt auch keinerlei Anhaltspunkt dafür, dass die Aufgabenstellung — Zurechtfinden, Flucht, Beutefang — die hochkomplexe Struktur des Linsenauges determiniert.
     
    Man hat eine ganz erdrückende Fülle vergleichbarer Konvergenzen gefunden. Manche "Errungenschaften der Evolution" sind mehr als 100 Mal parallel entstanden.
     
    Kurz: Dass unter ganz verschiedenen Umständen bis in Details hinein mehrfach ein fast identisches Ergebnis zustandekam, kann nicht allein durch Auslese der Tüchtigsten in Abwechslung mit Zufall erklärt werden.
     
    Schon die Entstehung einer derart ideenreichen Komposition von eingefasster Zoom-Linse, den 3 Häuten und der Ankopplung an das Nervensystem, lässt sich schwerlich als Kette zufälliger Mutationen erklären. Denn erst das fertige Auge bringt Erfolg beim Überleben. Wie aber soll sich dann die "Selektion" all die vielen Zwischenstufen "ausgedacht haben?

 
Bruno Martin, der uns in seinem Buch Intelligente Evolution (Ullstein, 2010) auf unglaublich viele, ganz erstaunliche Erfolge der Evolution aufmerksam macht, bringt es auf den Punkt, indem er schreibt:

Bruno Martin (S. 287):
 
Offenbar ist in der Evolution etwas angelegt, das mit Zielstrebigkeit und Absicht die Prozesse steuert, auch wenn der Ausgang ungewiss ist und die ursprüngliche Absicht verfehlt wird.
 
Ich jedenfalls kann mir mit all den Fakten, die wir bisher haben, keinen dawkinschen » blinden « Uhrmacher vorstellen, der nicht wüsste, wie die Rädchen zusammenpassen müssen, damit die Uhr funktioniert.
 


 
Letztlich also glaubt Bruno Martin (wie von Neumann), dass erfolgreiche Evolution teilweise auch gezieltes Experimentieren sein müsse:
 
Evolution  =  Intelligenz + Zufall + Selektion
 
Die Wurzel dieser Intelligenz allerdings hat bisher niemand entdeckt. Sie muss älter sein als biologisches Leben.

 

Bruno Martin (S. 288):
 
Man dachte lange, Gene könnten nur an die direkten Nachkommen weitergegeben werden. Jetzt aber erkennen die Wissenschaftler, dass sie auch an Mitglieder anderer Arten gegeben werden können. Solcher Austausch beschleunigt die Evolution, da die Organismen auf diese Weise » erlernte « Erfahrungen von anderen Arten übernehmen können.
 
Warum hat die Evolution dann aber derart komplexe, derart hoch spezialisierte Sinnesorgane und Gehirne geschaffen? Ich sehe es ganz einfach: Die schöpferische Intelligenz will mit eigenen Augen sehen — mit unseren Augen —, wie sich ihre Evolution entwickelt hat.
 


Interessant ist auch, dass selbst im Rahmen der kulturellen Evolution entscheidene Fortschritte gelegentlich weltweit zu fast derselben Zeit erzielt wurden. Die griechische Kultur etwa begann zur selben Zeit unser Denken abstrakter und fruchtbarer zu gestalten wie am anderen Ende der Welt die fernöstliche — und das, obgleich beide Kulturen damals doch gar nicht in Berührung kamen.
 
 
 
Die These, dass Evolution mehr sein müsse als nur Zufall mit nachfolgender Auslese der Tüchtigsten, vertritt auch der Evolutionsforscher Simon Conway Morris:


Conway-Morris im Interview mit der SZ (2010):
 
Ich bin ohne Einschränkungen Darwinist, auch wenn die Kreationisten immer wieder versuchen, meine Argumente zu benutzen und sie in einen falschen Zusammenhang zu stellen.
 
Aber ich sage auch: Der Darwinismus kann nicht alles erklären, was wir um uns herum sehen. Das legt nahe, dass in der Evolution zusätzliche Mechanismen wie eben die Konvergenz wirken.
 
Ein Beispiel sind Pflanzen, die in der Wüste wachsen. Es gibt zwei große Familien: Kakteen und Wolfsmilchgewächse. Sie sind nur sehr entfernt miteinander verwandt ... und sehen sich doch so ähnlich, dass nur botanisch gebildete Menschen die Unterschiede erkennen.
 
Diesen Mechanismus nennen wir Konvergenz. Beide Pflanzenfamilien haben fleischige und oft etwas eingerollte Blätter, einen milchigen Saft und Stacheln. Auf diese Merkmale hat die Evolution in der trockenen, heißen Umgebung mehrfach zurückgegriffen, weil sie sich als die beste Lösung bewährt haben. Dieses Prinzip findet man selbst auf der Ebene einzelner Moleküle.
 
Die Evolution [ so denkt Morris ] funktioniert wie eine Suchmaschine. » Sie sucht nach Lösungen, die sich bereits als erfolgreich erwiesen haben, und verwendet sie immer wieder für verschiedene Lebensformen. «
 
 
Das Leben ist ein Wunder. Und man sollte das Staunen darüber nicht verlernen. Je genauer ich verstehen lerne, wie sich die einzelnen Moleküle im Laufe der Jahrmillionen zu diesen hochkomplexen Organismen zusammenfanden, desto beeindruckter bin ich. Und ich werde immer sicherer: Der klassische Darwinismus kann das allein nicht erklären.
 


Lies mehr dazu in einem zweiten Interview 2010, im Beispiel Katze und Mücke und dem Buch:
 
 
Simon Conway Morris: Jenseits des Zufalls: Wir Menschen im einsamen Universum
 
Übersetzt aus: Life's Solution — Inevitable Humans in a Lonely Universe (2003)

 
 
 
Conway Morris' Ansicht geht über den sog. Vitalismus weit hinaus: Der nämlich postuliert einen grundsätzlichen Unterschied zwischen der belebten und der unbelebten Natur. Morris aber sagt ganz klar: » Meiner Ansicht nach war der Mensch bereits mit dem Urknall angelegt. Während der ersten Millisekunde dieser Welt. Unsere Entstehung ist alles andere als ein Zufall «.
 
 
Auf Seite 29-30 seines Buches nimmt Morris auch Bezug auf Beobachtungen anderer Evolutionsbiologen:
 
Temple Smith und Harold Morowitz etwa schreiben (auf Seite 280 in Between History and Physics):
    » Es gibt mindestens einen wesentlichen evolutionären Trend, der bislang nicht erklärbar ist: die zahlreichen Beispiele für morphologische Konvergenz.
     
    Warum finden wir schon in den wenigen Stichproben, die wir im genetischen Raum genommen haben, so viel offenkundige Konvergenzen und parallele Entwicklungen?
     
    Angesichts der hohen Wahrscheinlichkeit, sogar in ähnlichen ökologischen Nieschen auf Neuentwicklungen zu stoßen, ist es erstaunlich, wie oft man hohe morphologische Übereinstimmung in völlig verschiedenen Abstammungslinien findet. «

 
Auch hier muss ich wieder an Rupert Sheldrakes These denken und an seine Beispiele aus der Kristallographie.
 
 
Wir sehen also: Auch Conway Morris denkt — noch sehr viel wagemutiger — in Sheldrakes Richtung. Und es gibt noch andere:
 
Auf den Seiten 76-80 seines Buches Gehirn, Seele und Computer (Wissenschaftliche Buchgesellschaft 2006) diskutiert Günter Ewald kurz Ergebnisse des Hirnforschers Wolf Singer, die ebenfalls darauf hindeuten, dass Selbstorganisation Teil eines umfassenden Naturprozesses sein könnte. Ewalds Schlussfolgerung:
 
 
Naturphilosophisch gesehen steht damit die Frage im Raum,
 
ob es nicht so etwas wie » Geist « in der Natur oder im Kosmos insgesamt gibt

 
und nicht erst beim Menschen oder allgemeiner bei höheren Lebewesen.


 

 Beitrag 0-295
Evolutionsgeschichte des Lebens auf der Erde

 
 

 
Evolutionsgeschichte des Lebens auf der Erde

 
 
Wenn wir die Evolutionsgeschichte des Lebens auf ein Jahr komprimieren und so vor unserem geistigen Auge ablaufen lassen, gilt:
     
  • Einzeller treten schon am ersten Tag des Jahres auf,
     
  • mehrzellige Organismen aber erst etwa Ende April.
     
  • Erste Fische und Wirbeltiere gibt es ab Ende Mai.
     
  • Im August kriechen die ersten Amphibien an Land, und
     
  • Mitte September gibt es erste Reptilien.
     
  • Oktober und November gibt es Dinosaurier,
     
  • aber schon im November dann auch erste Säugetiere.
     
  • Erst um die Mittagszeit des letzten Tages im Jahr gibt es menschenartige Wesen in der afrikanischen Savanne.
     
  • Erst in der letzten Viertelstunde des Jahres entwickeln sich primitive Formen von Ackerbau.
     
  • Erst in der letzten Minute des Jahres entstehen komplexe menschliche Kulturen im Zweistromland, in Ägypten und Südostasien.
     
  • Die Zahl der Menschen auf der Erde betrug
       
    • Vor 10 000 Jahren etwa 2 Millionen
       
    • Um Christi Geburt etwa 200 Millionen
       
    • Im Hochmittelalter etwa 400 Millionen
       
    • 1950 schon 2,5 Milliarden,
       
    • 2017 schon 7,4 Milliarden ( wobei sie jetzt aber nur noch in Entwicklungsländern schnell wächst ).

 
Vielleicht muss man das für den Menschen charakteristische Wachsum seines Gehirns eher als Folgeerscheinung denn als Voraussetzung für seine Fähigkeit, Werkzeuge herzustellen, sehen.
 
So gesehen könnte der Menschen Drang nach Beschäftigung die eigentliche Anstoß für ihre schnelle intellektuelle Entwicklung sein.
 

 
 
Quelle: Johannes v. Butlar: RaumZeit, Provokation der Schöpfung (2009), S. 252-253


 

 Beitrag 0-301
Den Motor der Evolution verstehen

 
 

 
Den Motor der Evolution verstehen

 
 
Unserer Sehnsucht nach Harmonie zum Trotz sagt uns die Natur, dass Asymmetrien die Quelle ihrer schöpferischen Kraft sind. Dies gilt vom Kleinen bis hin zum ganz Großen.
 
Die Physiker erhoffen sich vollkommene Symmetrie, formulieren mächtige Gleichungen, sie zu beschreiben, merken aber immer wieder, dass all ihre Lösungen nur Annäherung an eine unglaublich facettenreiche, nicht wirklich voll symmetrische Wirklichkeit sind.
 
Motor der Evolution scheint zu sein:
     
  • Die Lebendigkeit des Vakuums — Quantenfluktuation — erzeugt Asymmetrie,
     
  • aus Asymmetrie entsteht Ungleichgewicht,
     
  • aus Ungleichgewicht entspringt Veränderung
     
  • und aus Veränderung entspringt Werden — das Entstehen immer neuer Struktur.

 
Die Tatsache, dass intelligentes biologisches Leben existiert, zeigt uns, wie unglaublich komplex und facettenreich auf solche Weise entstehende Struktur sein kann.
 
Ziel der Evolution scheint einfach nur Vielfalt zu sein.
 
Dass Intelligenz als Nebenprodukt kosmischer und evolutionärer Zufälle entstand — so argumentiert Marcelo Gleiser —, war Zufall, aber kein Endziel der Evolution. Dies, so denkt Gleiser, zeige uns die relativ junge Geschichte der Menschheit im Gegensatz zu der immerhin 150 Mio. Jahre andauernden Existenz der wenig intelligenten Dinosaurier.
 
Es mag dahingestellt bleiben, als wie schlüssig man dieses Argument anerkennen möchte.

 

  Beitrag 1926-57
Datenverarbeitung durch die Natur einerseits und den Menschen andererseits

 
 
E... aus 1926-55:
Grtgrt aus 1926-53:
 
Zeigt das nicht sehr deutlich, dass
  • der "Computer" der Natur den Code, den er abarbeitet (die DNS) ebenso wörtlich (und blind für Sinnhaftigkeit) interpretiert wie eine von Intel gebaute CPU


Hi E...,

durch Computer realisierte Datenverarbeitung wird realisiert durch ein Paar ( CPU, Programmcode ) derart dass die CPU, als Hardware, das Programm, welches Software darstellt, interpretiert und schließlich ein Ergebnis liefert.

Betrachtet man die Natur ebenfalls als Datenverarbeitungsanlage, so sieht man sie als Paar ( CDN, DNS ), wo CDN das ist, was ich den "Computer der Natur" nenne. Er interpretiert die DNS, die man in diesem Zusammenhang als Programmcode sehen muss.

Wie jeder Informatiker weiß, realisiert eine CPU relativ triviale Algorithmen. Die eigentliche Intelligenz der Datenverarbeitung steckt im Programmcode: in der Aufschreibung einer Rechenvorschrift also, die ein Programmierer entwickelt hat.

Bei der Natur ist es nicht anders: Die eigentliche Intelligenz steckt nicht in ihrem Computer CDN, sondern in den Programmen, die dieser Computer abarbeitet: den DNS-Molekülen. Die DNS-Moleküle aber — die Programme also, welche der Computer der Natur abarbeitet — haben sich über einige Jahr-Millionen hinweg entwickelt.

Kein Wunder also, dass die DNS, als Software gesehen, schon weit ausgefeilter ist als durch Menschen geschriebene Programme (an deren Entwicklung man ja bisher erst maximal 70 Jahre arbeiten konnte — vorher nämlich gab es keine Programmierer).


Vielleicht gibt es heute wirklich noch kein Programm, welches den Text in deinem Beitrag 1948-28 ebenso schnell verstehen kann wie wir Menschen. So ein Programm zu schreiben, wird aber spätestens in einigen Jahrzehnten eine leichte Übung sein.


Insgesamt bin ich davon überzeugt, dass durch den Menschen gebaute Datenverarbeitungsanlagen statt Jahr-Millionen nur Jahrzehnte (maximal 2 Jahrhunderte) benötigen werden bis sie den Datenverarbeitungsanlagen der Natur voll ebenbürtig sein werden.



Gruß, grtgrt
 

  Beitrag 1929-26
Evolution = Zufall + Selektion

 
 
Stueps aus 1929-14:
 
Grtgrt aus 1929-12:
Freiraum dieser Art existiert doch mindestens dort, wo absoluter Zufall regiert — etwa beim Kollabieren der Wellenfunktion, wo die Naturgesetze NICHT festlegen, in welch realen Zustand genau das betroffene Quantenobjekt denn nun zu kommen hat.

Interessant ist, dass du dann an anderer Stelle schon mein Argument, dass dieser absolute Zufall weder durch belebte noch durch unbelebte Materie nutzbar ist, ignoriert hast. Und an anderer Stelle wieder damit argumentierst.

Hi Stueps,

deine Meinung, dass der beim Zusammenbruch der Wellenfunktion waltende Zufall weder durch belebte noch durch unbelebte Materie "nutzbar" ist, teile ich nicht.

Begründung:

Evolution = Zufall + Selektion



Das Stichwort "Selektion" steht hier für die Tatsache, dass, wo immer ein Prozess zu einem nur durch Zufall bestimmten Ergebnis führt, dieses Ergebnis mehr oder weniger stabil sein kann als andere Ergebnisse, die statt seiner hätten eintreten können. Wählt der Zufall nun also ein ganz besonders stabiles Ergebnis aus, so kann das durchaus Konsequenzen haben, die auf Basis eines weniger stabilen, aber ebenso wahrscheinlichen Ergebnisses weniger wahrscheinlich oder sogar undenkbar gewesen wären.

Diese Überlegung gilt für sämtliche Prozesse mit zufälligem Ergebnis, also auch für Elementarereignisse.

Mit anderen Worten: Ich könnte deine Meinung nur dann als zutreffend einstufen, wenn wir wüssten, dass jeder Zusammenbruch einer Wellenfunktion nur zu Zuständen führen kann, die sämtlich exakt gleich stabile Nachfolgekonfiguration (des betroffenen Quantensystems) schaffen würden, wenn sie denn einträten.

Nichts spricht dafür, dass diese Bedingung tatsächlich für jedes nur denkbare Elementarereignis erfüllt ist.

Gruß, grtgrt
 

  Beitrag 1948-21
Warum Evolution nicht ständig schon im Keim erstickt wird

 
 
Henry aus 1948-19:
 
Du musst etwas ganz Entscheidendes berücksichtigen, denn die Beschreibung rein thermodynamisch ist nur die halbe Miete:
Die Gravitation! Sie wirkt dem "allgemeinen Zerfall" entgegen.

Hi Henry,

die rein thermodynamische Sicht ist tatsächlich nur die halbe Miete, das aber keineswegs der Gravitation wegen:

Die Wahrscheinlichkeit, mit der ein Zustand z per Elementarereignis Nachfolgezustand von z1 wird ist nämlich nur in sehr geringem Maße dadurch gegeben, um wieviel mehr oder weniger er geordnet ist als z1. Wesentlich entscheidender ist, wie unterschiedlich z von z1 ist.


Schließlich und endlich kann ein Elementarereignis den Systemzustand ja nur marginal abändern!


Beste Grüße,
grtgrt
 

 Beitrag 0-477
Existent — mindestens als Idee — kann alles sein, was widerspruchsfrei gedacht werden kann

 
 

 
Was man unter » Existenz « versteht

 
 
Definition 1: Ein Gegenstand X menschlichen Denkens existiert — wenigstens als Idee —, sobald man ihm widerspruchsfreie Semantik S zuordnen konnte.
 
 
 
 
Was man unter » Sinn « zu verstehen hat

 
 
Definition 2: Unter Sinn versteht man Semantik S, die ein oder mehreren Gegenständen unseres Denkens widerspruchsfrei Bedeutung zuordnet.
 
Konsequenz daraus:
 
 
Sinn hat alles, was mit widerspruchsfreier Semantik versehen werden konnte.
 
Sinn ist alles, was widerspruchsfreie Bedeutung darstellt.


 

  Beitrag 1915-143
Was wir als reale Wirklichkeit empfinden, ist einfach nur eine Menge von Daten

 
 
Stueps aus 1915-142:
Man kann Vorhersagen einer Theorie experimentell bestätigen, diese Bestätigungen erhärten die Richtigkeit dieser Theorie, beweisen sie jedoch niemals endgültig.

Damit, Stueps, hast du natürlich völlig recht.

Habe das in Bemerkung 1915-140 entsprechend richtig gestellt.


Zitat von Stueps:
Was mir viel wichtiger ist: Was meinst du zu Beitrag 1915-135?

Ich seh, worauf du hinaus willst, und dass man hier aufpassen muss, da nur kleine Ungenauigkeiten in der Formulierung des Sachverhalts ihr jeden Sinn nehmen.

Tatsache ist, dass wir hier gleich 3 solcher Formulierungen vorliegen haben:
  • 1: Jene von dir, die da in ihrer letzten (allzu ungenauen) Form lautet: » Ein Stein ist ein Stein «.
  • 2: Jene von Andreas Mücklich, der sagt » Wirklichkeit = Information über die Wirklichkeit «.
  • 3: Und schließlich jene, in der mich ich bemüht habe, möglichst genau zu sagen, was gemeint ist: » Ein Ding D(Q) existiert in genau dem Ausmaß, in dem — wie indirekt auch immer — Information darüber existiert. «

Aussage 1 ist — da Tautologie — eine Aussage ohne jeden Inhalt.


Aber sag mal ehrlich: Würdest du auch Aussage 3 als ohne jeden Inhalt bezeichnen?

Meiner Meinung nach kann Aussage 3 sogar in zweierlei Weise interpretiert werden:
  • Einmal aus Sicht eines Beobachters, d.h. als: "Jedes Ding D(Q) existiert für uns nur in dem Ausmaß, in dem wir Information darüber haben."
  • Oder absolut gesehen im Sinne von: "Jedes Ding D(Q) existiert nur in dem Ausmaß, in dem über D(Q) informierende Daten existieren (wer welchen Teil davon einzusehen in der Lage ist, wäre dann eine noch ganz andere Frage).
In Mücklichs Buch z.B. finden sich mehrere Argumente, die in meinen Augen nicht schlüssig sind, da sie diese beiden Interpretationsmöglichkeiten der Aussage 3 (und damit auch der Aussage 2 – nur sie findet sich in seinem Buch) nicht auseinander halten.


Bitte mach dir auch bewusst, dass Aussage 3 insofern sehr genau ist, als sie nicht einfach von einem "Ding" spricht, sondern von einem "Ding in Qualität Q".

Wäre das Ding z.B. eine Ziege, so könnte sie in einer Qualität aus Fleisch und Blut existieren (Q1), als Schatten an der Wand einer Höhle (Q2) – denk an Platons Höhlengleichnis – oder vielleicht nur in einem unserer Träume (Q3). Somit ist klar: Im Sinne von Aussage 3 ist eine Ziege nicht einfach eine Ziege.

Genau so wenig kann behauptet werden, Aussage 3 sei ebenso inhaltsleer wie Aussage 1.


Wie schon gesagt: Wir müssen hier sehr sorgfältig formulieren und sehr sorgfältig lesen, um nicht bei einer zyklischen Definition zu landen, die dann eben doch inhaltsleer wäre.

Aussage 3 – und etwas weniger offensichtlich auch Aussage 2 – sind aber keineswegs leer: Schließlich bedeuten sie nichts anderes als


Jedes Ding D(Q) ist eine Menge von Informationen.

Alles, was wir als reale Wirklichkeit empfinden, ist einfach nur eine Menge von Daten.



Beste Grüße,
grtgrt
 

  Beitrag 1955-80
Wie die ART uns zeigt, dass es durchaus schon ewig Existierendes geben könnte

 
 
U...2 aus 1955-78:
 
Die Zeit des mysteriösen Etwas wäre unendlich und somit würde es eine unendliche Zeit dauern bis zum Heute.
Was aber wiederum nicht sein kann, weil wir ja gerade den heutigen Tag erleben.

Ich frage mal ganz schüchtern: "Versteht mich hier in unserem Universum jemand?"

Hi U...2,

warum kann das nicht sein? Es KANN sein:

Wenn sich das Etwas nämlich mit genau Lichtgeschwindigkeit durch den Raum bewegt, hat aus seiner Sicht jedes Zeitintervall die Länge 0.

Aus seiner Sicht wäre dann das JETZT identisch mit seiner GANZEN bisherigen Existenz — auch wenn die keinen Anfang haben sollte.

Und wer sagt dir, dass wir nicht Teil eines eben solchen Etwas sind ( es aber vielleicht nicht immer waren )?

Gruß,
grtgrt
 

  Beitrag 1955-126
Schon ewig Existierendes: Ein Beispiel

 
 

Es gibt schon recht triviale Dinge, die weder Anfang noch Ende haben:


Ein Kreis etwa (als platonische Idee)
  • hat weder Anfang noch Ende,
  • und existiert völlig unabhängig von irgendwelchen konkreten Dingen (etwa unserem Universum).

Auch die Existenz dieser "Idee" (dieses Konzepts also) hat weder einen Anfang, noch irgendeine Ursache.

 

  Beitrag 1961-1
Erst Information schafft die wirkliche Existenz aller Dinge

 
 


Ein Ding existiert genau dann,

wenn es beobachtet wird

oder seine Existenz logische Folge einer Beobachtung ist.


Noch genauer muss man sagen:


Ein Ding D existiert in Qualität Q genau dann,

wenn es so beobachtet wird

oder seine Existenz ( in eben dieser Qualität ) logische Folge einer Beobachtung ist.



BEWEIS: Es scheint vernünftig, D(Q) — d.h. D in Qualität Q — als existent zu bezeichnen, wenn es in eben dieser Qualität tatsächlich beobachtet wird.

Interessant aber ist, dass  e x p l i z i t e  Beobachtung für seine Existenz  n i c h t  notwendig ist: Es reicht, wenn D(Q) als Information existiert.


Dass dem so ist, zeigt folgendes Beispiel:

Sei D der Weg, den ein Photon nimmt, wenn es durch einen feinen Doppelspalt geschickt wird. Wir alle wissen: Die Gruppierung, in der sich einzeln durch den Doppelspalt geschickte Photonen auf einer hinter dem Doppelspalt angebrachten Photoplatte zeigen, hängt davon ab, ob man an Spalt S1 und/oder an Spalt S2 einen Detektor stehen hatte, der durch diesen Spalt kommende Photonen registriert hat.

Wir wissen auch, dass das Verschwinden des Interferenzmusters nach Aufstellen der Detektoren nicht dadurch verursacht worden sein kann, dass jene Photonen jetzt durch die Detektoren abgelenkt wurden. [Beweis: Die Gruppierung auf der Photoplatte ist unabhängig davon, ob wir S1 und S2 oder nur S1 mit einem Detektor ausstatten. Tun wir das, so kennen wir die durch S2 kommenden Photonen und wissen, dass wenigstens sie keiner klassischen (d.h. keiner lokalisierbaren) Detektor-Interaktion unterworfen sein konnten.

Nehmen wir jetzt an, nur S1 sei mit einem Detektor ausgestattet.

Schon dann kann jedem Photon eindeutig ein Weg der Qualität "führt durch S1" oder "führt durch S2" zugeordnet werden.

Ohne Detektor aber muss den Photonen ein Weg der Qualität "führt zu 50% durch S1 und führt zu 50% durch S2" zugeordnet sein (da sich sonst ja das Interferenzmuster auf der Photoplatte hinterm Schirm nicht ändern oder in seiner neuen Form nicht symmetrisch sein könnte).


Und noch etwas sehr Interessantes kommt aus diesem Beispiel:

Dass ein Ding beobachtet werden KANN, reicht NICHT, seine Existenz sicherzustellen. Es existiert wirklich erst dann, wenn es — wenigstens indirekt — auch tatsächlich beobachtet WIRD (im Beispiel etwa als Weg durch einen bestimmten Spalt).

George Berkely’s Erkenntnis

esse est percipi   ( zu sein bedeutet wahrgenommen zu werden )


war also durchaus richtig, muss aus heutiger Sicht aber präzisiert werden zu:


Ein Ding existiert in genau dem Ausmaß, in dem fehlerfreie Informationsverarbeitung seine Existenz zeigt.



Gebhard Greiter (grtgrt)

 

  Beitrag 1961-4
-

 
 
Hans-m aus 1961-2:
Grtgrt aus 1961-1:
 
Ein Ding existiert genau dann,

wenn es beobachtet wird

oder seine Existenz logische Folge einer Beobachtung ist.

Zitat:
Dass ein Ding beobachtet werden KANN, reicht NICHT, seine Existenz sicherzustellen. Es existiert wirklich erst dann, wenn es — wenigstens indirekt — auch tatsächlich beobachtet WIRD (im Beispiel etwa als Weg durch einen bestimmten Spalt).


Und was ist, wenn ich meine Augen geschlossen habe?
Ist dann die Welt um mich herum nicht existent, nur weil ich sie nicht beobachte?

Hi Hans-m,

es ist nicht Teil der Bedingung, dass es sich um einen ganz bestimmten Beobachter handeln muss (um dich etwa).
Im Extremfall reicht die Umgebung des Dings (mit anderen Worten: ein Messgerät oder irgendwelche Teile der Natur, die D(Q) beschreibende Information widerspiegeln).

Man könnte jetzt meinen, dass das Ding dann vielleicht nur aus Sicht derer, die jene Information kennen, existiert. Dem aber ist NICHT so, wie auch das Doppelspalt-Experiment zeigt: Sobald der Versuchsaufbau nämlich so ist, dass Weg-Information entsteht, reagiert das Interferenzmuster hinter dem Doppelspalt — die Natur also — prompt.


Zitat von Hans-m:
Und was ist mit Schrödingers Katze?
Auch wenn die Kiste verschlossen ist, ist die Katze existent, tot oder lebendig, der Zustand ist zum Zeitpunkt "x" definiert, wenn es auch keiner sehen kann. Einer von beiden Zuständen ist existent, auch wenn es noch kein Auge beobachtet hat.

Hier kommt die Qualität der Existenz ins Spiel, und die ist — so lange der Inhalt der Kiste nicht beobachtbar ist — der Überlagerungszustand "tot oder lebendig".


Zitat von Hans-m:
Und was ist mit allem, was sich ausserhalb unseres Sicht-Horizontes befindet. Auch dort existiert das, was sich nun mal eben dort befindet.

Wie in Antwort auf deine Frage 1 schon gesagt: Der springende Punkt ist, ob Information erzeugt wird. Wo Zustandsinformation entsteht, gilt sie dort auch schon als durch Beobachtung geliefert. Es ist NICHT gefordert, dass ein Mensch oder sonst was existiert, der oder das sie entgegennimmt.

Diese Auffassung ist heute Basis aller Quantentheorie,

da nur sie kompatibel ist mit den Ergebnissen aller bisher durchgeführten quantentheoretischen Experimente.



Du könntest jetzt natürlich argumentieren, dass — wenn die Katze stirbt — wenigstens in der Kiste solche Information ja tatsächlich entsteht. Leider aber hinkt hier Schrödingers Katzenbeispiel. Er nämlich wollte diese schöne Geschichte so verstanden wissen, dass erst ein Öffnen der Kiste Information über den Zustand der Katze erzeugt.


Gruß, grtgrt
 

PS: Vielleicht sollte ich meine letzte Aussage aus Beitrag 1961-1 besser formulieren in der Form


Ein Ding D(Q) existiert in genau dem Ausmaß,

in dem — wie indirekt auch immer — Information darüber existiert.



( Information verstanden als Menge wahrer Aussagen )


 

  Beitrag 1961-7
-

 
 
Hans-m aus 1961-5:
 
... ein beobachtetes Photon ist danach [also nach seiner Beobachtung keines mehr. Die Messung hat den Zustand des Objektes verändert, wie wir hier im Forum bereits an anderer Stelle erfahren konnten. Aber seine eigentliche Existenz hatte das Objekt vor seiner Beobachtung.

Dieses schöne Beispiel zeigt, dass meine Formulierung wohl doch die am Ende von Beitrag 1961-4 sein sollte.

Sie passt, da Information über ein Ding sich ja auch auf die Vergangenheit dieses Dings beziehen kann.

Danke!

 

  Beitrag 1961-22
-

 
 
Irena aus 1961-19:
 
Man kann auch teilen in reelle Existenz und virtuelle Existenz. Ich ebenfalls finde sehr wichtig die zwei Arten von Existenz zu unterscheiden. Eine kann ggbf. durch Meßinstrumente wahrgenommen werden. Die andere kann nur durch Gedanken nachvollzogen werden. Also gibt es eine prinzipielle Grenze, die man auch begrifflich festhalten sollte.

Hallo Irena,

da gebe ich dir völlig recht.

Aber genau diesen Aspekt berücksichtigt meine Definition ja schon, da sie nicht einfach von einem "Ding D" spricht, sondern genauer von einem "Ding D in Qualität Q" (das ich dann als D(Q) bezeichne — der notwendigen Genauigkeit wegen).

Sie geht sogar noch weiter, indem sie nicht einfach nur Extremfälle zu unterscheiden gestattet — z.B. virtuelle bzw. reale Existenz — sondern sogar noch auf Mischformen davon anwendbar ist. Das muss auch so sein, denn ein Elektron z.B. existiert zunächst nur virtuell, am Ende seines Lebens aber (dann nämlich, wenn es beobachtet wird oder anderweitig mit seiner Umgebung interagiert) tatsächlich auch real.


Irena aus 1961-19:
Wenn wir den Ideen eine Existenz zuteilen, dann müsste auch die Wahrscheinlichkeitswelle existieren. Eben aber nicht in der Realität, die aus Materie besteht.

Nach meiner Definition existiert sie tatsächlich, denn sie entstand ja als Folge unserer Beobachtung der Natur (in dem Fall in Erklärung der Interferenz, die wir hinter dem Doppelspalt beobachten).


Beste Grüße,
grtgrt

PS: Ich hoffe, dir hiermit ein klein wenig bewiesen zu haben, dass meine Definitionen nicht ganz so schnell und unüberlegt hingeschrieben sind, wie man zunächst vielleicht denken könnte.

 

  Beitrag 1961-27
-

 
 
Hans-m aus 1961-5:
 
Grtgrt aus 1961-4:
 
Im Extremfall reicht die Umgebung des Dings (mit anderen Worten: ein Messgerät oder irgendwelche Teile der Natur, die D(Q) beschreibende Information widerspiegeln).

Bei der Grösse des Universums gibt es tausende "Objekte", die noch nicht mit irgend etwas wechselwirken konnten, aber trotzdem existieren.


Hallo Hans,

meine Definitionen behauptet ja gar nicht, dass Wechselwirkung eines Dings D(Q) notwendige Bedingung für seine Existenz sei.

Nimm z.B. an, wir hätten ein Polynom vom Grad N = 10123 mit ausschließlich komplexen Koeffizienten. Jeder Mathematiker weiß, dass mindestens eine Folge komplexer Zahlen existiert, deren Elemente sämtlich Nullstellen des Polynoms sind – und sogar ALL seine Nullstellen.

Niemand hat jene Zahlen je errechnet oder gesehen. Nie gab es zwischen ihnen und irgendeinem physikalischen Objekt Wechselwirkung.
Und dennoch existieren sie nach meiner Definition.

Gruß, grtgrt
 

  Beitrag 1961-32
Zeit, Raum UND Zustand sind relativ

 
 

Warum Informationslieferung durch die Natur nicht-lokal,

Existenz aber lokal ist



Die Tatsache, dass jedes Quant mit anderen verschränkt sein kann, scheint zu beweisen:


Durch die Natur gelieferte Information steht im gesamten Universum SOFORT zur Verfügung —
nur codiert allerdings, was schade ist, denn:

Das Wissen über den zur Dekodierung notwendigen Schlüssel kann sich höchstens mit Lichtgeschwindigkeit ausbreiten.


Wer nun also, wie etwa Anton Zeilinger, der Auffassung ist, dass jede Sachlage nur existiert soweit die Natur sie schon beschrieben hat, der muss sich die Frage gefallen lassen, ob damit
  • Existenz ab dem Zeitpunkt der Bereitstellung
  • oder Existenz ab dem Zeitpunkt möglicher Decodierung gemeint sein soll.

Da unser Universum, wie die ART uns zeigt, den Begriff "gleichzeitg an jedem Ort" aber gar nicht kennt, ergibt sich zwangsläufig:

Eine Sachlage S existiert aus Sicht eines Ortes O genau dann, wenn


die Natur Information über S bereitgestellt (aber noch nicht widerrufen) hat

und zudem ein Schlüssel, sie zu decodieren, den Ort O erreicht hat.



Damit wird nun auch klar, dass Schrödingers Katze in der (noch ungeöffneten) Box im Zustand » tot « sein kann, obgleich sie doch außerhalb der Box noch im Zustand
» tot oder lebendig « ist. Auch der Zustand also, in dem sich ein Ding befindet, ist relativ zum Ort des Beobachters:


Zeit, Raum UND Zustand sind relativ.


Beispiele hierfür kennt man schon lange, denn auch die Aussage » Ein Ding D bewegt sich mit Geschwindigkeit v « beschreibt ja letztlich einen Zustand von D.
Nur auf den Zustand der » Existenz « scheint man das bisher so bewusst nicht angewandt zu haben.

 

  Beitrag 1961-38
-

 
 
Hallo Horst,

wenn ich davon spreche, dass Information "zur Verfügung" steht, bedeutet das nur, dass die Natur sie geliefert hat (durch den Kollops einer Wellenfunktion) — ob sie jemand zur Kenntnis genommen hat, und ihm schon ein Weg offen stand, sie zu decodieren — dem existierenden Informationsstand nach —, ist eine ganz andere Frage.


Horst aus 1961-37:
 
Könntest du mir bitte erklären, worauf bezogen das genannte Vokabular, insbesondere "Zustand", relativ ist.

Antwort: Der Umfang existierenden Wissens über den Zustand, in dem die Katze existiert, ist abhängig vom Ort des Beobachters.

Für einen Beobachter, der in der Box neben der Katze sitzt, ist deren Zustand ein faktischer (einer der beiden Zustände "tot" oder "lebendig").
Für einen Beobachter außerhalb der noch nicht geöffneten Box dagegen ist deren Zustand immer noch der virtuelle Zustand "tot oder lebendig" (da — und das wird in diesem Gleichnis halt einfach vorausgesetzt — die Natur dem außen weilenden Beobachter KEINE Möglichkeit gibt, an die Information zu kommen).

Nochmals also: Es kommt nicht darauf an, ob ein Beobachter Information zur Kenntnis nimmt, sondern es kommt darauf an, ob die Natur ihm einen Weg eröffnet, sie zur Kenntnis nehmen zu  k ö n n e n !


Wichtig zu sehen ist auch:

Es kann vorkommen — und kommt bei verschränkten Quanten auch tatsächlich vor —, dass die Natur jene Information zwar schon  e r z e u g t , aber noch nicht zur Verfügung gestellt hat. Als zur Verfügung gestellt in diesem Sinne gilt sie nur dort, wo auch der Dekodierungsschlüssel verfügbar ist.

Dies klar zu machen, werde ich demnächst hier auch auf Zeilingers Experiment zu sprechen kommen.


Gruß, grtgrt
 

  Beitrag 1961-39
Zeilingers Experiment zeigt: Gegenwart kann Vergangenheit erweitern

 
 

Schon 2001 konnte Anton Zeilinger experimentell beweisen:



In der Gegenwart entstehende Information kann etwas, das nur in der Vergangenheit existent war,

sogar  d o r t  noch  j e t z t  e r s t  erweitern


( und zwar jenes Ding selbst, nicht einfach nur unser Wissen darüber )



Hier nun die Beschreibung von Zeilingers Experiment:

Zwei Lichtquellen liefern Folgen von Paaren ( x1i, x2i ) und ( x3i, x4i ) derart, dass in jedem dieser Paare die beiden Photonen zueinander verschränkt sind.
Die Versuchsanordnung garantiert, dass für jedes i
  • die Photonen x1i und x4i zum Zeitpunkt zi einen Messapparat BOB erreichen, der ein Messergebnis V( zi, x1i, x4i ) liefert, wohingegen
  • x2i und x3i zu einem späteren Zeitpunkt zi+t eine zweite Messapparatur ALICE erreichen, die — erst nachdem BOBs Messergebnis V( zi, x1i, x4i ) schon existiert — per Zufallsgenerator entscheidet, welche von zwei möglichen, sich aber gegenseitig ausschließender Messungen A oder B sie am Paar ( x2i, x3i ) vornimmt, um so ein Messergebnis G( zi+t, x2i, x3i ) zu erhalten.
  • Die Zeitverzögerung t wird erreicht, indem man den Weg hin zu ALICE durch ein entsprechend langes Glasfaserkabel führt.

Sei nun V( z, x1, x4 ) die Folge der Messergebnisse V( zi, x1i, x4i ) von BOB und G( z+t, x2, x3 ) die Folge der Messergebnisse G( zi+t, x2i, x3i ) von ALICE.

Letztere ist Vereinigung zweier Teilfolgen GA( z+t, x2, x3 ) und GB( z+t, x2, x3 ), deren eine alle aus einer Messung A und deren andere alle aus einer Messung B kommenden Messergebnisse umfasst.

Zudem sei VA( z, x1, x4 ) bzw. VB( z, x1, x4 ) jene Teilfolge der durch BOB erhaltenen Messergebnisse, für die ALICE am Paar ( x2, x3 ) Messung A bzw. B vorgenommen hat.

  • Messung A bestand darin, jeweils einzeln für sich die Polarisation von x2 und x3 zu messen.
  • Messung B war eine Messung des Bellschen Zustandes des Paares ( x2, x3 ). Diese Messung verschränkt die beiden Photonen und würde demnach indirekt, wenn BOBs Messung die Quanten x1 und x4 nicht schon zerstört hätte, auch sie verschränken. Da die beiden aber zum Zeitpunkt z+t gar nicht mehr existieren, würde man NICHT erwarten, dass das Messergebnis VB( z, x1, x4 ) sie als verschränkt zeigen könnte.

Was Zeilinger nun aber feststellt ist:

  • Betrachtet man nur V( z, x1, x4 ), so erschließt sich daraus keinerlei Information: Die Zahlen scheinen rein zufällig, und das Messergebnis G( z+t, x2, x3 ) zeigt keinerlei Korrelation mit V( z, x1, x4 ).
  • Betrachtet man aber VA( z, x1, x4 ) im Lichte von GA( z+t,x2,x3 ) und ferner VB( z, x1, x4 ) im Lichte von GB( z+t, x2, x3 ), so zeigt sich klar: Für jedes i erscheinen uns die Quanten x1i und x4i dann — und NUR dann — als miteinander verschränkt, wenn x2i und x3i der Messung B unterzogen wurden.

Das bedeutet: Der für das Paar ( x1i, x4i ) zum Zeitpunkt z beobachtete Zustand hängt — aus einer Sicht, die wir erst zum Zeitpunkt z+t gewinnen — davon ab, für welche der beiden Messungen A oder B am Paar ( x2i, x3i ) ALICE sich entscheidet:  d a n n  erst entscheidet!


Man kann es auch so sehen:

V( z, x1, x4 ) ist durch die Natur gelieferte codierte Information, die aber erst decodierbar wird, nachdem wir zum Zeitpunkt z+t einen Schlüssel dafür erhalten. Dieser Schlüssel kann ein Schlüssel S(A) oder ein Schlüssel S(B) sein, und je nachdem welchen wir verwenden, wird die in V( z, x1, x4 ) entdeckte Information eine andere sein.

V( z, x1, x4 ) also ist codierte Information über Möglichkeiten für den Zustand des Paares ( x1, x4 ), wobei aber nur ein Teil davon später decodierbar wird — eben der Teil, der logische Folge der Messergebnisse G( z+t, x2, x3 ) ist. Mehr noch: Seine Decodierbarkeit entsteht zum selben Zeitpunkt, zu dem er Fakt wird.


Zeilinger schreibt:

Zitat:
Dies unterstützt eine Ansicht, die insbesondere in der Kopenhagener Interpretation ... vor allem durch Niels Bohr ... vertreten wurde. Danach ist der quantenphysikalische Zustand eines Systems [ hier ( x1i, x4i ) nicht ein Feld oder eine sonstige Entität, die sich in Raum und Zeit ... ausbreitet.

Im Gegenteil. Sie ist lediglich unsere Darstellung des Wissens, das wir über die konkrete physikalische Situation ... besitzen.

Diese Darstellung des Wissens hängt davon ab, welche Situation wir vor uns haben und welche Messresultate wir erhalten.

Im Experiment ist unser Wissen über die Situation zum Zeitpunkt z — und auch unser Wissen über die zum Zeitpunkt z durch BOB erhaltenen Ergebnisse — davon beinflusst, welche Messung später ALICE durchführt, und welches Messergebnis sich ihr zeigt.

Zitat von Zeilinger:
 
Diese später durchgeführte Messung und ihr Resultat beeinflussen also nicht die Wirklichkeit an Photon x1 und x4. Sie ändern aber, was wir darüber sagen können, sie ändern unsere Interpretation der physikalischen Situation.

Und genau deswegen sehen wir ab dem Zeitpunkt z+t — und wirklich erst ab dann — das Paar ( x1, x4 ) zum Zeitpunkt z der Vergangenheit als verschränkt bzw. nicht verschränkt , je nachdem für welche Art von Messung am Paar ( x2, x3 ) wir uns im Zeitpunkt z+t entschieden haben.

Hieraus folgt ganz klar:

Der Zustand Z, den wir dem Paar ( x1, x4 ) zum Zeitpunkt z des Todes dieser beiden Quanten zuschreiben, ist ab dem Zeitpunkt z+t davon abhängig, für welche Messung ALICE sich bei z+t entschieden hat. Kurz:


Unser Wissen über Z wird zum Zeitpunkt z+t präzisiert,

aber was diese Präzisierung ergibt, hängt von einer Messung ab, die erst zum Zeitpunkt z+t ausgewählt wird (!).


Erstaunlicher noch:

Durch die Wahl ihrer Messung kann ALICE bestimmen, zu welcher Präzisierung es kommt,

und das trotz der Tatsache jede der beiden möglichen Präzisierungen die jeweils andere ausschließt.



Dies wiederum zeigt ganz klar, dass Zeilinger recht hat, wenn er sagt:


Was sich hier zum Zeitpunkt z+t präzisiert, ist nicht einfach nur unser Wissen über Z,

sondern tatsächlich Z selbstund das, obgleich doch Z zum Zeitpunkt z+t gar nicht mehr existiert.



Quelle: Seite 302-310 aus Anton Zeilingers Buch "Einsteins Spuk" (2007)  

 

  Beitrag 1961-42
-

 
 
Okotombrok aus 1961-40:
 
Hallo Grtgrt,

dein Beitrag 1961-39 in allen Ehren, ich habe ihn nur überflogen und mir nicht die Mühe gemacht, ihn im Detail zu überdenken.
Den Laien dürfte deine Darstellung eher abschrecken als neugierig machen.

Wie wär's zunächst einmal mit einer allgemeineren Darstellung damit klar wird, worum es eigentlich geht wie z.B. folgende?
 

Hi Okotombrok,

mein — zugegebenermaßen recht komplizierter — Beitrag 1961-39 war notwendig, um zu beweisen, dass das, was ich in 1961-32 schrieb, keineswegs irgendwelche Phantasien von mir sind, oder gar Esoterik, wie Henry in seinem Beitrag 1961-33 vermutet.

Fragen, die Horst in 1961-37 stellt, habe ich in Beitrag 1961-38 ansatzweise beantwortet. Meine dort unter "Wichtig zu sehen ist: ..." gemachte Aussage kann aber wohl wirklich nur jemand glauben, der einen Beweis dafür gesehen hat. Dieser Beweis ist Zeilingers Experiment, und genau deswegen versprach ich Horst dort auch, es zu skizzieren.

Diesem Versprechen kam ich nach in dem dir zu kryptisch erscheinenden Beitrag 1961-39.

Die buchstäbliche Unglaublichkeit dessen, was Zeilinger mit diesem Experiment entdeckt hat, scheint es mir wert, eben dieses Experiment nicht einfach als eines unter vielen abzutun, sondern noch mehr darüber nachzudenken. Das aber geht erst, wenn man es genau kennt. Dass man damit einige Leser abhängt, mag gut sein, ist dann aber wohl nicht zu ändern.

Beste Grüße,
grtgrt
 

  Beitrag 1961-52
-

 
 
E... aus 1961-51:
Grtgrt aus 1961-50:
Na ja,

da habe ich mich wohl zu ungenau ausgedrückt: Statt "... zu einer leichten Abänderung der Vergangenheit" sollte ich besser sagen "... zu einer leichten Abänderung dessen, was die Natur uns als Vergangenheit zeigt".

Gruß, grtgrt
 
 
Hallo Grtgrt, sei gegrüßt.
Schon sehr interessant was Du da schreibst.
Allerdings solltest Du das dringend präzisieren.
In dem Du erklärst wie wir, "immer" in der Gegenwart verhaftet, von der Natur "Vergangenheit" gezeigt bekommen.

Voller Erwartung und mit den besten Grüßen.
E....

Siehe Beitrag 1961-39

und lies insbesondere, was Anton Zeilinger auf den Seiten 309-310 seines Buches "Einsteins Spuk" sagt (ich berichte nur, was er festgestellt hat).

Gruß, grtgrt
 

  Beitrag 1961-59
-

 
 
E... aus 1961-57:
 
... es geht nicht um das was in 1961-39 steht oder in 1961-44. Es geht um das was Du in 1961-50 geschrieben hast. Dort steht...

Grtgrt aus 1961-50:
Na ja,

da habe ich mich wohl zu ungenau ausgedrückt: Statt "... zu einer leichten Abänderung der Vergangenheit" sollte ich besser sagen "... zu einer leichten Abänderung dessen, was die Natur uns als Vergangenheit zeigt".

Gruß, grtgrt
 

 Es gibt in den von Dir genannten Beiträgen keine, wie auch immer geartete Entsprechung für das angefragte Zitat.
 

Meine Antwort darauf:

Auch Beitrag 1961-50 sagt nichts anderes, als was schon in 1961-39 (und 1961-44) steht, d.h. in der Beschreibung von Zeilingers Experiment, auf das Zitat zu Beginn von 1961-50 ja ganz klar Bezug nimmt.


Letztlich aber muss auch ich einsehen: Die Verständlichkeit einer Erklärung zu beurteilen ist Sache der Leser, nicht Sache des Schreibers. Da nun aber mindestens ein Leser 1961-50 nicht klar genug findet, sei hier nochmals versucht, den Punkt, auf den es ankommt, zu erläutern:


Zeilingers Experiment ist so aufgebaut, dass für jedes Quadrupel ( x1i, x2i, x3i, x4i ) betrachteter Photonen
  • die beiden Paare ( x1i, x2i ) und ( x2i, x4i ) aus verschiedener Quelle kommen, also  k e i n  Grund besteht anzunehmen, dass x1i mit x4i verschränkt sei.
  • Was BOB an Daten über den Zustand von x1 und x4 zum Zeitpunkt ihrer Zerstörung sammelt, wird erst entschlüsselbar mit Hilfe später durch ALICE über eine Messung an x2 und x3 gewonnener Daten.
  • Das Ergebnis dieser Decodierung von BOBs Daten zeigt x1 und x4 dann und NUR dann als verschränkt, wenn ALICE Messung x2 und x3 miteinander verschränkt.
  • Das ist erstaunlich, denn zum Zeitpunkt, zu dem x2 und x3 miteinander verschränkt werden, existieren x1 und x4 schon gar nicht mehr.

Fazit also: Zum Zeitpunkt, zu dem x2 und x3 miteinander verschränkt werden, ändert sich, was die Natur uns über den Verschränkungszustand von x1 und x4 zum Zeitpunkt von BOBS Messung sagt — dieser Zeitpunkt aber liegt in der Vergangenheit (!).

 

  Beitrag 1961-60
-

 
 
Grtgrt aus 1961-59:
 
Fazit also: Zum Zeitpunkt, zu dem x2 und x3 miteinander verschränkt werden, ändert sich, was die Natur uns über den Verschränkungszustand von x1 und x4 zum Zeitpunkt von BOBS Messung sagt — dieser Zeitpunkt aber liegt in der Vergangenheit (!).

 

Zeilinger also hat entdeckt und bewiesen:


Dass die Natur ihre Meinung über einen Zustand der Vergangenheit ändert, KANN vorkommen.


Wer das mit der Ansicht kombiniert, dass alles nur in dem Ausmaß und in dem Umfang existiert, in dem die Natur uns Information darüber zur Verfügung stellt, muss dann wirklich sagen:

In Zeilingers Experiment kann ALICE' Messung (wenn Bellzustandsmessung)

die Vergangenheit abändern.



 

  Beitrag 1961-61
-

 
 
Horst aus 1961-58:
 
Warum erklärst du nicht mal mit eigenen Worten – ohne dich auf deine Beiträge und Links zu berufen – allgemeinverständlich an einem Beispiel,
wie, wo und warum die Natur leichte (?) Änderungen an der Vergangenheit vornimmt?

Müßten dann nicht die dazu erforderlichen Bewegungsvorgänge rückwärts ablaufen?

Gruß Horst

Nun, Horst,

vielleicht hilft dir ja, wie ich's in den Beiträgen 1961-59 und 1961-60 nochmal versucht habe zu erklären.

Nachdem Zeilingers Experiment das bisher einzige Beispiel ist, in dem der Effekt beobachtet wurde, kann ich natürlich auch kein einfacheres Beispiel geben.

Mit Bewegungsvorgängen, die nach rückwärts ablaufen müssten, — wie du vermutest — hat das alles aber gar nichts zu tun. Ursache des Effekts ist der Austausch der Wellenfunktion des Universums durch eine leicht andere Version in dem Moment, in dem die Natur ALICE' Messfrage beantwortet (im "Kollaps" der alten Variante dieser Wellenfunktion also).

Die Wellenfunktion nämlich ist Beschreibung von Gegenwart, Zukunft  u n d  Vergangenheit. Mehr noch:

Für die Natur ist die Wellenfunktion   D e f i n i t i o n  des Zustandes des Universums über die  g e s a m t e  Zeitachse hinweg.


Beste Grüße,
grtgrt
 

  Beitrag 1961-63
-

 
 
Nochmals zum Thema:


Die Gegenwart kann beeinflussen, was uns die Natur über schon Vergangenes sagt:



Horst aus 1961-58:
 
Warum erklärst du nicht mal mit eigenen Worten – ohne dich auf deine Beiträge und Links zu berufen – allgemeinverständlich an einem Beispiel,
wie, wo und warum die Natur leichte (?) Änderungen an der Vergangenheit vornimmt?

Müßten dann nicht die dazu erforderlichen Bewegungsvorgänge rückwärts ablaufen?

Gruß Horst


Hallo, Horst,

wenn dir meine Beschreibung als zu wenig klar erscheint, hilft dir vielleicht ein in scienceblogs.de diskutiertes, ursprünglich von Wheeler vorgeschlagenes, und später seinem Resultat nach auch durch Brian Greene interpretiertes Beispiel:

Die allgemeine Relativitätstheorie sagt ja, dass Masse den Raum krümmt und so ein Stern oder eine Galaxie quasi als Linse fungieren kann und das Licht so wie einen Spiegel umleitet. Wir können uns also Licht vorstellen, dass von einem Milliarden Lichtjahre weit entfernten Quasar ausgesendet wird. Unterwegs passiert es eine Gravitationslinse und wird links und rechts an ihr vorbeigelenkt. Wenn dann auf der Erde Detektoren messen, ob das Photon nun tatsächlich links oder rechts vorbei ging, so ist – auch wenn das Experiment noch nie durchgeführt wurde – klar, was wir sehen werden:
  • Schalten wir die Detektoren aus, werden die Photonen des Quasars ein Interferenzmuster erzeugen; wir schließen daraus, dass sie gleichzeitig links und rechts um die Linse herumgegangen sind und interferiert haben.
  • Schalten wir sie ein, verschwindet das Muster und wir messen, dass die Photonen entweder links oder rechts herumgegangen sind. Und das, obwohl die Photonen schon vor Milliarden Jahren ausgesandt wurden und die Linse passiert haben.

Noch bevor die Erde entstand, haben die Photonen also quasi gewusst, ob wir am Ende ihres Weges einen Detektor aufstellen oder nicht.

Das widerspricht natürlich unserer Erfahrung, die uns sagt: Für ein Photon das vor Milliarden Jahren ausgesandt wurde kann es nicht wirklich einen Unterschied machen, ob wir  h e u t e  einen Schalter an einem Meßgerät umlegen oder nicht.


Greene löst diesen Widerspruch wie folgt:

Zitat von Greene:
 
Die Quantenmechanik stellt nicht in Abrede, dass die Vergangenheit geschehen ist, und zwar unwiderruflich.

Der Konflikt erwächst einfach daraus, dass der Begriff der Vergangenheit in der Quantenmechanik eine andere Bedeutung hat als in der klassischen Vorstellung.
In der klassischen Vorstellung aufgewachsen, sind wir versucht zu sagen, ein Photon habe dieses oder jenes getan.
In der Quantenwelt — unserer Welt — verleiht diese Auffassung dem Photon jedoch eine zu eingeschränkte Wirklichkeit.

... Obwohl also die Quantenentwicklung von der Vergangenheit bis jetzt durch nichts beeinflusst wird, was wir jetzt tun, kann die Geschichte die wir über die Vergangenheit erzählen, insofern doch die Spur heutiger Handlungen in sich tragen.
 


Gruß, grtgrt

 

  Beitrag 1961-44
Meine Theorie zu begründen sei gesagt ...

 
 
Hi Henry,

es ist doch ganz offensichtlich so, dass ALLES, was in unserem Universum exisiert — als Potentia oder als Faktum — durch die Wellenfunktion des Universums beschrieben ist.

Jedes Elementarereignis E ist Aktualisierung dieser Funktion — und damit Update der das Universum darstellenden Information.
Die in output( E) enthaltenen Elementarteilchen kann man als Nachrichten sehen, die die Natur erzeugt, um uns über jenes Update zu informieren.

Ich sehe sie als "Release Notes", die uns die Natur zur Verfügung stellt, wann immer sie die gerade aktuelle Version unserer Welt zu einer leicht anderen macht.


Hieraus aber folgt dann doch ganz klar:
  • Da neue Information nur über Elementarereignisse entsteht, bringt sie stets ein Update der Wellenfunktion und ist — über sie — sofort an allen Punkten der Raumzeit verfügbar.
  • Was mit höchstens Lichtgeschwindigkeit transportiert wird, sind lediglich die Release Notes. Sie informieren uns über den neuen Zustand unserer Welt, und nur sie sind so beschaffen, dass unsere Sinne und Messapparate sie zu registrieren in der Lage sind.

Da die Wellenfunktion nicht nur Gegenwart, sondern auch Vergangenheit und mögliche Zukunft beschreibt, zum Errechnen der Vergangenheit aber natürlich immer nur die augenblicklich gültige Version der Wellenfunktion zur Verfügung steht, ist ganz klar, dass in der Gegenwart entstehende Information natürlich stets auch zu einer leichten Abänderung der Vergangenheit führen kann —

eben zu dem, was Anton Zeilinger über sein Experiment ja auch tatsächlich festgestellt hat.



Henry aus 1961-43:
 
Gebhard, ich muss meine Ansicht, die ich in Beitrag 1961-33 "vermute", nicht revidieren. Was du in Beitrag 1961-39 darlegst, ist eine Geschichte, der Beitrag 1961-32 – also deine Auslegung – eine ganz andere. Was du in 39 schreibst, ist mitnichten ein "Beweis" für 32.

Das, Henry, ist nun definitiv NICHT so.

Gehen wir dazu meine Aussagen aus Beitrag 1961-33 mal durch (ich beschränke ich auf die grünen, die alles auf den Punkt bringen):


Zitat von grtgrt:
 
Durch die Natur gelieferte Information steht im gesamten Universum SOFORT zur Verfügung — nur codiert allerdings, ...

Beweis: Neu entstehende Information führt zu einem Update der Wellenfunktion des Universums, ist also auf jeden Fall nicht-lokal.


Zitat von grtgrt:
 
Das Wissen über den zur Dekodierung notwendigen Schlüssel kann sich höchstens mit Lichtgeschwindigkeit ausbreiten.

Beweis: Soweit die Natur uns Wissen zugänglich macht, wird es (als Nachrichten an uns) transportiert durch Elementarteilchen. Die aber bewegen sich mit höchstens Lichtgeschwindigkeit.


Zitat von grtgrt:
 
Eine Sachlage S existiert aus Sicht eines Ortes O genau dann, wenn

die Natur Information über S bereitgestellt (aber noch nicht widerrufen) hat

und zudem ein Schlüssel, sie zu decodieren, den Ort O erreicht hat.


Beweis: Der Ort (bzw. ein Beobachter an jenem Ort) erfährt von der neuen Sachlage erst, wenn ihn entsprechende "Release Notes" (als Nachricht) erreicht haben.

Da diese Nachrichten durch Elementarteilchen transportiert werden, können sie uns nur erreichen, solange es jene Elementarteilchen wirklich noch gibt. Sprich: Nur bis hin zu dem Zeitpunkt, an dem sie Element einer Menge input( E) werden, E ein Elementarereignis. Jenes E wird sie zerstören oder durch ähnliche in leicht anderem Zustand ersetzen, was letztlich einen Teil der durch sie getragenen Information obsolet macht. Das meine ich, wenn ich andeute, dass die Natur Information auch widerrufen kann.

Beispiele für notwendige Decodierungsschlüssel finden sich in meiner Beschreibung von Zeilingers Experiment ( ich nenne sie dort S(A) und S(B) ).


Zitat von grtgrt:
 
Zeit, Raum UND Zustand sind relativ.

Beweis: Einsteins Relativitätstheorie zeigt, dass Raum und Zeit relativ sind, dann aber auch Geschwindigkeit (also ein Teil des Zustandes physikalischer Objekte).
Aber das hatte ich ja in 1961-39 schon erwähnt.


Wenn nun, Henry, dir diese Erklärung immer noch nicht ausreicht, bitte ich dich, mir für die eine oder andere Aussage, die von mir stammt und von dir als falsch ange­sehen wird, detailliert zu   b e g r ü n d e n  , warum du meiner Erklärung nicht folgen kannst.

Danke, und beste Grüße,
grtgrt

 

  Beitrag 1961-50
-

 
 
Gerhard245 aus 1961-49:
Grtgrt aus 1961-44:
Da die Wellenfunktion nicht nur Gegenwart, sondern auch Vergangenheit und mögliche Zukunft beschreibt, zum Errechnen der Vergangenheit aber natürlich immer nur die augenblicklich gültige Version der Wellenfunktion zur Verfügung steht, ist ganz klar, dass in der Gegenwart entstehende Information natürlich stets auch zu einer leichten Abänderung der Vergangenheit führen kann —

eben zu dem, was Anton Zeilinger über sein Experiment ja auch tatsächlich festgestellt hat.

Das kann ich nicht glauben, weil der Zeitpfeil nur in die Zukunft zeigt.

Na ja,

da habe ich mich wohl zu ungenau ausgedrückt: Statt "... zu einer leichten Abänderung der Vergangenheit" sollte ich besser sagen "... zu einer leichten Abänderung dessen, was die Natur uns als Vergangenheit zeigt".

Gruß, grtgrt
 

  Beitrag 1961-46
-

 
 
Hier, Henry, meine Antwort:

Henry aus 1961-45:
 
Deine "Beweise" sind deshalb keine Beweise, weil sie zwar logische Schlussfolgerungen sind, aber das nicht heißen muss, dass die Grundlage der Beweisführung richtig ist. Es gibt kein "Update der Wellenfunktion", die Wellenfunktion ist ein mathematischer Formalismus, dem keine eigene Realität zukommt. DAS sagt die Kopenhagener Deutung.


Was die Kopenhagener Deutung unter dem Kollaps der Wellenfunktion versteht,  i s t  dieser Update (!).



Henry aus 1961-45:
 
Die "Wellenfunktion" – falls du die Schrödinger Gleichung meinen solltest – beschreibt die zeitliche Entwicklung, die Wechselwirkung von Quanten wird durch einen anderen mathematischen Formalismus beschrieben. Siehe z. B. Richard Feynman.

Was ich als Wellenfunktion des Universums bezeichne ist die  A u s s a g e  eben der Wellenfunktion, die wir als Lösung der Dirac-Gleichung — bzw. näherungsweise als Lösung der entsprechenden Schrödingergleichung — unseres Universums bekämen, wenn wir diese Gleichung tatsächlich aufstellen könnten.

Dass es uns, ihrer extrem hohen Komplexität wegen, niemals gelingen wird, sie aufzustellen oder gar zu lösen, ist eine andere Sache, hier aber nicht weiter relevant. Es bedeutet lediglich, dass es uns niemals gelingen wird, alle Information, die uns die Natur liefert, tatsächlich zur Kenntnis zu nehmen.

Auch kannst du zu dieser durch die Natur gemachten "Aussage" gerne noch die Naturgesetze dazunehmen, die regeln, wie Quanten wechselwirken, wenn sie sich zu nahe kommen. Wichtig ist: Diese Gesamtaussage
  • kommt von der Natur,
  • wird durch jedes Elementarereignis leicht revidiert
  • und beschreibt den Zustand des  g e s a m t e n  Inhalts der Raumzeit aus der (relativen) Sicht eines einzigen Events der Raumzeit.


Henry aus 1961-45:
 
Möglichkeiten "Potentia" sind nicht "existent", sondern ein Gedankenkonstrukt. Wenn sie existent wären, gäbe es nichts Neues unter der Sonne und damit überhaupt nicht die Möglichkeit für ein Update (wo sollte die Information für ein Update herkommen, wenn alles bereits existiert?).

Potentia — gesehen als durch die Natur erstellte Planung von etwas, das in Teilen Fakt werden wird, oder Fakt werden könnte ( wenn bis dahin die Wellenfunktion nicht umdefiniert wird), existiert sehr wohl: Sie existiert als angedachte Zukunft.
Du willst dich also ganz offensichtlich nur meiner Wortwahl nicht anschließen.



Henry aus 1961-45:
 
Die Nichtgleichzeitigkeit von Ereignissen führt wegen der Gleichberechtigung aller Beobachter zu einem Universum, in alles bereits geschehen ist, das unabänderlich als "Block" in seiner Gesamtheit zu sehen ist (darauf spielt Einstein im Übrigen an, wenn er sagt, das die Scheidung zwischen Vergangenheit, Gegenwart und Zukunft eine – wenn auch hartnäckige – Illusion ist).

Was Einstein damit meint ist lediglich, dass es keine vom Beobachter unabhängige Gegenwart gibt.
Für jeden Beobachter einzeln existiert die strenge Trennung von Vergangenheit, Gegenwart und Zukunft aber durchaus.



Henry aus 1961-45:
 
Da Raum und Zeit nicht getrennt betrachtet werden können, und da die Raumzeit NICHT relativ ist, ist die Aussage "Zeit, Raum UND Zustand sind relativ" falsch.

Es ist zwar richtig, dass die Raumzeit nicht relativ ist, Zeit, Raum und Zustand sind es aber dennoch, da Beobachter, die sich relativ zueinander bewegen (oder die unterschiedlich starker Beschleunigung unterliegen) zeitliche und räumliche Abstände — und deswegen z.B. auch Geschwindigkeiten — als unterschiedlich groß sehen ( Der Begriff "relativ" steht ja gerade für die Tatsache, dass die Sichten der Beobachter i.A. beobachterspezifisch sind, und dass dem wirklich so ist, wirst du ja wohl nicht bestreiten wollen — oder doch? ).

Hier also stört dich ganz offensichtlich nur meine Sprechweise.

Über die aber will ich mich nicht streiten (denn ich bin sicher, dass du durchaus in der Lage bist, meine Sprechweise auf deine eigene abzubilden).

Nebenbei:

Die durch Zeilinger entdeckte Relativität des Zustandes eines Quantensystems, das NUR in der Vergangenheit existiert,
bezieht sich nicht auf Beobachter,
sondern auf die ständig wachsende Menge all dessen, was schon Fakt wurde.



Beste Grüße,
grtgrt

 

 Beitrag 0-492
Das Doppelspalt-Experiment verstehen

 
 

 
Das Doppelspalt-Experiment verstehen

 
 
Die korrekte Interpretation der Ergebnisse des Doppelspalt-Experiments — dem wichtigsten Experiment der Quantenphysik — scheint vielen Sachbuchautoren immer noch nicht bekennt zu sein. Sie behaupten dann gerne, es gäbe zwei große Rätsel: den Welle-Teilchen-Dualismus einerseits und andererseits die Tatsache, dass die Interferenz hinterm Doppelspalt verschwindet, sobald man versucht, zu beobachten, durch welchen Spalt ein Photon kommt. Beide "Rätsel" sind inzwischen längst gelöst ( was sich aber anscheinend unter älteren Physikern noch nicht so richtig rumgesprochen hat):

     
    Der Welle-Teilchen-Dualismus ist insofern eine überholte Vorstellung, als man heute weiß, dass das Wort "Teilchen" verstanden werden muss als "die durch das Photon dargestellte unteilbare Portion von Energie". Es breitet sich ja jedes Photon um den Ort seines Entstehen aus als Kugelwelle, welche um Hindernisse herum gebeugt wird. Sie quillt durch beide Spalten und existiert dahinter in Form zweier Teilwellen, die interferieren: [E], [D].
     
    Irgendwo auf dem Schirm hinterm Doppelspalt vereinigt sich das Photon mit einem Elektron eines der Atome, aus denen der Schirm besteht. Da die das Photon darstellende Portion von Energie unteilbar ist, kann sie nur ganz oder gar nicht an den Schirm abgegeben werden und -- wenn sie abgegeben wird -- an nur ein einziges Elektron (d.h. an nur einer einzigen Stelle des Schirms).
     
    Die gesamte -- inzwischen schon verbeulte -- Kugelwelle hört dann schlagartig auf zu existieren.
     
    Das so energetisch angeregte Elektron fällt nun aber fast sofort wieder zurück in seinen Ausgangszustand, wird also zur Lichtquelle. Diese Abgabe von Energie kann - je nach Art des Atoms - auch in mehreren Teilportionen geschehen, die dann einzeln umliegende Atome anregen, so dass sich in Summe, an dieser Stelle des Schirmes etwas verändert was dann (je nach Material des Schirms) dazu führt, dass an jener Stelle ein klar erkennbar anders gefärbter Punkt entsteht. Den hat man früher als "Auftreffpunkt des Teilchens" (oder gar als das Teilchen selbst) interpretiert.

 
Warum aber verschwindet dann die Interferenz, wenn man versucht, herauszubekommen, durch welchen Spalt das Photon kommt?
Dieses Phänomen erklärt sich wie folgt:
    Um Licht, das aus diesem oder jenem Spalt kommt, unterscheidbar zu machen (ohne seine Frequenz zu verändern), muss man die beiden Teilwellen, die durch die Spalten kommen, unterschiedlich polarisieren. Um sie möglichst klar unterscheiden zu können, wählt man zu einander senkrecht stehende Polarisationsebenen -- und verhindert so Interferenz (denn interferieren können ja nur in gleicher Ebene schwingende Wellen).
     
    Damit wird auch klar, warum, wenn man jede der beiden Teilwellen nochmals durch einen eigenen Doppelspalt schickt, sich hinter jedem dieser Doppelspalten dann wieder Interferenz ergibt.

 
Auch das Ergebnis des sog. Quanten-Radierer-Experiments wird so erklärbar.
 
Man sieht also: Es passiert da überhaupt nichts Geheimnisvolles — alles Beobachtete ist gut erklärbar. Man hat diese Erklärung einfach nur einige Jahrzehnte lang übersehen.
 
 
 
Den feldtheoretischen Teilchenbegriff verstehen

 
Wenig bekannt unter Laien ist auch, dass sich Elementarteilchen — Elektronen etwa — nur näherungsweise als isoliert von einander existierende Teilchen sehen lassen: Genau genommen existiert nur das Feld der physikalischen Grundkräfte.
 
Teilchen, insbesondere auch Elementarteilchen, muss man als Wellenpakete in diesem Feld begreifen.
 
Wer mir das nicht glauben möchte, der lese: There are no particles, there are only Fields (2012).
 
Wenn Physiker also z.B. vom » Elektronfeld « sprechen, dann meinen sie damit den Beitrag zum Feld aller physikalischen Grundkräfte, der gegeben ist durch die Existenz sämtlicher Elektronen im Universum.

 

 Beitrag 0-200
Batterien mit nahezu unbegrenzter Lebensdauer

 
 

 
Interessante Forschungsergebnisse

 


 

 Beitrag 0-207
Freier Wille — meine Meinung dazu

 
 

 
Was ist Freier Wille?

 
 
Die Frage, ob ein konkretes biologisches Wesen W (ein Mensch etwa) freien Willen hat, macht erst dann Sinn, wenn geklärt wurde, was genau W als Individuum denn eigentlich ausmacht.
 
Die Materie, aus der W besteht, kann es nicht sein; die nämlich ist eher nur so eine Art Kleidungsstück, welches stückweise ersetzt wird, wo es sich verschlissen hat. (Beweis: Wer in hohem Alter stirbt, besteht ausschließlich aus Körperzellen, deren jede deutlich jünger ist als er selbst; es sind nicht mehr die Zellen, mit denen man geboren wurde – jene sind schon lange durch neue ersetzt worden).
 
Die einzig sinnvolle Definition für W (als Individuum) scheint demnach zu sein:
 
Wer oder was auch immer Quelle des Wollens ist,  i s t  das Individuum.

Umgekehrt:
 
Nur Objekte, die wollen können, sind wirkliche Individuen.

 
Mit anderen Worten:
 
Das Individuum ist ein Wille, der sein Wollen selbst definiert und daher – per definitionem – freier Wille ist.

 
In welchem Umfang freier Wille Erfüllung findet, ist eine davon ganz unabhängige Frage, wird aber stets davon abhängig sein, was andere Individuen wollen.
 
Anders gesagt:
 
Unser Wille ist frei — aber selten auch durchsetzbar.


 
 
Lies auch, Was andere darauf antworten bzw. was sie über freien Willen zu sagen haben.

 

 Beitrag 0-15
Freier Wille — was Neurologen dazu sagen

 
 

 
Freier Wille — was Neurologen dazu sagen

 
 
Die Beziehung zwischen Geist und Gehirn ist etwas, worüber Philosophen ebenso wie Neurologen schon lange nachdenken. Ein Team von Neurowissenschaftlern unter Führung von Benjamin Libet hat Beobachtungen gemacht, die bislang wohl am ehesten als ein erster Schritt darstellen hin zur Beantwortung der Frage, ob der Mensch tatsächlich freien Willen hat (oder nicht doch nur Mechanismus ist). Dies scheint mir so, trotzdem auch Libets Beobachtungen in diametral entgegengesetzter Richtung interpretierbar scheinen: Libets Versuche begannen damit, dass man die Probanden Lichtblitzen oder einer Folge sehr kurzer Stromschläge am Handrücken aussetzte. Festgestellt wurde:
 
    War der Reiz kürzer als 500 msec (Millisekunden), wurde er den Probanden überhaupt nicht bewusst, obgleich ihr Gehirn ihn erkennbar registrierte.
    Verblüffend war: Die bewusste Wahrnehmung des Reizes setzte
     
    • objektiv mit einer halben Sekunde Verzögerung ein,
    • subjektiv aber bereits zu Beginn des Reizes.

    Die Sinneserfahrung, so Libet, wird vom tatsächlichen Zeitpunkt an, zu dem das neuronale Geschehen ausreicht, sie hervorzurufen, gleichsam » rückdatiert «, und so scheint die Erfahrung subjektiv ohne nennenswerten Zeitverzug einzutreten.

 
Im nächsten Schritt untersuchte Libet, was bei freier bewusster Entscheidung der Versuchspersonen geschah. Er verfolgte ihre Gehinraktivität mittels Elektroenze­phalogramm (EEG). Die Probanden saßen still, waren aber aufgefordert, zu einem von ihnen selbst gewählten Zeitpunkt einen Finger zu beugen oder einen Knopf zu drücken. Sie sollten bewusst vermerken, wann sich der Impils danach regte.
 
    Wie sich herausstellte, erfolgte die bewusste Entscheidung 200 msec vor der Bewegung des Fingers. Dass die Entscheidung der tatsächlichen Bewegung vorausgeht, war natürlich erwartet worden. Erstaunlich aber war, dass elektrische Veränderungen im Gehirn schon 300 msec VOR dem Augenblick der bewussten Entscheidung ensetzten. Diese elektrischen Vorgänge bekamen den Namen "Bereitschaftspotential".

 
Was also lässt sich aus solcher Beobachtung schließen?
 
  • Manche Neurowissenschaftler und Philosophen sehen in Libets Ergebnissen den unwiderlegbaren experimentellen Beweis, dafür, dass es keinen freien Willen gibt: Schließlich fand ja, so argumentieren sie, die bewusste Entscheidung erst statt, nachdem unbewusst vor sich gehende Gehirntätigkeit sie schon etwa 300 ms lang vorbereitet hatte.
     
  • Libet selbst deutet das Geschehen anders: In der Zeit zwischen bewusster Entscheidung und tatsächlicher Bewegung des Fingers (etwa 200 msec) habe das Bewusstsein die Möglichkeit, die Entscheidung rückgängig zu machen. Neben freiem Willen muss hier, so Libet, auch ein freies Nichtwollen bestanden haben.
     
    Er vermutet, dass hier ein Mentalfeld existiert (a Consious Mental Field, CMF), das aus der Gehirntätigkeit hervorgeht, aber mit physikalischen Mitteln weder registriert noch gemessen werden kann — er vergleicht es mit bewusster, subjektiver Erfahrung, zu der ja auch nur das erfahrende Individuum selbst Zugang hat: Sie entzieht sich physikalischer Beobachtung, wie wir alle ganz genau wissen.

 
Der Biologe Robert Sheldrake führt den Gedanken noch etwas weiter, indem er sagt:
 
    Wenn das mentale Feld rückwärts in der Zeit auf die Aktivität der Nervenzellen einwirken kann, wäre es Auslöser des Bereitschaftspotentials, das seiner Bildung (bzw. Modifikation) vorausgeht. Geist, so Sheldrake, würde demnach von der Zukunft in die Vergangenheit wirken.
     
    Was er mit dieser merkwürdigen Formulierung wohl sagen möchte, scheint zu sein: Geist — die Kenntnis zukünftiger Möglichkeiten — kann in der Gegenwart getroffene Entscheidungen beeinflussen. Und dass dem wirklich so ist, wissen wir ja alle.

 
 
Quelle: Rupert Sheldrake: Der Wissenschaftswahn — Warum der Materialismus ausgedient hat (2012), Seite 166-169.
 
 
Mentale Felder hat nicht nur Libet angedacht: siehe vergleichbare Denkansätze in Field Theories of Consciousness.
 
Auf jeden Fall muss klar sein, dass auch ein CMF nur dazu da ist, in seinem Verhalten zu beschreiben, wie sich die Natur aus unserer Sicht heraus  v e r h ä l t  (aber niemals, wie sie wirklich funktioniert).
 
 
Lies auch:

 

 Beitrag 0-16
Freier Wille — Schopenhauer und Einstein sahen ihn als prinzipiell begrenzt

 
 

 
Freier Wille — Schopenhauer und Einstein sahen ihn als begrenzt

 


Albert Einstein (1934)
 
An Freiheit des Menschen im philosophischen Sinne glaube ich keineswegs.
 
Jeder handelt nicht nur unter äußerem Zwang, sondern auch gemäß innerer Notwendigkeit.

 
Schopenhauers Spruch: » Ein Mensch kann zwar tun, was er will, aber nicht wollen, was er will «, hat mich seit meiner Jugend lebendig erfüllt und ist mir beim Anblick und Erleiden der Härten des Lebens immer ein Trost gewesen und eine unerschöpfliche Quelle der Toleranz.
 


 
Schopenhauers Aussage zeigt klar:
 
 
Ich, als Person, verfüge dann und nur dann über freien Willen, wenn alles, was ich will, von mir selbst als mein Wille gesetzt wurde.

 
 
Das aber führt dann sofort zur Frage:
 
 
Welcher Teil des Universums ist eigentlich der, der mich — in dem Sinne, dass er meinen Willen definiert — ausmacht?

 
 
Mit anderen Worten: Man könnte auf die Idee kommen, zu sagen:
 
 
Wer oder was auch immer definiert, was  i c h  will, genau das  b i n  ich.
 
Wer diese Definition des Begriffes » ich, als Wollender « akzeptiert, für den würde schon per definitionem gelten, dass er tatsächlich freien Willen hat.


 
 
Note: Was verschiedene Philosophen über das nach ihrer Ansicht vorhandene Ausmaß unseres freien Willens zu sagen habe, findet sich zusammengestellt ausgehend von Seite Ansgar Beckermann: Haben wir einen freien Willen?. Vorsicht aber: Wenn man liest, was Beckermann über Determinismus schreibt, könnte man auf die Idee kommen, er selbst — obgleich Professor für Philosophie — würde noch nicht mal die einfachsten Regeln der Logik beherrschen (siehe Trugschluß eines Philosophen).


 

 Beitrag 0-152
Hat wenigstens unsere Seele freien Willen?

 
 

 
Was ist unsere Seele?

Hat wenigstens sie freien Willen?

 
 
Was Naturwissenschaftler unsere Psyche nennen, wird von religiösen Menschen auch als unsere Seele bezeichnet.
 
 
Wenn wir freien Willen haben, dann muss der ja wohl in unserer Seele verankert sein.
 
Mit dem freien Willen aber ist das so eine Sache, da ja noch nicht mal feststeht, wie der Mensch — von ersetzbaren Körperzellen mal abgesehen — sich manifestiert als etwas, das sich selbst erkennt und versuchen kann zu "wollen".
 
Man kann sich z.B. fragen, ob dieses Etwas im Menschen (das Willen haben kann) in seinem Gehirn sitzt oder doch eher — wie Christen denken — aus unserer Seele kommt.
 
 
Wo aber residiert des Menschen Seele? Wirklich nur in seinem Körper?
 
Die Naturwissenschaft kann uns diese Frage nicht beantworten, die christlichen Religionen aber beantworteten sie mit einem entschiedenen NEIN.
 
 
Interessant in diesem Zusammenhang ist:
 
Es gibt tatsächlich naturwissenschaftliche Beobachtungen, die auf die Möglichkeit hindeuten, dass nicht alles, was den Menschen ausmacht — und insbesondere seine Seele, sein "Ich" — keineswegs zwingend an seinen Körper gebunden ist.
     
  • Hans-Peter-Dürr vergleicht uns in unserer körperlichen Existenz mit Schaumkronen im Meer, da ja auch die Schaumkrone eine Welle am präsentesten macht, die Welle aber länger existiert als in der Form einer Schaumkrone (sprich: eines Körpers).
     
    Doch keine Welle ist von anderen Wellen klar abgrenzbar.
    Jede Welle verklingt schon nach kurzer Existenz wieder im Ozean, war also in ihrer Einzigartigkeit nur Form, die vorübergehend existiert hat.
     
    Nahegelegt wird ihm, dem Quantenphysiker, dieses Bild durch die Tatsache, dass der Körper jeden Menschens aus quantenphysikalischer Sicht heraus ein Paket von Kraftwellen ist, welches sich, sobald der Körper verwest, als Menge von Atomen mit anderen solcher Körper und anderen Gegenständen der Natur, auch mit Pflanzen natürlich, mischt und so seine Individualität aufzugeben scheint — eine Individualität, die sich letztlich nur als ganz bestimmte Anordnung jener Atome und Elementarteilchen ergeben hatte.
       
    • Wo aber ist dann unsere "Seele" geblieben? Gibt es sie noch?
       
    • War sie vielleicht auch nur Form (bzw. Anordnung)?
       
    • Und was würde das bedeuten?

     
  • Ein zweiter Wissenschaftler, dem der Verdacht kam, dass zumindest das Gedächtnis des Menschen (aber auch das anderer Lebewesen bis hin zu Pflanzen, ja sogar Kristallen) nicht in seinem Körper — im Gehirn — residiert, ist Rupert Sheldrake (ein Biologe und Verhaltensforscher).
     
    Er stützt seine Vermutung auf konkrete, gut nachprüfbare Beobachtungen (die natürlich noch keine Beweise sind, die mit seiner Vermutung aber durchaus kompatibel erscheinen und sogar daraus erklärbar würden): siehe Sheldrakes Theorie.
     
     
  • Auch die Tatsache, dass die Physiker sehr genau wissen, dass keineswegs schon alle Formen, in denen Energie in unserem Universum auftritt, entdeckt sind, könnte uns fragen lassen, ob nicht vielleicht auch Geist eine Erscheinungsform von Energie ist. Was aber müsste man denn dann als den "Willen" solcher Portionen von Geist/Energie begreifen?

 
Aber selbst wenn auch Geist eine Erscheinungsform von Energie wäre, oder wenn morphogenetische Felder im Sinne Sheldrakes wirklich existieren und so eine Art kollektives Gedächtnis aller Lebewesen beherbergen sollten, muss das noch lange nicht bedeuten, dass Teile davon unsere Seele darstellen.
 
Wäre unser Wille aber nicht Teil unserer Seele, wäre er letzlich nicht Teil von uns, sondern nur Teil der Dinge, derer wir uns bedienen.
 
Daher gilt:
 
So lange wir nicht klären können, was unsere Seele ist,
 
werden wir auch nicht wissen, in welchem Umfang uns freier Wille zugestanden ist.

 
 
Sicher scheint mir nur Folgendes:
 
Was wir als unseren Willen betrachten, besteht aus zwei Komponenten:
     
  • aus einem durch unsere  P s y c h e  erzeugten Willen
     
  • und aus etwas, das unser  G e h i r n  hervorbringt einzig und allein aufgrund von Signalen, die es aus dem Rest unseres Körpers empfängt.
     
    Letzteres ist ein uns von unserem Denkapparat aufgezwungener Willensanteil: etwas, das wir fälschlicher Weise mit für unseren Willen halten, das aber wohl kaum als  f r e i e r  Wille gelten kann.

Tröstlich und ganz besonders erstaunlich daran ist, dass die erste Komponente — die rein geistige — die zweite Komponente zu modifizieren, besser vielleicht: zu verstärken oder abzu­schwächen in der Lage ist (bei geistig gesunden Menschen jedenfalls).

 

 Beitrag 0-153
Worin besteht Kreativität?

 
 

 
Worin besteht Kreativität?

 
 
Kreative Menschen zeichnen sich zweifellos dadurch aus, dass sie in gegebener Situation mehr Möglichkeiten des Handeln erkennen als andere und dies auch nutzen.
 
Hieraus folgt: Zunehmende Erfahrung erhöht die Kreativität einer Person (oder einer Personengruppe).

 

 Beitrag 0-264
Freier Wille — Wie Steven Hawking darüber denkt

 
 

 
Zu Hawkings Überlegung

» Ist alles vorbestimmt? «



Steven Hawking (1991):
 
Der Begriff des freien Willens gehört einer anderen Kategorie an als die fundamentalen Gesetze der Physik:
 
Wenn man versucht, menschliches Verhalten aus den Naturgesetzen abzuleiten, verstrickt man sich im logischen Paradox selbstbezüglicher Systeme. Wenn nämlich alles Geschehen — und damit auch all unser Handeln — vorhersagbar wäre, könnten wir die Zukunft kennen, und diese Kenntnis könnte bewirken, dass sie sich abändert.
 
Beispiel: Wenn Sie wüssten, welches Pferd im Grand National gewinnen wird, könnten Sie ein Vermögen machen, indem Sie darauf wetten. Doch würde diese Handlung die Wettquote verändern.
 
Das gleicht den Problemen, mit denen wir zu tun bekämen, wenn Zeitreisen möglich würden — was ich für undenkbar halte.

 


Note: So auf den ersten Blick denkt man, Hawking sei hier ein Denkfehler unterlaufen, da er ja einerseits eindeutige Bestimmtheit unseres Handelns voraussetzt, uns andererseits aber die Freiheit zugesteht, auf das Pferd zu setzen oder nicht. Tatsächlich aber ist beides miteinander verträglich:
 
Gäbe es eine physikalische Theorie — eine sog. » Weltformel «, die zeigen würde, dass alles Geschehen deterministisch ist –, so könnte sie, wie alle physikalischen Gesetze, durch ein Gleichungssystem beschrieben sein, welches (ganz ähnlich wie Einsteins Gravitationsgesetz) derartige Rückkopplung mit berücksichtigt.
 
Was dann wirklich passiert, wäre – als Lösung dieser Gleichung – durch mathematische Gesetze eindeutig bestimmt, daher widerspruchsfrei, und unser Entschluss, auf das Pferd zu setzen, wäre – anders als es aussieht – eben  k e i n  freier Wille.
 


Steven Hawking (1991):
 
Ob jemand freien Willen hat, lässt sich objektiv nur testen über die Frage, ob sein Verhalten vorhersagbar ist.
 
Nun sind wir aber aus praktischen Gründen völlig unfähig, komplett vorherzusagen, was ein Mensch tun wird: Selbst wenn wir eine Weltformel hätten, wären die Gleichungen für die hohe Zahl beteiligter Teilchen einfach zu komplex, als dass wir sie lösen könnten.
 
Wenn wir also nicht in der Lage sind, menschliches Verhalten vorherzusagen, können wir ebenso gut die operative Theorie zugrunde legen, dass Menschen freien Willen haben und für ihre Handlungen verantwortlich sind.
 
Evolutionstechnisch gesehen, ist der Glaube an den Freien Willen von hohem Überlebenswert. Es wird also wohl so sein, dass natürliche Selektion ihn verstärkt.
 
Ob das sprachlich vermittelte Verantwortungsgefühl ausreicht, unseren DNA-vermittelten Agressionstrieb so weit unter Kontrolle zu halten, dass wir uns nicht gegenseitig vernichten, bleibt abzuwarten. Wenn nicht, wird die Menschheit eine Sackgasse der natürlichen Selektion gewesen sein.
 
 
Der Titel des Essays ist eine Frage: Ist alles vorbestimmt?
 
Meine [ Steven Hawkings ] Antwort lautet JA. Sie könnte aber ebensogut NEIN lauten, da wir niemals wissen können, was vorbestimmt ist.

 


 
Quelle der Zitate: Stephen Hawking: Einsteins Traum, Expeditionen an die Grenze der Raumzeit, Rowohlt 1993, S. 127-140


 

 Beitrag 0-545
Freier Wille — Warum es ihn uneingeschränkt nicht geben kann

 
 

 
Freier Wille — Hier nun ganz genau erklärt

 
 
Ja: Es gibt freien Willen — aber auch den anderer.
 
Neben meinem freien Wollen gibt es ja immer auch das freie Wollen anderer.
 
Und jede Quelle von Willen baut Druck auf, dass sich kommendes Geschehen hin in ihrem Sinne entwickeln möge.
 
Dieses Spiel gegen einander wirkenden Kräfte verändert ständig die Wahrscheinlichkeit, dass genau mein Wille sich durchsetzt.
 
Genauer:
    Wenn ein Quantenereignis (= Kollaps K der Wellenfunktion) eintrifft, bedeutet das, dass die Natur zu irgend etwas JA oder NEIN sagt, d.h. ein Machtwort spricht.
     
    Ob sie JA oder das NEIN sagen wird, ist nicht voraussagbar, da sich die Antwort mit gewisser Wahrscheinlichkeit K(JA) bzw. K(NEIN) ergeben wird. Um die Höhe dieser beiden Wahrscheinlichkeiten wird vor dem Ereignis aber heftig gekämpft durch alles, das freien Willen hat. Mit anderen Worten: Bevor K eintritt, ist der Quotient K(JA)/K(NEIN) ständiger Veränderung unterworfen. Welcher Wille gewinnen wird, ist schon alleine deswegen nicht vorauszusagen.
     
    Voraussagbar ist nur: Je größer zum Zeitpunkt K der Quotient ist, desto größer ist die Wahrscheinlichkeit, dass sich die Natur für Antwort JA entscheidet. Gegen ihr Urteil gibt es keine Berufung.

Konsequenz daraus:
 
Es gibt keinen uneingeschränkt freien Willen


 

 Beitrag 0-304
Muss er mit Determinismus kompatibel sein?

 
 

 
Freier Wille — Welcher ist gemeint?

 
 
Die Philosophie der Willensfreiheit, so schreibt Frank J. Tipler (S. 235), unterscheide zwei Hauptrichtungen:
     
  • Die Kompatibilisten: Sie sprechen schon dann von freiem Willen, wenn wir uns keines äußeren Zwanges bewusst sind, der unser Handeln einschränken würde. Freier Wille in dieser Form ist mit Determinismus durchaus verträglich.
     
  • Die Inkompatibilisten: Sie sprechen erst dann von freiem Willen, wenn unser Handeln in vollem Umfang durch uns selbst bestimmt wird. Das setze voraus, dass weder der Rest des Universums, noch Vergangenes, Gegenwärtiges oder Zukünftiges es mitbestimmen.

Darüber, welche der beiden Definitionen die vernünftigere sei, werde schon seit Anbeginn der Philosophie diskutiert — bisher ohne jeden Erfolg. Die Philosophen seien offenbar der Überzeugung, dass noch kein Argument aufgetaucht sei, welches Ausweg aus der Sackgasse sein könnte.
 
 
Mir erscheint das verwunderlich, denn wir erfahren doch täglich, dass inkompatibler freier Wille uns definitiv  n i c h t  zugestanden ist.
 
Wir wären sonst ja in der Lage, selbst Vergangenes noch abzuändern.
 
Für Tipler — der theoretischer Physiker ist — könnte das sogar Sinn machen, denn er sagt uns auch (S. 237 ganz unten):
    Nichtmathematiker neigen zur Annahme, Determinismus bedeute, dass die Vergangenheit die Gegenwart bestimme, während dies umgekehrt nicht der Fall sei:
    Die Zukunft könne die Gegenwart nicht bestimmen. In Wahrheit aber gilt in den meisten deterministischen physikalischen Theorien der Determinismus in beide Richtungen. In diesen Theorien hat die Zukunft ebenso viel Macht über die Gegenwart wie die Vergangenheit.

Wir sehen: Der Physiker Verständnis von philosophischen Aussagen und Begriffen muss nicht immer das der Philosophen selbst sein.
 
 
Lies mehr dazu in Wikipedia und bedenke auch: Deterministische physikalische Theorien sind wenig realistisch, denn sie ignorieren Quantenfluktuation und deren inhärenten Nichtdeterminismus.

 

 Beitrag 0-248
Worin freier Wille denn nun wirklich besteht

 
 

 
Freier Wille – worin er besteht



Aus einem anonymen Beitrag in Spiegel Online :
 
Unser Wille ist frei, wenn er sich unserem Urteil darüber fügt, was zu wollen richtig ist.
 
 
Unser Wollen ist unfrei, wo Urteil und Wille (oder Möglichkeit) auseinander fallen.

 
das ist z.B. der Fall beim Unbeherrschten, den seine übermächtigen Wünsche überrennen und zu einer Tat treiben, die er bei klarem Verstand verurteilt; und es ist der Fall beim inneren Zwang, wo wir gegen besseres Wissen einem süchtigen Willen erliegen.
 
Die Unfreiheit zu überwinden und zur Freiheit zurückzufinden heißt Urteilen und Wollen wieder zur Deckung zu bringen: Tun zu können, was unser Urteil als nun angebracht erachtet.
 
...
 
Aber zeigen die Bilder nicht, dass in Wirklichkeit gar nicht wir entscheiden, sondern das Gehirn? Das klingt, als wären wir unfreie Marionetten. Doch so kann es nicht sein. Das Gehirn nämlich kann gar nichts entscheiden, die Idee des Entscheidens hat keinen logischen Ort in der Rede übers Gehirn. Entscheidungen im eigentlichen Sinne gibt es nur, wo von Gründen und von Überlegen die Rede sein kann.
 


Die letzte Aussage wird verständlich, wenn man sich vor Augen führt, dass unser Gehirn nur abstrakte Information kennt, Grundlage allen Überlegens und Urteilens aber stets nur konkrete Information sein kann.

 

 Beitrag 0-242
Was Thomas & Brigitte Görnitz (2002) dazu feststellen

 
 

 
Freier Wille — es gibt kein stichhaltiges Argument dagegen

 
 
Es gibt nur wenige Wissenschaftler, die ernsthaft versucht haben, eine begründbare Antort auf die Frage zu finden, ob er Mensch freien Willen hat.
 
Kant war sogar der Meinung, dass die Existenz von Willensfreiheit keiner empirischen Prüfung zugänglich sei.
 
 
Der derzeit umfassendste Antwort der Wissenschaften dokumentieren Thomas & Brigitte Görnitz auf den Seiten 345-348 ihres Buches Der kreative Kosmos (2002) wie folgt:

Görnitz:
 
Wir haben soeben dargelegt, dass es aus unserer Sicht keinen naturwissenschaftlichen Grund gibt, die Freiheit unseres bewussten Willens leugnen zu müssen.
 
Nun meinen aber einige andere Forscher, dem widersprechen zu müssen in Hinblick auf Experimente die B. Libet 1983 und 1985 durchgeführt hat und deren Ergebnisse 1999 von Haggard und Eimer bestätigt haben.
 
 
Eine gute Zusammenfassung all dessen findet sich in Roth: Denken, Fühlen, Handeln Suhrkamp (2001):

Roth:
 
Diese Versuche waren i.W. so organisiert, dass die Versuchspersonen gebeten wurden, innerhalb einer Zeitspanne von etwa 3 sec spontan eine Fingerbewegung durchzuführen und siech zu merken, in welchem Moment genau sie den Entschluß hierfür fassten.
 
Libet, der sich so Bestätigung für seine Meinung, der Mensch hätte freien Wollen, erhoffte, sah sich bitter enttäuscht, als klar wurde, dass das Bereitschaftspotential im Gehirn für die Krümmung des Fingers sich schon etwa 500 msec vor dem Zeitpunkt aufzubauen begann, den der Proband als Zeitpunkt seines Entschlusses angab.
 
Da Haggard und Eimer Jahre später mit ihren Versuchen zum selben Ergebnis kamen, scheint gezeigt, dass das Gefühl, etwas zu wollen, sich erst kurze Zeit nach dem lateralisierten Bereitschaftspotential entwickelt, und dass seine erste Komponente — das symmetrische Bereitschaftspotential — sich schon weit  v o r  dem » Willensentschluss « aufbaut. Dieser Willensakt tritt in der tat erst auf, nachdem das Gehirn bereits entschieden hat, welche Bewegung ausgeführt werden soll.
 
Es gibt viele weitere Erkenntnisse aus der handlungspsychologie, die uns nahelegen, dass das Gefühl, eine Bewegung zu wollen, erst auftritt, nachdem sie bereits eingeleitet ist..
 
Resümee: Die hier [in Roths Buch] vorgestellten Forschungsergebnisse zeigen, dass die beiden Komponenten des Phänomens » Willensfreiheit «, nämlich
     
  • etwas frei zu wollen (zu beabsichtigen, zu planen) und
     
  • etwas in einem freien Willensakt aktuell zu verursachen

eine Täuschung sind: Das erstere Gefühl tritt auf durch zuschreibung bzw. Aneignung von unbewussten Handlungsmotiven, die aus dem limbischen System stammen, das letztere Gefühl tritt auf, nachdem das Gehirn längst entschieden hat, was es in nächsten Augenblick tun wird.
 


In Funk, R.H.W.: Zeit — Facetten eines Phänomes, Wiss. Zeitschr. der TU Dresden 49 (2000), ab Seie 4, wird jedoch argumentiert, dass die durch Libet entdeckte Vordatierung der Daten durch das Bewusstsein, welches wesentlich langsamer arbeitet als die Reflexe, dafür sorgt, dass sie und des Menschen bewusstes Denken nicht in Widerspruch geraten.
 
Funk ist der Meinung, dass die durch Roth skizzierte Interpretation diese Arbeitsweise des Gehirns nicht genügend in Rechnung stellt und
 
eine Widerlegung der Willensfreiheit somit nicht gegeben sei.

 
Wir — Thomas und Brigitte Görnitz — haben ebenfalls deutlich gemacht, dass zu einer pessimistischen Interpretation dessen, was Libet fand, keine Notwendigkeit besteht:
 
Wenn ich in meinem Gehirn ein Signal erzeugte, dass ich handeln will, wer, wenn nicht ich, kann es verursacht haben?
 
Wo sollte der Unterschied zwischen mir und meiner Hirnrinde und meinem limbischen System festzumachen sein?

 


Die letzte Aussage scheint mir wesentlich, denn sie bedeutet:
 
Libets Entdeckung hat einfach nur gezeigt, in welchen Schritten unser Gehirn einen Beschluss, den nur wir selbst gefasst haben können, in Aktion und einen etwas verzögerten Bericht darüber umsetzt.
 
 
Gebhard Greiter, 2016

 

  Beitrag 1999-3
Ermöglichen die Quantengesetze – wem auch immer – freien Willen?

 
 

Ermöglichen die Quantengesetze – wem auch immer – freien Willen?


Auf einer der letzten Seiten seines Vortrags DAS BILD DES MENSCHEN IM LICHTE DER QUANTENTHEORIE sagt Görnitz:

Zitat:
  • Aus der Quantentheorie folgt, dass die Vorgänge in unserem Bewusstsein und im Unbewussten keinesfalls vollständig determiniert sein können.
  • Damit wird aus naturwissenschaftlicher Sicht die Möglichkeit für freie Willensentscheidungen eröffnet.

Geht man davon aus, dass die erste dieser beiden Aussagen darauf Bezug nimmt, dass der Zustandswert, der beim Zusammenbruch der Wellenfunktion eines Quants entsteht, in keiner Weise vorbestimmt ist, so bedeutet das keineswegs, er sei über freien Willen bestimmbar. Nur absoluter Zufall bestimmt ihn. Wo also soll da bitte eine Möglichkeit entstehen, ihn über unsere eigene freie Willensentscheidung zu bestimmen?

Kurz: Görnitz scheint hier einem Denkfehler aufzusitzen. Sieht jemand das anders?

 
Überzeugender wird argumentiert in: Quanteneffekte und Freier Wille
 

  Beitrag 1999-10
-

 
 
Wrentzsch aus 1999-9:
 
Ich hatte das Gefühl, das du die Entscheidungsfreiheit des Menschen von der Unbestimmtheit der Quantenpysik ableiten willst.

Wenn ich darauf hinweise, dass die verändernden Ursachen der Kausalität nur wenige Transportwege und Erscheinungsformen haben, sodass Erkenntnisbemühungen eingegrenzt werden können - dann habe ich eine Hilfestellung gegeben und für Nichts geworben.
Auch nicht für mein Weltbild.

Hi Wrentzsch,

du scheinst meinen Beitrag 1999-3 nicht genau genug gelesen zu haben, denn:

Es ist Görnitz — nicht ich — der wegen der Unbestimmtheit der Quantenpysik die Möglichkeit für freien Willen auch aus Sicht der Naturwissenschaften heraus als nicht mehr ausschließbar betrachtet. Ich dagegen muss feststellen: Wo Fakten sich nur gesteuert durch absoluten Zufall ergeben können, spricht nichts für die Möglichkeit freien Willens (es müsste sonst ja jener Wille den Zufall ausschalten können).

Nebenbei: Niemand, auch ich nicht, hat dir vorgeworfen, für dein Weltbild zu werben. Aber selbst wenn du es tätest, ich würde darin nichts Verbotenes sehen — auf keinen Fall dann, wenn du dich bemühst, logisch nachvollziehbar zu argumentieren.

Gruß, grtgrt
 

 Beitrag 0-428
Zur Physik der Welt aller Gedanken

 
 

 
Zur Physik der Welt aller Gedanken

 
 
Ideen entstehen als Gedanken. Dennoch kann jede Idee (z.B. in schriftlicher Form) länger existieren als sie gedacht wird. Idee und Gedanke können daher nicht ein und dasselbe sein.
 
Dass Ideen deutlich länger als ihre Urheber existieren können, ist auch offensichtlich: Sie überleben durch Überlieferung, und ein und dieselbe Idee kann mehrfach in unterschiedlicher Form gedacht werden. Sie zu denken erfordert ein denkendes Gehirn, aber aufbewahrt werden (= existieren) kann sie auch in Formen, die kein Gehirn mit involvieren: man denke an schriftliche oder elektronisch abgespeicherte Formen der Darstellung einer Idee.
 
Es macht also Sinn, zu definieren:

    Unter einem Gedanken sei
     
    jede von einem Gehirn direkt erzeugte physikalische Manifestation einer Idee verstanden:
     
    Es ist das stets ein die Idee darstellendes Wellenpaket im Feld der physikalischen Grundkräfte.

 
Wie lange aber existiert — aus naturwissenschaftlicher Sicht heraus — ein Gedanke in diesem Sinne? Stirbt er wirklich schon mit dem Gehirn, das ihn generiert hat? Und wenn nicht: Als was genau existiert die Welt der Gedanken, worunter wir die Summe aller je entstandenen, noch existierenden Gedanken verstehen wollen?
 
 
Die Antwort hierauf ist recht einfach:
 
So wie wir den Begriff » Gedanke « definiert haben, entsteht die Welt der Gedanken als materielles Produkt von Gehirntätigkeit, d.h. — wie Quantenphysik uns lehrt — als Summe harmonischer Wellen im Feld der physikalischen Grundkräfte.
 
Die in diesem Zusammenhand wohl weitaus wichtigste dieser Kräfte ist die elektromagnetische Kraft, und so nehmen wir zunächst mal stark vereinfachend an, dass jeder Gedanke eine elektromagnetische Welle sei, d.h. ein Paket harmonischer elektromagnetischer Wellen. Da sie einzeln aufhören zu existieren, und da sie sich — um Hindernisse herum gebeugt — mit Lichtgeschwindigkeit als Kugelwelle ausbreiten, ist offensichtlich, dass
     
  • jeder Gedanke deutlich länger und auch außerhalb des ihn erzeugenden Gehirn existieren kann
     
  • sich über die Zeit hinweg aber ständig abschwächen wird (er wird immer dann schwächer werden, wenn eine der ihn mit darstellenden harmonischen Wellen aufhört zu existieren).

Mit anderen Worten: Jeder Gedanke — jede Idee also, der ein Gehirn physikalische Existenz verschafft hat — ist ein Signal, das sich — um Hindernisse herum gebeugt und über die Zeit hinweg schwächer werdend — im Weltall ausbreitet ganz so wie sich in einem ruhenden Gewässer eine Welle ausbreitet, die entsteht, wenn ein Stein oder ein Regentropfen hineinfällt.
 
 
Wer nun denkt, es könne gut sein, dass alle durch unser Gehirn erzeugten Gedanken — als elektromagnetische Wellen — noch im Inneren unseres Schädels aufhören zu existieren der irrt, wie folgende Beobachtung zeigt:

     
    Wolf Singer, Direktor am Max-Planck-Institut für Hirnpsychologie, hat schon Mitte der 1980-er Jahre zusammen mit dem amerikanischen Naturforscher Charles Gray entdeckt, dass ganze Bündel von Nervenzellen synchron im 40- bis 80-Hertz-Bereich Signale senden und dadurch ein orchesterartiges Zusammenspiel von Gehirnwellen ermöglichen.
     
    Allein schon ihrer Wellenlänge wegen, können solche Gehirnwellen nicht auf das Innere unseres Schädels beschränkt sein: Sie strahlen weit über ihn hinaus.
     
    Beim Versuch, diese "Orchestermusik" mathematisch zu analysieren, stößt man auf Probleme der mathematischen Chaostheorie, insbesondere auf sog. "chaotische Attraktoren" (es sind dies Zielgebiete von Handlungsabläufen, bei denen ein ganz beliebig kleiner äußerer Einfluss entscheiden kann, welches Ziel angenommen wird: Man spricht vom sog. "Schmetterlingseffekt", da man den ersten chaotischen Attraktor in der Wetterkunde gefunden hat, in einer Wettersituation, in der schon der Flügelschlag eines Schmetterlings darüber entscheiden kann, ob ein Orkan entsteht oder ausbleibt).
     
    Bei der Komplexität eines menschlichen Gehirns ist mit Millionen solch chaotischer Attraktoren zu rechnen, so dass man sich sehr gut vorstellen kann, dass Quantenprozessen eine Schlüsselfunktion zukommt, was Ergebnisse unseres Denkens betrifft. Woher Willensimpulse kommen, wird so zu einer Frage, die ohne Berücksichtungung quantenphysikalischer Gesetze ganz sicher nicht zuverlässig entschieden werden kann. Insbesondere ist demnach hirnbiologisch nicht mehr auszuschließen, dass sie mit auch durch aus fremden Gehirnen kommende Gedanken getriggert sein können.
     
    Der Bewusstseinsforscher Christof Koch gab Günter Ewald explizit recht, als er ihm diese Argumentation vortrug. Er schrieb ihm (Zitat, 2007): "Man kann damit rechnen, dass die anlaufende Erforschung nichtlinearer Hirnvorgänge, insbesondere eine Weiterentwicklung der 1987 entdeckten 40-Hertz-Schwingungen im Gehirn, über chaostheoretische Probleme oder auch direkt in quantenphysikalischen Überlegungen, insbesondere Quantenkohärenz und Nicht-Lokalität, hineinführen werden."
     
    Quelle: Günter Ewald: Auf den Spuren der Nahtoderfahrungen (2012), S. 126-128


 

 Beitrag 0-235
Gedanken und Körper — Wie sich Görnitz ihre Interaktion erklärt

 
 

 
Biologische Gehirne im Lichte der Quantenphysik


 
System-Isolation

 
und wie es kommen könnte, dass

 
Körper und Gedanken wechselwirken

 
 
Aus Sicht klassischer Physik sind Systeme nur dann isoliert, wenn sie sich räumlich nicht durchdringen, noch besser: wenn sie rämlichen Abstand von einander haben.
 
Ganz anders in der Quantenphysik: Hier gelten zwei Systeme als isoliert voneinander, wenn ihnen Wechselwirkung unmöglich (bzw. weitgehenst unmöglich) gemacht wurde. Dies kann auch dann der Fall sein, wenn sie sich räumlich durchdringen. Bestes Beispiel hierfür ist durch eine Glasfaser gesandtes Licht.
 
Nur isolierte Quantensysteme werden sich nicht miteinander verschränken, denn: Jede Wechselwirkung erzeugt Verschränkung.
 
Görnitz stellt fest: Messbar sind Hirnaktivitäten, nicht aber die Gedanken selbst. Dies bringt ihn zur Vermutung, dass Gedanken von der materiellen Welt isolierte Quantensysteme seien. Mich erinnert das ein bisschen an Sheldrake These morphogenetischer Felder.
 


Thomas und Brigitte Görnitz:
 
Auf jeden Fall kann davon ausgegangen werden, dass die im Bewusstein und auch die im Unterbewussten vorhandene Information sich mit den Zuständen des Körpers verschränkt.
 
Durch solche Wechselwirkung wird für das den Gedanken darstellende Quantensystem die Isolation vom Körper aufgehoben. Beider Zustände werden aneinander gekoppelt [zueinander korrelliert].
 
Betrachten wir z.B. die Sehwahrnehmung: Jedes einlaufende Photon bewirkt einen Quantenabsorptionsprozess im Sehpurpur der Netzhaut: eine irreversible Reaktion, die quantenphysikalischer Messprozess ist. Aufgrund durch ihn geschaffener Fakten werden Signale ins Gehirn gesandt, die dort Wirkungen auslösen, die selbst wieder Messprozesse sind und daher Fakten schaffen. Im dortigen Nervengewebe können so weitere Quantenzustände erzeugt werden, die z.B. mit anderen Zuständen aus dem Gedächtnis — mit Erinnerungen — abgeglichen werden.
 
Da jeder Gedanke (wenn er tatsächlich Quantensystem sein sollte) nicht nur lokal existiert, kann das zu Wechselwirkung zwischen ihm und anderen Teilen des Gehirns führen.
 
Mit entsprechend viel kleinerer Wahrscheinlichkeit sogar zu Wechselwirkung zwischen ihm und anderen Objekten unserer Welt (d.h. nicht nur mit solchen, die Teil des Körpers sind, von dessen Gehirn wir hier sprechen.
 
 
Lies auch: M. Spitzer: Ketchup und das kollektive Unbewusste, Schattauer (2001).

 


 
Quelle: Thomas & Brigitte Görnitz: Der krative Kosmos, Spektrum-Verlag (2002), Kap. 12.2


 

 Beitrag 0-238
Wie die Gehirne biologischer Lebewesen funktionieren

 
 

 
Wie unser Gedächtnis funktioniert

 
 
Wer Information aus einem Datenspeicher abruft, erhält sie in physikalisch klassischer Form, d.h. als Kopie des Originals, welches sich dadurch nicht verändert.
 
Wo nun aber Lebewesen aus ihrem Gedächtnis Information abrufen, wird sie als Zustand eines Quantensystems abgerufen, so dass — wie das No-Clonig Theorem zeigt — dass der abgerufene Gedächtnisinhalt, der uns dann als klassische Information bewusst wird, nicht mehr voll dem Original entspricht:
 
 
Was in unserem Bewusstsein ankommt, sind Fakten (Ergebnisse quantenphysikalischer Messprozesse im Gehirn).
 
 
Diese Fakten sind "Schatten" quantisierter Zustände des Gehirns.


Görnitz (2002):
 
Wo Information als Zustand eines Quantensystems abgerufen wird, ist die Wahrscheinlichkeit, dass dieser Abruf sie nicht verändert, praktisch Null.
 
In der Regel darf man dann erwarten, dass bei einer Wiedereinspeicherung diese Information in leicht veränderter Version ins Gedächtnis zurück gelangt.

 
Dies hat zur Folge, dass schon jeder Abruf einer Erinnerung einen Umbau der Gedächtnisinhalte zur Folge hat (der neurochemisch sogar nachweisbar ist).
 
Solch dynamische Bearbeitung und Veränderung unserer Gedächtnisinhalte findet ständig statt und zu großen Teilen unterbewusst.
 
Ein wichtiger Teil aller Traumarbeit dürfte darin bestehen, neu gewonnene Erfahrungen in schon vorliegende Gedächtnisinhalte zu integrieren und all das zu einem Gesamtgebilde zu verarbeiten.
 
Fazit also:
     
  • Jedes Aktivieren von Gedächtnisinhalten — auch unbewusstes — erlaubt deren Veränderung und so z.B. die Bearbeitung traumatischer Schädigungen: Durch vom Therapeuten provoziertes Sprechen über ein Problem wird die gespeicherte Information aktiviert. Sie zu formulieren und auszusprechen schafft Fakten, bedeutet also Messung. Da dies den quantenphysikalischen Zustand des Gedächtnisträgers verändert, geht manches verloren und wird anderes, nun neu bewertet, abgespeichert.
     
  • Die messbaren Impulse im Gehirn haben physikalisch alle gleiche Struktur und sind in gewissem Sinne ununterscheidbar. Ein und derselbe elektrische Impuls kann als optischer oder akustischer Reiz wahrgenommen werden. Hier wird deutlich, dass unser Bewusstsein abstrakte Information je nach Umgebung verschieden interpretiert.
     
  • Damit ist auch klar, dass ein EEG keine Gedanken lesen kann, sondern nur dokumentiert, zu welcher Zeit welche Bereiche des Gehirns deutlich aktiver als andere waren.

 


 
Quelle: Thomas & Brigitte Görnitz: Der krative Kosmos, Spektrum-Verlag (2002), S. 309-311


 

 Beitrag 0-288
Unsere unglaublich hohe Gehirnkapazität

 
 

 
Unsere unglaublich hohe Gehirnkapazität

 
 
Wir können versuchen, uns die Zahl möglicher Verknüpfungen von Nervenzellen in einem menschlichen Gehirn zu veranschaulichen:
     
  • Jede Nervenzelle unseres Gehirns kann mit etwa 10 000 anderen verknüpft sein.
     
  • Die Menge an Information, die durch ein System von N miteinander verknüpfter Zellen darstellbar ist, wird aus wenigstens M Bits bestehen, wo M die Zahl der unterschiedlichen Verknüpfungsvarianten dieser N Zellen ist.
     
    Leicht nachzurechnen ist:
     
    • Für N = 2 gibt es genau 2 unterschiedliche Verknüpfungsgeflechte.
       
    • Für N = 3 sind es 8 (denn zwischen 3 Punkten kann man auf 3 Arten 1 Linie ziehen, auf 3 Arten 2 Linien, und auf jeweils 1 Art 3 Linien oder gar keine).
       
    • Bei 4 Punkten kommen wir schon auf 64 Möglichkeiten,
       
    • bei 5 auf 1024,
       
    • bei N = 24 aber schon auf eine Anzahl, die größer ist als die Zahl aller Atome im beobachtbaren Universum.
       
    • Für N = 10 000 schließlich ist M von einer einfach nicht mehr vorstellbaren Größe.

     
    Nun enthält unser Gehirn aber nicht nur ein solches Geflecht, sondern bis zu 10 Millionen davon
     
    (denn es enthält zwischen 10 und 100 Milliarden Nervenzellen).

 
 
Obgleich nun aber hochentwickelte Gehirne die kompliziertesten und kunstvollsten Gebilde im gesamten Universum zu sein scheinen, scheint die Evolution — als dessen Ergebnis sich alles ergibt — doch nur von zwei recht einfachen Mechanismen gesteuert zu sein:
     
  • Der erste: Da hoch symmetrische Zustände oft instabil sind, kommt es ständig zum Zerfall stabiler, symmetrischer Konfigurationen des Universums in stabilere, dafür aber weniger symmetrische. Dies erklärt gut die ständig steigende Vielfalt unterschiedlicher Objektarten.
     
  • Der zweite: Was genau sich — ausgehend von einem bestimmten symmetrischen Zustand in einen weniger symmetrischen — als resultierende Form ergibt, wird durch Wahrscheinlichkeiten gesteuert. Die besonders wahrscheinlichen neuen Formen ergeben sich besonders häufig [was z.B. erklären könnte, dass alle Blätter eines Baumes i.W. gleiche Form bekommen].


 

 Beitrag 0-382
Information in und um biologische Gehirne

 
 

 
Protyposis und biologische Gehirne

 
 
Als Protyposis bezeichnet man (nach Görnitz) quantenphysikalisch gegebene, abstrakte Information, welche unser Gehirn über elektromagnetische Wellen erreicht, von ihm aber noch keine Bedeutung zugeordnet bekam.
 
Soweit Gehirne Protyposis interpretieren, kommt es zu einer Wechselwirkung zwischen Körper und Geist — weswegen wir denn auch die durch die klassische Physik postulierte strikte Trennung von Körper und Geist nun als nicht weiter haltbar zu betrachten haben.
 
Auch ein anderes Erbe der klassischen Physik — die immer noch vorherrschende Ansicht, Materie sei aus isololiert voneinander betrachtbaren kleinsten Teilchen aufgebaut — hat uns die Quantenphysik als nicht weiter haltbar erkennen lassen: There are no Particles, there are only Fields.
 
 
Aus hinreichend grober Sicht, mindestens aus unserer Alltagssicht heraus, beschreibt die klassische Physik unsere Welt durchaus richtig. Erst wer genauer hinzusehen wünscht — und verstehen möchte, wie es zur makroskopischen Sicht kommt — muss sich der Quantenphysik bedienen.

 

 Beitrag 0-383
Kann ein Gehirn ein anderes Gehirn direkt beeinflussen?

 
 

 
Wie man sich Gehirne über elektromagnetische Wellen

als miteinander vernetzt vorstellen kann

 
 
Das immense Gesamtspektrum elektromagnetischer Wellen bestimmt in vielfacher Hinsicht — und für uns immer deutlicher — das Leben auf unserem Planeten.
 
Schon seit Beginn der Menschheit hat man Licht als Spender des Lebens gesehen und deswegen oft als etwas Göttliches empfunden — und das, obgleich man es damals nur als sichtbares Licht kannte und als Spender von Wärme.
 
Erst in der Neuzeit wurde klar, dass es vor allem Informationsträger ist, der weitaus mächtigste, den wir kennen.
 
Zudem wissen wir heute, dass insbesondere das sichtbare Licht Grundlage sämtlicher biochemischer Vorgänge in Lebewesen ist.
     
  • Das für Menschen sichtbare Licht hat Wellenlängen zwischen etwa 380 und 780 Nanometer (nm).
     
  • Der daran angrenzende Bereich der Infrorotstrahlung (wärmende Strahlung) hat Wellenlängen zwischen 780 nm bis hin zu 1 Millimeter (mm).
     
  • In ihm ist enthalten der Bereich der Ultraviolettstrahlung mit Wellenlängen zwischen 10 nm und 380 nm.

 
Die Wellenlängen des nicht sichtbaren Bereichs,
     
  • reichen hinter bis zur Plancklänge,
     
  • reichen aber auch hinauf bis mindestens zum Durchmesser des beobachtbaren Universums.

In Frequenzen ausgedrückt sprechen wir also von elektromagnetischen Schwingungen im Bereich zwischen 10-20 bis 1020 Hz (= Schwingungen pro Sekunde).
 
Einige Bereiche dieser Strahlung sind für Lebewesen eher gefährlich:
     
  • Mikrowellen etwa — mit einer Wellenlänge zwischen 1 cm und 1 Meter — können bei hoher Konzentration Proteine zerstören.
     
  • Und Röntgenstrahlen mit sehr kleiner Wellenlänge können in hoher Dosierung Krebs verursachen.

Unverzichtbar für unsere moderne Zivilisation sind Ultrakurzwellen, Mittelwellen und Langwellen geworden, denn auf ihnen basieren Radio, Fernsehen und Mobilfunknetze. Sie haben deutlich größere Wellenlänge als das sichtbare Licht oder die Mikrowellen in unserer Küche — sind also auch entsprechend energieärmer (so dass sie uns scheinbar nicht schaden können: Es wird ja der Körper moderner Menschen heute ständig gleichzeitig schon von etwa 50 Fernseprogrammen und mindestens 500 Handy-Nachrichten durchquert).
 
Lichtwellen mit noch deutlich längerer Wellenlänge werden produziert und empfangen von biologischen Gehirnen, etwa dem Gehirn des Menschen. Was unser Gehirn an solchen Wellen ständig erzeugt kann aufgezeichnet werden durch ein sog. EEG. Sobald sie dort nicht mehr zu erkennen sind, ist das ein wichtiger Hinweis auf einen eingetrenen Hirntod, so dass der Verstorbene dann ggfs. zur Organspende freigegeben werden kann.
 
Die von unserem Gehirn ausgehenden elektromagnetischen Wellen — im Folgenden stets als Gehirnwellen bezeichnet — werden klassifiziert als
     
  • Gammawellen (Wellenlänge zwischen 3000 und 10.000 km): Sie zeugen von konzentrierter geistiger Tätigkeit.
     
  • Betawellen (Wellenlänge bis 30.000 km): Sie weisen auf gute Aufmerksamkeit hin.
     
  • Alphawellen (mit noch längerer Wellenlänge) weisen auf Entspannung und mehr nach innen gerichteter Aufmerksamkeit hin.
     
  • Thetawellen (Wellenlänge etwa 50.000 km) sind typisch für Hypnose oder tiefe Medidation.
     
  • Deltawellen schließlich (Wellenlänge zwischen 100.000 und 300.000 km) sind mit heutiger Technologie gerade noch messbare Gehirnwellen.
     
  • Man sollte nicht daran zweifeln, dass unser Gehirn darüber hinaus auch noch jede Menge noch energieschwächerer Wellen aussendet (und wohl auch empfängt).

 
Das besonders Schöne an elektromagnetischen Wellen — von Physikern einfach » Licht « genannt — ist,
     
  • dass sie einander durchdringen, ohne sich zu stören,
     
  • aber dennoch über geeignete Geräte — und auch vom Gehirn — einzeln empfangen werden können.
 
Möglich wird das, da jede einzelne Lichtwelle eine unteilbare, d.h. nur ganz oder gar nicht durch Atome oder noch kleinere Materieteilchen konsumierbare Portion von Energie darstellt. Ihre Größe ist proportional zur Frequenz der Welle.
 
Wo ein Gehirn solche Wellen als Photonen, d.h. als kleinste Portionen von Energie absorbiert, tragen sie ihm Information zu, welche ankommt als abstrakte Information (Görnitz nennt sie Protyposis, Physiker modellieren sie als eine Wahrscheinlichkeitswelle, die nach der Bornschen Regel jede nur mögliche Wirkung auf die das Photon verschluckende Materie beschreibt). Jede absorbierte Welle hat somit einen kleinen Teil des Gehirns in einen neuen Zustand versetzt, der sich — in Form virtueller Photonen und über Ionentransport — entlang der Nervenbahnen hin zu anderen Nervenzellen und Zellkomplexen hin fortzusetzen trachtet. Wo solche Ausbreitung gelingt, werden sog. Synapsen (= Verbindungen, die der Ausbreitung des neuen Zustandes unterschiedlich hohen Widerstand entgegensetzen) aktiviert und dabei auch vorübergehd durchlässiger gemacht.
 
Beim solchem Durchqueren des Gehirns wird die angekommene Information mit zunehmend mehr Bedeutung versehen, aber auch immer wieder auf neue Photonen übertragen, die ihrerseits zu eine Veränderung der Energieniveaus in Molekülen gebundener Elektronen führen [genauer: dem Elektronfeld leicht andere Form geben].
 
 
Auf diese Weise werden im Gehirn von außen ankommende elektromagnetische Signale ebenso wie ankommende Druckwellen von zunächst abstrakter — d.h. bedeutungsfreier — Information verarbeitet zu bedeutungstragender Information.
 
Dieses Zusammenführen einzelner Informationen zu einer ganzheitlichen Erfahrung und Wahrnehmung im geistigen Sinne ist typisch für quantenphysikalische Vorgänge, wie man sie auf materieller Ebene bei der Bildung oder dem Umbau von Molekülen beobachtet. Wasserstoff und Sauerstoff etwa sind Gase. Erst wenn sie sich infolge elektromagnetischer Wechselwirkung 3 dieser Atome zu Wasser verbinden, entstehen Eigenschaften, die es vorher nicht gab: etwa die Eigenschaft flüssig zu sein. Viel von dem Neuen, das so zustande kommt, können Chemiker inzwischen durch quantenphysikalische Berechnungen vohersagen und begründen.
 
 
Aber dieses Neue ist eben nicht nur Summe seiner Teile,
 
sondern ist etwas komplett Neues,
 
das es ohne sinnvolles Zusammenwirken jener Teile gar nicht geben kann.

 
 
Erstaunlicherweise haben Menschen schon lange vor solch wissenschaftlichen Erkenntnissen im täglichen Sprachgebrauch Begriffe verwendet, in welchen das Licht als Metapher für Denkvorgänge benutzt wird: So z.B. wenn wir von » Erleuchtung «, einem » strahlenden Gesicht « oder einem » Geistesblitz « sprechen oder sagen » Ihm geht ein Licht auf «. Umgekehrt reden wir auch von » geistiger Umnachtung « oder » Unterbelichtung «.
 
Es ist ganz so, als hätten die Menschen schon immer gewusst oder wenigstens erahnt, das Denkvorgänge etwas zu tun haben mit dem, was Physiker » Licht « nennen.
 
Ein vom sowjetischen Psychologen Alexej N. Leontjew (1909-1979) durchgeführtes Experiment scheint sogar zu beweisen, dass sichtbares, aber nicht gesehenes Licht von irgendwelchen Hautrezeptoren wahrgenommen werden kann.
 
In diesem Zusammenhang scheint erwähnenwert, dass in der biologischen Evolution besonders lichtempfindliche Hautzellen sich zunächst zu mehrzelligen "Augen­flecken" zusammenfanden, aus denen sich dann später — vor etwa 500 Mio. Jahren — echte, nun bilderzeugende, Augen entwickelt haben.
 
 
 
Kann nun aber wirklich ein Gehirn ein anderes Gehirn beeinflussen?

 
 
Indirekt ist das auf jeden Fall möglich, da ja jede Idee schriftlich oder mündlich aufgezeichnet und in dieser Form dann verbreitet werden kann.
 
Fragen wir also genauer:
 
 
Kann eine von einem Gehirn ausgesandte elektromagnetische Welle den Zustand eines anderen Gehirn physikalisch erklärbar abändern,
 
seine Gedanken also durch die eigenen Gedanken irgendwie beeinflussen?

 
Zunächst muss man sich vor Augen führen, dass die von Gehirnen abgestrahlten Wellen sehr niedrige Frequenz haben, somit extrem kleine Portionen von Energie darstellen und daher die fremde Schädeldecke i.A. nicht durchdringen werden — das fremde Gehirn also i.A. nur erreichen können, wo sie das Hindernis durchtunneln (Stichwort: Tunneleffekt) oder wo sie durch Schädelöffnungen ins Innere des Schädels und dort hin zum Gehirn finden.
 
Daher werden die meisten fremden Gedanken — wenn nur über solche Wellen transportiert — auf unser eigenes Gehirn keine Auswirkung haben können.
 
Aber natürlich wird es immer wieder vorkommen, dass die eine oder andere in fremden Gehirnen erzeugte Welle dennoch auch unser eigenes Gehirn erreicht und dort ein Quantenereignis hervorruft. Das Resultat kann dann von unterschiedlicher Natur sein:
     
  • Fall 1: Es könnte die einlaufende Welle beim Durchqueren unseres Gehirns dort aus Molekülen bestehende Antennen zum Schwingen bringen — ganz so wie Radiowellen von einer Radioantenne aufgefangen werden, wenn sie für Wellen einer bestimmten Wellenlänge empfindlich ist. Das wäre dann ein schon eher makroskopisch zu nennender Effekt.
     
  • Fall 2: Es kann jene Welle sich mit einem Elektron in einem Atom unseres Gehirn vereinen, unserem Gehirn also leicht anderen Zustand geben, was dann Folgen haben kann, die ohne solches Quantenereignis nicht eingetreten wären. Ein ganzer Gedanke wird auf diesem Weg aber sicher nicht übermittelt.
     
  • Fall 3: Die ankommende, fremde Gedanken transportierende Welle, kann in unserem Gehirn Quanten z.B. polarisieren und sich so mit ihnen verschränken. Dies ist ein besonders spannender Fall, den solche Quantenverschränkung hat zur Folge, dass — wenn auch nur über sehr kurze Zeit hinweg — kleine Teile des fremden Gehirns mit kleinen Teilen unseres Gehirn sozusagen "synchronisiert" sein (genauer: korreliertes Verhalten aufweisen) werden.

Natürlich ist Fall 3 der mit Abstand interessanteste, da er am ehesten dazu führen kann, dass wirklich ein ganzer Gedanke von einem Gehirn in ein anderes gelangen kann.
 
Wo das passiert, kann es sich aber wohl dennoch immer nur um Gedankensplitter handeln, denn wie man inzwischen weiß, ist keine Verschränkung von Quanten zeitlich stabil: Seit 2007 können Forscher an der TU Wien im Experiment beobachten, dass Kohärenz, d.h. das Maß an präzise bestimmter quantenmechanischer Überlagerung, nach einem charakteristischen Gesetz im Laufe der Zeit zerfällt. Dieser Zerfall unterliegt — anders als man vermuten könnte — keinem exponentiellen Gesetz, sondern folgt einem komplizierteren Verlauf.
 
 
 
Nebenbei noch:
 
Sogenannte Nahtoderfahrungen — lies mehr darüber in van Lommels Buch — sind meiner Ansicht nach noch keineswegs dahingehend zu deuten, dass menschliches Bewusstsein nicht-lokal sein müsse.
 
Kurz: Die Schlussfolgerung Pim van Lommels, dass Nahtoderfahrungen auf ein nicht-lokales Bewusstsein hindeuten, teile ich keineswegs.
 
Seine Beobachtungen lassen sich viel eher dadurch erklären, dass das, was man heute als Gehirntod definiert, eben noch lange nicht der Tod des Gehirns ist, sondern vielmehr nur der Punkt, ab dem das sterbende Gehirn derart schwache elektromagnetische Signale erzeugt — d.h. mit derart langen Wellenlängen operiert —, dass selbst modernste Messgeräte solche Gehirnaktivität nicht mehr registrieren können.
 
Hierfür spricht auch, dass Menschen mit Nahtoderfahrung hinterher ja durchaus wieder ein funktionsfähiges Gehirn haben.
 
So gesehen implizieren Nahtoderfahrungen eingentlich nur, dass
  • Gehirne über deutlich sensiblere Antennen verfügen als moderne Technologie bereitstellen kann
  • und dass, was man heute als Gehirntod definiert, eben noch keineswegs den endgültigen Tod einer Person bedeuten muss.


 
Quellenverzeichnis:


 

 Beitrag 0-514
Ramanujan — ein Gehirn ganz anderes als unseres

 
 

 
Ramanujan — ein Gehirn ganz anderes als unseres

 
 
Dass menschliche Gehirne den Menschen unterschiedlichste Talente verleihen können — auch in ganz unterschiedlichem Ausmaß, was diese oder jene besondere Fähigkeit betrifft — ist uns allen klar. Neurologen haben zudem Beispiele dafür gefunden, dass selbst Gehirne, die (was Gehirnmasse betrifft) extrem unvollständig erscheinen, den betreffenden Menschen immer noch zu einem geistig gesunden Exemplar seiner Gattung machen können.
 
Dennoch scheint bisher nur ein einziger Mensch — der Inder Ramanujan — die Fähigkeit gehabt zu haben, extrem komplizierte, gar nicht naheliegende zahlen­theoretische Zusammenhänge intuitiv zu entdecken und fehlerfrei zu formulieren.
 
Er besaß die Gabe, täglich nicht selten gleich mehrere hochkomplizierte zahlentheoretische Gleichungen — ohne sie formal herleiten zu müssen — rein intuitiv also, als wahr zu erkennen.
 
Eine der erstaunlichsten dieser Formeln ist folgende Reihenentwicklung der Kreiszahl π: Es treten darin nicht nur ganz und gar nicht naheliegende große Zahlen auf, sondern die Reihe ist zudem auch noch extrem schnell konvergent: Jeder zusätzliche Summand bringt uns zu einer um weitere 8 Dezimalstellen genaueren Näherung des Wertes der Kreiszahl.
 
 
 
Ramanujans schnell konvergete Reichenentwickling der Kreiszahl φ

 
 
Es ist dies eine von Ramanujans Formeln, für die er — anders als für zahlreiche andere — selbst einen Beweis veröffentlicht hat. Er führt über Kettenbrüche (mit denen Ramanujan trotz ihrer unhandlichen Schreibweise virtuos umzugehen verstand) und über das, was man heute die Theorie elliptischer Funktionen nennt.
 
 
Die Einsicht, dass 1729 die kleinste natürliche Zahl ist, die sich auf genau zwei Weisen als Summe der dritten Potenzen zweier andere natürlicher Zahlen schreiben lässt, war ihm ebenso präsent und durch seinen Geist ebenso schnell einzusehen wie für uns die Tatsache, dass 8 die dritte Potenz von 2 ist.
 
Es hat sich immer wieder gezeigt, dass Ramanujan mit Kettenbrüchen und Zahlen von nur 3 bis 4 Dezimalstellen ebenso sicher und fehlerfrei im Kopf rechnen konnte, wie andere Mathematiker mit dem kleinen Ein-Mal-Eins. Dass sich in seinem schriftlichen Nachlass auch der eine oder andere Fehler findet, scheint vor allem darauf zurückführbar, dass auch sein Gehirn nicht immun gegen Flüchtigkeitsfehler war (und er Nebenrechnung weit mehr als andere nur im Kopf erledigt hat).
 
Ramanujam scheint der bisher einzige Mensch gewesen zu sein, der sich auch ziemlich komplizierte zahlentheoretische Zusammenhänge nahezu mühelos, schnell, klar und deutlch präsent zu machen verstand (und das auch noch ohne dass er — bevor Hardy ihn seiner erstaunlichen Ergebnisse wegen nach England einlud — jemals die Gelegenheit hatte, sich als Student an einer Hochschule mit Zahlenthorie zu befassen).
 
 
 
Seine einzigartige Fähigkeit,
 
Zahlen in oft hochkomplizierter Relation zu einander ständig präsent zu haben,
 
war ihm als zusätzlicher Sinn ganz offensichtlich angeboren.

 
 
 
Heute hüten die Mathematiker Ramanujans Sammlung zahlentheoretischer Zusammenhänge wie einen einzigartigen Schatz und versuchen, auf die Beweise hinter den Formeln zu kommen.
 
Leider sind Ramanujam nach seinem ersten Zusammentreffen mit Hardy in England und seiner damit beginnenden mathematischen Ausbildung in Cambridge nur noch sechs kurze Jahre geblieben. Er starb 1920, nun wieder in Indien, an Tuberkulose.
 
Sein Werk, sein Glaube und seine zahlentheoretischen Einsichten – von ihm als von der Göttin Namagiri mitgeteilt erachtet – machten ihn nach seinem frühen Tod 1920 zur bisher rätselhaftesten Mathematiker-Legende, zu einem Stern am Himmel der Zahlen und Formeln ...
 
 
 
Formale Herleitungen hielt das Genie für überflüssig,
 
denn seiner Überzeugung nach werden Formeln und Sätze » entdeckt «.

 
 
"Eine Gleichung hat für mich keinen Sinn, es sei denn, sie drückt einen Gedanken Gottes aus" — das war die Botschaft dieses außergewöhnlichen Genies mit einem Gehirn, wie es bislang niemand sonst hatte.
 
Aber wie, so fragen wir uns, konnte er z.B. die folgende Formel einfach nur » entdecken «?
 
 
 
eine von Ramanujans angeblich nur » entdeckter « Formeln

 
|

 
Meiner, Gebhard Greiters, Ansicht nach ist heute nicht mehr eindeutig feststellbar, in welchem Umfang Ramanujan vor seiner Zeit in England seine Formeln tatsächlich vor allem intuitiv fand (statt auf besonders geschicktem, mehr systematischem Weg). Tatsache aber scheint zu sein, dass er Hardy mit einer ganzen Menge zutreffender zahlentheoretischer Formeln überrascht hat, die Hardy — obgleich damals weltweit führender Zahlentheoretiker — entweder noch gar nicht kannte oder als richtig und keineswegs leicht zu beweisen eingestuft hat. Er hätte ihn sonst wohl auch gar nicht eingeladen, aus Indien zu ihm nach England zu kommen (und das trotz der Tatsache, dass Ramanujans Liste von Formeln schon auch einige wenige enthielt, die Hardy als falsch erkannte).
 
Dass Ramanujan für seine oben genannte Formel zur Berechnung der Kreiszahl π einen doch eher komplizierten Beweis veröffentlicht hat, weckt in mir den Verdacht, dass er sich so manche seiner Formeln schon auch wirklich erarbeiten musste — und deswegen das Video » Wie tickt ein Genie? « Ramanujans Art zu denken vielleicht doch ein wenig übertrieben mystifiziert. Wikipedias Aufsatz scheint mir objektiver.
 
Dass Ramanujans Denken die Welt der Zahlen dennoch deutlich müheloser und erfolgreicher zu betrachten verstand als jeder andere Mathematiker (Euler noch am ehesten ausgenommen), scheint erwiesen.
 
|

 
Man lese auch den Bericht Computer mit legendärer Mathe-Intuition über eine Art KI, mit der man versucht, Ramanujans Denkwege nachzuahmen = The Ramanjuam Machine: eine KI aus 2020.
 
Könnte es also sein, dass er seine zahlentheoretischen Formeln und gegen wichtige Konstanten kovergierenden Reihen tatsächlich vor allem intuitiv gefunden hat?
 
Gegen diese Vermuting spricht wenigstens Ramanujans Master Theorem. [ Aber... ]

 

 Beitrag 0-529
Warum auch jeder Gedanke nur Quantensystem ist

 
 

 
Über das Wirkpotential selbst kleinster Gedanken

 
 
Gegenstände durch Gedanken zu bewegen ist natürlich völlig unmöglich — aber ganz sicher nur deswegen, weil ihre Wirkung dafür um SEHR viele Größenordnungen zu schwach ist.
 
Wahr ist aber auch:
    Gedanken existieren in Form von Anregungen des Feldes der physikalischen Grundkräfte durch das Geschehen in lebenden Gehirnen (i.W. also als sehr langwellige elektromagnetische Wellen).
     
    Jene aber breiten sich als Kugelwellen mit Lichtgeschwindigkeit um das sie erzeugende Gehirn herum aus. Damit ist jeder Gedanke Summe von Miliiarden von Milliarden sog. QuBits, von denen einzelne sich bestimmt über Milliarden von Jahren durch das Weltall bewegen werden, bis sie dann schließlich — i.A. an weit auseinander liegenden Orten — winzig kleine Wirkung zeitigen werden (durch Abgabe ihrer Energie an irgend ein anderes Quant).
     
    Vollständig ohne Wirkung ist jenes Gehirn also erst dann, wenn auch das letzte dieser Photonen aufgehört hat zu existieren.
     
    Denkende Wesen also verklingen in ihrer Wirkung über nahezu beliebig lange Zeit hinweg im Raum.


 

 Beitrag 0-381
Das Phänomen » Geist «

 
 

 
Was ist der Teil der Natur, den wir » Geist « nennen?

 
 
Geist ist ein Phänomen, das
     
  • sich ganz grundsätzlich jeder physikalischen Messung entzieht
     
  • und — gewollt oder ungewollt, bewusst oder unbewusst — derart häufig derart sinnvolle Ergebnisse produziert, dass es keinen Sinn macht, sie als durch Zufall entstanden anzusehen.

 
Geist begegnet uns in Form mathematischer Wahrheiten, vor allem aber in Form menschlichen Urteilsvermögens, menschlicher Kreativität und menschlichen Fühlens. Spuren wenigstens dieser 3 Formen von Geist finden sich aber mehr oder weniger deutlich sogar in allen Lebewesen.
 
Gibt es weitere Beispiele? Vielleicht auch solche aus der scheinbar unbelebten Natur? Oder wenigstens aus dem Bereich der Pflanzen?
 
Sind z.B. fleischfressende Pflanzen wirklich nur als Mechanismus einzustufen?

 

 Beitrag 0-268
Wo Physiker Geist entstehen sehen

 
 

 
Wenn sich Wissenschaftler fragen:

Was ist Geist ?

 
 
Seit Mitte des 20. Jahrhunderts gab es immer wieder namhafte Naturwissenschaftler, die — ausgehend von den Erkenntnissen der Quantenphysik — zur Erkenntnis kamen, dass unsere Welt im Grunde genommen holistisch sei: ein großes Ganzes, das man nicht einfach in zueinander disjunkte Teile zerlegen kann.
 
Jede Aufspaltung der Realität in benannte Einzelteile ist willkürlich, eine Sache der Konvention, da ja schon subatomare Teilchen — erst recht also alles, was aus ihnen besteht — ebensowenig klar unterscheidbar sind wie die Wolken bei fast bedecktem Himmel.
 
 
Nach Bohm etwa ist alles im Universum Teil eines Kontinuums: Trotz der scheinbaren Vereinzelung der Dinge sei alles eine übergangslose Erweiterung von allem anderen. Und letztlich gelte das auch für Geist:

David Bohm (Zitat):
 
Die Fähigkeit der Form, aktiv zu sein, ist das charakteristische Kennzeichen des Geistes,
 
und bereits im Elektron haben wir etwas, das geistähnlich ist.

 


 
Jeder Quantenphysiker weiß: Unsere Welt ist Summe von Feldanregungen, deren jede sich als Kugelwelle um den Ort ihres Entstehens herum auszubreiten trachtet. Wie man am Beispiel der Lichtwellen sieht, können diese Kugelwellen um Hindernisse herum gebeugt sein, werden mit zunehmend größerem Radius also auch zunehmend verbeulte Form bekommen.
 
Wie zueinander verschränkte Quanten zeigen, kann sogar das, was uns definitiv als unterschiedliche Objekte erscheint, ein einziges Ganzes sein.
 
Eben dieses Beispiel stützt Bohms These, dass das Paket sämtlicher Wellen in unserem Universum hologrammartiger Natur ist in dem Sinne, dass, wer es betrachtet, in Abhängigkeit des Betrachtungswinkels mehr oder weniger Unterschiedliches sehen wird: eben ganz so wie jemand, der eine Gruppe von Bäumen von unterschiedlicher Richtung her betrachtet.
 
Es lohnt sich, dieses Beispiel genauer zu betrachten:
 
Denkt man sich an Stelle der Bäume verschieden dicke senkrechte Rohre R mit jeweils unterschiedlichem Durchmsser d, so wird es zu jedem Paar R1 und R2 dieser Rohre einen Betrachtungswinkel geben, der R2 direkt hinter R1 zeigt. Wenn dann d2 deutlich größer als d1 ist, wird der Betrachter R2 zerlegt in zwei Teile T21 und T22 sehen, die er zunächst für unterschiedliche Rohre R21 und R22 halten könnte — ganz so, wie wir miteinander verschränkte Quanten ja auch als unterschiedliche Objekte beobachten, obgleich sie doch, wie sich schließlich herausstellt, etwas Unteilbares sind, das sich nicht hier oder dort zeigt, sondern eben an beiden Stellen aus jeweils nur anderer Perspektive.
 
Wer sich nun vorstellt, dass sämtliche Rohre aus Milchglas seien mit einer farbigen Lichtquelle im Inneren, wird — wenn jemand das Licht in R2 angeschaltet — in den beiden vermeintlichen Rohren R21 und R22 zeitgleich einen Zustandswechsel wahrnehmen.
 
 
Interessant auch:
 
Quantenverschränkung ist nicht der einzige, bisher zweifelsfrei nachgewiesene, nicht-lokale Quanteneffekt. Ein anderer nennt sich Abranov-Bohm-Effekt.
 


 

 Beitrag 0-287
Wo beginnt Geist? — Grenzen der Naturwissenschaft

 
 

 
Kann Naturwissenschaft uns sagen, wo Geist beginnt?

 
 
Naturwissenschaft setzt auf ausschließlich  r a t i o n a l e  Welterklärung.
 
Wir sehen die Grenzen dieser Weltsicht, und viele von uns haben den Eindruck, dass es jenseits ihrer noch mehr gibt. Wie sicher aber können wir uns dessen sein?
 
 
Nur wenige Physiker erlauben sich hin und wieder, ein klein wenig über den Zaun zu schauen (genauer: über ihn hinweg Vermutungen anzustellen):
 
Freeman Dyson etwa sieht Geist als eine Eigenschaft der Materie, die schon den Atomen zukommt und in steigender Komplexität zunehmend Kontrolle über die Materie gewinnt.

 

 Beitrag 0-549
Unser Ich — Hin zu einer Physik des Geistigen

 
 

 
Hin zu einer Physik des Geistigen

Über (z.B.) das Ich jeden sich selbst bewussten Lebewesens

 
 
Ein sich selbst bewusst werdendes Lebewesen ist auf jeden Fall ein denkender Teil der Natur, der sich als solcher schon weitgehend als Individuum etabliert hat.
 
Da zum Denken Gehirn notwendig ist, kann so ein Ich (im Folgenden stets "das Ich" genannt) frühestens zu dem Zeitpunkt entstehen, zu dem das Lebewesen selbst entsteht.
 
Dem heutigen Stand der Quantenphysik entsprechend muss wohl angenommen werden, dass Gedanken – und damit auch jedes Ich – entstehen und gegeben sind als emergentes Phänomen, das sich ergibt aus dem Zusammenwirken von durch Gehirnmasse erzeugter Anregungen des Felder der physikalischen Grundkräfte.
 
Wie Fouriertransformation uns zeigt, ist jede Feldanregung Summe harmonischer Wellen, die – so sagt uns die Quantenphysik – als sog. QuBits einzeln entstehen und später auch einzeln aufhören zu existieren, sich in der Zwischenzeit aber mit Lichtgeschwindigkeit (als um Hindernisse herum gebeugte) Kugelwellen im Weltall ausbreiten.
 
Damit scheint klar, dass der Tod eines sie erzeugenden Gehirns den Tod des entsprechenden Ichs zwar zur Folge haben wird, den Prozess seines Sterbens aber erst mal nur startet und niemand sagen kann, wann er wirklich komplett abgeschlossen sein wird (in dem Sinne, dass dann kein einziges jener QuBits) mehr existiert.
 
 
Wichtige Erkenntnis also:
 
So schlagartig wie ein Gehirn sterben kann, wird das darin geborene Ich sich wohl nicht auflösen (da sein physikalisch vorhandener Träger — ein Paket von Feld­anregungen — ja stets nur quantenweise aufhört zu existieren):
 
Genauer: Nach Absterben des Gehirns wird unser Ich aus Mangel an Nachschub von Feldanregungen bestimmter, durch die Individualität des Gehirns gegebener Charakteristik im Nichts verklingen, wobei aber nicht klar ist, wie lange es dauern kann, bis wirklich kein einziges QuBit davon mehr existiert. Man bedenke, dass mindestens Photonen und Gravitonen sich ja durchaus Milliarden von Jahren lang im All ausbreiten können ohne zerstört zu werden.
 
|
 
Wenn nun aber jedes Ich (als emergentes Phänomen) gegeben ist durch bestimmtes Zusammenwirken von Feldanregungen, kann es doch wohl gar nicht anders sein, als dass das Ich — ebenso wie das Gehirn, durch dessen Aktivität jene Feldanregungen entstanden — seiner Natur nach etwas mit an Form gebundener Energie­verteilung zu tun hat und diese Form ihre für sie charakteristische Art gewonnen hat im Zuge der Evolution (ganz so, wie sich ja auch sämtliche typischen Eigenschaften der Spezies des Lebewesens durch Evolution ergaben).
 
Nicht zuletzt gilt dasselbe dann aber doch wohl auch für die dem Gehirn möglichen Gedanken (vor allem für die, welche sich in ihm besonders bereitwillig formen).
 
Dies bringt mich zur Frage: Kann es sein, dass auch religiöse Vorstellungen der Evolution unterliegen?
 
Wenn ja, könnte das doch gut der Grund dafür sein, dass Religionsphilosophie und der Drang, sich Gottesbilder zu machen, für Homo sapiens so hohen Stellenwert haben.
 
Vorsicht aber: Solche Ursächlichkeit ggfs. nachzuweisen wird kaum möglich sein, da ja Erziehung im religös bzw. atheistisch orientierten Elternhaus sie in aller Regel deutlich übersteuern wird.
 
Wir stoßen hier also (wieder mal) auf einen Erkenntnishorizont, den zu überwinden uns Menschen wohl nie gelingen wird.
    Und das allein schon deswegen nicht, da sich ja immer wieder zeigt, wie ganz extrem schwach ausgebildete Eigenschaften dieser oder jener Lebewesen, die für ihre Spezies charakteristischen Fähigkeiten grundverschieden machen können.
     
    Was ich damit meine, zeigt sich z.B. am so extrem unterschiedlich stark ausgeprägten Geruchssinn unterschiedlicher Arten von Säugetieren. Biologen glauben abgeschätzt zu haben, dass der Geruchssinn von Hunden mindestens zehntausend, wenn nicht sogar bis zu hunderttausend Mal mehr Gerüche von einander unterscheiden kann als der des Menschen.

 
Sollten nun aber Gottesvorstellungen tatsächlich auch evolutionsgetrieben konvergieren, was könnte das uns dann an philosophischen Denkperspektiven nahelegen?

 

  Beitrag 1057-107
Eine Frage

 
H... aus 1057-106:
Guten Tag,

Gegenwärtig glauben wir ja, dass das U. stets weiter expandiert (wegen akt. Materiedichte ~3*10-31g/cm3 < kritische Dichte 10-29g/cm3. Das impliziert auch eine neg. räuml. Krümmung (= Raum erstreckt sich ins Unendliche, es gibt unendlich viele kosmische Objekte). Da ist jedoch noch das Problem mit der "dark matter" ...

Hi H...,

kannst du näher begründen, warum negative Krümmung Unendlichkeit zur Folge haben sollte?

Gruß, grtgrt
 

  Beitrag 1057-109
Beantwortet Wikipedia sie richtig?

 
H... aus 1057-108:
Hi grtgrt,

ich kann es versuchen. Die negative Krümmung bewirkt eine pseudosphärische Form (im 3-dim. so etwas wie ein "Sattel"), im Gegensatz zur sonst flachen oder spärischen. Damit entsteht ein offenes U.. Bildlich gesprochen kann man sich hier auf Geodäten bewegen und nie an den Ausgangspunkt zurückkehren, was zum Beispiel bei pos. Krümmung nicht der Fall ist. Letztlich kann man die Friedmann-Gl. in Ω-Darstellung nutzen, der "Ωq -Term ist dabei der Krümmungsterm,
der positiv ist bei Annahme der Nichtexistenz von dunkler Materie (gemäss aktueller Einsicht).

Ich glaube, vorstellen kann man sich hier nicht viel, und mein Beispiel hinkt natürlich. Denn schliesslich krümmt sich der Raum nicht als Objekt
in irgendeinem anderen Raum, sondern die Krümmung ist inhärent und nicht "von aussen" beobachtbar.

Danke, H...,

bisher habe ich das ebenso gesehen. Mich verwirrt aber, dass in Wikipedia (im Abschnitt: Zusammenhang zwischen Massendichte, lokaler Geometrie und Form) klar und deulich gesagt wird: "Das Gesamtvolumen eines hyperbolischen Universums kann sowohl unendlich als auch endlich sein".

Gruß, grtgrt
 

  Beitrag 1057-121
Geometrie ist keine Frage der Sicht

 
 
Zitat von Harti:
Hallo H...,
ich bin zu der Überzeugung gekommen, dass die Beschreibung eines Objektes als hyperbolisch oder sphärisch keine Eigenschaft des Objektes ist, sondern lediglich die Beobachterposition zu dem Objekt festlegt. ...

Hi Harti,

was du da sagst, ist völlig falsch, denn ob eine Fläche hyperbolische, euklidische oder sphärische (elliptische) Geometrie hat, hängt einzig und allein von ihr selbst ab, genauer: davon, ob es darin zu einer Geraden durch einen Punkt außerhalb der Geraden stets mindestens zwei Parallelen gibt, genau eine, bzw. gar keine.

Bitte lese dazu den Abschnitt Grundlagen in Wikipedia.

Zwei Geraden heißen parallel zueinander, wenn sie sich nicht schneiden (was Nicht-Mathemaiker unter Parallelität verstehen, ist die Parallelität im Sinne euklidischer Geometrie).


PS: Welches der 3 möglichen Parallelenaxiome in unserem Universum denn nun wirklich gilt (sprich: welche Geometrie es hat), hängt ab von seiner Materie-Dichte (ganz so wie Henry das in Beitrag 1057-119 erklärt).

Gruß, grtgrt
 

  Beitrag 1906-3
Beispiele flacher und nicht flacher Geometrie

 
Harti in 1906-2:
Hallo Grtgrt,

was genau muss ich mir unter einer "flachen Geometrie" vorstellen. Kann man den Begriff genauer definieren ?

Um konkret zu werden, kann ich einen Regentropfen mit Hilfe eines flachen Geometriemodells beschreiben ?

Hi Harti,

im 2-Dimensionalen wäre eine Fläche flacher Geometrie vergleichbar mit einem — aufgerollten oder flach daliegenden — Stück Papier.

Aber auch die Oberfläche eines geraden Ofenrohrs hat flache Geometrie. Der Grund hierfür: Man kann das Rohr aufschneiden und seine Oberfläche dann zu einem flach daliegenden Blech machen. Gleiches gilt für eine Torusoberfläche.

Entscheidend ist nicht die Form, sondern wie groß im Raum (oder in einer krummen Fläche) die Summe aller Winkel eines Dreiecks ist.


Genauer:


Nur die Winkelsumme in Dreiecken bestimmt, wie ein Raum gekrümmt ist

Quelle: Prof. Ulrich Walter erklärt Raumkrümmung



Stringtheoretiker sprechen gerne von "aufgerollten Dimensionen". Lisa Randall sagt dazu:

Zitat von Lisa Randall:
The curled-up space is still mathematically flat ... because you can unroll the dimension to something you would recognize as flat; that is NOT true for a sphere, for example.

Die Oberfläche eines Regentropfens hat gekrümmte Geometrie (KEINE flache also).

Flache Geometrie ist euklische Geometrie.

Gruß, grtgrt
 

 Beitrag 0-365
Wie sich unser Weltbild entwickelt hat

 
 

 
Geschichte des heliozentrischen Weltbildes

 
 
Als erster vertreten hat es Aristarch von Samos (310-230 v. Chr.), ein griechischer Astronom und Mathematiker.
 
Er hatte aus der Messung des Entfernungsverhältnisses (Erde - Mond) zu (Erde - Sonne) die Einsicht gewonnen, dass die Sonne weit größer sein müsse als der Mond. Hieraus entwickelte er die Vorstellung, dass nicht die Erde, sondern die Sonne das Zentrum der Welt sein müsse.
 
Andere Mathematiker — so z.B. die Pythagoräer, Erastostenes von Kyrene oder Appolonius von Perge — kamen zur selben Ansicht. Sie führten sogar konkrete Rech­nungen durch, die später Ptolemäus (etwa 100 n.Chr.) aber nicht nur ignorierte, sondern sogar explizit abgelehnt hat.
 
 
Erst im Spätmittelalter waren die nicht mehr übersehbaren Unzulänglichkeiten der Positionsbestimmungen nach Ptolemäus Auslöser für ein neues Weltbild:
     
  • Alfons von Kastilien beauftragte 1250 ein ganzes Konsortium von Gelehrten mit einer Reform des Weltsystems. Sie sollten dessen » Schönheitsfehler « beseitigen und und genauere astronomische Tabellen erstellen. Zunächst war dieses Bemühen erfolglos.
     
  • Doch selbst als sehr viel später (1543) das berühmte Buch De revolutionibus orboim coelestium von Nikolaus Kopernikus erschienen war mit der Idee, die Sonne ins Zentrum der Welt zu stellen, war solch neues Denken noch keineswegs Bestandteil der Wissenschaft.
     
  • Erst 8 Jahre nachdem Kopernikus verstorben war, kamen neue Berechnungstafeln für die Position der Himmelskörper heraus: Reinholds prutenische Tafeln sollten die als zu ungenau erkannten Alfonsischen ablösen, erwiesen sich aber schon bald als als auch nicht viel besser. Heute kennt man den Grund dafür: Kopernikus ging — in Ermangelung besseren Wissens — von kreisförmigen Planetenbahnen aus, was zur Folge hatte, dass es wieder einer Reihe von Epizyklen bedurfte.

 
Interessant auch:
     
  • Selbst Martin Luther (1483 - 1546) hat das heliozentrische Weltbild noch abgelehnt. Er nahm eine Bibelstelle aus dem Alten Testament allzu wörtlich. Es dämmerte da ein ernster, selbst heute noch nicht voll ausgestandener Konflikt herauf: Der Widerspruch zwischen wörtlich ausgelegten Bibelstellen und wissen­schaftlicher Erkenntnis.


 

 Beitrag 0-379
Über die Geburtswehen der Neuzeit

 
 

 
Über die Geburtswehen der Neuzeit

 
 
Galileo Galilei (1564-1642) war der erste, der den von der katholischen Kirche tradierten Offenbarungsbegriff als zu eng erkannt hat und dem klar wurde, dass die Heilige Schrift kein Naturkundebuch sein möchte. Er schrieb:
    » Ich bin geneigt zu glauben, die Autorität der Hl. Schrift habe den Zweck, die Menschen von jenen Wahrheiten zu überzeugen, welche für ihr Seelenheil notwendig sind und ... durch keine Wissenschaft noch irgend ein anderes Mittel als eben durch Offenbarung des Hl. Geistes sich Glaubwürdigkeit verschaffen können.
     
    Dass aber derselbe Gott, der uns mit Sinnen, Verstand und Urteilsvermögen ausgestattet hat, uns deren Anwendung nicht erlauben ... will, das bin ich, scheint mir, nicht verpflichtet zu glauben. «

Bibel und Wissenschaft — auch das hat er betont — können sich nicht widersprechen, da es ja nur eine Wahrheit geben kann.
    » Weil zwei Wahrheiten sich offenbar niemals widersprechen können, ist es die Aufgabe der weisen Ausleger der Hl. Schrift, sich zu bemühen, den wahren Sinn der Aussprüche ... herauszufinden. «

Als gehorsamer Diener seiner Kirche bekannte sich Galilei zu einer Frömmigkeit auch jenseits aller Kirchlichkeit, die ihm sagte, dass die Natur als Schöpfung Gottes gleichfalls Offenbarung sei.
 
So wie es Aufgabe der Theologie sei, die in den Heiligen Schriften verborgene Wahrheit der Gottheit zu entziffern, zu lesen und zu verstehen, so fühlte er als Natur­forscher die Verpflichtung, im offenen Buch des Himmels lesen zu lernen, um so noch tiefer in die eine erhabene Wahrheit unseres Daseins einzudringen.
 
Das Schicksal seines Vorgängers Bruno Giordano — den man öffentlich verbrannt hatte — vor Augen, beschloss er, dem Druck der Inquisition nachgebend, zu widerrufen. Im anschließenden lebenslangen Hausarrest aber hat er heimlich für eine Verbreitung seiner wissenschaftlichen Erkenntnisse gesorgt.
 
Dass die katholische Kirche — damals vom norddeutschen Protestantismus schon fast 100 Jahre lang in die Enge getrieben — seinen vielversprechenden Weg doppelter Offenbarung nicht als Chance erkannt, sondern in hochmütiger Verblendung brutal niedergetreten hat, hat die Durchsetzung seiner Ideen nur verzögert.
 
Sie wurden weiter befördert durch Johannes Kepler (1571-1630), der im fernen Prag lehrte und als Protestant die Inquistion der katholischen Kirche nicht fürchten musste. So klar wie Galilei allerdings hat er die Gleichwertigkeit des Buches der Offenbarung und des Buches der Natur nicht betont.
 
 
Fatalerweise hatte die Kirche durch ihre krankhafte Angst vor einer von biblischen » Wahrheiten « zu sehr abweichenden naturwissenschaftlichen Forschung den Weg geebnet zu einem Weltverständnis, in dem Materie und Geist von nun als als strikt von einander getrennt gelten:

 
 
Rene Descartes (1596 - 1650) war zwar überzeugt von der Existenz eines Gottes und der Unsterblichkeit der menschlichen Seele, lehne jedoch Religion — gleich welcher Art — völlig ab. Mit seinen radikalen Lehren wagte er wichtige Werke nur noch anonym zu veröffentlichen. Er zog öfters um, hielt seine Adresse geheim und korrespondierte mit anderen Gelehrten nur auf dem Umweg über einen Freund, der als einziger seine Adresse kannte.
 
Bekannt sind Descartes Ausspruch » Cogito, ergo sum « — » Ich denke, also bin ich « und seine Überzeugung, dass der Mensch aus zwei Substanzen bestehe:
  • der res extensa, d,h. der Materie, die räumliche Ausdehnung hat,
  • sowie der res cogitans, dem denkenden Geist, zu dem auch die Seele gehört.
Nach seiner Überzeugung kann die Seele auf den Körper einwirken ebenso wie der Körper auf die Seele.
 
 
Das also waren die Konsequenzen von Denkverboten ...
 
... sehr zum Schaden auch der Kirche selbst, denn: Von nun an ging die Naturwissenschaft ihren völlig eigenen Weg, ohne die auf ihrem ewig gestrigen Weltbild sitzen gebliebenen und in ihrer gefährlichen Macht zunehmend geschwächten Religionshüter weiter zu beachten.
 
Leider hat sich dadurch die von Galileo propagierte eine Wahrheit, die ganzheitliche, aufgespalten in zwei von einander getrennte Wahrheiten: die der Naturwissenschaft und die der Geisteswissenschaft. An diesem fatalen Schisma leiden wir heute noch.
 
Erst die Quantenphysik scheint nun auf einen Mauerfall hin zu zielen und könnte langfristig zu einer » Wiedervereinigung « zwischen Leib und Seele, Materie und Geist führen, so dass dann endlich auch die Schranken fallen, die bisher verhindern, dass ihr — doch ganz ohne Zweifel gegebenes, für uns sehr wichtiges — Zusammenwirken vorurteilslos untersucht wird.

 
 
Was im Mittelalter die panische Angst der Kirche vor dem selbstständigen Denken einiger Wissenschaftler war,
 
ist heute die blinde Intoleranz von Leuten wie Richard Dawkins,
 
die jeden der Esoterik verdächtigen,
 
der es wagt, auch nur leise Zweifel anzumelden am heute vorherrschenden, rein materialistischen Weltbild.


 

 Beitrag 0-421
1944: Das erste Betriebssystem eines elektronischen Rechners bestand aus 6 Frauen, die man » Computer « nannte

 
 

 
Das Betriebssystem des ersten elektronischen Allzweckrechners

 
 
bestand aus 6 Frauen, die man » Computer « nannte. Sie waren die ersten Programmierer im heutigen Sinne und gleichzeitig auch Compiler bzw. Interpreter ihrer Programme.
 
Lies mehr dazu auf Seite » Als Computer noch weiblich waren: Die Pioniere des Programmierens waren sechs Frauen — als Bediener des ersten elektronischen Universalrechners der Welt. Sein Nutzer war (1945) das US-amerikanische Militär. «
 

 
 
 
Die ersten Programmierer waren Frauen, die man » Computer « nannte
 
 
Jean Jennings: Mathematiker, Programmierer und Bediener des ersten kommerziellen elektronischen Allzweckrechners (1945)
 

 
 
 
Diesen Computer — den Röhrenrechner ENIAC — zu programmieren, bedeutete, ständig seine Verkabelung abzuändern:
 
 
 
Den Röhrencomputer ENIAC zu programmieren, bedeutete, ihn fortlaufend neu zu verkabeln
 
Quelle: NZZ


 

 Beitrag 0-119
Überlichtgeschwindigkeit ist stets nur beobachtungstechnisch begründete Illusion

 
 

 
Gruppen- und Phasengeschwindigkeit sind niemals Signalgeschwindigkeit

 
 
Materielle Medien, die ein eintreffendes Signal in verschiedene Komponenten aufspalten, die sich dann mit unterschiedlicher Geschwindigkeit ausbreiten, sind in der Natur nichts Ungewöhnliches.
 
Wer etwa einen Stein in einen Teich wirft und anschließend die Wellen genau beobachtet, wird feststellen, dass die sich kreisförmig ausbreitenden Wasserringe von anderen, kleineren Wellen umgeben sind, die von außen zu kommen scheinen und bei der ruhigeren Oberfläche näher am Zentrum verklingen.
 
Beide Wellen bewegen sich mit unterschiedlicher Geschwindigkeit, was zu den Bezeichnungen Phasengeschwindigkeit und Gruppengeschwindigkeit geführt hat.
 
Arnold Sommerfeld konnte zeigen,
  • dass die optischen Analoga dieser beiden Geschwindigkeiten schneller als die Lichtgeschwindigkeit sein können,
  • dass aber keine von ihnen der tatsächlichen Ausbreitungsgeschwindigkeit des Signals entspricht.

Stets gilt: Überlichtgeschwindigkeiten sind beobachtungstechnisch begründete  I l l u s i o n e n  und haben nichts mit dem Transport von Energie oder Information zu tun.
 
 
 
Quelle: Hans Christian von Baeyer: Das informative Universum, C.H.Beck 2005, S. 155-156.

 

  Beitrag 2112-5
Wie die Natur Geschwindigkeiten begrenzt

 
 
Hans-m in 2112-4:
 
Dass die Lichgeschwindigkeit für massebehaftete Objekte unmöglich ist, das ist bekannt.
Aber sind überlichtschnelle Objekte wirklich unmöglich?

Nehmen wir einmal an, beim Urknall wären überlichtschnelle Objekte entstanden.
Diese könnten niemals langsamer oder gleichschnell werden als Licht, denn beim "abbremsen" müssten sie zwangsläufig für einen Sekundenbruchteil "c" haben, was bekanntlich unmöglich ist.


Nach allem, was die Physiker bisher an Wissen erarbeitet haben gilt:


Kein Objekt mit Ruhemasse kann sich   w e n i g s t e n s  so schnell wie das Licht durch den   R a u m  bewegen.



 Vorsicht aber: Wie Sabine Hossenfelder erklärt, ist die Sache etwas komplizierter:

Einstein’s theory of general relativity says you cannot accelerate objects from below to above the speed of light because that would take an infinite amount of energy. However, this restriction applies to objects in space-time, not to space-time itself. Space-time can bend, expand, or warp at any speed. Indeed, physicists think that the universe expanded faster than the speed of light in its very early phase. General Relativity does not forbid this. There are two points I want to highlight here: First, it is a really common misunderstanding, but Einstein’s theories of special and general relativity do NOT forbid faster-than-light motion. You can very well have objects in these theories that move faster than the speed of light. Neither does this faster-than light travel necessarily lead to causality paradoxes. I explained this in an earlier video. Instead, the problem is that, according to Einstein, you cannot accelerate from below to above the speed of light. So the problem is really crossing the speed of light barrier, not being above it.

 

  Beitrag 2103-10
Reale Geschwindigkeit im Unterschied zu beobachteter

 
 
Henry in 2103-9:
 
ES GIBT KEINE JETS, DIE SICH MIT ÜBERLICHTGESCHWINDIGKEIT BEWEGEN!


Ja, Henry, ganz so sehe ich das auch.

Wie Giulini aber schreibt — ich erinnere an seine beiden in 2103-1 genannten Beispiele — gibt es durchaus Situationen, in denen die SRT zeigt, dass ein Beobachter Überlicht­geschwindigkeit  w a h r n i m m t  (also beobachtet). Und genau das bestätigt mich ja in meiner Aussage, dass nach der SRT vom Beobachter wahrgenommene Geschwindigkeiten Scheingeschwindigkeiten sind.

Besonders deutlich kann man das sehen am Beispiel von Myonen (bitte lies, was uns Marcus Chown in einer Situation und Peter Schmüser in einer anderen erklären).



Gruß, grtgrt
 

  Beitrag 2103-8
-

 
 
Henry in 2103-7:
 
Sorry, jetzt nur kurz: ich meine natürlich die Signalgeschwindigkeit, die c nicht überschreiten kann, mein Fehler!

Welchen Satz genau aus deinem Beitrag 2103-5 soll diese Bemerkung korrigieren?


Henry in 2103-7:
 
Geschwindigkeiten werden nicht beobachtet, sondern gemessen. Und das muss man richtig machen.


Meiner Ansicht nach verhält es sich so: Die Astronomen machen durch Zahlen quantifizierbare Beobachtungen, die sie mit Hilfe gewisser Gesetze umrechnen in etwas, das sie dann » durch Astronomen beobachtete Geschwindigkeit « nennen.

Die sollte — von unvermeidbarer Messungenauigkeit mal abgesehen —übereinstimmen mit dem, was die ART unter der » durch den Beobachter wahrgenommenen « Geschwindigkeit versteht (wenn man annimmt, der Beobachter sitze dort, wo auch der Astronom saß, als er seine Beobachtung machte).

Was die SRT für die » durch den Beobachter wahrgenommene « Geschwindigkeit vorhersagt, wird i.A. sehr gute Approximation dessen sein, was die ART hierfür liefert.


Gruß, grtgrt
 

  Beitrag 2103-15
-

 
 
Henry in 2103-11:
 
Du schreibst aber in Bezug auf die Jets, dass sich ihre GESCHWINDIGKEIT für einen Beobachter hier anders darstellt als für einen Beobachter dort.

Es werden aber in der SRT nicht Geschwindigkeiten verglichen, sondern Zeiten und Längen. Um es noch einmal zu wiederholen: Die Überlichteschwindigkeiten, die für Jets hier "gemessen" werden, sind nicht wegen irgendeiner "Sicht" anders, sondern sie sind einfach Resultat falscher Berechnungen. Ich bin nicht fit in Mathe, kann das hier also nicht darlegen, im Prinzip geht es darum, dass die Laufzeit des LICHTES zu uns falsch angenommen wird.

Siehe einfach hier: Wikipedia


Hallo Henry,

auf jener Seite aus Wikipedia steht ganz klar:

Zitat:
Scheinbar überlichtschnelle Objekte in der Astronomie:

Jets, die etwa von Quasaren ausgesandt werden, scheinen sich aufgrund eines Beobachtungseffekts superluminar zu bewegen. Das geschieht allgemein genau dann, wenn sich ein Objekt einem Beobachter nähert und eine Geschwindigkeit von wenigstens 70,7 % der Lichtgeschwindigkeit besitzt. Beispielsweise bewegte sich ein zwischen 1977 und 1980 beobachteter Jet des Quasars 3C 273 mit scheinbar elffacher Lichtgeschwindigkeit.

Die Erklärung dieser scheinbaren Überlichtgeschwindigkeitsphänomene gab schon 1966 Martin Rees[2] und einige Jahre darauf (1970) wurde das Phänomen auch mit Radioteleskopen gefunden.


Deine Meinung, dass das, was hier als Beobachtungseffekt bezeichnet wird, falsche Rechnung sei, ist falsch.
Die in Wikipedia ausgeführte Rechnung — ebenso wie die gleiche, dort aber etwas anders formulierte, in Giulinis Buch — sind völlig richtige, absolut korrekte Anwendung der SRT. Auch mathematisch ist daran rein gar nichts auszusetzen.

Es ist einfach wirklich so, dass Anwendung der SRT (ebenso wie Beobachtung, d.h. direkte Messung durch den Beobachter) eine  s c h e i n b a r e  Geschwindigkeit liefern: Eine beobachterspezifische  S i c h t  auf die wirklich stattfindende Bewegung.

Je weiter diese wirklich stattfindende Bewegung 70,7 % der Lichtgeschwindigkeit übersteigt, desto höhere Überlichtgeschwindigkeit wird man beobachten — immer vorausgesetzt, dass der Winkel a zwischen der Strecke vom Beobachter zum beobachteten Objekt und der Richtung seiner Bewegung annähernd die Gleichung cos(a) = v/c erfüllt).

Inbesondere gilt:

Die Geschwindigkeit, mit der sich ein Objekt A relativ zu einem Beobachter B bewegt, wird sicher dann niemals größer als c sein,
wenn A sich entlang der Geodäte bewegt, die A mit B verbindet — auf dem Weg also, den Signale nehmen, die zwischen ihnen fließen.


Mit besten Grüßen,
grtgrt

PS: Interessant an der ganzen Situation scheint mir, dass es eigentlich NUR Scheingeschwindigkeiten in diesem Sinne gibt (meine Bemerkung über sog. "reale" Geschwin­digkeit war Unsinn — es gibt sie einfach nicht, da jeder seine eigene Geschwindigkeit ja nur relativ zu Objekten sieht, die er als ruhend  e i n s t u f t  ).
 

  Beitrag 2103-17
-

 
 
Henry in 2103-16:
 
Die Behaupteng, die SRT würde sich mit scheinbaren Beobachtungen befassen ...


Hi Henry,

wie man sieht, missinterpretierst Du mich, denn:

Ich habe nirgendwo von "scheinbaren Beobachtungen" gesprochen, sondern stets nur davon, dass  w i r k l i c h e  Beobachtung ein Scheinergebnis zeitigt.

Und dass dem tatsächlich so ist, folgt ja allein schon aus der Tatsache, dass verschiedene Beobachter — falls sie relativ zu einander bewegt sind — bei Beobachtung der Bewegung ein und desselben Objekts zu unterschiedlichen (Beobachtungs-) Ergebnissen kommen.

Und die SRT sagt diese Unterschiedlichkeit in den Beobachtungsergebnissen ja sogar voraus.

Der Fall ist vergleichbar mit verschiedenen Personen, die — aus jeweils verschiedener Perspektive — ein und dasselbe Ereignis beobachten: Selbst Photos, die sie machen, werden auf keinen Fall exakt dasselbe Bild ergeben!


Ich erinnere nochmals an das, was Giulini schreibt:

Zitat von Giulini:
    Heute kennt man in der Astronomie zahlreiche Beispiel für diesen Effekt.
    Ein besonders eindrucksvolles liefert die Galaxie M87, die sich in einer Entfernung von 60 Mio Lichtjahren von uns im Virgohaufen befindet. Aus ihrem Zentrum werden Gasströme entlang sog. Jets auf einer Länge von 5000 Lichtjahren ins All geschleudert, deren gemessene visuelle Geschwindigkeit v(B) die 6-fache Lichtgeschwindigkeit erreichen!.
    Getrieben werden diese Jets wahrscheinlich durch ein im Zentrum der Galaxie vorhandenes supermassives Schwarzes Loch. Man schätzt die eigentliche Geschwindigkeit v der Gasströmung [ die also, die sie als Signal hat ] auf höchstens 98% der Lichtgeschwindigkeit.

    Wenn man die eigentliche Geschwindigkeit der Gasströmung auf höchstens 98% der Lichtgeschwindigkeit schätzt, aber dennoch 6-fache Lichtgeschwindigkeit beobachtet, dann muss das Beobachtungsergebnis doch wohl ein Scheinergebnis sein.


    Gruß, grtgrt

    Nebenbei: Die Geschwindigkeit, die ein Objekt als Signal hat, könnte man sinnvoller Weise seine  r e a l e  Geschwindigkeit nennen. Das sich das so nicht ein­gebürgert hat, ist eine ganz andere Sache. Diese Geschwindigkeit jedenfalls kann nie größer als die des Lichts werden (und ist, wenn beobachtet, als einzige in keiner Weise verfälscht).

     

      Beitrag 2103-19
    -

     
     
    Henry in 2103-18:
     
    Ja, Mann Gottes, es ist ein SCHEINERGEBNIS und hat nichts, aber auch gar nichts mit Aussagen der SRT zu tun!


    Dass solche SCHEINERGEBNISSE eben doch auch Aussage der SRT sind, rechnet Giulini uns vor (siehe Beispiel 1 aus Beitrag 2103-1).


     

      Beitrag 2103-3
    Beispiel einer Pseudobewegung (einer nur  v i r t u e l l e n  Bewegung)

     
     
    Harti in 2103-2:
     
    Auch ich kann mir Überlichtgeschwindigkeiten vorstellen, der keine "echte" Bewegung zugrunde liegt.
    Beispiel: Der Lichtkegel einer sich um die eigene Achse drehenden Lichtquelle erscheint auf einem hinreichend großen Radius als überlichtschnell bewegt.


    Hallo Harti,

    dieses Beispiel ist interessant, da es zeigt, dass nicht alles, was wir als Geschwindigkeit bezeichnen, denn auch wirklich Geschwindigkeit ist.

    Es ist ja nicht so, dass sich auf dem Kreis um die Lichtquelle, auf der der Beobachter sitzt, irgend etwas bewegen würde. Was sich in den Punkten dieser Kreislinie in schneller Folge ändert, ist lediglich ihr Zustand "beleuchtet" bzw. "nicht beleuchtet" — ein Zustand also.

    Ein noch interessanterer Aspekt deines Beispiels ist, dass — falls der Beobachter weiß, wie weit die Lichtquelle von ihm entfernt ist — das schnelle Wandern der Schatten­grenze auf der Kreislinie Information trägt: Die Information nämlich, wie schnell sich die Lichtquelle um ihre eigene Achse dreht. Der Weg aber, auf dem diese Information ihn erreicht, ist KEIN Teil der Kreislinie, sondern Teil der Geodäte, auf der Lichtquelle und Beobachter sich befinden. Nach meiner Definition aus Beitrag 2103-1 ist die sich ständig umdefinierende Grenze zwischen Licht und Schatten also KEIN Signal — und so darf es auch nicht erstaunen, dass sie mit unbegrenzt hoher Geschwindigkeit die Kreislinie entlang wandern kann.

    Wer die Kreislinie ebenso wie die Geodäte mit Straßen vergleicht, über die Fahrzeuge kommen um die Kreuzung "Beobachter" zu überqueren, wird feststellen, dass sich ständig irgendein Fahrzeug auf der Kreuzung befindet, aber doch nur eine einzige dieser zwei Straßen befahren ist: die Geodäte. Nichts bewegt sich auf der anderen Straße (obgleich all deren Punklte wieder solch stark frequentierte Kreuzungen sind).

    Damit ist bewiesen: Die Grenze zwischen Licht und Schatten, die sich auf der Kreislinie zu bewegen scheint, ist kein physisches Objekt, sondern nur ein rein virtuelles im Sinn der Definition aus Beitrag 2102-26:


    Zitat:
     
    Virtualität ist die Eigenschaft einer Sache, nicht in der Form zu existieren, in der sie zu existieren scheint, aber in ihrem Wesen oder ihrer Wirkung einer in dieser Form existierenden Sache zu gleichen. Das Wort führt über den französischen Begriff virtuel (fähig zu wirken, möglich).

    Virtualität spezifiziert also eine gedachte oder über ihre Eigenschaften konkretisierte Entität, die zwar nicht physisch, aber doch in ihrer Funktionalität oder Wirkung vorhanden ist.

    Somit ist "virtuell" nicht das Gegenteil von "real" – obwohl es fälschlicherweise oft so verwendet wird – sondern von "physisch".

     


    Gruß, grtgrt
     

      Beitrag 2103-4
    Zwei weitere Beispiele für Überlichtgeschwindigkeit

     
     

    Nun noch zwei Beispiele für   Überlichtgeschwindigkeit  ,

    bei denen — mir wenigstens — nicht mehr wirklich klar ist, ob man es mit realer oder nur virtueller Bewegung zu tun hat:



    Zitat von Giolini (nicht ganz wörtlich):
     
    Wenn man versucht, den Begriff der Geschwindigkeit auch einer Welle zuzuordnen, so gibt es dazu mehrere Möglichkeiten:

    Mathematisch wird eine Welle beschrieben als Überlagerung unendlich ausgedehnter rein harmonischer Wollen von jeweils fester Frequenz und Wellenlänge. Die Phasen dieser Partialwellen breiten sich jeweils mit der sog. » Phasengeschwindigkeit « aus. Sie beträgt c/n, wo n der Brechungsindex des Mediums ist, in dem die Ausbreitung stattfindet.

    Nun hängt n aber i.A. von der Frequenz der Partialwelle ab, so dass folglich die Partialwellen auch unterschiedliche Phasengeschwindigkeit haben können.
    Dieses Phänomen bezeichnet man als Dispersion. Genauer: Man spricht von normaler/anormaler Dispersion, wenn n mit der Frequenz steigt/fällt (die Phasen­geschwindigkeit also fällt/steigt).


    Mit den Phasen einer harmonischen, unendlich weit ausgedehnten Welle kann man aber keine Signale übertragen, also darf auch die Phasengeschwindigkeit größer als c werden, was in Frequenzbereichen, in denen anormale Dispersion vorliegt, oft passiert, da dort n < 1 werden kann.

    Aus harmonischen Partialwellen kann man durch Überlagerung lokalisierte Modulation oder Wellengruppen bilden, deren Schwerpunkte sich mit der sog.
    » Gruppengeschwindigkeit « ausbreiten. Sie kann in nur eingeschränktem Maße zur Signalübermittlung verwendet werden, denn:
      Die Dispersion führt u.U. zum Zerfließen solcher Wellenpakete, so dass Signalübermittling nur so lange funktionieren kann, wie das Zerfließen nicht zu sofortiger Zerstörung der das Signal darstellenden Wellengruppe führt. Genauer:
      Der mathematische Ausdruck für die Gruppengeschwindigkeit existiert zwar, doch kommt ihm in Regionen eines zu schnellen Zerfließens physikalisch nicht mehr die Bedeutung einer Signalübermittlung zu. Er kann dort größer als c werden, so dass Messungen von Gruppengeschwindigkeiten oberhalb der Licht­geschwindigkeit immer wieder zur physikalisch nicht korrekten Behauptung führen, es seien Signale — ja sogar ganze Mozart-Symphonien — mit Überlicht­geschwindigkeit übertragen worden (siehe etwa [ G. Nimtz: ein Tunneleffekt? ]).

    Uneingeschränkt zur Signalübertragung geeignet ist jeder Einschaltvorgang. Er breitet sich mit der sog. » Frontgeschwindigkeit « aus. Das ist die Geschwindigkeit, mit der sich der Wellenkopf bewegt, jene Stelle also, an der die Welle von einer schon einige Zeit andauernden Nullamplitude zu einer von Null verschiedenen Ampli­tude abhebt. Man denke etwa an das Morsen, wo Strich und Punkt mehr oder weniger lange Signale sind, die durch Pausen absoluter Ruhe getrennt sind.

    Es gibt dann noch die » Energiegeschwindigkeit «, mit der sich Energie in einer Welle ausbreiten kann. Sie muss mit keiner der oben genannten Geschwindigkeiten übereinstimmen und kann niemals größer als c sein.


    FAZIT:
    • Phasen- und Gruppengeschwindigkeiten größer c widersprechen der SRT nicht.
    • Anders liegt die Sache bei Signal- und Energiegeschwindigkeiten: Sie würden, wenn sie größer als c sein könnten, die SRT in ernsthafte Schwierigkeiten bringen.


    Quelle: Domenico Giolini: Spezielle Relativitätstheorie, 2004, Seite 109-111

     

      Beitrag 2102-88
    Nochmals zusammengefasst und auf den Punkt gebracht

     
     
    Harti in 2102-87:
    C... in 2102-86:
     
    Bei einer theoretischen Annäherung mit Lichtgeschwindigkeit an ein Objekt geht dagegen die Uhr des Objekts gegenüber dem Beobachter aufgrund des Dopplereffekts unendlich schnell. Das letzte, um 12:05:15 von der unbewegten Uhr abgesandte Signal (wie auch jegliche eventuelle Folgesignale) erreichen den sich annähernden Beobachter daher instantan nach dessen Start.

    Hallo C...,

    Unendlichkeiten sind in der Physik und damit in der Wirklichkeit eigentlich nicht gern gesehen. ...
     


    Hallo Harti,

    Unendlich hohe Geschwindigkeiten sind nicht nur ungern gesehen — es gibt sie gar nicht. Was C... hier sagen wollte (aber in mathematischer Hinsicht etwas zu ungenau ausgedrückt hat), war:

    Wenn sich ein Objekt X einem Beobachter B mit zunehmend hoher Geschwindigkeit v nähert, wird B die Uhr von X zunehmend schneller als seine eigene gehen sehen und letzlich sogar  b e l i e b i g  schnell (aber niemals unendlich schnell). Mit anderen Worten:

    Wenn v gegen c konvergiert, konvergiert der zeitliche Abstand der Ticks der Uhr von X aus Sicht von B gegen Null — wird aber dennoch niemals exakt Null sein.



    Harti in 2102-87:
     
    Ich weiß wohl, dass die Betrachtung nur "theoretisch" erfolgt und deshalb nach SRT massebehaftete Objekte die Lichtgeschwindigkeit nicht erreichen können.

    Immerhin könnten sie aber bei genügend Energieaufwendung eine Geschwindigkeit von über 300 000 km/h erreichen. Zumindest schließt die SRT, wenn ich Eugen Bauhof richtig verstehe, dies nicht aus. Dann bleibt wohl nichts anderes übrig, als einfach zu postulieren, dass die Geschwindigkeit von 300 000 km/sec für massebehaftete Objekte eine Höchstgeschwindigkeit ist, die nicht überschritten werden kann.


    Nur die Aussage im ersten Satz dessen, was Du hier sagst, ist richtig. Der Rest ist falsch, denn:


    Die SRT — und auch die Wirklichkeit — schließt zwar nicht aus,
    dass einem Beobachter B, wenn er ein Objekt X beobachtet, dessen Geschwindigkeit als Überlichtgeschwindigkeit  e r s c h e i n t .

    Das bedeutet aber nicht, dass sich jenes Objekt auch wirklich mit Überlichtgeschwindigkeit bewegt.


    Siehe hierzu Giulinis Beispiele skizziert in Beitrag 2103-1 oder besser noch meine Zusammenfassung all dessen, was ich aus Giulinis Buch und Wikipedias Rechnung gelernt habe.


    Man kann sich das Ganze vielleicht am besten so merken:


    Von Raumexpansion mal abgesehen, kann sich nichts schneller als das Licht von einander weg oder auf einander zu bewegen.

    Dennoch gibt es   s c h e i n b a r e   Überlichtgeschwindigkeit — und die sogar nach der SRT.



    Gruß, grtgrt
     

      Beitrag 2102-90
    Ein absolut flaches, unendlich großes Universum ist höchst unwahrscheinlich

     
     
    Harti in 2102-89:
     
    Es gibt zahlreiche mathematische Vorstellungen über die Realität, die ich ... für unwissenschaftlich halte. Beispiel: Die Annahme eines euklidisch flachen Universums. Dies ist eine verdeckte Unendlichkeitsvorstellung; denn wo soll der Rand dieses Universums sein? Wir können es aus den genannten Gründen aber auch nicht ausschließen, so dass es eine Glaubenssache ist.


    Hallo Harti,

    meiner Auffassung nach kann ein überall absolut flaches, unendlich großes Universum genau so wenig existieren wie Werte einer Funktion an den Stellen, an denen sie singulär wird — sie hat dort einfach keinen Wert (!).

    Mit anderen Worten: Wohldefinierte, unendlich große euklidische Räume gibt es zwar als mathematische, aber — wie ich vermute — nicht als physikalische Objekte.


    Harti in 2102-89:
     
    Es ist nicht die scheinbare Überlichtgeschwindigkeit, sondern die tatsächlich/reale Überlichtgeschwindigkeit, um die es hier geht.

    Ich will die Frage mal etwas anders formulieren: Wenn für massebehaftete Objekte Geschwindigkeiten unterhalb einer unendlich hohen Lichtgeschwindigkeit möglich sind, warum ist dann keine Geschwindigkeit von z.B. 400 000 km/sec möglich?


    Im ersten Satz dieser Aussage denkst Du wohl an Geschwindigkeiten im Sinne deines Beispiels aus Beitrag 2103-2. So was aber ist — wie ich versucht habe, dir in 2103-3 klarzumachen — nur eine Pseudogeschwindigkeit: Es bewegt sich da ja nicht wirklich was.


    Auf deine Frage, auch in ihrer Neuformulierung, kann man nur antworten:

    Es gibt keine unendlich hohe Geschwindigkeit — und insbesondere keine unendlich hohe Lichtgeschwindigkeit. Unendlich hohe Geschwindigkeit gibt es noch nicht mal in mathematischem Sinne. Deine Frage ( letzter Satz im Zitat ) macht deswegen keinerlei Sinn.


    Gruß, grtgrt
     

      Beitrag 2103-1
    Überlichtgeschwindigkeit — eine Klarstellung und 2 Beispiele

     
     


    Überlichtgeschwindigkeit – es gibt sie auch in SRT und ART



    Ein weit verbreiteter Irrtum besteht darin, zu glauben, dass es keine Geschwindigkeiten höher als die des Lichts gibt.

    Tatsächlich gibt es beliebig hohe Geschwindigkeiten auch im Rahmen der beiden Relativitätstheorien. Beide — die SRT und auch die ART — beweisen lediglich, dass kein Signal sich schneller als das Licht bewegen kann.



    Signal in diesem Sinne ist alles,
    das sich auf der Geodäte der Raumzeit bewegt, die den Beobachter mit dem beobachteten Objekt verbindet


    ( in der SRT also auf einer Geraden, die durch den Beobachter führt ).



    Eine gut verständliche Begründung — und auch zwei Beispiele — finden sich auf den Seiten 106 bis 111 des Buches Spezielle Relativitätstheorie des Physikers Domenico Giulini (erschienen 2004 im Fischer Taschenbuch Verlag):

    Zitat von Giulini:
     
    Wird die Frage » Gibt es Überlichtgeschwindigkeiten? « in dieser Allgemeinheit gestellt, so muss sie mit einem klaren JA beantwortet werden:

    Nur bestimmten Ausbreitungsphänomenen setzt die SRT den Wert c als Grenze. Dies betrifft ... allgemein alle Prozesse, die zumindest im Prinzip einer Signalübertragung dienen können, wobei man hier allerdings eine sorgfältige Definition von » Signal « anfügen müsste. Auf jeden Fall würde eine Signalausbreitung mit Überlichtgeschwindigkeit innerhalb der SRT zu Widersprüchen in Kausalitätsverhältnissen führen.
     


    Hier nun die beiden Beispiele für tatsächlich  b e o b a c h t b a r e  Überlichtgeschwindigkeit, die Giulini im Detail diskutiert:

    Vorsicht aber:  B e o b a c h t e t e  Geschwindigkeiten sind Scheingeschwindigkeiten, die für zueinander bewegte Beobchter  u n t e r s c h i e d l i c h  hohen Wert haben (als mit Sicherheit keine reale Geschwindigkeit darstellen).


    Beispiel 1 (nachgerechnet auf Basis der SRT):
      Giulini betrachtet einen Beobachter B, der im Ursprung eines Inertialsystems sitzt und ein Objekt X beobachtet, das sich auf einer Geraden mit gleichförmiger Geschwindigkeit bewegt. Diese Gerade führe nicht durch den Beobachter, wohl aber durch einen Punkt P. Bezeichnet nun a den spitzen Winkel zwischen dieser Geraden und der Strecke von B nach P, so kommt Giulini über einige wenige Rechenschritte hin zur Aussage, dass für die durch B beobachtete Geschwindigkeit v(B) des Objekts X
      v(B) = c • s(a,v)
      gilt, wenn man
      s(a,v)   =   ( sin(a) v/c ) / ( 1 – cos(a) v/c )
       
      setzt und hierbei unter v die Geschwindigkeit versteht, mit der sich X als Signal seiner Bahn entlang durch den 3-dimensionalen Raum bewegt.
      Für ein festes Verhältnis v/c und variablen Winkel a erreicht die Funktion s(a,v) ihr Maximum bei cos(a) = v/c . Dort ist dann also
       
      v(B)   =   c • sin(v/c) / ( 1 – (v/c)2 )   ,
       
      was für v gegen c nach unendlich strebt, so dass also tatsächlich v(B) auch weit größer als c werden kann.


    Beispiel 2 (auf Basis ART, da durch astronomische Beobachtung entdeckt):

     
    Zitat von Giulini:
      Heute kennt man in der Astronomie zahlreiche Beispiel für diesen Effekt [ beobachteter Überlichtgeschwindigkeit ].
      Ein besonders eindrucksvolles liefert die Galaxie M87, die sich in einer Entfernung von 60 Mio Lichtjahren von uns im Virgohaufen befindet. Aus ihrem Zentrum werden Gasströme entlang sog. Jets auf einer Länge von 5000 Lichtjahren ins All geschleudert, deren gemessene visuelle Geschwindigkeit v(B) die 6-fache Lichtgeschwindigkeit erreichen!.
      Getrieben werden diese Jets wahrscheinlich durch ein im Zentrum der Galaxie vorhandenes supermassives Schwarzes Loch. Man schätzt die eigentliche Geschwindigkeit v der Gasströmung [ die also, die sie als Signal hat ] auf höchstens 98% der Lichtgeschwindigkeit.


    PS 1: Diese Beispiele zeigen einmal mehr, dass — worauf ich hier im Forum schon mehrmals zu sprechen kam — durch Beobachter gemessene Geschwindigkeiten stets nur  S i c h t  auf eine Signalgeschwindigkeit sein können (niemals aber wirklich reale Geschwindigkeiten sind). Mit anderen Worten:

    Es gilt zu unterscheiden zwischen
    • scheinbarer ( d.h. beobachteter ) Geschwindigkeit einerseits und
    • Signalgeschwindigkeit andererseits (nur sie kann niemals höher als Lichtgeschwindigkeit sein; ihre Richtung ist stets tangential zu einer Geodäte).

    Erst wer das verstanden hat, kann verstanden haben, wie die SRT denn nun wirklich argumentiert und was ihre Aussagen tatsächlich bedeuten.


    PS 2: Man sollte sich zudem klar machen, dass die Raumzeit — ausgestattet mit der Minkowski-Metrik — nur eine einzige  r e a l e  Geschwindigkeit kennt: die des Lichts.
    Denn alles, was man sonst noch so an Geschwindigkeiten kennt, sind einfach nur beobachter-spezifische  S i c h t e n , die sich ergeben
    • entweder als Projektion von Signalgeschwindigkeit in der Raumzeit auf den 3-dimensionalen Raum
    • und/oder als Schrumpfen oder Wachsen von Abständen (pro Zeiteinheit) zweier vom Beobachter ins Auge gefasster Objekte aus der spezifischen Perspektive des Beobachters und seiner Uhr heraus.

     

     Beitrag 0-418
    Zum Problem der Integration muslimischer Zuwanderer

     
     

     
    Muslims im Herzen Europas: Wie integriert man sie?

     
     
    Starke Zuwanderung aus islamisch geprägten Regionen des nahen Ostens, verursacht in Europa Probleme, die schwer zu lösen sind.
     
    Welcher Art sie sind, wird recht deutlich anhand der Probleme, die Grund- und Hauptschullehrer derzeit in Wien, Berlin, aber auch in einigen Städten des Ruhrgebiets derzeit vor nahezu unlösbare Probleme stellen. Siehe z.B.
     
    Wenn ich mir das so anhöre, komme ich zum Schluss, dass die einzige Lösung des Problems darin bestehen könnte, den Religionsunterricht ganz aus dem Kanon der schulpflichtigen Fächer herauszunehmen.
     
    Gründe, die ich hierfür sehe, sind die folgenden:
       
    • Wenn Christen — Katholiken und Protestanten — darauf bestehen, dass ihre Weltanschauung zu lehren Teil des Pflichtunterrichts sein müsse, kann man gut verstehen, dass Muslims sich ungerecht behandelt fühlen, wenn man ihnen gleiches Recht nicht zugesteht.
       
    • Wenn nun aber klar wird, dass muslimischer Religionsunterricht dazu missbraucht wird, Schüler und Schülerinnen unter die Scharia zu zwingen, ihnen aber auf jeden Fall eine Weltanschauung einzuimpfen, die mit der der neuen Gesellschaft, in der sie jetzt leben und in die sie sich integrieren sollen, nicht verträglich ist, so ist das ganz sicher auch nicht akzeptabel — schon alleine deswegen nicht, weil man muslimische Zuwanderer, die diesem Zwang nicht unterliegen wollen, vor ihm schützen muss:
       
      In einem der Videos kommt ein muslimischer Zuwanderer zu Wort, der nicht erkannt sein möchte aus der Furcht heraus, dass seine Tochter Repressalien seitens seiner Glaubensbrüder zu befürchten habe, wenn bekannt wird, dass er sagt: Ich will nicht, dass meine Tochter Arabisch lernen muss: Sie soll hier in Österreich Deutsch lernen und soll nicht gezwungen sein, den islamischen Religionsunterricht zu besuchen.
       
       
       
      Interessant hierzu: Kulturkampf im Klassenzimmer: Wie der Islam die Schulen verändert — Bericht einer Lehrerin (Wien, 2018)

       

     Beitrag 0-430
    Ethische Grundsätze im Wandel der Zeit

     
     

     
    Ethische Grundsätze im Wandel der Zeiten

     
     
    Max Tegmark macht sich in seinem Buch Leben 3.0 — Mensch sein im Zeitalter Künstlicher Intelligenz (2017) Gedanken darüber, dass die Geschichte ethische Grundsätze zwei ganz unterschiedlicher Kategorien kennt:


    Tegmark schrieb:
     
    Noch Kant behauptete, er könne aus sog. "ersten Prinzipien" Schlüsse ziehen, mit denen man heute eher nicht einverstanden ist — dass nämlich
       
    • Masturbation schlimmer sei als Selbstmord,
       
    • Homosexualität verabscheuenswürdig,
       
    • das Töten unehelicher Kinder in Ordnung gehe
       
    • und dass Ehefrauen, Bedienstete und Kinder, ähnlich wie Objekte, Eigentum seien.

     
    Wenn wir in die Zukunft schauen, in der das Leben potentiell im ganzen Kosmos und über Jahrmilliarden hinweg gedeihen könnte — vielleicht auch künstlich erzeugtes Leben (sich ihrer selbst bewusste KI etwa) — dann stellt sich die Frage, auf welches Minimum ethischer Prinzipien man sich dazu einigen könnte.
     
    An diesem Gespräch sollten wir uns alle beteiligen.
     
    Ich fand es faszinierend, die ethischen Ansichten vieler Denker über viele Jahre hinweg hörend und lesend zu verfolgen, und so, wie ich es sehe, lassen sich die Punkte, denen sie [ heute ] den Vorzug geben, in 4 Prinzipien zusammenfassen:
       
    • Utilitarismus: Positive, bewusste Erfahrungen — für Menschen, Tiere und künstliche Intelligenzen — sollten maximiert, Leid aber minimiert werden.
       
    • Vielfalt: Eine abwechslungsreiche Vielfalt positiver Erfahrungen ist besser als viele Wiederholungen genau gleicher Erfahrungen, selbst wenn letztere sich als diejenigen erwiesen haben, die positiver nicht sein könnten.
       
    • Autonomie: Bewusste Wesen und Gesellschaften sollten die Freiheit haben, ihre eigenen Ziele zu verfolgen, sofern diese nicht mit einem übergeordneten Prinzip in Konflikt geraten.
       
    • Vermächtnis: Vereinbarkeit mit Szenarien, die die meisten Menschen heute als glücklich erachten würden, und Unverträglichkeit mit Szenarien, die so gut wie alle Menschen heute als furchtbar einstufen würden.

     
    Was das Gute betrifft, so trifft man in den meisten Kulturen auf die sog. goldene Regel » Man sollte andere behandeln, wie man selbst wünscht, von anderen behandelt zu werden «.
     
    Eine andere Regel, die in zahlreichen Jahrhunderten hoch gehalten wurde, war die Betonung auf das Schöne, Gute und Wahre, auf die man bei Bhagavad Gita ebenso wie bei Platon und Sokrates trifft, aber auch im Motto heute noch renommierter Institute: Das Institute for Advanced Study in Princeton etwa hat zum Motto Wahrheit und Schönheit, während die Harvard University immerhin noch auf Veritas (= Wahrheit) setzt.
     


     
    Das Prinzip Don't be evil wird wenigstens noch in Google's corporate code of conduct explizit erwähnt, auch wenn andere Unternehmen — Großbanken etwa — weit davon entfernt scheinen, sich solches Ziel zu setzen.

     

     Beitrag 0-517
    Wo fanatischer Islam zur Gefahr für die Gesellschaft wird

     
     

     
    Zum Islam:

    Nachrichten, Erkenntnisse, Fakten

     
     
    Ist das das wahre Gesicht des Islams?
     
    VORSICHT: PINews scheint eine der AfD nahestehende Publikation zu sein.

     

     Beitrag 0-505
    Wenn Kinder Smartphones zu früh und zu intensiv nutzen

     
     

     
    Wenn Kinder Smartphones zu früh und zu intensiv nutzen

     
     
    Man lese, was Neurologen feststellen:
     
     
    Online-Spiele-Sucht:
     
    2020 liegt der tägliche Medienkonsum bei sechs Stunden

     
    Stand Mitte 2020: » Der Medienkonsum nimmt bei Kindern und Jugendlichen von Jahr zu Jahr zu. Schon vor der Corona-Krise waren die 14- bis 19-Jährigen nach aktuellen Untersuchungen fast sechs Stunden täglich online.
     
    Bei Jugendlichen, die Symptome einer Mediensucht zeigen, ist die Nutzungszeit noch erheblich höher. Und während der Corona-Pandemie ist der Konsum weiter gestiegen. Etwa 700.000 Kinder und Jugendliche nutzen Computerspiele riskant oder pathologisch. In der Zeit des Corona-Lockdowns war bei den 10- bis 17-Jährigen wochentags eine Steigerung der Gamingzeiten um 75 Prozent zu verzeichnen. «
     
    Zu diesem Ergebnis kommt eine Untersuchung der Krankenkasse DAK zusammen mit Suchtexperten des Universitätsklinikums Hamburg-Eppendorf (UKE).

     
    Wer jetzt denkt, all das sei nur der Corona-Krise wegen so, der unterschätzt den Ernst der Entwicklung, denn:
       
    • Experten haben schon auf Basis einer Erhebung im September 2019 die Gaming-Gewohnheiten von einer halben Million Jugendlicher als » riskant « eingestuft.
       
    • Die Zahlen für den Konsum sozialer Medien lagen nur leicht darunter.
       
    • Bei rund 3 Prozent der 10- bis 17-Jährigen (rund 150 000 Schülern) stieß man auf "pathologische Nutzung".


     

     Beitrag 0-357
    Data Mining — der Menschen erster Schritt ins Zeitalter Künstlicher Intelligenz (KI)

     
     

     
    Data Mining Algorithms: Ihr Wert und Siegeszug

     
     
    Wer heute über KI — sog. künstliche Intelligenz — spricht, meint damit immer häufiger einfach nur die sich besonders schnell etablierenden Data Mining Software.
     
    Insbesondere Amazon hat schon sehr früh erkannt, welch enorm großen Wert Wissen darstellt, welches sich nahezu mühelos nicht nur von Endkunden, sondern auch von Geschäftspartnern abgreifen lässt. Nicht zuletzt deswegen, so wird berichtet, zwinge Amazon alle Händler, welche die die Implemntierung ihres Online Shops Amazon überlassen, zur Offenlegung sämtlicher von ihnen an Warenlieferanten bezahlten Rechnungen — eben mit dem Hintergedanken, schnell zu lernen, welche Marksegmente Amazon besser selbst direkt bedienen sollte und welche Lieferanten dabei am nützlichsten sein könnten.
     
    Kurz:
     
     
    Möglichst umfassender Einsatz von Data Mining Software
     
    — kombiniert mit dem Sammeln aller nur denkbaren Information über Mitarbeiter, Geschäftspartner und mögliche Kunden —
     
    macht Optimierungspotential sichtbar,
     
    von dem Unternehmen noch bis kurz vor der Jahrtausendwende nicht zu träumen wagten.

     
     
    Das Information reines Gold darstellen kann, wurde erst klar, nachdem Firmen wie Google, Facebook und Amazon uns vorexerziert hatten, wie man Daten nutzt (sie in wirklich großem Stil zu sammeln ist eine noch andere Kunst).
     
     
    Nicht wirklich demokratisch regierte Staaten — Russland etwa, aber noch in weit größerem Maße China — haben das längst auch erkannt. Sie investieren in diese Technolgie bewusst und sehr zielgerichtet wahrscheinlich mindestens so große Summen wie Google, Facebook und Amazon zusammen.
     
    Schon in naher Zukunft wird jedem offensichtlich werden:
     
     
     
    Macht über andere
     
    — in wirtschaftlicher wie politischer Hinsicht —
     
    werden in ganz ungeahntem Ausmaß die haben, welche über die umfangreichsten Datensammlungen verfügen.

     
     
     
    Heute (2018) ist die Zeit gekommen, in der große — vereinzelt aber auch schon mittelständische Unternehmen — mehr und mehr den Wunsch haben — ja die Notwendigkeit sehen — im Kleinen nachzuahmen, was die großen Datensammler dieser Welt uns in schier unglaublicher Dimensionen schon einige Zeit vormachen.
     
    Hierzu benötigen sie Unternehmensberater mit ganz neuen Fähigkeiten. Es muss jetzt nämlich zunehmend dringender die Frage beantwortet werden: Wie kann auch unser Unternehmen lernen, mit Information so umzugehen, wie z.B. Amazon das jetzt schon kann?
     
     
      Bericht der FAZ vom 24./25.2.2018, Seite C1:
       
      Während früher die Hälfte aller McKinsey-Berater Wirtschaftswissenschaftler waren, wächst nun der Anteil der Datenanalytiker und Programmierer (so sagt einer von ihnen, der selbst Mathematiker ist).
       
      Der Deutschlandchef der Boston Consulting Group, Karsten Kratz, ergänzt, dass sein Haus heute keine Beraterteams mehr zu Kunden schicke, die nicht auch Datenspezialisten umfassen.
       
      Und so manch älterer Unternehmensberater beginnt zu fürchten, dass KI früher oder später auch ihn selbst — als Berater — ersetzen könnte.
       
      Und tatsächlich: Eine Studie der Beratungsgesellschaft PWC kommt zur Meinung, dass bereits heute etwa 20% der typischen Wertschöpfung der Unternehmensberater durch KI generierbar seien. Dieses Berufsbild also wird sich deutlich wandeln müssen.
       
      Viel schlimmer noch sieht es für andere Berufe aus: Carl Bendedikt Frey und Michael Osborne (Forscher an der Oxford University) kamen schon 2013 zum Schluß, dass fast die Hälfte aller Amerikaner in Berufen arbeite, von denen abzusehen sei, dass sie im Zuge der Digitalisierung bis etwa 2030 nahezu komplett ver­schwunden sein werden.
       
      Wie sich die entsprechende Situation in Deutschland darstellt, zeigt ein Bericht an die Bundesregierung aus 2015.

     
    Lies auch: Auf welche Entwicklung die deutsche Bundesregierung sich in Sachen Digitalisierung einzustellen versucht und was sie als wichtige Eckpunkte der gegenwärtigen Situation erkannt zu haben glaubt. Dass chinesische Spitzenfunktionäre derart halbherzige Bemühungen und Einsichten der Europäer als Chinas große Chance bereifen, ist verständlich, scheint aber nur wenigen in seiner ganzen politischen Dimension klar zu sein: Wir reiben uns erstaunt die Augen, sorgen uns um ein bisschen mehr Gewinn und vergessen dabei ganz, dass wir vielleicht besser das Fürchten lernen sollten.
     
    Sogar beim Ausbau absolut notwendiger Infrastruktur — dem schnellen Internet — soll Deutschland in Europa nur auf Platz 15 liegen. Schlimmer noch ...
     
     


     

     Beitrag 0-173
    Zu naive Nutzung der Möglichkeiten des Internets gefährdet unsere Gesellschaft

     
     

     
    Das Internet in Kombination mit der Unkontrollierbarkeit einiger seiner Pioniere

    ist auf dem besten Weg

    hin zu lückenloser Überwachung und Ausbeutung fast aller

     
     
    Eines sollte uns allen völlig klar sein:
     
    Je mehr wir übers Internet vernetzte Software nutzen — vor allem auch in Geräten, die wir ständig mit uns tragen — desto mehr geben wir den derzeit weltweit mächtigsten Unternehmen auch Gelegenheit, uns und andere auszuspionieren:
     
    Das fängt an beim Herzschrittmacher und endet mit modernen Autos — oder mit Brillen wie Google Glass oder mit Fernsehgeräten, die protokollieren, welchen Teil welcher Sendungen wir uns wann angesehen haben — mit Maschinen also,
       
    • die uns vordergründig zwar dienen,
       
    • die uns aber in ganz unglaublich hohem Maße auch höchst effektiv ausspionieren, indem sie Daten über uns und unser Verhalten sammeln.

    So unkontrolliert, wie diese Daten heute vermarktbar sind, erreichen sie letzlich jeden, den sie interessieren, kurz: jeden, der uns in irgend einer Weise — wie offen oder versteckt auch immer — zu beeinflussen oder auszunutzen sucht: Werbeagenturen, Versicherungen, Spionage-Organisationen, Terroristen ...
     
     
    Kombiniert mit der Free-Sharing-Kultur und unserem eigenen Drang, mit anderen frei zu kommunizieren — z.B. Bilder von uns und unserer Umgebung unüberlegt ins Netz zu stellen — machen wir selbst das Internet zu einen Mechanismus, der mehr und mehr Potential ansammelt, unsere ganze Gesellschaft so umkrempeln zu können, dass dann nur noch ganz wenige von uns Macht über das eigene Schicksal haben werden.
     
    Wie sich diese Gefahr — bisher von nur wenigen wirklich wahrgenommen — konkretisiert und schnell vergrößert, wird anhand von Beispielen und seit 1995 schon eingetretenen gesellschaftlichen Entwicklungen dargestellt im überaus lesenswerten Buch
     
     
    Andrew Keen: Das digitale Debakel — warum das Internet gescheitert ist und wie wir es retten können (2015)
     
    Die Originalausgabe erschien 2015 unter dem Titel The Internet is Not the Answer (Atlantic Books Ltd., London)

     
     
    Keen will aufrütteln. Er fordert seine Zuhörer auf, endlich darüber nachzudenken, in was für einer Gesellschaft wir leben wollen.
     
    Keen erklärt uns, was es heißt, wenn wir bei Amazon ein Buch bestellen oder Uber nutzen statt ein klassisches Taxi. Er behauptet nicht, dass das Internet "böse" sei, will uns aber klar machen, dass es Entwicklungen zulässt, die uns zum Verhängnis werden müssen, wenn wir nicht versuchen, die Technologie zu kontrollieren (oder wenn solche Kontrolle noch lange auf sich warten lässt, da zu viele von uns noch nicht verstehen, wie gefährlich das Netz seiner bislang  u n k o n t r o l l i e r t e n Entwicklung wegen  schon geworden ist — und so auch gesellschaftlichen Schaden verursacht.
     
    Keen sucht uns anhand recht überzeugender Beispiele klar zu machen, dass die Naivität, in der die meisten von uns heute die Möglichkeiten des Internets nutzen, für den Großteil der Gesellschaft äußerst gefährlich zu werden droht, auf jeden Fall aber zu Machtlosigkeit und Verelendung vieler führen muss.

     

     Beitrag 0-258
    Zu wenig Ausbildung macht arbeitslos — und das immer schneller

     
     

     
    Automatisierung durch Roboter
     
    beseitigt mehr und mehr Arbeitsplätze in Entwicklungsländern

     
     
    While outsourcing used to be the most financially sensible choice for companies operating in countries with no labor cost advantage, that role has been taken over by automation. Companies like Nike have closed some of their factories in China in favor of automation, and they subsequently saw their profits rise (for Nike, by 16 percent during its 2013 fiscal year).
     
    This doesn’t bode well for low-skilled workers who depend on these jobs to live.
     
     
    Sources:

     

     Beitrag 0-344
    Gut oder schlecht? — Warum es vielleicht doch auch extrem Reiche geben muss.

     
     

     
    Muss Geld vielleicht wirklich extrem ungleich verteilt sein?

     
     
    In der Süddeutschen Zeitung (SZ vom 24.1.2018, S. 15) wird berichtet, dass  45 Reiche die Hälfte des Vermögens aller Deutschen besitzen .
     
    Auf den ersten Blick klingt das nach einer großen Ungerechtigkeit, da all dieses Geld ja letztlich nur deshalb erwirtschaftet werden konnte, weil es über jene 45 extrem reichen Personen hinaus auch noch 80 Millionen anderer gibt.
     
     
    Zu bedenken ist aber auch:
     
    Die Verteilung des Vermögens jener 45 auf alle würde jeden von uns kaum reicher machen.
     
    Wäre das gesamte Vermögen aller Deutschen aber absolut gleichmäßig auf alle verteilt, käme es wahrscheinlich zu gar keinen Großinvestitionen mehr: Die demokra­tischen Prozesse, die dann notwendig wären, entsprechend viel Geld für ein bestimmtes Projekt zusammem zu bekommen, würden einen Großteil der Mittel, um die es geht, auffressen — d.h. vernichten.
     
    Wie die Beispiele Elon Musk — oder auch Bill Gates — zeigen, würde sich für so manches, was heute durch Großkapitalisten einfach in die Wege zu leiten ist — weil i.W. nur sie entscheiden —, wohl gar keine Mehrheit finden. Es würde also nie verwirklicht werden.
     
    Welcher Ägypter hätte, wenn vor 4000 Jahren alle Macht und alle Mittel gleich verteilt gewesen wären, eine Pyramide bauen können, die wir heute als Kulturerbe einstufen?
     
     
    Und nicht zuletzt: Wer Geld ausgibt — insbesondere sehr viel Geld — schafft natürlich auch Arbeitsplätze, von denen andere leben können. Man könnte also fragen: Ist jedes Anhäufen großer Vermögen nicht letztlich doch nur zeitlich verzögertes Verteilen von Wohlstand?

     

     Beitrag 0-458
    Wenn Arbeitgeber über Leichen gehen

     
     

     
    Wollen wir eine Welt, in der nur noch Profit zählt?

     
     
    Lies z.B.

     Beitrag 0-493
    Wie politisch darf Kirche sein?

     
     

     
    Kirche und Politik

    allgemeiner:

    Zum Unterschied zwischen ehrlicher und verhängnisvoller Politik

     
     
    Gerne wird über die Frage gestritten, in welchem Ausmaß Kirche — oder ob sie denn überhaupt — sich in die Politik einmischen dürfe.
     
    Dabei ist die Antwort doch ganz einfach:
     
    Wer als Vertreter einer Organisation zu einer politischen Frage Stellung bezieht, darf das dann und nur dann tun, wenn die Frage Interessen oder moralische Grundsätze der durch ihn vertretenen Organisation betrifft.
       
    • Wenn z.B. ein Kirchenvertreter im Namen seiner Kirche sich zum Tempolimit auf Autobahhnen äußern würde, wäre das mehr als nur unangebracht.
       
    • Ebenso schlimm aber ist, wenn er sich zu humantären Fragen, die kontrovers diskutiert werden, NICHT äußert (wenn also z.B. führende Vertreter der christlichen Kirchen ungerechte, unmenschliche Behandlung von Flüchtlingen stillschweigend hinnehmen).

    Richtig gehandelt haben Kirchenvertreter,
       
    • als sie Einspruch erhoben gegen einen Gesetzesentwurf von Bundesminister Spahn, nach dem es erlaubt worden wäre, Hirntoten Organe zu entnehmen, obgleich das doch nur möglich ist, wenn man — anders als bei palliativer Sterbebegleitung — die Körperfunktionen zwecks Organentnahme auf jeden Fall aufrecht erhält.
       
      In diesem Fall argumentierten die Kirchenvertreter sachkundig und theologisch, so dass heute jedem gestattet ist, in Ruhe zu sterben (statt angehängt an medizinische Apparate).

    Inkompetente, Vertrauen der Wähler mißbrauchende Politik liegt z.B. dort vor, wo Politiker Lobbyisten blind vertrauen und sie — was heute nicht selten ist — sogar Gesetzesentwürfe (!) mit formulieren lassen.
     
    Undemokratische — und daher verdammenswerte — Einflussnahme von Kirchenvertretern, z.B. islamischer Imame — liegt dort vor, wo jungen Menschen die Freiheit genommen wird, sich selbst für einen Glauben zu entscheiden, der ihnen als der am ehesten richtige erscheint. Wo Politiker das zulassen — oder durch entsprechende Schulpolitik sogar fördern —, werden sie ihrer Aufgabe, neutral zu agieren und Jugendliche zu schützen, NICHT gerecht.
     
    All das aber nimmt man heute noch viel zu wenig ernst.
     
    Was Vertreter der christlichen Kirchen betrifft, ist ihnen i.A. leider immer noch vorzuhalten, dass sie sich allzu selten rechtzeitig und entschieden genug äußern:
       
    • einerseits dort, wo ihr Einspruch Menschen helfen könnte (sie z.B. vor dem Ertrinken im Mittelmeer bewahren könnte),
       
    • andererseits aber auch dort, wo durch ihr Schweigen Kollegen vor berechtigter Strafverfolgung geschützt und Geschädigte um ihr Recht gebracht werden.

     
     
    Und bedenken wir auch: Fürs gute Gelingen einer Gemeinschaft sind nicht nür ihre Führer zuständig. Was sie an Meinung und Handeln zu bündeln versprachen, muss von jedem einzelnen Mitglied der Gemeinschaft ausgehen. Wo solche Quelle versiegt, kann der Politker ja nur seine eigene Meinung als die aller verkaufen.

     

     Beitrag 0-501
    Zu Markus Gabriel — dem derzeit (wie Searle es sieht) "besten deutschen Philosophen"

     
     

     
    Über Markus Gabriels vermeintliche Glanzleistung

     
     
    Im folgenden sei erklärt, warum ich Markus Gabriels bekannteste These (nach der die Welt nicht existiert) für einen exzellenten Marketing-Trick halte — aber ganz sicher nicht für eine wissenschaftliche Glanzleistung.
     
    Die Argumentation, mit der er operiert, ist logisch unhaltbar und schon rein handwerklich von ganz unglaublich schlechter Qualität. Warum sie an Hochschulen unwidersprochen bleibt, ja offenbar sogar mit offenem Munde bestaunt wird, ist mir absolut unerklärlich, denn:

       
      Wenn ein Philosoph behauptet, zeigen zu können, dass es die Welt nicht gibt (wie in [de] und [en] geschehen), so sollte man sich zunächst fragen, welchen Existenzbegriff er zugrundelegt, und wie logisch er in dieser Sache argumentiert.
       
      Was aber, wenn sich dann, wie im vorliegenden Fall im Zuge solcher Prüfung sehr deutlich zeigt, dass dieser Herr – obgleich Inhaber eines Lehrstuhls für Erkenntnistheorie – noch nicht einmal wohldefinierten Existenzbegriff vorzuweisen hat?
       
      Was soll man davon halten, dass einer seiner US-amerikanischer Kollegen (John Searle) ihn trotz solch gravierender handwerklicher Fehler als "Deutschlands derzeit besten Philosophen" einordnet?
       
      Und was erst soll man sich denken, wenn man dann zudem noch feststellt, dass nun schon über ein ganzes Jahrzehnt hinweg unter den zahlreichen Hochschullehrern für Philosophie im deutschsprachigen Raum anscheinend nur ein einziger – der Österreicher Peter Strasser – Gabriels handwerklich völlig unakzeptable Argumentation als das erkannt hat, was sie ist: pseudologisches Geschwätz ("ontologisches Laraifari", wie Strasser es nennt).

     
    Kann angesichts solcher Tatsachen die Mehrzahl der Hochschullehrer für Philosophie noch als kompetent angesehen werden – oder ist man nur zu feige, Unsinn zu nennen, was Unsinn ist?
     
    In welchem Umfang Sinn macht, was Gabriel an Hochschulen ebenso wie in aller Öffentlichkeit uns als wichtiges Forschungsergebnis zu verkaufen versucht, möge jeder selbst beurteilen anhand seiner Antrittsvorlesung, in der er argumentiert:

       
      Die Welt, als das allumfassende Ganze, ist nicht auflistbar. Daraus, so Gabriel, könne man erkennen, dass sie gar nicht existiert.
       
      Diese These, so verprach Gabriel 2011, werde er zum Kern des Forschungsprogramms an seinem Lehrstuhl machen (!).
       
      Ist es nicht erstaunlich, was Hochschulphilosophie heute mit einem Lehrstuhl für Erkenntnisphilosophie belohnt?
       
      Wen wundert es da noch, dass so mancher, der – z.B. als Naturwissenschaftler – gewohnt ist, logisch zu denken, nicht mehr bereit ist, Philosophie als wertvoll einzustufen? Gabriel versucht zwar noch, Logik dort anzuwenden, wo sie anwendbar ist, merkt aber nicht, dass er sie – rein schon vom Handwerklichen her – deutlich weniger gut beherrscht als Naturwissenschaftler, vor allem auch Mathematiker. Wieso also begibt er sich dann in seiner Vorlesung auf mengentheoretisches Glatteis und rutscht auch prompt darauf aus (ohne es selbst zu merken)?
       
      Details dazu hierzu hier.
       
      Man lese auch: Gebh. Greiter (2020): Neuer Realismus: Ohne jeden Wert, da widersprüchlich

     
    Mein Eindruck ist: Gabriel sieht seine Aufgabe darin, Meinungen zu produzieren, mit denen er sich profilieren kann. Ob sie wirklich Sinn machen und hin zu Wahrheit führen, scheint ihm zweit- oder gar drittrangig zu sein. Er weiß, dass man von ihm erwartet, sie zu begründen, seine Begründungen aber sind wenig durchdacht und versuchen, uns gelegentlich für dumm zu verkaufen. Nennenswerte Qualität kann ich darin nur selten erkennen. Er hört sich gerne reden, anderen zuzuhören ist nicht seine Stärke. An mir jedenfalls, redet er vorbei.
     
    Kurz: Gabriel ist extrem redegewandt, nutzt diese Fähigkeit aber nicht, um Qualität seiner Argumentation anzustreben. Er will beeindrucken — und das um jeden Preis.
     
    Pseudologisches Geschwätz als Forschungsergebnis zu verkaufen, gelingt ihm mühelos. Offenbar, da er es gar nicht mehr als solches erkennt. Seine Kollegen – fast alle jedenfalls – scheint das sprachlos zu machen: Warum ordnen sie sich ihm scheinbar willenlos unter und tun so, als wäre alles vernünftig, was er uns als da so anzudrehen versucht? Dabei könnte es doch wirklich interessant werden, sobald sich jemand dazu aufraffen wollte, seine Herausforderung anzunehmen. Dafür aber scheinen sie sich, Strasser ausgenommen, zu fürchten. Vergessen wir sie!
     
    Fazit also: Als Freund sorgfältigen Erwägens und ehrlicher Suche nach Wahrheit, wie z.B. Karl Jaspers es war, wird Gabriel wohl nicht in die Geschichte eingehen. Vielleicht werden auch andere ihn später als das erkennen, was er mir zu sein scheint: so eine Art Boris Johnson gegenwärtiger deutscher Philosophie.
     
    Wen es interessiert, der lese auch meine Meinung über die Qualität von Gabriels sog. Neuem Realismus, von dem uns "der derzeit beste deutsche Philosoph" (so Searle) in seinem Buch über die Nichtexistenz der Welt — stolz wie ein Gockel auf dem Mist — sogar noch verkündet, bei welchem Mittagessen er ihn erdacht habe.
     
    |
     
    Note: Als jemand, der Gabriels so unsagbar stümperhafte Erklärung seiner provokativen These, dass
    • erstens die Welt nicht existiere (alles andere schon)
       
    • und zweitens jeder von uns die Wirklichkeit so erkenne, wie sie tatsächlich ist (und nicht stets subjektiv gefärbt),
    nur aus rein argumentationstechnischer Sicht heraus beurteilen kann, ist mir nicht klar, aus welchem Grund er seinen Neuen Realismus inzwischen in Neutralen Realismus umbenannt hat.
     
    Ich hoffe aber, wir das als ersten Schritt hin zum Wunsch verstehen dürfen, in Zukunft bessere Argumente dafür zu liefern, warum es die Welt nicht gibt.
     
    Bisher nämlich ist Gabriel uns ja immer noch eine klare Definition dafür schuldig, was man unter Existenz denn eigentlich zu verstehen habe. Einfach nur zu sagen, existent zu sein bedeute in einem Sinnfeld aufzutreten und die Welt existiere nicht, da, wer sie aufzulisten versucht, sie dadurch um ständig neue Tatsachen erweitert, überzeugt mich halt so ganz und gar nicht.
     
    Da Gabriel behauptet, die Welt als Ganzes sei, da nicht auflistbar, der einzige Gegenstand unseres Denkens, der nicht existiert, könnten Mathematiker ihm vorhalten, dass, wäre seine Argumentation richtig, die Menge aller reellen Zahlen auflistbar sein müsste. Zudem könnte man ihn fragen, wie das denn mit der Menge aller ganzen Zahlen sei: Auch sie kann ja niemand komplett als Liste hinschreiben.
     
    Mathematiker aber — so scheint mir — gibt es in Gabriels Welt gar nicht. Er sieht die Welt ja, wie er denkt, wie sie wirklich ist. Es bleibt an uns darüber zu rätseln, was er denn unter der wirklichen Welt versteht. Es ist ganz offensichtlich eine, wie sie sich nur ihm selbst zeigt. Ich jedenfalls mache mir ein anderes, weniger widersprüchliches, eher logisches Bild davon.
     
    Neu war Gabriels Realismus — aber nur als beispiellos naive, unzulässige Vereinfachung. Den Namen Neutraler Realismus aber verdient er nicht: Kant würde sich im Grabe umdrehen ob solcher Verdrehung der Wahrheit.
     
    Die Welt jedenfalls existiert, denn sie existiert wenigstens als ein Konzept, über das wir nachdenken.

     

     Beitrag 0-508
    Warum in Deutschland Unternehmen für kriminelles Handeln nicht bestraft werden können

     
     

     
    Wirtschaftskriminalität

    Warum in Deutschland kriminelles Handeln juristischer Personen nicht strafbar ist

     
     
    Der Grund hierfür wird überaus klar und deutlich beschrieben durch einen Kommentar von Ronen Steinke in der SZ vom 4.9.2020.
     
    Er schrieb ihn, da sich die SPD als Teil der Großen Koaltion gegen den Willen einiger durch die Unionsparteien geführten Bundesländer dafür eingesetzt hat, die ent­sprechende Gesetzeslücke zu schließen.
     
    In den USA etwa, die ja ganz und gar nicht in Verruf stehen, die Freiheit des Marktes über Gebühr einzuengen, haften (nach einem Unternehmensstrafrecht, das sich dort sehr bewährt hat) auch Konzerne — als juristische Person — für kriminelles Handeln. Es gibt Fälle, in denen dort schon Strafen in Milliardenhöhe ausgesprochen wurden.
     
    Nach deutschem Recht können nur Personen, aber nicht juristische Personen, bestraft werden (und natürlich will die Lobby großer Unternehmen diesen Zustand uneingeschränkt erhalten wissen: Er erlaubt ja schließlich, die Schuld ggfs. einfach einigen wenigen Personen zuschieben). Man lese
    Gegen den Plan, die Gesetzeslücke zu schließen, haben im September 2020 gemeinsam scharf protestiert: Baden-Württemberg, Bayern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz und Schleswig-Holstein (alle mehrheitlich durch Unionspolitiker geführt).

     

     Beitrag 0-512
    Chinas Sozialkreditsystem — wirklich wünschenswert?

     
     

     
    Chinas Sozialkreditsystem

     
     
     
    One key purpose of China's Social Credit System (SoCS) is
     
    to drive home the message that non-compliance is not accepted anymore.

     
    But the SoCS also serves to enforce repressive and exclusionary norms. Party control has been increasingly legally codified, such as control of political expression online, restrictions on civil society or potential retaliatory measures directed against foreign companies. It is important to systematically analyse the legal and regulatory development in China in the years to come.
     
     
    Foreign actors need to accept the reality of an expanding Social Credit System in China – and develop strategies to deal with this reality.

     
    Most important:
    The SoCS is only a small fraction of China’s monitoring and surveillance capacities.
     
    Public security driven surveillance initiatives, in particular, carry much broader rights implications.

     
    More invasive domestic security platforms and initiatives have advanced rapidly and with significantly fewer limitations than the Social Credit System.


     

     Beitrag 0-515
    Wie sich Deutschlands Gesellschft wandelt

     
     

     
    Wie sich unsere Gesellschaft wandelt



    Michael Schmidt-Salomonn (2028):
     
    In Deutschland sind wir in den letzten Jahrzehnten Zeugen eines historisch einmaligen Säkularisierungs- und Pluralisierungsprozesses geworden. Die empirischen Daten, die die Forschungsgruppe Weltanschauungen in Deutschland (fowid) vorgelegt hat, sprechen in diesem Zusammenhang eine deutliche Sprache:
     
    Von 1870 bis 1970 war Deutschland noch eine weitgehend homogene christliche Gesellschaft, in der über 90 Prozent der Bevölkerung entweder katholisch oder evangelisch waren. Tatsächlich ging der Anteil der Kirchenmitglieder auf dem Gebiet der Bundesrepublik Deutschland innerhalb von 100 Jahren nur um magere 6 Prozent zurück: von 98,6 Prozent in 1871 über 95 Prozent in 1939 und dann 93,6 Prozent in 1970.
     
    Danach aber — in den letzten knapp 50 Jahren — sind die weltanschaulichen Verhältnisse gewaltig ins Wanken geraten: Der Anteil der Katholiken und Protestanten ist seither um fast 40 Prozentpunkte geschrumpft — von 93,6 Prozent in 1970 auf 55 Prozent im Jahr 2016. Gleichzeitig hat sich der Bevölkerungsanteil der konfessionsfreien Menschen nahezu verzehnfacht.
     
    Nichts ist beständiger als der Wandel.
     
    Darwins berühmtes Wort trifft, soweit wir wissen, auf alle Phänomene im Universums zu: für lebende ebenso wie für tote Materie, für den Aufstieg und Untergang biologischer Arten ebenso wie für menschlicher Zivilisationen — und es gilt nicht zuletzt auch für die weltanschauliche Einstellung moderner Gesellschaften.
     
    In Deutschland sind wir in den letzten Jahrzehnten Zeugen eines historisch einmaligen Säkularisierungs- und Pluralisierungs-prozesses geworden.
     
    Empirische Daten, vorgelegt von der Forschungsgruppe Weltanschauungen in Deutschland (fowid) sprechen in diesem Zusammenhang eine deutliche Sprache: Von 1870 bis 1970 war Deutschland noch eine weitgehend homogene christliche Gesellschaft, in der über 90 Prozent der Bevölkerung entweder der katholischen oder der evangelischen Kirche angehörten.
     
    Tatsächlich ging der Anteil der Kirchenmitglieder auf dem Gebiet der Bundesrepublik innerhalb von 100 Jahren nur um magere 6 Prozent zurück: von 98,6 Prozent im 1871 auf etwas über 95 Prozent im Jahr 1939 und weiter auf 93,6 Prozent im Mai 1970.
     
    Danach aber, in den letzten knapp 50 Jahren, sind die weltanschaulichen Verhältnisse gewaltig ins Wanken geraten: DerAnteil der Katholiken und Protestanten isteither um fast 40 Prozentpunkte geschrumpft: von 93,6 Prozent in 1970 auf 55 Prozent im Jahr 2016. Gleich-zeitig hat sich der Bevölkerungsanteil der konfessionsfreien Menschen nahezu ver-zehnfacht, nämlich von 3,9 Prozent in 1970 auf 36,2 Prozent Ende 2016 — und dieser Effekt ist keineswegs in erster Linie auf die Wiedervereinigung mit dem "gottlosen Osten" zurückführbar; Er der den Anteil der Konfessionsfreien in Gesamtdeutschland gerade einmal um etwa 10 Prozent erhöht.
     
    Mit einem Bevölkerungsanteil von über 36 Prozent leben heute deutlich mehr konfessionsfreie Menschen in Deutschland als Katholiken (28,5 Prozent) oder Protestanten (26,5 Prozent). Hinzu kommen noch rund 4,9 Prozent konfessionsgebunde Muslime sowie 3,9 Prozent Mitglieder sonstiger Religionsgemeinschaften (u.a. der orthodoxen Kirchen, der Freikirchen, des Judentums, des Hinduismus und des Buddhismus).
     
    Man sieht: Die Zivilgesellschaft ist im historischen Vergleich deutlich heterogener geworden.
     


     
    Zitiert aus: Michael Schmidt-Salomonn: Der blinde Fleck des deutschen Rechtssystems — Über die Missachtung des Gebots der weltanschaulichen Neutralität (2018)


     

     Beitrag 0-530
    Woher das Böse kommt

     
     

     
    Das Böse – woher es kommt



    Albert Camus (Nobelpreisträger für Literatur, Religionskritiker, 1947):
     
    Das Böse in der Welt geht fast immer von Unwissenheit aus, und der gute Wille kann ebenso viel Schaden anrichten wie die Bosheit, wenn er nicht aufgeklärt ist.
     
    Die Menschen sind eher gut als böse, und eigentlich geht es gar nicht um diese Frage. Die sind nur mehr oder weniger unwissend, und das nennt man dann Tugend oder Laster, wobei das hoffnungsloseste Laster das der Unwissenheit ist, die alles zu wissen vermeint und sich deshalb das Recht nimmt, sogar zu töten:
     
    Die Seele des Mörders [bzw. religiösen Fanatikers] ist blind, und es gibt keine wirkliche Güte oder wahre Liebe ohne größtmögliche Klarsichtigkeit.
     


     
    Quelle: Albert Camus: Die Pest, Rowohlt, 92. Auflage (2020), S. 150


     

     Beitrag 0-537
    Über fehlende Steuergerechtigkeit

     
     

     
    Über Steuergerechtigkeit
     
     
    Wie die Spitzenverdiener dieser Welt es schaffen, so gut wie keine Steuer zu bezahlen, z.B.

       
    • In 2007, Jeff Bezos, then a multibillionaire and now the world’s richest man, did not pay a penny in federal income taxes. He achieved the feat again in 2011.
       
    • In 2018, Tesla founder Elon Musk, the second-richest person in the world, also paid no federal income taxes.
       
    • Michael Bloomberg managed to do the same in recent years.
       
    • Billionaire investor Carl Icahn did it twice.
       
    • George Soros paid no federal income tax three years in a row.
       


     

     
     
    Warren Buffet — der, wie man hier sieht, am geschicktesten darin ist, jede vom Gesetz gelassene Steuerlücke zu nutzen —
     
    ist der einzige dieser Herren, der zugibt, wie ungerecht all das ist, und der dafür plädiert, Abhilfe zu schaffen.

     
     

     
     
    Quelle: ProPublica, June 2021


     

     Beitrag 0-541
    Der Erdüberlastungstag: Alle 10 Jahre 1 Monat früher

     
     

     
    Der Erdüberlastungstag



    ZDF und ARD, Berichte vom 29.7.2021:
     
    Die Weltbevölkerung lebt auf großem Fuß. Am 29. Juli 2021 hat sie rechnerisch schon alle erneuerbaren Ressourcen für das gesamte Jahr verbraucht.
     
    Genauer:
     
     
    Der Erdüberlastungstag — jedes Jahr 3 Tage früher.
       
    • 1970 waren die Ressourcen für Nahrung, Wasser oder Energie erst am 29. Dezember verbraucht.
       
    • 1990 stellte sich die Überlastung bereits am 11. Oktober ein.
       
    • 2010 hatten die Menschen am 7. August den Erdüberlastungstag erreicht.
       
    • 2021 lebt die Menschheit bereits ab dem 29. Juli für den Rest des Jahres auf Pump. Ohne Corona-Krise wären es noch einige Tage früher.
       
       
      Das heißt: Von nun an sind schon nach 7 Monaten alle im laufenden Jahr nachwachsenden Rohstoffe, die die Ökosysteme auf unserer Erde produzieren, aufgebraucht. Ab da wird für den gesamten Rest des Jahres auf Reserven zurückgegriffen, die eigentlich den nachfolgenden Generationen vorbehalten sein sollten.
       
      Schon seit 1970 begann der Mensch, natürliche Ressourcen schneller zu verbrauchen als die Natur sie ersetzen kann.
       
      Diese Entwicklung beschleunigt sich bisher unaufhaltsam. Eben das sollte unseren Kindern und Enkeln nun wirklich Angst machen.
       
      Schlimmer noch: Unser Verbrauch ist nicht nur auf pump, er zerstört sogar schnelle Regenerationsfähigkeit der Erde als Quelle unserer Ressourcen.
       
      |
       
      Interessant auch: 2020 hatte sich der Erdüberlastungstag wegen des Lockdowns um fast drei Wochen nach hinten verschoben, auf den 22. August. "Das ist tatsächlich eine Auswirkung von Corona gewesen", sagte Rolf Buschmann vom Bund für Umwelt und Naturschutz Deutschland.
       
      Laut einer Analyse des Global Footprint Networks war in Deutschland der nationale Erdüberlastungstag bereits Anfang Mai erreicht. "Wenn alle Länder so wirtschaften würden wie Deutschland, bräuchten wir nicht einen, sondern knapp drei Planeten", betonte Germanwatch-Sprecher Vogel.

     



     

      Beitrag 1909-3
    Die an grenzenloser Gier nach Geld erstickenden Banker

     
     
    Cybertine,

    dein Beitrag 1909-1 spricht mir aus der Seele.

    ABER: Man müsste die Tatsachen, die darin erwähnt werden, in der Öffentlichkeit wesentlich mehr diskutieren und thematisieren.

    Dass das nicht passiert, ist aber eindeutig auch unsere eigene Schuld. Wer von uns sog. "mündigen Bürgern" macht sich denn die Mühe, mal den Bundestagsabgeordneten zu besuchen, der unseren Wahlkreis vertritt, und dem klar zu machen, dass wir von ihm erwarten, diese Probleme WIRKLICH zu thematisieren?

    Erster Schritt, ihn zu überzeugen, müsste wohl sein, Beispiele zu finden, die er ohne viel Nachdenken auch sofort verstehen und hinsichtlich juristischer und gesellschaftspolitischer Brisanz auch sofort richtig einzuordnen versteht.


    Hier ein Beispiel:

    Vor einigen Monaten las ich in der Zeitung, dass Banken, die an der Londoner Börse am Hochfrequenzhandel beteiligt sind, viel Geld dafür bezahlen, dass die Leitungen, die ihren Computer mit dem der Börse verbinden, möglichst kurz sind. Die Großbanken kämpfen da um jeden Meter! Warum ist das so?

    Nun: Der Hochfrequenzhandel ist d a s Werkzeug der Banker, mit dem sie Geld abschöpfen. Er erlaubt ihnen, buchstäblich JEDE Kursschwankung auszunützen, um Geld zu machen. Nicht selten erzeugen sie diese Kursschwankungen gezielt sogar selbst — und das auch noch über sog. Leerkäufe (das sind solche, wo sie für Aktien, die sie kaufen, keine Zahlung zu leisten brauchen, wenn sie nur hinreichend schnell — nur Bruchteile von Sekunden später — das betreffende Aktienpaket wieder abstoßen. Was bei ihnen hängen bleibt, ist, bei den großen Summen, um die es da geht, nicht selten ein schöner Batzen Geld: Geld, um das sie so andere Aktionäre erleichtert haben.

    Genau betrachtet manipulieren sie so den Kurs der betreffenden Aktie. Manipulation ist das deswegen, weil nur börsen-zugelassene Händler möglich ist, so zu handeln: Die Markteilnehmer, welche durch jene Banker an der Börse vertreten werden, stehen außen vor, da ihnen schon vom System her nicht möglich ist, auch nur annäherend so schnell auf Kursschwankung zu reagieren. Da der Gewinn, den die Banker aus einer solchen Transaktion herausschinden, den Wert der gehandelten Aktie reduziert, bin ich der Meinung, dass das als Diebstahl zu werten ist:

    Schließlich zweigen sie so ja Geld für sich oder ihre Bank ab, welches eigentlich dem die Aktie ausgebenden Unternehmen und seinen Aktionären gehört (!):
    den Aktionären, um genau zu sein, die dem Unternehmen ihr Geld lange genug zur Verfügung stellen, damit es damit auch arbeiten kann.


    Warum nur wird das weder durch den Gesetzgeber noch durch Juristen so gesehen?

    Nur wenn wenigstens ein hohes Gericht hier wirklich mal auf Diebstahl erkennen sollte, könnte sich da was ändern. Ansonsten bleibt nur das Hoffen auf den Gesetzgeber — der aber scheint zu dumm, zu gleichgültig, oder durch zu viele Leute vertreten, die das Unrecht schlichtweg nicht als Unrecht sehen wollen, da sie sonst auf Zuwendungen seitens der Lobbyisten verzichten müssten.

    Ist leider so!


    Nebenbei: Ein Gesetz, das Ganze zu verhindern, könnte schlicht und einfach lauten:

    Leergeschäfte sind verboten,
    und wer Aktien kauft (bzw. verkauft) darf Aktien desselben Unternehmens frühestens 24 Std. später verkaufen (bzw. kaufen).


    Leider müsste dieses Gesetz weltweite Gültigkeit haben (da es sonst wirkungslos wäre). Die aber ist nicht erreichbar.

    Damit können wir wohl doch nur darauf hoffen, dass irgendwann auch hochrangige Juristen einsehen, dass das, was hier passiert, hart an Diebstahl grenzt und deswegen entschiedener gesellschaftlicher Ächtung bedarf.

    Träumen wir weiter ... s. z.B. Cum Ex ...
     
     

      Beitrag 1909-4
    -

     
     
    Grtgrt aus 1909-3:
     
    ... darauf hoffen, dass irgendwann auch hochrangige Juristen einsehen, dass das, was hier passiert, hart an Diebstahl grenzt und deswegen entschiedener gesellschaftlicher Ächtung bedarf.

    Träumen wir weiter ...
     

    In der Süddeutschen Zeitung (16/17. Feb. 2013) bespricht ein Anreas Zielcke Frank Schirrmachers Buch "Ego", welches – wie er sagt – "uns das Grausen lehrt". So wird da etwa festgestellt:


    Inzwischen beträgt die Haltezeit von Aktien an der Wall Street im Mittel sage und schreibe 22 Sekunden.

    Es ist noch nicht lange her, da waren es im Schnitt mehr als 4 Jahre.


    Und Zielcke fährt fort:

    Zitat:
     
    ... bei dieser Gelegenheit zerbröselt der Hochgeschwindigkeitshandel eines der Fundamente der Rechtsordnung: ausgerechnet das unternehmerische Eigentum.

    ... Eine verantwortliche Rolle des Miteigentümers eines Unternehmens – die ja der Aktienbesitz darstellt – ist damit hinfällig. Wer, wenn nicht die Eigentümer, tragen dann die Verantwortung?
     

     

      Beitrag 1909-7
    Das Internet als Chance, sich gesellschaftlich Gehör zu verschaffen

     
     
    Dass Lobbyisten Politiker möglichst oft zu treffen und zu sprechen suchen, wird sich nicht unterbinden lassen (man kann ja schlecht verlangen, dass Abgeordnete nur noch mit Abgeordneten sprechen, und sachkundig müssen sie sie ja auch machen dürfen).

    Problem dabei ist nur, dass das notwendige Gegengewicht — das ebenso regelmäßige Anhören unabhängiger Experten, vor allem Wissenschaftler — nicht gegeben ist. Und dass, sobald man dieses Gleichgewicht per Gesetz herstellen wollte, jene Wissenschaftler schon im Vorfeld durch Geldspenden der Lobby ihrer Unabhängigkeit beraubt würden: es würde sich lediglich der Focus des Lobbyismus verschieben.

    Insofern scheint die einzige Lösung darin zu bestehen, dass wirklich jeder Gruppe der Gesellschaft ermöglicht wird, ihre Stimme hinreichend deutlich zu erheben — eben unüberhörbar. Wirkungsvollster Weg hin zu diesem Ziel dürften Möglichkeiten sein, die uns erst das Internet eröffnet hat (und der feste Wille aller Betroffenen, sich auch wirklich zu äußern — schon daran scheitert es ja oft).

     

      Beitrag 1909-10
    Die Diktatur der heute allgegenwärtigen Zielvereinbarung

     
     
    Hans-m aus 1909-9:
    Bekanntlich fängt Fisch vom Kopf her an zu stinken.

    Nicht der kleine Mann bringt das Chaos und die ungerechtigkeit in Wirtschaft und Politik. Dafür hat er gar nicht die Macht.
    Die Führungskräfte, egal ob in Politik oder Wirtschaft sind an der Misere schuld.


    Das scheint mir eine zu einfache Sicht — die Wahrheit ist wohl eher,
    • dass es in allen Gesellschaftsschichten Gauner und Betrüger gibt und in allen Schichten nur wenige, die einsehen, dass soziale Verantwortung zu tragen wichtiger sein muss als der eigene Geldbeutel.
    • Dazu kommt, dass die heutige Arbeitswelt den Arbeitenden entmündigt, indem sie ihn — über variable Gehaltsanteile und entsprechende Zielvereinbarungen — zwingt, sein Handeln nach nur einem einzigen Gesichtspunkt auszurichten: Profitmaximierung  n u r  im jeweiligen Verantwortungsbereich der jeweiligen Person.

    Das beginnt schon damit, dass Einkäufer großer Behörden oder Unternehmen sich deswegen gezwungen sehen, ganz grundsätzlich auf Festpreisprojekten zu bestehen auch dort noch, wo der Komplexität der vergebenen Aufgabe wegen jedem Fachmann klar sein muss, dass die Chancen, das Projekt erfolgreich zu machen, weit höher wären, wenn man stattdessen einen Dienstleistungsvertrag anstreben würde.

    Und es endet damit, dass neuerdings sogar Banken kriminell werden:

    Zitat von Titelseite der Süddeutschen Zeitung vom 16/17. März 2013:
     
    Schwerer Betrugsverdacht gegen Banken

    Geldinstitute und Händler sollen den deutschen Fiskus durch kriminelle Aktiengeschäfte um viele Milliarden Euro geprellt haben.
    Staatsanwälte ermitteln in Hessen und Bayern.

     

    Welch furchtbare Folgen zu einseitig gestaltete Zielvereinbarungen haben können, zeigt sich selbst bei Personen, denen im heutigen Wirschaftsleben SEHR viel Macht und Einfluss gegeben ist.

    Beispiel: Jürgen Fritsche, Co-Chef der Deutschen Bank, soll es 2013 — vor dem Entwicklungsausschuss des Bundestages — explizit abgelehnt haben, die moralische Dimension als Argument in der Debatte um die Spekulation mit Preisen für Nahrungsmittel mit zu berücksichtigen.

    Zeigt das nicht sehr deutlich, dass wir nicht mehr von menschlichen Wesen regiert werden sondern nur noch von Mechanismen, denen das Erfüllen einer Ziel­vereinbarung auf einem eng abgegrenzten Bereich das  A L L E R W I C H T I G S T E  ist?

    Und wer von uns beugt sich diesem Trend nicht?

     

      Beitrag 2104-19
    Gott ist ein Wille, der ...

     
     
    U... in 2104-15:
     
    Welche [Gottes-] Definitionen habe ich denn insgesamt zur Auswahl?


    Aus meiner Sicht stets nur die, welche dir, dem Frager, am sinnvollsten erscheint.
    Mir erscheint am sinnvollsten:


    GOTT ist ein Wille,

    der immer und überall präsent sowie allmächtig ist.

    Aus dieser Definition folgt sofort:

    Es kann höchstens einen GOTT in diesem Sinne geben.



    Beweis: Allmächtig kann nur sein, wer in all seinen Entscheidungen absolut frei ist.
    Gäbe es also mehrere solcher Willen, wären sie frei, widersprüchliche Ziele durchzusetzen — ein Widerspruch zur Allmächtigkeit.


    Wer denkt, dass diese Definition zu sehr davon ausgeht, dass Gott eine Person sein müsse, der bedenke:

    Es gibt die Wahrheit, die über dem menschlichen Verstand liegt. Sie ist das einzige, das zeitlos existiert, das den Kosmos zusammenbindet. Dass wir mit unserem Verstand Wahrheit als solche erfassen können (wenn auch nur in kleinen Teilen), scheint ein großes Wunder. Man könnte also definieren:


    GOTT ist Quelle und Summe aller Wahrheit.



    Physiker würden es wohl so sagen:


    GOTT ist der Wille, der das Vakuum — das Nichts — mit Leben (d.h. mit nie ruhender Energie) erfüllt

    und die Naturgesetze in Kraft gesetzt hat.


     

      Beitrag 2104-21
    Warum jeder Versuch, Gott definieren zu wollen, nur ein Götzenbild kreiert

     
     
    Bauhof in 2104-20:
     
    Bitte versuche nicht mit dem Vorwand, eine angeblich gesuchte Definition zu finden, uns zu missionieren. Dass schafft nur böses Blut.


    Hi Eugen,

    es scheint dir entgangen zu sein, dass absolut KEINE Definition des Begriffes GOTT, die ich oder irgend wer sonst geben könnte, irgend etwas mit Religion zu tun haben kann.

    Hier der Beweis dafür:
    • Dinge, von deren Existenz man ausgeht, lassen sich grundsätzlich NICHT mehr definieren (denn die einzig zutreffende Definition wäre eine absolut vollständige Beschreibung all ihrer Eigenschaften).
    • Jeder Versuch, eine dazu konkurrierende andere Definition als korrekt anzusehen würde nur zu einem Modell dieser Sache führen, zu einem Bild also, das unvollständig oder gar falsch sein muss.
      Kurz: Definiert werden kann nur, was noch gar nicht existiert. Alles andere kann nur beschrieben werden.

    Nun kann man zwar versuchen, den Begriff GOTT zu definieren, man muss sich dann aber klar darüber sein, dass der so definierte GOTT (aus den eben genannten Gründen) dann rein gar nichts mit den Gott der Christen zu tun haben kann, denn eine der Eigenschaften, die sie ihm mit Sicherheit zuschreiben, ist seine Existenz.


    Beste Grüße,
    grtgrt
     

     Beitrag 0-325
    Warum wir Menschen so unterschiedliche — auch unterschiedlich naive — Gottesbilder haben

     
     

     
    Wie wir Menschen den Begriff » Gott « verstehen sollten

     
     
    Für Menschen war und ist der Begriff » Gott « (im Singular oder im Plural gebraucht) immer schon Platzhalter für alles, was aus menschlicher Sicht
       
    • einfach nicht zu verstehen
       
    • aber dennoch nicht wegzudenken

    ist. Wo immer Menschen nach einer Ursache gesucht haben, die einfach nicht zu finden war, haben sie von » Gott « gesprochen als demjenigen, den sie dann als diese Ursache sehen konnten.
     
    Die Einsicht, dass sie hier auf etwas Unverständliches gestoßen waren, haben mindestens die Autoren der Bibel schon gehabt. Dies zeigt sich daran, dass sie Gott das Wort in den Mund legen » Du sollst dir kein Bild von mir machen «, was zu lesen ist als: Es macht keinen Sinn, Gott seinem wirklichen Wesen nach verstehen zu wollen: Was immer man sich da vorstellt, wird allzu naiv sein.
     
     
    Damit ist klar: Selbst der Gott der Bibel ist etwas durch Menschen Konstruiertes — was aber nicht bedeuten muss, dass dieses durch Menschen konstruierte Gottes-Konzept nicht doch korrespondieren könnte zu einem Teil der uns — ja ganz prinzipiell unbekannten — Wirklichkeit.
     
    Eben deswegen wäre es falsch, die Aussagen der Bibel — oder vergleichbarer Texte von Propheten oder Religionsgründern — allzu wörtlich zu nehmen. Sie sind nur Versuch, zu beschreiben, was sich menschlichem Bewusstsein aufdrängt und sehr wahrscheinlich mit der Quelle unseres Bewusstsein zu tun hat.
     
     
    Die Bibel ist einzuordnen als der bisher ernsthafteste und erfolgreichste Versuch, den Wert dessen zu begreifen, was unser Gewissen uns an Wertvorstellungen menschliches Zusammenleben betreffend signalisiert.
     
    Und tatsächlich: Mindestens die Tatsache, dass jeder Mensch — wie deutlich oder schemenhaft auch immer — über ein » Gewissen « (d.h. einen Sinn für Gut und Böse) verfügt, ist Teil dessen, was wir einfach nicht verstehen, von unserem Menschsein aber auch nicht wegdenken können. Der Wert, der einem Menschen am Ende seines Lebens zuzusprechen sein wird, scheint direkt proportional zur Deutlichkeit, mit der er seinem Gewissen erlaubt hat, mit ihm zu sprechen.
     
    Da wir nicht wissen und wohl auch nie wissen werden, woher die Stimme unseres Gewissens kommt, müssen wir es — so wie wir » Gott « oben definiert haben — als Stimme Gottes begreifen.
     
    Unser Gewissen scheint der Teil unseres Bewusstseins zu sein, mit dem wir sogar dort noch weiter nach Wahrheit suchen können, wo Physik und mathematische Logik versagen.
     
     
     
    Über das hier Gesagte hinaus, kann jeder von uns vorgehen, wie die Autoren der Bibel: Sie haben versucht, den unbegreifbaren » Gott « zu einem Teil ihrer Welt zu machen, indem sie über ihn nachdachten. Wenn auch wir uns auf eben diese Weise schließlich doch ein Bild von Gott machen, wird das nicht weiter schlimm sein, solange uns präsent bleibt, wie entsetzlich unvollkommen dieses Bild stets und immer sein wird — einfach deswegen, weil Gott ja schon per definitionem das Unbegreifbare darstellt.
     
    Da diese unsere Gottesbilder dann aber so unvollkommen sind, muss es uns nicht erstaunen, dass es kaum zwei Menschen mit exakt dem gleichen Gottesverständnis gibt. Insbesondere wird gelten: Je abstrakter jemand zu denken versteht, desto abstrakter wird sein Gottesbegriff sein.

     
     
     
    Gebhard Greiter (2017)


     

     Beitrag 0-378
    Erste abstrakte Gottesvorstellungen

     
     

     
    Erste abstrakte Gottesbilder

     
     
    Xenophanus von Kolophon — ein Zeitgenosse des Pythagoras — stellte den Begriff des Göttlichen explizit ins Zentrum seiner Philosophie.
     
    Er sah dieses Göttliche als körperlosen, reinen Geist, ganz ohne menschliche Züge (so, wie es später auch Einstein tat).
     
    Xenophanus Idee muss auf dem Hintergrund des damaligen griechischen Denkens gewürdigt werden, in dem der Himmel ja noch von allzu menschlichen Göttern bewohnt wurde, etwa von Zeus, der neben einer Schwester und einer Frau auch noch zahlreiche Geliebte hatte. Es war diese Idee des Göttlichen also eine wirklich bedeutende Neuerung im philosophischen Denken jener Zeit.
     
     
    Nur wenig später hat dann Heraklit des Begriff des Logos eingeführt, der für eine Art Weltgesetz steht. Das dem Logos unterliegende Weltgeschehen, so Heraklit, sei vor allem durch Wandel und Dynamik gekennzeichnet (» alles fließt «).
     
    Aus heutiger — betont wissenschaftlicher, physikalischer — Sicht heraus könnte man unter diesem » Logos « die Summe aller mathematischen Wahrheit sehen. Sie nämlich steuert die sich ständig in Fluss befindliche Verteilung aller Energie im Universum, ist unabänderliches Gesetz und regiert ohne jede zeitliche Einschränkung. Sie ist Wurzel aller Naturgesetze.

     

     Beitrag 0-380
    Darwins Gottesvorstellung

     
     

     
    Darwins Gottesbegriff

     
     
    Einer der bahnbrechenden Naturwissenschaftler des 19. Jahrhnderts war Charles Robert Darwin (1809-1882).
     
    Seine Mutter — eine gläubige Unitarierin — starb, als er 8 Jahre alt war. Sein Vater war Freimaurer.
     
    Angeregt durch seinen älteren Bruder, der in einem Labor im elterlichen Geräteschuppen experimentierte, hat Darwin seine Liebe zur Chemie entdeckt.
     
    Ein zunächst begonnenes Medizinstudium brach er früh wieder ab, da es ihn — mit Ausnahme der Chemievorlesungen — langweilte. Sein Vater drängte ihn dann zu einem Theologiestudium mit dem Ziel des Pfarrerberufs. Wegen seiner intensiven Beschäftigung mit biologischen Fragen starb dieser Berufsplan aber bald » eines natürlichen Todes «.
     
    Darwin unterzog sich dann im Christ's College in Cambridge einem Studium mit Schwerpunkt » Naturtheologie «, welches er als einziges zum Abschluss brachte.
     
    Danach erhilt er, mit Anfang zwanzig, eine Einladung, unentgeltlich an einer 5 Jahre dauernden Weltreise auf der HMS Beagle teilzunehmen. Dieser Beginn seines Forscherlebens lies für ihn theologische und religiöse Fragen in den Hintergrund treten, obgleich sie ihn nie ganz losließen.
     
    Hatte Darwin sein Schiffsreise noch als orthodoxer Gläubiger angetreten, so schwankten seine religiösen Überzeugungen im Laufe seines Lebens, und er entwickelte sich schließlich zu einem erklärten Agnostiker, da, wie er sagte, » wir das Mysterium vom Anfang aller Dinge nicht aufklären können «.
     
    Seine Notizbücher und Briefe und seine spät geschriebene Autobiographie sind dennoch voll von Fragen und Ideen zur Entstehung des Menschen, zur Stellung des Menschen in der Natur und zum Leib-Seele- bzw. Gehirn-Geist-Problem.

     
     
    In seinen späten Werken brachte Darwin zum Ausdruck,
     
    dass er sich nie als Atheist im Sinne einer Leugnung der Existenz Gottes sah.

     
     
    Für ihn lag — etwa in seiner Schrift Die Abstammung des Menschen — in der Religion eine wichtige Bedeutung für den moralischen Fortschritt des Menschen.



    Charles Darwin ( in seiner 1876 verfassten Autobiographie Mein Leben ):
     
    Ein ... Grund für den Glauben an die Existenz Gottes ... scheint mir ... ins Gewicht zu fallen:
     
    Dieser Grund ergibt sich aus der extremen Schwierigkeit oder eigentlich Unmöglichkeit, sich vorzustellen, dieses gewaltige, wunderbare Universum einschließlich des menschen und seiner Fähigkeit, weit zurück in die Vergangenheit und weit hinaus in die Zukunft zu blicken, sei nur das Ergebniss blinden Zufalls oder blinder Notwendigkeit.
     
    Wenn ich darüber nachdenke, sehe ich mich gezwungen, auf eine erste Ursache zu zählen, die einen denkenden Geist hat, gewissermaßen dem menschlichen Verstand analog; und
     
    ich sollte mich wohl einen Theisten nennen.

     


     
    Quelle: Friedo & Christine Mann: Es werde Licht — Die Einheit von Geist und Materie in der Quantenphysik, Fischer, 2014 S. 79-82


     

     Beitrag 0-9
    Einsteins Gottesvorstellung (1)

     
     

     
    Einsteins recht differenzierende Meinung zu Gott

     
     
    Wie aus einem Brief Einsteins hervorgeht, den er 1954 an den Religionsphilosophen Erich Gutkind schrieb, sah Einstein sich selbst
    • weder als Atheist,
    • noch als jemand, der an die Bibel glaubt.

     
    Hier seine wesentlichen Aussagen:

    Einstein
     
      Das Wort Gott ist für mich nichts als Ausdruck und Produkt menschlicher Schwächen, die Bibel eine Sammlung ehrwürdiger, aber doch reichlich primitiver Legenden. Keine noch so feinsinnige Auslegung kann etwas daran ändern.
      Ich glaube an Spinozas Gott, der sich in der gesetzlichen Harmonie des Seienden offenbart, nicht an einen Gott, der sich mit Schicksalen und Handlungen der Menschen abgibt.
      Was ich in der Natur erblicke, ist eine großartige Struktur, die wir nur bruchstückhaft verstehen können. Diese Struktur muss jedem denkenden Menschen ein Gefühl von Bescheidenheit vermitteln – ein authentisches religiöses Gefühl, das mit Mystizismus nichts zu tun hat.
       
       
      » Man gewinnt die Überzeugung, dass sich in den Gesetzen des Universums ein Geist offenbart —
       
      ein Geist, der dem des Menschen bei weitem überlegen ist
       
      und gegenüber dem wir uns angesichts unserer bescheidenen Kräfte ärmlich vorkommen müssen. «

       



     

     Beitrag 0-203
    Einsteins Gottesvorstellung (2)

     
     

     
    Einsteins Gottesvorstellung



    Einstein selbst schrieb 1929:
     
    " Jene mit einem tiefen Gefühl verbundene Überzeugung von einer überlegenen Vernunft,
     
    die sich in der erfahrbaren Welt offenbart, bildet meinen Gottesbegriff.

     
    Man kann ihn also in der üblichen Ausdrucksweise als » pantheistisch « bezeichnen. "

     


    Trotz seiner jüdischen Wurzeln hat Einstein sich keiner Religionsgemeinschaft zugeordnet.
     
    Als er 1924 wieder Mitglied der jüdischen Gemeinde in Berlin wurde, geschah das ganz offensichtlich nicht aus religiösen Gründen, sondern aus Solidarität mit dem Judentum. So ist auch seine bleibende Verbundenheit mit den israelischen Städten Jerusalem und Tel Aviv zu verstehen. In diesem Sinne ist Einsteins "zionistische" Einstellung ethnisch-politisch, aber nicht religiös zu verstehen.
     
    Dennoch war Einstein in gewissem Sinne religiös. Er schrieb:


    Einstein:
     
    » Das komische religiöse Gefühl ist das stärkste und nobelste Motiv der wissenschaftlichen Forschung. «

     




    Prigogine (1979):
     
    Einstein glaubte an den Gott Spinozas, einen mit der Natur gleichgesetzten Gott von höchster Rationalität. In dieser Konzeption ist kein Raum für freie Schöpfung, für Kontingenz, für menschliche Freiheit. Jede Kontingenz, jede Zufälligkeit, die es scheinbar geben mag, ist nur Schein.
     
    Wenn wir glauben, in unseren Handlungen frei zu sein, so nur, weil wir ihre wahren Ursachen nicht kennen.
     


     
    Note: Sollte sich alles in der Natur ausschließlich gesteuert durch mathematische Gesetze entwickeln, könnte es wirklich sein, dass wir — und sämtliche anderen Lebewesen — nur scheinbar freien Willen haben.
     
    Vor allem deswegen wäre es so wichtig, zu wissen, ob nicht auch Quantenfluktuation irgendwie gesteuert ist.
     
     
    Unter Kontingenz versteht man Erfüllbarkeit im Sinne mathematischer Logik:
    Eine Aussageform heißt  e r f ü l l b a r , wenn es eine Belegung ihrer Variablen gibt, welche die Aussageform zu einer wahren Auissage macht.
     
    Kontingenz wie Prigogine sie oben meint, ist sicher etwas anderes. Könnte Erfüllbarkeit im Sinne eines » erfüllten Lebens « gemeint sein?

     

     Beitrag 0-362
    Zum Gottesbild prominenter Physiker

     
     

     
    Zum Gottesbild prominenter Physiker

     
     
    Immer wieder behaupten Atheisten, praktisch alle Physiker wären atheistisch. Hier Gegenstimmen dazu:
     


    Hans Jörg Fahr in Mit oder ohne Urknall ( 2. Auflage 20016, S. 336 ):
     
    Wissenschaft ist nicht dabei, Gott abzuschaffen. Viel eher lässt sich behaupten, dass der Glaube an die Existenz eines rationalen Schöpfers der Wissenschaft erst ihre intellektuelle Rechtfertigung gibt. ...
     
    Im Gegenteil, sie braucht ihn dringender denn je als Kontrolle ihres Denkens, denn diese Welt wird für unseren Verstand allmählich einfach zu groß.
     


     
    Lies auch: Was andere bekannte Naturwissenschaftler über Gott und Religion dachten


     

     Beitrag 0-323
    Wie selbst moderne Naturwissenschaft nach gottes-ähnlichen Wesen frägt

     
     

     
    Wie es kommt, dass selbst atheistische Wissenschaftler heute darüber nachdenken

    ob nicht vielleicht Götter sie erschaffen haben,

    die ihrerseits wieder durch Götter erschaffen wurden.

     
     
    Seitdem Nick Bostrom — in seiner Eigenschaft als Wissenschaftler — im Mai 2003 ein Papier veröffentlicht hat, das den Titel trägt The simulation argument: Why the Probability that you are living in a Simulation is quite high, fällt selbst Wissenschafltlern, die sich als Athesisten bezeichnen, auf:

     
    Aus wissenschaftlicher Sicht heraus definiert ein Schöpfergott sich einfach nur dadurch,
     
    dass er unbeschränkte Verfügungsgewalt über unsere Welt, unsere Existenz und unser Schicksal hat.

     
     
    Diese Einsicht hat Folgen:
     
    Gegen Ende von Kapitel 8 seines Buches Der kosmische Volltreffer (s. dort S. 236) denkt der Astrophysiker Paul Davies mit seinen dort sehr ausführlichen Darlegungen zu diesem Thema plausibel gemacht zu haben:
     
    Gibt es ein Multiversum — wovon heute ja heute zunehmend mehr theoretische Physiker überzeugt sind —, so sei der Schluss unvermeidlich,
     
    dass es zumindestens in einigen Universen Beobachter gibt, die das Produkt eines Schöpfergottes sind
    { eines Simulators oder seiner Konstrukteure ]..

     
     
    Er zitiert dann noch John Barrow — einen für solche und ähnliche Überlegungen preisgekrönten britischen Mathematiker und Physiker — der es in seinem Buch Einmal Unendlichkeit und zurück (ab S. 207) so ausdrückt:
     
     
    Wir finden uns in einem Szenario wieder, in dem die Götter wieder auferstanden sind — und das gleich in unendlicher Zahl
    in Gestalt von
    [ Programmieren von ] Simulatoren, die in ihren simulierten Welten Herr über Leben und Tod sind.
     
    Sie bestimmen, welche Gesetze in ihren Welten herrschen, sie können jede Simulation jederzeit abschalten

    [ was für die darin lebenden Wesen ihren Weltuntergang bedeutet ].
     
    Sie können dabei zuschauen, wie sich ihre Kreaturen Gedanken machen, ob es einen allmächtigen Gott gibt, ...
    Sie können Wunder bewirken oder ganz heimlich der simulierten Welt ihre Ethik und Moral überstülpen.

     
    Und Davies erklärt weiter:
     
     
    Auf diese Weise könnten Universen das Produkt ganzer Götterteams sein oder das konkurrierender Götter wie im traditionellen Polytheismus.
     
    Und natürlich könnten dann auch die Simulatoren — einschließlich ihrer Konstrukteure — Teil je einer simulierten Welt sein,
    womit dann auch beliebig tiefe Schachtelung simulierter Welten nicht mehr auszuschließen wäre.
     
    Solche Götter würden sich vom Gott der Christen nur noch darin unterscheiden, dass sie nicht jede denkbare Realität kennen und steuern,
    sondern stets nur Gewalt haben über Welten, die sie selbst oder ihre Simulatoren geschaffen haben.

     
     
    Doch Davies bekennt auch, wie vorsichtig und skeptisch er sei, was Universen betrifft, die sich — als nur simulierte — wie Kaninchen vermehren könnten:
     
    Akzeptiert man einmal, dass es Zivilisationen geben kann, die in der Lage sind, Universen zu simulieren, gibt es — aus wahrscheinlichkeitstheoretischen Überlegungen heraus — starke Argumente dafür, dass unseres zu den simulierten gehört.

     
     
    Mir persönlich zeigen all diese Überlegungen recht deutlich, dass Lebewesen, wie wir sie uns vorstellen können, nicht in der Lage sind, die Gottesfrage zu entscheiden: Unser Denken kann viele — aber keineswegs alle — Unendlichkeiten durchschauen. Insbesondere kann Geschaffenes — Menschen, KI oder welcher Simulator auch immer — niemals von sich aus klären, wer sie konstruiert hat oder gar das wahre Wesen seiner Schöpfer ergründen.
     
    Es ist diese Einsicht, die uns immer wieder zeigt, dass wir ohne » Gott « einfach nicht auskommen.

     
    Klar also scheint: Uns umgibt ein Horizont, der unser Wissen begrenzt — keineswegs nur nach Zeit und Raum, sondern auch nach Erkenntnistiefe. Über alles, was sich hinter ihm finden mag, können wir nur spekulieren.

     

      Beitrag 1969-27
    Grundsätzliches

     
    U...2 in 1969-7:

    Guten Morgen Gregor,

    ich danke Dir für Deine Antwort. Wir bewegen uns damit aber auf der Schiene des Glaubens und nicht der Wissenschaft.
    Deshalb lasse ich das jetzt einfach mal so stehen ...

    Nun gut, Du lässt das einfach mal so stehen.

    Also antworte ich Dir einfach mal so dahin.

    Ich habe es schon oft erlebt, dass Menschen nur wissenschaftliche Erkenntnisse akzeptieren und nicht im Geringsten bereit sind, sich auf metaphysischer Ebene zu bewegen. Mit so einer Haltung kann man sich gut durch's Leben bewegen und sich selbst eine "heile Welt" zusprechen. Doch diese "heile Welt" ist etwas Bruchstückhaftes, weil die Wissenschaften immer nur zu einer begrenzten (bruchstückhaften) Erkenntnis gelangen können. Es liegt in ihrer Natur. Mehr ist ihnen nicht "gegeben".

    Die "Welt der Physik" ist eine phänomenale Welt. Das "Höchste", was ihr möglich ist, ist die Vermittlung von Sinneseindrücken (an die Menschen) in Form von Phänomenen. Sinneseindrücke gelangen in unser Bewusstsein, mit deren Hilfe wir von der Welt Kenntnis nehmen, uns also bewusst wird - im wahrsten Sinne des Wortes -, dass die Welt sich uns kund tut über Kausalketten, die zu Sinneseindrücken führen.

    Die wenigsten Menschen machen sich jedoch bewusst, dass das Bewusstsein eine geistige Komponente ist, die sich wissenschaftlich nicht erklären lässt, weil die Wissenschaft hierzu gar keinen Zugang finden kann. Geist ist immer etwas Überweltliches, so wie auch Gott als außerhalb der Schöpfung gedacht werden muss.

    Die Welt kann nicht aus sich heraus etwas generieren, was schon vorher zu ihrer Beherrschung und Entstehung vorhanden sein musste. Eine Welt, die ihren Gott schafft, ist so wenig vorstellbar wie der Geist eines Menschen, der das Ergebnis eines rein materiell deterministischen Vorgangs ist.

    Gott hat die Welt geschaffen und den Menschen zur Beherrschung eingesetzt. Anders ausgedrückt: Der Geist herrscht über die Materie. Deshalb wird die Materie niemals Geist hervorbringen können, weil dieser immer zuerst da ist.

    Die Neurowissenschaften sind schon sehr lange damit beschäftigt, Licht ins Dunkel zu bringen. Aber bis heute kann kein Neurowissenschaftler wissenschaftlich aufzeigen, was Bewusstsein ist. Dies darf nicht mit den Prozessen verwechselt werden, die im Gehirn bei Denkvorgängen ablaufen. Diese Abläufe sind notwendig, damit der Geist über die materiellen Vorgänge des Gehirns in die materiellen Vorgänge des Körpers eingreifen kann. Solche Vorgänge sind sehr gut erforscht und haben wesentlich zu den Erfolgen von Psychopharmaka beigetragen.

     

      Beitrag 1971-6
    Um Glauben – an was auch immer – kommen wir nicht herum

     
    U... aus 1971-5:
    Naja, die Gläubigen werde sich schwer damit tun, auch nur den Hauch eines Beweises für die Existenz Ihres Gottes erbringen zu können.

    Das gilt auch für Dich, U... Jeder Mensch glaubt an etwas, egal an was, ob das nun ein Gott ist oder irgendeine andere Instanz, die Gott ähnlichen Chrakter hat. Das ist unser Schicksal. Jeder Mensch muss glauben. Das mag überheblich klingen, ist aber sehr rational gemeint. Wir wissen zu wenig, um nicht glauben zu können.

    Jeder Mensch ist in der Lage, zu denken. Aber kein Mensch weiß, was Denken ist, wie es funktioniert und was Bewusstsein ist. Wir können nur feststellen, dass es so ist, aber niemals, warum. Deshalb müssen wir an den Grund für alles glauben. Egal, was wir für diesen Grund halten, aber um den Glauben kommen wir nicht herum. Das kann man drehen und wenden, wie man will.

    Und wer nicht an ein Leben nach dem Tod glaubt - oder wer an das Nichts glaubt - oder an den Zufall - oder was auch immer - es ist immer ein Glaube.
     

      Beitrag 1971-10
    -

     
     
    Wie man hier und anderswo immer wieder bebachten kann, fühlt sich ganz offensichtlich wirklich JEDER — nenne er sich gläubig oder ungläubig — gedrängt, über Gott zu sprechen: Über etwas, das sich jeder Definition entzieht.

    Diese Tatsache allein schon spricht wohl eher für die Existenz Gottes.

     

     Beitrag 0-504
    Wer kann sich bessere Gottesbegriffe vorstellen?

     
     

     
    Mein Gottesbegriff


    Gebhard Greiter (2020):
     

     
     
    Für mich — Gebhard Greiter —
     
    ist Gott ein im Kosmos waltender Geist, dem (anders als uns)
     
    keine Erkenntnishorizonte gesetzt sind.

     
     
     
    Wer kennt (oder kann sich vorstellen) bessere Definitionen des Gottesbegriffs?
     
    Ich bin dankbar für jede Antwort, die mich und andere als Kommentar zu meinem Blogpost » Wer oder was ist Gott? « erreicht. Danke!
     
    Auch Antworten an mein Postfach [ ggreiter @ gmx.de ] sind willkommen.
     



     

     Beitrag 0-407
    Warum selbst gläubige Menschen niemals genau denselben Gottesbegriff haben

     
     

     
    Gott beginnt, wo unser Verstand versagt

     
     
    Jeder Mensch weiß, dass der Kosmos Dinge enthält und Eigenschaften hat, die unser menschlicher Verstand sich nicht erklären kann. Gott beginnt dort, wo unser Verstand versagt.
     
    Damit wird klar,
       
    • was Menschen unter Gott verstehen
       
    • und warum der Gottesbegriff relativ ist: relativ zu dem, was das Wissen und Verstand eines Menschen ihm nicht mehr zu erklären vermögen.

    Da Menschen — in Abhängigkeit zu dem, was sie gerade noch verstehen, also auch in Abhängigkeit von ihrer Historie — verschieden viel verstehen (teilweise auch nur zu verstehen glauben), haben wohl kaum zwei Menschen exakt den gleichen Gottesbegriff.

     

     Beitrag 0-395
    Was ist Gott?

     
     

     
    Was genau ist Gott?

     
     
    Vielleicht sollte man es so sagen:
     
    Gott ist der Teil der Natur, den zu erklären menschlicher Verstand nicht ausreicht.
     
    Die große Flut spiritueller Schriften ist Beweis dafür, dass im Bewusstsein der Menschen schon immer etwas war, das sie gedrängt hat, zu suchen und zu verstehen, was die Natur regiert: Etwas das reiner Geist zu sein scheint und nur deswegen vom Menschen personalisiert wurde, da wir uns Geist, der nicht an Personen gebundenen ist, nur schwer vorstellen können.
     
    Für den theoretischen Physiker Max Tegmark etwa manifestiert sich dieser Geist in der Summe aller mathematischen Wahrheiten.
     
    Für Christen manifestiert er sich im Gott der Bibel, für Buddhisten eher in einer Art unpersönlichem Weltgesetz.
     
    Auf jeden Fall gilt:
     
     
    Gott ist der Teil unseres Bildes (= unserer Vorstellung) der Wirklichkeit,
     
    den der Mensch zu personalisieren und sich auszumalen versucht, wenn ihm klar wird,
     
    dass da etwas ist, das zu verstehen unser Verstand einfach nicht ausreicht.


     

     Beitrag 0-140
    Verdammt Gott den Relativismus — so wie Josef Ratziger das tut?

     
     

     
    Stets nur absolut objektiv zu denken scheint unmöglich zu sein

    gezeigt am Beispiel eines ansonsten untadeligen Denkers: Josef Ratzinger



    Der Physiker Honerkamp stellt fest (2015):
     
    Papst Bendedikt XVI. wird oft dafür gerühmt, dass er so beherzt gegen den Relativismus gekämpft habe. In diesem Zusammenhang wurde häufig auf die Predigt verwiesen, die er in der Messe des Kardinalskollegiums vor der Wahl des neuen Papstes im Jahr 2015 gehalten hat, wo es u.a. heißt:
     
      Wie viele Glaubensmeinungen haben wir in den letzten Jahrzehnten kennen gelernt, wie viele ideologische Strömungen, wie viele Denkweisen [...].
       
      Das kleine Boot des Denkens vieler Christen ist nicht selten von diesen Wogen zum Schwanken gebracht, von einem Extrem ins andere geworfen worden: vom Marxismus zum Liberalismus bis hin zum Libertinismus; vom Kollektivismus zum radikalen Individualismus; vom Atheismus zum Synkretismus, und so weiter [...].
       
      Einen klaren Glauben nach dem Credo der Kirche zu haben wird oft als Fundamentalismus abgestempelt, wohingegen der Relativismus — das sich 'vom Windstoß irgendeiner Lehrmeinung Hin-und-her-treiben-lassen' — als die heute zeitgemäße Haltung erscheint.
       
      Es entsteht eine Diktatur des Relativismus, die nichts als endgültig anerkennt und als letztes Maß nur das eigene Ich und seine Gelüste gelten lässt.

    Dass man als Hüter eines religiösen Glaubens kein Freund des erkenntnistheoretischen Relativismus ist, muss man aus Konsistenzgründen wohl akzeptieren.
     
    Aber muss man deswegen den philosophischen Relativismus als ein » vom Windstoß irgendeiner Lehrmeinung Hin-und-her-treiben-lassen « diskreditieren und verächtlich machen und dieses ihm unterstellte Treibenlassen dann auch noch auf die moralische Ebene übertragen?
     
    Und sollte der Relativismus wirklich eine Diktatur sein, dann wäre sie mir lieber als eine Diktatur der "Wahrheit".
     
    Der italienische Philosoph Gianni Vattimo hat das auf den Punkt gebracht: » Ich kenne viele Blutbäder, die von Menschen verübt wurden, die dachten die Wahrheit zu besitzen, aber ich habe noch nie von Blutbädern gehört, die von fanatischen Relativisten verübt worden wären. «
     


    Meine (grtgrt's) persönliche Meinung:
    So wie selbst mathematische Wahrheiten fast immer nur auf Basis bestimmter Voraussetzungen zutreffen, wird das wohl für alle durch Menschen erkannten Wahrheiten gelten. Und welcher Theologie möchte denn wirklich die Hand dafür ins Feuer legen, dass nicht auch Gott relativ denkt und urteilt?

     

     Beitrag 0-142
    Theologie — die ganz besonders kleingläubige Wissenschaft

     
     

     
    Warum sind Theologen so kleingläubig?


     
    Die Wurzel aller Wissenschaften — Philosophie — gab es schon mehrere Jahrhunderte vor Christi Geburt. Erstaunlicherweise aber hat sie während des Mittelalters eine Art Winterschlaf gemacht, der sich ergab, weil damals Kritik an Autoritäten unerwünscht war und schließlich zunehmend unerbittlich unterdrückt wurde.
     
    Geburtsstunde der modernen Wissenschaften war Galileo Galileis in seiner Erkenntnis, eine neue Wissenschaft entdeckt zu haben. Was daran neu war, konnte er konkret benennen: Es waren
    • die Berufung auf das Experiment als letzter Schiedsrichter darüber, was wahr bzw. falsch ist
       
    • sowie die Nutzung der Mathematik zur Beschreibung des Verhaltens der Natur.

    Im Fall Galilei ging es nicht darum, ob die Erde oder die Sonn Mittelpunkt des damal bekannten Universums sei — es ging tatsächlich darum, ob dem Experiment oder der Kirche die Hoheit in der Deutung der Naturphänomene zuzugestehen sei.
     
     
    Lange — im Grunde genommen bis hin zur Schwelle des 21. Jahrhunderts — hat die katholische Kirche keine rechte Strategie dafür gefunden, mit der durch Galieo Galileis Denken aufgekommenen Konkurrenz umzugehen.
     
    Im Antimodernisteneid, der den meisten katholischen Priestern noch bis 1967 abverlangt wurde, musste das Primat der göttlichen Offenbarung in allen Dingen anerkannt werden.
     
    Zur Rehabilitation von Galilei und zu einer Teilanerkennung der Evolutionstheorie kam es erst in einer Ansprache von Papst Johannes Paul II. an die päpstliche Akademie der Wissenschaften am 31.10.1992, in der erklärt wird, dass die Kirche das "schmerzliche Mißverständnis in Fall Galilei" überwunden habe: "Die Mehrheit der Theologen vormochte nicht formell zwischen der Heiligen Schrift und ihrer Deutung zu unterscheiden, und das ließ sie eine Frage der wissenschaftlichen Forschung unberechtigterweise auf die Ebene der Glaubenslehre übertragen."
     
     
    Schwerer tat (und tut man sich immer noch) mit Darwins Evolutionstheorie:
     
    Zwar hat — ebenfalls wieder Papst Johannes Paul der II. — 1996 zugestanden, dass die Evolutionstheorie "mehr als eine Hypothese" sei, doch schränkte er das gleichzeitig ein, indem er betonte: "Der menschliche Körper hat seinen Ursprung in der belebten Materie, die vor ihm existiert. Die Geistseele hingegen ist unmittelbar von Gott geschaffen [...]. Folglich sind jene Evolutionstheorien  n i c h t  mit der Wahrheit über den Menschen vereinbar, die — angeleitet von der dahinter stehenden Weltanschauung — den Geist für eine Ausformung der Kräfte der belebten Materie oder für ein bloßes Epiphänomen dieser Materie halten."
     
     
    Als Mathematiker, d.h. als jemand, der eine recht gute Vorstellung davon hat, was Unendlichkeit so alles bedeuten kann — und wie real uns Unendlichkeiten im Bereich der Zahlen tatsächlich begegnen —, frage ich (grtgrt) mich da verwundert:
     
    Wie kann es sein, dass Theologen, die einen allmächtigen Gott verkünden, so wenig Vertrauen in seine Allmächtigkeit haben, dass sie ihm nicht zutrauen, den Menschen in unendlich  i n d i r e k t e r  Weise geschaffen zu haben: z.B. so, dass Gott lediglich das mit Energie ausgestattete Vakuum schuf sowie Naturgesetze, die bewirken, dass wir uns nach Körper  u n d  Geist hieraus per Evolution entwickeln konnten?
     
    Und wieso ziehen sie nicht in Betracht, dass selbst dieser Schöpfungsweg angesichts der Größe Gottes noch viel zu konkret gedacht sein könnte?

     
     
    Ich denke, dass gilt, was Ulrich Büchler mal so auf den Punkt gebracht hat:
     
     
     
    Wen nur Gründe veranlasst haben, an Gottes Wirklichkeit zu glauben, der kann sicher sein,
     
    daß er von der Wirklichkeit Gottes nichts erfaßt hat.
     
    Wer mit Gottesbeweisen etwas über Gottes Wirklichkeit auszusagen meint, der disputiert über ein Phantom.



     

     Beitrag 0-262
    Steven Hawkings Meinung zu Gott und dem Ursprung des Universums

     
     

     
    Hawkings Einstellung zu Gott

     
     
    Steven Hawking bezeichnet sich selbst als Atheisten. Dennoch ist nicht wahr, er würde ernsthaft behaupten, die Existenz Gottes widerlegt zu haben, wie die Presse gelegentlich – zu stark vereinfacht – berichtet.
     
    Richtig ist vielmehr, dass Hawking sehr genau weiß, dass Wissenschaft nichts über Gott oder seine Existenz aussagen kann. Dies beweist folgender Auszug aus einem Interview, welches Hawking gegen Ende des Jahres 1992 in einer Sendung der BBC gab:
     


    Aus einem Interview mit Steven Hawking (BBC, 1992):
     
    Reporter:
      Wenn man Ihre Theorien stark vereinfacht — ich hoffe Sie werden mir das verzeihen, Stephen —, haben Sie, soweit ich das verstehe, früher geglaubt, es habe einen Schöpfungsaugenblick, einen Urknall gegeben, aber heute sind Sie nicht mehr dieser Meinung. Sie glauben nun, dass es keinen Anfang und kein Ende gibt, dass unser Universum in sich abgeschlossen ist. Heißt das, es hat kein Schöpfungsakt stattgefunden, und deshalb bleibt auch kein Raum mehr für Gott?

    Hawking:
      In der Tat, Sie haben das allzu sehr vereinfacht. Ich glaube immer noch, dass das Universum einen Anfang in der realen Zeit hat, einen Urknall. Aber es gibt eine andere Art von Zeit, die imaginäre, orthogonal zur realen Zeit, in der das Universum keinen Anfang und kein Ende hat. Dies würde bedeuten, dass die Art und Weise, wie das Universum begonnen hat, von den physikalischen Gesetzen bestimmt würde. Man müsste nicht sagen, dass Gott das Universum auf irgendeine willkürliche Weise in Gang gesetzt hat, die wir nicht verstehen können. Über die Frage, ob Gott existiert oder nicht, ist damit überhaupt nichts gesagt, nur dass er nicht willkürlich ist.

    Reporter:
      Aber wenn die Möglichkeit besteht, das Gott nicht existiert, wie erklären Sie sich dann all die Dinge, die es außerhalb der Wissenschaft gibt — Liebe, den Glauben, den Menschen in Sie gesetzt haben und weiterhin setzen, oder ihre eigene Inspiration?

    Hawking:
      Liebe, Glaube und Moral gehören einer anderen Kategorie an als die Physik. Aus den physikalischen Gesetzen kann man nicht ableiten, wie wir uns verhalten sollen. Es wäre allerdings zu wünschen, dass das logische Denken, das wir aus der Physik und Mathematik lernen können, uns auch in unserem moralischen Verhalten bestimmt.

    Reporter:
      Aber ich glaube, dass viele Menschen der Meinung sind, Sie hätten Gott praktisch überflüssig gemacht. Leugnen Sie das?

    Hawking:
      Meine Arbeit hat lediglich gezeigt, dass man nicht behaupten muss, das Universum habe als eine persönliche Laune Gottes begonnen. Dennoch bleibt die Frage: Warum macht sich das Universum die Mühe zu existieren? Wenn Sie wollen, können Sie Gott als die Antwort auf diese Frage definieren.

     


     
    Quelle: Stephen Hawking: Einsteins Traum, Expeditionen an die Grenze der Raumzeit, Rowohlt 1993, S. 176-177


     

     Beitrag 0-275
    Heisenbergs Gottesbild (wenn man es so nennen mag)

     
     

     
    Heisenbergs Glaube an eine allem innewohnende » zentrale Ordnung «

     
     
    Wahrscheinlich beeinflusst von Niels Bohr und dessen Glaube an eine » allem Existierenden innewohnende zentrale Ordnung « hat Heisenberg 1952 auf Paulis Frage, ob er an einen persönlichen Gott glaube, geantwortet wie folgt:
     


    Heisenberg (S. 193):
     
    Darf ich die Frage auch anders formulieren? Sie würde dann lauten:
     
    Kannst du, oder kann man der zentralen Ordnung aller Dinge oder des Geschehens, an der ja nicht zu zweifeln ist, so unmittelbar gegenüber treten, wie dies bei der Seele eines anderen Menschen der Fall ist?
     
    Ich verwende hier ausdrücklich das so schwer deutbare Wort » Seele «, um nicht missverstanden zu werden.
     
    Wenn du so frägst, würde ich mit JA antworten.
     


     
    Quelle: Werner Heisenberg: Der Teil und das Ganze (1969), S. 192-193.


     

     Beitrag 0-393
    Gott als Quelle von Allem, das existiert

     
     

     
    Gott als der Inbegriff aller nicht an Form gebundenen Energie

     
     
    Das Konzept Energie ist das wichtigste Konzept in der Physik überhaupt. Und doch kann kein Physiker uns erklären, wie es zur Existenz von Energie kam oder was genau sie denn eigentlich ist. Wie Einstein zeigen konnte, ist jede Quantifizierung von Energie relativ, womit klar sein sollte, dass die wahre Natur von Energie sich unserem Verstand ebenso entzieht wie die wahre Natur des biblischen Gottes.
     
    Die Physik kann nur Formen auflisten, in denen Energie uns begegnet, und sich Gedanken darüber machen, wie diese Formen auseinander hervorgehen, durch welche Gesetze solche Umwandlung gesteuert wird und wie all das erklärt, was wir in unserer Alltagswelt beobachten.
     
    Das mit Abstand am besten geeignete Werkzeug, zu solchen Erklärungen zu kommen, ist die Mathematik — erst als das erkannt wurde, war aus Naturphilosophie Physik geworden.
     
    Das Begriffspaar Energie und mathematische Wahrheit, so könnte man sagen, ist für Physiker das, was für gläubige Menschen Gott und unser Gewissen sind. Denn: Unser Gewissen bzw. mathematische Wahrheit sind im Zweifelsfall die letzte Instanz, die zu befragen wäre, wo Zweifel bestehen.
     
    Die sich für viele Menschen ständig neu stellende Frage, wie sich Gott denn eigentlich charakterisieren lasse, könnte als Teilantwort haben:
     
     
     
    Religionsphilosophen könnten jetzt folgern:
     

     
    Gott ist der Inbegriff aller nicht an Form gebundenen Energie.
     
    Alles Sterbliche ist sterblich, da an bestimmte Form gebunden und alle Form vergänglich ist:
     
    Wird z.B. ein Mensch zu Staub, hört er auf zu existieren, da menschliche Form wesentlicher Teil seines Menschseins ist.
     
    Sofern ein Objekt X seiner Form wegen andere Objekte mit geprägt hat, können sie X lange Zeit — aber niemals ewig — überleben.
     
    So jedenfalls sagt uns die Physik — aber ist das schon die volle Wahrheit?
     
     
    Die größte Unzulänglichkeit von Physik ist, dass sie uns zwar Materie und Strahlung erklären kann (einige Formen von Energie)
     
    aber nicht Geist als eine noch viel mächtigere, ganz andere Form von Energie.


     

     Beitrag 0-510
    Das Gottesbild des Meister Eckhart — kein anderes ist ähnlich abstrakt

     
     

     
    Das Gottesbild des Meister Eckhart

     
     
    Mir war lange Zeit nicht klar, dass Meister Eckhart (den man gerne als Mystiker einordnet) wohl einer der wichtigsten Vertreter philosophischer Theologie überhaupt war.
     
    Wie in Weischedel auf Seite 109 zu lesen ist, hat man vom Lebensgang Eckharts nur "die notdürftigste" Kenntnis:

       
      Geboren so etwa 1260 als » Eckhart von Hochheim « entstammte er einem ritterlichen Geschlecht.
       
      Schon früh trat er in das Dominikanerkloster in Erfurt ein. Soweit man vermuten kann, studierte er anschließend in Straßburg und Köln. Nachdem er Prior seines Heimatklosters geworden war, übernahm er einen Lehrauftrag in Paris und wurde 1302 Magister (weswegen man ihn dann » Meister Eckhart « nannte.
       
      Von Paris zurückgekehrt wird er zum Leiter der damals neu errichteten Ordensprovinz Sachsen ernannt, die sich von den Niederlanden bis Livland erstreckte.
       
      Zugleich wurde er Generalvikar von Böhmen, wo man ihn mit der Aufgabe einer Reform der Ordensklöster beauftragt hat. Er geht noch einmal nach Paris, übernimmt sodann die Leitung der ordenseigenen Huchschule in Straßburg und lehrte schließlich an der Universltät Köln. Er stirbt etwa 1327, sein Grab ist unbekannt.
       
      Eckharts Hinte4rlassenschaft ist umfangreich. Sie besteht aus gelehrten lateinischen Schriften sowie aus deutschen Texten und Prdigten.
       
      Das entscheidende Ereignis im Leben Meister Eckharts ist sein Streit mit der offiziellen Kirche, der sein selbständiges Denken als Gefahr erschien. Und so kam es dazu, dass man ihn — obgleich er damals einer der führenden Köpfe des Dominikaner-Ordens war, der sich ja selber in der Rolle der Inquisition hervortat — der Inquisition unterwarf.
       
      An dem Meister selbst wagte man sich zunächst nicht direkt heran: Man verfolgte zunächst Laien, die — zum gro0en Teil von Eckharts Ideen angeregt — ähnliche Gedanken aussprachen wie er. Man hat sie ertränkt oder auf dem Scheiterhaufen verbrannt.Schließlich hat sich der Erzbischof von Köln dann schließlich selbst beim Papst über Eckart beschwert, was zur Folge hatte, dass man nun auch ihn vot ein Inquistitionsgericht gestellt hat. Zunächst aber wurde er absolviert, da sein Orden sich energisch für ihn eingesetzt hat und er selbst feierlich erklärte, niemals häretische Ansichten gehabt zu haben. Nach Eckharts Tode allerding erließ der Papst dann doch eine Bulle, in der er 28 Sätze des Meisters als teils ketzersch, wenigstens aber als höchst missverständlich verdammt hat.

     
     
    Diese Umstände gegen Ende seines Lebens haben dazu geführt, dass Meister Eckharts Ansichten zunächst in Vergessenheit gerieten. Selbst heute noch wird sein Wirken in den gängigen Darstellungen der Geschichte der Philosophie recht stiefmütterlich behandelt (schreibt Weischedel). Insbesondere ´übersieht man immer wieder, dass sich durch die gesamte Philosophiegeschichte ein nur selten an die Oberfläche tretender "unterirdischer" Strom des mystischen Philosophierens zieht. Eckhart ist nämlich keineswegs der erste, der so dachte, wie er dachte. Ihm voran gingen Plotin aus dem dritten, Dionysios Areopagita aus dem fünften und Ereungena aus dem neunten Jahrhundert nach Christus. Nach ihm haben ebenso gedacht Nikolaus von Kues, Jakob Böhme und Franz von Baader. Auch das Denken des späten Fichte oder das von Schelling und Hegel wäre ohne jene Weise des Philosophierens, wie Meister Eckhart sie vorbildlich repräsentiert, wohl nicht möglich geworden.
     
    Eckhart spricht vom » Seelengrund « und nennt ihn den Ort, an dem die Seele ursprünglich Gott erkennen kann. Diese Begegnung, so sagt er, vollziehe sich in der vollen Hingabe nicht nur des Menschens, sondern auch Gottes. Dieser sei » in dem Grunde der Seele mit all seiner Gottheit « anwesend.
     
    Eckhart betrachtet Gott als » das Sein schlechthin « und wagt den ketzerischen Satz: » Alle Dinge sind Gott selber. Alle Kreaturen sind ein Sprechen Gottes «.
     
    Aus der Erkennnis heraus aber, dass man Gott nicht gleichsetzen dürfe mit den Dingen, die er schuf, präzisiert er dann:
     
     
    » Gott kommt nicht das Sein zu, noch ist er ein Seiendes. Er ist etwas Höheres. «

     
     
    Dieses Höhere, so meint Eckhart, kann nur das Geistige, die » Einsicht «, der » Intellectus « sein. Und so kommt er schließlich zur Ansicht:
     
     
    » Gott ist reine Einsicht, deren ganzes Sein das Einsehen selbst ist. «
     
     
     
    Quelle: Wilhelm Weischedel: Die philosophiosche Hintertreppe (1975, 2018), S. 109-115

     
    Historische Notiz:
     
    Nach seinen Pariser Studien in den Jahren 1286-94 kehrte Eckhart 1302 und später noch einmal 1311 als Magister auf den Dominikaner­lehrstuhl an der Sorbonne zurück. Diese Lehrtätigkeit brachte ihm seinen Beinamen "Meister" ein. Vor ihm war die Ehre eines zweimaligen Magisteriums an der Pariser Universität nur Thomas von Aquin zuteil geworden, was Eckharts hohe akademische Reputation als einen der führenden Köpfe seiner Zeit beweist.
     
    Dies sei insbesondere gegenüber Versuchen betont, ihm ein besonderes Maß an Heterodoxie oder Mystizismus zu unterstellen.
     
    Mit seinen deutschen Werken wendet sich Eckhart ausdrücklich auch und besonders an die "ungelehrten Leute". Er verwirft die Vorstellung einer nur den theologisch gebildeten Lateinkundigen zugänglichen Wahrheit, die vor dem einfachen Volk zu verbergen sei. Nach seiner Überzeugung soll man auch die erhabensten Lehren der allgemeinen Öffentlichkeit verkünden, denn die Ungelehrten seien diejenigen, die der Belehrung bedürfen. Das Risiko, dass manches nicht richtig verstanden wird, sei in Kauf zu nehmen.
     
    Wie Christian Jung in seinem Aufsatz Die Funktion des Nichts in Meister Eckharts Metaphysik, Salzburger Jahrbuch für Philosophie 2014, sehr deutlich macht, hat Meister Eckhart um die beiden oben zitierten Aussagen zum Wesen Gottes — genauer: um deren treffende Formulierung — ein halbes Leben lang ringen müssen. Es zeigt sich hier einmal mehr, wie zutreffend Karls Jaspers charakterisiert hat, was man unter philosophischem Denken versteht: Es besteht im Hinhören auf eine aus den tiefsten Tiefen unserer Psyche kommende "Wahrheit" — eine Art archetypisches "Wissen", das in passende Worte zu fassen sehr viel Mühe erfordern kann.
     
    Letzlich hat Eckhart es nicht geschafft, dem damaligen Papst und der Inquisition klar zu machen, dass er einfach nur davon überzeugt war, dass Gottes Sein nicht vergleichbar sein könne mit dem (viel einfacheren) Sein von allem, das geworden ist oder geschaffen wurde.

     

     Beitrag 0-522
    Wie die Idee der Dreifaltigkeit Gottes mit Erkenntnissen von Naturwissenschaft korresponiert

     
     

     
    Wie die Idee der Dreifaltigkeit Gottes

    mit naturwissenschaftlicher Erkenntnis korrespondiert

     
     
    Im Sinne der Physik — wenn nicht der Naturwissenschaft überhaupt — scheint es nur 3 Dinge zu geben, die immer und überall präsent sind:
       
    • mathematische Gesetze (als immer und überall regierender Geist),
       
    • die Energie des Vakuums (als Grundstoff all dessen, was physikalisch existiert) und
       
    • Quantenfluktuation (als ein immer und überall aktiver Prozess, der tatsächlich nie aufhört, Neues zu schaffen — aber nichts, was seinem Zustand nach ewig Bestand hat).

     
    In welcher Hinsicht man

    jedem Lebewesen eine (fast) unsterbliche Seele zusprechen kann:

    einen Teil seiner selbst, der

    — wie wenig und indirekt auch immer —

    den Kosmos auf nahezu unübersehbare Zeit mitgestalten wird:

     
     
    Was man als Seele bezeichnet, ist der Teil unseres Bewusstsein, der nicht-algorithmisch denkt und insbesondere auch über sich selbst nachdenken kann. Damit ist klar: Jeder geistig gesunde Mensch hat eine Seele. Die interessante Frage, die sich stellt, ist einfach nur die Frage, ob diese Seele (unser Ich also) den Tod unseres Gehirns überlebt — und wenn ja, für wie lange.
     
    Es gibt nur wenige Wissenschaftler, die sich ernsthaft auf die Suche nach einer Antwort gemacht haben. Viele von ihnen kommen zur These: Ja, das könnte durchaus der Fall sein. Die Beobachtungen allerdings, die ihnen diese Meinung nahelegen, deuten — soweit mir bekannt — alle darauf hin, dass unser Ich — wenn es denn wirklich den Tod unseres Körpers überleben kann — sich über die Zeit hinweg verflüchtigt wie Gasgeruch in ansonsten reiner Luft (Physiker würden sagen: wie in unserem Gehirn erzeugte elektromagnetische Wellen, die langwellig genug sind um über unsere Schädeldecke hinaus ins All hinaus zu strahlen um sich dort dann irgendwann mit anderen Quanten zu vereinen — wenige davon vielleicht erst in Milliarden von Jahren).
     
    Wenn solche Photonen aufhören zu existieren, geben sie ihre Energie an andere Quanten weiter, werden sie und ihr Schicksal deswegen indirekt auf immer mit gestalten bzw. mit bestimmen.
     
     
    Note: Zur Frage, was die Seele den nun eigentlich sei, sagt selbst die Bibel kaum etwas.
     
    Soweit wir wissen,haben Sokrates und Platon (etwa 500 v.Chr.) zum ersten Mal von einer unsterblichen Seele gesprochen.
     
     


    Platon verglich unsere Seele mit den Tönen einer Gitarre:
     

    Die Töne sind Schwingungen,
     
    können aber nur entstehen, solange das Musikinstrument noch intakt ist.

     



     

     Beitrag 0-524
    Wie sich Religionen mit physikalischen Weltmodellen vergleichen

     
     

     
    Beispiele archetypischer Erfahrung

    im Sinne von Carl Gustav Jungs Tiefenpsychologie

     
     
    Unter archetypischem Wissen (kurz: Archetypen) versteht man nach Jung in unserem Unterbewusstsein — im Urgrund unserer Psyche — schlummernde Gedanken, die wahrscheinlich auf dem langen Weg der Evolution hin zu uns entstanden sind und nun immer weiter vererbt, uns gelegentlich bewusst werden, ohne dass wir in einem solchen Fall sagen könnten, woher wir dieses deutlich gefühlte, aber wenig greifbare Wissen denn nun eigentlich haben.
     
    Als das vielleicht schönste Beispiel dieser Art sehe ich die Tatsache, dass der griechische Philosoph Parmenides etwa 500 v.Chr. schreiben konnte:
     
     
    » Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen:
     
    Die Welt ist nur Meinung. «

     
     
    Es gibt inzwischen viele Beobachtungen der Wissenschaft, z.B. auch der Quantenphysik, die beweisen, dass Parmenides hiermit recht hatte. Wie aber konnte er selbst zu dieser Meinung kommen, da es all diese Beobachtungen damals ja noch gar nicht gab?
     
    Die Atomtheorie von Leukipp, präzisiert durch seinen Schüler Demokrit (auch etwa 500 v.Chr.), ist ein ähnlich merkwürdiger Fall. Durch Wissenschaft bestätigt wurde sie erst um 1900, und wie wir heute wissen, sind die damals entdeckten Atome noch keineswegs die kleinsten "Teilchen", aus denen alles aus Energie Bestehende sich zusammensetzt. Die Tatsache aber, dass es sie als nicht weiter teilbar gibt — wie wir heute wissen als QuBits — ist unbestreitbar richtig im Modell der Quantenphysik.
     
     
    Nochmals also:
     
    Woher hat unsere Psyche archetypisches Urwissen?

     
     
    Die Antwort scheint naheliegend: Es könnte sich ergeben haben als Summe unglaublich vieler kleiner, über viele Generationen hinweg gesammelter Beobachtungen, die vor allem das Unterbewusstsein der Gehirne unserer Vorfahren gemacht haben dürfte — ursprünglich sogar ohne sie in Worte fassen zukönnen.
     
    Die Mehrzahl dieser Beobachtungen dürften von sehr flüchtiger Natur gewesen sein — gut vergleichbar mit z.B. der, die jemand macht, wenn er, in einem Boot auf ruhigem Meer treibend, eigentlich an gar nichts denkend, aus den Augenwinkeln heraus irgendwo ganz kurz den Rücken eines großen Fisches auftauchen und wieder verschwinden sieht noch bevor er genauer hinsehen kann. Je häufiger ihm das passiert, desto konkreter wird die Vorstellung werden, zu der sein bewusstes, aber auch sein unterbewusstes Denken die Beobachtung extrapoliert und Sinn machend konkretisiert.
     
     
    In diesem Zusammenhang stellt sich mir die Frage, ob nicht auch die Lehre von der Dreifaltigkeit Gottes (wie christliche Kirchen sie kennen) auf eben diese Weise entstanden sein könnte aus der den Menschen irgendwie über ihre lange Entwicklungsgeschichte hinweg bewusst werdenenden Tatsache, dass es genau 3 Dinge zu geben scheint, die schon immer existieren:
       
    • die Welt,
       
    • Geist darin
       
    • und Energie, die ständiges Geschehen bewirkt (und so auch Zeit generiert).

     
    Moderne Physik würde konkreter sprechen von
       
    • mathematischen Gesetzen (als immer und überall regierender Geist),
       
    • der Energie des Vakuums (als Grundstoff all dessen, was physikalisch existiert) und
       
    • und Quantenfluktuation (als ein immer und überall aktiver Prozess, der tatsächlich nie aufhört, Neues zu schaffen — aber nichts, was seinem Zustand nach ewig Bestand hat).

    Durch religiös orientiertes Philosophieren könnte daraus geworden sein die Idee von Gottes Dreifaltigkeit:
       
    • dem Vater (als dem Schöpfer von Allem),
       
    • dem Sohn (als demjenigen, der des Vaters Willen umsetzt und verkündet) und
       
    • dem Heiligen Geist (der unser Denken leitet, uns belebt und so bewirkt, dass alles, was ist, sich fortentwickelt).

    Mir gefällt diese Idee besonders gut, da sie uns klar macht, was Religion eigentlich ist: Sie ist nicht mehr und nicht weniger als
     
     
    Eine uns die unbekannte Wirklichkeit interpretierende,
     
    durch viele von uns als hilfreich erkannte, sinngebene Ausmalung unserer Realität.

     
    |
     
    So gesehen ist jede Religion ihrem Zweck nach gut vergleichbar mit physikalischen Modellen unserer Welt: Was jene im Bereich der Naturwissenschft sind, sind Religionen im Bereich der Philosophie.
     
    Was diese beiden großen Modell-Familien (= Bilder unserer Welt) unterscheidet, ist einzig und allein die Qualität der "Farbe", aus der sie bestehen: starke Überzeugung einerseits bzw. durch logisches Schließen gewonnene Erkenntnis andererseits.
     
    Im übrigen sei erinnert an Steven Hawkings Aussage:
     
     
    Wir haben kein modell-unabhängiges Verständnis der Wirklichkeit (!).

     
     
    Und so müssen wir uns auch nicht darüber wundern, dass Gottes Existenz weder beweisbar, noch widerlegbar ist.
     
    Was aber wenn der Menscheit Wissen um ihn archetypische Qualität hat?


     

     Beitrag 0-534
    Ein pantheistisches, aber doch auch mit der Bibel verträgliches Gottesbild

     
     

     
    Ein mit Wissenschaft und Bibel verträgliches Gottesbild

     
     
    Die Autoren der Bibel legen Gott in den Mund: » Ihr sollt euch kein Bild von mir machen «.
     
    Im Religionsunterricht wird das meistens so interpretiert, dass Gott hiermit dem Volk Israel verboten habe, Götzenbilder anzubeten, d.h. Götter neben ihm zu haben und zu verehren.
     
    Nun wäre es aber ganz sicher falsch, die Aussagen der Bibel ausschließlich rein wörtlich verstehen zu wollen: Sie sind Ergebnis philosophischen Nachdenkens über Jahrhunderte hinweg und wollen somit stets auch philosophisch interpretiert und weitergedacht werden — erst indem man ständig neu über sie nachdenkt, entfalten sie ihre volle Wirkung.
     
    Was das hier genannte Beispiel betrifft, kann Gottes Aussage auch dahingehend verstanden werden, dass er seinem Volk sagen wollte:

     
    » Wenn immer ihr euch ein Bild von mir macht, wird es meiner nicht gerecht werden:
     
    Ihr könnt mich stets nur ansatzweise verstehen, niemals aber auch nur annähernd in vollem Umfang.
    «

     
    Der Astrophysiker Steven Hawking schrieb mal: " Wir haben kein modellunabhängiges Verständnis der Wirklichkeit ". Es ist dies eine nun schon mindestens 2500 Jahre alte Erkenntnis und sie impliziert insbesondere, dass unser Gottesbild immer nur durch uns selbst erdacht und erfühlt sein kann.
     
    Uns klar sein sollte, dass man Gott nur kennen kann über das Ergebnis von Religionsphilosophie, d.h. als ein Bild, das der Mensch sich von Gott zu machen versucht, wohl wissend, dass
       
    • es nie genauer sein kann als das Strichmännchen, welches ein 2-Jähriger gezeichnet hat, seinen Vater oder Bruder darzustellen,
       
    • und uns insbesondere nicht garantiert, in welch konkreter Weise der so erdachte Gott denn nun eigentlich existiert.

    Soweit wir bisher wissen, ist der Mensch das einzige Ergebnis der Evolution, welches bewusst darüber nachdenken kann, mit welcher Wahrscheinlichkeit diese oder jene seiner Meinungen denn nun eigentlich zutreffend sein kann.
     
    Wir wissen inzwischen ganz genau, dass es Aussagen gibt,
       
    • deren Wahrheitswert wir kennen und von dem wir wissen, dass er sich nie verändern kann (z.B. fehlerfrei bewiesene mathematische Wahrheiten),
       
    • andere, deren Wahrheitswert uns unbekannt, prinzipiell aber bestimmbar ist,
       
    • und drittes auch solche, deren Wahrheitswert Menschen nie werden kennen lernen.

     
    Wissenschaft zu betreiben ist immer der Versuch, den Wahrheitswert einer oder mehrerer Aussagen der zweiten dieser Kategorien kennen zu lernen (oder wenigstens logisch nachvollziehbare Argumente für oder gegen sie zu finden).
     
    Zu philosophieren bedeutet, den Urgrund unserer Psyche zu befragen, mit welcher Wahrscheinlichkeit Aussagen der dritten Kategorie richtig sein könnten. Wie Logik uns klar macht, wird das Ergebnis solcher Abschätzung von Wahrscheinlichkeit aber nur Sinn machen, sofern es kompatibel ist mit uns schon bekanntem Wissen oder Teilwissen. Eben deswegen darf selbst philosophisches und religionsphilosophisches Denken Ergebnisse der Wissenschaft auf keinen Fall ignorieren.
     
    Dies hat mit zu berücksichtigen, wer zu einem Gottesbild kommen möchte, das wert sein könnte, ernst genommen zu werden (trotz unseres Wissens darüber, dass kein einziges Gottesbild, das wir uns ausdenken können, auch nur den geringsten Beweis für die Existenz einer diesem Bilde entsprechenden Gottheit sein kann).
     
    |
     
    Dass der Erkenntnishorizont von Menschen begrenzt ist — und mit an Sicherheit grenzender Wahrscheinlichkeit auch immer begrenzt bleibem wird — kann und sollte uns nicht darin hindern, dennoch zu versuchen, ihn ständig zu erweitern. Und so will ich jetzt mal kurz zeigen, wie leicht es ist, ein Gottesbild zu finden, das in keiner Weise dem Geist der Bibel einerseits und anerkannten naturwissenschaftlichen Ergebnissen andererseits widerspricht:
     
    Wie Quantenphysik und Kosmologie uns immer deutlicher zeigen, scheint zu gelten:
     
     
    Nichts im Kosmos entsteht, um ewig zu existieren.

     
    Ewig existent scheint einzig und allein der Kosmos selbst: das Weltall, d.h. die Summe aller Welten. Sie stellt sich dem Quantenphysiker dar als ein grenzenloses Meer von Energie, die sich ständig mehr oder weniger lokal neue Form gibt, also ständig in Bewegung ist vergleichbar mit der wogenden Oberfläche eines unbegrenzt großen Ozeans. Das physikalische Vakuum – dessen Lebendigkeit Wissenschaft sich nicht erklären kann – entspricht einem solchen Ozean, wenn man sich darin das Wasser durch Energie ersetzt denkt (und die Wellen im Wasser identifiziert mit den Wellenpaketen im Potentialfeld der physikalischen Grundkräfte, die der Physiker Elementarteilchen nennt bzw. QuBits, sofern es sich um durch Fourier-Entwicklung nicht mehr zerlegbare Wellen handelt).
     
    Wie über einem wirklichen Ozean gibt es über diesem Meer von Energie aber lokal unterschiedliches "Wetter", welches mit mehr oder weniger "Luftbewegung" verbunden ist: Je stärker der Wind, desto mehr Schaumkronen zeigen sich auf dem Wasser. Was im wirklichen Ozean die Schaumkronen sind, entspricht im Weltall (welches Physiker heute das Multiversum nennen) allen dort tatsächlich aus dem Vakuum gekommenen Dingen: Elementarteilchen, Atomen, Gaswolken, Sternen, Galaxien, ganzen Welten und allem, was auch immer sonst im Zuge der Evolution so entstanden sein mag (bis hin zu denkenden Lebewesen oder gar – nicht mehr physikalisch erfassbar – ihren Gedanken und Ideen).
     
    All diesen Dingen ist gemeinsam, dass sich jeder Art von ihnen ein für diese Art typisches Alter zuordnen lässt, welches sie – im Durchschnitt gesehen – erreichen. Der Physiker nennt es ihre mittlere Zerfallszeit. Bei der Art "Mensch" sind das etwa 75 Jahre, bei gewissen Elementarteilchen nur extrem kleine Bruchteile von Sekunden, bei Sternen mittlerer Größe einige Milliarden von Jahren.
     
    Bildlich gesprochen ist wirklich alles im physischen Weltall Existierende mehr oder weniger großer Teil einer Art "Schaumkrone", die sich – je nach "Windstärke" – langsam oder auch recht schnell bilden kann, immer aber nur endlich lange existiert: Sie beginnt zu zerfallen, stirbt also mehr oder weniger schnell, sobald sie ihre höchste Position über der Meeresoberfläche erreicht hat (im Meer der Energie wäre das ihr Zustand maximaler Lageenergie). Die Materie bzw. die Energie, aus der sie besteht, vereinigt sich nach ihrem Zerfallen wieder mit dem Meer: im Ozean mit seinem Wasser, im Weltall mit dessen Vakuumenergie.
     
    Der Urknall als das Ereignis, welches der Welt um uns herum ihre erste uns bekannte Form gab, kann gut verglichen werden, mit einem urplötzlich aufkommendem "Orkan" im Vakuum: mit einem Ereignis, das – lokal, aber sehr weiträumig – eine gewaltige "Schaumkrone" schuf, die selbst heute erst wenig in sich zusammengefallen ist. So wie im Meer bei abflauendem Wind die Wellenberge an Höhe verlieren, immer flacher und ausgedehnter werden, passiert das gerade eben jetzt auch mit dem Weltraum um uns herum: Er expandiert, und in etwa 100 Mrd. Jahren werden aus der Milchstraße heraus nur noch etwa 40 Galaxien zu sehen sein (statt der vielen Milliarden von Galaxien, deren Licht uns heute noch erreicht).
     
     
    Nur das Vakuum mit seiner Lebendigkeit scheint immer präsent und nie zu sterben.
     
    |

        Physikalisch gesehen haben Schöpfungskraft nur das Vakuum und die Naturgesetze, welche Evolution zur Folge haben.
         
        Gottes Geist lässt sich gut vergleichen mit den Naturgesetzen.
         
        Und so scheinen Naturgesetz, Vakuum und Evolution dem dreifaltigen Gott der Bibel gut zu entsprechen:
           
        • Naturgesetz dem Geist,
           
        • das Vakuum dem Vater, dem nie ruhenden Schöpfer von allem,
           
        • und die Evolution dem Sohn als Begleiter und Förderer von allem, was er geschaffen hat.

     
    Im Rahmen philosophischer Überlegung — die ja stets nur Möglichkeiten mehr oder weniger klar sehen, aber nie etwas beweisen kann — scheint mir das ein nicht allzu weit hergeholter Gedanke.

     

     Beitrag 0-548
    In welcher Hinsicht fanatische Atheisten nicht weit genug denken

     
     

     
    Über Atheismus sowie echte und nur vermeintliche Philosophie

     
    Wie man einsehen kann, dass

    Atheisten nicht weit genug denken

     
     
    Wenn es überhaupt ein "Vor dem Urknall" gab (was anderes scheint mir unvorstellbar zu sein), haben da ganz gewiss eben dieselben mathematischen Gesetze gegolten wie heute.
     
    Aus Sicht der Physik (die ja vom Energie-Erhaltungssatz ausgeht) muss es zudem noch vor dem Urknall ebenso viel Energie gegeben hat, wie heute. Sie kann höchstens anders verteilt vorgelegen haben.
     
    Nimmt man zudem noch ernst, was Quantenphysik uns über die Natur aller Strahlung und Materie sagt — dass nämlich beides letztlich nur sich ständig neu verteilende Energie darstellt, die gegeben ist als Summe harmonischer Wellen im Feld der physikalischen Kräfte —, so ergibt sich zwangsläufig das auf Seite » Wie Quanten­feld­theorie und das Multiversum erklärt « grob skizierte Modell des Weltalls, so weit dieses überhaupt durch Physik beschrieben und mittels physikalischer Instrumente beobachtbar sein kann.
     
    Das einzige, was dieses Modell uns NICHT erklären kann, scheint die Frage zu sein, wie es ständig neu im Vakuum zu Ereignissen kommen kann (genannt Quantenfluktuation), die bewirken, dass das Meer aller Energie nie zur Ruhe kommt.
     
    Immerhin ist die Frage, wie unsere Welt aus den Nichts entstehen konnte, damit aber schon plausibel reduzierbar auf die Frage: Wie kommt es zur Lebendigkeit des Vakuums? Aus Sicht der Physik ist eben sie — gemeinsam mit zeitlos gültigen mathematischen Gesetzen — immerwährender Schöpfer und Gestalter unserer Welt.
     
    |
     
    Hinweis: An die immerwährende Gültigkeit des Energie-Erhaltungssatzes zu glauben, ist nicht weniger fragwürdig, als an die Existenz eines ewig existierenden Schöpfergottes zu glauben.
     
    Frage: Ist der Begriff » lebendiger Gott « nicht vielleicht nur ein anderes Wort für » das Vakuum mit seiner immerwährenden Lebendigkeit und Schöpfungskraft «?
     
    |
     
    Ganz so, wie in einem menschlichen Körper — der aus Sicht der Physik nur aus Materie besteht — tatsächlich Geist wohnen kann, könnte doch gut im Vakuum ein Schöpfergott wohnen (als Geist und Persönlichkeit des Vakuums). So etwas anzunehmen erscheint mir nicht unwahrscheinlicher als anzunehmen, dass in Materie Geist wohnt (was ja offensichtlich der Fall ist, wenn wir an unser eigenes Ich denken, das an unseren Körper gebunden zu sein scheint).
     
    |
    |
     
    Was Diskussion des Gottesbegriffs betrifft, so gilt (in meinen Augen):
     
    Jeder, der den Begriff "Gott" in den Mund nimmt spricht (wenn es um keine Metadiskussion geht, wie etwa die hier) in einer der folgenden 3 Rollen:
       
    • als Agnostiker: Grundposition: "Mein Gottesbild ist leer, da ich an keinen Gott glaube."
       
    • als Theist: Grundposition: "Gott könnte ich mir vorstellen als ..."
       
    • als Atheist: Grundposition: "Ich kenne die Gottesbilder anderer und finde sie lächerlich, da klar ist, dass es keinen solchen Gott geben kann".

    Rollen wie "Missionar" oder "Religionsfanatiker" sind krankhafte, intolerante Ausprägungen von Theist bzw. Atheist (mit dem Ziel, anderen die eigene Meinung aufzudrängen).
       
    • Atheisten kann ich als logisch denkender Mensch nicht wirklich ernst nehmen, da ja niemand das Gottesbild anderer im Detail kennen kann und so ja auch jeder Atheist stets nur über ein Gottesbild spricht, das letztlich er selbst anderen unterstellt.
       
      Das liegt vor allem daran, dass sämtliche ernst zu nehmenden religiösen Schriften — insbesondere die Bibel — ja nur in Gleichnissen sprechen.

    Was Agnostiker und Theisten sagen, muss man einordnen als Ergebnis philosophischen Denkens, d.h. als persönliche, mehr oder weniger feste Überzeugung, die sich aber auch nicht ansatzweise beweisen lässt in dem Sinne, dass sich ihr ein Wahrheitswert TRUE oder FALSE zuordnen ließe.
     
    |
     
    Kurz: Religionsphilosophie ist Spekulation über etwas, das weit hinter dem Erkenntnishorizont allen (nur) logischen Denkens angesiedelt ist. Dennoch sollte natürlich all unser uns bewusstes Denken logische Qualität haben, d.h. auf keinen Fall widersprüchlich sein.
       
    • Unlogisch wäre z.B. die Behauptung, man könne die Existenz eines Gottes im Sinne der Bibel widerlegen — wie ja z.B. der fanatische Atheist Richard Dawkins es als selbstverständlich hinstellt, obgleich man es als Wissenschaftler doch wirklich besser wissen sollte.

    Richtig ist nur: Ob ein bewusst agierender Gott existiert, ist durch wissenschaftliche Logik unentscheidbar – schon alleine deswegen, da man als Mensch die Wirklichkeit ja überhaupt nicht kennt (sondern nur modellhafte Vorstellungen davon hat, wie Wirklichkeit sein könnte angesichts der Wirkung, welche sie auf uns oder physikalische Messgeräte hat).
     
    Keineswegs unlogisch aber ist es, nur Gefühltes, d.h. aus dem Urgrund unserer Psyche ( meist wie Nebel, hin und wieder aber auch blitzartig ) emporsteigende Überzeugung beim Denken und Entscheiden mit zu berücksichtigen – aber natürlich immer nur in dieser Rolle. Der Versuch, solchen Nebel oder Blitz innerer fester Überzeugung in Worte zu fassen, ist das, was Jaspers ein Denken philosophischer Qualität nannte. Erst seitdem ich das von ihm erklärt bekam, ergibt Philosophie für mich Sinn ( und kann ich nun klar Philosophie unterscheiden von einfach nur lautstark vorgetragener persönlicher Meinung des Sprechenden — mag er sich dabei nun selbst als Philosoph sehen oder auch nicht ).
     
    Wenn z.B. Markus Gabriel behauptet » Falsch: Alle Philosophien der letzten 2500 Jahre! «, so zeigt das nur, dass er noch gar nicht verstanden hat, von welcher Qualität philosophische Denkergebnisse sind. Zudem weiß er noch nicht: Garantiert falsch kann nur sein, was mittels unfehlbarer Logik widerlegbar ist.
     
    Philosophische (auch religionsphilosophische) Denkergebnisse können stets nur persönliche Überzeugung zum Gegenstand haben.
     
    Dennoch sind sie nur wertlos, soweit sie klar widersprüchlich sind. Denn: Ob der Erkenntnishorizont innerer Überzeugung (etwa der großer Religionsphilosophen) den unfehlbarer Logik übersteigt, wird durch Menschen nie zu klären sein.

     

      Beitrag 2075-297
    Nicht jede Diskussion über Gott macht Sinn

     
     
    Horst in 2075-291:
     
    In unserer Selbstüberheblichkeit und Narzissmus habe wir damit diesem Unikat – obwohl wir angeblich nichts von ihm wissen – gleich mal unsere menschlichen Eigenschaften angedichtet, das ist schon absurd hoch drei.


    Ja Horst, das ist sicher richtig,
    und deswegen bin ich der Meinung:

    Wer ernsthaft über Gott diskutieren möchte, der sollte sich erst mal genau überlegen (und dann anderen auch sagen),

    wie er den Begriff » Gott « im Sinne der jeweils geführten Diskussion denn eigentlich definiert sieht:


    Ich bin sicher, dass wir alle dann sehr oft mit Überzeugung antworten könnten:

    "Ja, wenn du unter Gott  d a s  verstehtst, stimme ich dir zu: So ein Gott macht keinen Sinn."



    Natürlich gibt es in jeder Gesellschaft eine  D e f a u l t - D e f i n i t i o n  für Gott, und die könnte ihren Schwerpunkt haben
    • in der Schöpfungsgeschichte (aus der Bibel)
    • und/oder in Aussagen des Neuen Testaments, mit denen man in den ersten Jahren seiner Schulzeit konfrontiert wurde.

    Beides aber ist heute viel zu wenig, um sagen zu können, ob zwei Menschen, die miteinander über Gott sprechen, auch tatsächlich eine und dieselbe Vorstellung von ihm haben. Insofern sehe ich jede flüchtige (oder gar nur implizite) Berufung auf die  D e f a u l t - D e f i n i t i o n  immer nur als den Versuch, anderen das eigene, viel zu naive Gottesbild unterstellen zu wollen.

    Wer nicht präziser werden kann, als sich auf die Default-Definition zu berufen, hat über Gott wohl noch gar nicht so genau nachgedacht, dass es Sinn machen würde, mit ihm über Gott zu diskutieren. Man kann so jemand – dieses Thema betreffend – dann also kaum ernst nehmen.



    Horst in 2075-291:
     
    Noch nebenbei gefragt, hast du denn die Bibel schon mal gelesen und anschließend Gott besser verstanden?


    Ich bin weit davon entfernt, ein Theologe zu sein, oder auch nur jemand, der sich nach seiner Schulzeit viel mit Bibelstellen auseinandergesetzt hat.

    Dennoch würde ich sagen: Ja, ich kenne schon einige Gleichnisse aus dem Neuen Testament, die ich verglichen mit dem, was ich im Leben so beobachtet habe, als recht treffend und durchaus erhellend empfinde. Nicht zuletzt kenne ich auch die Aussagen des Alten Testaments recht gut, da dieses Buch eines von zweien war, die mich schon im Alter von 7 oder 8 Jahren wirklich interessiert haben. (Es handelte sich da um eine durch zahlreiche Bilder illustrierte Ausgabe in gotischer Schrift, die Mitte des 19. Jahrhunderts gedruckt worden war. Darin zu schmökern, fand ich sehr spannend, und es gibt sicher keine Seite, die ich damals nicht mehrfach gelesen habe.)

    Heute bin ich vor allem froh, irgendwann mal Mathematik studiert zu haben: Wie extrem gut die Mathematik geeignet ist, gerade auch Unendliches zu modellieren und zu verstehen, und wie ungemein eindrucksvolle Beispiele die Physik parat hat, Unendlichem hautnah zu begegnen, wird mir erst jetzt zunehmend bewusst.

    Gott — nach meiner Vorstellung — und das Unendliche, scheinen Dinge zu sein, die sich nicht trennen lassen.


    Ich sehe keinerlei Widerspruch zwischen naturwissenschaftlicher Erkenntnis einerseits sowie den Aussagen der Bibel andererseits. Ganz im Gegenteil: Beides macht mir das jeweils andere plausibler.


    Ganz konkret würde ich mir wünschen, dass jeder, der über Gott oder die Bibel spricht, auch die Philosophie von Hans-Peter Dürr kennt und zu diskutieren bereit ist.

    Wie Dürr die Welt sieht, scheint mir am ehesten geeignet, religiöse Grundansichten vergangener Jahrhunderte nun endlich im Lichte der Erkenntnisse moderner Wissen­schaften neu interpretieren und so auch wirklich  f o r t d e n k e n  zu können — und das  o h n e  dass man dabei gleich das Kind mit dem Bade ausschüttet (sprich: einen Schlusspunkt setzt) und damit aufgibt, verstehen zu wollen, was man zwar nie  v o l l  verstehen wird, aber ganz sicher immer  b e s s e r  verstehen  k a n n .

    Das Wort der Schöpfungsgeschichte

    » Geht hin und macht euch die Welt untertan «

    bedeutet schlicht und einfach:

    Geht hin und sucht zu verstehen — genau deswegen ist euch doch Verstand gegeben!


     

      Beitrag 2075-302
    -

     
     
    Hans-m in 2075-299:
    Bereits an anderer Stelle erwähnte ich, dass ich nicht von Gott sondern von einem Schöpfer spreche.

    Der Begriff Gott unter religiöser Betrachtung, bedeutet, dass dort "jemand" ist, der unser Universum erschaffen hat, und der Mensch soll die vermeintliche Krone der Schöpfung sein.

    Die Juden sehen sich — unter Berufung auf Aussagen des Alten Testaments — als das "auserwählte" Volk.
    Schon im Neuen Testament aber liest man, dass Menschen anderer Völker vor Gott ebenso viel wert sind.

    Es könnte also schon sein, dass die Menschen unserer Erde sich zu unrecht als die "einzigen Menschen" sehen — es reicht wohl einfach nur unsere Phantasie nicht weit genug, sich vorzustellen, dass es weit draußen im Universum Wesen geben könnte, die Gott ebenfalls als Menschen sieht, die in seinen Augen Ebenbild seiner selbst sind, obgleich wir, wenn wir sie je träfen, sie auch nicht annähernd als uns ähnlich einstufen würden.

    So wie ich das sehe, haben wir uns den Titel "die Krone der Schöpfung" einfach selbst zuerkannt.
    Denn was z.B. wären dann die in der Bibel erwähnten Erzengel, die Gott ja auch geschaffen haben soll (und zwar mit Eigenschaften, die den Juden oder mir auf keinen Fall gegeben sind)?


    Hans-m in 2075-299:
     
    Was daran verwundert ist die Tatsache dass Gott ein Universum erschaffen hat, dass eine Grösse von ca 14 Mrd Lichtjahren hat.
    Darin platziert er eine Blaue Kugel, von gerade mal ca 12.700 km Durchmesser auf die er sein Schöpfungsmeisterwerk mit einer durchschnittlichen Höhe von 180 cm setzt.

    Da kann man nur sagen: eine gigantische Platzverschwendung, dass der überwiegende Teil des Universums für sein Schöpfungsmeisterwerk unerreichbar ist.
    Das ist so, als würde ich einen ganzen Acker pachten, um in einer Ecke ein paar Gänseblümchen zu züchten.

    Was macht Dich so sicher, dass das menschliche Geschlecht auf der Erde seine Entwicklung schon abgeschlossen hat. Könnte es nicht auch sein, dass es derzeit eher einer befruchteten Samenzelle vergleichbar ist, die irgendwann ein dann erst "denkendes", Nachkommen zeugendes, Gott besser verstehendes Wesen werden wird?

    Und wer sagt uns, dass sich nicht erst diese Form unser selbst über das ganze Universum ausbreiten könnte?


    Hans-m in 2075-299:
     
     Unter einem Schöpfer vestehe ich jemand, der das ganze Universum, mit all den Naturgesetzen erschaffen hat, und dem "Experiment" seinen Lauf lässt.

    Woher aber wollen wir wissen, in welchem Stadium sich dieses Experiment derzeit befindet?
    Können wir denn wirklich davon ausgehen, dass es schon weit fortgeschritten ist?
    Oder könnte das bisher Geschehene nicht auch erst winzig kleiner Anfang von allem sein, das noch kommen wird?


    Hans-m in 2075-299:
     
    Aber wie sollte der Schöpfer eine Stecknadel namens Erde in dem Heuhaufen Universum überhaupt im Auge behalten?

    Diese Frage für den Gott zu stellen, der mir vorschwebt, finde mehr als nur naiv. Ich rechne eher damit, dass all seine Eigenschaften sich nicht mit endlichen Maßstäben messen lassen (das ist  e i n  Grund, warum ich es so schätze, dass die Mathematik mich gelehrt hat zu verstehen, was man sich unter "unendlich groß", "unendlich klein", "unendlich viel" und anderen Unendlichkeiten so alles vorstellen kann).


    Hans-m in 2075-299:
     
    Und wenn dem Schöpfer wirklich was am Menschen liegt, so tut er wirklich wenig, um ihn vor Schicksalsschlägen wie Erdbeben, Vulkanen, Tsunamis etc zu bewahren.

    Auch das sehen wir möglicherweise nur deswegen so, weil wir ihn mit allzu menschlichen Maßstäben zu verstehen suchen (so etwa wie ein Kind, das eben gehen lernt, hinfällt, und sofort zu heulen beginnt).



    Was ich insgesamt klar gemacht haben möchte, ist:
      Wer den Gott der Bibel besser verstehen möchte als der Mensch es derzeit tut, der scheint mir gut beraten, dort zu beginnen, wo es um Unendlichkeiten geht und dort, wo unsere Phantasie zu versagen beginnt. Unsere eigene Geschichte macht uns ja recht deutlich, wie schwierig und mühevoll es sein kann, diesen Horizont selbst über Generationen hinweg auch nur ein klein wenig zu vergrößeren.

    Über was ich mich wundere, ist:
      Warum kommt kaum jemand — ohne dass man ihn explizit darauf aufmerksam macht — auf den Gedanken, dass alles, was wir Erdenmenschen bisher erkannt und eingesehen haben, erst winzig kleiner Anfang einer unendlich umfangreichen Wahrheit sein könnte? Einer Wahrheit vor allem, die in endlicher Zeit gar nicht ent­hüllbar ist. Zeugt das nicht von einem ganz bestürzenden Mangel an Phantasie (und Logik) unsererseits?

     

      Beitrag 2075-305
    -

     
     
    Horst in 2075-303:
     
    Die Bibel macht die Aussage, Gott habe den Menschen aus einem Erdenklos geschaffen. Darin siehst du keinen Widerspruch zu wissenschaftlichen Erkenntnissen?

    Die Bibel macht die Aussage: "Und Gott sprach, es werde Licht". Dann war die Erde eher da als die Sonne, Darin siehst du auch keinen wissenschaftlichen Widerspruch?


    Nein, Horst,

    darin sehe ich keinen Widerspruch, da ich die Bibel als eine durch uns zu interpretierende Aussage verstehe und nicht verwechsle mit dem sprachlichen Bild oder dem Gleichnis, über das die Leute, die die Bibel als erste niederschrieben, solche Wahrheiten mitzuteilen versuchten.

    Mit anderen Worten: Für mich ist wesentlich, dass die Aussagen der Bibel im Lichte heutiger Erkenntnis interpretierbar sind.

    Ob z.B. das "Es werde Licht" den Urknall hervorrief oder irgend was noch viel Fundamentaleres, ist mir nicht wichtig, da ich überzeugt davon bin, dass es sich auch bei diesem Satz nur um einen bildlich gemeinten, in jeder Zeit anders interpretieren Ausdruck handelt: Wem der Urknall noch kein Begriff war, muss darunter ja zwangsläufig was anderes verstanden haben, z.B. ein erstmaliges Aufgehen der Sonne.

    Noch ein Beispiel: Die moderne Physik (Quantentheorie) sagt uns, dass alles, was in unserem Universum als Ding existiert, letztlich nur Wellenpaket ist, also vergleichbar mit einer Schaumkrone im Meer, die aus sich zusammenballendem Wasser hervorgeht, kurz existiert, und dann wieder zu einem nicht mehr einzeln existierenden Teil des Meeres wird.

    Und so interpretiere ich heute z.B. die Aussage der Bibel "Aus Staub bist du geboren, und zu Staub wirst du wieder werden" als kompatibel mit meiner Einsicht, dass jeder von uns als Wellenpaket aus einem Meer von Wellen entsteht, die Kraftpotentiale darstellen, sich als dieses Wellenpaket mehr oder weniger schnell wandelt und einige Jahrzente später wieder zusammenbrechen und komplett aufgehen wird in diesem Meer unter Aufgabe seiner Identität.

     

      Beitrag 2075-290
    -

     
     
    Horst in 2075-280:
     
    die Art deiner Argumentation läßt bei mir den Verdacht aufkommen, dass du "Zeuge Jehovas" bist.

    Diese Leute kommen immer mal zu mir zum diskutieren und legen die Bibel fast identisch so aus wie du. Sie erfinden für alle offensichtlichen göttlichen Fehlleistungen immer eine mehr oder weniger überzeugende Ausreden.


    Hallo Horst,

    mir scheint das allzu simpel gedacht und geurteilt, denn:

    Wo wir uns bewusst machen, wie unvollkommen der Mensch in all seinen Fähigkeiten ist, muss uns doch eigentlich klar werden, dass  er überhaupt nicht in der Lage sein  k a n n , den Willen und die Absichten Gottes genau zu verstehen oder gar noch anderen verlust- und fälschungsfrei mitzuteilen.

    Auch die Bibel ist nur ein (zeitbezogener und unvollkommener)  V e r s u c h  , solche Mitteilung zu erreichen.

    Sie fortzudenken im Bemühen, Gott besser zu verstehen — das sollte man als der Christen vornehmste Aufgabe sehen.

    Die meisten offiziellen Vertreter der Kirche(n) sehen das auch wirklich so, sind aber leider viel zu wenig in der Lage, über ihren eigenen, ganz begrenzten Verständnis­horizont hinauszudenken oder ihn wenigstens einzusehen und zuzugeben. Hier, so denke ich, liegt das eigentliche Problem, und es ist ganz eindeutig wieder mal eines, das der Unvollkommenheit menschlichen Wesens entspringt.

    Gruß, grtgrt

     

      Beitrag 2075-88
    Versuche, Gott zu definieren, müssen scheitern,  s i n d  aber hilfreich

     
     
    U...2 in 2075-85:
     
    warum kann denn Gott nur etwas sein, dem ein Wille innewohnt?

    Kann man Gott den nichts als einem Prozess begreifen, der letztlich auch einen Willen hervorbringt.
    Und da dieser Prozess ja noch nicht abgeschlossen ist, letztlich ein höheres Bewusstsein. Also ein Bewusstsein, das einen Sinn erkennt?
     


    Zunächst mal, U...2, hast Du völlig recht:
      Wir wissen nicht, was Gott ist, also können wir nur versuchen, den Begriff zu definieren (auch wenn die Bibel uns sagt, dass, was immer wir uns da ausdenken können, im Vergleich zum wirklichen Gott nur Götze oder schwacher Abglanz sein wird).
      Wer definiert, ist frei, die Definition so zu wählen, wie ihm sinnvoll erscheint. Rein theoretisch könnten wir Gott also auch als etwas sehen, dem  k e i n  Wille zukommt. Unsere Definition stünde dann aber in Widerspruch zur Vorstellung fast aller Menschen, so dass wir sie dann schon der Klarheit wegen besser nicht dem Wort "Gott" zuordnen sollten.

    Entscheidend aber ist: Wer einen Willen hat, ist freier als jemand, der keinen hat. Etwas ohne Willen kann deswegen nur Mechanismus sein. Ich sehe keinen Sinn darin, etwas, das nur Mechanismus ist, als Gott einzustufen. Im Umkehrschluss ergibt sich:

    Gott muss mehr Freiheiten und Fähigkeiten haben, als alles, was neben ihm existiert.


    NEBENBEI: Über etwas nachzudenken, das man bestenfalls erahnen, aber nicht nachweisen kann, ist mit Sicherheit nur möglich, indem man sich Modelle schafft, die besser und besser approximieren, was man schon verstanden zu haben glaubt. Die Freiheit, Gott zu definieren, wie man möchte, besteht dann aber natürlich  n i c h t  mehr. Schließlich muss unsere Definition extrapolieren, was wir am ehesten als zutreffend erachten.

    Zu wirklicher Erkenntnis kann wohl nur führen, die Argumente dafür, wie dieser oder jener Gott zu definieren geneigt ist, miteinander zu vergleichen in der Hoffnung, dass sich so eine immer größer werdende Konvergenz ergibt von dem, was wir uns unter Gott vorstellen hin zu dem, was Gott tatsächlich ist.

    Umso bedauerlicher ist es, dass nur wenige solche Definitionsversuche tatsächlich wagen (oder der Mühe wert finden).

    Gruß, grtgrt
     

      Beitrag 2075-109
    -

     
     
    Hans-m in 2075-101:
     
    Gott ist eine Sache des Glaubens und wird nie eine Sache des Wissens werden. Es sei denn, dass er uns irgend wann seine Existenz preisgeben möchte, und uns entsprechende Beweise liefert.

    Aber bis dahin heist es: glauben oder nicht glauben.


    Was zu wissen von zu glauben unterscheidet, ist sicher:
    • Wer etwas weiß, kann es abhaken.
    • Wo man nur glauben kann, muss man ständig versuchen, jenen Glauben zu hinterfragen und weiterzudenken im Sinne von: Verstehe ich denn auch wirklich richtig, was ich glaube zu verstehen (und was ich deswegen glaube)?

     

      Beitrag 2075-7
    Versuch einer Gottesdefinition

     
     
    Emmins in 2075-4:
     
    Im Kontext religiösen Glaubens (gleich welcher Religion), können Götter (einer oder doch auch mehrere, oder?) als kontextspezifische Konstruktion vorkommen, in anderen sozialen Kontexten aber nicht, nicht in der modernen Wissenschaft, auch nicht in Politik, Wirtschaft, Recht, Sport, Kunst usw.
     


    U...2 hat sicherlich recht, wenn er sagt, man müsse den Terminus Gott erst mal definieren:

    Wie sonst sollte Sinn machen können, was man versucht darüber zu sagen?



    Es macht z.B. einen großen Unterschied, ob man Gott als einzigartig sieht, oder stattdessen auch mehrere "Götter" in Erwägung zieht:
    • Im zweiten Fall sind jene einfach nur Wesen, denen man besondere (auch übernatürliche) Fähigkeiten zuschreibt.
    • Im ersten Fall aber wäre Gott  e i n  Wesen, dem wirklich  a l l e  diese Fähigkeiten zugeschrieben werden.

    Über die Fähigkeitem zueinander konkurrierender "Götter" zu diskutieren macht sicher ebenso viel oder wenig Sinn, wie z.B. über die Fähigkeiten verschiedener "Götter in Weiß" — aller Ärtze also — zu diskutieren. Es gibt unter ihnen kompetente ebenso wie nicht kompetente!

    Daher folgender Versuch einer Gottesdefinition:


    Unter Gott — dem einzigen, Allmächtigen, dem Schöpfer des Kosmos — verstehe man eine Instanz,

    die als  e i n z i g e  jede Fähigkeit, die wir uns ausdenken können, auch tatsächlich hat

    z.B. die Fähigkeit, zu bewirken, dass Kosmos entsteht, nicht vergeht (Energieerhaltung), sich aber dennoch ständig wandelt.




    Akzeptiert man diese Definition, so folgt: Sollte es mehr als nur eine Instanz geben, die jede Fähigkeit, die wir uns ausdenken können, auch tatsächlich hat, so wäre Gott die Menge  a l l  dieser Instanzen, und  k e i n e  von ihnen wäre Gott. In dem Fall könnte man Gott nicht als Person sehen.
     

      Beitrag 2075-313
    Gott als etwas, das mindestens unendlich sein muss

     
     

    Wie sich endliche Dinge von unendlichen unterscheiden

    Man könnte sagen:
    • Ein Ding D heißt endlich, wenn es eine ganze Zahl N gibt, derart dass man D in nicht mehr als N unzerlegbare Dinge oder Eigenschaften gegliedert sehen kann.
    • Dinge, die nicht endlich sind, nennt man unendlich.

    Daraus folgt:

    Ganz prinzipiell kann der Mensch nur endliche Dinge wirklich vollständig kennen.

    Es macht daher Sinn, Gott als eine Instanz zu sehen, die — anders als wir — auch noch alle unendlichen Dinge vollständig kennt (und selbst nicht endlich ist).

     

      Beitrag 2075-1
    Wie einige Philosopen dachten, Gottes Existenz beweisen zu können

     
     
    Ich persönlich halte gar nichts von Gottesbeweisen.

    Wenn Gott nämlich von der Qualität sein sollte, wie ich ihn mir vorstelle, wäre es geradezu lächerlich zu glauben, seine Existenz sei entscheidbar mit so trivialer Logik wie wir — selbst als Mathematiker oder gar als auf dem Gebiet der Logik forschende Wissenschaftler — sie benutzen.

    Wer dennoch gern wüsste, wie Menschen bislang versucht haben, die Existenz Gottes zu beweisen, könnte daran interessiert sein, das folgende Papier zu lesen: Gottesbeweise - Logik auf Abwegen (Aufzeichnung eines Informatik-Seminars aus 2004).

     

      Beitrag 2075-10
    -

     
     
    Bernhard Kletzenbauer in 2075-8:
     
    Wenn er jede Fähigkeit und Allmacht hat, kann er dann auch einen Stein erschaffen, der so schwer ist, daß nicht mal er ihn anheben kann?


    Diese Frage enthält den Versuch, etwas zu definieren, was es nicht geben kann, und ist deswegen unter logischen Gesichtspunkten  n i c h t   w o h l d e f i n i e r t :

    Der Satz ist demnach nur aus rein syntaktischer Sicht Frage.

    Genauer argumentiert: "Ein Stein, den Gott nicht anheben kann" ist — unsere Definition von Gott unterstellt — ein Widerspruch in sich — man unterstellt hier, dass ein logisches Gleichungssystem, welche  k e i n e  Lösung hat, doch eine hat (vgl. Denkfehler).


     

      Beitrag 2075-12
    Gott und die zu kurz greifende Logik der Menschen (und des Versuchers)

     
     
    Horst in 2075-11:
     
    Oder Gott erkundigt sich bei Grtgrt, wo es solche Steine gibt !!


    Hallo Horst,

    wie mein letztes Argument in Beitrag 2075-10 zeigt, kann menschliche Logik — selbst die der Mathematiker — nur feststellen, dass es solche Steine noch nicht mal als wohldefinierten gedanklichen Begriff geben kann.

    Theologen wird Bernhards Versuch, Gott daran prüfen zu wollen, vorkommen wie die erste der 3 Versuchungen Jesu ( durch den Teufel ), von denen die Bibel im Neuen Testament spricht.

    Gruß, grtgrt
     

      Beitrag 2075-16
    Verbesserter Versuch einer Gottesdefinition

     
     
    Bernhard Kletzenbauer in 2075-8:
    Grtgrt in 2075-7:
     
     
    Unter Gott — dem einzigen, Allmächtigen, dem Schöpfer des Kosmos — verstehe man eine Instanz,

    die als  e i n z i g e  jede Fähigkeit, die wir uns ausdenken können, auch tatsächlich hat

    z.B. die Fähigkeit, zu bewirken, dass Kosmos entsteht, nicht vergeht (Energieerhaltung), sich aber dennoch ständig wandelt.

     

    Wenn er jede Fähigkeit und Allmacht hat, kann er dann auch einen Stein erschaffen, der so schwer ist, daß nicht mal er ihn anheben kann?


    Da man Gott nicht für einfältig halten sollte (und nicht davon abhängig machen, wie Menschen denken), hätte ich wohl besser so formuliert:


    Unter Gott — dem einzigen, Allmächtigen, dem Schöpfer des Kosmos — verstehe man eine Instanz,

    die als  e i n z i g e  alles erreicht, was sie gewillt ist zu erreichen

    z.B. dass Kosmos entsteht, nicht vergeht (Energieerhaltung), sich aber dennoch ständig wandelt.


     

      Beitrag 2075-23
    -

     
     
    Emmins in 2075-21:
     
    Mir kommt es insofern ein bisschen paradox vor, wenn Naturwissenschaftler (...) mit ihren hauseigenen Mitteln, die eben die Mittel der Erfahrungswelt sind, versuchen, Gott zu bestimmen (welche/n auch immer), obwohl es gerade um "das Andere" (das grundlegend aus der naturwissenschaftlichen Erfahrungswelt ausgeschlossene) geht.

    Kurzum: Irgendwas stimmt hier nicht: Entweder lässt sich die Frage nach Gott naturwissenschaftlich grundsätzlich NICHT klären (weil die Methodologien der Erfahrung dazu nicht geeignet sind) oder die Naturwissenschaft muss konzedieren, dass sie mit ihrer Methodologie dort bricht, wo sie "Gott" einsetzt, um ihre eigenen Erklärungsgrenzen zu reflektieren (seien sie nun nur vorläufig oder eben prinzipiell).
     


    Dem stimme ich voll zu,

    und genau deswegen finde ich "Beweise" für Gottes Existenz oder Nicht-Existenz einfach nur naiv — extrem naiv.

     

      Beitrag 2075-26
    Wo Steven Hawking nicht mehr ehrlich genug argumentiert

     
     
    Bauhof in 2075-24:
     
    Mir ist bisher ... kein Physiker bekannt, der mit "hauseigenen Mitteln" versucht, dass zu bestimmen, was man üblicherweise "Gott" nennt.

    Falls das ein Physiker doch (öffentlich) tun sollte, hat er seine Reputation als Physiker verloren. Und das ist auch gut so.
     


    Mir ist schon so ein Physiker bekannt: Steven Hawking.

    Er versucht zwar nicht, Gott zu bestimmen, wohl aber behauptet er öffentlich, dass die "spontane Schöpfung" unserer Welt ohne Gottes Eingriff möglich war.

    Als Wissenschaftler sollte er wissen, dass ein wissenschaftlicher Beweis hierfür unmöglich ist.

     

      Beitrag 2075-33
    -

     
     
    Bernhard Kletzenbauer in 2075-32:
    Bauhof in 2075-29:
     
    Der Mensch schuf Gott nach seinem Bilde.

    Weiß ich.
    Aber kaum jemand glaubt es.
     


    Zu Recht, denn wirklich wahr ist:

    Der Mensch schuf sich — so gut er eben konnte —  V o r s t e l l u n g e n  von Gott.

    Und die, das muss man zugeben, sind häufig wirr und nicht selten durch Engstirnigkeit und Phantasielosigkeit geprägt.

     

      Beitrag 2075-36
    -

     
    Stueps in 2075-35:
    Quante in 2075-3:
    ... die Existenz EINES Gottes ist einzig und ganz allein an den Glauben gebunden. Von daher ist er , lediglich im Glauben, existent.

    Quante, so sehr, wie ich deine Meinung schätze und akzeptiere! Die dreiste Behauptung allein ist mir persönlich zu wenig.

    Hallo Stueps,

    die Existenz oder die Nichtexistenz eines Gottes ist allein Glaubenssache. Warum?
    Weil die Existenz oder die Nichtexistenz eines Gottes prinzipiell weder bewiesen noch widerlegt werden kann.
    Aber es steht jedem frei, daran zu glauben oder nicht daran zu glauben.

    Allerdings sollte den religiösen Fanatikern auf der ganzen Welt, die anderen ihren Glauben aufzwingen wollen, mit allen Mitteln ein Riegel vorgeschoben werden.

    M.f.G. Eugen Bauhof
     

      Beitrag 2075-38
    -

     
    Hallo Eugen,

    Bauhof in 2075-36:
    Hallo Stueps,

    die Existenz oder die Nichtexistenz eines Gottes ist allein Glaubenssache. Warum?
    Weil die Existenz oder die Nichtexistenz eines Gottes prinzipiell weder bewiesen noch widerlegt werden kann.

    Vollkommen richtig. Dies gilt in letzter Konsequenz jedoch für alles. Die unabhängige Existenz eines Gottes von unserem Glauben kann eben nicht logisch zwingend ausgeschlossen werden. Deshalb halte ich die Aussage, dass Gott nur in unserem Glauben existieren kann, für logisch falsch.

    Bauhof in 2075-36:
    Allerdings sollte den religiösen Fanatikern auf der ganzen Welt, die anderen ihren Glauben aufzwingen wollen, mit allen Mitteln ein Riegel vorgeschoben werden.

    Ja! Unbedingt sogar!

    Grüße
     

      Beitrag 2075-39
    Wie sinnvoll ist der pantheistische Standpunkt?

     
     
    Henry in 2075-37:
     
    Es gibt eine Vorstellung, dass Gott der Welt immanent ist, im Pantheismus nämlich,
    und nicht zu vergessen in der Vorstellung vieler Völker, die die Natur als (göttlich) belebt ansehen.


    Dürr (auf Seite 12 seines Buches "Es gibt keine Materie") findet solchen Standpunkt gut nachvollziehbar:

    Zitat von Hans-Peter Dürr (2012):
     
    Nachdem ich festgestellt hatte, dass die Schöpfung selber kreative Eigenschaften hat, war es für mich stets einleuchtend, dass es wenig Sinn macht, einen Gott aus der Schöpfung herauszunehmen und ihn dieser gleichsam gegenüberzustellen.

    Wenn man Gott und Schöpfung identifiziert, dann entgeht man vielen Problemen, welche der modernen Physik immer wieder Schwierigkeiten bereitet haben.
     

     

      Beitrag 2075-72
    -

     
     
    U...2 in 2075-58:
    Henry in 2075-37:
     
    "Gott" ist per definitionem mit übernatürlichen Fähigkeiten ausgestattet.

    Dem kann ich nicht zustimmen. Du hast doch selbst den Pantheismus erwähnt. Gott = Alles. Da ist nichts mit übernatürlichen Fähigkeiten.

    Henry in 2075-65:
     
    Dem widerspreche ich. Pantheismus behauptet die Anwesenheit Gottes in allem, was die Natur ausmacht, richtig, aber es spricht nichts dagegen, ihn auch darüber hinaus zu behaupten, die Natur eben nicht für "alles" zu halten.


    An U...2 und Henry:

    Es wäre interessant, ob ihr beide auch dann noch unterschiedlicher Meinung wäret, wenn ihr euch vorher auf eine gemeinsame Definition der Begriffe Natur, Pantheismus und übernatürliche Fähigkeit geeinigt hättet.


    Zitat von Wikipedia:
     
    Pantheismus (von altgriechisch πᾶν pÄn "alles" sowie θεός theós "Gott") bezeichnet die Auffassung, Gott sei eins mit dem Kosmos und der Natur.
    Das Göttliche wird im Aufbau und in der Struktur des Universums gesehen, ...

    Natur bezeichnet in der westlichen Philosophie in der Regel das, was nicht vom Menschen geschaffen wurde.

    Der Begriff wird jedoch unterschiedlich ... verwendet, weshalb es öfter strittig ist, was zur Natur gehört und was nicht.

    Die wichtigsten Bedeutungen des Naturbegriffs sind
    • das Sein im Ganzen, der Kosmos,
    • ein Teil der Wirklichkeit, der mit einem nicht natürlichen Bereich – z. B. dem Göttlichen, Geistigen, Kulturellen, Künstlichen oder Technischen – kontrastiert ist,
    • eine Eigenschaft der Wirklichkeit bzw. eines Wirklichkeitsbereiches und
    • das Wesen eines Gegenstandes.


    Meiner Ansicht nach ist mit einer übernatürlichen Fähigkeit stets eine gemeint, die man sich weder logisch noch aus bisher gemachter Erfahrung erklären kann.

    Solltet ihr beide das auch so sehen, würde folgen:


    Wenn das Göttliche in Aufbau und Struktur des Universums zu sehen ist (Pantheismus) hat es keine Fähigkeiten — es hat dann nämlich nur Eigenschaften.

    Die aber können Wirkung zur Folge haben, die uns unerklärbar erscheinen mag — im Extremfall also übernatürlich.



     

      Beitrag 2075-71
    -

     
    Hallo miteinander,

    Von Wesen her kann man Gott und die Zeit auf gleiche Stufe stellen. Oder? Wir Menschen beobachten nur die Wirkung dessen was wir Gott oder Zeit nennen.
     

      Beitrag 2075-74
    Warum Pantheismus nicht als Religion gelten kann

     
     

    Warum Pantheismus nicht Religion ist


    Wer zugibt, dass wir nicht wissen, was Gott ist, muss insbesondere zugeben, dass wir nicht wissen, ob wir ihn mit einer Person vergleichen können.

    Nicht mal die Bibel ist da eindeutig: Sie spricht von  e i n e m  Gott in  d r e i  Personen.

    Wir wissen, dass die Bibel nicht wörtlich verstanden werden darf. Wo aber liegt die Grenze solchen "Ist-nicht-wörtlich-zu-Verstehen"s?
    Da wir sie nicht kennen, scheint Pantheismus — zunächst mal — logisch.

    Auf den zweiten Blick aber birgt er das Problem, dann nicht mehr zu wissen, ob es einen göttlichen  W i l l e n  gibt.


    Schopenhauer schrieb mal: » Ein unpersönlicher Gott ist gar kein Gott, sondern bloß ein missbrauchtes Wort «.

     

      Beitrag 2075-155
    Warum denkt jeder, der Schöpfungsprozess sei schon vorbei?

     
     
    Hans-m in 2075-152:
     
    Wenn Gott den Menschen erschuf, so gab er ihm auch die Fähigkeit neidisch zu sein und einen eigenen Willen zu haben. Somit gab er ihm auch die Möglichkeit eine anderen Willen zu haben, als Gottes Wille.

    Somit hat doch Gott die Sache vermasselt.
    Der Mensch ist letztendlich das Produkt Gottes, mit all seinen Macken und Fehlern. Gott hätte ahnen müssen, dass ihm dieser Mensch entgleist.
     


    Wer kleinen Kindern das Radfahren beibringen möchte tut gut daran, sie nicht auf immer festzuhalten (auch wenn ein Loslassen zur Folge hat, dass sie mal hinfallen).

    Vielleicht ist ja der ganze Schöpfungsprozess erst zu einem ganz kleinen Teil schon abgelaufen. Was wäre denn, wenn Gott gerade versucht, uns das "Radfahren" beizubringen? Vielleicht denkt er ja schon viel weiter — an ein Zeitalter, für das er geplant hat, dass wir ihm tatsächlich schon deutlich ähnlicher geworden sein werden ...

     

      Beitrag 2075-156
    -

     
    Grtgrt in 2075-155:
    Vielleicht ist ja der ganze Schöpfungsprozess erst zu einem ganz kleinen Teil schon abgelaufen. Was wäre denn, wenn Gott gerade versucht, uns das "Radfahren" beizubringen? Vielleicht denkt er ja schon viel weiter — an ein Zeitalter, für das er geplant hat, dass wir ihm tatsächlich schon deutlich ähnlicher geworden sein werden ...

    Gott existiert als eine werdende Welt. Der angepeilte Zustand ist eine Welt der "Vergeistlichung". Das hat Hoimar von Dithfurth gesagt. Ja, man kann das tatsächlich so sehen wie grtgrt.
     

      Beitrag 2075-256
    Wie Gott uns respektieren (und doch allwissend sein) kann

     
     
    C... in 2075-248:
     
    Nehmen wir nun an, einer der fünf Bauarbeiter sei ein älterer mit Erfahrung gewesen, der die Meinung vertritt, ein grünes Bad sähe innerhalb dieses Hauses mies aus. Diese Meinung hatte "der Chef" (wie sie ihn nannten) vor, während und nach dem Bau. Während des Baus hatte der Chef dem Badbauer seine Meinung auch gesagt, aber letzterer setzte sich darüber hinweg und baute das Bad dennoch in Grün.

    Nun ist letzlich also ein schönes Haus mit häßlichem grünen Bad entstanden. Kann man dem Chef nun vorwerfen, er habe das grüne Bad nicht verhindert, obwohl er ja vorher gewusst habe, dass das später so nicht gut aussähe? Die Mitarbeiter wollten doch "mündig" sein, schließlich sollte es ja ein gemeinsames Haus werden, in dem jeder auch seine Ideen verwirklichen konnte. Der Chef wollte kein Despot sein, begegnete seinem Mitarbeiter auf Augenhöhe und ließ ihn daher selbständig über die Farbe des Bades entscheiden. Wer ist nun für das grüne Bad verantwortlich?

    Wichtiger als die Frage, ob Gott etwas vorab "weiß" finde ich die Frage, ob er den Menschen handeln lässt.
    Wenn letzteres der Fall ist, so ist der Mensch trotz Gottes Allwissen an der Schöpfung beteiligt.
     


    Hallo Henry,

    auch ich finde, dass C... mit diesem Beispiel sehr treffend sagt, wie Gott — obgleich allwissend — uns doch ernst nehmen und uns in unserer Entscheidung frei sein lassen kann.

    Nichts an diesem Beispiel hinkt.

    Gruß, grtgrt
     

      Beitrag 2026-18
    Du sollst dir kein Bild machen ...

     
     
    Henry aus 2026-11:
     
    "Gott" beinhaltet per se eine "Nichtdefinition", "Du sollst dir keine Bild machen" gilt für alle drei Religionen, die sich (auch) auf die Bibel berufen. Es ist für die die Bestimmung "Atheismus" vollkommen unerheblich, wie Gott definiert ist.

    Gott ist nichts Relatives. Und somit auch nicht von irgendeiner Betrachtungsweise abhängig. Und das muss dir ein Atheist erzählen.

    Hi Henry,

    macht nicht auch die Bibel selbst sich ein — sogar recht konkretes — Bild von Gott?

    Und gilt das nicht fürs Alte ebenso wie fürs Neue Testament?

    Der Satz » Du sollst dir keine Bild machen « ist wohl eher zu verstehen als: » Du sollst nicht glauben, du könntest Gott verstehen, und Du sollst insbesondere nicht glauben, er würde denken, wie wir Menschen denken: geltungsbedürftig, rachsüchtig, naiv, ... «.

    Gruß, grtgrt
     

      Beitrag 2026-20
    -

     
     
    Bauhof aus 2026-19:
    Grtgrt aus 2026-18:
     
    Der Satz » Du sollst dir keine Bild machen « ist wohl eher zu verstehen als: » Du sollst nicht glauben, du könntest Gott verstehen, und Du sollst insbesondere nicht glauben, er würde denken, wie wir Menschen denken: ... «.

    Hallo Grtgrt,

    es ist doch wohl klar, dass die kirchlichen Machthaber dies den Gläubigen so unterjubeln wollen. Damit kein Gläubiger sich Gedanken macht, irgendetwas in Frage zu stellen, was in der Bibel oder sonst wo als "Gottes-Vorstellung" vorgekaut wurde.

    Eugen,

    bezieht sich diese deine Meinung denn nun auf den grünen Teil des Zitats (die Bibel) oder auf meine Deutung (in orange)?

    Wenn das erster der Fall sein sollte: Sind deine "kirchlichen Machthaber" dann die Autoren des Alten oder Neuen Testaments?


    Bitte versteh mich nicht falsch: Auch ich bin der Meinung, dass im Namen der Kirche immer wieder — und zahlreiche Päpste sind da keine Ausnahme — Verbrechen begangen wurden und Bibel-Interpretationen entstanden nur zum Zweck, einfach denkende Menschen zu verdummen, mit Furcht zu knechten, oder gar zu verbrennen.

    Was aber beweist das denn wirklich? Wenn es etwas beweist, dann doch nur, dass sich unter Vertretern der Kirche immer schon fast so viel Schurken, Gauner, Wortverdreher und sogar Verbrecher fanden, wie in der übrigen Gesellschaft.

    Darf man aber deswegen alle Vertreter der Kirche — irgendeiner Kirche — so einordnen?


    Gruß, grtgrt
     

      Beitrag 2026-21
    -

     
    Grtgrt aus 2026-18:
     
    Henry aus 2026-11:
     
    "Gott" beinhaltet per se eine "Nichtdefinition", "Du sollst dir keine Bild machen" gilt für alle drei Religionen, die sich (auch) auf die Bibel berufen. Es ist für die die Bestimmung "Atheismus" vollkommen unerheblich, wie Gott definiert ist.

    Gott ist nichts Relatives. Und somit auch nicht von irgendeiner Betrachtungsweise abhängig. Und das muss dir ein Atheist erzählen.

    Hi Henry,

    macht nicht auch die Bibel selbst sich ein — sogar recht konkretes — Bild von Gott?

    Und gilt das nicht fürs Alte ebenso wie fürs Neue Testament?

    Der Satz » Du sollst dir keine Bild machen « ist wohl eher zu verstehen als: » Du sollst nicht glauben, du könntest Gott verstehen, und Du sollst insbesondere nicht glauben, er würde denken, wie wir Menschen denken: geltungsbedürftig, rachsüchtig, naiv, ... «.

    Gruß, grtgrt
     

    Hallo, Gebhard!

    Nee, ein konkretes Bild macht sich die Bibel nicht von Gott, wenn ich mich nicht irre; du müsstest mal eine entsprechende Stelle zitieren. Wenn du mit "ein Bild machen" meinst, die Bibel spricht Gott bestimmte Eigenschaften zu, hast du natürlich Recht. Aber hier geht es darum, das man das eigentliche "Wesen" Gottes nicht kennen kann, aber bis zu diesem tieferen Gedanken gab es eine Entwicklung.

    Aber "konkret" ist der springende Punkt, "Du sollst dir kein Bildnis machen" meint tatsächlich ursprünglich ein konkretes Bild, genauer eine Statue. Nebenbei weigert sich Gott ja auch, seinen Namen preiszugeben, was nach meiner Ansicht viel wichtiger ist. Denn den Namen kennen bedeutete, Macht über den Besitzer des Namens zu haben. Beides hat mit Magie zu tun. Klar, in der Bibel spricht ja auch nicht Gott, sondern sie wurde von Menschen verfasst. Und natürlich musste ein anständiger Gott auch magisch Fähigkeiten besitzen.

    Jedenfalls spielt Magie eine Rolle, und aber auch ein ziemlich praktischer Aspekt: Eine Statue konnte entwendet, missbraucht und zerstört werden, Magie hin oder her, und dann war auch der Gott (das "Idol") hin. Es war ein genialer Schachzug, Gott von seinen Holzblöcken zu abstrahieren, denn nun war er unangreifbar.

    Was nun die Macht angeht – das ist schwierig, denn weder im Judentum noch im Islam wird ein Mittler zu Gott benötigt (in der evangelischen Kirche übrigens auch nicht), es gibt deshalb keine Priester in diesem Sinne, jeder kann sein Anliegen Gott selbst vorlegen. Zwar gibt es die "Schriftgelehrten", aber im Prinzip kann sich jeder selbst kundig machen. Er muss halt Arabisch lernen oder die Tora studieren.

    Aber alle heiligen Schriften sind mit Unklarheiten, Mehrdeutigkeiten und auch Widersprüchen gespickt, also braucht man eine Auslegung. Und die Folgen kennen wir.

    Aber bei Allem, was man den Religionen oder dem Glauben oder der Kirche vorwerfen kann, es gibt nichts darunter, was in anderen Systemen nicht ebenso vorkommt. Und in letzter Zeit war es nicht die Kirche, die Kriege angezettelt hat, so weit ich mich erinnere.

    Der eigentliche tiefer Grund für alles Ungemach in der Welt liegt darin, dass wir nur zu gern bereit sind, alles "denen da" zu überlassen anstatt selbst zu handeln. Wenn aber eine Institution wie die Kirche sich etabliert hat, ist schier unmöglich, sie auch wieder los zu werden (siehe z. B. die NATO).
     

      Beitrag 2026-25
    -

     
     
    Harti aus 2026-22:
     
    Hallo zusammen,
    ich halte es für zweckmäßig, zwischen den religiösen Machthabern (Unfehlbarkeit des Papstes) und den Gläubigen zu unterscheiden.


    Kann man das überhaupt?

    Nimm als Beispiel Ratzinger (Papst Benedikt XVI). Ich bin überzeugt, dass er sich als Gläubigen sieht — oberster "Machthaber" der kath. Kirche war er dennoch.

    Nebenbei: Das Prinzip "Dogma" ist selbst nur ein Dogma — und damit vielleicht nicht so ganz ernst zu nehmen. Und selbst nach Auffassung der katholischen Kirche kann der Papst nur dort "Unfehlbarkeit" für sich beanspruchen, wo er seinem eigenen Gewissen nach — und ex cathedra — eine Überzeugung vertritt. Irgendwie scheinen also auch Päpste zu wissen, dass sie sich irren können.

    Nicht zuletzt ist die aktuelle Auffassung der Theologen die, dass als letzte Instanz, zwischen Gut und Böse zu unterscheiden, stets das eigene Gewissen gilt.

    Was also will man mehr?

     

      Beitrag 2026-26
    -

     
     
    Harti aus 2026-22:
     
    Beispiel: In der Eucharistiefeier nehmen die gläubigen Katholiken nicht nur Brot und Wein symbolisch zur Erinnerung an Christus zu sich, sondern real dessen Fleisch und Blut (Dogma). Dies ist für mich so wenig nachvollziehbar, wie Vorstellungen über Voodoo-Aktionen.

    Mit "real" (wenn dieser Begriff denn wirklich in irgendeiner Originalschrift so stehen sollte) ist "ihrer Absicht nach, eine entsprechende Einladung Gottes anzunehmen" gemeint — und auch das nur, wenn sie diese ehrliche Absicht auch wirklich haben.

     

      Beitrag 2026-31
    -

     
    Grtgrt aus 2026-30:
     
    Henry aus 2026-29:
     
    Das Dogma der Unfehlbarkeit des Papstes bedeutet ganz eindeutig, was es besagt: Er ist in Glaubens- und Sittlichkeitsfragen (wenn ich das richtig im Kopf hab) unfehlbar. Und das wird aus dem Ausspruch Jesu an Petrus "Auf dir werde ich meine Kirche bauen" abgeleitet. Denn nach katholischer Auffassung ist jeder Papst in ganz realem Sinne Nachfolger Petri, quasi eine Inkarnation (lass das mal keinen Theologen hören), und es wird behauptet, dass dadurch die Unfehlbarkeit direkt durch Gott herzuleiten sei. Der Papst ist also nicht nach seinem Gewissen unfehlbar, sondern weil durch ihn Gott selbst spricht. Die Kirche ist DAS Werkzeug Gottes und in ihr zeigt sich SEIN Wille, im Papst "verdichtet" sich dieser Wille sozusagen in einer Person.


    Nun, Henry,

    ganz sicher weiß ich, dass Unfehlbarkeit nur "ex cathedra" gilt — (also nicht z.B. wenn ein Papst in seiner Eigenschaft als Theologe über Glaubens- und Sittlichkeitsfragen etwas in einem seiner Bücher schreibt).

    Leider finde ich die Quelle nicht, in der von solcher Unfehlbarkeit zum ersten Mal die Rede war. Sie weiter zu diskutieren ist mir daher nicht möglich.

    Gruß, grtgrt


    Wikipedia sagt: » In der katholischen Kirche bedeutet Unfehlbarkeit des Papstes eine Eigenschaft, die – nach der Lehre des 1. Vatikanischen Konzils (1870) – dem römischen Bischof (Papst) zukommt, wenn er in seinem Amt als "Lehrer aller Christen" (ex cathedra) eine Glaubens- oder Sittenfrage als endgültig entschieden verkündet. «

    So formuliert impliziert das noch nicht mal, dass er selbst Hauptvertreter der entsprechenden Meinung gewesen sein muss.


     

    Ja, ex cathedra, sag ich doch! http://de.wikipedia.org/wiki/Unfehlbarkeit
     

      Beitrag 2026-33
    -

     
    E... aus 2026-32:
    Grtgrt aus 2026-25:
     



    Kann man das überhaupt?

    Nimm als Beispiel Ratzinger (Papst Benedikt XVI). Ich bin überzeugt, dass er sich als Gläubigen sieht — oberster "Machthaber" der kath. Kirche war er dennoch.

    Nebenbei: Das Prinzip "Dogma" ist selbst nur ein Dogma — und damit vielleicht nicht so ganz ernst zu nehmen. Und selbst nach Auffassung der katholischen Kirche kann der Papst nur dort "Unfehlbarkeit" für sich beanspruchen, wo er seinem eigenen Gewissen nach — und ex cathedra — eine Überzeugung vertritt. Irgendwie scheinen also auch Päpste zu wissen, dass sie sich irren können.

    Nicht zuletzt ist die aktuelle Auffassung der Theologen die, dass als letzte Instanz, zwischen Gut und Böse zu unterscheiden, stets das eigene Gewissen gilt.

    Was also will man mehr?

     
    Hallo Harti und guten Morgen.
    Es ist nicht nur zweckmäßig sondern auch notwendig. Das muss man sogar unterscheiden.
    Die einen sind die Anstifter, Verführer und Unterdrücker wogegen die anderen die Opfer sind.
    Nachdem die Urgemeinden aufgehört hatten zu funktionieren war der Altarraum für die Gläubigen tabu.
    Die Bibel selbst, als fassbares Fundament des Glaubens war unerreichbar für die Gemeindemitglieder.
    Handschriftliche Duplikate, in Klöstern von Mönchen im Auftrag der Kirchen-"Fürsten" erstellt in Latein.
    Die "Kirchensprache" war das gleiche Latein wie es auch Ärzte verwendeten und auch die Advokaten.

    Unter diesen Gesichtspunkten auf die Idee zu kommen klerische Funktioner und Gläubige wären dasselbe...????

    Übersetzungen der Bibel und der Buchdruck haben die Verhältnisse zwar ein wenig bereinigt, ändern aber nichts daran
    das die einen (die Gläubigen) von den anderen (den theologiekundigen) nach Strich und Faden für dumm verkauft werden.

    Und deshalb ist zwischen beiden Gruppen schärfstens zu trennen.

    Mit den besten Grüßen.
    E....

    Hallo, E...!

    Ich stimme dir zu, aber ich denke dennoch, dass es nur ein Teil der "Wahrheit" ist. Zunächst einmal ist die Wortwahl nach meinem Empfinden problematisch. "Machthaber" ist negativ besetzt, aber wir können doch nicht wirklich sagen, dass jeder, der "Macht hat" auch zugleich ein Schurke ist. Es ist doch so, dass, um etwas bewirken zu können, man über "Macht" verfügen muss ("Macht" in weitestem Sinne verstanden: "etwas machen können"). Auch Jesus hatte Macht, schließlich sind ihm nicht wenige gefolgt, und vielleicht hätte ein Wort genügt, einen Aufstand zu bewirken (wir nehmen einfach mal an, der arme Kerl hat gelebt).

    Nicht jeder Machthaber ist ein "Anstifter, Verführer und Unterdrücker", und nicht jedes Opfer ist notwendig ohne jede Verantwortung für seine Situation. Die von dir oben geschilderte Situation war nicht über Nacht eingetreten, auf dem Weg dorthin gab es immer Möglichkeiten, Einhalt zu gebieten, denn die Worte Jesu wurden den geneigten Zuhörern nicht mit Feuer und Schwert eingebläut, und im späteren Verlauf, als eine Richtung die andere meinte unterdrücken zu müssen, hätte man auch zumindest "nein" sagen oder sich auch abwenden können.

    Und heute? Es ist doch viel zu einfach, all die Gläubigen als "verdummt" hinzustellen. Jeder von denen hat die Möglichkeit, selbst zu denken und die Thesen und Dogmen der Kirche infrage zu stellen. Nicht wenige tun es ja auch.

    Und mal provokativ formuliert: Wenn ich an die Bibel als offenbartes Wort Gottes glaube, warum sollte ich dann nicht glauben, das ER seinen Willen der Person des Papstes kundtut?

    Weißt du, E..., ich denke wirklich, dass die meisten Päpste tatsächlich an ihren von Gott gewollten Status glauben. Der eigentliche Machthaber, Anstifter, Verführer und Unterdrücker ist doch dieser angebliche Gott, ihn gilt es zu stürzen.
     

      Beitrag 2026-34
    Rein Logisches zur Frage » Existiert ein Schöpfer unserer Welt? «

     
     
    Bauhof in 2026-23:
    Grtgrt in 2026-20:
     
    Bezieht sich diese deine Meinung denn nun auf den grünen Teil des Zitats (die Bibel) oder auf meine Deutung (in orange)?

    Hallo Grtgrt,
    lass' doch deine üblichen Spitzfindigkeiten, denn du weißt genau, was ich meine.
     


    Hallo Eugen,

    über Fragen nachzudenken, die auch jede Menge sehr intelligenter Leute über Jahrhunderte hinweg nicht schlüssig (= logisch nachvollziehbar) beantworten konnten, kann nur dann Sinn machen, wenn man alles, was gesagt wird, ganz genau betrachtet in der Hoffnung, irgendwo versteckt doch einen brauchbaren Ansatzpunkt zu finden — einen, den man bislang übersehen hat, obgleich er diese oder jene Meinung widerlegen kann.

    Dass allzu grob zu denken schnell zu einem Ergebnis führt, dass dir gar nicht gefallen könnte, zeigt folgendes Beispiel:


    Ich bin jetzt mal gar nicht "spitzfindig", sondern stelle mich einfach nur auf den Standpunkt, dass alle, die glauben, die Frage


    Existiert Gott?


    beantworten zu können, unter "Gott" jemand oder etwas verstehen, der/das in der Lage gewesen sein könnte, den gesamten Kosmos zu erschaffen.

    Da der Kosmos — als die Gesamtheit von allem, das (prinzipiell wenigstens) Gegenstand physikalischer Betrachtung sein sein könnte — ja nun offensichtlich existiert, gibt es nur zwei Möglichkeiten:
    • Möglichkeit (1): Der Kosmos hat sich selbst geschaffen, entstand also von selbst.
    • Möglichkeit (2): Der Kosmos hat sich NICHT selbst erschaffen.

    Da wir unter Gott jemand oder etwas verstehen wollen, der/das in der Lage gewesen sein könnte, den gesamten Kosmos zu erschaffen, hätte (2) zur Folge, dass so ein Gott existiert. Zu eben diesem Schluss kommt man aber auch dann, wenn Möglichkeit (1) die zutreffende sein sollte: Sie nämlich würde bedeuten, dass der Kosmos selbst so ein Gott ist.

    Rein logische Konsequenz also:

    Entweder existiert Gott als Schöpfer des Kosmos,
    oder der Kosmos existiert, ohne jemals durch sich selbst oder andere geschaffen worden zu sein.


    Letzteres ist sehr unwahrscheinlich, da im Kosmos ja ständig Neues entsteht, ein Schöpfungsprozess also durchaus existiert und noch nicht zum Abschluss kam.

    Gruß, grtgrt
     

      Beitrag 2026-35
    -

     
    Freidenker1 aus 2026-1:
    Auch der neue Papst Franziskus ist, wie sein Vorgänger, eine Zumutung

    für jeden Atheisten und Agnostiker

    Das will ich doch sehr hoffen. Ein Papst wird ja nicht gewählt, um ausgerechnet Agnostikern oder gar Atheisten zu gefallen.
    Ansonsten schließe ich mich denen an, die sagen, dass sich die Existenz Gottes weder beweisen noch widerlegen lässt und das es um die Definition geht. Ich selbst bin eher Phantheist. Denn ich glaube nicht an einem persönlichen Gott, definiere aber das Universum bzw. Multiversum, wenn es denn mehrere Universen gibt, als Gott. Dass ich deshlab von Atheisten als unvernünftig bezeichnet werde, nehme ich gerne in Kauf.
     

      Beitrag 2026-43
    Gott, seine Schöpfung, und wir

     
     
    Quante in 2065-3:
     
    Die "ursprüngliche Urknalltheorie", die ja mehrfach modifiziert worden ist, nach der mit dem Urknall auch Raum und auch Zeit entstanden sein sollten, birgt in sich so viele Widersprüche, das sie für mich eigentlich nichts anderes als der göttliche Schöpfungsprozeß, in einem lediglich neuen Gewand, darstellt.
     


    Den Urknall als den Schöpfungsprozess zu sehen scheint mir ähnlich naiv, wie zu glauben, unsere Welt sei in 6 Tagen von einer Person, die man Gott nennt, gestaltet worden.

    Aber vielleicht ist ja meine Vorstellung fast so naiv:
    • Gott ist für mich   der   W i l l e , der die Naturgesetze schuf und ihnen Kreativität verlieh  .
    • Als Schöpfungsprozess sieht man dann am besten das Walten eben dieser Gesetze über alle Zeit hinweg (womit es mich dann nicht mehr wundert, dass man Emergenz beobachtet, wo immer man hinschaut).

    Dass jener Wille seine Schöpfung liebt, schließe ich daraus, dass er ihr die Fähigkeit gab, über sich selbst nachzudenken.

    Die Bibel geht weiter, indem sie uns sogar zur Aufgabe macht, die Schöpfung zu verstehen und mit auszubauen.

     

      Beitrag 2026-46
    -

     
     
    Quante in 2026-45:
    Eine Äußerung sei mir erlaubt, lieber Grtgrt.

    ... ich gehe noch einen bedeutenden Schritt weiter als du, denn ich wage darüber hinausgehend: "Dass jener Wille seine Schöpfung liebt" zu postulieren, "Dass
     j e d er  Wille, seine Schöpfung liebt" – du bist ein exzellentes Beispiel, dafür.

    Sei herzlichst gegrüßt, von der Quante.


    Hi Quante,

    das ist ein interessanter Gesichtspunkt, kann aber so absolut nicht gelten, denn mein Wille z.B. liebt  v i e l e , aber nicht  j e d e  seiner Schöpfungen.

    Denk z.B. auch an jemand, der etwas schuf (ein Bild etwa), das ihm misslingt: Er wird es nicht lieben, sondern einfach wegwerfen!

    Dass wir so viele unserer Schöpfungen tatsächlich lieben, geht wohl auch darauf zurück, dass Schöpfer zu spielen weit mehr Spass macht, als lediglich Bewunderer von allem Möglichen zu sein.

    Und tatsächlich: Unser Schöpfer hat uns so gestaltet, dass wir selbst zum (Mit-) Schöpfer werden können.

    Gruß, grtgrt

     

      Beitrag 2053-146
    Hawkings völlig unlogisches Argument

     
     
    Bauhof in 2053-144:
     
    Für Voraussagen der Entwicklung des Kosmos kommt es auf die Krümmung von Hawkings vierdimensionaler Raumzeit, also der "Oberfläche" der 5-D-Kugel an. Weil dann die bisherige Singularität eines Urknalls vermieden wird. Denn jeder Punkt der fünfdimensionalen Kugel ist gleichberechtigt, keiner ist irgendwie auszeichnet. Es gibt keine Singularität auf dieser 5-D-Kugel. Weder räumlich noch zeitlich.

    Hawkings Universum ist weder erschaffen noch zerstörbar. Es IST einfach. Ein Schöpfer wird nicht mehr benötigt.
     

    Die Aussage in der letzten Zeile des Zitats sehe ich als durch nichts begründet an.

     

      Beitrag 2053-173
    -

     
     
    Bauhof in 2053-172:
     
    Zum Beispiel wäre es sinnlos zu sagen, der Nordpol oder der Südpol ist der Anfang oder das Ende der Erdoberfläche. Und ebenso sinnlos ist es zu sagen, irgend ein Punkt der vierdimensionalen "Oberfläche" der fünfdimensionalen Kugel wäre der Anfang oder das Ende der (imaginären) Zeit.


    Aber warum sollen Dinge, die weder Anfang noch Ende haben (und sei es in zeitlicher Hinsicht) nicht auch geschaffen sein können?

    Wo Hawking argumentiert, dass ein derart uniform geformter, in sich abgeschlossener Gegenstand (wie unser Universum nach seinem Modell) nicht geschaffen worden sein kann, ist meiner Ansicht nach nur sein Wunsch der Vater des Gedankens. Mit streng wissenschaftlichem Denken hat dieser "Schluß" gar nichts mehr zu tun — und zwar ganz unabhängig davon, ob man nun an einen Schöpfer unser Welt glaubt oder nicht.

    Hawking erinnert mich in dieser Hinsicht an Leute des Mittelalters, die einfach nicht glauben konnten, dass irgend etwas anderes als unsere Erde Mittelpunkt der Welt sein könne.

     

      Beitrag 2053-150
    -

     
     
    E... in 2053-147:
     
    Zitat:
    In einem Interview im israelischen Fernsehen zu seinem 65. Geburtstag letztes Jahr bekräftigte Hawking diese These: "Ich denke, dass das Universum spontan aus dem Nichts entstand gemäß den Gesetzen der Physik."

    In gewisser Weise habe es weder Anfang noch Ende. "Die Grundannahme der Wissenschaft ist der wissenschaftliche Determinismus: Die Naturgesetze bestimmen die Entwicklung des Universums, wenn sein Zustand zu einem bestimmten Zeitpunkt gegeben ist. Diese Gesetze können von Gott erlassen worden sein oder nicht, aber er kann nicht eingreifen und die Gesetze brechen, sonst wären es keine Gesetze. Gott bliebe allenfalls die Freiheit, den Anfangszustand des Universums auszuwählen. Aber selbst hier könnten Gesetze herrschen. Dann hätte Gott überhaupt keine Freiheit." Den Begriff Gott verwendet Hawking nach eigener Aussage "in einem unpersönlichen Sinn, so wie es Einstein für die Naturgesetze tat".

    Für die Annahme eines fürsorglichen Schöpfers sieht er keinen Grund: "Wir sind so unbedeutende Kreaturen auf einem kleinen Planeten eines sehr durchschnittlichen Sterns in den Außenbezirken von einer Galaxie unter 100 Milliarden. Daher ist es schwer, an einen Gott zu glauben, der sich um uns kümmert oder auch nur unsere Existenz bemerkt."
     

    Quelle: http://www.bild-der-wissenschaft.de/bdw/bdwlive/hef...

    Hallo E...,

    Tatsache ist, dass Hawking das  g l a u b t .

    Er betont, dass er keinen Grund gefunden hat, der dafür spräche, dass unser Universum erschaffen wurde.
    Man sollte aber nicht übersehen, dass er auch keine Argument fand, warum es nicht doch geschaffen worden sein  k a n n .

    Da er als Wissenschaftler spricht, finde ich es enttäuschend, dass er sich nicht einfach auf logisch Beweisbares stützt (sondern seinen persönliche Voreingenommenheit fast schon als wissenschaftliches Ergebnis zu verkaufen versucht). Die Mathematik finde ich da ehrlicher: Sie unterscheidet zwischen entscheidbaren und nicht entscheidbaren Fragen.

    Gruß, grtgrt
     

      Beitrag 2039-67
    Gibt es eine kollektive Seele — eine Seele des Universums?

     
     

    Heisenberg ( und Dürr ) sehen eine "Seele des Universums"



    Wolfgang Pauli hat Werner Heisenberg mal gefragt: "Glaubst du eigentlich an einen persönlichen Gott?"

    Worauf Heisenberg antwortete: "Darf ich die Frage auch anders formulieren? Sie würde dann lauten:


    Kann man der zentralen Ordnung der Dinge oder des Geschehens — an der ja nicht zu zweifeln ist — so unmittelbar gegenüber treten,
    mit ihr so in Verbindung treten, wie dies bei der Seele eines anderen Menschen möglich ist?


    Ich verwende hier ausdrücklich das so schwer deutbare Wort Seele, um nicht missverstanden zu werden.

    Wenn du so frägst, würde ich mit Ja antworten."


    Pauli frägt nach: "Du meinst also, dass dir die zentrale Ordnung mit der gleichen Intensität gegenwärtig sein kann wie die Seele eines anderen Menschen?"

    Und Heisenberg sagt: "Vielleicht".


    Dürr, angesprochen auf diese Stelle aus Heisenberg: Der Teil und das Ganze 1969, S. 67 der Taschenbuchausgabe von 1997, sagt spontan:

    Zitat von Dürr:
     
    So würde ich es auch sehen. Das ist eine Beziehungsstruktur, die aber nicht als Wechselwirkung gedeutet werden darf, sondern aus  V e r b u n d e n h e i t  kommt. Das ist sozusagen die Stelle in uns drin, welche die ursprüngliche Verbundenheit wahrnimmt, sie noch wirklich erlebt.

    Wenn mein Ich zurückkehrt in diese Verbundenheit, dann wird das mir unverwechselbare Eigene aufgelöst, aber nicht das Erlebende. ...
    Die körperliche Getrenntheit zweier Personen muss ja nicht bedeuten, dass auch die zugehörigen Seelen getrennt sind.
     


    Quelle: Dürr & Österreicher: Wir erleben mehr als wir begreifen, S. 151, 152.

     

      Beitrag 2039-68
    Individuen als Schaumkronen im Meer

     
     

    Sind Menschen nur in ihrem Körper ausschließlich Individuum?



    Dürr vergleicht Individuen gerne mit Schaumkronen im Meer (ein Vergleich, den ich sehr schön finde):

    Sie formen sich aus Teilen des Meeres, erhalten individuelle Form, existieren als unterscheidbare Objekte (eben als Individuen) nur kurz, verlieren dann diese Individualität, existieren aber doch weiter als Teil des Meeres (meistens als Teilmenge aller das Meer darstellenden Wasseratome, hin und wieder aber auch verteilt in neuen Schaumkronen).


    Zitat von Dürr:
     
    Ich selber als Unverwechselbarer, mir Eigener, kehre nie wieder zurück: Die Schaumkrone einer Welle kehrt nicht als Schaumkrone einer einzigen Welle wieder, sondern verteilt auf viele, zusammen mit dem Schaum von anderen.

    So würde ich vermuten, dass wir alle in gewissem Grade zurückkehren, aber nicht in der ursprünglichen Form, [nicht im alten unverwechselbaren Ich].

    Den Vorsprung, den einer ... an Weisheit den anderen voraus hat, wird er nicht allein für sich selbst verwenden können, sondern es ist alles ein Beitrag an die verborgene große Weisheit, die alles Neue trägt und nährt.
     


    Hier geht mir Dürr entschieden zu weit. Wie nämlich soll in der Menge von Atomen, zu denen z.B. ein Mensch Jahre nach seinem Tod geworden ist, irgend etwas an Weisheit überlebt haben können?

    Fakt scheint: Was ein Individuum an Weisheit ansammelt, kann als solche doch nur in seiner Form existieren. Aber gerade sie geht doch komplett verloren ...
    Dann jedenfalls, wenn solche Weisheit nicht rechtzeitig weitergereicht wurde ...

    Interessant in diesem Zusammenhang ist, dass der Biologe Rupert Sheldrake den Verdacht hat, dass all unsere Erinnerungen nicht in unserem Gehirn abgelegt sind, sondern stattdessen in einem kollektiven, im ganzen Universum existierenden "morphogenetischen" Feld, und zwar in einer Codierung, die spezifisch zum Gehirn ist, das Erinnerungen dort ablegt. Solche Erinnerungen — so Sheldrakes These — könnten dann jedem Gehirn zugänglich sein, welches dem, das dort Erinnerungen abgelegt hat, hinreichend ähnlich ist (also Erinnerungen hinreichend ähnlich codiert).

    Was der Zellbiologe Bruce Lipton über unsere biologische Identität sagt, scheint Sheldrakes These zu stützen.


    Quelle des Zitats oben: Dürr & Oesterreicher: Wir erleben mehr als wir verstehen, S. 156,157
     

      Beitrag 2039-22
    Ur-Religion neu hinterfragt im Lichte der Ergebnisse der Quantenphysik

     
     

    Ur-Religion  neu zu hinterfragen  im Lichte der Quantenphysik


    Dürr schreibt, er sehe sich
    • weder als Christ, noch als Nicht-Christ,
    • weder als Buddhist, noch als Nicht-Buddhist,
    • weder als Theist noch als Nicht-Theist:

    Zitat von Dürr, S. 113:
     
    Aus der Sicht der Quantenphysik — in meiner Interpretation — gibt es keinen isolierten Gott. In gewisser Weise sind Schöpfer und Schöpfung dasselbe: ein zeitlich offenes, lebendiges Beziehungsgefüge. ...

    Mein "Ich" ist nicht im Raum lokalisiert, verbirgt sich nicht unter meiner Haut oder nahe an meinem Herzen, sondern ist unendlich ausgebreitet. Du und Ich kommunizieren nicht über räumliche Distanz miteinander, sondern sind in Kommunion, wo mein Ich und dein Du ausgedehnt sind, so dass beide sich nicht nur treffen, sondern den anderen mit einschließen ...

    ... eben so, wie Wellen und Wellenpakete sich überlagern und damit neue Form generieren.



    Dürr betont, dass Ausgangspunkt seiner Weltanschauung nicht irgend eine Religion war, sondern sein Nachdenken über die heute zunehmend besser verstandenen Erkenntnisse der Quantenphysik. Dass sie zu interpretieren in die Nähe der Lehre asiatischer Religionen, wie Buddhismus oder Daoismus, führt, rühre seines Erachtens daher, dass jene (anders als die theistischen) nicht wirklich Religion sind, sondern mehr "auf einem tieferen mystischen Niveau angesiedelt". Er sagt deswegen folgerichtig:


    Zitat von Dürr, S. 116:
     
    Mich interessiert vor allem, wie wir die heutige Form der alten Religionen von all dem reinigen können, was von ihrem Ursprung bis heute meist durch machtpolitische Einflüsse [ oder unbeholfene Erklärungsversuche? geändert oder hinzugefügt wurde. Ich vermute, wenn man das alles abschält und diese Religionen auf ihren Ursprung zurückführt, werden alle sich wesentlich näher kommen.

    Der Buddhismus befindet sich auf einer Stufe, die viel wirklicher ist als die der theistischen Religionen, die zur Erläuterung Abbildungen in die Realität vorgenommen und Trennungen überbetont haben.

    Im Moment, zu dem man anfängt, etwas aufzuschreiben, wird die Versuchung groß, das Aufgeschriebene als das Wesentliche zu betrachten und Aussagen allzu wörtlich zu nehmen, statt darin mehr eine Sammlung gelungener Gleichnisse zu sehen.

    Zur Unterstützung der Lernenden brauchen wir realistische Greifsprachen, doch wir sollten unsere Gespräche öfter mit den Nachsatz enden lassen: "Vergiss es, denn auch das war nur ein Gleichnis. Das letzte Stück des Weges zu weiterer Annäherung muss jeder für sich selbst suchen und gehen."
     

     

     Beitrag 0-442
    Gravitationswellen: Wann vorhergesagt, wann erstmals beobachtet, wodurch verursacht?

     
     

     
    Seit wann weiß man sicher von Gravitationswellen?

     
     
    Ob Einsteins allgemeine Relativitätstheorie (ART) die Existenz von Gravitationswellen vorhersagt oder nicht, war lange strittig:
     
    Einstein selbst kam mehrfach zu unterschiedlichem Ergebnis, das er aber stets widerrufen musste, nachdem er selbst oder andere in seinen Überlegungen Rechenfehler entdeckt hatten.
     
    Erst 1957 — 2 Jahre nach Einsteins Tod — konnte Hermann Bondi vom King's College in London (in Zusammenarbeit mit Felix Pirani, Rainer Sachs, Ivor Robinson und Roger Penrose) endgültig einsehen, dass die ART Gravitationswellen vorhersagt.
     
    [ Bondi meinte nach dem Durchbruch, Gravitationswellen seien so real, dass man damit im Prinzip Wasser erwärmen könne. ]

     
     
    Heute unterscheidet man — messtechnischer Gründe wegen — 3 Arten solcher Wellen:
       
    • Bursts: Das sind kurze, nur Bruchteile von Sekunden andauernde Emissionen von Gravitationswellen hoher Frequen (= größer 10 Hertz). Nur sie sind mit erdgebundenen Detektoren messbar — und 2015 erstmals gemessen worden.
       
      Ihre Ursache sind
         
      • gewaltige Explosionen (Supernovae) verbunden mit dem Zusammensturz ihres Zentralbereis zu einem Neutronenstern oder Schwarzen Loch (wenige solcher Ereignisse pro Jahr im Umkreis von 100 Mio Lichtjahren)
         
      • der Kollaps eine Sternhaufens zu einem galaktischen Schwarzen Loch (wenige solcher Ereignisse pro Jahr im beobachtbaren Universum)
         
      • die Kollision schwerer Himmelskörper — Sterne oder Schwarzer Löcher — nachdem sie sich auf spiralförmiger Bahn immer mehr angenähert haben (einige solcher Ereignisse pro Jahr im Umkreis von 100 Mio Lichtjahren)

       
    • Periodische Gravitationswellen: Sie haben niedrige Frequenz — 10-5 bis 10 Hertz — und können, der seismischen Störungen auf der Erde wegen, nur durch Satelliten-Inferometer im Weltall nachgewiesen werden, die schon heute in der Lage wären, Abstandsänderungen bis hinunter zu 20 Billionstel Meter zu messen.
       
      Ursprung solcher Wellen sind
         
      • Sich umkreisende Doppelsterne,
         
      • rotierende Neutronensterne (Pulsare),
         
      • Vibrationen von Neutronensternen.

       
    • Der stochastische Gravitationswellenhintergrund: Er hat Frequenzen von unter 10-5 Hertz und entsteht durch Überlagerung vieler ferner periodischer Vorgänge sowie schwacher, weit entfernter Ereignisse.
       
      Phasenübergänge im frühen Universum oder Relikte des Urknalls würden besonders interessante Hauptverursacher sein.

     
     
    Quelle: Rüdiger Vaas: Signale der Schwerkraft (2017), S. 19-22 und 10-11


     

      Beitrag 786-88
    Interessantes zu Gravitationswellen

     
     

    Interessantes zu Gravitationswellen


    Zitat von Maalampi, S 144:
     
    Findet in einer Entfernung von 10.000 Lichtjahren eine Supernova-Explosion statt, so führt die dadurch erzeugte Gravitationswelle dazu, dass die Körpergröße der Menschen für einen Moment um ungefähr den hundertsten Teil eines Atomkerns größer oder kleiner wird.

    Der Raum ist voller kleiner Gravitationsschwingungen, ganz so wie er heute voller Radiowellen, Handywellen und anderer Formen elektromagnetischer Strahlung ist.
     


    Zitat von Maalampi, S 147:
     
    Für die [ von der ART vorausgesagte] Existenz von Gravitationswellen gibt es bislang nur eine — indirekte — Bestätigung:

    Im Jahr 1974 entdeckten Russell Hulse und Joseph Taylor mit einem Radioteleskop den Doppelpulsar PSR1913 + 16, ein System zweier schnell rotierender Neutronensterne. Sie umkreisen einander mit hoher Geschwindigkeit (alle 8 Std ein Mal). Man stellte fest, dass die Umlaufzeit langsam aber sicher kürzer wird, was zeigt, dass jene Neutronensterne einander in immer kleinerem Abstand umkreisen.

    Die ART sagt genau das vorher: Das System verliert ständig Energie, indem es Gravitationswellen in den Raum abstrahlt, weswegen sich die Sterne annähern.
     

    Hulse und Taylor erhielten für diese ihre Entdeckung 1993 den Nobelpreis.

     

     Beitrag 0-445
    Sep 2014: Erstmals eine Gravitationswelle tatsächlich beobachtet

     
     

     
    Erste beobachtete Gravitationswelle

     
     
    Am 15.9.2014 ( Event GW150914 ) haben Menschen erstmals den Zusammenstoß zweier Schwarzer Löcher beabachtet.
     
    Inzwischen wurden weitere solcher Geschehnisse als Gravitationswelle registriert, aber jene erste Beobachtung des plötzlichen Verschmelzens zweier Himmelskörper war insofern ein wahrer Glücksfall, als dieses Ereignis ein besonders klares, einfach interpretierbares Signal lieferte:
     
     
    Die beobachtete Erschütterung des Raumes entstand als Folge des Verschmelzens zweier Schwarzer Löcher, die sich direkt davor mit mehr als halber Lichtgeschwindigkeit spiralartig umkreist hatten: etwa 75 Mal/sec bei nur 350 km Entfernung.
     
    Die Masse der beider Löcher — jedes mit einem Durchmesser von etwa 250 bis 300 km — ließ sich zu 29 bzw. 36 Sonnenmassen errechnen, wobei sie verschmolzen zu einem, das dann aber nur 62 Sonnenmassen hatte (so dass 3 Sonnenmassen als Gravitationswellen-Energie abgestrahlt wurden: etwa 50 Mal mehr Energie als sämtliche Sterne des beobachtbaren Universums im selben kurzen Zeitraum an Strahlung abgeben).
     
    Damit war Event GW150914 das energiereichste Ereignis, das Menschen je beobachtet haben:

       
      Selbst der ultraleuchtkräftige Gammablitz GRB 110918a, vermutlich die Explosion eines Riesensterns, erreichte nur knapp 1/10 davon.
       
      Noch 8/1000 Sekunden nach dem Zusammenprall vibrierte der neue schwarze Himmelskörper, dann war Ruhe.
       
      Das LIGO-Team konnte aus dem Verlauf des kurzen Signals nicht nur die Masse des finalen Schwarzen Lochs errechnen, sondern auch seinen Spin (= Drehimpuls). Er wird quantifiziert durch eine dimensionslose nicht-negative Zahl kleiner 1 und betrug 0,67 (plus/minus 0,07). Das ist viel, denn es bedeutet, dass das neue Loch mit etwa 2/3 der Lichtgeschwindigkeit rotiert.
       
      Im Grenzfall 1 würde es mit Lichtgeschwindigkeit rotieren, was aber eine unsinnige Aussage wäre, denn es gibt keinen externen Vergleichspunkt oder Maßstab, da der Raum um ein rotierendes Schwarzes Loch herum ja nicht fest ist, sondern mit dessen Rotation gleichermaßen mitgezerrt wird wie zäher Honig beim Umrühren.

     
     
    Das Event GW150914 war nicht nur deswegen ein Meilenstein in der Geschichte der Experimentalphysik, weil hier zum ersten Mal Gravitationswellen nachgewiesen werden konnten. Auch das Studium der Quellen dieser Wellen bedeutete großen Erkenntnisgewinn. Die 3 wichtigsten Schlussfolgerungen waren:
       
    • Wir wissen jetzt mit absoluter Sicherheit, dass Schwarze Löcher existieren.
       
    • Auch die Existenz stellarer Schwarzer Löcher mit mehr als 30 Sonnenmassen ist nun Gewissheit.
       
    • Astronomische Modelle, die Vorkommnisse wie das Event GW150914 als sehr unwahrscheinlich erschienen ließen, sind widerlegt.

    Insbesondere ist nun klar: Der Bau teurer Detektoren zum Abhören von Gravitationswellen lohnt sich.
     
    Steven Hawking gratulierte dem LIGO-Team sofort mit voller Begeisterung, denn er wusste nun: Die Daten passen zu seiner Vorhersage aus 1970, nach der die Oberfläche einer Vereinigung Schwarzer Löcher größer sein muss als die Summe der Oberflächen der in ihm aufgegangenen Schwarzen Löcher.
     
     
     
    Quelle: Rüdiger Vaas: Signale der Schwerkraft (2017), S. 70-73

     
     

     
    Astrophysikalische Detektivarbeit

     
    Aus der Menge all der vielen von einem Gravitationsdetektor aufgezeichner Signale jene auszusuchen, die tatsächlich von Gravitationswellen erzeugt wurden, ist eine Kunst für sich, da man sie nach Form und Dauer hierfür schon ziemlich genau kennen muss. Solches Wissen gewinnt man aus sehr aufwendigen Simulationen, die im notwendigen Umfang — und der notwendigen Genauigkeit — erst ab etwa 1990 möglich wurden. Man muss hierfür Einsteins Feldgleichung für entsprechende Szenarien auf numerischem Wege (approximativ also) lösen.
     
    Das Signal GW150914 war ein wirklicher Glücksfall:
       
    • Es wurde aufgezeichnet erst wenige Stunden, nachdem man LIGO — zunächst nur probeweise — scharf geschaltet hatte. Zudem war es ein äußerst deutliches Signal, welches genau dem entsprach, was Simulationen für den Zusammenstoß zweier Schwarzen Löcher an Gravitationswellen vorausgesagt hatten.
       
    • Die Genauigkeit, mit der man in LIGO mit Hilfe von Laserlicht ständig die Länge seiner 4 km langen Arme exakt bestimmt hat, lag bei 0,25 10-21 (Das ist 1%% Protonendurchmesser. Würde man die 4,3 Lichtjahre lange Entfernung von der Erde hin zum nächsten Fixstern Alpha Centauri mit derselben Genauigkeit bestimmen, müsste man sie auf den Durchmesser eines menschlichen Haares genau messen können).
       
      Solche Genauigkeit zu erreichen war es z.B. notwendig, die Spiegel am Ende der Arme von LIGO 20 cm dick zu machen (nur so waren sie hinreichend massereich, um zu verhindern, dass sie durch den Impuls der auf sie treffendenh Photonen des Laserstrahls minimal bewegt wurden.
       
    • Bis hin zu diesem Erfolg waren weltweit schon gut 1 Milliarde USD in den Aufbau solcher Gravitationsdetektoren gesteckt worden (mit ständigen Rückschlägen, da immer wieder Gelder gestrichen worden waren).
       
    • Dieser Aufwand hat sich gelohnt: Man hat jetzt eine weitere Bestätigung dafür, wie ganz unglaublich genau Einsteins Theorie die Raumzeit und ihr Verhalten modelliert. Zudem gewinnt man mit erfolgreichem Detektieren von Gravitationswellen die Möglichkeit, nun auch das Geschehen in Regionen des Weltalls zu beobachten, in die man nicht hineinsehen kann (etwa in den Zustand des Universums noch vor 300 000 Jahren nach dem Urknall, aber auch in Regionen, wie etwa das Zentrum der Milchstraße, in der dichte Staubwolken die Sicht behindern).

     

     
    Eigenschaften von Gravitationswellen

     
    Die absolute Signalhöhe — auch Amplitude genannt — einer empfangenen Gravitationswelle ist umgekehrt proportional zur Entfernung des Ereignisses von der Erde. Bei doppelter Entfernung würde sie sich also halbieren.
     
    Dies scheint einem wichtigen Gesetz der Optik zu widersprechen, nach dem empfangene Lichtintensität umgekehrt proportional zum Quadrat der Entfernung der Lichtquelle ist (so dass uns ein Stern bei doppelter Entfernunf von der Erde nur noch 1/4 Mal so hell erscheint).
     
    Dieser nur scheinbare Widerspruch ergibt sich daraus, dass bei Lichtquellen die Lichtintensität betrachtet wird, bei Gravitationswellen aber die die Signalamplitude. Da die Lichtintensität proportional zum Amplitudenquadrat der Lichtwelle ist, ergibt sich aus dem quadratischen Abstandsgesetz wieder genau die lineare Abhängigkeit von der Wellenamplitude.
     

     
    Gravitationswellen als Summe von Gravitonen

     
    Einsteins allgemeiner Relativitätstheorie zufolge sollten Gravitationswellen sich mit Lichtgeschwindigkeit ausbreiten.
     
    In einer künftigen einheitlichen Feldtheorie — einer sog. Quantengravitationstheorie — müssten jene Wellen sich als Summe sog. Gravitonen (unteilbarer Wellen) darstellen. Diese hypothetischen Partikel könnten Ruhemasse haben. Wenn dem so wäre, müsste sie aber — wie man schon seit längerem weiß — extrem gering sein.
     
    Durch den Empfang des sehr klaren Signals GW150914 konnte die vermutete Obergrenze für die Ruhemasse von Gravitonen nun aber nochmals deutlich reduziert werden: Hätten Gravitonen nämlich nennenswerte Ruhemasse, müsste das Signal auf seinem 1,3 Milliarden langem Weg hin zur Erde durch Dispersion förmlich zerflossen sein: Gravitonen unterschiedlicher Frequenz wären dann nämlich zu leicht unterschiedlicher Zeit bei uns angekommen, so das das Signal dann niemals die deutliche Form hätte haben können, mit der es detektiert wurde.
     
     
    Quelle: Günter Spanner:  Das Geheimnis der Gravitationswellen  (2016), S. 162-166
     
    Dies ist ein sehr informatives Buch. Man merkt, dass Spanner Experte für Gravitationswellen ist — nicht einfach nur Wissenschaftsjournalist oder Sachbuchautor.
     
     
    Gravitationswellen sind Quadrupolwellen
     
    2019: Erster interstellarer Koment entdeckt
     
    Die bisher (2019) energiereichste durch Menschen beobachtete Gravitationswelle:
     
    The signal, resembling about four short wiggles, is extremely brief in duration, lasting less than one-tenth of a second. From what the researchers can tell, GW190521 was generated by a source that is roughly 5 gigaparsecs away, when the universe was about half its age, making it one of the most distant gravitational-wave sources detected so far.


     

     Beitrag 0-214
    Gravitationswellen und die Steifheit des kosmischen Raumes

     
     

     
    Zur Steifheit des kosmischen Raumes

     
     
    Gravitationswellen durchdringen Materie, ohne nennenswert abgeschwächt zu werden. Sie breiten sich ähnlich aus, wie durch Erdbeben verursachte Druckwellen im Boden:
     
    Sie machen sich bemerkbar als winzige Stauchungen und Streckungen. Genauer: In einer Richtung senkrecht zur Ausbreitungsrichtung der Gravitationswelle wird die Raumzeit periodisch abwechselnd in eine Richtung gedehnt und in die dazu senkrechte gestaucht.
     
    Siehe hierzu die Illustration auf Einstein Online.
     
    Dieser Effekt liegt typischerweise in der Größenordnung von 10-19 Prozent (pro Kilometer ist das etwa 1 Zehntausendstel des Protonen-Durchmessers).
     
    Dass er dermaßen gering ist liegt an der extremen Steifheit der Raumzeit: Sie ist 1032 Mal größer als die Steifheit von Stahl, 1043 Mal größer als die von Gummi.
     
    Man kann das mit der physikalischen Größe » Elastizitätsmodel « ausdrücken. Sein Wert beträgt 0,05 Gigapascal für Gummi, 200 für Stahl, aber schier unvorstellbare 1024 Gigapascal für die Raumzeit.
     

     
     
    Wie schwingen Gravitationswellen?

     
    Wie Einstein schon 1918 entdeckt hat, können Gravitationswellen — nach der ART — nur auf zwei unterschiedliche Arten polarisiert sein: Linear oder elliptisch (der Unterschied ist mir nur ansatzweise klar, siehe Theorie der Gravitationswellen und denkbare Polarisationsarten).
     
    Dass Gravitationswellen — anders als Schallwellen — Transversalwellen sind (wie auch das Licht), erscheint mir erstaunlich.
     

     
     
    Was verursacht Gravitationswellen?

     
    Gravitationswellen entstehen, wenn Masse beschleunigt wird (ganz so wie Photonen überall dort entstehen, wo ein elektrisch geladenes Teilchen sich beschleunigt bewegt).

     

     Beitrag 0-444
    Wie stark können Gravitationswellen sein?

     
     

     
    Wie stark können Gravitationswellen sein?

     
     
    Beim Zusammenstoß Schwarzer Löcher können bis zu 40 Prozent ihrer Energie zu Gravitationswellen werden.
     
    In der Millisekunde ihres Verschmelzens kann so eine Energiemenge freigesetzt werden, die der Summe allen Lichts entspricht, das sämtliche Sterne im beobachtbaren Universum in dieser Zeitspanne in Summe abstrahlen.
     
     
    Dieser Wert ist gigantisch — und das, obwohl Gravitationswellen im unserem alltäglichen Umfeld gar nicht zu spüren sind.
     
    Würde man einen Meterstab so schnell um seinen Mittelpunkt drehen, dass er gerade noch nicht bricht (etwa 0,002 sec pro Umlauf), so hätte dieser Gravitationswellensender eine Leistung von gerade mal 10-37 Watt.
     
    Selbst die Gravitationswelle, welche unsere Erde bei ihrem Umlauf um die Sonne verursacht, bringt es auf nur etwa 200 Watt.
     
    Im Gegensatz dazu hat die Sonne eine elektromagnetische Strahlungsleistung von im Mittel 1367 Watt pro Quadratmeter auf der Erdoberfläche.
     
    Andererseits: Die Gravitationswellen-Leistung eines einzigen Pulsarsystems wie PSR J0737-3039 beträgt 1047 Watt.
     
     
     
    Quelle: Rüdiger Vaas: Signale der Schwerkraft (2017), S. 36-37


     

     Beitrag 0-221
    Detektoren für Gravitationswellen

     
     

     
    Zur Messung von Gravitationwellen

     
     
    Nachdem LIGO am 15.9.2014 ( Event GW150914 ) erstmals Gravitationswellen registriert hat — und dazu in der Lage sein musste, die Längen seiner jeweils 4 km langen Arme auf ein Zehntausendstel eines Protonendurchmessers genau zu messen — wird nun neu darüber nachgedacht, wie sinnvoll es erscheint, viel Geld in noch wesentlich genauere Detektoren zu stecken.
     
    Schon 1997 hatte die Weltraumagentur ESA in Kooperation mit der NASA ein sehr ehrgeiziges Projekt geplant: LISA (Laser Interferometry Space Antenna). Nachdem sich die NASA dann aber 2011 wegen fehlenden Geldes aus dem Projekt zurückzog, regten sich Zweifel, ob ein derart ambitioniertes Unternehmen denn überhaupt sinnvoll sei und ob es denn überhaupt gelingen könne.
     
    LISA sollte aus 3 baugleichen Raumsonden bestehen, die — 50 Mio Kilometer von der Erde entfernt — ein gleichseitiges Dreieck mit etwa 5 Mio. Kilometer Länge aufgespannt hätten.

       
      Nach dem Ausstieg der NASA wurde das Projekt abgespeckt und neu geplant als eLISA (evolved LISA): Drei Satelliten mit einer V-förmigen Laserstrahlenlänge von jetzt nur noch 1 Million Kilometer.
       
      Die technische Machbarkeit dieser Lösung zu demonstrieren wurde am 5.12.2015 eine eigene Raumsonde losgeschickt: LISA Pathfinder.
       
      Sie hat zwei Testmassen an Bord: ein Paar je 2 kg schwerer (46 mm großer) Würfel aus Gold und Platin. Sie wurden am 1.3.2016 aus ihren Halterungen gelöst und befinden sich seitdem 38 cm voneinander entfernt in der Schwerelosigkeit. Dies stellt den reinsten freien Fall dar, den Menschen je künstlich herbeigeführt haben. Kompliziert ist das deswegen, weil die Raumsonde selbst, die Sonneneinstrahlung sowie der Druck des Sonnenwindes winzige, aber messbare Störungen erzeugen, die laufend durch minimale Kurskorrekturen kompensiert werden müssen.
       
      Zudem soll die Sonde — die sozusagen um die beiden Würfel herum fliegt —, den Abstand der beiden Testkörper störungsfrei exakt messen: eLISA kann nur Erfolg haben, wenn dies auf wenige Billionstel Meter genau gelingt.
       
      Bislang (Juni 2016) sind die Resultate besser als man zu hoffen gewagt hatte.

     
    Asiatische Forscher (Japan und China) planen zwei ähnliche Detektoren. Sie sollen geeignet sein, Gravitationswellen im Bereich von 0,1 bis 100 Millihertz zu registrieren.
       
      Note: Weltweit mehrere (auch unterschiedlich konzipierte) Detektoren zu haben ist eine notwendige Form der Kooperation. Die Forscher tauschen neben ihren Erfahrungen mit dieser oder jener Technologie natürlich auch ihre Messdaten aus, und so haben auch im Zuge von GW150914 die Projekte LIGO, Virgo und GEO600 eng zusammengearbeitet.
       
      Dies ist auch notwendig, denn man braucht mindestens 2 Anlagen, um Messfehler auszuschließen. Eine dritte ist notwendig, um die Richtung zu bestimmen, aus der registrierte Gravitationwellen kommen. Erst mit noch einer vierten Anlage wäre es möglich, diese Richtung auch aus Zeitunterschieden zu berechnen. Einsteins Theorie der Gravitationswellen selbst zu testen gegenüber alternativen Theorien, die — anders als die Allgemeine Relativitätstheorie — auch in Ausbreitungsrichtung schwingende Wellen voraussagen, sind ebenfalls wenigstens 4 Detektoren nötig.
       
      Lies auch: Wie schwingen Gravitationswellen?

     
     
    Die Quelle von Gravitationswellen kann unterschiedlicher Art sein: Stochastischer Hintergrund, periodisch auftretende Wellen und Bursts:
       
    • Der stochasistische Gravitationwellen-Hintergrund (Frequenz unter 10-5 Hertz) rührt her von Gravitations-Bremsstrahlung sowie von Ereignissen im frühen Universum bis hin zu Relikten des Urknalls.
       
    • Periodisch auftretende Gravitationswellen haben etwas höhere, aber immer noch sehr niegrige Frequenz (10-5 bis maximal 10 Hertz). Sie zu registrieren sind Satelliten-Interferometer notwendig, die Millionen Kilometer lange Arme haben. Ihre Messgenauigkeit muss bei etwa 1 Billionstel Meter liegen. LISA Pathfinder bewies, dass sie erreicht werden kann.
       
    • Bursts — verursacht durch kosmische Katastrophen wie etwa den Zusammenstoß Schwarzer Löcher — sind kurze, heftige Emissionen von Gravitationswellen, die nur Sekundenbruchteile andauern, aber mehr Energie abstrahlen können als unsere Sonne in Form von Wärme über Milliarden von Jahren hinweg abgibt.
       
      Da Bursts hohe Frequenz haben (über 10 Hertz) können sogar noch erdgebundene Detektoren wie LIGO sie entdecken. LIGOs Arme sind 4 km lang, seine Messgenauigkeit liegt bei 1 Zehntausendstel des Protonendurchmessers (womit das Ereignis GW150914 gut entdeckbar war: Es hat die Länge der Arme um etwa das 10-fache schwanken lassen).

     
    Grundsätzliches: Das Spektrum der Gravitationswellen verteilt sich über den gesamten Himmel und reicht von nur wenige Kilometer langen Wellen bis hin zu solchen, deren Wellenlänge dem Durchmesser des gesamten beobachbaren Universums entspricht.
     
    Sie aufzuspüren kann zu ganz erheblichem  E r k e n n t n i s g e w i n n  führen:
       
    • GW150914 etwa ist das bisher beste Indiz für die Existenz Schwarzer Löcher
       
    • und half zudem noch
         
      • Gültigkeitsgrenzen der Relativitätstheorie auszuloten
         
      • und Grundannahmen zu bestärken (darunter auch die 4-Dimensionalität der Raumzeit, das Fehlen von Dipolstrahlung, die zeitliche Konstanz von Lichtgeschwindigkeit und Gravitationskonstante).


       
       
      Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 387-403.


       

     Beitrag 0-443
    Wie Pulsare helfen, Gravitationswellen abzuhören

     
     

     
    Wie Pulsare helfen, Gravitationswellen zu messen

     
     
    Pulsare — schnell rotierende Sterne, die wie Leuchtfeuer wirken — sind nicht nur Quelle von Gravitationswellen, sondern können auch helfen, solch kosmische Erschütterungen nachzuweisen — und zwar prinzipiell andere, als jene, die mit ergebundenen oder auf Satelliten installierten Messapparaturen nachweisbar sind:
     
    Schon mit Hilfe von 40 bis 50 über den gesamten Himmel verteilter Millisekunden-Pulsare (seit 1982 bekannt) lassen sich im Prinzip Gravitationswellen mit Wellenlängen von bis zu 50 Lichtjahren aufspüren. Jede Kollision supermassereicher Schwarzer Löcher oder der Zusammenstoß von Galaxien erzeugt solche Wellen.
     
    Die Idee zu solcher Messmethodik hatten man schon 1990, aber erst seit 2004 wird in großem Maßstab nach derart langwelligen Signalen gesucht.
     
     
    Das Prinzip ist einfach: Gravitationswellen ändern den Abstand zwischen Erde und Pulsaren geringfügig und beeinflussen damit die Ankunftszeit der vom Pulsar ausgesandten Lichtsignale geringfügig.
     
    Zu erwarten sind Wellenamplituden von etwa 10-15 für ein Signal mit der Frequenz von einer Schwingung pro Jahr.
     
    Dafür müssen allerdings einige Jahre lang die Pulsfrequenzen mit einer Präzision von mindestens einer Zehnmillionstel Sekunde registriert werden.
     
    Das ist eine große Herausforderung, doch Astronomen werden das bald können — ihre Telekope müssen nur noch um einen Faktor 3 empfindlicher werden.
     
     
     
    Aber auch nichts zu finden, ist eine Aussage:
     
    Bisherige, noch weniger genaue Messungen waren keineswegs vergeblich: Sie haben — eben weil man nichts fand — nach erst 9 Jahren Messzeit schon mal Obergrenzen für die Zahl supermassereicher Schwarzer Löcher und für die Stärke ihres Gravitationswellenhintergrunds ergeben.
     
    Dies hilft, Vorhersagen bestimmter Entwicklungsmodelle für Galaxien auszuschließen.
     
     
    NANOGrav mit den Teleskopen von Greenbank und Arecibo hat derzeit 54 Pulsare im Visier, was einem Detektor mit einem Durchmesser von 3000 Lichtjahren entspricht.
     
    Durch das geplante weltweite Zusammenschalten solcher sog. Pulsar Timing Arrays (PTAs) wird sich demnächst ein noch weit größerer, den gesamten Himmel umfassender Detektor ergeben.
     
     
     
    Quelle: Rüdiger Vaas: Signale der Schwerkraft (2017), S. 32-35


     

     Beitrag 0-495
    Wenig bekannte Ansätze für eine sog. Weltformel

     
     

     
    Auf der Suche nach einer sog. » Weltformel «

     
     
    Unter einer » Weltformel « versteht man ein physikalisches Modell, welches in der Lage ist, den gesamten Inhalt des Universums zu beschreiben unter Berücksichtigung sämtlicher Grundkräfte der Physik (und somit im Prinzip wenigstens auf jeder nur denkbaren Skala ohne jeden Verlust an Genauigkeit.
     
    Mit anderen Worten: Man versteht darunter ein Modell, welches die Quantenphysik mit Einsteins allgemeiner Relativitätstheorie zusammenzuführen gestattet.
       
    • Bekanntester Kandidat für so ein Modell ist Stringtheorie (deren Befürworter sich derzeit aber in einer Sackgasse sehen).
       
    • Ernst zu nehmen — aber weit weniger umfassend angelegt — ist die durch Carlo Rovelli und Lee Smolin vorgeschlagene Schleifenquanten-Gravitations-Theorie, auch » Loop Quantum Gravity « genannt.
       
    • Derzeit noch ignoriert scheint Felix Finsters Theorie der » kausalen Fermionensysteme « obgleich er doch behauptet, eine wirklich umfassende Lösung zu haben, die zudem noch mathematisch nicht besonders schwierig erscheint, da sie nur auf der Theorie der Hilberträume basiert.
       
    • Ein ganz besonders naheliegender Ansatz — der aber bisher auch nur ein Schattendasein führt — ist der von Xiao-Gang und seinen Schülern, welcher ausgeht von folgender Idee:
       
      Wie in der Quantenfeldtheorie wird alles, was Energie darstellt — Materie wie Strahlung — als Anregung des Feldes der physikalischen Grundkräfte betrachtet. Über Fourier-Entwicklung stellt sie sich dar als Summe abzählbar vieler harmonischer Wellen, deren jede genau ein QuBit darstellt. Damit ist der gesamte Inhalt des Universums als aus QuBits bestehend erkannt: Sie sind die "Körnchen", aus denen sich alles zusammensetzt.
       
      Ich weiß bisher nur von zwei Professoren der Physik, welche — von anderen Physikern scheinbar völlig ignoriert — unabhängig von einander diesen Ansatz verfolgen: Thomas Görnitz einerseits und Xiao-Gang andererseits.
       
       
       
      Die Teilchen des Standardmodells sind hiernach kollektive Bewegungen dieser QuBits,
       
      also noch lange nicht die wirklich unteilbaren Bausteine aller Materie.

       
       
      Nach einer Abschätzung von Thomas Görnitz besteht jedes Elektron aus grob 1030, jedes Proton sogar aus etwa 1040 QuBits.

       
       
       
      Xiao-Gang fand in seinem Ansatz — ganz so wie die Stringtheoretiker in ihrem — auch ein Quasiteilchen, welches alle Eigenschaften des Gravitons hat. De-facto also ist auch er auf der Jagd nach einer umfassenden "Theorie von Allem", obgleich er selbst — so denkt Sabine Hossenfelder auf Seite 251 ihres in 2018 erschienen Buches Das hässliche Universum — eigentlich nur die Mathematik des Standardmodells "von ihrem Schmutz befreien" möchte.
       
       
      Man erinnere sich: Die Stringtheorie erschien von Anfang an vor allem deswegen so interessant, da sie auch das Graviton kennt. Warum also wird Xiao-Gangs Modell, welches denselben Vorzug hat, bisher so gar nicht zur Kenntnis genommen?
       
      Wie Xiao-Gang betont,
         
      • braucht er im seiner Welt der QuBits keine Symmetrie, um bei niedriger Energie die Eichsymmetrien des Standardmodells zu bekommen: Sie ergeben sich dann von selbst durch Emergenz.
         
      • Zudem hätten er und seine Mitarbeiter Hinweise darauf, dass sein Modell auch die Allgemeine Relativit#ätstheorie enthalte, wobei er aber zugibt, dass sie in dieser Hinsicht noch keine endgültigen Schlüsse gezogen haben.
         
      • Um die Spezielle Relativitätstheorie zu bekommen, bedarf es einer Feinabstimmung der Parameter des Modells. Warum das so sein muss, weiß er derzeit nicht.

       
       
      Note: Physiker nennen eine Zahl, die eine Erklärung zu fordern scheint, eine » Feinabstimmung «. Als » natürlich « gilt jede Theorie, die ohne solche Zahlen auskommt.

       

     Beitrag 0-77
    Hans-Peter Dürrs Verständnis von Wirklichkeit, Realität, Raum und Zeit

     
     

     
    Hans-Peter Dürrs Verständnis von

    Wirklichkeit, Realität, Raum und Zeit

     


    Dürr (S. 22-23):
     
    Die experimentellen Befunde der modernen Physik haben uns zu einer überraschenden Einsicht gezwungen:
     
    Alles, was wir durch indirekte Beobachtungen oder durch Abstraktion unserer Wahrnehmungen als Wirklichkeit betrachten und in der Naturwissenschaft als (stoffliche) Realität beschreiben, darf in dieser Form nicht mit der eigentlichen Wirklichkeit — was auch immer wir uns darunter vorstellen wollen — verwechselt werden.
     


     
    Sie, Herr Dürr, sprechen davon, dass es im Grunde keine "Zeit" gibt, nur "Gestaltveränderung".

    Aber wie soll man sich Veränderung vorstellen ohne jede Ahnung von so etwas wie Zeit?

     


    Dürrs Antwort darauf (S. 116-118):
     
    Man kann "Zeit" sagen oder man kann "Veränderung" sagen. Beide Begriffe drücken gleiches aus, und beide eigentlich falsch, da wir dazu Substantive verwenden. Substantive sind Begriffe, die sich auf etwas beziehen, das ist, also existiert.
     
    Aber ich muss etwas weiter ausholen: Ich habe vielfach davon gesprochen, dass in der Quantenphysik das Primat der Materie durch eine allgemeine "Ver­bundenheit" (oder Ähnliches) ersetzt werden muss, wofür ich u.A. auch die Bezeichnung "Gestaltveränderung" gewählt habe.
     
    Verbundenheit aber kann — für unsere Erfahrung grundverschieden — räumlich und zeitlich sein. Wir verwenden daher für den zeitlichen Fall besser den Ausdruck "Veränderung".
     
    Ihre Frage, auf den räumlichen Fall bezogen, würde dann lauten: Wie soll man sich Verbundenheit vorstellen ohne auch nur eine Ahnung von Raum zu haben?
     
    Hierauf zu antworten erscheint leichter: Im Begriff der Verbundenheit steckt schon eine "Mehrheit" (mehr als eins), die den Raum aufspannt.
     
    Der Raum kann eindimensional sein, wie eine Linie, zweidimensional wie eine Fläche usw. (Die 1-dimenionalen Räume lieben wir besonders, weil sie eine eindeutige Anordnung aller Existierenden ermöglichen, etwa im Sinne von kleiner und größer, schlechter und besser.)
     
    Der Raum ist nur Konstrukt unseres wachen Bewusstseins.
     
    Wenn wir jetzt das Substantiv "Verbundenheit" durch das Verb "verbinden" oder "binden" ersetzen, so tritt die Vorstellung des Raumes ganz zurück.
     
    Veränderung (als zeitliche Verbundenheit) ist noch eine Stufe tiefer als die räumliche angelegt. Die Zeit nämlich ist gleich in doppelter Hinsicht ein Konstrukt:
    • Erstens zerren wir sie auf die gleiche Stufe wie den leblosen Raum,
    • und zweitens interpretieren wir sie dann auch — wie den Raum — ontologisch [ als etwas "Seiendes" ].

    Die Zeit ist nicht die Schnur, auf der wir Perle um Perle anreihen. Es ist ein Nacheinander von Perlen, das die Schur nur imitiert.
     
    "Ändern" [ Veränderung ] verbleibt als ein "durch alles hindurch fließen" ohne begriffen zu werden. Oder deutend und substantivisch verzerrt ausgedrückt:
     
     
    Gestaltveränderung ist eine Urerfahrung,

    die das Grundwesen unserer Wirklichkeit, zu wirken, widerspiegelt.

     


     
     
    Quelle: Die Seitenzahlen beziehen sich auf das Büchlein Hans-Peter Dürr: Auch die Wissenschaft spricht nur in Gleichnissen, Herder (2004)


     

     Beitrag 0-79
    Wie es zum Unterschied zwischen dieser oder jener Realität und der Wirklichkeit kommt

     
     

     
    Genaueres zum Unterschied zwischen

    Realität und Wirklichkeit

     
     
    Hans-Peter Dürr — Quantenphysiker und Philosoph — schreibt:
     
    Es ist grob unzulässig und falsch, unsere Wahrnehmung der Wirklichkeit mit der Wirklichkeit schlechthin gleichzusetzen.

     
     
    Er erklärt das anhand eines Gleichnisses:
     
    Wenn wird denken — auch, wenn wir als Wissenschaftler denken — dann ist es so, als würden wir einen Fleischwolf verwenden:
     
    Wir stopfen oben die Wirklichkeit hinein, drehen an einem Hebel mit dem Effekt, dass alles klitzeklein zerhackt und dann die ganze Masse durch eine vorher gewählte Lochscheibe gepresst wird. Was herauskommt sind verschiedenartige Würstchen und Nudeln.
     
    Naiv schließen wir dann daraus, die Wirklichkeit bestünde aus eben diesen Würstchen oder Nudeln oder was auch immer, je nachdem, welche Lochscheibe (d.h. welche Modellierung der Wirklichkeit) wir oder unsere Sinne gewählt haben.
     
    Das stimmt aber gar nicht, wenn wir das Endprodukt mit den ursprünglich oben Hineingestopften vergleichen: Das Ergebnis unserer Beobachtung — das wir dann als Realität verstehen — ist ganz wesentlich ein Produkt der speziellen Art des Beobachtungsprozesses und der gewählten Erkenntnisstruktur (d.h. der jeweils gewählten Lochscheibe, die dann ja die Form der "Würstchen" bestimmt).
     
    Was wir sehen und erkennen, ist  k e i n  getreues Abbild der dahinter verborgenen Wirklichkeit.

     
     
    Dies sich klar machend, hat die moderne Physik erkannt:

     
    Es gibt — entgegen allem Anschein — überhaupt nichts stofflich Existierendes:
     
    Es gibt nur Wandel, d.h. ständige Veränderung durch laufend eintretende Ereignisse,
    die ihrerseits wieder die Wahrscheinlichkeit verändern, dass durch sie möglich gewordene weitere Ereignisse tatsächlich eintreten.

     
     
    Vorsicht aber: Wir missverstehen in diesem Zusammenhang die Bedeutung von "Wandel" und "Veränderung", wenn wir sie ontologisch beschreiben als "A hat sich über die Zeit hinweg in B verwandelt". Denn es gibt im Grunde weder A noch B noch Zeit, sondern nur "Gestaltveränderung" (Metamorphose).
     
     
    Was sich da verändert, sind einzig und allein Wahrscheinlichkeiten für das Eintreten von Ereignissen, die eben solche Wahrscheinlichkeiten neu festsetzen.
     
    Und so gibt es z.B. auch kein teilchenartiges Elektron, das sich auf einer bestimmten Bahn von einem Raumpunkt zu einem anderen bewegen würde. Es gibt nur eine Verknüpfung elektron-artiger Ereignisse, welche wir — unserer gedanklichen "Lochscheibe" wegen — auffassen als spontanes Auf- und Abtauchen eines Elektrons an bestimmten Stellen mit bestimmten Wahrscheinlichkeiten.
     
     
    Die Logistik dieses Phänomens ist einem eigenartigen Ozean von Wahrscheinlichkeitswellen anvertraut. Der wiederum ist kein Energiefeld, sondern mehr ein über
    die ganze Welt hinweg ausgedehntes, nicht an den 3-dimensionalen Raum gebundenes, grenzenloses Informationsfeld , das Beziehungsintensität misst, welche korrespondiert mit der Wahrscheinlichkeit, mit der Ereignisse eintreten.
     
    Dieses komplexe Ineinander ist schwer vorstellbar, denn die ganze komplizierte Wellenstruktur dieses "Ozeans" ist eine Überlagerung gegeneinander nicht abgrenzbarer Wellen, deren jede durch ein eingetretenes Ereignis ausgelöst wurde, ganz so wie Wasserwellen entstehen, wenn ein Stein ins Wasser geworfen wird oder Felsen im Meer zu zerschellender Brandung führen.
     
    Die möglichen Prozesse (= Folgen aufeinander aufbauender Ereignisse) sind durch bestimmte Symmetrien eingeengt, die sich phänomenologisch in Erhaltungssätzen äußern (etwa in denen, die sagen, dass Gesamtenergie und Gesamtladung stets Null sein müssen).
     
     
    Da die Wahrscheinlichkeit, mit der spezifische Ereignisse eintreten, in aller Regel weder 0 noch 1 ist, wissen wir nun, dass das Naturgeschehen keinem mechanis­tischen Uhrwerk entspricht, sondern mehr den Charakter einer fortwährenden kreativen Entfaltung hat: Die Welt wird sozusagen stängig neu erschaffen und gestaltet.
     
    Dies also ist gemeint, wenn die Quantenphysik sagt, die Zukunft sei prinzipiell offen und unbestimmt.
     
     
    Mit der Nichtexsistenz von lokalisierbaren, abtrennbaren Objekten gibt es auch keine Möglichkeit mehr, von Teilen im Sinne von "Bestandteilen" zu sprechen. Die Welt ist ein nicht auftrennbares Ganzes — ein Kosmos, der alles mit allem unauflösbar verbindet.
     
     
     
    Quelle: Kapitel 1 aus Hans-Peter Dürr: Auch die Wissenschaft spricht nur in Gleichnissen, Herder (2004)


     

     Beitrag 0-80
    Können Chaostheorie und Quantenphysik uns das Geheimnis des Lebens begründen?

     
     

     
    Wie uns Chaostheorie und Quantenphysik
     
    das Geheimnis des Lebens erklärbar machen

     
     
    — eine Erkenntnis von Hans-Peter Dürr —

     
    Dem 2. Hauptsatz der Thermodynamik entsprechen passiert stets das Wahrheinlichere wahrscheinlicher. Da Zufall eher Unordnung denn sinnvolle Ordnung schafft, müsste die Summe aller Passierchen deswegen langfristig totale Unordnung schaffen. Wie also kann es dann dennoch zu Emergenz, speziell zu Leben kommen?
     
    Diese Frage zu beantworten müssen wir nach Mechanismen suchen, die umgekehrt vom Wahrscheinlichen zum Unwahrscheinlichen führen — und hin zum Kreativen.
     
    Das Schlüsselwort für den Weg dorthin heißt Instabilität.
     
     
    Dürr erklärt das am Beispiel mechanischer Pendel:
     
      Ein Pendel — man denke an das Pendel einer großen Schrankuhr — ist ein Gewicht festgemacht am Ende eines Stabes, der an seinem anderen Ende frei bewegbar aufgehängt ist. Wer das Pendel hochhebt, so dass das Gewicht senkrecht über dem Aufhängepunkt des Pendels steht, und dann löslässt, wird feststellen, dass nich vorhersagbar ist, nach welcher Seite es fallen wird — wie bei einer Schiffsschaukel, die am oberen Überschlagspunkt angekommen dort in ihrer Bewegung ganz langsam wird und sich dann aber doch entscheiden muss, da der Lage dort oben keinerlei Stabilität innewohnt.
       
      Wohin das Pendel (oder die Schiffsschaukel) dann fällt, hängt davon ab, wie genau beim Stillstehen der Punkt senkrecht über dem Aufhängepunkt erreicht wurde. Je genauer er erreicht wurde, desto größeren Einfluss nehmen aus der Umgebung kommende Kräfte auf die Emtscheidung, wohin das Pendel fallen wird. Zum Beispiel die gravitative Anziehung, die ich als Nächststehender auf das Pendel in Richtung auf mich hin ausübe. Doch auch alles andere im Raum, in dieser Stadt, auf dieser Erde, ja im gesamten Weltall  k a n n  von Bedeutung werden.
       
       
      Das heißt: Am obersten Schwingungspunkt angekommen wird das System praktisch nicht mehr prognostizierbar, da es mit dem gesamten Universum kommuniziert. Das Pendel erreicht dort prinzipiell unbegrenzte Sensibilität und reagiert so auf selbst noch die feinsten äußeren Einflüsse.
       
      Dies ist der Chaospunkt des Pendels, der einer Wetterlage gleicht,bei der schon der Flügelschlag eines Schmetterlings einen Taifun auslösen kann.
       
       
      Mehr noch: Selbst diese Freiheit ist noch denkbar dürftig im Vergleich mit ähnlichen, denn sie lässt sich leicht bis ins Unendliche hin erweitern, wenn wir in den Pendelstab ein, zwei, oder viele naehezu reibungslos arbeitende Kugelgelenke einbauen. Der Pendel wird dann zu einem Mehrfach-Pendel (zu etwas, das wir heute einen Chaos-Pendel nennen). Seine Bewegungen sind erratisch und prinzipiell nicht mehr berechenbar [da die daraus resultierenden Gleichungen aufgrund zahlreicher Singularitäten nicht mehr integrierbar sind].
       
      Dennoch spiegelt solch chaotische Bewegung keineswegs totale Beliebigkeit oder den reinen Zufall wider, sondern ein hochkomplexes Zusammenspiel von Kräften.

    Dürr argumentiert:
      Das Lebendige gleicht im Grunde einem solchen Superchaos, denn im Gegensatz zum Unlebendigen, das in der Nähe von Gleichgewichtslagen angesiedelt ist, basiert das Lebendige i.W. auf   I n s t a b i l i t ä t e n  . Sie führen zu einer beliebig sensiblen Offenheit, die alles Verbindende und alle embryonal denkbaren Möglichkeiten von Emergenz ausloten kann und — genügend Zeit gegeben — auch wirklich ausloten wird.

     
    Fassen wir zusammen: Mit nur einem einzigen Sensibilitäts/Instabilitäts-Punkt ist ein Pendel noch recht unlebendig. Dies aber wird anders, wenn wir Arretierungen herausziehen und so dem Pendel zunehmend mehr Freiheitsgrade — und damit   S e n s i b i l i t ä t s p u n k t e   — geben.
     
    Aber all das ist noch klassische Physik, sozusagen ein "determinisches" Chaos, allein bestimmt durch in ihrer Extremität nicht begrenzte Sensibilitäten, die sich letzlich nicht mehr kontrollieren lassen. Viele Biologen hoffen, dass diese chaotische Offenheit ausreicht, höhere Entwicklungsstufen zu erreichen, d.h. Emergenzen zu bewirken, die Leben erklären könnten.
     
    Dürr teilt diese Meinung nicht, denn er erkennt, dass es sich hier nicht um ein unkorreliertes Nebeneinander, sondern um ein höchst korreliertes Ineinander handelt.
     
    Im Rahmen der Quantenphysik lässt sich in der Tat streng demonstrieren, dass bei den meisten Systemen unseres Alltags sich über eine Ausmittelung all der Billionen mal Billionen » Passierchen « mit hoher Genauigkeit die Verhältnisse der uns gewohnten Realität ergeben (der Realität also, wie klassische Physik sie uns durchaus zutreffend beschreibt).
     
     
     
    Dürr sieht die lebendige Natur als das Ergebnis eines Plussummenspiels: Höhere Differenzierung ermöglicht höhere Flexibilität und bessere Anpassungsfähigkeit an sich ständig ändernde äußere Bedingungen und Umstände.
     
    Gesellschaften mit zentralisierter oder gar totaler Herrschaft entwickeln im Gegensatz dazu mächtige, ja sogar übermächtige Aktionspotentiale. Die aber bieten nur kurzfristig Überlebensvorteile, da sie längerfristig an ihrer Einfalt, Starrheit und Unlebendigkeit zerbrechen.
     
    Sehen wir hin: In knapp 4 Milliarden Jahren ist das Unwahrscheinlichste, das passieren konnte, tatsächlich passiert — und zwar deswegen, weil es immer wieder aus der Hoffnug gespeist wird, die ihre Begründung im potentiell Möglichen und der Allverbundenheit aller Quanten im Universum hat. Gut 3 Milliarden jahre haben wir als Mitspieler dieses Spiels erfolgreich miterlebt und gemeistert: Differenzierung durch Destabilisierung — aber immer verbunden mit einem kooperativen Zusammenspiel der Instabilitäten
     
    entsprechend dem Paradigma des Lebendigen,
     
    d a s   L e b e n   l e b e n d i g e r   w e r d e n   z u   l a s s e n  

     
     
    Entscheidend ist, dass
    • sich immer wieder erfolgreiche Strukturen in die nächste Zeitschicht hinüber retten können
       
    • und durch Zufuhr von Energie immer wieder neue Chaospunkte entstehen: Bifurkationspunkte, die Möglichkeiten schaffen, welche hinsichtlich des ihnen innewohnenden Schöpfungspotentials prinzipiell unbegrenzt sind.

    Nur die Regeln des Zusammenspiels — ob das destruktive Gegeneinander der Nullsumme oder das konstruktive Miteinander der Plussumme vorherrschen soll — scheinen dem Zufall überlassen zu sein.
     
     
     
    Quelle: Kapitel 2 aus Hans-Peter Dürr: Auch die Wissenschaft spricht nur in Gleichnissen, Herder (2004)

     
    Note: Der Begriff des "Passierchen" wird nur von Dürr benutzt: Gemeint ist jede Veränderung die eintritt, wenn eine einzige unzerlegbare Energieportion sich in Wirkung auflöst (d.h. ein Wirkungsquantum in Sinne Max Plancks erzeugt: eine Portion Wirkung wie es sie noch geringer nicht geben kann).

     
     
    Dürrs Argumenatation scheint mir gut nachvollziehbar. Sie ist dennoch weit davon entfernt, uns verstehbar zu machen, warum in vielen biologischen Individuen eine Seele wohnt — mindestens aber der Drang, sich um die Überlebensfähigkeit direkter Nachkommen zu sorgen, solange die noch nicht für sich selbst sorgen können.
     
    Und warum können z.B. Hunde echte Freundschaft für Menschen empfinden (und umgekehrt)? Oder Elephanten tief betroffen sein vom Tod eines ihrer Kälber?

     

     Beitrag 0-374
    Wer über Grenzen der Wissenschaft hinausdenkt, muss noch lange kein Esoteriker sein

     
     

     
    Warum Hans-Peter Dürr

    zu Unrecht der Esoterik verdächtigt wurde

     
     
    Mit großem Erstaunen stelle ich imer wieder fest, dass selbst viele Naturwissenschaftler, ja sogar so ehemalige Physiker, den inzwischen verstorbenen Hans-Peter Dürr als Esoteriker einordnen. So wie ich ihn durch seine Schriften und Vorträge kenne, war er das auf keinen Fall:
     
    Er hat sich lediglich die Freiheit genommen, immer wieder auch über Zusammenhänge nachzudenken, welche die Physik bisher noch so gut wie gar nicht verstanden hat.
     
    Ganz besonders über das Zusammenwirken von Geist und Materie in der gesamten Natur hat Dürr sich Gedanken gemacht und dabei auch fernöstliche Philosophie mit unter die Lupe genommen.
     
    Dürr — ein Schüler Heisenbergs — war Quantenphysiker und als solcher schrieb er einmal:

     
     
    Ich habe als Physiker 50 Jahre lang — mein ganzes Forscherleben — damit verbracht zu fragen, was eigentlich hinter der Materie steckt.
     
    Des Endergebnis ist ganz einfach:
     
    Es gibt keine Materie!

     
     
    Viele haben ihm dieses Aussage übel genommen, da sie nicht verstanden, was er damit sagen wollte:
     
    Sie haben nicht verstanden, dass aus Sicht der Quantenphysik auch jedes Stück Materie sich seinem wahren Wesen nach als Summe von Feldanregungen im Felde der 4 physikalischen Gründkräfte darstellt — als nichts weiter sonst.
     
    Quantenphysiker aber wissen: Was Laien als die charakteristischen Merkmale von Materie ansehen — nämlich sichtbar und anfassbar zu sein — sind Eigenschaften, die einzig und allein unser Gehirn uns vorgaukelt, indem es
    • in unser Auge fallendes Licht zum Eindruck » Farbe « macht
    • und uns den Widerstand bewusst macht, mit dem die physikalischen Grundkräfte sämtliche Elementarteilchen, welche man als Fermionen einordnet, auf Abstand zueinander halten,
    so dass sich dann aus unserer makroskopischen Sicht heraus gewisse Wellenpakete als gut sichtbare, handfeste materielle Objekte im umgangssprachlichen Sinne darstellen.
     
     
    Die eigentliche Ursache dafür, dass Dürr von vielen der Esoterik verdächtigt wurde, war dann aber vor allem, dass er seinen Zuhörern immer wieder klar zu machen suchte, dass Wellenpakete ebenso wenig genau von einander abgrenzbar sind, wie Wellen im Ozean es sind: Sie gehen fließend ineinander über und interferieren mit einander selbst noch dort, wo sie nur extrem schwach präsent sind — letztlich also im gesamten Universum (!). Dass diese Erkenntnis der Quantenphysiker für viele Menschen sich als Esoterk darstellt, liegt einfach nur daran, dass
    • sie für Laien wenig nachvollziehbar erscheint (Wer kann sich schon so ohne weiteres vorstellen, dass sich ein Baum und ein darin willentlich hin und her bewegendes Eichhörnen als Wellenpakete addieren?)
    • und Wissenschaftlern sehr wohl bewusst ist, dass die Physik noch weit davon entfernt ist, zu verstehen, wie aus Feldanregungen Geist emergiert und der einem der Wellenpakete (dem Einhörnchen) befehlen kann, sich relativ zum anderen (dem Baum und seinen Ästen) sehr schnell zu bewegen.
    Nachdem wir aber definitv wissen, dass aus Materie Geist — menschliches Bewusstsein etwa — emergiert, sollten wir uns nicht scheuen, darüber nachzudenken, wie es dazu kommt und welche Konsequenzen sich daraus für die versteckte Verflechtung sämtlicher auf unserer Welt existierender Lebewesen ergibt.
     
    Für Dürr war das selbstverständlich — für so manche seiner Zuhörer aber nicht, da sie offenbar der Meinung waren, dass Esoteriker sein müsse, wer die Natur selbst dort noch zu interpretieren wagt, wo Physik sie noch viel zu wenig versteht.
     
     
    Wissenschaftler wie Dürr — solche, die über den Tellerrand dessen hinausdenken, was sich als schon abgerundetes physikalisches Wissen darstellt — sind selten und daher besonders wertvoll. Sie sind die wirklichen Pioniere der Wissenschaft. Wer geneigt ist, z.B. auch Rupert Sheldrake oder Thomas Görnitz als der Esoterik nahestehend einzuordnen, sollte sich dessen bewusst sein. Keiner von beiden hat diese Herabwürdigung seiner Lebensleistung verdient.
     
    Weder Dürr, noch Görnitz, und auch nicht Sheldrake sollte man nach dem beurteilen, was Leute, die sie als Esoteriker oder "Parawissenschaftler" brandmarken wollen, über sie schreiben.
     
    Dürr, Görnitz und ganz besonders Sheldrake — aber vielleicht sogar alle Wissenschaftler, die den Mut haben, weiter als andere zu denken — kann wirklich nur zutreffend beurteilen, wer vorurteilslos gelesen und gehört hat, was sie selbst schrieben oder in Vorträgen gesagt haben.
     
    Wissenschaftler unterscheiden sich von Esoterikern stets nur darin, wie logisch, präzise und vorurteilslos sie argumentieren, auf keinen Fall aber durch den Gegenstand ihrer Argumentation.


     

     Beitrag 0-189
    Warum Roboter (und KI) niemals voll die Rolle von Menschen übernehmen können

     
     

     
    Roboter oder Mensch — wer wird gewinnen?

     
     
    Zunehmend häufiger trifft man af die Frage, ob künstliche Intelligenz (KI) demnächst den Menschen überrunden wird.
     
    Zunächst aber eine Begriffsklärung:
       
    • KI ist Software — ein Gegenstand also, der für sich alleine noch nicht mal aktiv werden kann.
       
    • Erst als Gehirn eines Robotors — kombiniert mit Hardware also — wird KI zu einem Konkurrenten des Menschen.
       
    • Roboter also sind — im besten Fall — durch KI gesteuerte Hardware.

    Wie Roboter aussehen, von welcher Größe sie sind und welchem Zweck sie dienen, ist keinerlei Einschränkung unterworfen. Nicht zuletzt können sie
       
    • zu einem Teil menschlicher Körper werden
       
    • drahtlos miteinander vernetzt sein
       
    • und so Teil des weltumspannenden Internets werden.

    In den Körper von Menschen oder anderer biologischer Wesen integriert, machen Roboter diese Wesen demnach selbst zu einem Teil des Internets. Nicht zuletzt haben derart ausgestattete Menschen sich dann — prinzipiell wenigstens — vom korrekten Funktionieren zahlloser Roboter und Softwareprogramme abhängig gemacht.
     
     
    Dass dies neben großen Vorteilen auch ebenso große Risiken mit sich bringt, liegt auf der Hand.


     
     
    Wie aber funktionieren Roboter denn nur wirklich genau? Nützlich erscheint folgendes Modell:
     
    Jeder Roboter ist Hardware, die — über sie integrierte KI — in der Lage ist, ihren eigenen Zustand zu monitoren und auf jede Zustandsänderung blitzschnell mit einer weiteren Zustandsänderung zu reagieren.
     
    Insbesondere kann der eigene Zustand Wissen über den Zustand der Umgebung des Roboters sowie über den Zustand dort vorhandener Gegenstände und Lebewesen widerspiegeln. Solches Wissen wird erfasst über in die Hardware des Roboters integrierte Sensoren, kann ihm aber auch von anderen Robotern, mit denen er sich vernetzt hat, zugespielt werden.
     
    Da Roboter nicht nur winzig klein (und schwach), sondern auch riesig groß und beliebig stark sein können und Menschen einfach nur als ihnen im Weg stehende Hindernisse wahrnehmen, kann jeder Fehler der Robotersoftware ebenso wie jedes unüberlegte Verhalten der Menschen für jene Menschen böse Folgen haben: Siehe dieses Beispiel, aber auch viele andere.
     
    In solchen Fällen die Schuld beim Roboter zu suchen, macht keinen Sinn, denn der ist ja nur eine seelenlose Maschine, die von Menschen zu unvorsichtig genutzt bzw. programmiert worden ist. Hier wird klar:
     
     
    Verantwortlich können stets nur Menschen sein — niemals aber Roboter oder KI-Software.

     
    Konsequenz daraus:
     
    Roboter werden sinnvoll nie einsetzbar sein für Aufgaben, deren Abarbeitung den Arbeitenden vor eine völlig unerwartete Situation stellen könnte,
    • in der eine verantwortungsvolle Entscheidung
    • derart schnell getroffen werden muss, dass es unmöglich ist, sie an einen Menschen zu delegieren.

     
    Allein schon diese Tatsache zeigt, dass Roboter immer etwas bleiben werden, das dem Menschen nicht voll ebenbürtig sein kann — auch dann nicht, wenn der Roboter Fähigkeiten hat, mit denen er Dinge vollbringen kann, die aus eigener Kraft und aus eigenem Denken heraus zu vollbringen Menschen oder anderen biologischen Wesen niemals möglich sein wird.
     
    Roboter sind stets nur der verlängerte Arm eines oder mehrerer Menschen —
     
     
    wobei aber — das ist wichtig — die Handlungsfähigkeit solcher Arme
     
    die ihrer Schöpfer lange überdauern könnte (!).

     
     
    Dies gilt selbst dann noch, wenn es sich um Roboter handelt, die von anderen Robotern entworfen und implementiert wurden, und auch wenn solche nur noch indirekt vom Menschen geschaffenen Robotor Schaden anrichten, können dafür immer nur Menschen verantwortlich sein: Es sind dann die, welche den Urvater all dieser Roboter-Generationen konzipiert und geschaffen haben.
     
    Je mehr Roboter miteinander vernetzt werden — oder sich selbst miteinander vernetzen — desto schwieriger wird es werden, im Falle von Unfällen einen dann wirklich Verantwortlichen zu identifizieren (geschweige denn zur Rechenschaft ziehen zu können: Die Verantwortlichen könnten längst verstorben sein und keine für ihre Taten verantwortlichen Rechtsnachfolger haben).
     
    Mit Robotern also kann der Mensch sich nicht nur Arme schaffen,
       
    • deren Handlungsfähigkeit ihn selbst überlebt,
       
    • sondern auch Arme, die weit über seinen Tod hinaus wie Pflanzen wachsen, sich verzweigen und so ein Eigenleben führen, welches — vergleichbar mit schnell wachsendem Unkraut — alles andere zu ersticken droht.

     
    Nachdem wir nun erkannt haben, dass Roboter den Menschen in seiner Rolle als verantwortlichen Entscheider niemals werden voll ersetzen können, sei nun der Frage nachgegangen,
    • warum sie uns dennoch in vielem, was der Mensch heute zu tun hat, sehr gut werden ersetzen können
    • und warum es auch wünschenswert ist, solche Aufgaben dann wirklich an sie abzugeben.

     
    Ganz offensichtlich werden wir schon bald Roboter bauen können, die uns weit in den Schatten stellen, wenn es darum geht, Aufgaben zu erledigen,
    • die keinerlei nicht vorhersehbare Entscheidung erfordern,
    • dafür aber Geduld, Ermüdungsfreiheit, schnelle Reaktion, physische Stärke, Genauigkeit, ja oft sogar auch hohes Geschick.
    • Auch, wo es darum geht, in einer Umgebung zu arbeiten, die für Menschen zu ungesund, zu schwer zugänglich, oder vielleicht gar nicht zugänglich ist, können und werden Roboter Menschen ersetzen.

    Erstaunlich ist, dass erst unser Nachdenken über mögliche Fähigkeiten von KI uns gezeigt hat, in welch hohem Maße der Mensch selbst heute noch solche Aufgaben selbst zu erledigen hat — und diese Pflicht nicht selten auch als Belastung empfindet.
     
    Sollte es aber — was heute absehbar ist — gelingen, Roboter zu bauen, an die der Mensch solche Arbeiten abgeben kann, so wird er erstmals in seiner Geschichte den Großteil seiner Zeit darauf verwenden können, sich auf die seiner Fähigkeiten zu besinnen, die ihn als Menschen auszeichnen — ja sogar erst so richtig fordern und nicht zuletzt auch deswegen in besonders hohem Maße Mensch sein lassen.
     
    Dass ein Entstehen solcher Roboter den Menschen aber auch fordern wird, ist sehr ernst zu nehmen: Wer sich nämlich heute nicht bemüht — oder wer nicht die Möglichkeit bekommt — einen Beruf zu ergreifen, der Tätigkeiten erfordert, die auch in 50 Jahren noch kein Roboter wird erledigen können, hat definitiv schlechte Karten, denn dass er in absehbarer Zeit auf Dauer arbeitslos sein wird, scheint kaum vermeidbar. Er wird dann nämlich im selben Maße überflüssig sein, wie es heute die noch 1950 für jede Stadtverwaltung als Straßenkehrer arbeitenden Menschen wurden (sog. "Halbkreisingenieure", wie man zu damals spöttisch nannte). Sie, ihr Reisigbesen und ihr von Hand geschobener Kehrichtwagen sind heute ersetzt durch Kehrmaschinen, die der Mensch zwar noch steuert, die in ein bis zwei Jahrzehnten aber mit Sicherheit nur noch durch KI gesteuert sein werden.
     
    Langer Rede kurzer Sinn:
     
    Sich einen Beruf zu wählen, in dem es an der Tagesordnung ist,
     
    verantwortungsvoll Entscheidungen treffen zu müssen, wird zunehmend wichtiger.

     
    Wer andere Berufe wählt, muss damit rechnen, schon mittelfristig drastisch weniger damit zu verdienen (oder gleich gar keinen Arbeitsplatz mehr zu finden).
    Selbst die noch vor 2 Jahrzehnten sehr gut bezahlten Börsenmakler sind heute bereits durch KI ersetzt.
     
    Worin auch immer Roboter und/oder KI Software mit Menschen konkurrieren kann, wird der Mensch weichen müssen.

     

     Beitrag 0-190
    Warum Roboter uns eher Steigbügelhalter denn Konkurrent sein werden

     
     

     
    Wie schnell werden KI und Roboter den Arbeitsmarkt umkrempeln?

     
     
    Die Spezies Roboter — das ist heute völlig klar — wird zunehmend schneller in der Lage sein, dem Menschen viele der Tätigkeiten abzunehmen, mit denen er in der Vergangenheit einen Großteil seiner Zeit verbracht hat.
     
    Da Roboter solche Tätigkeiten dann aber sogar deutlich schneller, besser und kostengünstiger werden erledigen können, müssen wir uns bewusst machen, dass Roboter dem Menschen wenigstens auf dem Arbeitsmarkt zu einem Konkurrenten werden, gegen den er als Mitbewerber keine Chance mehr haben wird.
     
    Gefährlich werden kann das all denen, die diese Entwicklung nicht kommen sehen oder unfähig sind, sich darauf einzustellen.
     
    Wie nämlich in Beitrag 0-189 schon dargelegt wurde, gibt es durchaus auch Tätigkeiten, hinsichtlich der Roboter (oder KI) Menschen nie werden ersetzen können.
     
    Durch Roboter ersetzbar sind Menschen nämlich  h ö c h s t e n s  dort, wo erforderliches Handeln keinerlei vorweg definierbares Verantwortungsbewusstsein erfordert. Nur Tätigkeiten, die selbst absolut gefühlslose Wesen noch perfekt erledigen könnten, sind Tätigkeiten, die man ohne Schaden befürchten zu müssen auch einem Roboter überlassen kann.
     
     
    Dies gesagt und akzeptiert, wird man sich dann aber fragen müssen, wie schnell Roboter Fähigkeiten, die sie prinzipiell haben können, denn nun auch tatsächlich bekommen werden.
     
    Zwei Dinge muss man sich hierfür klar machen:
       
    • Notwendig für die Entwicklung aller Fähigkeiten, die angewandte KI oder ein Roboter haben kann, sind
         
      • ständig scheller und kostengünstiger werdende Rechner ( Hardware-Evolution )
         
      • immer ausgefeiltere, immer mächtigere KI-Algorithmen ( Software-Evolution ),
         
      • auf jeden Fall aber äußerst kreative Menschen, die Ideen entwickeln (denn nur so lange es reichlich immer wieder neue Ideen gibt, kann Hardware- oder Software-Evolution tatsächlich stattfinden).

       
    • Ein Blick zurück in die Vergangenheit zeigt:
         
      • Seit etwa 1960 war die Hardware-Evolution gekennzeichnet durch das sog. Mooresche Gesetz, nach dem sich die Mächtigkeit der Rechner gemessen an der Verfügbarkeit von Rechner-Ressourcen pro Kosteneinheit alle ein bis zwei Jahre verdoppelt. Mit anderen Worten:
         
        Seit 1960 hat sich die Nützlichkeit der Hardware mit dem Faktor 228 multipliziert.
         
      • Ganz anders aber die Mächtigkeit der Software: Sie hat lediglich der Menge nach — aber keineswegs auch ihrer Mächtigkeit nach — schnell zugelegt.
        KI unterstützende Algorithmen hat man heute nicht sehr viel mehr als noch vor 30 Jahren. Nach wie vor scheint sich alles zu konzentrieren auf Muster­erkennung, Neuronale Netze und die Berechnung transitiver Hüllen gegebenen Wissens (die Idee der Expertensysteme und Brute Force Methodik).
         
        Seit 1960 hat sich — so jedenfalls meine Sicht — die Problemlösungsfähigkeit der Software um maximal den Faktor 28 verbessert.
         
      • Dies bedeutet: In der bisherigen Geschichte des Computer-Zeitalters konnte die Hardware-Evolution um einen Faktor von sage und schreibe 220 schneller vorangetrieben werden als die Evolution von Software.

    Dass also heute Roboter existieren, deren Fähigkeiten manche Menschen schon wirklich beeindrucken, ist vor allem der Geschwindigkeit der Rechner geschuldet.
    Sobald sie sich nicht mehr deutlich wird erhöhen lassen — ein Zustand, den mache nun schon bald als erreicht einschätzen — wird die Geschwindigkeit, mit der die Spezies Roboter sich entwickelt, wohl zurückfallen auf die recht bescheidene Geschwindigkeit, mit der es uns gelingt, die Evolution von Software voranzutreiben.
     
    Da es bisher noch niemand gelungen ist KI zu schreiben, die die Evolution von Software beschleunigt (also wenigstens immer bessere Programmiersprachen erfindet), wird man dann — wie schon während der gesamten Geschichte der Menscheit — vor allem auf die Kreativität von Menschen angewiesen sein.
     
    Die aber können von nun an ja wenigstens von dem riesigen Innovationsschub profitieren, den uns die bisher so explosionsartig erfolgte Hardware-Evolution beschert hat. Physiker würden sie vergleichen mit der Inflationsphase nach dem Urknall.
     
     
    Seine Kreativität so richtig entdecken kann der Mensch vor allem dann, wenn ihm Roboter alle langweiligen, aber doch zeitraubenden Tätigkeiten abnehmen.
     
    Letztlich also, so scheint mir, werden die Roboter doch nur Steigbügelhalter der Menschen sein. Wir sollten sie schätzen, aber nicht fürchten. Ihnen dort aus dem Weg gehen, wo sie uns ersetzen können, scheint mir aber auf jeden Fall notwendig zu sein:
     
    Denen, die das nicht beherzigen, könnte es — vor allem im übertragenen Sinne — sehr schnell so gehen, wie jenem unglücklichen Arbeiter im VW-Werk: Ein Industrieroboter hat ihn einfach zerquetscht. Dem Roboter Absicht zu unterstellen geht nicht: Er kann ja gar keine Absichten haben.

     
     
    Gebhard Greiter, März 2016


     
     
    Note: The argument above goes back to Seth Lloyd (p. 303 in John Brockmann: The Universe, 2013). He wrote:

    Seth Lloyd, 2013:
     
    In the 1960, Gordon Moore, the ex-president of Intel pointed out that the components of computers were halving of size every year or two, and consequently the power of computers was doubling at the same rate. Moore's law has continued to hold to the present day.
     
    As a result, these machines that we make, these human artefacts, are on the verge of becoming more powerful than human beings themselves, in terms of raw information processing power. If you count the elementary computational events that occur in the human brain and in the computer — bits flipping and synapses firing — the computer is likely to overtake the brain in terms of bits flipped per second in the next couple of decades.
     
    We shouln't be too concerned though, because:
    For computers to become smarter than us is not really a hardware problem; its more a software issue. Software evolves much more slowly than hardware, and indeed much current software seems designed to junk up the beautifil maschines we build.
     


    Seth Lloyd is building quantum computers at MIT. You might want to read this interview with him (and possibly also his book Programming the Universe).

     

     Beitrag 0-50
    Humanoide Roboter — Beispiele aus 2014

     
     

     
    Humanoide Roboter (Status 2014)

     
     
    Wie weit man bisher gekommen ist im Bemühen, Maschinen zu bauen, die
    • aussehen wie Menschen oder wie bestimmte Tiere
    • und die sich zudem noch so verhalten können — was Reaktionsvermögen, Art der Reaktion und charakteristisches Körperbeherrschung betrifft —
    wird deutlich anhand des Videos » Roboter, die geschaffen wurden, Lebewesen nachbilden «.
     
     
    Um ein Kriterium dafür zu haben, wann eine Maschine dem Menschen gleichwertige Intelligenz aufweist, wurde von Alan Turing der nach ihm benannte Turing-Test vorgeschlagen. Dabei sollen Mensch und Maschine über ein Terminal Fragen beantworten und eine Jury soll anhand der Antworten entscheiden, wer der Mensch ist. Solange dies nicht möglich ist — so Turing — seien Maschinen nicht intelligent. Bisher hat keine Maschine diesen Test bestanden.
     
     

     
     
    Erste Roboter, die jedem von uns Verantwortung abnehmen werden,
     
    entstehen dennoch schon jetzt:

     
    Hierzu lese man, was im Herbst 2014 Gartner schreibt:
     
    Over the next six years, self-aware vehicles will emerge first that are increasingly also able to autonomously sense, interpret, decide, act and communicate with other automobiles, infrastructures, businesses, people and organizations. As this self-awareness matures into the next decade, vehicles will become progressively smarter and autonomous, leading to the most fundamental change in transportation, mobility and society.
     
    By 2025, vehicle-to-vehicle and vehicle-to-infrastructure communication will be available in approximately 30 percent of passenger vehicles in use in mature markets. By 2030, autonomous-driving-capable vehicles will represent approximately 25 percent of the passenger vehicle population in use in mature markets.

     
     
    Von autonomen Fahrzeugen mal abgesehen, existieren bislang nur jede Menge von Industrie-Robotern und sog. Hausroboter, die aber eher noch Spielzeugcharakter haben (man denke z.B. an die automatischen Rasenmäher, die an vergrößerte Marienkäfer aus Metall erinnern). Humanoid sollte man die nun wirklich nicht nennen. Auch was in Berichten wie Roboter lernen laufen oder Roboter lernt Ski zu fahren als humanoid bezeichnet wird, ist es höchstens seinem Aussehen, aber keineswegs seiner Denkfähigkeit nach.
     
    Entscheidungen zu treffen, die nicht vorprogrammiert wären, sowie kreativ zu sein, wird all diesen Robotern noch lange   a b s o l u t   u n m ö g l i c h   sein.
     
     
    Dennoch könnte es schon in naher Zukunft Maschinen geben, die sich in einer ganzen Reihe von Situationen exakt so verhalten wie Lebewesen (Menschen, Tiere, Pflanzen). Wenn ihre Schöpfer ihnen dann auch noch die  F o r m  entsprechender Lebewesen geben, wird es schwierig werden, solche Roboter von wirklich Lebendigem zu unterscheiden.
     
    Gutes Beispiel hierfür sind schon 2014 entwickelte künstliche Hunde, die sogar auf massive Fußtritte ebenso reagieren wie lebende Hunde. Wer sich das Video auf jener Seite genau ansieht, wird mir zustimmen: Kriege und Schlachten, in denen nur noch Roboter Menschen, Tiere, Gerät (oder andere Roboter) körperlich angreifen, könnte es noch vor 2050 durchaus geben.
     
    Fazit also:
     
    Reflexartige Reaktionen — auf was auch immer — werden programmierte Maschinen (Roboter)
     
    sicherlich irgendwann ebenso perfekt beherrschen wie der Mensch.

     
     
    Der Altas-Roboter (Version Feb 2016) ist weiteres gutes Beispiel hierfür. Siehe auch Version Nov 2016, Version Okt 2018.
     
     
    Auch bedenkenswert [src]:

      We already have nonhuman autonomous entities operating in our society with the legal rights of humans. These entities — corporations — act to fulfill
      their missions without love or care for human beings. Corporations are sociopaths, and they’ve done great harm, but they’ve also been a great force for
      good in the world, competing in the capitalist arena by providing products and services, and (for the most part) obeying laws.

     
    Lies auch:

     

     Beitrag 0-51
    Künstliche Gehirne — seit 2014 werden sie Realität

     
     

     
    Künstliche Gehirne

     
     
    Auf dem Weg hin zu einer Nachbildung des menschlichen Gehirn durch Chips, die dem Prozessor eines Computers entsprechen, scheint IBM in 2014 einen großen Schreitt getan zu haben:
     
    Der Chip TrueNorth, den IBM in der Wissenschaftszeitschrift Science genauer beschreibt, besteht aus 5.4 Milliarden Transistoren, also etwa vier Mal so viele wie ein typischer PC-Prozessor.
     
    Damit hat IBM etwas realisiert, das 1 Mio Neuronen und 256 Mio Synapsen des menschlichen Gehirns entspricht.
     
    Diese künstlichen Neuronen und Synapsen sind organisiert in 4096 Kernen, von denen jeder Daten speichern, verarbeiten und zu jedem anderen übertragen kann. Sie arbeiten ereignisgetrieben, was u.A. bewirkt, dass die einzelnen Kerne nur in Betrieb sind, wenn sie tatsächlich gebraucht werden. Der Stromverbrauch des neuartigen Chips reduziert sich dadurch auf gerade einmal 20 Milliwatt pro Quadratzentimeter (was deutlich weniger ist als die derzeit mittlerweile üblichen 50 bis 100 Watt bei einer herkömmlichen CPU).
     
    Und genau hierin könnte das Zukunftspotenzial radikal neuer Chip-Architekturen wie der von "TrueNorth" liegen, denn Leistungsaufnahme ist die heute entscheidende Beschränkung bei der Weiterentwicklung von Hochleistungsrechnern. Dieser Chip, so glaubt man, sei ein Hinweis darauf, dass wir an der Schwelle einer fundamentalen Veränderung gängiger CPU-Architektur stehen.
     
    Dharmendra Modha — unter dessen Leitung das neue Design entstand — betont, dass TrueNorth kein Ersatz für traditionelle Computer sein soll, sie also  n i c h t  ersetzen wird. Die besonderen Fähigkeiten des Hirnhalbleiters lägen in Bereichen wie der Mustererkennung und der Klassifizierung von Objekten.
     
    An erfolgreiche Kommerzialisierung glaubt IBM aber sehr wohl. Man spreche bereits mit potenziellen Partnern über Möglichkeiten der Vermarktung und habe auch schon mehrere TrueNorth Chips miteinander verbunden, um Varianten denkbaren System Designs zu testen.
     
    Nebenbei: IBM ist bei weitem nicht das einzige Unternehmen, dass in an "neuromorphen" Chips forscht — Intel und Qualcomm etwa können ebenfalls schon eigenes Design vorweisen. Bevor man solche Chips aber in vermarktbaren Geräten einsetzen kann, wird man Algorithmen, Programmierer und Programmiersprachen benötigen, die den neuen Möglichkeiten des Verarbeitens von Daten angemessen sind. Wenigstens in diesem Bereich könnte die IBM, die für ihren TrueNorth eine spezielle Programmiersprache samt flankierender Tools entwickelt hat, der Konkurrenz voraus sein. Die Technik sei "viel näher daran benutzbar zu sein als eine Reihe dazu konkurrierender neuromorpher System, die andere entwickelt haben" (so sagte Cornell-Professor Rajit Manohar).
     
    Und tatsächlich: The new chip, so schreibt IBM, is a component of a complete end-to-end vertically integrated ecosystem spanning a chip simulator, neuroscience data, supercomputing, neuron specification, programming paradigm, algorithms and applications, and prototype design models. The ecosystem supports all aspects of the programming cycle from design through development, debugging, and deployment. To bring forth this fundamentally different technological capability to society, IBM has designed a novel teaching curriculum for universities, customers, partners, and IBM employees.
     
     
     

     
     
     
    Quellen dieser Information: Man lese auch:

     

     Beitrag 0-188
    Mensch und Roboter werden miteinander verschmelzen

     
     

     
    Der Mensch wird Bestandteil des Internets

     
     
    Und das beginnt schon heute, wie die CeBit 2016 zu zeigen beginnt:
     


    Compterwoche (März 2016):
     
    Technologie kann auch im wahrsten Sinne des Wortes unter die Haut gehen. Unter dem Motto "Wir gehen tiefer" stellt etwa die junge Firma Digiwell Chips vor, die als Implantate z.B. Zugangskarten für Türen ersetzen können. "An dem einen Stand werden Roboter zum Menschen gemacht, und hier Menschen zum Roboter", kommentierte eine Medienvertreterin den Trend.
     
    Solche Skepsis versteht Firmenvertreter Patrick Kramer, meint aber: "Der Mensch wird irgendwann Bestandteil des Internets werden - wir sind schon auf dem Weg dahin."
     



     

      Beitrag 1924-1
    Wie aus Platonischen Ideen (sämtliche) anfassbare Materie wird

     
     

    Erst Platonische Ideen machen Energie zu anfassbarer Materie


    In Anhang 14 seines Buches "Versteckte Wirklichkeit" erklärt Lothar Schäfer, wie es zum Pauli-Prinzip kommt:

    Es ist Folge der Tatsache, dass Elementarteilchen gleichen Typs ununterscheidbar sind und ihre Wellenfunktion deswegen gewisse Symmetrie-Eigenschaften hat. [Es gibt für dieses Identitätsprinzip keinen Beweis, doch wird es als Axiom allgemein anerkannt.

    Wie Schäfer durch recht einfache Argumente zeigt, folgt aus dem Identitätsprinzip, dass die Wellenfunktion eines Systems von N gleichen Teilchen beim Vertauschen von zwei Teilchenzuständen höchstens ihr Vorzeichen ändert, ansonsten aber gleich bleibt.

    Je nachdem, ob Vertauschen zweier Teilchenzustände das Vorzeichen ändert oder nicht, nennt man die Wellenfunktion antisymmetrisch bzw. symmetrisch.
    In der Natur beobachtet werden beide Fälle: Teilchen, deren Spin durch ganzzahlige Quantenzahlen bestimmt ist, haben symmetrische Wellenfunktion, alle anderen haben antisymmetrische.

    Da nun aber jedes Quantum durch nur 4 Zahlen (n = Energie, l = Bahnelement, m = Richtung des Bahnelements, s = Richtung des Spinmoments) eindeutig charakterisiert ist, erkennt man: Jeder über so ein Quadrupel gegebene Zustand eines Elektrons kann durch ein Elektron besetzt sein oder nicht, kann aber nie mit mehr als nur einem besetzt sein.
      Beweis: Wenn nämlich zwei Elektronen denselben Zustand hätten, würde Zustandsvertauschung die Wellenfunktion nicht ändern im Gegensatz zur Tatsache, dass Elektronen (als Fermionen) antisymmetrische Wellenfunktion haben.

    Aus verschiedenen Gründen, die Blochinzew in "Grundlagen der Quantenmechanik" (1963) erörtert hat, gilt diese Formulierung des Pauliprinzips nur näherungsweise: Der Begriff "Zustand eines einzelnen Elektrons in einem N-Elektronen-System" ist nämlich nur unscharf definiert, da ein Heraustrennen des Zustandes eines Elektrons ohne Änderung des Gesamtsystems unmöglich ist. Genauer formuliert sagt das Pauliprinzip: "Die Wahrscheinlichkeit, in einem System von Spin-1/2-Teilchen zwei zu finden, für die die Messergebnisse aller den Teilchenzustand charakterisierenden charakteristischen Größen gleich sind, ist null."

    Für die Elektronen eines Atoms folgt daraus, dass sie nicht alle den energiemäßig vorteilhaftesten Zustand besetzen können, denn dieser Grundzustand (n,l,m) = (1,0,0) ist voll besetzt, sobald ihn zwei Elektronen mit unterschiedlichem Spinmoment eingenommen haben. Wenn ein Atom also mehr als nur 2 Elektronen hat, so müssen diese — wie auf einer Stufenleiter — energetisch immer höhere Zustände besetzen: (2,0,0), (2,1,0), (2,1,1), (3,0,0), usw.

    Daraus resultiert eine elektronische Struktur, welche Grundlage des Periodensystems der Elemente ebenso wie aller chemischen Gesetze ist.

    Wichtig ist nun (siehe H. Margenau in "The Miracle of Existence", 1963):

    Die Vermeidung besetzter Zustände ist NICHT eine Folge elektrostatischer Abstoßung — wie man meinen könnte —
    oder irgendeiner anderen mechanischen Eigenschaft,

    sondern beruht lediglich auf der Antisymmetrie der Wellenfunktionen der Elektronen (!).


    Wenn nun zwei Moleküle oder Gegenstände weit voneinander entfernt sind, kann man für alle praktischen Anwendungen davon ausgehen, dass ihre Wellenfunktionen ψA und ψB unabhängig voneinander sind.

    Erst wenn diese Objekte einander sehr nahe kommen (ihr Abstand etwa die Größenordnung 10-10 m erreicht), kommt es zu nicht mehr vernachlässigbarer Interferenz beider Wahrscheinlichkeitswellen, so dass man dann nicht mehr von zwei getrennten Zuständen sprechen kann. Die durch diese neue Wellenfunktion definierten Zustände des Gesamtsystems können stabilisierende oder destabilisierende Wirkung haben. Auf jeden Fall entdecken die im System vorhandenen Elektronen sofort, wo sie sich auf Zustände höherer Energie zurückziehen müssen, weil vorteilhaftere schon besetzt sind.

    Nach diesem Prinzip enstehen auch die abstoßenden Kräfte zwischen zwei Molekülen oder anderen Gegenständen, die sich hinreichend nahe kommen. Der einzig und allein aus der Symmetrie-Eigenschaften der Wellenfunktion kommende Zwang, besetzte Zustände zu meiden, ruft dann physische Kräfte hervor: Platonische Ideen — die Symmetriegesetze — erzeugen dann also fühlbare Kraft, und so entsteht aus etwas, das nur gedanklich existiert, in der Tat anfassbare Materie — z.B. der Stein, von dem in Beitrag 949-59 die Rede war.


    Deswegen sage ich mir:

    Die durch uns bisher übersehene, in der Raumzeit fehlende zusätzliche Dimension unserer Welt ist gar nicht wirklich transzendent — es ist eine rein geistige Dimension, die aus sämtlichen mathematischen Gesetzen besteht, deren einige man als Eigenschaften mathematischer Objekte gut kennt (z.B. die Symmetrie-Eigenschaften der Wellenfunktionen).

    Neu ist das alles nicht, denn schon 1995 schrieb Hans-Peter Dürr, vormals Leiter des Max-Planck-Institutes für Physik und Astrophysik in München:

    ... An manchen Stellen verdickt sich der Geist, gerinnt, und wird zu dem, was wir die Materie nennen.
    Materie ist geronnener Geist, ...


    Nüchterner und genauer ausgedrückt:

    Der physische Teil unserer Welt wird geschaffen, geformt, und regiert durch nur gedanklich Existierendes.


    Gebhard Greiter (grtgrt)
    einer Darstellung von Lothar Schäfer folgend

     

      Beitrag 1995-16
    -

     
     
    Zara.t. aus 1995-14:
    Grtgrt aus 1995-1:
    Jeder Gegenstand G, den man anfassen und fühlen kann, ist eine Konfiguration von Elementarteilchen.

    Dieses Postulat müßte untersucht werden. Es ist auch als Lego-Weltbild bekannt. Und eigentlich als unhaltbar erkannt. Aber noch läßt sich darüber streiten.
    Mein Postulat:

    Ein Gegenstand kann nicht aus Quantenobjekten bestehen. Ein Gegenstand ist keine Ansammlung von Elementarteilchen.

    Hi Zara,

    du hast insofern recht, als dass ein Gegenstand, der aus Lego-Bausteinen zusammengesetzt ist, keinen dieser Steine verändert (bzw. seiner Gestalt nach irgendwie aufweicht).

    Bei einer Quantenkonfiguration ist das anders: Hier ergibt sich tatsächlich eine Aufweichung, die dazu führt, dass jedes Teilsystem einer solchen Konfiguration einen Teil seiner Selbständigkeit und rollenspezifischen Identität aufgibt. Gutes Beispiel sind Moleküle, die aus mehr als nur einem Atom bestehen: Es gibt darin stets mindestens ein Elektron — und damit auch mindestens ein Orbital — welches sich NICHT mehr nur einem einzigen der jener Atome zuordnen lässt.

    Mathematisch ausgedrückt: Die Wellenfunktion einer Quantenkonfiguration ist eben NICHT einfach die Summe der Wellenfunktionen, die sich ergäben, wenn man jedes Quant einzeln betrachtet als isoliertes System sehen würde.

    Beste Grüße,
    grtgrt
     

      Beitrag 1995-18
    -

     
     
    Henry aus 1995-17:
    Ich denke, das ein Gegenstand mehr ist als eine Sammlung von Quantenobjekten / Elementarteilchen.

    Das sage ich ja: siehe 1995-16 ( zeitgleich mit deinem Einwand veröffentlicht ).


     

      Beitrag 1995-58
    -

     
     
    Hi Stueps,

    dass das, was ich eine Illusion nenne, tatsächlich eine ist, finde ich bestätigt im letzten Satz der folgenden Aussage von Thomas Görnitz (nachzulesen auf Seite 110 seines Buches "Die Evolution des Geistigen"):

    Zitat von Görnitz:
     
    Bei größeren Systemen, wenn sie sich nicht fast am absoluten Nullpunkt befinden, treten ständig Photonen einer Wärmestrahlung aus, die zu der betreffenden Temperatur gehört. Damit besteht ein ständiger Informationsverlust, sofern nicht beispielsweise durch ideale Spiegel die Information zurückgeschickt werden würde. Da größere Objekte ständig strahlen, wird ein makroskopisches Objekt uns meist wie etwas Faktisches  v o r k o m m e n .

    Das Wort "vorkommen", auf das ich dich aufmerksam machen möchte, habe nur ich im Zitat optisch hervorgehoben. Es bedeutet nichts anderes, als dass unsere Sinne uns hier eine Illusion generieren. Es ist die (bzw. ein Teil der), die ich in meinem Beitrag 1995-1 meine (und die du mir nicht glauben willst).

    Gruß, grtgrt
     

      Beitrag 2016-136
    Welle oder Teilchen?

     
     
    Henry aus 2016-132:
     
    Es gibt keine Welle, die sich ausbreitet. Das Teilchen ist ein Teilchen, aber es zeigt bei entsprechenden Experimenten Auswirkungen, die eigentlich nur von Wellen kommen können, eben z. B. Interferenzen. Google einfach mal "Doppelspaltexperiment".


    Diese Aussage scheint falsch. Richtig ist eher das Gegenteil, denn:

    Feynman hat mal geschrieben (leider erinnere ich mich nicht mehr wo): Jedes Photon, das aus einer punktförmigen Lichtquelle kommt, ist eine Kugelwelle, die sich mit Lichtgeschwindigkeit ausbreitet. Erst wenn sie auf einem Detektor trifft, der sie registriert, suggeriert sie dem Beobachter, sie sei ein Teilchen.

    Er schrieb weiter: Wenn im Raum um die Lichtquelle herum mehrere Detektoren aufgestellt werden, kann nicht vorausgesagt werden, mit welchem sie interagieren wird, d.h. an welcher Stelle das Photon sich als Teilchen zeigen wird.

    Ein gewisser Heinz Heinzmann arbeitet gerade an einem Buch, in dem er der Welt klar zu machen versucht, dass die wahre Natur aller Quanten von der Art "stehende Welle" ist, und dass, was wir als "Teilchen" interpretieren, nur eine Stelle ist, an der sich so ein Wellenzustand umkonfiguriert. (Siehe etwa Seite 46 und 47 seines Papiers).

    Heinzmanns Text finde ich nicht besonders klar, er hat mich aber sofort an Feynmans Aussage erinnert.

     

      Beitrag 2032-53
    Teilchen erst durch Interaktion

     
     
    Hans-m aus 2032-51:
    Bauhof aus 2032-50:
     
    Licht wird nicht als gleichförmiger Teilchenstrahl beschrieben, sondern als Schwingungsvorgang.

    Licht kann sowohl als Welle als auch als Teilchen auftreten. es bewegt sich in beiden Erscheinungsformen gleichförmig mit 300 000 km/s
    Das kann man messen.


    Hallo Hans-m,

    Licht bewegt sich keineswegs als Teilchen: Licht breitet sich stets nur als Welle aus.

    Erst wo diese Welle mit anderen Wellen interagiert (und etwas entsteht, das eine Messapparatur aufzufangen in der Lage ist) stellt sich Licht auch als Teilchen dar.

    Das einzusehen ist von fundamentaler Bedeutung, u.A. auch deswegen, weil so klar wird, dass sich Elementarteilchen (als Teilchen) nur mit gewisser Wahrscheinlichkeit an gewisser Stelle beobachten lassen.

    Gruß, grtgrt

    siehe auch Beitrag 2016-136.

     

      Beitrag 2016-140
    -

     
     
    Rockdee aus 2016-137:
    Wenn das stimmen sollte grtgrt, dann habe ich mal ne Frage dazu:

    Wenn eine Welle sich mit Lichtgeschwindigkeit in alle Richtungen ausbreitet, und man selbst wäre nun Beobachter, wie würde man die Welle wahrnemen?
    Als Teilchen, denn Einsteins Theorie besagt doch, dass etwas das sich mit Lichtgeschwindigkeit bewegt verkürzt erscheint.
    Wenn es sich nun in alle Richtungen mit so einer geschwindigkeit bewegt, erscheint es dann als Punkt/Kugel bzw Teilchen?

    Falls das so wäre würde das doch erklären können, warum das Teilchen sich unbeobachtet wie eine Welle verhält, da es 'kein Bezugssystem' hat.
    Sobald man es aber Betrachtet, ein 'Bezugssystem einfügt' muss es demzufolge anders erscheinen.
    Da der Beobachter außerhalb des Systems der Welle ist.


    Warum sollte man eine Welle als Teilchen wahrnehmen?

    Was man als Teilchen (oder Materie) wahrnimmt ist stets nur Interaktion der Welle mit physikalischen Objekten (Kraftwirkung oder in Folge solcher Interaktion abgestrahlte elektromagnetische Wellen: Licht, Gammastrahlung, etc.).

    Materie, und wohl auch alles, was man als "Teilchen" zu beobachten glaubt, ist nur Wirkung von Kraft (siehe dazu Beitrag 1995-1 und Beitrag 1995-68).


    Zum Bezugssystem: Alles, was sich hinsichtlich einem Bezugssystem mit Lichtgeschwindigkeit bewegt, hat eben dieselbe Geschwindigkeit auch hinsichtlich jedem anderen Bezugssystem. Zwei entsprechende Beobachter würden höchstens verschiedene Wellenlänge feststellen.

     

      Beitrag 2039-11
    Ein Gleichnis

     
     
    Den teilweise recht emotionsgeladenen Bemerkungen von Stueps, Henry und E... möchte ich  folgendes Beispiel  entgegensetzen:

    Wenn jemand eine Karnevalssitzung oder einen Faschingsball besucht und sich dort als Neptun verkleidet zeigt, bedeutet das noch lange nicht
    • dass der Meeresgott tatsächlich existiert
    • oder dass jene Person auch überall dort, wo sie sich sonst noch lebt und mit anderen interagiert, als Neptun eingestuft sein möchte.

    Bei einem Paket von Potentialwellen ist es ebenso:

    Es existiert im gesamten Raum, hat aber nur in einer ganz kleinen Teilregion davon (als ortsabhängige Funktion betrachtet) so großen Absolutwert, dass das Plancksche Wirkungsquantum ihm gestattet sich dort — und NUR dort — im "Faschingskostüm Materie" zu zeigen.

    Das Schienbein, von dem Stueps spricht, ist also nur dort sichtbar und anfassbar, es zeigt sich nur dort verkleidet als Materie, wo das Wirkungsquantum ihm gestattet, mit seiner Umgebung zu interagieren (zu "wirken"). Solche Wirkung erzeugt Lichtwellen, die uns das Schienbein sichtbar machen, und erzeugt Kraft, die uns glauben macht, wir könnten es fühlen und anfassen.

    Das Schienbein als Materie ist also nicht identisch mit dem Schienbein als Wellenpaket.
    • als Wellenpaket existiert jenes Schienbein praktisch im gesamten Universum,
    • als Materie aber ist es nur Anschein: Es will uns suggerieren, Neptun (= Materie) zu sein, Neptun aber existiert nur in des Betrachters Phantasie.
     

      Beitrag 2039-2
    Unsere Welt als Wahrnehmung und als Wirklichkeit

     
     

    Unsere Welt als Wahrnehmung und als Wirklichkeit



    Dürr macht uns klar, dass wir nicht mehr umhin können,

    die  w a h r g e n o m m e n e n  Welten von der  w i r k l i c h e n  zu unterscheiden:


    Zitat von Dürr:
     
    Wenn wir von der Welt sprechen, in sie hineinsehen, dann vergleichen wir unsere Bilder miteinander und sind oft verschiedener Meinung. Wir machen den Fehler zu glauben, dass das, was jeder von uns in dieser Welt sieht, dasselbe sei, das auch der andere sieht. Aber es ist durch unsere spezielle Wahrnehmung gefiltert und deformiert. Denn dort, wo wir sehr empfindlich sind, nehmen wir mehr wahr, und dort, wo wir unempfindlich sind, nehmen wir überhaupt nichts wahr.

    Die wahrgenommene Welt ist demnach eine ganz andere als die da draußen (die wirkliche).


    Ein Hauptstreit, den wir untereinander führen, kommt daher, dass wir nie in Betracht ziehen, dass wir verschiedene Dinge sehen, weil wir auf verschiedene Weise sensibilisiert sind. Es ist uns gar nicht bewusst, was wir weglassen, uns dazu denken, oder wirklich echt sehen.

    Keiner von uns merkt z.B. dass wir in unserem Auge, in unserem Gesichtsfeld, einen schwarzen Fleck haben. Wir sind gewöhnt daran, ihn ohne Nachzudenken mit Erinnerungen oder Schlussfolgerung zu übermalen, mit dem, was da gar nicht hingehört. Wer wirklich einen schwarzen Fleck sieht, gehe besser zum Augenarzt, denn da ist irgendetwas nicht in Ordnung. Wir alle haben diesen schwarzen Fleck, aber niemand spricht davon, weil wir alle unbewusst gelernt haben, den Mangel an Sehfähigkeit — diesen schwarzen Fleck — durch gespeicherte Information zu kompensieren.


    Und so kommt es dass, wo fast jeder Materie sieht, die Quantenphysiker nur Potenzialschwankungen sehen und zunehmend nur noch in Gleichnissen sprechen können.
    Die wirkliche Welt zu sehen bedeutet, einzusehen, dass Materie nur in der wahrgenommen Welt existiert, in Wirklichkeit aber (als Erscheinung) Ausmittelung sich ständig auf- und abbauender Kräfte ist: sich ständig neu gestaltende strukturierte Form.


    Zitat von Dürr:
     
    Diese Gestalt hat keinen Ort, an dem sie sich befindet; sie ist sozusagen über die ganze Welt ausgebreitet. Es gibt überhaupt keine Auflösung in Teile. Auch ist in der Physik die Wirklichkeit nicht Realität, sondern Potentialität. Sie ist nur Möglichkeit, die sich energetisch und materiell irgendwo manifestieren kann, sozusagen etwas noch nicht Entschiedenes, Schwebendes. Und diese Potentialität ist räumlich nicht lokalisiert.

    Das führt dazu, dass die ganze Welt keine Ränder hat. Es gibt nur das Eine, und wir könnten sagen, das Ganze. Das "Ganze" aber ist auch nicht das richtige Wort. Es wäre dann ja etwas, dem kein Teil fehlt. Aber wenn es gar keine Teile gibt, dann können wir es auch nicht das Ganze nennen.


    Dürrs Einsicht:

    Unsere Welt — dieses Eine (mit uns darin) — lässt sich ebenso wenig in Einzelteile zerlegen,

    wie die wogende See sich in einzelne Wellen und Schaumkronen zerlegen lässt.


    Zitat von Dürr:
     
    Das hat fantastische Konsequenzen und heißt beispielsweise, dass wir alle, die wir hier im Raum sitzen, zwar unterschiedlich und unterscheidbar, aber nicht getrennt sind. Wir befinden uns sozusagen in dieser Gemeinsamkeit, und das ist eine wesentliche Voraussetzung, dass wir überhaupt miteinander kommunizieren können.


    In der Summe, so Dürr, sei festzuhalten:
    • Materie ist im Grunde nicht Materie: Was wirklich existiert, ist nur Form (strukturierte Gestalt).
    • Diese Gestalt ist nicht lokalisiert — sie ist gleichermaßen überall und macht die Welt unteilbar. Wo wir sie beschädigen, beschädigen wir uns selbst (!).
    • Die Zukunft ist offen, aber dennoch nicht völlig beliebig (da vom Vorausgegangenen beinflusst).
    • Unsere Welt (die wirkliche) kennt echte Kreativität, denn aus Nichts kann etwas entstehen.
    • Was entstanden ist, kann auch wieder ins Nichts verschwinden.

     

     Beitrag 0-117
    Die am ehesten brauchbare Definition des Begriffs » Information «

     
     

     
    Was ist Information ( im Sinne von Physik und Informatik )?

     
     
    Die sinnvollste Definition für den Begriff » Information «, die ich mir vorstellen kann, ist:
     
    Information (genauer: every piece of information) entspricht einer Menge von Fragen, deren jede
    • nur die Antwort JA oder NEIN gestattet
       
    • und zudem noch beantwortet ist.

    Diese Definition, wenn allgemein akzeptiert, wäre elegante Lösung eines Problems, das der Physiker von Baeyer auf Seite 120 seines Buchs Das informative Universum wie folgt beschreibt:


    Hans Cristian von Baeyer (2003, Zitat):
     
    Shannons technische Definition der Informationsmenge in einer Nachricht — die Anzahl der Ziffern einer Binärdarstellung der Nachricht — unterscheidet nicht zwischen Sinn und Unsinn:

      Eine besondere Folge von Ziffern, beispielsweise meine Kreditkarten-Nummer, trägt dieselbe Shannon-Information wie eine Zufallsfolge derselben Länge.
       
      Vielleicht kann man daher das Problem der Information vom anderen Ende her aufziehen, denn das Gegenteil von bedeutungstragender Information ist zufällige Information ...

     


    Und natürlich hat von Baeyer auch noch einen anderen wichtigen Aspekt vergessen: Nachrichten können redundant und/oder redundant codiert sein, so dass die Länge der sie darstellenden Bitfolge den Umfang darin enthaltender Information als deutlich zu groß beschreibt.
     
    Mit anderen Worten: Die Länge der Binärkodierung einer Nachricht sagt noch nichts darüber aus, wie viel Information (im umgangssprachlichen Sinne) jene Nachricht enthält. Sie stellt lediglich eine obere Grenze für den Informationsgehalt der Nachricht dar.
     
    Interessant an Shannons Ansatz ist eigentlich nur, dass er Information als gequantelt zeigt und dass jedes solche Quant genau einem Bit entspricht.
     
    Dies harmoniert mit der Tatsache, dass auch jedes quantenphysikalische Experiment nur Informationsquanten produzieren kann: Es kann — ganz grundsätzlich — nur auf JA-NEIN-Fragen antworten.
     
     
     
    Note: Shannon's Informationsbegriff ist rein nachrichten-technischer Natur. Für Datentransport gilt tatsächlich, dass die Länge der Bitfolge dem Umfang der Nachricht entspricht.
     
     
     
    Shannons Informationsbegriff

     
     
     
    Wir sehen: Information im Sinne von Shannon's Informationstheorie ist  b e d e u t u n g s f r e i  (abstrakt).
     
     
     
    Wenn Physiker — Wheeler, Zeilinger und einige andere — Information als Urstoff des Universums bezeichnen, meinen sie damit:
     
     
    Urstoff des Universums
     
    = Information gegeben als JA/NEIN-Antworten der Natur auf quantenphysikalische Messfragen
     
    = der Teil der Wirklichkeit, der Teil unserer Realität ist.

     
    Die Tatsache, dass Quantenphysik solcher Information Bedeutung zuordnet — wenn auch nur in beschränktem Ausmaß — macht diesen Urstoff des Universums zu einem Teil unserer Realität. Quantenphysikalische Messfragen sind unsere einzige Möglichkeit, mit der Wirklichkeit zu kommunizieren. Leider werden solche Fragen aber nie mit einem ganzen Satz, sondern stets nur mit einen JA oder NEIN beantwortet.

     

     Beitrag 0-120
    Über die schier unfassbare Mächtigkeit mathematischer Formeln

     
     

     
    Wie viel implizites Wissen kann eine Nachricht enthalten?

     
     
    Jede Nachricht ist kodierte Information, deren Menge gegeben ist durch die Länge der kürzesten Bitfolge, die jene Nachricht darstellen kann (Shannon).
     
    Interessanterweise aber kann so eine Nachricht implizites Wissen enthalten, dessen Menge unbegrenzt groß sein kann.
     
    Dies jedenfalls legt uns das folgende Beispiel nahe (wie eigentlich auch schon jede Gleichung, die einen Funktionsgraphen beschreibt):
     
     
    Nach fast einem Jahrzehnt intensivster Arbeit veröffentlichte Einstein sein Papier (die Nachricht) über Allgemeine Relativitätstheorie. Höhepunkt des Artikels ist Einsteins Feldgleichung
     
    Rjk – R gkj/2 + λ gjk  =  –8π G Tjk

     
    Die Notation ist derart komprimiert, dass die ersten 50 Seiten des Papiers dazu dienten, die Bedeutung der Symbole zu erläutern. Schreibt man die Gleichung aber
    mit Hilfe der üblichen Koordinaten zur Festlegung von Orts- und Zeitpunkten aus, so explodiert sie zu zehn miteinander verknüpften Gleichungen, von denen jede einzelne — je nach Umständen — aus mehreren hundert Einzelbeiträgen bestehen kann.
     
    Da diese Gleichung für jeden Punkt des Raumes unabhängig gilt, umfasst sie unendlich viele Beziehungen (bzw. eine extrem hohe Zahl endlich vieler, wenn man Raum und Zeit als gequantelt anerkennt).
     
    Die Symbole auf der linken Seite der Gleichung sind vollständige Beschreibung der Geometrie der Raumzeit, wohingegen die auf der rechten Seite die Verteilung und Stärke der Gravitationsquellen darstellt.
     
    John Wheeler beschrieb diese Tatsache mit den Worten: Die Materie sagt der Raumzeit, wie sie sich zu krümmen hat, und die Raumzeit sagt der Materie, wie sie sich zu bewegen hat.
     
     
    Einsteins "Nachricht" (die Formel bzw. sein Veröffentlichung) stellt letztlich ein Meer von Wissen dar, das auszuloten uns selbst heute noch erst in winzig kleinen Ansätzen gelungen ist.
     
    Dieses Wissen zu entpacken, dient u.A. der wissenschaftliche Großrechner Blue Waters. Selbst er und seine Nachfolger werden damit nie fertig werden.
     
     
     
    Fazit also:
     
    Das uns durch eine Nachricht endlicher Länge (ja sogar durch eine ausgesprochen kurze Nachricht) zugänglich gemachte Wissen kann beliebig viel sein. Erstaunlich ist das noch nicht, denn wer uns den Weg zu einer großen Bibliothek weist, macht uns ja auch weit mehr Wissen zugänglich als ein Einzelner je verdauen kann. Wirklich überraschend aber ist, in welch kompakter Form mathematische Formeln uns Führer durch solch riesige Mengen von Fakten sein können.
     
     
     
    Quelle: Hans Christian von Baeyer: Das informative Universum, C.H.Beck 2005, Kap. 16.


     

     Beitrag 0-121
    Über die Schwierigkeit, Nachrichten zu decodieren

     
     

     
    Über das Problem der

    Decodierung von Nachrichten

     
     
    Träger aller Information sind Nachrichten. Wie aber sind sie codiert?
     
    Die Informatik sieht jede Nachricht als eine Folge von Bits, der es gilt, Semantik zuzuordnen.
     
    Aber schon OCR-Programme müssen jede Nachricht sehen als eine Folge von Bildern (einzelner Buchstaben), die es erst mal zu unterscheiden und dann in Äquivalenzklassen einzuordnen gilt. Wie schwierig das sein kann, erkennt, wer sich handschriftlich erzeugte Texte — Briefe aus verschiedenen Jahrhunderten etwa oder Briefe geschrieben von verschiedenen Personen — ansieht.
     
     
    Die kompliziertesten Nachrichten, die jeder von uns kennt, sind solche, die sich uns darstellen als eine 3-dimensionale Plastik geschaffen durch einen Bildhauer oder durch die Natur selbst.
     
     
    Jedes im Körper eines biologischen Wesens vorkommende Protein etwa ist eine solch plastische Nachricht.
    Machen wir uns das zunächst mal klar:

       
      Jedes DNA-Molekül hat die Form einer wendeltreppenartig gewundenen Leiter, deren Sprossen aus nur vier verschiedenen Arten von Bausteinen bestehen. Man nennt sie die Basen Adenin, Thymin, Cytosin und Guanin (abgekürzt: A, T, C, G). Zwei immens lange Kettenmoleküle bilden die seitliche Berandung der Leiter und winden sich umeinander zu einer Helix.
       
      Die die Basen darstellenden Moleküle sind in sie hineingesteckt, zeigen paarweise zueinander und sind in der Mitte über über eine schwache chemische Bindung miteinander verhakt (so dass jedes solche Paar eine Sprosse der Leiter darstellt).
       
      Die gesamte Leiter besteht aus 24 getrennten, ungleich langen Teilstücken, die zu den verschiedenen Chromosomen gehören. Sie enthält etwa 3 Milliarden Stufen
       
       
      Liest man die Basen entlang einer Seite der Leiter ab, so ergeben sich Folgen wie z.B. TTT CAT TAG TTG GAG ... usw.
       
      Jeweils 3 der Basen bilden ein Wort, das man als Codone bezeichnet und das einer von 20 Aminosäuren entspricht (d.h. einem der 20 elementaren Bausteine biologischer Körper).
       
      Dennoch: die 3 Basen eines Codones sind selbst noch nicht die Aminosäure. Sie sind lediglich der Code für eine.
      So ist etwa TCA (aber auch TCT, TCC, TCG, AGT und AGC) ein Code für Serin.
       
       
      Im nächsten Schritt werden — streng nach Vorgabe der DNA — die Aminosäuren zu Proteinen verknüpft, den Molekülen der lebenden Materie, deren jedes in folgendem Sinne eine 3-dimensionale Plastik darstellt, deren  F o r m  Semantik zukommt und daher eine Nachricht darstellt:

     
    Die in  d i e s e n  Nachrichten enthaltene Information zu entschlüsseln wird eben zur eigentlichen Aufgabe der Bioinformatik und gestaltet sich aus folgendem Grund extrem schwierig:
     
    Verantwortlich für das Wachstum, das Gedeihen und die richtige Funktion der Zellen unseres Körpers sind die Proteine, deren jedes zwar ein Kettenmolekül ist, zusammengebaut nach dem Plan der DNA, welches aber als Kette zusammengeknüllt ist zu einem Knäuel vergleichbar mit dem, das zustande kommt, wenn wir einen Faden zwischen den Findern zu einem etwa kugelförmigen Etwas zusammenknüllen.
     
    Erstaunlich ist nun, dass die  F o r m  in der sich das kettenartige Molekül durch die Wirkung schwacher chemischer Bindungskräfte zusammengeknüllt hat, für unsere Gesundheit wichtige Information trägt.
     
    Diese wundersame Transformation von etwas 1-Dimensionalem in etwas 3-Dimensionales nennt man den Vorgang der Proteinfaltung. Ihn zu verstehen ist für Chemiker und Biologen eine ebenso schwierige Aufgabe wie für Neurologen das Verstehen der Gehirnfunktionen und wie es zu Bewusstein kommt.
     
    Wie also windet und faltet sich ein kettenartiges Molekül, dessen Zusammensetzung aus elementaren Bausteinen heute als vollkommen bekannt vorausgesetzt werden kann, über einen Zeitraum von Sekunden oder gar Stunden in eine stets gleiche Form (einer 3-dimensionalen Plastik), welche stets dieselbe Information darstellt?
     
    Entstehen hierbeit durch Mutation "Druckfehler" — die dann i.A. sogar vererbt werden —, verursachen sie Krankheiten. Die erste, deren Ursache, man auf einen solchen Defekt zurückführen konnte, war eine meist tödlich endende Blutkrankheit: die sog. Sichelzellenanemie. Schon heute aber kennt man zahlreiche andere Krankheiten, die ebenso entstehen (z.B. Alzheimer und die Bluterkrankheit).
     
    Herauszufinden, welche Mechanismen genau ein Kettenmolekül veranlassen sich zu falten, und weshalb es dies immer gleich, unter bestimmten Umständen aber doch anders tut, ist demnach wichtig für die Entwicklung von Verfahren, die solche, die Krankheit verursachenden  P r o z e s s f e h l e r  verhindern oder gar korrigieren können.
     
     
     
    Vom Standpunkt der Informatik her muss man aber zunächst besser verstehen, wie es kommt, dass nicht nur Folgen von Zeichen (Folgen von Bits etwa), sondern auch  A n o r d n u n g  von Teilen der Nachricht Information darstellt.
     
    Wichtiger Ausgangspunkt solcher Überlegungen ist die fast triviale Erkenntnis, dass beide Verfahren sich mischen.
     
    Machen wir uns das klar anhand eines durch einen Drucker erzeugten einfarbigen Bildes, welches ja einfach nur aus schwarzen und weißen Punkten besteht, welche matrixartig gruppieren.
     
    Zum Drucker kommt die Folge dieser Punkte als eine Folge von Bits vermehrt um Bits, die Zeilenvorschub darstellen. Wären letztere nicht vorhanden, würde man der gedruckten Folge schwarzer und weißer Punkte nicht mehr ansehen, welches Bild sie darstellt, d.h. welche Information sie trägt.
     
    Wir sehen also:
     
     
    Es gibt den Punkten (den Bits) zugeordnete Information,
     
    aber auch Information, die erst durch die  A n o r d n u n g  der Punkte (der Bits) zustandekommt.

     
    Man drückt das für gewöhnlich aus, indem man feststellt:
     
     
    Das Ganze ist mehr als die Summe seiner Teile

     
    Im Fall der Plastik ist jene Matrix eine 3-dimensionale. Heute schon existierende 3-D-Drucker berücksichtigen das.
     
    Auch Bitmatrizen noch höherer Dimension kann man sich vorstellen, ob — und ggfs. wie — solche in der Natur auftreten ist heute noch unerforscht.

     

      Beitrag 1915-133
    Existiert alles Existierende nur als Information über sich selbst?

     
     
    Gregor Lämmer aus 1915-132:
     
    Eigentlich existiert für mich kein Quantensystem, sondern ein Informationssystem, das Quanten hervorbringt.

    Somit ist bei mir Existenz nichts anderes als die Information über die Existenz!


    Ja Gregor,

    so sehen ich und einige andere das inzwischen auch: siehe Beitrag 1961-1 und meine aus den Überlegungen in 1961-4 kommende Aussage:



    Ein Ding D(Q) existiert in genau dem Ausmaß,

    in dem — wie indirekt auch immer — Information darüber existiert.

    ( Information verstanden als Menge wahrer Aussagen )



    Gruß, grtgrt
     

      Beitrag 1915-134
    Ist selbst Wirklichkeit einfach nur Information?

     
     
    An alle:

    Die durch Gregor und mich in 1915-133 dargelegte Meinung teilt z.B. Andreas Mücklich. Er schreibt:


    Wirklichkeit = Information über die Wirklichkeit


    und ergänzt dann noch eine interessante Idee, die ich so noch nirgendwo angedeutet fand:


    Mücklich sieht jedes Quantenobjekt als eine Portion von Information, die darzustellen nur endlich viel Speicher zur Verfügung steht.
    Dessen Größe wiederum sei durch den Typ des Objekts bestimmt.

    Wenn das so zuträfe, so zeigt er, würde sich aus der Endlichkeit des Speichers eine Begründung für Heisenbergs Unschärfe-Relation ergeben:

    Seine Argumentation hierfür:
      Stehen z.B. zur Darstellung von Ort und Impuls eines Teilchens zusammengenommen nur endlich viele Bits zur Verfügung, so können durch sie nicht beide Größen beliebig genau dargestellt sein: Je genauer der eine Wert, desto mehr Bits werden zu seiner Darstellung benötigt, und umso weniger genau kann der andere festgehalten sein.
      Zusätzlich — so würde dann auch gelten — kann  a u c h  e i n z e l n  keine Größe mit beliebiger Genauigkeit definiert sein. Man hätte dann also sogar noch eine Verschärfung der Unschärfe-Relation gefunden (!).

    Mit dieser Deutung steht Mücklich zunächst alleine — interessant aber finde ich sie allemal.

    Da es nun aber einen Unterschied gibt zwischen der Wirklichkeit und dem, was wir dafür halten — unserer Realität — sollte man Mücklichs Aussage präzisieren zu:


    Wirklichkeit = abstrakte Information über die Wirklichkeit

    Realität = durch denkende Wesen mit Bedeutung versehene Information über die Wirklichkeit


    Gruß, grtgrt
    Quelle: Andreas Mücklich: "Das verständliche Universum (2011), ab Seite 209




    Hinweis: Was Görnitz abstrakte Information nennt, wird von Lyre — noch treffender — als potentielle Information bezeichnet. Er schreibt:


    An ur-alternative represents exactly one bit of potential information.

    One has to be aware of the difference between syntactic and semantic information.


    I call syntactic information any amount of structural distinguishability which can be measured in bits.

    Beyond this the semantic aspect of information takes care of the fact that information only exists under a certain concept or on a certain semantic level.

    For example, a letter printed on a paper refers to different amounts of information if it is regarded under the concept "letter of an alphabet of a certain language" or under the concept "molecules of printer’s ink".


    Quelle: Holger Lyre: Multiple Quantization and the Concept of Information (1996), International Journal of Theoretical Physics, Vol. 35, No. 11



    Festhalten sollte man:

    Abstrakte Information ist alles, dem sich Bedeutung zuordnen lässt.


    Wohldefinierte Informationskapazität hat alles, was Menge von JA/NEIN-Fragen ist.


    Konkrete Information ist alles, was Menge beantworteter JA/NEIN-Fragen ist.



     

      Beitrag 1948-9
    Henrys Meinung

     
    Information

    Nun gut, Information. Ein schwieriges Gebiet. Ich denke, es macht es nicht einfacher, dass wir uns bereits auf einer bestimmten Ebene der Information befinden, wenn wir hier über "Information" diskutieren, nämlich auf der Ebene, in denen wir Begriffen eine Bedeutung beimessen, denn gewöhnlich sehen wir doch in Information etwas, was uns Bedeutung vermittelt. Etwas, was Bedeutung hat, kann auch einen Wert haben ("Wert" nicht im Sinne von "wertvoll", sondern eher von "messbar"). Information ist also eigentlich eine Unterscheidungsmöglichkeit. Nur, wenn Information vermittelt, dass ein "Dieses" anders ist, als ein "Jenes", ist sie eine "nützliche" Information. Wobei "nützlich" eigentlich schon zu einer anderen Ebene gehört, nämlich zur Ebene der Interpretation von Information.

    Wie ist nun die grundlegende Ebene, die kosmische Ebene zu sehen? Wenn ich das richtig sehe, beginnt mit Thermodynamik die Betrachtung von Information auf diese Weise, als die Beschreibung eines Systems in bestimmten Zuständen. Da sich die Thermodynamik mit Systemen beschäftigt, die aus ungeheuren Anzahlen von Teilen bestehen – z. B. die Moleküle in einem bestimmen Volumen von Gas – ist die Information, die daraus gewonnen wird, statistischer Natur.

    Das Beispiel ist bekannt: In einem Behälter befindet sich Gas, dass durch eine Abtrennung auf einer Seite des Behälters gehalten wird. Das System "Gas" befindet sich - auf den gesamten Behälter bezogen - in einen ausgezeichneten Zustand. JEDE Änderung des Zustandes – in dem nämlich die Trennwand entfernt wird – ist vom ursprünglichen Zustand unterscheidbar. Hat der ursprüngliche Zustand die Wahrscheinlichkeit "eins", dass sich alle Moleküle in einer Hälfte des Behälters befinden, so geht die Wahrscheinlichkeit gegen "null", je länger die Trennwand entfernt ist (sie wird aber nie "null" werden).

    Wenn das Gas sich im gesamten Behälter verteilt hat, wird sich jede Änderung des Zustandes makroskopisch nicht mehr ermitteln lassen, da wir nicht in der Lage sind, die Wege der einzelnen Moleküle zu verfolgen. Die Information über den tatsächlichen Zustand ist eine rein statistische Information, und das Ganze nennen wir Entropie, das heißt, die Entropie gibt uns eine Information über die Wahrscheinlichkeit eines Zustandes, und diese Wahrscheinlichkeit wird über Vektoren in einem so genannten Phasenraum dargestellt (drei räumliche und eine zeitliche Angabe oder "Freiheitsgrade", das multipliziert mit der Anzahl der beteiligten Teilchen, das ist anständig groß!).

    Und diese Art der Berechnung auf den gesamten Kosmos erweitert ergibt den wahrscheinlichen Zustand (die Information) über eben den Kosmos, beginnend mit dem Urknall, der demzufolge in einem Zustand sehr niedriger Entropie begonnnen haben muss (und mit dieser Annahme gehen einige Probleme einher, das ist aber ein anderes Thema).

    Nach meiner Ansicht ist aber der Zustand eines Systems vollkommen unabhängig davon, ob ein Beobachter das System wahrnimmt oder nicht, aber erst durch die Beobachtung des Zustandes formt sich Information, ganz im Sinne von "in-form-ieren", nicht überraschend halte ich also Information nicht für eine Grundgröße der Natur.
     

      Beitrag 1948-10
    Ist Information die EINZIGE Grundgröße der Natur?

     
     
    Henry aus 1948-9:
    ... erst durch die Beobachtung des Zustandes formt sich Information, ganz im Sinne von "in-form-ieren".

    Kann man wirklich sagen, dass Information erst durch Betrachtung eines Zustandes entsteht?


    Mir scheint, Zustand ist Darstellung von Information, und ihn zu betrachten, ist ein Weg, ihm einen Teil dieser Information zu entlocken, sie also nach anderswo hin zu übertragen, wodurch dann dort neuer Zustand — als Kodierung dieser und anderer Information — entsteht.

    Auf diese Weise wäre auch nachvollziehbar, dass Weizsäcker sagt:

    Information ist nur, was Information erzeugt.


    Mir also scheint vernünftig zu sagen:

    Zustand ist kodierte Information.


    Man könnte dann weiterfragen:

    Sind Energie und Masse nicht einfach nur Information in verschiedener Kodierung?


    Wenn ja, wäre Information die EINZIGE Grundgröße der Natur (!).


     

      Beitrag 1948-11
    Zustand ist (eine) Darstellung von Information, Information ist Zustandsabstraktion

     
     
    µchip aus 495-1:
     
    Wenn ich einen durch eine Trennwand unterteilten Behälter auf der einen Seite mit Stickstoff und auf der anderen mit Sauerstoff fülle, ist doch die Tatsache, dass die Gase getrennt vorliegen, auch eine Information. Warum "darf" sie einfach verschwinden, wenn ich die Trennwand rausnehme und die Entropie walten lasse?

    Antwort:

    Information ist Spiegelbild des Zustandes. Wird die Trennwand herausgenommen, mischen sich die Gase, es kommt dann also zu einem neuen Zustand (und auch dazu, dass die alte Information ungültig wird, sich also durch neue zu ersetzen hat).

     

      Beitrag 1948-15
    Zum Informations-Erhaltungssatz (1)

     
     
    Henry aus 1948-14:
     
    Was heißt es denn, dass in dem Beispiel mit dem Gaskasten sich das Gas nahezu gleichmäßig verteilt, also Entropie wirkt? Es geht doch effektiv Information verloren! Falls das Universum wirklich so tickt, dass sich letztlich alles in (Wärme-) Energie umwandelt, kann die Vermutung, das in der Energie Information gespeichert ist, nicht zielführend sein.

    Man muss das differenzierter sehen, denn mehr und mehr gleichmäßige Verteilung des Gases führt
    • zwar zu einer ABNAHME von Information im kybernetischen Sinne,
    • aber zu einer ZUNAHME von Information im nachrichten-technischen Sinn.

    Abstrahiert man also von der Form, in der Information im System steckt, könnte man sagen: Am Informationsgehalt insgesamt ändert sich gar nichts (weswegen ich denn auch an den Erhaltungssatz für Information als Parallele zum Energie-Erhaltungssatz sehe).

    grtgrt
     

      Beitrag 1948-27
    Zum Informations-Erhaltungssatz (2)

     
     
    Thomas der Große aus 1948-24:
    Wohl kann man mit jedem Deiner 7 Informationsbegriffe eine ganze Bibliothek füllen.

    Hi Thomas,

    ich jedenfalls würde mir extrem schwer tun, damit eine ganze Bibliothek zu füllen.

    Was ich (als eine Art Zusammenfassung meiner i.W. nur aus Capurros Papier entnommenen Erkenntnis) in Beitrag 1948-1 aufgeschrieben habe, war schon alles, was ich zu dem Zeitpunkt über das Thema wusste.

    Zu dem Wenigen, was inzwischen dazu kam, bin ich auch nur gelangt beim Versuch, auf Beiträge anderer Forumsteilnehmer zu reagieren, durch den Versuch also, logisch zu denken.


    Thomas der Große aus 1948-24:
    Vielleicht wäre es ein Ansatz, die Informations-Begriffe durch Erhaltungssätze grob zu klassifizieren und damit entsprechenden Systemtheorien zuzuordnen,
    denn in einem fliegenden Wechsel von Systemen werden wir kaum zu Potte kommen oder gar Deine Frage verstehen.

    Für den zwischen-menschlichen Informationsbegriff (1) ebenso wie für den sprachwissenschaftlichen (3) kann ich mir keinen Erhaltungssatz vorstellen.


    Was ich als den Erhaltungssatz für Information sehe, ist eher eine Definition. Sie lautet:

    Für jedes in sich abgeschlossene System S gilt


    ( kybernetischer Informationsgehalt von S )  =  ( maximal durch S realisierbare Entropie ) – ( nachrichtentechnischer Informationsgehalt von S )



    Bleiben uns also die Informationsbegriffe (5), (6) und (7).

    Insbesondere an (7) — dem physikalischen Begriff der Information — sehen wohl nicht nur wir noch wirklich viele Fragezeichen.

    Der beste Weg, sie zu klären bzw. eine Klärung zu versuchen, dürfte sein, dass wir uns gegenseitig alle nur denkbaren Fragen stellen und zu beantworten suchen. Wenn du und andere da mitmachen wollten, würde mich das sehr freuen.

    Mit anderen Worten: Ich bin keineswegs schlauer als irgend jemand von euch, aber vielleicht schaffen wir es ja gemeinsam, uns gegenseitig etwas klüger zu machen. Genau das wäre doch wohl der Zweck eines solchen Forums (mal abgesehen vom Spaß, den man am Diskutieren selbst haben kann).

    Beste Grüße,
    grtgrt
     

    PS: Die von mir favorisierte Definition des Begriffs » Information « findet sich in Beitrag 0-117.
     

      Beitrag 1948-16
    Codierte, decodierte, und übermittelte Information

     
     
    Henry aus 1948-12:
     
    Man könnte alles Mögliche sagen: z. B. dass zu einer Codierung jemand gehört, der entcodiert. Ich bin der Überzeugung, dass Information erst durch einen Betrachter zu Information wird.

    Hi Henry,

    warum willst du die Sache komplizierter machen, als sie ist: Tatsache ist doch
    • es gibt durch Codierung festgehaltene Information
    • ebenso wie durch Decodierung extrahierte Information.

    Weizsäcker sagt: Information im naturwissenschaftlichen Sinne ist der Durchschnitt beider (siehe Punkt 5 in Beitrag 1948-1).

    Vielleicht wäre übermittelte Information ein treffenderes Wort für diesen Durchschnitt.

    Gruß, grtgrt
     

      Beitrag 1948-34
    -

     
     
    Henry in 1948-32:
    Grtgrt in 1948-27:
     

    Was ich als den Erhaltungssatz für Information sehe, ist eher eine Definition. Sie lautet:

    Für jedes in sich abgeschlossene System S gilt


    ( kybernetischer Informationsgehalt von S )  =  ( maximal durch S realisierbare Entropie ) – ( nachrichtentechnischer Informationsgehalt von S )


    Hi, Gebhard!

    Das ist aber vollkommen falsch, denn für die Information gibt es keinen "Erhaltungssatz". Das ergibt sich schon aus dem steten Anwachsen der Entropie. Maximale Entropie = geringste Informationsmenge befindet sich in Schwarzen Löchern.

    Hallo Henry,

    du spricht allein nur von Information im nachrichtentechnischen Sinne — ich aber spreche von Information allgemein. Und da gilt halt tatsächlich:

    Das Zunehmen der Entropie eines geschlossenen Systems ist einfach nur Umwandlung von in kybernetischer Form vorliegender Information (Ordnung) in nachrichtentechnisch betrachtbare Information (Unordnung).


    Ordnung ebenso wie Unordnung sollte man als zueinander duale FORMEN von Information im physikalischen Sinne begreifen.

    Information im physikalischen Sinne ist vergleichbar mit Energie: Auch die ist ja in verschiedenen FORMEN beobachtbar (z.B. als Masse).


    Beste Grüße,
    grtgrt
     

      Beitrag 1948-20
    Warum nicht nur das Ausmaß an Ordnung den Nachfolgezustand bestimmt

     
     
    Henry aus 1948-12:
     
    Ich bin der Überzeugung, dass Information erst durch einen Betrachter zu Information wird.

    Hallo Henry,

    wenn jemand aus einem Systemzustand "Information" X entnimmt, die durch nichts und niemand dort reingelegt wurde, dann ist X reine Phantasie, Desinformation also.

    Genau deswegen scheint mir dein Modell in die Irre führend (also NICHT sinnvoll).

    Beste Grüße,
    grtgrt
     

      Beitrag 1948-35
    Von Schwarzen Löchern freigegebene Information

     
     
    E... aus 1948-31:
    Guten Morgen Grtgrt.

    Dein Erhaltungssatz bzw. Definition bezieht sich auf abgeschlossene Systeme. Nun ist ein schwarzes Loch mit Sicherheit ein abgeschlossenes System.
    Was geschieht Deiner Meinung nach mit den Informationen die in ihm (dem schwarzen Loch) verschwinden? Bleiben sie dergestalt erhalten das man sie wieder ans Tageslicht befördern kann?

    Hi E...,

    diese Frage solltest du Steven Hawking stellen. Soweit ich weiß
    • war er urprünglich der Meinung, in einem Schwarzen Loch festgehaltene Information wäre daraus nicht mehr zu befreien.
    • Später aber hat er erkannt, dass dem nicht so ist, da Schwarze Löcher sich (sehr) langsam, aber doch sicher selbst auflösen durch Abgabe von etwas, das man heute wohl die "Hawking Strahlung" nennt. Sie "verdampfen" regelrecht. Damit wird auch jene Information wieder frei: in Form vom Schwarzen Loch abgegebener Entropie.

    Information in diesem Sinne ist natürlich immer nur abstrakte Information (= Struktur, die Information tragen kann).

    Gruß, grtgrt
     

    PS: In Wikipedia liest man: "Die Hawking-Strahlung bedeutet eine Verletzung des zweiten Hauptsatzes der Schwarzloch-Dynamik, da die Strahlung die Masse – und damit die Horizontfläche – des Schwarzen Loches verringert. Allerdings wird gleichzeitig eine entsprechende Menge Entropie in Form von Strahlung abgegeben, was einen tieferen Zusammenhang zwischen beiden Größen nahelegt."

     

      Beitrag 1948-36
    -

     
    Thomas der Große aus 1948-30:
    Grtgrt aus 1948-27:
     
    Für jedes in sich abgeschlossene System S gilt:


    ( kybernetischer Informationsgehalt von S )  =  ( maximal durch S realisierbare Entropie ) – ( nachrichtentechnischer Informationsgehalt von S )


    Hallo Grtgrt,

    ... z.B. könnte gerade die Idee des geschlossenen Systems der Erkenntnis im Wege stehen.

    Hi Thomas,

    die Voraussetzung "geschlossenes System" ist unverzichtbar. Ansonsten nämlich könnte man rein gar nichts mehr sagen.

    Gruß,
    grtgrt
     

      Beitrag 1948-38
    -

     
     
    Henry aus 1948-37:
     
    Bevor Schwarze Löcher "verdampfen", muss sich das Universum auf eine Temperatur nahe dem absoluten Nullpunkt abgesenkt haben, denn nur, wenn die Temperatur der Löcher größer ist als die Umgebungstemperatur können sie überhaupt verdampfen.

    Damit, Henry, liegst du wohl falsch, denn in Wikipedia wird berichtet (Zitat):

    "Große Schwarze Löcher, wie sie aus Supernovae entstehen, haben eine so geringe Strahlung, dass diese im Universum nicht nachweisbar ist. Kleine Schwarze Löcher haben dagegen nach dieser Theorie eine deutliche Wärmestrahlung, was dazu führt, dass ihre Masse rasch abnimmt. So hat ein Schwarzes Loch der Masse 1012 Kilogramm – der Masse eines Berges – eine Temperatur von etwa 1011 Kelvin, so dass neben Photonen auch massebehaftete Teilchen wie Elektronen und Positronen emittiert werden. Dadurch steigt die Strahlung weiter an, so dass so ein kleines Schwarzes Loch in relativ kurzer Zeit völlig zerstrahlt (verdampft)."

    grtgrt
     

      Beitrag 1999-46
    Leben — Information — Entropie

     
     

    Görnitz über

    Leben, Information, Entropie


    Zitat von Görnitz, S 173:
     
    Information ist zu begreifen als eine Entität, die dadurch definiert ist, letztlich auf sich selbst bezogen zu sein.


    Information ist wesentlich Codierung, also Information über Information.

     


    • Die Alltagssprache meint mit Information meist den Informationsgehalt. Streng genommen aber kommt man zu dem erst durch Decodierung.
    • Unter Bedeutung ist etwas zu verstehen, was erst der Empfänger der Information ihrem Informationsgehalt zuordnet.
    • Leben, so Görnitz, zeichnet sich dadurch aus, dass nur Lebendes in der Lage ist, einer Information Bedeutung zuzuordnen:


    Zitat von Görnitz, S 173 (leicht komprimiert):
     
    Der wichtigste Gesichtspunkt für eine Erklärung von Leben ist aus unserer Sicht


    aktive interne Informationsverarbeitung:

    Lebewesen sind dadurch ausgezeichnet, dass sie auf Information aus ihrer Umwelt reagieren können [ und in der Lage sind, ihr Bedeutung zuzuordnen ].



    ... Dies geschieht, indem Lebendes eingehende Information mit schon vorhandener Information verknüpft (vor allem mit solcher, die Abläufe in ihm steuert).

    ... Dann wird aufgrund der entstehenden Verbindung von neuer und vorhandener Information eine Reaktion erfolgen können.
     


    Konsequenz daraus:
     
    Leben beginnt, wo abstrakter Information Bedeutung zugeordnet wird,
     
    so dass Wissen entsteht (= etwas, das gewusst werden kann).



    Grtgrt aus 1948-1:
     
    Interessant ist auch, was Görnitz auf Seite 172 sagt:

    Zitat von Görnitz:
     
    Entropie ist Information, die unbekannt ist, entweder weil eine Kenntnisnahme zu aufwändig oder zu uninteressant wäre (wie beispielsweise das Schicksal eines einzigen Atoms in einem Gas).

    Entropie ist — salopp gesagt — Informationsmüll, wie Akten nach dem Schreddern: alle Buchstaben sind noch da, aber man kann nichts damit anfangen. Man muss sie aber los werden, um Platz für Neues zu schaffen.

    Problematisch an dieser seiner Aussage aber scheint mir, dass sie nicht unterscheidet zwischen
    • Information, die man  i g n o r i e r t , und
    • Information, die uns prinzipiell  u n z u g ä n g l i c h  ist (wie etwa die in einem Schwarzen Loch oder die in Daten, zu denen die Natur uns noch keinen Decodierungsschlüssel zur Verfügung gestellt hat).


    Seitenangaben beziehen sich auf Görnitz' Buch "Die Evolution des Geistigen" (2008)

    Früher kaum dargestellte Aspekte der Quantenphysik erläutert Görnitz auch in seinem anderen Buch: "Quanten sind anders" (1999, 2006).


     

      Beitrag 1999-48
    Was genau man unter absolutem Zufall verstehen sollte

     
     
    Harti aus 1999-20:
    Hallo Grtgrt, ...

    Grtgrt aus 1999-18:
    Kurz: Ich gehe davon aus, dass jene Auswahl tatsächlich absolut zufällig  i s t  (und uns nicht nur als absolut zufällig  e r s c h e i n t ).

    Die Annahme "absoluten Zufalls" im Naturgeschehen, also die Feststellung, dass eine Wirkung absolut keine Ursache hat, ist unwissenschaftlich, also reine Glaubenssache. Diese Ansicht ( "Theorie") kann nämlich nicht widerlegt werden. Diese Folgerung wurde meines Wissens auch nicht von den Vertretern der Kopenhagener Deutung gezogen; was man allerdings nicht sicher sagen kann, weil die "Kopenhagener Deutung" unterschiedlich vertreten wird.

    Hallo Harti,

    im Grunde genommen sehe ich das auch so.

    Andererseits aber scheint mir die Kopenhagener Deutung — insbesondere in der Vertiefung, die auch Anton Zeilinger vertritt — in sich konsistenter als anderes. Ich bin insbesondere ein Anhänger der Ansicht (oder Definition):

    Alles was existiert, existiert nur in dem Ausmaß, in dem Information darüber existiert.


    Wendet man das auf den Begriff » Zufall « an, so muss man sagen:


    Man sollte genau dort von  a b s o l u t e m  Zufall sprechen,

    wo etwas geschieht, über dessen Ursache die Natur uns keinerlei Information zur Verfügung stellt.


    Beste Grüße,
    grtgrt
     

     Beitrag 0-225
    KI (bzw. AI) — was man wirklich darunter versteht

     
     

     
    Künstliche Intelligenz (KI) — was genau ist das?

     
     
    Unter künstlicher Intelligenz (KI) — englisch: Artificial Intelligence (AI) — versteht man eine breite Palette von Methoden, Algorithmen und Technologien, mit denen es zunehmend besser gelingt, Software und Hardware so reagieren zu lassen, dass sie auf Außenstehende wie durch menschliche Intelligenz gesteuert wirkt.
     
    Gartner prophezeit (2016), dass schon etwa 2020 rund die Hälfte aller analytischen Interaktionen durch KI gesteuert sein werden. Dabei werde sich die natürlich­sprachliche Interaktion mit Maschinen immer mehr durchsetzen. Schon 2016 interagierten viele Menschen — ohne es zu wissen — über KI-Software. Das treffe z.B. für alle zu, die IBMs Watson, IPSofts Amelia, Apples Siri, Microsofts Cortana oder den Google Assistant nutzten.
     
    Bald werden recht billige Rechner so viel Rechenleistung bieten können wie ein menschliches Gehirn. Das ist abzusehen, denn derzeit steigt die Rechenleistung pro Euro alle 10 Jahre um etwa um den Faktor 100. Falls dieser Trend anhält, werden wir schon etwa 2070 billige Rechner haben, deren Rechenleistung jeweils einzeln der aller lebenden Menschen entsprechen wird. Und die Entwicklung wird auch dann nicht stehen bleiben, so dass es von solchen Rechnern recht bald nicht nur ein paar geben wird, sondern Milliarden und Abermilliarden.
     
    So jedenfalls sagt der KI-Experte Prof. Jürgen Schmidhuber, Scientific Director am Swiss AI Lab IDSIA.
     
     
    Eines der interessantesten Forschungsergebnisse Jürgen Schmidhubers ist ein Papier, welches mit folgender Aussage beginnt:
      We present the first class of mathematically rigorous, general, fully self-referential, selfimproving, optimally efficient problem solvers. Inspired by Kurt Gödel’s celebrated self-referential formulas (1931), such a problem solver rewrites any part of its own code as soon as it has found a proof that the rewrite is useful, where the problem-dependent utility function and the hardware and the entire initial code are described by axioms encoded in an initial proof searcher which is also part of the initial code.
       
      The searcher systematically and in an asymptotically optimally efficient way tests computable proof techniques (programs whose outputs are proofs) until it finds a provably useful, computable self-rewrite.

    Hiermit ist klar, dass KI existieren kann, die sich selbst ständig verbessert — einfach dadurch, dass sie möglich Varianten ihrer selbst generiert und erkennen kann, wann eine von ihnen (als KI) mächtiger ist als die derzeit genutzte.
     
    Ganz offensichtlich werden sich auf diesem Wege verbesserte Varianten der KI umso schneller finden lassen, je mächtiger die Hardware ist, die man nutzt. Die Geschwindigkeit, mit der KI sich irgendwann selbst verbessern wird, könnte somit die Geschwindigkeit, mit der der Mensch immer pfiffigere Software ersinnen kann, schon bald übersteigen und weit hinter sich lassen.
     
     
    Lies auch:

     

     Beitrag 0-88
    Wie Maschinen lernen, auf menschliche Gedanken zu reagieren

     
     

     
    Schon bald werden auch Gedanken Maschinen steuern
     
    Hier ein erstes Beispiel:

     
     
    Wissenschaftler der TU München und der TU Berlin arbeiten an einem Projekt, mit dem man Wege finden möchte, Flugzeuge allein nur über Gedanken zu steuern. Der Projektleiter Tom Fricke berichtet:
     
     
    Einen ersten Durchbruch hat man schon erzielt:
      The scientists succeded in demonstrating that brain-controlled flight is indeed possible — with amazing precision: Seven subjects [persons] took part in the flight simulator tests. They had varying levels of flight experience, including one person without any practical cockpit experience. The accuracy with which the test subjects stayed on course by merely  t h i n k i n g  commands would have sufficed, in part, to fulfill the requirements of a flying license test. "One of the subjects was able to follow 8 out of 10 target headings with a deviation of only 10 degrees", reported Fricke. Several of the objects also managed the landing approach under poor visibility. One test pilot even landed within only a few meters of the centerline.

     
    Wie das erreicht wurde:
      Electrical potentials are converted into control commands. In order for humans and machines to communicate, brain waves of the pilots are measured using electroencephalography (EEG) electrodes connected to a cap. An algorithm developed by the scientists at TU Berlin allows the program to decipher electrical potentials and convert them into useful control commands. Only the very clearly defined electrical brain impulses required for control are recognized by the brain computer interface.
       
      » This is pure signal processing, « emphasizes Fricke. Mind reading is  n o t  possible.

     
    Der nächste notwendige Schritt im Projekt:
      The TUM scientists are now focussing in particular on the question of how the requirements for the control system and flight dynamics need to be altered to accomodate the new control method. Normally, pilots feel resistance in steering and must exert significant force when the loads induced on the aircraft become too large. This feedback is missing when using brain control. The reasearchers are thus looking for alternative methods of feedback to signal when the plane's capabilities are pushed too hard, for example.

     
     
     
    Quelle: Das Science Magazin Faszination Forschung der TU München, Seite 76-77 in Edition 15 ( Dec 2014 ).

     

     Beitrag 0-102
    Künstliche Intelligenz (KI) kann nur bewusstes, emotionsloses Denken automatisieren

     
     

     
    KI hat kein Bewusstsein
     
    und hat schon gar kein Unterbewusstsein

     
     
    Alle bisher ins Leben gerufene KI ist einfach nur ein Mechanismus, der — heute immer noch in streng deterministischer Weise — auf eine genau definierte Menge von Signalen reagiert, indem er sie nach fest vorgegebenen Regeln in Reaktion umsetzt.
     
    Wie weit solche KI von menschlicher Intelligenz entfernt ist, macht klar, was Ulrich Warnke (Universitätsdozent und Gründungsmitglied der Gesellschaft für Technische Biologie und Bionik e.V.) in seinem Buch Quantenphilosophie schreibt:


    Ulrich Warnke (2011):
     

    Bewusstsein ist die treibende Kraft und die Fähigkeit eines Wesens,
     
    Information als solche zu erkennen und zielgerichtet — intelligent also — zu verarbeiten.

     
    Bewusstsein ist demnach ein  P r o z e s s . Aber hätte nach dieser Definition nicht jeder Computer ein Bewusstsein? Nein, keineswegs, denn:
     
    Allein nur das Bewusstein zu betrachten, bedeutet, die Rolle des Unterbewusstseins nicht ausreichend zu würdigen.
     
     
    Das Unterbewusstsein des Menschen befähigt ihn,
     
    Information auch über Gefühle zu empfangen und intelligent zu verarbeiten:

     
     
    Deutlich über 95% aller in einem Menschen stattfindender Intformationsverarbeitung wird vom Unterbewusstsein erbracht. Es nimmt etwa 109 Informations­einheiten pro Sekunde auf. Kaum 1% davon gelangt über die Bewusstheitsschwelle.
     
    Wichtiger noch: Unsere über das Bewusstsein gesteuerte Vernunft hat keine Kontrolle über die automatisch ablaufenden Gefühlsaktivitäten des Unterbewusst­seins, und das ist gut so, denn die Automatik des Unterbewusstseins reagiert hochintelligent und um Größenordnungen schneller als unser bewusst arbeitender Verstand. Dies dient unserem Schutz, und zudem bekommen wir so die Möglichkeit, uns in unserem bewussten Denken auf das jeweils Wesentliche zu konzentrieren, so dass wir nicht gehemmt werden durch einen Zwang, alle uns ständig überflutende Information komplett verarbeiten zu müssen: Wir können in eigener Entscheidung Prioritäten setzen.
     
    KI oder ein Computer aber haben kein Unterbewusstsein. Und das ist der wichtigste Grund dafür, dass sie keine Gefühle kennen, also auch nur emotionslos arbeiten können.
     
    Und so gilt: Kein geistig gesunder Mensch wird jemals durch KI voll ersetzbar sein.
     


     
    Halten wir also fest:
     
    • KI kennt keine Emotionen, keine Intuition, kein Gewissen; sie kennt nur Regeln und ist gezwungen, sie anzuwenden.
       
    • Die Sinnhaftigkeit einer Regel in Frage zu stellen, kommt ihr gar nicht erst in den Sinn.
       
    • Sie versagt, wo keine der ihr mitgegebenen Regeln anwendbar ist.

    Manche Leute denken, dass sich über per Computer simulierte neuronale Netze dennoch irgendwann auch wirkliche Intelligenz entwickeln könnte. Welche Argumente dafür bzw. dagegen sprechen, ist kurz angerissen auf Seite Warum ein Computer (oder Roboter) wohl doch niemals wird Geist entwickeln können.
     
     

    Lies auch: Klaus Heinerth (1998): Können Computer Bewusstsein entwickeln?


     

     Beitrag 0-409
    Warum KI nicht intelligent sein kann

     
     

     
    Warum KI nicht intelligent sein kann

     
     
    KI ist nichts anderes als eine geschickte Kombination menschlicher Einsicht mit der hohen Speicherkapazität und dem schnellem Reaktionsvermögen moderner elektronischer Rechner.
     
    Konsequenz daraus: KI kann weit schneller "denken" als menschliche Gehirne, wird aber nie intelligent sein. Sie reagiert auf jede Situationen stets nur so, wie ein durch ihre Programmierer geschaffenes Regelsystem es ihr vorschreibt. Sie hat keinerlei eigenen Willen.

     

     Beitrag 0-204
    Stärken, Schwächen und das wahre Wesen aller KI

     
     

     
    Stärken, Schwächen und

    das wahre Wesen künstlicher Intelligenz

     
     
    Die Schwäche künstlicher Intelligenz (KI) — und das mag überraschen — liegt weniger in Bereichen, in denen sich der menschliche Geist am eindrucksvollsten entfaltet, wie etwa dort, wo menschliche Experten uns mit ihrem Fachwissen beeindrucken oder über komplizierte Überlegungen zu eindrucksvollen Resultaten gelangen.
     
    Die Schwäche aller KI liegt vielmehr dort, wo es um "gesunden Menschenverstand" geht und wo wir auf unerwartete Situationen schnell und instinktiv richtig reagieren.
     
     
    Dass KI überhaupt keine Möglichkeit hat, über sich selbst zu bestimmen und aus eigenem Urteil heraus zu entscheiden, wird klar, wenn man weiß, dass KI — einmal aktiviert — nichts anderes tut, als ein und denselben Code p immer wieder aufzurufen:
     
     
    ( Output, Z, E )  =  p( Input, Z, E )

     
    Hierin bezeichnet
       
    • Z das Bild, das die KI sich macht
         
      • von sich selbst,
      • von der Umgebung, in der sie arbeitet,
      • und vom Zustand, in dem sie selbst und jene Umgebung sich befinden.

       
    • E ist die Menge aller Erkenntnis, die man der KI per Input übermittelt oder die sie sich selbst schon erarbeitet hat.
       
    • Output schließlich ist die Folge aller Signale, die der Aufruf von p in die Umgebung hinein abgesetzt.

     
    Wie zutreffend die durch die KI gesammelte und selbständig erweiterte Erkenntnis E und wie sinnvoll die als Output abgesetzten Signale sein werden, hängt allein davon ab, wie durchdacht und fehlerfrei der das Programm p realisierende Code arbeitet — ihn aber haben bisher immer noch Menschen (Programmierer und KI-Entwickler) ersonnen.
     
    Die einzige Stärke jeder KI liegt deswegen nur darin, dass sie als Software — wenn auf geeignete Rechner gesetzt —
       
    • um heute schon bis zu 10 Größenordnungen schneller arbeitet als der Mensch
       
    • deutlich weniger Kosten verursacht
       
    • und — was sehr wichtig ist — keinerlei Flüchtigkeitsfehler macht (da sie ja nicht ermüdet).

    Obgleich KI weder denken noch fühlen kann, kann sie dennoch Denkarbeit ersetzen:

     
     
    KI kann Denkarbeit ersetzen, aber selbst nicht denken

     
     
    Und so wird KI uns Menschen selbst beim Denken schon bald in vieler Hinsicht — doch niemals in jeder Hinsicht — weit überlegen sein.
     
    Gefühle aber — und z.B. auch Ehrgeiz — werden ihr für immer fremd bleiben. Nicht einmal den Sinn dieser Worte wird sie verstehen.
     
     
    Lies auch:
     
    Der KI-Experte Schmidhuber scheint mir nicht in jedem Punkt recht zu haben. Er hat aber ganz sicher recht, wenn er sagt, dass es den Menschen schon in wenigen Jahrzehnten schwer fallen könnte, KI-gesteuerte Mechanismen (Roboter oder Prozesse), wenn einmal aktiviert, noch zu kontrollieren.

     

     Beitrag 0-118
    Gibt es Wege, besonders intelligente Nachfahren zu haben?

     
     

     
    Lässt sich Superintelligenz durch Züchtung erreichen?

     
     
    Angeblich besteht unter Wissenschaftlern Konsens darüber, dass Intelligenz
    • zu etwa 60% durchs Erbgut bedingt
    • und nur zu 40% auf Umwelteinflüsse zurückführbar ist.

    Der beste Weg, intelligente Nachkommen zu erhalten, besteht deswegen wohl darin, einen Partner zu wählen, der intelligenter ist als man selbst.
     
    Was könnte sich ergeben haben, nachdem man diese Methode über z.B. 100 Generationen hinweg gezielt angewandt hätte?
     
    Die offensichtliche Antwort: Im Bevölkerungsdurchschnitt sicher rein gar nichts, denn wenn einer der Partner intelligenter ist als der andere, wird für den anderen das Umgekehrte gelten.
     
    Letztlich also sorgt die Natur selbst dafür, dass der Mensch sich nicht selbst super-intelligent machen kann. Will er also Super-Intelligenz züchten, müsste er lernen, sie als KI zu entwickeln.

     

     Beitrag 0-143
    Schon bald wird KI derzeit noch hochbezahlte Denker ersetzen

     
     

     
    Schon bald wird KI auch hochbezahlte Denker ersetzen
     
    Hier ein erstes Beispiel:


     

     Beitrag 0-232
    Wie funktionieren: Computer, KI und künstliche neuronale Netze (knN)?

     
     

     
    Wie funktionieren:
     
    Computer, KI und künstliche neuronale Netze (knN)

     
     
    Jeden eingeschalteten Computer kann man sich vorstellen als
       
    • eine Uhr, die als Taktgeber fungiert,
       
    • zwei positive ganze Zahlen N und M mit N ≤ M
       
    • und eine endlich lange Folge S(0,M) von Schaltern S(0), S(1), ..., S(M-1).
       
      Man nennt sie den Hauptspeicher des Computers und s(0,M) seinen Zustand.
       
      Dieser Zustand ist gegebenen durch die Stellungen all dieser Schalter, wobei aber jeder von ihnen nur in Stellung 0 oder 1 sein kann.
       
    • Bei jedem Tick t der Uhr wird — in Abhängigkeit der Schalterstellungen s(0,N) — eine Zahl m(t) und zugleich die Stellung s(0,m(t)) sämtlicher Schalter S(0) bis S(m(t)) neu festgesetzt. Stets is N ≤ m(t).
       
      Man nennt S(0,m(t)) den zur Zeit t belegten Speicher, s(0,m(t)) seinen Inhalt und s(0,N) den nächsten auszuführenden Befehl.

     
    Wie man sieht, kann s(0,N) aufgefasst werden als eine Funktion, welche jedem Schalterzustand s(0,m) mit N ≤ m < M einen nächsten Speicherzustand s(0,M) zuordnet.
     
    Jeder Computer ist so gebaut, dass neben den Konstanten N und M eine weitere Konstante T existiert mit N < T < M derart, dass immer dann, wenn s(0,N) ein Befehl ist, der den dann vorliegenden Speicherzustand s(0,M) in sich selbst überführt — der Computer also nichts mehr tut — der Abschnitt s(N,T) des Speicherzustandes s(0,M) durch Input von außen abgeändert werden kann. Typisches Beispiel wäre ein Signal, das von Tastatur oder Maus kommt.
     
    Rein theoretisch spielt es keine Rolle, wie groß die Differenz T-N ist. Heutige Computer haben meist 64-Bit Bandbreite, so dass dann T-N = 64 ist.
     
     
    Wie die eben gegebene Erklärung der Arbeitsweise jeden Computers zeigt, kennt er genau 2N Befehle. Jeder kann als Abbildung der Menge aller denkbaren Speicherzustände s(0,M) in sich aufgefasst werden. In welcher Reihenfolge sie ständig neu zur Anwendung kommen, bestimmen von außen nach S(N,T) geschriebene Eingaben.
     
    Solche Eingaben können darstellen:
       
    • von Programmierern geschrieben Programme,
       
    • von Anwendern solcher Programme angelieferte Daten oder — und das ist eher ein Ausnahmefall —
       
    • vom Bediener solcher Programme in den Bereich S(N,T) geschriebene Zeichen.

     
    Sinnvolle Programme zu schreiben ist schwierig und zeitraubend. Hier nun setzt KI (sog. künstliche Intelligenz) an:
     
    Man versteht darunter Programme, die besonders hohen Wirkungsgrad haben — mit relativ wenig Code also relativ viel erreichen.
     
    Eine besonders einfache Form von KI ist bekannt geworden unter dem Stichwort Expertensysteme. Jedes Expertensystem ist einfach nur ein Programm P, welches auf eine gegebene Menge D von Daten immer und immer wieder eine durch ein Regelsystem R definierte Funktion F anwendet, welche die Menge der Daten sinnvoll vergrößert. Aus gegebenen Wissen D entsteht so schrittweise immer umfangreicheres Wissen bis hin zu dem Punkt, an dem es dann schließlich auch die Antwort auf eine vom Anwender vorher gestellte Frage beinhaltet.
     
    Da nicht von vorn herein gesagt werden kann, wie oft die Funktion F den Datenbestand vergrößern muss bis die gesuchte Antwort endlich gefunden wir, ist klar: Expertensysteme sind umso mächtiger, je mächtiger der Computer ist, auf dem sie arbeiten, d.h. je kürzer seine Taktrate ist und je größer sein Speicher.
     
    Über Expertensysteme hinaus gibt es noch einen zweiten, inzwischen schon weit entwickelten Lösungsansatz, den Wirkungsgrad von Programmcode zu erhöhen: Sog. Selbstlernende Software (SS).
     
    Die Grundidee hierfür ist folgende: Man baut das Programm so, dass es sich schrittweise durch immer bessere Versionen seiner selbst ersetzen kann.
     
    Sie zu produzieren, schreibt man sie so, dass die Funktion F sich selbst und das durch sie immer wieder anzuwendende Regelsystem ständig zufallsgesteuert abändert und jede entstandene neue Version des Paares (F,R) daraufhin untersucht, ob sich mit ihm bessere Ergebniss erzielen lassen als mit der alten: Wenn ja, ersetzt die neue Version die alte, ansonsten wird sie einfach verworfen.
     
    Dieses Vorgehen funktioniert natürlich auch dann, wenn das Regelsystem leer ist, das Programm also einfach sich selbst modifiziert.
     
    Natürlich hat dieser Ansatz zwei Nachteile:
       
    • Erstens sind extrem mächtige Rechner notwendig, auf derart  i n e f f i z i e n t e  Weise nach neuen — besseren — Programmen zu suchen.
       
    • Zweitens benötigt man extrem viele Beispiele, anhand deren sich prüfen lässt, ob eine weitgehend zufällig gewählte neue Version des Programms in der Mehrzahl aller Fälle bessere Ergebnisse liefert oder schneller zum Ziel kommt als die vorher genutze.

    Es ist daher kein Wunder, dass dieser Ansatz sich erst nach 2005 so richtig durchgesetzt hat. Wie sich erste Erfolge in 2016 dargestellt haben, skizziert ganz kurz ein Kommentar, der sich auf guteFrage.net findet. Wer inzwischen bessere Erfahrungen macht, möge sie dort ergänzen.
     
     
    Die Methodik, die man heute (2016) als die wahrscheinlich beste sieht, SS zu schaffen, sind sog. künstliche Neuronale Netze (knN):
     
    Ihre Funktionsweise soll so weit wie nur irgend möglich dem unseres Gehirns entsprechen. Hierzu muss man wissen:
     
    Computerbaustein sind Hardware mit eingebautem, fest verdrahtetem Code. Sie also können sich nicht selbst modifizieren.
     
    Nervenzellen im Gehirn dagegen sind durch Fasern verbunden, die — wie durch eine Wiese führende Trampelpfade — zunehmend ausgeprägter werden bzw. sich zunehmend zurückbilden, je nachdem wie stark man sie nutzt.
     
    Dieses Vorbild lässt sich nutzen, indem man simulierten Computerbauteilen ähnliches Verhalten gibt: Hierzu könnte man die Schalter [ von denen oben in der Beschreibung des Computers die Rede war ] so manipulieren, dass nur ein hinreichend stark ankommender Impuls sie umlegt. Welchen Effekt die Ausführung eines Befehls s(0,N) dann also hat, bestimmt nicht allein dieser Befehl, sondern bestimmen wesentlich mit die derzeit in jedem Schalter gesetzten Widerstände.
     
    Ob solches Verfahren aber schon auf Schalterebene Sinn macht oder erst für parallel abzuarbeitende Aufrufe umfangreicherer Komponenten — die Frage also, welche Teile des Systems man als Neuronen verstehen möchte —, ist eine Frage, die zu entscheiden auch wieder sehr viel Probieren erfordert.
     
     
    Da keine durch einen digitalen Computer gefällte Entscheidung wirklicher Zufall sein kann — sondern stets nur auf Pseudozufallszahlen beruht — funktionieren natürlich auch künstliche neuronale Netze voll deterministisch (also nicht wirklich wie das Gehirn biologischer Lebewesen).
     
     
    Außerdem muss klar sein: Wer knN als Vorbild und gültiges Modell für die Arbeit unseres Gehirns sieht, der verkennt, dass künstliche neuronale Netze ein ganz bestimmtes, von ihren  E n t w i c k l e r n  definiertes, gewünschtes Verhalten entwickeln sollen. Dies bedeutet, dass einzig und allein diese Entwickler Verantwortung dafür tragen, was mit » gewünscht « gemeint ist und wann dieser Anspruch als erfüllt gelten kann.
     
     
    Wenn also jemand durch knN realisierte KI als "selbstorganisierend" bezeichnet, so ist das auf keinen Fall richtig.

     
    Und natürlich ist entscheidend die — auch nur durch Menschen mögliche — Vorgabe von Kriterien, die erwünschte Ergebnisse von nicht erwünschten zu unter­scheiden gestatten.
     
     
    Derzeit besonders diskutiert werden einige speziellere Typen neuronaler Netze (gut dargestellt z.B. in Manfred Spitzer: Der Geist im Netz, Spektrum (2000).
       
    • 1. Kohonen-Netze: Bei ihnen unterscheidet man
         
      • eine Input-Schicht, die Daten empfängt, und
      • eine Output-Schicht, die Daten aus den Netz an andere Systemkomponenten abgibt.

      Charakteristisch für Kohonen-Netze ist, dass jedes Iutput-Neuron eine Verbindung hin zu einem Onput-Neuron hat und umgekehrt. Zudem ist jedes Output-Neuron mit jedem anderen Output-Neuron verbunden, und diese Verbindungen sind so geschaltet, dass bei Dateneingang auf einem Output-Neuron auch jeder seiner direkten mit ihm verbundenen Nachbarn auf aktiv geschaltet wird. Entferntere Neuronen aber werden in ihrer Aktivität geschwächt.
       
       
    • 2. Hopfield-Netze: Bei ihnen ist jedes Neuron mit jedem anderen verbunden.
       
      Dies hat zur Folge, dass ein Reiz an einem Neuron schon im nächsten Taktschritt alle anderen erreicht und im übernächsten dann auch wieder auf das erste Neuron zurückwirkt.
       
      Dies kann dazu führen, dass das Netz in Reaktion auf einen Eingangsreiz so lange in anscheined ungeordnete Aktivität versetzt wird, bis Energieverluste sie abklingen lassen. Wichtiger ist, dass sich auch ein stabiler Zyklus ausbilden kann, der gutes Modell für einen dynamischen Speicher ist, der eine Anregung von außen als Gedächtniszustand bewahrt.
       
       
    • 3. Elman-Netze: Sie vereinen die Vorteile beider und finden sich auch heute schon in so mancher technischer Anwendung.

     
    Kohonen-Netze eignen sich gut zur Simulation der Teile unseres Gehirns, die primär Wahrnehmingsareale sind.
     
    Zur Simulation des Hippocampus, der für den Datenabgleich von Innen und Außen zuständig ist und als Gedächtnis-Zwischenspeicher begrenzter Kapazität dient, eignen sich besonders Hopfield-Netze.
     
    Mit Elman-Netzen ist das Zusammenspiel verschiedener Hirnareale recht gut nachbildbar.
     
    Im Gegensatz zu einem in Hardware realisierten knN gibt es in bilologischen Neuronen-Netzen stets Rückwirkungen der Arbeit des Netzes auf seine Struktur. Sie sind nur in durch Software realisierten knN simulierbar.
     
    Um mit einer begrenzten Zahl von Neuronen größere Mengen von Objekten nachbilden zu können, ist es notwendig, die zeitliche Dimension des Netzes als Chance zu begreifen. Untersuchungen hierzu haben viel Interessantes aufgezeigt. So wurde etwa entdeckt, dass Nervenzellen, die für das gleiche Objekt zuständig sind, mit hoher Genauigkeit synchron arbeiten, wohingegen das Feuern von Zellen, die verschiedene Objekte oder Prozesse bedienen, unsynchronisiert bleiben.
     
    Lies auch:


     

     Beitrag 0-241
    KI kann menschliches Denken unterstützen und beschleunigen — aber nicht ersetzen

     
     

     
    KI kann nur scheinbar selbst denken

     
     
    Mit der Enwicklung immer leistungsfähigerer Geräte zur Datenverarbeitung stellt sich so mancher die Frage, ob KI oder durch sie gesteuerte Roboter den Menschen nicht irgendwann werden ersetzen können.

     
    Kann KI Bewusstein haben, vielleicht sogar ein sich selbst reflektierendes Bewusstsein?
     
    Die Antwort ist ein klares NEIN.

     
     
    So schreiben etwa Thomas und Brigitte Görnitz absolut zutreffend:

    Görnitz (2002, sinngemäß):
     
    Wenn es sich bei den von manchen erhofften Systemen des » künstlichen « Lebens um biologische Einheiten handelte — was bis heute nicht der Fall ist —,
    so wären sie wohl tatsächlich Lebewesen, von denen nicht auszuschließen wäre, dass sich ihre Art ohne Zutuin des Menschen fortentwickelt.
     
    Bei Objekten aber, die auf Basis heutiger Mikroprozessoren gebaut werden, oder nur Software sind, kann stets nur von  s i m u l i e r t e r  Intelligenz gesprochen werden.
     
    Auch bewusstsein-ähnliches Verhalten können sie nur simulieren — dies allerdings, wie sich heute schon zeigt, in ganz erstaunlicher Perfektion.
     
    Dennoch darf das nicht als Hinweis darauf gesehen werden, dass bei ihnen echtes Bewusstsein auch nur ansatzweise gegeben ist:
     
    In einem mathematisch strengen Sinn haben sie nur streng deterministisches Verhalten, ganz ähnlich einem Fotoapparat, der Bilder zwar getreu wiedergibt, dem aber auch nicht im Entferntesten klar ist, was sie inhaltlich zeigen.
     
    Pseudozufallszahlen zu verwenden oder auf tatsächlich absolut zufällig eintreffen Signale von außen zu reagieren, ändert nichts daran.
     
     
    Tatsache aber ist:
     
    Die Perfektion, mit der sich Leben, Bewusstsein und Intelligenz simulieren (vortäuschen) lässt, kann stets nur in dem Ausmaß zunehmen, in dem es dem Menschen gelingt, das Verhalten echter Lebewesen zu analysieren und durch Regelwerke zu beschreiben.
     
    Das simulierte Verhalten kann niemals besser sein — wird aber kaum weniger gut sein — als die Regeln, welche Menschen durch solche Analyse gefunden haben.
     


    Die Zahl der Verfahren, die denkbar erscheinen, Regelwerke bestmöglich zu nutzen, braucht nicht begrenzt zu sein. Bis heute allerdings sind nur zwei Klassen solcher Verfahren bekannt:
       
    • Zum einen Expertensysteme: Sie errechnen transitive Hüllen ihnen gegebener Information.
       
    • Zum anderen künstliche neuronale Netze: Sie unterstützen Muster-Erkennung und lassen sich trainieren mit dem Ziel, vorgegebene Erfahrungen immer besser zu nutzen bis fast hin zu dem Punkt, an dem, was sie dann als Antwort auf eine ihnen gestellte Frage geben, schon fast so treffend sein kann, wie Antworten, die zu finden Menschen viel Nachdenken und langes Durchstöbern von Büchern oder Datenbanken kosten könnte.

    Beide Verfahren erreichen ihre Grenzen dort, wo keine hinreichend mächtigen Rechner zur Verfügung stehen: Was sie zu leisten imstande sind, wird stets in erster Näherung proportional zu den ihnen zur Verfügung gestellten CPU- und Speicher-Ressourcen sein.
     
    Dass KI auf diese Weise gelegentlich auch irgendwo schon existierendes Wissen finden kann, nach dem Menschen zu lange hätten suchen müssen, ist klar.
     
    Erfindungen zu machen oder richtige Antworten zu erahnen — wie Menschen es können — ist jeder KI unmöglich.
     

     

     Beitrag 0-267
    Warum keine KI biologische Gehirne ersetzen kann

     
     

     
    Künstliche Intelligenz (KI) denkt rein algorithmisch. Genau deswegen kann sie menschliches Denken nicht ersetzen, denn:

     
     
    Menschliches Denken ist mächtiger als algorithmisches Denken

     
     
    Diese Erkenntnis bescherte uns Gödels Beweis für seinen Unvollständigkeitssatz.
     
    Ausgehend von irgend einem formalen System, welches mächtig genug ist, wenigstens die Arithmetik aller natürlichen Zahlen zu beschreiben, fand Gödel — mit Hilfe von Cantors Diagonalverfahren — eine Aussage Pk(k),
       
    • welche in diesem System formulierbar, aber doch nicht ableitbar ist,
       
    • obgleich Menschen sie als wahr erkennen können.


    Penrose (auf S. 105 seines Buches Computerdenken) nennt Konsequenzen davon:
     
    Aber warum sollte uns diese spezielle Aussage Pk(k) beunruhigen?
     
    Wie wir im Laufe obiger Beweisführung festgestellt haben, konnten wir einsehen, dass Pk(k) wahr ist. Formalisten — Leute, die nur formales Denken gelten lassen wollen — sollte das beunruhigen, denn gerade durch unsere Schlußfolgerung haben wir bewiesen, dass der formalistische Begriff von » Wahrheit « notwendigerweise unvollständig ist.
     
    Sollte man also überhaupt nicht von Wahrheit reden, sondern nur von Beweisbarkeit innerhalb eines bestimmten formalen Systems [einer KI]?
     
    Von diesem Standpunkt aus aber könnte man Gödels Argumentation in ihrer oben gegebenen Gestalt nicht entwickeln, denn wesentliche Teile dieser Beweisführung beruhen auf Schlussfolgerungen darüber, was tatsächlich wahr bzw. nicht wahr ist.
     


    Wir sehen: Keine KI kann biologische Gehirne — wie etwa das von Gödel — ersetzen.


     

     Beitrag 0-459
    Autopiloten sind die bisher erfolgreichsten Roboter

     
     

     
    Autonome Fahrzeuge: Die bisher "intelligentesten" Roboter

     
     
    Man lese z.B.
     
     
    Pressemeldung Ende Juni 2024:
      Robotaxi-Dienst nun frei verfügbar
       
      Die Robotaxi-Firma Waymo hat einen Meilenstein erreicht: In San Francisco gibt es keine Warteliste für den Dienst mehr, sondern alle Interessenten könnten sofort einen Account anlegen. Man habe jahrelang auf diesen Tag zugearbeitet, betonte das Google-Schwesterunternehmen. Robotaxis von Waymo sind in Phoenix im US-Bundesstaat Arizona sowie in San Francisco und Los Angeles in Kalifornien unterwegs.
       
      Sie dürfen inzwischen komplett ohne Menschen am Steuer fahren.

     
    Autonom fahrende Taxis sind im Kommen


     

     Beitrag 0-3
    Deterministisch arbeitende KI wird nicht Schlusspunkt prinzipiell möglicher KI sein

     
     

     
    Zur Zukunft künstlicher Intelligenz

     
     
    So wie in der Vergangenheit
    • die Geometrie erst so richtig ihren Aufschwung nahm, als entdeckt wurde, dass es neben der euklidischen Geometrie auch noch zwei grundsätzlich verschiedene Klassen nicht-euklidischer Geometrien gibt,
    • und ebenso wie die Physik erst wirklich bedeutend wurde, nachdem neben ihre klassische Form die Quantenmechanik getreten war,
    • so wird auch künstliche Intelligenz erst dann volle Größe zeigen, wenn ihre deterministisch arbeitende Form (die KI von heute) eine sehr viel mächtigere Schwester bekommt, welche die Alleinherrschaft der Logik ersetzt durch ein Zusammenwirken von absolutem Zufall einerseits und doch auch strenger Logik andererseits (die dann auch für Selektion im evolutionstechnischen Sinne verantwortlich sein wird).


     

     Beitrag 0-2
    Erkenntnistheoretische Grenzen deterministisch arbeitender KI

     
     

     
    Was Intelligenz von künstlicher Intelligenz (KI) unterscheidet

     
     
    Unter Intelligenz versteht man einen Mechanismus, der eine Entwicklung zielgerichteter macht als wenn sie nur durch Zufall getrieben stattfände.
     
    Man spricht von künstlicher Intelligenz (KI), wenn jener Mechanismus von Menschen geschaffen und durch ein Regelwerk gesteuert wird, dessen Sinn zu hinterfragen er selbst nicht in der Lage ist.
     
    Man baut KI-Systeme, damit sie
    • Information, die in gegebener Information implizit vorhanden ist, schnell und möglichst umfassend explizit machen (Automatisierung logischer Schlußfolgerung durch sog. Expertensysteme)
    • oder auf eingehende neue Information ähnlich sinnvoll reagieren wie ein Mensch das tun würde (Ersetzen menschlicher Arbeitskraft durch Industrieroboter).
    Der wesentliche Unterschied zwischen echter Intelligenz und KI besteht in
    • der gegebenen bzw. fehlenden Fähigkeit, kreativ zu sein,
    • aber auch darin, dass künstliche Systeme kaum ermüden: Sie sind Werkzeug, das der Mensch sich schuf, den Aktionsradius seines Denkens und Handelns zu erweitern; Ihn voll ersetzen können sie nicht.

     
     
    David Deutsch drückt es ganz konkret so aus:

    David Deutsch
     
    Understanding is one of the higher functions of the human mind and brain, and a unique one.
     
    Many other physical systems, such as animals' brains, computers, and other machines, can assimilate facts and act upon them.
     
    But at present we know of nothing that is capable of understanding an explanation — or of wanting one in the first place — other than a human mind. Every discovery of a new explanation, and every act of grasping an existing explanation, depends on the uniquely human faculty of creative thought.
     

    Quelle: David Deutsch: The Fabric of Reality, Penguin Books 1997, page 11.

     
     
    Ob der Erkenntnissfähigkeit menschlicher Intelligenz prinzipielle Grenzen gesetzt sind, wissen wir nicht.
     
    Künstliche Intelligenz aber kann keinesfalls jede durch uns Menschen entscheidbare Frage beantworten. Kurt Gödels Beweisführung für seinen Unvollständigkeitssatz nämlich zeigt: Zu jeder KI, die mindestens die Arithmetik natürlicher Zahlen kennt, gibt es Aussagen über die Fähigkeiten dieser KI, die menschliche Intelligenz als wahr erkennen kann, obgleich jene KI selbst sie ganz grundsätzlich nicht betrachten (oder gar als wahr oder falsch einstufen) kann.
     
    Anders ausgedrückt: Gödel hat bewiesen, dass
    • menschliche Intelligenz die jeder KI übertrifft
    • und der Mensch selbst noch die  F ä h i g k e i t e n  künstlicher Intelligenz umfassender erforschen kann als das ihr selbst möglich ist.

     
    Man überlegt sich auch: Selbst wenn wir einen Computer hätten, der niemals aufhört zu rechnen und niemals an Speichergrenzen stößt, wäre kein Algorithmus denkbar, der mit Hilfe dieses Computers alle Aussagen über ganze Zahlen als wahr oder falsch zu erkennen in der Lage wäre (oder im Zuge unendlich langer Rechnung auch nur betrachten könnte). Dies einzusehen, reicht es, nachzuweisen, dass die Menge jener Aussagen überabzählbar groß ist. Wir wüssten dann nämlich, dass es keine Möglichkeit geben kann, sie alle aufzulisten — auch dann nicht, wenn diese Liste unendlich lang werden dürfte.
     
     
     
    Hallo Uwe,
     
    dem eben Gesagten entsprechend hat man deine Fragen aus Beitrag 2120-1 zu beantworten wie folgt:
    • KI-Systeme können bestenfalls selbstlernend, aber niemals selbstbegreifend sein.
    • Sie können weder emotionsartige Zustände annehmen, noch irgend einem Wahn verfallen.
    • Der Unterschied zwischen kreativer und nicht kreativer Intelligenz ist ihnen nicht beizubringen.
    • Ob sie aus Software oder Hardware bestehen, können sie von sich aus nicht entscheiden.
    • KI kann weder Gefühle noch eigenen Willen haben: Sie ist nur Mechanismus.

     
    Aber natürlich können KI-Systeme miteinander kommunizieren (was letztlich bedeutet, dass sich mehrere davon zu einem größeren zusammenfügen). Wo sie sich gegenseitig modifizieren oder gar zerstören, können sie das — wenn überhaupt — nur als Versagen ihrer selbst wahrnehmen.
     
    Kurz: KI-Systeme sind durch Regelsysteme gesteuerte Mechanismen zur Fortschreibung des Zustandes physischer Objekte (mindestens ihres Speicherinhaltes). Sinn ergibt sich daraus erst in den Augen kreativer Intelligenz. Sie kann solche Systeme zur Erarbeitung von Wissen einsetzen, aber z.B. auch zum Finden, Zerstören, Bauen oder Abändern anderer Systeme. KI ist für kreative Intelligenzen in etwa das, was ein Auto, ein Schiff, oder ein Flugzeug für einen Reisenden ist: Stets nur für gewisse Abschnitte des beabsichtigten Weges brauchbar, wird solches Werkzeug Distanzen verkürzen, die zu überwinden sonst nicht gelänge (und schon gar nicht in vergleichbar kurzer Zeit). Mit anderen Worten: Künstliche Intelligenz (KI) vergrößert die Reichweite kreativer Intelligenz, kann aber stets nur schon vorgedachte Wege gehen: KI ist einfach nur Software.
     
     
    Natürlich stellt sich dann die Frage, welche Art von Software man als KI bezeichnet. Die Antwort darauf:
     
    Je genauer die Aufgaben spezifiziert sein müssen, die der Anwender seinem Software-System gibt, desto weniger wird man es als KI bezeichen.
    • Software, die nicht KI ist, wären z.B. ein Texteditor, ein Buchhaltungssystem, ein Flugbuchungssystem oder ein Portal für Online-Shopping. Sie alle erwarten ständig neue Eingaben und erledigen vor allem Anweisungen, deren Ergebnis nicht wesentlich umfangreicher ist als die Eingabe selbst.
    • Ganz anders KI-Software: Sie erledigt eher Aufgaben des Typs: Berechne (oder erledige) einfach alles, was unter dieser oder jener einschränkenden Randbedingung überhaupt berechenbar ist (bzw. automatisch erledigt werden kann). Die Intelligenz von KI besteht darin, gegebenes Wissen über berechenbare Schlussfolgerungen in beliebig vielen Schritten erweitern zu können. Einmal aktiviert arbeitet sie typischerweise bis alle ihr zur Verfügung gestellten Ressourcen verbraucht sind. Auf diese Weise wird so ein System, die ihm gestellte Aufgabe zwar nie ganz erledigen, aber doch recht häufig Ergebnisse liefern, die sehr wertvoll sind, obgleich sie nicht selten gar nicht vorhersehbar waren.

    Gruß, grtgrt
     
     
     
    PS: Völlig richtig (und ganz selbstverständlich) scheint mir, dass kreative Intelligenz nicht notwendig menschliche Intelligenz sein muss:

    Uwe aus 2120-77
     
    Wenn ich mir einen Vogel anschaue, dann hat der doch schon relativ intelligente Züge in seiner Lebensweise. Irgend ein Programm muss ihm ja mitteilen, dass er für die Aufzucht seiner Brut ein Nest braucht, also muss er rechtzeitig passendes Baumaterial dafür suchen und es geschickt an einem passenden Ort verbauen. Können wir ausschließen, dass das vollkommen frei von Intelligenz passiert? Oder Krähen, die Nüsse auf die Fahrbahn werfen, damit sie von den darüberfahrenden Autos geknackt werden...
     
    Ich glaube schon, dass auch Tiere eine Intelligenz besitzen, denn sie verständigen sich untereinander und wie ich von meinem Hund weiß, können sie sogar träumen. Bei meinem Schäferhund kommt es hin und wieder vor, dass er im Schlaf heult oder zuckt. Das bedeutet doch, dass er auch Situationen des Alltags speichert und verarbeitet.
     
    Selbst bei Pflanzen kann man Verhaltensweisen beobachten, die auf ein gewisses Maß an Intelligenz oder gar Bewusstsein hindeuten. Der Schutz vor Fressfeinden zum Beispiel oder die Kommunikation zwischen einzelnen Pflanzen.
     
    Wenn ich darüber nachdenke, dann braucht eine KI wirklich nur eine Initialzündung in Form eines genialen Algorithmuses und ich könnte mir durchaus vorstellen, dass es ähnlich (keinesfalls analog!) der Evolution des Menschen auch bei Computern zu spontanen Systemfehlern kommen könnte, die entweder zum Absturz führen, oder aber auch zur Verbesserung...
     


     
    Uwe hat völlig recht:
     
    Auch Systemversagen kann zu einer Situation führen, die rein zufällig sinnvoller ist als die, die das System — seinem Regelsystem entsprechend — eigentlich hätte herstellen sollen. Solches Fehlverhalten könnte zu einer Entdeckung führen, die man sonst niemals gemacht hätte. Da die dann entstandene Situation aber eine ist, auf die das Regelsystem überhaupt nicht mehr vorbereitet ist, wird KI — wenn sie keine zufälligen Ergebnisse toleriert — an dieser Stelle zusammenbrechen.
     
    Dieser Überlegung wegen vermute ich, dass kreative Intelligenz eine Kombination aus Regelsystem und automatischer Zurückführung unerwarteter Ausnahme­situationen jeder Art auf durch das Regelsystem abgedeckte Situationen sein muss.
     
    Die Wurzel von Kreativität wäre dann einfach nur absoluter Zufall — letztlich also Quantenfluktuation —
    gepaart mit der Fähigkeit, gelegentlich auch Unerwartetes als Gewinn sehen zu können.

     
     
    Auf jeden Fall ist auch unser sog.  B a u c h g e f ü h l  etwas, das menschliche Intelligenz von künstlicher unterscheidet:
     
    Hans-m macht uns zu Recht darauf aufmerksam, dass natürliche Intelligenz:
    • neben einem Kopfgefühl
    • auch ein Bauchgefühl
    kennt.
    • Alles was mit dem Kopfgefühl zusammenhängt ist das Rationale, Logische.
    • Alles was mit dem Bauchgefühl zu tun hat ist das Spontane (das oft auch Kreative), wofür wir — gerade weil es wenig mit Logik zu tun hat — manchmal keine Erklärung haben.
    Eine KI kann — wie Gödel gezeigt hat — noch nicht mal all das lösen, was mit dem Kopfgefühl zu tun hat.
     
    Solange KI nicht auch teilweise durch absoluten Zufall gesteuert arbeitet, kann sie ganz grundsätzlich nur Lösungswege gehen, die man ihr beigebracht hat. Nur kreative Intelligenz findet selbst dort noch Lösungen, wo es  k e i n e  vorgedachten Lösungswege gibt.
     
    Hans-m nennt folgendes Beispiel:
         
     
    Du bist mit deinem Sohn unterwegs. Er stürzt einen Abhang hinab (nur einige Meter, aber außerhalb deiner Reichweite).
    Du hast kein Seil, ihn zu erreichen.
    Was machst Du, welche Hilfsmittel stehen Dir zu Verfügung, ihm zu helfen? Du hast nur dein Fahrrad und Werkzeug.
    Du könnstest z.B. die Schläuche deiner Fahrradreifen aneinanderknoten, und vielleicht auch noch das Ganze mit der Fahrradkette verlängern.
     
    Könnte diese Lösung auch einer KI einfallen?

     
     
    Siehe auch: Howard Gardener: Kreative Intelligenz: Was wir mit Mozart, Freud, Woolf und Gandhi gemeinsam haben, Piper 2002.
     
     
    Siehe auch: Der grundlegenden Unterschied zwischen Mensch und Maschine — Gödel hat ihn aufgedeckt.
     
     
    Fazit all dieser Überlegungen:
     
     
    Solange KI so arbeitet, wie man das bisher als einzig denkbaren Weg kennt,
     
    wird sie nie alle für den menschlichen Geist charakteristischen Fähigkeiten haben können.

     
     
    Dies bedeutet aber nicht, dass KI-Forschern nicht irgendwann ein völlig neuer Ansatz einfallen könnte, mit dessen Hilfe es dann doch gelingt,
     
    Roboter zu bauen, die menschliche Fähigkeiten in JEDER Hinsicht haben — den Menschen dann also komplett degradieren könnten.


     
     
    Wie sich derzeit denkbare KI mehr und mehr in unserem Alltagsleben breit macht, wird recht treffend skizziert in Reportagen und Erfolgsmeldungen wie z.B.
    Selbst hiervon noch weit entfernt sind:
     
     
    Nebenbei:
      Googles selbstfahrende Fahrzeuge wurden im Herbst 2010 erstmals der Öffentlichkeit vorgestellt. Viele Autohersteller haben seitdem ebenfalls diverse Prototypen eigener Projekte präsentiert. So zeigte Daimler im Mai 2015 einen autonom fahrenden Lastwagen.
       
      Experten rechnen damit, dass selbstfahrende Autos schon 2020 regulär im Straßenverkehr auftauchen. Bis dahin müssten aber noch diverse rechtliche
      Fragen, Haftungsfragen vor allem, geklärt werden.
       
      Die selbstfahrenden Autos von Google sind in sechs Jahren in nur 11 kleinere Unfälle verwickelt worden. Aber nie sei das selbstfahrende Auto der Grund für den Zwischenfall gewesen.
       
      Googles Flotte von mehr als 20 Roboter-Wagen fuhr schon über 2,7 Millionen Kilometer (Stand: Mai 2015), hiervon 1,6 Millionen im autonomen Betrieb.
      Derzeit — Mitte 2015 — legen sie etwa 16.000 Kilometer pro Woche zurück.


     

     Beitrag 0-205
    Kann KI auch dumm sein?

     
     

     
    Eine einfache mathematische Frage,

    die keine KI beantworten kann — wohl aber der Mensch

     
     
    Auf den Seiten 91-95 seines Buches Schatten des Geistes, Wege zu einer neuen Physik des Bewusstseins (1995). präsentiert Penrose eine Argumentation, die er als Beweis dafür sieht, dass bewusstes Verstehen stets   n i c h t - a l g o r i t h m i s c h e s   Vorgehen in einem Gehirn erfordert, das sich im Wachzustand befindet.
     
    Er sieht dies als bewiesen an, da er eine Argumentation mathematischer Art präsentiert, die schlüssig zu zeigen scheint, dass (Zitat) "Menschliche Mathematiker zum Nachweis mathe­matischer Wahrheit keinen nachweisbar korrekten Algorithmus verwenden".
     
    Seine Beweisidee kann man nutzen, um zu zeigen, dass die Frage
     
     
    F: Gibt es eine  u n g e r a d e  natürliche Zahl, die Summe  g e r a d e r  Zahlen ist?

     
    durch keine KI logisch korrekt begründet entschieden werden kann.
     
     
    Nehmen wir dazu an, für jede ungerade Zahl n sei C(k,n), k = 1, 3, 5, ... eine Aufzählung aller korrekt argumentierenden Berechnungen, mit denen passende Software in endlicher Zeit zum Schluss kommt, dass n nicht Summe zweier geraden Zahlen sein kann.
     
    Wir fordern nicht, dass so eine Aufzählung jede der möglichen Berechnungen nur einmal nennen darf, und dürfen deswegen annehmen, dass sich tatsächlich für jedes n jeder ungeraden natürlichen Zahl k ein solches Verfahren C(k,n) zuordnen lässt: Natürlich nur wenn es wenigstens eines gibt. Falls nicht, wissen wir schon hier, dass keine KI die Frage F logisch korrekt begründet entscheiden kann.
     
    Da man weiß, dass jede auf einem Computer ablaufende Rechnung, die zu einem Ergebnis E führt, durch eine Turingmaschine simulierbar ist, welche — nachdem man sie gestartet hat — dann und nur dann zum Stillstand kommen wird, wenn sie gerade eben E produziert hat, können wir uns jedes C(k,n) als Aufruf einer Turingmaschine T(k) vorstellen, die angesetzt auf die Aufgabe
     
    » Liefere einen Beweis dafür, dass n Summe gerader Zahlen ist «

    nie zum Halten kommt.
     
    Jedes durch eine KI angewandte Verfahren C(k,n), welches zu beweisen versucht, dass n nicht Summe gerader Zahlen ist, kann man sich vorstellen als eine Rechenvorschrift B, die — wenn man ihr das Paar (k,n) vorlegt — zu beweisen sucht, dass C(k,n) niemals fertig wird.
     
    Nennen wir die dann ablaufende Rechnung B(k,n), so gilt:
     
     
    Wenn B(k,n) zu Ende kommt, wird C(k,n) niemals fertig.

     
    Wir können jetzt insbesondere den Fall k = n betrachten, und so wird uns klar:
     
     
    Wenn B(n,n) zu Ende kommt, wird C(n,n) niemals fertig.

     
    Wir sehen aber auch, dass die Berechnung B(n,n) von nur einer Zahl abhängt, also eine der Berechnungen C(k,n) sein muss. Für dieses k, welches wir jetzt k(n) nennen wollen, gilt dann also:
     
     
    B(n,n) = C(k(n),n)   für alle nicht negativen ungeraden ganzen Zahlen n

     
    Da diese Gleichung für alle n gilt, muss sie insbesondere für N = k(n) gelten. Wir haben also B(N,N) = C(k(N),N).
     
    Da wir aber schon wissen, dass B(N,N) genau dann anhält, wenn C(k(N),N) es nicht tut, sind wir so zur widersprüchlichen Aussage gelangt, dass die Rechnung C(k(N),N) genau dann zu Ende kommt, wenn sie nicht zu Ende kommt.
     
     
    Damit wäre klar, dass unsere Annahme, die KI könne die Frage F beantworten, falsch sein muss.
     
    Jeder Mensch aber — mindestens jeder Mathematiker — erkennt sofort, dass F beantwortet werden kann und die korrekte Antwort NEIN ist.

     

     
    Wir müssen zur Kenntnis nehmen:
     
    Das eigentliche Problem aller algorithmisch gesteuerten KI ist, dass sie sich eigenständig keine Beweisidee erarbeiten kann. Das wiederum liegt daran, dass sie nur mechanisch einer von ihrem Schöpfer — dem Programmierer — ersonnenen Rechenvorschrift folgt. Selbst wenn dieser Algorithmus so beschaffen sein sollte, das er sich selbst über die Zeit hinweg neu definiert — sich also fortentwickelt —, bleibt er doch von Menschen vorgedacht. Und so gilt:

     
     
    KI ist nicht fähig, eigene Ideen zu haben.
     
    Sie ist — so muss man es sagen — geistlos: ohne Geist und daher ohne Kreativität und Einsicht.
     
    Einsicht zeigen, wirklich verstehen, können nur biologische Lebewesen.

     
     
    Wer sich vor Augen führt, dass jede KI durch eine Turingmaschine simulierbar ist, wird wissen, was ich meine.
     
     
    Und wie bitte soll es einer Turingmaschine je gelingen, z.B. den folgenden Spruch zu deuten ( aus [Z] ):
     
     
    Je mehr Käse, desto mehr Löcher.
     
    Je mehr Löcher, desto weniger Käse.
     
    Ergo: Je mehr Käse, desto weniger Käse.

     
     
     
    Wer Cantors Diagonalverfahren kennt, wird gesehen haben, dass wir es oben gleich zwei Mal angewandt haben. Es ist schönes Beispiel dafür, dass menschliches Denken auf Ideen kommt, die keiner KI kommen können.
     
    Kurt Gödel wusste das. Er bestand darauf, dass mathematisches Denken gleich zwei unabdingbare Säulen habe: Induktion UND Intuition. KI kennt nur die erste.
     
    Ein bekanntes Beispiel für Intuition ist uns von Carl Friedrich Gauß überliefert. Er soll einmal gesagt haben, seine Resultate habe er schon, er wisse nur noch nicht, wie er zu ihnen gelange.
     
    Wir sehen: Erkannte Wahrheiten sind wie Inseln im Meer aller Wahrheiten. Nutzbar sind nur die, zu denen man schon gelangt ist (indem man einen Beweis für sie fand). Das Finden — von Insel wie Beweis — kann Intuition erfordern.

     

     Beitrag 0-206
    Das ABCD des bewussten Denkens (nach Penrose)

     
     

     
    Das ABCD des bewussten Denkens

    nach Roger Penrose

     
     
    Beim Versuch, der Frage nachzugehen, in welchem Umfang menschliches Denken algorithmisch beschreibbar sein könnte, begegnet man heute folgenden, grundsätzlich unterschiedlichen Standpunkten:
       
    • (A):  Alles Denken ist algorithmischer Natur. Insbesondere wird der Eindruck, etwas bewusst wahrzunehmen, schon durch die Ausführung geeigneter Berechnungen geweckt.
       
    • (B):  Bewusstsein ist eine Eigenschaft physikalischer Vorgänge im Gehirn, die sich rechnerisch simulieren lassen. Und doch kann keine solche Simulation Bewusstsein schaffen.
       
    • (C):  Es gibt im Gehirn physikalische Prozesse, die zu Bewusstsein führen. Sie könnten sich angemessen simulieren lassen, sobald wir physikalische Modelle entdeckt haben, die über die bisher bekannten — auch das der Quantenphysik — hinausgehen.
       
    • (D):  Bewusstsein ist grundsätzlich   n i c h t   wissenschaftlich erklärbar — weder in physikalischer Sprache noch in der Sprache der Computer.

    Nur nach (C), aber nicht nach (D) ist das Bewusstseinsproblem etwas, das Wissenschaft zu lösen in der Lage sein kann.
     
    Penrose spricht sich klar für (C) aus und   g e g e n   (A), (B) und (D).
     
    In seinem Buch Schatten des Geistes, Wege zu einer neuen Physik des Bewusstseins (1995) präsentiert er zunächst mal einen Beweis für die Aussage
     
     
    (G):  Menschliche Mathematiker verwenden zum Nachweis mathematischer Wahrheit keinen nachweislich korrekten Algorithmus.

     
     
    Als ich das zum ersten Mal las, dachte ich, das könne nur wahr sein, wenn man darin das Wort "verwenden" ersetzt durch "verwenden im Allgemeinen". Meine Begründung wäre gewesen, dass wir ja ganz genau wissen, wie man z.B. ganze Zahlen in Dezimaldarstellung miteinander multzipliziert und diesen Algorithmus als korrekten Beweis für (z.B.) die Aussage 3 * 17 = 51 ansehen können. Nachdem ich Penrose' Beweis aber mehrmals genau gelesen und durchdacht habe, bin ich nun der Überzeugung, dass er tatsächlich (G) beweist. Mir das klar zu machen, habe ich in Notiz 0-205 seinen Beweis leicht modifiziert mit dem Ziel, dass er dann zeige:
     
     
    (Z):  Künstliche Intelligenz kann — da sie zu 100% algorithmisch arbeitet — grundsätzlich NICHT in der Lage sein,
    zu beweisen, dass keine ungerade natürliche Zahl Summe gerader Zahlen ist.

     
     
    Damit wäre insbesondere bewiesen, dass KI niemals menschliche Mathematiker wird ersetzen können (obgleich KI inzwischen – etwa im Investment Banking – durchaus schon vormals hoch bezahlte Menschen ersetzt, deren Arbeit ausschließlich geistiger Natur war).
     
    Da (Z) eine viel einfacher zu verstehende Aussage ist als (G), müsste ihr Beweis uns deutlicher zeigen, was KI denn nun eigentlich wirklich fehlt: Kreativität – aber, und das ist wichtig, nicht allein sie, sondern Kreativität gepaart mit Bewusstein (womit ich nicht das Ich-Bewusstsein meine, sondern die Fähigkeit, sich etwas bewusst machen zu können).
     
    Note: Wo KI absoluten Zufall mit einbezieht (z.B. über Abfrage von Ergebnissen quantenphysikalischer Prozesse), könnte sie kreativ werden – Bewusstsein hätte sie dennoch nicht. Sie käme einfach nur zu einer nützlichen oder weniger nützlichen Idee wie ein Spieler am Roulette-Tisch zu Gewinn oder Verlust kommt.
     
     
    Natürlich ist (G) äquivalent zu
     
     
    (GG):  Wo menschliche Mathematiker einen logisch korrekten Beweis erbringen, ist ihr Denken nie einfach nur algorithmischer Natur.

     
     
    Sollten die Beweise von (G), (GG) und (Z) schlüssig sein, würde ich fast denken wollen, dass KI mit   j e d e m   Nicht-Existenz-Beweis überfordert sein könnte. Das hätte dann aber zur Folge, dass zwischen den Begriffen beweisbar und aus Axiomen formal ableitbar wohl doch ein weit größerer Unterschied bestünde als uns bisher bewusst war.
     
    Es hätte insbesondere zur Folge, dass keine KI indirekte Beweise führen kann. Doch ist das wirklich so?

      Kann wirklich nur der Mensch erkennen, dass eine gerade ganze Zahl (wie z.B. die Summe gerader ganzer Zahlen) niemals ungerade ist?
      Oder kann die KI nicht erkennen, dass, wenn sie das wüsste, sie auch wüsste, dass keine ungerade Zahl Summe gerader Zahlen ist?
       
      Oder liegt es einfach daran, dass die KI von sich aus keine Veranlassung sieht, sich zu fragen, welche Antworten auf Fragen, die sie sich selbst beantworten könnte, ihr helfen würden, die Aussage (Z) zu beweisen?
       
      Und in der Tat: Es gibt ja keine Turingmaschine, die — bevor sie jemand ausgewählt und gestartet hat — von selbst starten würde.
      Wird der Erfolg einer Beweisführung also einfach dadurch herbeigeführt, dass jemand den   r i c h t i g e n   Gedankengang startet?

     
    Derartige Fragen, so schreibt Penrose, berühren tiefgehende Probleme der Philosophie und der mathematischen Erkenntnistheorie. Seine Fragen sind vor allem:
     
      Ist mathematisches Verständnis eine Art Kontakt mit einer platonischen Wirklichkeit, deren zeitlose Qualität völlig unabhängig von uns ist?
       
      Warum entsprechen die physikalischen Gesetze anscheinend so genau präzisen und oft raffinierten mathematischen Beschreibungen?
       
      Welche Beziehung besteht zwischen der physikalischen Welt
      [ unserer Modelle der Natur ] und einer platonischen mathematischen Wirklichkeit?

     
     
    Edward Witten — so scheint es — kann sich nicht so recht zwischen Standpunkt (C) und (D) entscheiden. Er sagt uns 2016:
     
      Understanding the function of the brain is a very exciting problem in which probably there will be a lot of progress during the next few decades. That’s not out of reach. But I think there probably will remain a level of mystery regarding why the brain is functioning in the ways that we can see it, why it creates consciousness or whatever you want to call it.
       
      Perhaps it won’t remain a mystery if there is a modification in the laws of physics as they apply to the brain. I think that’s very unlikely. I am skeptical that it’s going to be a part of physics.


     

     Beitrag 0-67
    Emotionslos zu sein macht jede KI dem menschlichen Gehirn weit unterlegen

     
     

     
    Zu einer Entscheidung zu kommen,  k a n n  Emotionen erfordern

     
     
    Wie in den Beiträgen 0-2 und 0-102 schon kurz diskutiert, liegt die Stärke menschlichen Denkens vor allem auch darin, dass es zu Denkschritten kommt, die durch Logik nicht erklärbar sind, wohl aber durch Gefühl und Emotionen (unser sog. Bauchgefühl, etwas das keinem Roboter beizubringen sein wird).
     
    Wie sich das Fehlen nicht-logischer, aber dennoch vernünftiger Entscheidungswege — das Fehlen von Emotionen und dem vagen   G e f ü h l , etwas könne richtig bzw. falsch sein — auswirken kann, zeigen Krankheitsfälle gewisser Art:
     


    Michio Kaku (Die Physik des Unmöglichen, S. 161):
     
    Menschen mit einer ganz bestimmten Hirnverletzung haben die Fähigkeit verloren, Gefühle zu erleben, obgleich sie weiter logisch denken können:
     
    Der Neurologe Antonio Damasio (vom College of Medicine an der University of Iowa) hat Patienten mit dieser Art von Hirnverletzung untersucht und kam dabei zum Schluss, dass sie "zu wissen, aber nicht zu fühlen" scheinen.
     
      Er fand, dass solche Personen schon bei den kleinsten zu treffenden Entscheidungen wie gelähmt erscheinen: Da ihnen Emotionen fehlen, diskutieren sie endlos über Optionen, können sich aber lange nicht für die eine oder andere entscheiden. Sie verfallen in lähmende Unentschlossenheit. Einer der Patienten von Damasio z.B. benötigte eine halbe Stunde allein dafür, sich für den nächsten Termin bei Dr. Damasio zu entscheiden.

     
    Wissenschaftler glauben, dass Gefühle im limbischen System verarbeitet werden, das tief im Zentrum unseres Gehirns verborgen liegt. Es bewirkt, dass wir manchmal so eine bestimmte "Ahnung" haben, die nicht begründbar ist, dann aber eben doch zu unserer Entscheidung führt.
     
    Wenn wir z.B. einkaufen gehen fällen wir unbewusst Tausende von Werturteilen über nahezu alles, was wir sehen: Wir finden dies hier zu teuer, jenes zu billig und noch anderes zu bunt, zu dämlich oder genau richtig.
     
    Für Menschen mit der oben erwähnten Hirnverletzung kann das Einkaufen deswegen zum Albtraum werden, da alles den gleichen Wert zu haben scheint.
     
    Wenn Roboter immer intelligenter werden und irgendwann eine von ihrem Programmierer nicht vorgedachte Wahl zu treffen hätten, könnte sich bei ihnen eine ganz ähnlich Entscheidungsunfähigkeit einstellen.
     
    Die Situation erinnert an die Parabel vom Esel, der zwischen zwei Haufen Heu sitzt und verhungert, da er sich nicht entscheiden kann, von welchem Haufen er fressen möchte.
     
    Dies veranlasste Rosalind Picard (vom MIT Media Lab) festzustellen:
    Sie [ Roboter und KI-Systeme ] haben kein  G e f ü h l  für die wichtigen Dinge. Das ist einer ihrer größten Mängel, Computer  k a p i e r e n  es einfach nicht.
     


     
    Wie aber soll man einem Roboter Gefühle und Emotionen geben? Wir wissen es nicht. 
     
    Roboter sind zudem auch noch auf eine ganz andere Art absolut unfähig so zu denken, wie jedes Kind das schon recht bald kann:



    Marvin Minsky vom MIT, Mitbegründer der KI, bringt es auf den Punkt:
     
    Die Geschichte der KI ist schon komisch: Ihre ersten Leistungen waren wunderbare Dinge. KI der ersten Stunde konnte logische Beweise führen oder z.B. auch selbständig Lösungen für Differentialgleichungen finden.
     
    Aber dann haben wir versucht, Maschinen zu konstruieren, die Antworten auf Fragen geben sollten, bei denen es einfach um Geschichten aus einem Lesebuch der ersten Klasse ging. Bis heute aber gibt es keine Maschine, die das kann.
     



    Michio Kaku (S. 158):
     
    Manche Forscher glauben, man müsse Software beibringen, zu lernen, wie ein Kind lernt:
     
    Beobachten, dabei Information sammeln, sie als Erfahrung abspeichern, Eltern, Lehrer und Bücher um Rat fragen, aber nicht zuletzt auch immer wieder eigene Ideen auszuprobieren.
     
    Auch ein Koch etwa richtet sich nach Rezepten, versucht aber auch immer wieder, davon abzuweichen, um so etwas Auszuprobieren, an das vor ihm noch nie jemand gedacht hat.
     

    Problem dabei ist nur:
     
     
    Software fehlt das notwendige  G e f ü h l , unter oft Milliarden denkbarer Abweichungen von einer Regel,
     
    vor allem solche auszuprobieren, für die die Wahrscheinlichkeit, dass sie zu absolutem Unsinn führen, gering ist.

     
    Dies ist der Grund dafür, dass KI in den Fällen als intelligent erscheint, in denen es dem Computer — seiner extremen Schnelligkeit wegen — möglich ist, wirklich ALLE Alternativen auszuprobieren.
     
    Dass die Zahl möglicher Alternativen aber derart klein ist, kommt nicht wirklich oft vor.

     

     Beitrag 0-176
    Zur Angreifbarkeit des Internets der Dinge

     
     

     
    Cyberangiffe aufs IoT (das Internet der Dinge)

     


    Frankfurter Allgemeine vom 10.1.2016:
     
    Bei einem Stromausfall, der am 23.12.2015 im Westen der Ukraine etwa 700 000 Haushalte betraf, handelte es sich wahrscheinlich um eine Sobaotage über das Internet: Wie Firmen für Internetsicherheit — darunter das slowakische Untenehmen Eset — berichten, fanden sich auf den Computern eines ukrainischen Stromversorgers Kopien der Schadsoftware » Black Energy «.
     
    Der Angriff wäre die bisher dritte Cyberattacke, die physische Schäden an großtechnischen Anlagen verursacht hat.
     
    Zuvor war
       
    • 2010 der Computerwurm » Stuxnet « entdeckt worden, der iranische Urananlagen beschädigt hatte.
       
    • Im Jahr 2014 beschrieb ein Bericht des Bundesamtes für Sicherheit in der Informationstechnik einen ebenfalls erfolgreichen Angiff auf ein deutsches Stahlwerk.

     


     
    Lies auch:

     

     Beitrag 0-JungA
    Was Carl Gustav Jung und Wolfgang Pauli als wichtige Schnittstelle zwischen Körper und Geist sahen

     
     

     
    Archetypen — wie Jung und Pauli sie verstanden

     
     
    Die neurophysiologische Verankerung mystischer Erlebnisformen lässt sich als Archetypus verstehen: als "unbewusste physische Strukturdominante" (Jung).
     
    Sie ist latent vorhanden und wird nur unter besonderen Bedingungen ins Licht bewussten Erlebens gehoben.
     
    Wie Jung sagt, gehören urtümliche Bilder, die Niederschlag der Archetypen sind, "der Menscheit überhaupt und können autochthon in jedem Kopf wiederentstehen unbekümmert von Zeit und Ort. Es bedarf nur der günstigen Umstände für deren Wiedererwachen."
     
     
    An Darwins Evolutionstheorie orientierte Psychologen verstehen das meist so, dass es sich um Verhaltensmuster handelt, die sich ebenso als überlebensfördernd entwickelt haben wie Sprungmuskeln, Sehvermögen oder Sprache.
     
     
    Carl Gustav Jung aber meint mehr: Er sieht den archetypischen Grund jener Bilder in rational nicht erklärbarer Weise in der Natur verwurzelt.
     
    Im Gespräch mit Pauli — der dem Platonismus zuneigte — räumte Jung ein, dass Archetypen
    • einerseits Ideen im Platonischen Sinne darstellen,
       
    • andererseits aber direkt mit physiologischen Vorgängen verknüpft sind, sinnhafte Eigenschaften alles Stofflichen repräsentieren und zudem noch Arrangeure für Sychronizitäten sind.

     
    Wolfgang Pauli geht bewusst noch weiter und sieht in Archetypen zudem noch der Naturwissenschaft zugrundeliegende, nicht kausal verstehbare Voraussetzungen:
      "Vorstufe des Denkens ist ein malendes Schauen dieser Bilder, deren Ursprung nicht in erster Linie auf Sinneswahrnehmungen zurückgeführt werden kann."

    Pauli führt weiter aus:
      "Das Ordnende und Regulierende muss jenseits der Unterscheidung zwischen 'physisch' und 'psychisch' gestellt werden — so wie Platons 'Ideen' etwas von Begriffen und auch etwas von 'Naturkräften' haben (sie erzeugen von sich aus Wirkungen).
       
      Ich bin sehr dafür, dieses Ordnende und Regulierende » Archetypen « zu nennen; es wäre dann aber zulässig, sie als phsychische Inhalte zu definieren. ...
       
      Die Naturgesetze der Körperwelt wären dann die physikalische Manifestation der Archetypen."

     
    So gesehen sind Archetypen nicht Produkt, sondern Voraussetzung für komplexe naturgesetzlich geregelte Prozesse.
     
     
    Dies geht noch über die Grundannahme von Conway Morris hinaus, nach der in der Konvergenz nicht-kausale Voraussetzungen für so manch evolutionären Prozess sichtbar werden.


    Günter Ewald in Gehirn, Seele und Computer (2006):
     
    Wenn wir vom » universalen Geist « sprechen, dann sinnvollerweise als einem Gestaltungsprinzip, das in Archetypen, in Synchronizität, in Konvergenz, aber auch in den Naturgesetzen konkret wird.
     
    Universaler Geist ist aber nicht nur Idee, sondern auch handelndes Prinzip, das materielles und immaterielles Geschehen begründet.
     
     
    Dies ist nicht als Definition zu verstehen, sondern als sprachliche Umschreibung von rational nicht Fassbarem.
     
    Im religiösen Gottesbegriff wird er personalisiert.
     


     
    Quelle: Günter Ewald: Gehirn, Geist und Computer (2006), S. 95-96


     

     Beitrag 0-JungS
    Synchronicity (nach Jung) und der sog. Pauli-Effekt

     
     

     
    » Synchronicity « nach Carl Gustav Jung

     
     
    Der Psychoanalytiker Carl Gustav Jung (1875-1961) war einer der ersten, der sich wissenschaftlich mit dem Thema der unwahrscheinlichen Zufälle im Menschenleben auseinander gesetzt hat. Er prägte dafür den Ausdruck » Synchronizitäten ( = Synchronicity ) «.
     
     
    Seine grundlegende Abhandlung darüber erschien 1952 und trägt den Titel Naturerklärung und Psyche — Synchronizität als ein Prinzip akausaler Zusammenhänge.
     
    Bis heute spielt diese Schrift für die Psychologie und einige esoterische Disziplinen eine große Rolle [ da ja Jung seinen Synchronizitätsbegriff in der Auseinandersetzung mit dem chinesischen I-Ging-Orakel und der Astrologie gewonnen hat. ]
     
    Ausführlich diskutiert hat er ihn aber über insgesamt 26 Jahre hinweg auch mit Wolfgang Pauli (Quantenphysiker und Nobelpreisträger). Der Grund hierfür:
     
    Pauli hatte schon früh an sich phsychokinetische Fähigkeiten — von Kollegen als » Pauli-Effekt « gefürchtet — entdeckt, die ihn verwirrten und im Zusammenhang mit seiner Scheidung sowie dem Tod seiner Mutter in eine innere Krise führten, die zu überwinden er sich bei Carl Gustav Jung zu einer Therapie anmeldete. Jung gab diese Anfrage an eine Praktikantin weiter, begann aber mit Pauli ein intensives Gespräch über die physikalischen und psychologischen Hintergründe von Paulis außer­gewöhnlichen Erfahrungen.
     
     
    Jung verstand Synchronicity in erster Linie als Beziehung eines inneren Ereignisses mit einem zeitnah darauf folgenden äußeren Geschehen, welches
    • sinnhaft mit dem inneren Geschehen verbunden,
    • aber nicht physikalisch-kausal davon verursacht wird.

     
    Pauli selbst erzählt:
      Als er einmal im Cafe Odeon in Zürich aus dem Fenster sah und ein vor dem Haus geparktes rotes Auto anstarrte, ging dieses plötzlich in Flammen auf und brannte aus. Für Pauli war das kein Zufall, sondern ein synchronistisches Ereignis.

     
    Auch Jung selbst schien zeitweise eine psychokinetische Ausstrahlung gehabt zu haben — vor allem während seiner Zusammenarbeit mit Freud. In seiner Autobiographie Erinnerungen, Träume, Gedanken (1997) erzählt Jung:
     
      "Während Freud seine Argumente vorbrachte, hatte ich eine merkwürdige Empfindung. Es schien mir, als ob mein Zwerchfell aus Eisen bestünde und glühend würde — ein glühendes Zwerchfellgewölbe. Und in diesem Augenblick ertönte ein solcher Krach im Bücherschrank, der unmittelbar neben uns stand, daß wir beide furchtbar erschraken. Wir dachten, der Schrank fiele über uns zusammen. Genauso hatte es getönt. Ich sagte zu Freud: 'Das ist jetzt ein sog. katalytisches Exteriorisationsphänomen'.
       
      'Ach', sagter der, 'das ist ja leibhaftiger Unsinn'.
       
      'Aber nein', erwiderte ich, 'Sie irren, Herr Professor. Und zum Beweis, daß ich recht habe, sage ich nun voraus, daß es gleich nochmal einen Krach geben wird.'
       
      Und tatsächlich: Kaum hatte ich die Worte ausgesprochen, begann der gleiche Krach im Schrank!
       
      Ich weiß heute noch nicht, woher ich diese Sicherheit nahm. Aber ich wusste mit Bestimmtheit, dass das Krachen sich wiederholen würde.
       
      Freud hat mich nur entsetzt angeschaut."


     
     
    Noch mehr über den Briefwechsel zwischen Pauli und Jung findet sich zusammengetragen durch Remo F. Roth.

     
     
     
    Sehr lesenswert ist zudem das Buch von Arthur I. Miller: 137: C. G. Jung, Wolfgang Pauli und die Suche nach der kosmischen Zahl (2011), einem emeritierten Professor für Geschichte und Philosophie der Naturwissenschaften am University College in London. Er macht uns klar:
     
    Für Jung gab es in der Welt des Bewusstseins nicht nur "konstanten Zusammenhang durch Wirkung (Kausalität)", sondern auch "inkonstanten Zusammenhang durch Kontingenz bzw. Ähnlichkeit (Synchronizität)". Dies wäre selbstverständlich, würde man das Wort "inkonstant" durch "zufällig" ersetzen. So weit aber wollten weder Pauli noch Jung gehen. Darüber hinaus waren sie unterschiedlicher Ansicht:
       
    • Jung verstand Synchronizität als eine Art "Anordnung", vermöge derer "Ähnliches" koinzidiert, ohne dass eine Ursache hierfür feststellbar wäre. Er sah keinen Grund, warum Synchronizität immer nur Koinzidenz zweier physischer Zustände oder eines physischen Zustandes mit einem nicht-physischen Ereignis sein sollte. Fasziniert war er von Paulis Beispiel des radioaktiver Zerfalls von Atomkernen, der nicht rein zufällig sein kann, da ja jedes radioaktive Element eine für seine Art typische mittlere Zerfallszeit hat.
       
    • Für Pauli unterschied sich Synchronizität eindeutig von physikalischen Vorgängen.
       
      In einem Brief an Jung — dem vom 23.6.1950 — schrieb er, dass er im Gegensatz zu seinen Kollegen die Quantenmechanik als unvollständig erachte und ihre Verschmelzung mit der Psychologie für notwendig erachte. Er habe "keinen Mangel an noch nicht assimilierten Gedanken" hierzu.

    1952 erschien das von Pauli und Jung gemeinsam publizierte Buch Naturerklärung und Psyche = [2] = Paulis Aufsatz » Der Einfluss archetypischer Vorstellungen auf die Bildung naturwissenschaftlicher Theorien bei Kepler « und Jungs Schrift über » Synchronizität «. Arthur I. Miller stellt fest: » Für Pauli liefen hier alle Fäden seiner Arbeit zusammen — seine Vorträge über Kepler und Fludd, seine Träume und Gespräche mit Jung und auch sein Briefwechsel mit Fierz: ein Thema, über das er 25 Jahre lang nachgedacht hatte. «
     
     
    Zusammenfassend lässt sich sagen:
     
    In der Lehre von C.G. Jung und teilweise auch in Wolfgang Paulis Überlegungen hat das mittelalterliche kosmologische Weltbild — welches seinen Höhepunkt in der Darstellung von Robert Fludd gefunden hatte und an dem erstmals Fludds lautstarkem Kritiker Johannes Kepler Zweifel kamen — seine letzte deutliche Spur in der wissenschaftlichen Welt hinterlassen.
     
    Am 25.12.1954 schrieb Pauli an Fierz: » Auf den Astralkult von Jungs Umgebung pfeife ich, aber [...] diese Traumsymbolik gibt den Ausschlag! Das [ gemeinsam mit Jung publizierte ] Buch selbst ist eine schicksalhafte Synchronizität und muss bleiben. Ich bin sicher, dass [ es nicht veröffentlicht zu haben ] schlimme Folgen für mich hätte. Dixi et salvavi animan meam! [ Ich habe gesprochen und meine Seele gerettet. ] «
     
    Heute (im 21. Jahrhundert) gehören Synchronizität und Archetypen nicht mehr zu unserem Überzeugungskanon. Ebensowenig glauben Quantenphysiker heute noch, dass erst das bewusste Betrachten eines Quantensystems durch ein Lebewesen zum Kollaps seiner Wellenfunktion führe.

     

     Beitrag 0-404
    Jung & Pauli auf der Suche nach uns unbewussten Zusammenhängen

     
     

     
    C.G. Jung und Wolfgang Pauli

     
     
    Wolfgang Pauli — Quantenphysiker und Nobelpreisträger (1900-1958) — und Carl Gustav Jung — nach Freud der bekannteste Phsychoanalytiker seiner Zeit (1875-1961) — waren recht unkonventionelle Denker, die eine 26-jährige intensive Diskussion über Weltharmonie, Traumdeutung und die Bedeutung innerer Bilder miteinander verband.
       
    • Im Jahre 1921 erschien in der "Encyklopädie der Mathematischen Wissenschaften" der Aufsatz "Relativitätstheorie" des damals erst 21-jährigen Studenten Wolfgang Pauli, der als Gesamtdarstellung der Speziellen und Allgemeinen Relativitätstheorie angelegt war und in dieser Funktion sofort eine bis heute vielzitierte Standardreferenz wurde. Auf frische und kritische Art diskutiert Pauli besonders die Grundlagen dieser Theorien, auf denen unser Verständnis von Raum und Zeit auf allen Skalen der heutigen Physik beruht, angefangen von den Elementarteilchen bis zur Kosmologie. Dadurch ist Paulis Artikel auch heute noch eine wertvolle Bereicherung für Studierende und Experten gleichermaßen. Einsteins Rat, daß diesen Artikel jeder zu Rate ziehen sollte, "der sich in prinzipiellen Fragen authentisch orientieren will", kann auch heute noch uneingeschränkt weitergegeben werden.
       
      Als Quantenphysiker machte Pauli 3 Entdeckungen, die unser Verständnis der Welt wesentlich bereichert haben: Das Ausschließungsprinzip, das Neutrino und die CPT-Symmetrie.
       
      Von Kollegen wurde Pauli später » das Gewissen der Physik « genannt, da er die Arbeit anderer oft durch beissende Kritik und kritische Einschätzung gefördert und verbessert hat. Werner Heisenberg etwa hat, wie er selbst sagt, nie etwas veröffentlich, ohne dass er vorher Pauli um schonungslose Kritik seiner Arbeit gebeten hätte. Das gute Verhältnis der beiden zerbrach erst, als sie — schon gegen Ende ihrer Laufbahn — sich beim Versuch, die sog. Feinstrukturkonstante 1/137 herzuleiten, in eine Sackgasse verrannten, was dazu führte, dass Pauli sich bei einem Vortrag in den USA vor vielen Fachleuten ziemlich blamiert hat. Hier erst hat sein sonst untrüglicher, messerscharfer Verstand versagt.
       
    • Jung war ein Pionier der Erforschung des menschlichen Geistes, der in seine Methodik sog. » analytischer « Psychoanalyse auch Ansätze aus Alchemie, Mystik und fernöstlichen Religionen mit einbezog und sich daher schon bald von Freud und seinen Anhängern entfremdet hat.
       
      Psychoanalytikern und der Öffentlichkeit ist Jungs Name heute zwar noch bekannt, aber was er eigentlich dachte und versucht hat, ist weniger bekannt als der Mensch Jung selbst. Viele Jahre lang strafte ihn die psychoanalytische Gemeinde mit Verachtung für sein Interesse an einem Gedankengut, das sie als das Okkulte bezeichnete. Insbesondere aus dem Kreis der Schüler von Freud musste Jung Prügel einstecken.
       
      Dass Jung später von der New-Age-Bewegung vereinnahmt wurde, war ebenso wenig hilfreich wie seine vermeintliche — aber nicht wirkliche — Sympathie für die Nazis.
       
      Heute gibt es erneut Interesse an der Beziehung zwischen Jung und Freud: Man versucht Jungs Werk im Rahmen der Kultur seiner Zeit zu verstehen. Hierfür sichten Gelehrte seinen unveröffentlichten Nachlass und bereiten viel davon zur Veröffentlichung vor.

    Inzwischen behaupten mehr und mehr Wissenschaftler, Psychologen und Neuropsychologen, dass das Verständnis von Geist und Bewusstsein geradezu nach einem Ansatz schreie, der die Fachbereiche überschreitet. Selbst einige wenige Physiker — Roger Penrose oder Thomas Görnitz sind gute Beispiele — arbeiten am Versuch, solche Ansätze zu finden.
     
    Damals aber (1931-1958), als solch fachübergreifende Diskussion in Form intensiver Gespräche zwischen Pauli und Jung zum ersten Mal stattfand, mussten die beiden dies für sich behalten aus der Furcht heraus, sich sonst in ihrem jeweiligen Kollegenkreis lächerlich zu machen. Entsprechend vorsichtig formuliert ist ihr einziges, gemeinsam herausgegebenes Buch Naturerklärung und Psyche = [2]. Es enthält
    Arthur I. Miller stellt fest: » Für Pauli, den Physiker, liefen hier alle Fäden seiner Arbeit zusammen — seine Vorträge über Kepler und Fludd, seine Träume und Gespräche mit Jung und auch sein Briefwechsel mit Fierz: ein Thema, über das er 25 Jahre lang nachgedacht hatte. «
     
     
    Quelle: Arthur I. Miller: 137: C. G. Jung, Wolfgang Pauli und die Suche nach der kosmischen Zahl, (2009, deutsch 2011)

     
     
    Dass sich der Physiker Pauli — noch in der Mitte des 20. Jahrhunderts — intensiv mit dem Gedankengut der Alchemie auseinandersetzt, mag zunächst merkwürdig erscheinen, wird aber verständlich, wenn man berücksichtigt, dass eine der Fragen, denen er nachging, war (in seinen eigenen Worten): » Werden wir auf höherer Ebene den alten psychophysischen Einheitsraum der Alchemie realisieren können, durch Schaffung einer einheitlichen begrifflichen Grundlage für die naturwissenschaftliche Erfassung des Physischen wie des Psychischen? «

     

     Beitrag 0-431
    Welche Qualität muss Informationsverarbeitung haben, damit sich Bewusstsein bildet?

     
     

     
    Ist Bewusstsein als emergentes Phänomen

    notwendige Folge extrem vernetzter Informationsverarbeitung?

     
     
    Ein Tropfen Wasser ist nass — ein Eiskristall oder eine Dampfwolke aber sind es nicht, obgleich sie doch aus identischen Wassermolekülen bestehen. Warum? Einfach deswegen, weil die Eigenschaft der Nässe nur Folge einer bestimmten Anordnung der Wassermoleküle ist.
     
    Es ergibt keinen Sinn zu sagen, ein einziges Wassermoekül sei nass, da das Phönomen der Nässe erst auftritt, wenn genügend Moleküle da sind, die sich in dem Muster angeordnet haben, das wir Flüssigkeit nennen.
     
    Daher sind Festkörper, Flüssigkeiten und Gase sämtlich emergente Phänomene: Sie sind mehr als die Summe ihrer Teile, da bestimmte Anordnung jener Teile ihnen Eigenschaften gibt, die
       
    • keine Eigenschaften der Teilchen sind,
       
    • sondern von der Anordnung der Teilchen untereinander abhängen (und davon wie stabil sie sich zeigt).

    Für Bewusstsein scheint Ähnliches zu gelten:
       
    • So löscht z.B. der Eintritt in den Tiefschlaf das Bewusstsein aus, indem er lediglich Teilchen neu anordnet.
       
    • Auf ähnliche Weise würde mein Bewusstsein verschwinden, wenn ich eingefroren würde.

    Kurz: Bringt man eine Menge von Atomen oder subatomarer Teilchen zusammen, um irgend etwas zu bekommen, sei es nun Wasser oder ein Gehirn, dann treten neue Phänomene auf mit beobachtbaren Eigenschaften. Physiker studieren diese emergenten Eigenschaften sehr gerne und stellen fest: Häufig lassen sie sich beschreiben durch eine kleine Menge von Zahlen, die man messen kann — Größen, die etwas über die Zähflüssigkeit der Substanz aussagen, wie komprimierbar sie ist, etc.
      Wenn beispielsweise eine Substanz so dickflüssig ist, dass sie erstarrt, nennt man sie einen Festkörper, andernfalls ein Fluid.
      Und wenn ein Fluid nicht komprimierbar ist, bezeichnen wir es als Flüssigkeit, andernfalls aber als Gas oder als Plasma (je nachdem wie gut seine elektrische Leitfähigkeit ist).

    Könnte es dann aber nicht auch entsprechende Messgrößen geben, welche das Bewusstsein beziffern?
     
    Der italienische Neurowissenschaftler Giulino Tonini hat eine solche Größe vorgeschlagen. Er nennt sie integrierte Information Φ. Sie misst, wie viele unterschiedliche Teile eines Systems Einfluss auf einander nehmen. Genauer:
      Hat man einen Prozess P, der ein System S von Teilchen im Laufe der Zeit in einen neuen Zustand bringt, so quantifiziert seine integrierte Information Φ(S,P) das Unvermögen, den Vorgang in unabhängige Teile aufzuspalten:
       
      Wenn der zukünftige Zustand eines jeden Teils nur von dessen Vergangenheit abhängt, aber nicht auch von den Aktivitäten anderer Teile des Systems, so ist Φ(S,P) = 0 und S einfach nur Summe von einander unabhängiger Teilsysteme.

    Giulinos » Integrated Information Theory (IIT) « sei — so schreibt Max Tegmark — die bisher präziseste Bewusstseinstheorie, die wir haben.
     
    IIT ist nur für diskrete System definiert, die in einer endlichen Zahl von Zuständen vorkommen. Es können das Bits in einem Computerspeicher sein oder stark vereinfachte Neuronen, die entweder an oder aus sein können.
     
    Das bedeutet leider, dass IIT noch nicht anwendbar ist auf die meisten physikalischen Systeme, die sich ständig verändern. So kann ja z.B. die Position eines Teilchens oder die Stärke eines Magnetfeldes unendlich viele Werte annehmen. Versucht man die IIT-Formel auf solche System anzuwenden, erhält man meist nur das wenig hilfreiche Ergebnis, dass Φ unendlich sei.
     
    Quantensysteme können zwar diskret sein, aber auf für sie ist die IIT noch nicht hinreichend weit entwickelt.
     
    Wie also lässt sich IIT dennoch auf angedachte Bewusstseinstheorien anwenden?
     
    Nun: Wie Max Tegmark in Kapitel 2 seines Buches Leben 3.0 anhand von Beispielen zeigt, können Materieklumpen emergente Eigenschaften mit einem Bezug zu Information haben: Es kann langlebige Zustände geben, die zum Speichern von Information nutzbar sind, und außerdem kann es eine — mehr oder weniger abstrakte — "Substanz" geben (dann Computorium genannt), mit deren Hilfe sich — aufgrund ihrer Formbarkeit — Berechnungen ausführen lassen. Künstliche neuronale Netze (KNN) sind ein eindrucksvolles Beispiel für Computorium.
     
    Diese Erkenntnis platziert unser bewusstes Erleben nicht nur eine, sondern gleich zwei Stufen über dem Niveau der Materie.
     
     
     
    Was ermöglicht einem Klumpen Materie subjektives Erleben?

     
     
    Mit anderen Worten: Unter welchen Bedingungen wird Materie in der Lage sein, folgende 4 Dinge zu vollbringen:
       
    • Sich erinnern
       
    • Rechnen
       
    • Lernen
       
    • Erleben

    KI-System, wie sie heute (2019) existieren, haben ganz offensichtlich die ersten 3 dieser 4 Fähigkeiten. Aber werden sie irgendwann auch erleben können (= bewusst erleben können)?


    Max Tegmark (ab S. 450 in Leben 3.0):
     
    Ebenso wie Margolus und Toffoli (am MIT) unter dem Begriff Computorium alles zusammenfassen, was Berechnungen ausführen kann, möchte ich jetzt den Begriff Sentronium verwenden für jede "Substanz", die empfindungsfähig (englisch: sentient) ist.
     
    Sollte Bewusstsein die Art und Weise sein, wie sich Informationen "anfühlen", wenn sie auf bestimmte Weise verarbeitet werden, dann muss Bewusstsein substrat-unabhängig sein.
     
    Es ist dann nämlich allein die Struktur der Informationsverarbeitung, auf die es ankommt, nicht die Struktur der Mechanismen, welche die Informationsverarbeitung durchführen.
     
    Anders ausgedrückt: Das Bewusstsein ist auf gleich doppelte Weise substrat-unabhängig:
       
    • unabhängig vom informationsverarbeitenden Mechanismus,
       
    • und erst recht unabhängig von der Materie, mit deren Hilfe er implementiert ist.

    Wie wir gesehen haben, beschreibt die Physik Muster in der Raumzeit, die sich uns als sich umherbewegende Teilchen darstellen. Wenn die Teilchenanordnungen bestimmten Prinzipien gehorchen, führt das zu emergenten Phänomenen, die vom Teilchensubstrat weitgehend unabhängig sind und sich völlig anders "anfühlen", da sie ja nur der mehr oder weniger begrenzten Bewegungsfähigkeit der Teilchen wegen ergeben. Großartiges Beispiel hierfür ist die Informationsverarbeitung in Computronium.
     
     
    Aber was sind denn nun die Qualitäten, welche Informationsverarbeitung haben muss, damit sie sich ihrer selbst bewusst wird?
     
    Ich [Tegmark] werde nicht so tun, als würde ich sie alle kennen. Notwendig aber erscheinen mir mindestens folgende Kriterien:
       
    • Ein bewusstes System kann sehr viel Information speichern.
       
    • Ein bewusstes System kann ganz erhebliche Informationsmengen verarbeiten [ und auch weitgehend parallel verarbeiten ].
       
    • Ein bewusstes System ist hochgradig unabhängig vom Rest der Welt, kann aber nicht aus nahezu unabhängigen Teilen bestehen.

     
    Was den Stand der Bewusstseinsforschung betrifft, so sei erwähnt, dass Giulio Toninis IIT von einigen begeistert begrüßt, von anderen aber vernichtend kritisiert wird. Einer der heftigsten Kritiker ist Scott Aaronson (man lese seine Blogposts 1799 und 1823).
     


     
    Quelle: Max Tegmark: Leben 3.0 — Mensch sein im Zeitalter Künstlicher Intelligenz (2017)
     
    Eine Einführung ins Konzept der künstlichen neueronalen Netze findet sich auf den Seiten 14-19 der Dissertation von Jörg Höhne (2007)
     
    Max Tegmark: Consciousness as a State of Matter (2015)


     

     Beitrag 0-526
    Warum KI nicht denken kann, wie Gehirne denken

     
     

     
    Über die Leistungsfähigkeit biologischer Gehirne

    und warum KI sie nicht erreicht

     
     
    Bestes Beispiel biologischer Gehirns sind die Gehirne von Menschen.
     
    Man sollte dennoch nicht übersehen, dass sie lediglich die am weitesten fortentwickelten biologischen Gehirne darstellen (soweit wir wissen).
     
     
    Ich bin ganz sicher, dass z.B. das Gehirn eines Hundes sich von dem seines menschlichen Freundes gar nicht so groß unterscheidet.
     
     
    Wo im Folgenden von einem Gehirn die Rede ist, sei darunter verstanden das Gehirn eines biologischen Lebewesens (am besten vertreten durch die Gehirne eines geistig gesunder Menschen).
     
     
    Tatsache scheint mir zu sein, dass
       
    • Jedes biologische Gehirn auf zwei qualitativ unterschiedlichen Ebenen denkt:
         
      • einerseits auf rein rationaler Ebene (bestimmt durch Logik),
         
      • andererseits aber auch auf gefühlsgesteuerter Ebene (bestimmt durch — auf welchem Weg auch immer — gewonnener Überzeugung).

       
    • Ganz grundsätzlich aber gibt es 3 Ebenen des Denkens:
         
      • die Ebene (1) kreativen Denkens — typisch für Philosophie —
         
      • die Ebene (2) kreativen, aber zudem noch rational begründbaren Denkens — typisch für Wissenschaft — und
         
      • die Ebene (3) regelbasierten Denkens [ so wie KI sie implementiert: Hier kann es Kreativität gar nicht mehr geben. An ihre Stelle treten unerwartete Entdeckungen auf einem durch die Entwickler der KI fest vorgegebenem Weg, der auf Ebene (3) aber sehr viel weiter gegangen werden kann als auf Ebene (1), da die dort denkenden biologischen Gehirne allzu schnell ermüden ].

         

     Beitrag 0-70
    Eine Erklärung des Konzepts » quantenmechanischer Überlagerungszustand «

     
     

     
    Was ist ein Überlagerungszustand?

    Kann Schrödingers Katze diesen Zustand wirklich haben?

     
     
    Im populärwissenschaftlichen Artikel  Wie fett ist Schrödingers Katze?  wird der Begriff des Überlagerungszustandes (im Sinne der Quantenphysik) auf eine Weise erklärt, die einfach nur noch weh tut.

     
    Was also ist dieser Zustand denn nun wirklich?
     
    Und glauben die Physiker denn tatsächlich, ein Objekt — z.B. eine Katze — könne zu 50% in einem Zustand Z1 und zu 50% in einem anderen, dem Zustand Z1 widersprechenden Zustand Z2 existieren (so wie sie es gelegentlich ausdrücken)?

     
     
    Tatsache ist:
     
    Was Quantenphysiker einen  Überlagerungszustand U  nennen, ist  k e i n  Zustand, in dem ein Quant je wirklich existiert:
     
    U ist einfach nur ein Konzept U(F), mit dessen Hilfe man gut beschreiben kann,
     
    welche  M ö g l i c h k e i t e n  ein Quant hat, eine konkret gegebene Messfrage F zu beantworten
     
    [ oder, wie man auch sagen könnte, U ist unser  Wissensstand  darüber, was Antwort auf die Messfrage sein könnte ].

     
    Genauer:
     
    Eine  Messung  MQ im quantenphysikalischen Sinne macht etwas ganz anderes als eine Messung MK im klassischen Sinne:
     
    Klassische Messung ändert nicht den Zustand des beobachteten Objekts — MQ dagegen tut das sehr wohl, denn MQ versucht, einen ganz bestimmten Zustand Z
    h e r z u s t e l l e n  und sagt uns dann nur, was das Ergebnis dieser Bemühung war.
     
    Rückschlüsse auf den Zustand, in dem das Quant auf die Messapparatur traf, lässt diese Antwort — obgleich man sie das  Messergebnis  nennt — i.A. aber nicht zu.
     
     
    Mit anderen Worten:
      Beobachter im Sinne der Quantenmechanik (nach Niels Bohr) ist ein Quantensystem B, welches mit den Quant Q, das es zu beobachten gilt, zusammentrifft wie ein Raubritter B, der einem reisenden Kaufmann Q begegnet mit dem Ziel, ihn in den sog. Überlagerungszustand » AUSGRAUBT oder ERSCHLAGEN « zu versetzen.

      Das Messergebnis aber wird — wie stets bei einer einzelnen quantenphysikalischen Messung — entweder » AUSGERAUBT « oder » ERSCHLAGEN « sein,
      auf keinen Fall aber der Wert des Überlagerungszustandes.

     
    Dieser Vergleich der Messapparatur mit dem Raubritter gefällt mir gut, denn hier wie dort gilt, dass es möglich ist, den Teilzuständen des Überlagerungszustandes Wahrscheinlichkeiten zuzuordnen,  f a l l s  man den Zustand kennt, den das Quant unmittelbar  v o r  seinem Zusammentreffen mit der Messapparatur hatte: Das Quant (als Kaufmann) könnte, wenn es auf die Messapparatur (den Raubritter) trifft ja z.B. stark und gut bewaffnet bzw. schwach und wehrlos gewesen sein.
     
     
    Am schönsten kann man sich das Wirken des Messvorgangs klar machen anhand eine Photons, das unmittelbar hinter der Lichtquelle, aus der es kommt, durch zwei
    in Serie geschaltete Polarisationsfilter F1 und F2 geschickt wird:
         
      • Wenn F1 das Quant passieren lässt, dann nur, weil es sich durch F1 polarisieren ließ. Über seine Polarisierung vorher weiß man nur, dass die nicht senkrecht zu F1 gewesen sein kann (denn wäre das der Fall gewesen, wäre das Quant im Filter F1 stecken geblieben: es hätte sich dann mit ihm verschmolzen in dem Sinne, dass es eines seiner Elektronen auf ein höheres Energieniveau transportiert hätte).
         
        Für den Fall, dass die beiden Polarisationsrichtungen, die F1 bzw. F2 erzwingen wollen, sich um genau 45 Grad unterscheiden, wird der Überlagerungszustand, der die Antwort eines von F1 durchgelassenen Quants auf die zweite Messfrage beschreibt, aus dem Teilzustandspaar
         
        ( » zu 50% polarisiert in Richtung F2 « , » zu 50% von F2 verschluckt « )
         
        bestehen. Der tatsächliche Zustand, in den Filter F2 das Quant versetzt hat, wird demnach einer beiden Zustände » polarisiert in Richtung F2 « oder » von F2 verschluckt « sein (aber eben  n i c h t  der Überlagerungszustand).
         
        Verkleinern des Winkels vergrößert die Wahrscheinlichkeit gelungener Polarisierung durch F2 (bis hinauf zu 100% bei 0 Grad),
        Vergrößern des Winkels verringert sie (bis hinunter auf 0% bei genau 90 Grad).

      Nebenbei: Begreift man die gesamte Versuchsanordnung als den Beobachter (sprich: als die Messapparatur), so ist der Überlagerungszustand U(F) natürlich die Menge der insgesamt 3 Möglichkeiten » von F1 verschluckt «, » von F2 verschluckt «, » polarisiert in Richtung F2 «.
       
       
      Note: Q muss nicht notwendig ein einzelnes Quant sein. Vielmehr gilt:
       
       
      Unter einer  quantenphysikalischen Messung  versteht man die Interaktion zweier Quantensysteme,
       
      von denen das eine als das zu untersuchende, das andere aber als  Beobachter  (sprich: als die Messapparatur) gilt.

       
       
      Damit sollte nun klar sein:
       
      Schrödingers Bild von der Katze, die angeblich tot und lebendig in einem sein kann, hinkt.

       
      Man sollte dieses Bild besser so zeichnen, dass
      • das Gift, welches die Katze töten kann, erst beim Öffnen der Box freigesetzt wird,
      • dass nur absoluter Zufall bestimmt, ob die Katze daran stirbt oder nicht,
      • und dass dennoch die Wahrscheinlichkeit, mit der wir sie tot sehen werden, auch vom Gesundheitszustand der Katze unmittelbar vor dem Zeitpunkt des Öffnens der Box abhängt.

      Wichtig ist:

       
      Fast immer stellt erst die Messung selbst den Zustand Z von Q her, den sie dem Experimentator als Messergebnis meldet.
       
      Der ihm vorausgehende Zustand kann unbekannt sein (und gilt dann sogar als unbestimmt).

       
       
      Siehe auch: Grundfakten der Quantenphysik

       

     Beitrag 0-78
    Ist der Zustand eines Quants vor der Messung unbestimmt — oder doch nur unbekannt?

     
     

     
    Ist der Zustand eines Quants vor der Messung unbestimmt
     
    oder doch nur unbekannt?

     
     
    Typisches Beispiel für Quanten sind Lichtwellen (Photonen).
     
    Wer ein Photon durch zwei in Serie geschaltete Polarisationsfilter F1 und F2 schickt, wird beobachten, dass die Wahrscheinlichkeit, mit der der zweite Filter (F2) das Photon durchlässt, davon abhängt, wie groß der Winkel α zwischen den Polarisationsebenen der beiden Filter ist. Insbesondere wird F2
    • das aus F1 kommende Photon stets durchlassen, wenn α = 0 ist,
    • es aber stets verschlucken, wenn die beiden Ebenen senkrecht aufeinander stehen.
    In jedem anderen Fall entscheidet absoluter Zufall, ob ein konkretes Photon von F2 durchgelassen oder verschluckt wird. Die  W a h r s c h e i n l i c h k e i t  aller­dings, mit der es durchgelassen wird, ist — in Abhängigkeit von α — ganz genau bekannt.
     
     
    Die Meinung, vor dem ersten Filter hätte das Photon gar keinen wohldefinierten Zustand gehabt, scheint deswegen durch nichts begründet:
     
    Er war uns dort einfach nur  u n b e k a n n t .

     
     
    Die Meinung mancher Physiker, dass erst die Messung dem Quant einen Zustand gibt, muss wohl so interpretiert werden, dass erst die Messung ihm einen Zustand gibt, den die Messapparatur uns  m e l d e n  kann. Melden aber kann sie uns nur genau zwei der in Wirklichkeit unendlich vielen möglichen Zustände (bei Photonen also nur zwei Polarisationszustände im Gegensatz zu den unendlich vielen wirklich möglichen).
     
    Welche beiden Zustände genau uns eine Messapparatur melden kann, hängt von ihr selbst ab.

     

     Beitrag 0-497
    Über Kernfusion und erste Nukleosynthese

     
     

     
    Über Kernfusion

    und primordale Nukleosynthese



    Helmut Satz (2016):
     
    Kernfusion ist der Prozess, in dem sich Protonen und Neutronen zu Atomkernen verbinden.
     
    Da Protonen aber positive elektrische Ladung tragen, sich also abstoßen, und die starke Kernkraft, welche sie zusammenhalten kann, nur sehr kurze Reichweite hat, müssen Nukleonen schon mit ganz besonders hoher Geschwindigkeit auf einander prallen, um sich nach dem Zusammenprall nicht sofort wieder zu trennen.
     
    Derart hoch beschleunigt warenn sie erstmals im frühen Universum — man spricht von der Zeit der primordalen Nukleosynthese, die es nur geben konnte, da es damals ein kleines Zeitfenster gab, zu dem
       
    • einerseits die Temperatur im Universum noch sehr hoch war,
       
    • und andererseits die Expansion des Raumes langsam genug vor sich ging,

    so dass zusammenstoßende Nukleonen auch tatsächlich zusammen blieben (der entstandene Atomkern als nicht sofort wieder durch auf ihn treffende Photonen zerschlagen wurde).
     
    Dieses Zeitfenster war groß genug, um zu erlauben, dass sich damals wenigstens einfache Atomkerne bilden konnten: Deuterium (2), Helium (4) und ganz selten auch noch einige größere Kerne wie Lithium (7) und Beryllium (9).
     
    Schon bald aber war die Temperatur so stark gesunken, dass der Prozess zum Stillstand kam. Etwa 75 Prozent aller Protonen blieben deswegen freie Teilchen: die zukünftigen Wasserstoffkerne.
     
    In Gang gekommen war der Prozess der Nukleosynthese, nachdem die Temperatur des Universums auf 1010 Grad Kelvin gefallen war — auf die Temperatur, bei der Kollision mit Photonen entstehende Kerne kaum noch zerschlagen konnte — etwa 10 Sekunden nach dem Urknall.
     
     
     
    Kurz: Kernfusion kann nur stattfinden in einem genügend heißen und genügend dichten Medium.
     
    Dies ist der Grund, warum es bis heute nicht gelang, Fusionsreaktoren zu bauen: Man kann die notwendigen Bedingungen bisher immer nur für allzu kurze Zeit herstellen.
     
    Nur in der Wasserstoffbombe gelang das bisher, da eine vorausgehende Atombomben-Explosion als Zünder die notwendige Hitze und Dichte erzeugt.
     
    Auch im frühen Universum, waren die Bedingungen nur kurze Zeit gegeben — das aber reichte, um wenigstens Helium zu erzeugen. B evor dann aber noch schwerere Kerne entstehen konnten, war die Welt bereits zu sehr ausgedehnt und abgekühlt, als dass die Nukleonen einander noch so nahe kommen konnten, dass die starke Wechselwirkung sie als Gruppe — als Atomkern — zusammen halten konnte. Erst nachdem die Gravitatation Sterne geschaffen und hinreichend stark komprimiert hatte, konnten auch komplexere Atome entstehen.
     
     
     
    Festzuhalten bleibt:
     
    Kernfusion kann und muss Energie freisetzen. Sie entsteht in Form von Photonen da, wo sich Protonen und Neutronen zu einem Kern verbinden. Seine Masse wird geringer sein als die Summe der Massen seiner Bausteine. Die Bildung eines Kerns ist somit energetisch günstiger als der Fortbestand der Nukleonen in getrennter Form.
     
    Dies definiert auch den zeitlichen Beginn der primordalen Nukleosynthese: Sie setzte ein, als die Energie der freien Photonen — die der Raumexpansion wegen ja ständig fällt — nicht mehr ausreichte, neu gebildete Kerne zu zerbrechen.
     


     
    Quelle: Helmut Satz: Kosmische Dämmerung (Verlag C.H. Beck, 2016) S. 63-65


     

     Beitrag 0-197
    Kernfusionstechnik — warum?

     
     

     
    Die Vorteile der Kernfusionstechnik

     
     
    Bei der Energiegewinnung durch Kernfusion
       
    • entstehen kein Kohlenstoffdioxid und kaum radioaktive Abfälle, denn radioaktiven Abfälle entstehen in erster Linie, wenn Atome der Innenwände des Behälters Neutronen einfangen.
       
    • Anders als in Kernkraftwerken muss kein radioaktiver Brennstoff angeliefert werden, da das Tritium im Reaktor erbrütet wird.
       
    • Es kann zu keiner unkontrollierten Kettenreaktion kommen, da die Fusion sofort abbricht, wenn sich an den Bedingungen (Temperatur, Druck, Brennstoffnachfuhr, ...) des Plasmas auch nur wenig ändert.
       
    • Der hohe Energiegewinn und die geringen Rohstoffkosten machen Kernfusion zu einer besonders günstigen Energiequelle.

     
    Siehe auch: Kernfusionstechnik — Stand 2007


     

     Beitrag 0-59
    Kernfusionstechnik — wo wir damit heute stehen

     
     

     
    Hin zu praktikabler

    Kernfusionstechnik
    XXXXXXX

     
     
    Schon seit etwa 1960 denken Physiker darüber nach, wie es möglich sein könnte, auf der Erde zur Gewinnung von Energie denselben Prozess zu nutzen, den auch unsere Sonne nutzt: Kerfusion.
     
    Dennoch gelang es erst am 9. November 1991 — am europäischen Experimentalreaktor JET ("Joint European Torus") im englischen Culham — erstmals, Fusions­energie freizusetzen: Natürlich nur in extrem kleinem Umfang.
     
     
    Derzeit (2011) ist ITER das fortschrittlichste Kernfusionsprojekt (2006 begonnen als Gemeinschaftsprojekt von EU, USA, China, Japan, Südkorea, Russland und Indien). Mit Kosten von etwa 16 Mrd. Euro handelt es sich dabei — neben dem Manhatten Project und der internationalen Raumstation ISS — um eines der drei teuersten Projekte der Wissenschaftsgeschichte.
     
    Zum Einsatz kommt ein Verfahren, in dessen Verlauf heißes Plasma aus Wasserstoffgas in ein Magnetfeld eingeschlossen wird. Deswegen sieht der ITER aus wie ein riesiger Donut. In seinem Inneren zirkulieren Wasserstoffgas, und um seine Oberfläche winden sich gewaltige Drahtspulen. Sie werden abgekühlt, bis sie supraleitend werden. Dann wird eine enorme Menge elektrischer Energie in sie hineingepumpt, um so ein Magnetfeld zu erzeugen, welches das Plasma im Donut einschließt. Je stärker das Magnetfeld, desto mehr wird das Gas zusammengedrückt. Es erhitzt sich so bis auf Temperaturen, wie sie im Inneren von Sternen — der Sonne etwa — auftreten.
     
      Interessant ist vor allem die Aussicht auf eine billige Energiequelle für den ITER: Als Brennstoff für Kernfusionsreaktoren kann nämlich gewöhnliches
      Meerwasser genutzt werden (da es reich an Wasserstoff ist).
       
      Dies begründet die Hoffnung, dass uns technisch gut berrschbare Kernfusion tatsächlich eine unerschöpfliche, billige Energieversorgung bescheren könnte.
       
      Man glaubt aber nicht, dass diese Technik vor 2050 kommerziell nutzbar sein wird.

     
    Leider lässt Kernfusion sich auch dazu nutzen, Wasserstoffbomben herzustellen. Mit Hilfe extrem starker Laser und einer Reihe kleiner Spiegel in einer nur pfefferkorn-großen Hohlkapsel werden Temperaturen erzeugt, wie sie in Inneren der Sonne herrschen. In der Kapsel befindet sich der möglichst wasserstoffreiche Brennstoff der Bombe (z.B. Lithiumdeuterid). Das konzentrierte Laserlicht verbrennt und verdampft die Oberfläche der Kapsel und drückt ihren Inhalt zusammen. Hierbei entsteht eine Schockwelle, die zum Kern der Kapsel vordringt und dort Temperaturen von einigen Millionen Grad erzeugt. Sie reichen aus, Wasserstoffkerne in Helium zu verwandeln.
     
    Man nennt dieses Verfahren das Trägheitseinschlussverfahren. Mit seiner Hilfe lassen sich riesige Menge von Energie (und auch Neutronen) freisetzen. Bei Verwen­dung von Lithiumdeuterid als Brennstoff können Temperaturen bis zu 100 Mio Grad entstehen. Seine Dichte übertrifft die von Blei um das 20-fache.
     
    Wollte man versuchen, auf diesem Wege Energie zu erzeugen, würde man Neutronen auf die kugelförmige Kapsel schießen. Dies würde ihren Mantel aufheizen. Er würde Wasser zum Kochen bringen, so dass mit dem so entstehenden Dampf eine Turbine getrieben werden könnte. Das Problem liegt jedoch in der sehr einge­schränkten Fokussierung: Solch starke Kraft nämlich lässt sich gleichmäßig nur auf ein winziges Hohlkügelchen richten. Der erste ernsthafte Versuch, auf diesem Wege Laserfusion zu erreichen, war der Shiva-Laser (ein System aus 20 Laserstrahlen).
     
    Der Shiva-Laser wurde später durch den 10-fach stärkeren Nova-Laser ersetzt. Aber auch er scheiterte an der Aufgabe, den Kapselinhalt richtig zu zünden. Dennoch ebenete er den Weg für die gegenwärtige Forschung der National Ignition Facility (NIF) der USA. Ihr Bau begann 1997, in Betrieb ging sie 2009. Diese monströse Maschine arbeitet mit 192 Laserstrahlen, über die es gelingt, bis zu 700 Billionen Watt zu bündeln (Michio Kaku schreibt, dies entspreche "dem Ausstoß von 700000 großen Atomkraftwerken konzentriert in einer einzigen Energiexplosion").
     
    Eine der größten Schwierigkeiten des Verfahrens besteht darin, dass das Quetschen der Plasmablase absolut gleichmäßig erfolgen muss (es entspricht dem Quet­schen eines Luftballons mit dem Ziel, hierbei seine Kugelform bestmöglich zu erhalten: aber wo man auch drückt, daneben wölbt er sich nach außen, und so auch im NIF (statt die Form einer Kugel hat man deswegen nur die Form einer Donut erreicht).
     
    Dennoch: Das NIF ist ein Lasersystem auf dem neuesten Stand der Technik, welches insbesondere auch die Detonation einer Wasserstoffbombe simulieren kann. Dass die USA sich dieses Werkzeug leisten, liegt natürlich auch daran, dass man hofft, damit zu lernen, eine reine Kernfusionsbombe zu bauen (eine Bombe also, die weder Uran noch Plutonium benötigt, den Kernfusionsprozess zu starten).
     
     
      PS: Als Vater des Gedankens einer Wasserstoffbombe gilt übrigens Edward Teller (auf dessen Drängen man Robert Oppenheimer — den wissenschaftlichen Leiter des Manhattan Projekts — an keinem Projekt zur Atomwaffenforschung mehr mitarbeiten ließ: Er wurde aus dem Amt gejagt, weil er vor einem Einsatz der Wasserstoff­bombe gewarnt und sich damit Teller sowie ein führendes Mitglied der United States Atomic Energy Commission, Lewis Strauss, zu erbitterten Feinden gemacht hatte).
       
      Strauss jedenfalls hat Oppenheimers weiteren Lebensweg von da an auf jede ihm mögliche Weise erschwert.

     
    Da Wasserstoffbomben stufenweise gezündet werden — jede von ihnen also eine Hierarchie zunehmend kräftigerer Explosionen verursachen kann — ließen sich, im Prinzip wenigstens, Atombomben nahezu beliebiger Stärke herstellen. Genauer:
     
      Kern jeder Wasserstoffbombe ist ein Sprengsatz vom Typ der Hiroshima-Bombe. Bei seiner Zündung kommt es zu einem starken Ausbruch von Röntgen­strahlung, welche — da sie sich als kugelförmige Energieportion mit Lichtgeschwindigkeit ausdehnt — den Wettlauf mit der zerstörenden Wirkung der Bombe gewinnt und so auf einen noch intakten Behälter mit Lithiumdeuterid trifft (den "sauberen" Brennstoff der Wasserstoffbombe). Es kollabiert und heizt sich dabei auf einige Millionen Grad auf, was zu einer zweiten, noch weit mächtigeren Explosion führt. Da deren Ausbruch von Röntgenstrahlung einen weiteren Behälter mit Litiumdeuterid erreichen könnte, kann so — geeignetes Design der Bombe vorausgesetzt — eine ganze Folge ähnlich starker, fast gleichzeitig eintretender Explosionen erreicht werden.

     
    Tatsache ist: Nur wenige Jahre nach Ende des 2. Weltkriegs hatten sowohl die USA als auch die Sowjetunion gelernt, Wasserstoffbomben zu bauen. Die stärkste jemals (zum Test) gezündete war eine sowjetische Zweistufenbombe, die bei ihrer Zündung eine Energie von 50 Mio Tonnen TNT freisetzte (theoretisch aber sogar doppelt so große Kapazität hatte — was etwa der 5000-fachen Sprengkraft der Hiroshima-Bombe entspricht).
     
    Dass die Fähigkeit der Menschen, derart starke Bomben zu bauen, eher Fluch als Segen ist, scheint offensichtlich. Dennoch ist nicht auszuschließen, dass man diese Technologie auch einmal nutzen muss, Himmelskörper zu zerstören, die drohen, mit der Erde zu kollidieren. Es lässt sich ja schließlich nicht ausschließen, dass irgendwann ein ganz besonders großer Meteorid mit Kurs auf unsere Erde entdeckt wird. Was er anrichten könnte, wenn er z.B. im dicht besiedelten Europa einschlüge, kann man sich vorstellen.
     
     
     
    Quelle (i.W.):
    • Michio Kaku: Die Physik des Unmöglichen, Rowohlt (2008), Seite 71-79

     
     
     
    Zwei denkbare Wege hin zu Kernfusion

     
    Grundsätzlich wird heute an zwei Wegen geforscht, Kernfusion zu zünden: Laser oder Magnet.
    • Wer an Magnetfusion glaubt, versucht, ein sehr dünnes Plasma mit Magnetfeldern über sehr lange Zeit zusammenzuhalten.
       
    • Kollegen von der Laserfusion versuchen, ein heißes Gas – Wasserstoff – in kurzer Zeit extrem stark zu komprimieren, so dass die Abstände zwischen den Teilchen sehr kurz werden. Und dann läuft die Reaktion so schnell ab, dass die eigene Trägheit der Masse dafür sorgt, dass die Teilchen lange genug zusammenbleiben, um zu fusionieren.
       
      Man nennt das auch Trägheitsfusion, da die eigene Trägheit der Masse des Teilchens dafür sorgt, dass der Brennstoff nicht sofort flüchtet. Ein liegengebliebenes Auto braucht ja beispielsweise auch eine Weile, bis es sich beim Anschieben in Bewegung setzt.
       
      Der ganze Brenn-Mechanismus läuft in weniger als in einer Zehntelmilliardstel-Sekunde ab.
       
      Bei einem Laserfusionsreaktor ist dann das Ziel, 160-mal mehr Energie rauszubekommen, als man reingesteckt hat. Am Ende erhoffen wir uns (pro Zündung?) ein Gigawatt Strom zu erhalten.

     
     
     
    Kernfusionstechnik soll schon 2030 Schiffe antreiben
     
    2014: Der US-amerikanische Rüstungskonzern Lockheed Martin hat einen Durchbruch bei der Kernfusionstechnik bekannt gegeben.


     
     
    Vorsicht aber: Wie der in [1] und [2] beschriebene Fortschritt entsprechender Forschung am MIT zeigt, könnte man bei Lockheed Martin den eigenen Fortschritt etwas zu optimistisch beurteilt haben.
       
    • On its final day of operations in Oct 2016, MIT's fusion reator prototype C-Mod was breaking new scientific ground: That morning, the team operating the reactor broke the world record for plasma pressure achieved in a magnetically confined field.
       
      The pressure inside C-Mod was 2.05 atmospheres — better, by a factor of 2, than every other tokamak in the world.
      These other reactors are 20 to 100 times larger in volume than C-Mod, ITER will be 800 times the volume of C-Mod.
       
      The temperature achieved in C-Mod was 35 million degrees.
       
    • Note: Fusion reactions are slow until the fuel is heated to "over 100 million degrees — far hotter than the core of the sun". Then electrons in the fuel atoms are stripped of their nuclei and the gas becomes a plasma, the fourth state of matter. At these temperatures, magnetic fields are the only reliable way to insulate hot plasma from material walls of the reactor. "We’ve attained the necessary plasma densities and temperatures in C-Mod," says Greenwald at MIT. "But Alcator reactors are relatively small. They produce about as much fusion power as they consume."

     
    Mit anderen Worten:
     
    Das eigentliche Problem bisheriger Kernfusionsreaktoren ist weniger ihre Machbarket
     
    als vielmehr ihr noch viel zu geringer Wirkungsgrad.

     
     
    Derzeit (2016) gibt es nur Forschungsanlagen. Die Anlage ITER in Südfrankreich soll mal 500 MW bringen, aber auch das ist nur für Untersuchungen gedacht (zudem ist die Anlage noch im Bau). Zum Vergleich: ein AKW wie z.B. Grohnde (Niedersachsen) hat eine Nettoleistung von über 1300 MW. Aber auch Atomkraftwerke haben mal klein angefangen, der Reaktor Obninsk 1 (damals noch in der Sowjetunion) hatte gerade mal 5 MW.
     
     
    Generelle Überlegungen zu denkbarer Kerfusionstechnik:
     
    Was man derzeit an Erfolgen schon verbuchen konnte:
     
    Über aktuelle Fortschritte wird z.B. berichtet in:
       
    • Summarized HISTORY OF FUSION POWER
       
    • Is this a Solution to Stabilize Nuclear Fusion? (2017)  /m  /M
       
    • Chinas Fusionsreaktor soll 2020 als funktionsfähiger Prototyp existieren (so wird im Dez 2019 berichtet, 2018 war von Ende 2019 gesprochen worden)
       
    • China completes new tokamak
       
    • Okt. 2021: In Zusammenarbeit mit dem Start-up Commonwealth Fusion Systems (CFS) konnten Physiker am MIT ein Magnetfeld bisher unerreichter Stärke erzeugen: eines mit 20 Tesla Flussdichte (der ITER-Magnet schafft derzeit erst 8 Tesla). Der Vorteil der MIT-Magnete ist, dass sie Kernfusion auf viel geringerem Raum ermöglichen könnten. Nun will das MIT-Team bis 2025 den Demonstrationsreaktor Sparc bauen. Er ist viel kleiner geplant als ITER und könnte dennoch der weltweit erste Fusionsreaktor sein, der mehr Energie erzeugt als er benötigt.
       
    • 2022: JET verdoppelt bisherigen Leistungsrekord aus 1997.
       
    • 2022: Nuclear Fusion hit a Milestone — thanks to much better reactor walls.
       
    • Sabine Hossenfelder erklärt, warum der noch zu gehende Weg hin zu einem energie-produzierenden Kernfusionsreaktor etwa 100 Mal länger ist, als immer wieder behauptet wird (2022): Aktuelle Prototypen produzieren erst etwa 1 Prozent der Energie, welche sie — nun wirklich ALLES berücksichtigt — für produktiven Betrieb selbst benötigen.
       
    • An even more sceptical view: Daniel Jassby: The Quest for Fusion Energy (2022):
       
      There are two broad approaches toward achieving terrestrial fusion. In magnetic confinement fusion (MCF), magnetic fields are used to confine the hot fusion fuel in the form of a fully ionized gas or plasma that persists for seconds or longer. In inertial confinement fusion (ICF), laser or particle beams are used to compress and heat a tiny capsule of fusion fuel to generate a micro-explosion of a nanosecond duration.
       
      25 years ago MCF was thought to be on the verge of achieving fusion energy breakeven, Q = 1, perhaps even in the JET tokamak. At that time, ICF languished at Q < 0.01. This situation has now been reversed. ICF is performing at breakeven or better, and investigating burning plasmas. By contrast, MCF performance has not advanced in a quarter century.
       
      Based on actual performance, ICF appears to be a far more likely candidate than MCF as the basis for a power plant. MCF may survive as little more than a low-Q neutron source with a dubious tritium supply. ICF also has substantial prospects for eliminating the tritium replenishment issues and adverse neutron effects on reactor structures that plague D-T operation and are unavoidable in MCF systems.
       
      Nevertheless: The technological hurdles for implementing an ICF-based power system are so numerous and formidable that many decades will be required to resolve them — if they can indeed be overcome.

       
       
    • 2022: US-Forscher schaffen symbolischen Durchbruch bei Kernfusion
       
      Erstmals haben US-Forscher bei der Kernfusion mehr Energie erzeugt, als für den Vorgang verbraucht wurde.
       
      Wissenschaftlern in den USA ist ein historischer Durchbruch auf dem Feld der Kernfusion gelungen. Erstmals hat man beim Verschmelzen von Atomkernen mehr Energie gewonnen als verbraucht, wie US-Energieministerin Jennifer Granholm am Dienstag in Washington verkündete. "Einfach ausgedrückt ist dies eine der beeindruckendsten wissenschaftlichen Leistungen des 21. Jahrhunderts".
       
      Die Ergebnisse wurden von einem Forscherteam in der staatlichen National Ignition Facility (NIF) am Lawrence Livermore National Laboratory in Kalifornien erzielt und bedeuten einen Meilenstein auf dem Weg zur Erschließung einer neuen Energiequelle.
       
      Die Forschenden in Kalifornien nutzten für ihre Experimente die weltstärkste Laseranlage, um winzige Mengen Wasserstoff-Isotope Deuterium und Tritium bei einer Temperatur von etwa 60 Millionen Grad Celsius in Plasma zu wandeln. Die Wasserstoff-Isotope verschmelzen zu Helium und verlieren dabei einen kleinen Teil ihrer Masse in Form von Strahlung. Medienberichten zufolge wurden dabei nun 20 Prozent mehr Energie gewonnen als eingesetzt.
       
      In einigen Jahren, so hofft man nun, wird sich mittels Kernfusion nun wohl wirklich klimaneutral und sicher Strom in riesigen Mengen erzeugt lassen.
       
      Andere sind skeptischer und sagen: » Für die Forschung hochinteressant und ein Durchbruch — für die Anwendung aber noch keineswegs «.
       
      Genauer: Die Rechnung, die da von der Presseabteilung des Lawrence Livermore Laboratoriums für die Energiebilanz aufgemacht wird, berücksichtigt allerdings nicht die Startenergie für den Laser, also die Energie, die notwendig ist, um das Laserlicht herzustellen. Deshalb darf man sich noch keineswegs zu der Annahme verleiten lassen, dass nun der Weg zum Fusionsreaktor und zur Energieversorgung der Zukunft frei wäre:
       
      True is: NIF is still decades away from economically viable fusion.
       
      Was im Experiment tatsächlich erreicht wurde:
       
      The National Ignition Facility in California is a $3.5bn (£2.85bn) experiment. It puts a tiny amount of hydrogen into a capsule the size of a peppercorn. Then a powerful 192-beam laser is used to heat and compress the hydrogen fuel. The laser is so strong it can heat the capsule to 100 million degrees Celsius - hotter than the centre of the Sun, and compress it to more than 100 billion times that of Earth's atmosphere. Under these forces the capsule begins to implode on itself, forcing the hydrogen atoms to fuse and release energy.
       
      On announcing the breakthrough Dr Marvin Adams, deputy administrator for defense programs at the US National Nuclear Security Administration, said that the laboratory's lasers had input 2.05 megajoules (MJ) of energy to the target, which had then produced 3.15 MJ of fusion energy output.
       
    • 2024: HH70, the world’s first high-temperature superconducting Tokamak achieves first plasma!


     

     Beitrag 0-461
    Struktur und Energieverteilung in Atomkernen

     
     

     
    Kernphysik — weit einfacher als Chemie

     
     
    Ganz ähnlich wie die elektromagnetische Wechselwirkung Atome zu Molekülen verbindet, gruppiert die starke und die schwache Wechselwirkung Nukleonen (= Protonen und Neutronen) zu Atomkernen.
     
    Die Kraft, welche die Nukleonen als Gruppe zusammenhält, wird durch Mesonen vermittelt, vor allem durch die Pionen ( π+, π0, π- ). Sie treten bei solcher Wechselwirkung einzeln, zu zweit oder auch zu mehreren auf.
     
    Da Pionen Ruhemasse haben, ist die Reichweite dieser Austauschteilchen stark eingeschränkt.
     
    Freie Neutronen sind instabil: Mit einer mittleren Zerfallszeit von 14 Min und 39 Sec zerfallen sie zu jeweils 1 Proton + 1 Elektron + 1 Antineutrino.
     
     
    Während die Zahl unterschiedlicher chemischer Verbindungen durch die Geschicklichkeit der Chemiker ständig zunimmt, bliebt die Zahl unterschiedlicher Atomkerne begrenzt auf etwas mehr als 300 (wobei aber nur 92 davon natürlich vorkommende Elemente repräsentieren). Dies macht Kernphysik deutlich übersichtlicher als Chemie.
     
    Dass die Zahl unterschiedlicher Atomkerne begrenzt ist, liegt daran, dass in Kernen, in denen es zu einem Überschuss an Protonen kommt, sich Protonen gerne unter Abgabe je eines Positrons und eines Neutrinos zu Neutronen machen (sog. Betazerfall). Eben deswegen ist nur ein schmaler Bereich möglicher Kernzusammen­setzungen mit jeweils einer ungefähr gleichen Zahl von Protonen und Neutronen stabil.
     
     
    Die grundlegenden Eigenschaften der Kerne lassen sich anhand der Kenntnis ihrer Massen erklären (die man mit sog. Massenspektoskopie ermittelt).
     
    Die verschiedenen Kerne kennzeichen sich durch die Zahl ihrer Protonen und Neutronen:
       
    • Die Zahl Z der Protonen heißt Kernladungszahl,
       
    • die Zahl sämtlicher Nukleonen eines Kerns nennt man seine Massenzahl.

    Interessant ist nun, dass die Masse pro Nukleon — notwendiger Bindungsenergie wegen — nur beim Wasserstoffisotop 1H genau die eines Protons ist, ansonsten aber bis zu einem Prozent kleiner sein kann.
     
    Am kleinsten ist sie in 56F (Eisen), so dass Eisen die höchste Bindungsenergie pro Nukleon aufweist.
     
    Genauer: Für Kerne mit einer Massenzahl kleiner als Eisen reduziert sie sich durch Kernfusion, wohingegen sie sich für schwerere Kerne durch Kernspaltung reduziert. Bei 235U liegt ist sie bei etwa dem 0,992-fachen der Protonenmasse.
     
    Wir sehen:
     
    Maximal 1% der Energie eines Atomkerns sind Bindungsenergie.
     
    Erreicht wird dieser Wert aber nur für Eisen.

     
     
     
    Die eben beschriebenen Gesetzmäßigkeiten zeigen, dass der Eisenkern der stabilste aller Kerne ist.
     
    Da die Kerne — ihrer Protonen wegen — positiv geladen sind, stoßen sie einander ab.
     
    Mit einander verschmelzen können sie nur, wo sich in Sternen ein Gas aus solchen Kernen derart stark erwärmt, dass sie kraftvoll aufeinander prallen (und es deswegen zu Kernfusion kommt). Hierbei wird durch den dabei entstehenden Massendefekt Energie frei, die weitere Verschmelzung begünstigt, so dass nach und nach immer schwerere Kerne entstehen — bis hin zu Eisen.
     
    Soweit damit auch Kerne schwerer als Eisen entstehen, versuchen sie, ihre Energie durch radioaktiven Zerfall abzugeben. [Verschmelzung der Kerne schwerer als Eisen würde mehr Energie kosten als einbringen, da der Massendefekt wieder abnehmen würde.]
     
    Sämtliche Kerne schwerer als Blei sind radioaktiv. Sie zerfallen durch Alpha- oder Betazerfall. 1938 wurde für Urankerne noch ein weiterer Zerfallsweg entdeckt: die Kernspaltung des Uran-235.
     
     
    Merke:
       
    • Bindungsenergie muss aufgebracht werden, um ein gebundenes System aus zwei oder mehr Bestandteilen, die durch Anziehungskräfte zusammengehalten werden, in seine Bestandteile zu zerlegen (Kernspaltung).
       
    • Eine ebenso große Energiemenge wird freigesetzt, wenn sich das gebundene System aus den Einzelteilen zusammenfindet (Kernfusion).


     

     Beitrag 0-340
    Wie sich der Begriff » Unser Universum « definiert

     
     

     
    Wie sich » Unser Universum « definiert

     
     
    Noch im 20. Jahrhundert verstand man unter dem Universum
       
    • als Physiker oder Astronom das gesamte Weltall,
       
    • als Philosoph aber den gesamten Kosmos (= die philosophische Interpretation des Weltalls und all seiner Inhalte).

     
    Inzwischen aber hat der Wortgebrauch sich gewandelt. Heute wird
       
    • das gesamte Weltall als Multiversum bezeichnet,
       
    • und wer weiter vom Universum spricht, meint damit meist einfach nur noch unser Universum ( in dessen Mittelpunkt die Erde sitzt ).

     
    Die Grenze unseres Universums — man nennt sie unseren Horizont — ist der Teil der Raumzeit, der von der Erde aus — prinzipiell jedenfalls — einsehbar ist.
       
    • In zeitlicher Hinsicht gesehen, ist damit unser Beobachtungshorizont gemeint. Die kosmische Hintergrundstrahlung zeigt uns, wie er aussieht (er hat also tatächlich ein Aussehen).
       
    • In räumlicher Hinsicht aber ist unser Horizont das, was man unseren Ereignishorizont nennt.

     
    Wie sich beide genau unterscheiden, findet sich erklärt in Notiz » Wie sich Beobachtungs- und Ereignishorizont unterscheiden «.
     
     
    Lies auch: Warum wir tatsächlich in einem Multiversum leben.
     
    Kurz gesagt: Unser Universum ist der durch uns wahrnehmbare Teil des Weltalls (genauer: der Raumzeit). Da sich jedem Objekt im Weltall sein eigenes Universum zuordnet, sprechen Physiker neuerdings vom Multiversum.

     

     Beitrag 0-321
    Wie sich Beobachtungs- und Ereignishorizont unterscheiden

     
     

     
    Wie sich Beobachtungs- und Ereignishorizont unterscheiden

     
     
    Ist A das Alter unseres Universums — d.h. die Zahl der seit dem Urknall vergangenen Jahre — so wird der Radius des durch Menschen einsehbaren Teil des Universums stets A - 380 000 Lichtjahre betragen: Es ist dies die Zeit, welche die kosmische Hintergrundstrahlung benötigt, uns zu erreichen. Sie nämlich stellt sich uns dar wie eine Nebelwand, hinter die wir nicht mehr weiter in die Vergangenheit sehen können.
     
    Man nennt diesen Radius unseren Beobachtungshorizont. Er wird nur bestimmt durch das Alter unseres Universums.
     
     
    Ganz anders unser Ereignishorizont: Er ist zusätzlich noch davon abhängig, mit welcher Rate der Raum expandiert (oder irgendwann vielleicht auch mal schrumpfen könnte). Dieser Horizont ist gegeben durch alle Punkte im All, die sich von uns mit exakt Lichtgeschwindigkeit entfernen. Das Licht von Galaxien, die jenseits davon liegen, wird unsere Milchstraße — immer unter der Voraussetzung, dass der Raum niemals mehr schrumpfen wird — nie mehr erreichen.
     
     
    Insgesamt also gilt:
       
    • Unser Beobachtungshorizont — eine  z e i t l i c h e  Distanz — ist ständig im Wachsen begriffen,
       
    • unser Ereignishorizont aber — eine  r ä u m l i c h e  Distanz — schrumpft, solange der Raum expandiert.
       
      In etwa 100 Milliarden Jahren — so hat Brian Greene errechnet — werden sich innerhalb unseres Ereignishorizonts nur noch Galaxien der sog. Lokalen Gruppe befinden: zwischen 30 und 50 Galaxien, die heute sämlich sehr nahe Nachbarn der Milchstraße sind.

     
    Man kann es auch so sagen:
       
    • Unser Beobachtungshorizont quantifiziert die das Alter unseres Universums,
       
    • unser Ereignishorizont aber quantifiziert seine räumliche Ausdehnung und seine Reichhaltigkeit, d.h. die Menge von Objekten, mit denen wir kommunizieren können.

     
    Solange unser Ereignishorizont schrumpft, muss man davon ausgehen, dass unsere Welt in einem sog. Big Whimper enden wird, was bedeutet, dass die Materie­konzentration in unserem Universum ständig nur schrumpfen wird bis schließlich sogar alle Schwarzen Löcher verdampft sein werden.
     
    Insbesondere wird dann an Materie gebundenes intelligentes Leben in dem Bereich des Kosmos, der heute unser Universum darstellt, NICHT MEHR MÖGLICH sein.
     
     
     
    Wie schon in den frühen 1920-er Jahren Alexander Friedmann erkannt hat, bestimmt die Rate, mit der die Expansionsgeschwindigkeit des Raumes sich über die Zeit hinweg verändert, die Geometrie der Raumzeit:
       
    • In Regionen, in denen der Raum zunehmend schneller expandiert — sein Inhalt sich dann also immer mehr verdünnt —, ist die Raumzeit negativ (hyperbolisch) gekrümmt, d.h. Dreiecke haben dort eine Winkelsumme, die kleiner als 180 Grad ist.
       
    • In Regionen aber, in denen die Expansion abflaut — und so das Universum auf einen Big Crunch zusteuert —, ist die Raumzeit positiv (elliptisch) gekrümmt, d.h. Dreiecke haben dort eine Winkelsumme, die größer als 180 Grad ist.

    Regionen in diesem Sinne sind sehr viel größer als unser beobachtbares Universum: Sie sind sozusagen eigene Universen. Kein Wunder also, dass uns Menschen die Raumzeit um uns herum als kaum gekrümmt, d.h. als flach erscheint.

     

     Beitrag 0-346
    Zwei Experimente zum Beweis der Nichlokalität von Quanten

     
     

     
    John Wheeler's Experiment verzögerter Entscheidung

     
     
    Wie Quanten den Raum durchfließen zeigt sich besonders eindrucksvoll in einem Experiment, das John Wheeler 1981 vorschlug (das aber erst 2006 auch tatsächlich durchgeführt wurde):
     
    Ein Photon trifft auf einen Strahlteiler und läuft dann über die beiden so entstehenden Wege hin zu Detektoren an den Enden der beiden Wege. Man kann nun — direkt vor den Detektoren, am Schittpunkt beider Wege, einen zweiten Strahlteiler einbauen, und das erst, nachdem das Photon schon unterwegs ist (das ist die verzögerte Entscheidung).
     
    Da Licht stets nur mit endlicher Geschwindigkeit unterwegs ist, kann keine Information schon wenn das Photon den ersten Strahlteiler erreicht, zum zweiten Strahlteiler gelangt sein.
     
     
     
    Wheelers Experiment verzögerter Entscheidung zeigt Quanten-Nichtlokalität

     
     
     
    Entscheidet man sich nach diesem Zeitpunkt zum Einbau des zweiten Strahlteilers, so ergeben sich — wenn die Länge beider Wege sich um die halbe Wellenlänge des Photons unterscheiden — in den Detektoren Interferenzerscheinungen. Sie beweisen: Das Photon floss über beide Wege.
     
    Wird der Zweite Strahlteiler nicht eingebaut, spricht einfach nur — mit jeweils 50%-iger Wahrscheinlichkeit — der eine oder der andere Detektor an. Zu Interferenz aber kommt es nicht. Es sieht dann also so aus, als wäre das Photon nur über einen der beiden Wege gekommen.
     
    Wann also, so frägt man sich als Vertreter der klassischen Physik, entscheidet sich das Photon, welchen Weg es nehmen will?
     
    Die Antwort ist: Es braucht sich nicht zu entscheiden, denn als Welle nimmt es stets beide Wege, und so ist am Experiment überhaupt nichts Paradoxes.
     
    Merkwürdigkeiten entstehen nur für den, der denkt, das Photon könne (wie ein Kügelchen) nur einen der beiden Wege nehmen. Tatsächlich aber breitet es sich stets über beide Wege aus, und der zweite Strahlteiler sorgt dafür, dass die über den einen Weg kommende Teilwelle mit der über den anderen Weg kommenden interferiert (was sie ohne den zweiten Strahlteiler nicht tun kann).
     
     
     
    Hinweis:
     
    Natürlich beweist auch schon das Doppelspalt-Experiment die Nichtlokalität von Quanten. Wer nämlich sog. "Weginformation" besorgen möchte, stellt hinter die Spalten Polarisatoren, um die beiden Teilwellen, in die zwei Spalten ein auf sie zukommendes Photon zerlegen, senkrecht zueinander zu polarisieren (damit sie unterscheidbar werden) — senkrecht zueinander polarisierte Wellen aber können nicht interferieren. Eben deswegen verschwindet die Interferenz genau dann, wenn versucht wird, Weginformation zu erhalten.

     

     Beitrag 0-349
    Der Unruh-Effekt — Wie sich Quantenfluktuation aus Sicht eines im Minkowski-Vakuum beschleinigten Beobachters als Wärmebad darstellt

     
     

     
    Der Unruh-Effekt zeigt:

    Das Vakuum ist nicht leer, sondern nur Zustand kleinster (Quantenfeld-) Energie

     


    Claus Kiefer ( auf S. 127 in Quantenkosmos ):
     
    Ein Beobachter, der sich auf gerader Linie mit konstanter Beschleunigung durchs Minkowski-Vakuum bewegt, erlebt dieses Vakuum, als sei es mit Teilchen gefüllt: Seine Detektoren werden entsprechend angeregt. Die Verteilung dieser scheinbar vorhandenen Teilchen ist nicht beliebig. Sie entspricht einem Wärmebad mit bestimmter Temperatur, welche proportional zum Produkt aus Beschleunigung und Planckschem Wirkungsquantum ist.
     
    Ein rohes Ei würde demnach — wenn extrem stark beschleunigt — gekocht werden.
     
    Erstmals beschrieben hat diesen Effekt 1976 der amerikanische Physiker William Unruh.
     


     
    Claus Kiefer beschreibt auch, wie dieser Effekt zustande kommt. Seine Erklärung verstehe ich zu wenig, um sie hier wiedergeben zu können. Sie scheint mir ähnlich der 2017 in arXiv publizierten.
     
     
    Auf eine wichtige Schlussfolgerung wird am Ende der kurzen Rechnung » The Unruh Effect « hingewiesen. Man liest dort:
      The Unruh effect shows that the vacuum in quantum field theory is essentially thermal.
       
      It should also make you think about what do we really mean by the vacuum: If we interpret the vacuum as “the nothing state”, then the Unruh effect seems very odd indeed, and there seems to be no physical explanation for it. The proper explanation for the vacuum state is thus » the state of lowest energy « – from this angle, the Unruh effect does not seem so strange anymore, since accelerating observes feel “forces” which will make them interpret the state of lowest energy differently.


     

     Beitrag 0-350
    Der durch Quantenfluktuation getriebene Dekohärenzprozess generiert, was wir als » Zeit « bezeichnen

     
     

     
    Dekohärenz generiert den quantenphysikalischen Zeitpfeil



    Claus Kiefer ( S. 156-157 in Quantenkosmos ):
     
    Quantenverschränkung — ein ganz wesentlicher Aspekt der Quantentheorie — zeigt uns, dass Beobachter — da sie ja stets nur lokal beobachten, die Welt verschränkter Quanten aber nichtlokal ist — niemals alle Information über einen Quantenzustand haben können.
     
    Jedem Beobachter, der von zwei verschränkten Teilchen nur eines befragen kann, fehlt Information, weswegen das beobachtete Teilchen für ihn Entropie hat (Entropie quantifiziert fehlende Information).
     
    Keine Entropie gäbe es nur, wenn wir die Wellenfunktion des gesamten Universums kennen würden.
     
    Da der ständig gegebene Dekohärenz-Prozess jedes Teilchen aber mit ständig noch mehr anderen Teilchen verschränkt, wird jene Entropie ständig zunehmen.
     
    Wir sehen:

    Auch die quantenmechanische Entropie gehorcht dem 2. Hauptsatz der Thermodynamik,
     
    und der sich daraus ergebende quantenmechanische Zeitpfeil ist eng mit dem Prozess der Dekohärenz verbunden.

     


     
    Da Dekohärenz die klassischen Eigenschaften makroskopischer Objekte generiert, ist unser gewöhnlicher Zeitpfeil ein aus dem quantenmechanischen Zeitpfeil emer­gierender. Klar wird:
     
     
    Was wir als » Zeit « begreifen, ist nichts anderes als ein Prozess laufender Zustandsveränderung.


     

     Beitrag 0-352
    Hintergrundunabhänge Theorien sind nur ART und Quantengravitation.

     
     

     
    Von SRT über ART zu einer Quantengravitationstheorie



    Claus Kiefer (auf S. 232 in Quantenkosmos ):
     
    In den nicht-gravitativen Theorien — beispielsweise der SRT — sind Felder immer auf einer nicht-dynamischen Raumzeit definiert.
     
     
    Ganz anders in Einsteins ART: Dort ist die Geometrie der Raumzeit identisch mit der Form des Gravitationsfeldes — also selbst dynamisch.
     
    Schon Einstein bereitete das Kopfzerbrechen. So verzögerte sich die Aufstellung seiner Theorie um 2 Jahre, weil er zunächst noch am Glauben festhielt, dass den Punkten einer Raumzeit (gemeint sind Punkte im mathematischen Sinne) eine vom Gravitationsfeld unabhängige Bedeutung zukomme.
     
    Für Mathematiker mag das sinnvoll sein, für einen Physiker aber nicht: Das durch die Geometrie der Raumzeit gegebene Gravitationsfeld ist wirklich schon alles. Und so sind bei einer Koordinatentransformation Punkte, Metrik und Materiefelder gleichermaßen zu transformieren.
     
    Erst nachdem Einstein das erkannt hatte, kam er 1915 zu den korrekten Feldgleichungen der Gravitation.
     
     
    Für die Entwicklung einer Quantengravitationstheorie ist dieser Punkt von großer Wichtigkeit, da er nach ganz neuen Methoden zur Quantifizierung verlangt: Die Raumzeit selbst muss quantifiziert werden.
     
     
    Derzeit gibt es zwei unterschiedliche Ansätze, dies zu versuchen:
       
    • Der erst betrachtet nur Gravitation — kümmert sich also nicht um noch andere Wechselwirkungen.
       
    • Der zweite aber — heute wirklich nur durch Stringtheorie repräsentiert — geht davon aus, dass man von vornherein von einer vereinheitlichten Theorie aller Wechselwirkungen ausgehen müsse — an besten beginnend mit einem Zustand unseres Universums, in dem sich die Gravitation noch nicht von all den anderen Wechselwirkungen abgesondert hat.

     



     

     Beitrag 0-354
    Materiedichte im (heutigen) Universum = etwa 1 Atom pro 5 Kubikmeter

     
     

     
    Wie leer kosmischer Raum heute ist

     
     
    Materiedichte im Universum
     
    Quelle: Spatium, Apr 1998
     
    Lies auch andere interessante Spatium-Artikel


     

      Beitrag 1057-123
    Klarstellung zu unvorstellbar großer Geschwindigkeit

     
     
    E... aus 1057-115:
    Grtgrt aus 1057-113:
    (...)
    Wenn dem so wäre, müsste sich unser Universum wenigstens kurze Zeit mit unendlich großer Geschwindigkeit ausgedehnt haben — was nicht denkbar ist.
    (...)
    Hallo Grtgrt, sei gegrüßt.

    Ungeachtet dessen was Dir denkbar erscheint, versuch es mal hier (als groben Überblick)
    http://de.wikipedia.org/wiki/Alan_H._Guth und hier http://de.wikipedia.org/wiki/Inflation_%28Kosmologie%29
    Weitere Links stehen mannigfaltig zur Verfügung.

    Sei gegrüßt, E...,

    aber glaube mir: Selbst die Verfechter der Inflationstheorie behaupten nirgendwo, dass sich das Universum — wann auch immer und über wie kurze Zeit auch immer — mit unendlich großer Geschwindigkeit ausgedeht hätte.

    Der Grund hierfür: Es gibt einfach keine unendlich große Geschwindigkeiten.

    Genauer: Es gibt sie nur in der Umgangssprache (als wenig genaues Synonym zum Begriff unvorstellbar großer Geschwindigkeit). Aber selbst eine unvorstellbar große Geschwindigkeit ist eine endlich große Geschwindigkeit.

    Wo in der Physik eine Größe gegen Unendlich (oder gar nicht) zu konvergieren scheint, bedeutet das einfach nur, dass unser Modell an dieser Stelle versagt und durch ein genaueres ersetzt werden müsste. Es zu finden, ist das große Problem.

    Interessant ist übrigens, dass die Stringtheorie Modelle kennt, die in dem Sinne zueinander dual sind, dass sie
    • einerseits identische physikalische Gesetzmäßigkeit darstellen,
    • andererseits aber so zueinander "isomorph" sind, dass, was im einen Modell seiner Größe nach gegen Null geht im anderen seiner Größe nach gegen Unendlich geht.
    Mir legt das den Verdacht nahe, dass die Natur die Begriffe unvorstellbar klein und unvorstellbar groß irgendwie als gleichwertig betrachtet.

    Wie Heisenbergs Unschärferelation uns zeigt, macht es keinen Sinn, beliebig kleine physikalische Objekte zu erwarten (die Planck-Skala scheint eine untere Grenze für ihre Größe darzustellen). Manchmal frage ich mich, ob es nicht dual dazu auch eine obere Grenze für die Größe physikalischer Objekte geben könnte.

    Gruß, grtgrt
     

      Beitrag 1057-156
    Weitere Klarstellungen

     
    Henry aus 1057-151:
    ...Es gibt tatsächlich zwei Vorstellungen darüber, was man mit "Urknall" meint. Die erste meint die urplötzlich auftauchende Expansion, die auch heute noch zu beobachten ist (dann wäre der Urknall noch gar nicht beendet), und die zweite meint den plötzlichen Ausbruch, der zur Expansion führte. Ich bevorzuge den zweiten Ansatz.
    Ich eher den ersten, aber modifiziert. Der Urknall ist der Zeitpunkt des Expansionsbeginns. Über die Ursache können wir nur spekulieren. Die Expansion hält weiter an und beschleunigt sich, wie letztes Jahr die Nobelpreisträger nachwiesen.

    Zitat:
    Ich habe überhaupt nicht behauptet, dass Expansion und Explosion dasselbe wären,
    Hmm, dann habe ich das hier falsch interpretiert:
    Henry aus 1057-145:
    Laut Theorie war es ein spontanes, äußerst heftiges Ereignis. Ich denke, man kann so etwas mit Fug und Recht als Explosion bezeichnen;...

    ...wenn sich etwas innerhalb einer Sekunde um 300000 km ausdehnt, was also in etwa der Entfernung Erde- Mond entspricht – ja, wenn DAS keine Explosion ist, dann muss dieser Begriff wohl neu definiert werden.
    Du bestehst darin hartnäckig auf dem Begriff Explosion.

    Zitat:
    Wie wäre es denn mit explosionsartiger Expansion?
    Jetzt sind wir uns einig.

    Zitat:
    Was mir mit dem Beginn des Kosmos vorliegen haben, ist eine plötzliche, durch starke Kräfte verursachte Ausdehnung.
    Warst du dabei? :smiley32: Wir sehen, daß bei einer gleichmäßigen Ausdehnungsgeschwindigkeit, die Summierung vieler Teilgeschwindigkeiten dazu führt, daß sich in derselben Zeit weit entfernte Bereiche schnelller voneinander entfernen, als nahe beieinander liegende Bereiche.

    Zitat:
    Was hat die gleich bleibende Größe der Trümmerstücke mit der Expansion des Kosmos zu tun? Die Expansion des Kosmos ist eine Expansion der Raumzeit, die hat überhaupt keine "Trümmerstücke".
    Ebend!
    Ich schrieb:
    Bei einer Explosion bleiben die Trümmerstücke gleich groß.
    Bei der Expansion des Alls wachsen alle Teilbereiche gleich schnell an.

    Das ist der Unterschied zwischen beiden Vorgängen; so wie ich auch in Beitrag 1057-148 an den anderen Beschreibungspaaren den Unterschied zwischen Expansion und Explosion gegenüberstelle.

    Zitat:
    Der Kosmos hat nur eine Geschwindigkeit, mit der er sich ausdehnt und keine Teilbereiche,
    Das sehe ich anders. Die Ausdehnungsgeschwindigkeit steigt mit jedem Megaparsec Entfernung um 71km/s.
    Natürlich ist die kosmische Expansionsgeschwindigkeit überall gleich, aber im Endeffekt wirkt es sich so aus, daß man von jedem Punkt des Universums ein anderes Bild erhält. Der Dopplereffekt des Schalls führt auch dazu, daß wir bewegte Sirenen eines Fahrzeugs anders hören, obwohl der ausgesandte Ton stets gleich bleibt. Ein stehender-, ein sich entfernender- und ein auf die Sirene zukommender Autofahrer hat von ein und demselben Ausgangston einen anderen Höreindruck.

    Zitat:
    Die Ausbreitungsgeschwindigkeit der Trümmerteilchen hängt in einem kräftefreien Raum einzig von der Energie ab, mit sie jeweils beschleunigt wurden. Und die ist überhaupt nicht für jedes Teilchen dieselbe,
    Ich behauptete ja auch nicht, daß sie für jedes Teilchen dieselbe ist. Ich schrieb:
    Bei einer Explosion im kräftefreien Raum bleibt die Geschwindigkeit der Trümmerstücke gleich.
    Jedes Explosions-Teilchen behält seine individuelle Geschwindigkeit bei, wenn keine Kräfte auf es wirken. Jeder Teilbereich des expandierenden Universums beschleunigt aber im laufe der Zeit, im Bezug zum Standort eines Beobachters. Das hatte ich ja eben gerade beschrieben.

    Zitat:
    ...und es muss auch jeder Teilbereich dieselbe Geschwindigkeit haben, weil der Kosmos als Gesamtheit in einem winzigen Bereich entstand,
    Muss er das?
    Und ich erinnere mich an Deinen Satz: "...Der Kosmos hat nur eine Geschwindigkeit, mit der er sich ausdehnt und keine Teilbereiche...". Nun hat er also doch Teilbereiche?
    Schwamm drüber.
    Ich las in irgendeiner Ausgabe eines Wissenschaftsmagazins, daß man darüber nachdenkt ob das Universum sich vielleicht doch nicht insgesamt gleichmäßig ausdehnt. Warum sollte es auch? Daß es aus einer Singularität entstand, daran glaubt schon seit Mitte der 1980-er Jahre selbst Stephen Hawking nicht mehr (steht in "Eine kurze Geschichte der Zeit").
    Wie ich schon früher beschrieben habe, stelle ich mir vor, daß das Universum schon vor dem Ereignis "Urknall" existierte, und eine sehr hohe Dichte und eine bestimmte Größe hatte. Sagen wir mal einen Radius von mindestens 16 Mrd Lj., so daß wir nicht in der "Mitte" sein müssen-, aber auch nicht die "Begrenzung" erkennen können. Das Universum war damals "anders" als heute. Irgendwann geschah eine Veränderung dieses Zustandes und es begann zu expandieren. Die gleichförmige Hintergrundstrahlung ergibt sich dabei nicht aus der Kleinheit am Anfang, sondern aus der überall gleich hohen Dichte. Wenn ich vor mir 2 Flaschen mit Mineralwasser stehen habe, die kurz hintereinander in derselben Anlage abgefüllt wurden, haben sie denselben Innendruck und einen gleichen Inhalt. Wenn ich nun den Verschluß öffne, werden in beiden Flaschen die gleichen Abläufe passieren, ohne daß sie miteinander verbunden sind. Natürlich wird es geringe Abweichungen geben, aber gleiche Ausgangssituationen ergeben auch gleiche Abläufe in den ersten Momenten. Die Chaosforschung zeigt, daß sich nach längerer Zeit natürlich Unterschiede ergeben. Aber wenn das Universum auf seine maximale Dichte zusammengepresst war (nicht auf eine "Singularität"), sollte es auch überall fast gleich expandieren. Fast! Es kann aber eben auch sein, daß die Expansionsgeschwindigkeit in verschiedenen Bereichen der RaumZeit unterschiedlich ist.

    Schönen Sonntag noch
    Bernhard
     

      Beitrag 1896-34
    Zwei Klarstellungen

     
    Hallo ihr beiden (Irena & Henry),

    eigentlich wollte ich das Thema nicht weiter diskutieren, da ich all meine Argumente ja schon genannt habe (und somit nichts mehr weiter zu sagen habe).

    Mindestens zwei Klarstellungen sind aber wohl doch noch notwendig:

    Zitat von Irena:
     
    Nehmen wie logisch deine Aussage auseinander:
    "... Gesetze sind Teil der Natur". Lassen wir jetzt außen vor die Tatsache, dass es um die mathematische Gesetze geht. Wie kann Gesetze ein Teil der Natur sein? Die Natur ist ein System von physikalischen Objekten. Die Gesetze sind ein Merkmal der Natur. So etwa wie du würdest sagen "die Farbe ist ein Teil dieses Gegenstands".
     

    Ich habe nirgendwo behauptet, Gesetze seien Teil der Natur (wie du, Irena, mir hier in den Mund zu legen versuchst).
    Meine Aussage war, das ich mathematische Gesetze für Naturgesetze halte.


    Zitat von Henry:
     
    Und denkst du wirklich, dass "die theoretische Physik die Natur modelliert"? Könnte es nicht eher sein, dass die theoretische Physik Modelle darüber erstellt, wie sich bestimmte Sachverhalte in der Natur zueinander verhalten? Die Physiker finden die Natur vor, sie modellieren sie nicht.
     

    Da gebe ich dir völlig recht.

    Problem nur: Du unterstellst mir, dass ich durch den Gebrauch des Wortes modellieren hätte suggerieren wollen, dass wir so die Natur gestalten (statt nur den Versuch zu unternehmen, sei hinsichtlich gewisser Aspekte nachzubilden). Glaubst du im Ernst, dass das von mir so gemeint war?

    Im übrigen kann ich nicht erkennen, dass sich irgendwer hier in diesem Forum präziser ausdrückt als ich. Die Unzweideutigkeit all unserer Formulierungen ist ja schon allein dadurch begrenzt, dass wir Umgangssprache nutzen (statt formaler Sprache).

    Das ist wie in der Mathematik auch: Fast alle Beweise dort sind weitgehend in Umgangssprache niedergeschrieben, zerlegen also nur große Gedankensprünge in kleinere, deren Nachvollziehbarkeit man dann einfach als gegeben voraussetzt (obgleich sie bei einem Leser gegeben, beim anderen aber nicht gegeben sein kann). Alle Beweis in ausschließlich formaler Notation zu formulieren würde sie eindeutiger, aber keineswegs verständlicher machen. Ganz zu schweigen davon, dass unser Leben dann einfach zu kurz wäre, mehr als nur recht seichte Aussagen wirklich zu beweisen ...


    Auf jeden Fall muss ich euch beiden ins Stammbuch schreiben:

    Richtig zu zitieren setzt voraus, dass man die zitierte Formulierung so interpretiert, wie der Kontext, in dem sie sich fand, suggeriert. Hättet ihr das getan, wäret ihr nie auf die Idee gekommen, mir zu unterstellen, dass ich gesagt hätte
    • alle Gesetze seien Naturgesetze oder
    • Modellierung in meinem Sinne geschehe im Glauben oder in der Absicht, dadurch die Natur zu gestalten.

    Im Berlin steht eine Plastik, die Willy Brandt darstellt. Hat der Künstler damit die Person Willy Brandt modelliert oder nicht? Und wie vollständig?

    Gruß, grtgrt
     

      Beitrag 1922-9
    Eine Klarstellung (auch, aber nicht nur, was den Begriff » transzendent « betrifft)

     
     
    An Henry und Gregor:

    Eurer beider Reaktion zeigt mir, dass mein Beitrag 1922-1 folgender Klarstellung bedarf:

    Wenn ich das Wort » transzendent « benutze, dann meine ich damit einfach nur etwas, das direkt wahrzunehmen uns der entsprechende Sinn fehlt, das sich aber hin und wieder — ganz selten — indirekt bemerkbar macht insofern, als uns etwas korreliert erscheint, wo wir beim besten Willen keinen Grund für eine solche Korrelation erkennen können: etwas, das uns dann als absolut zufällige, aber dennoch extrem erstaunliche Ähnlichkeit auffällt.

    Lothar Schäfer spricht in solchen Fällen gerne von einem » geistigen Hintergrund « physikalischer Objekte oder von der » sich selbst bewussten « Natur — beides Begriffe, die ich für nicht jedem zumutbar halte — sie suggerieren geradezu Esoterisches.

    Dennoch: Wer sein Buch gelesen hat, und wem dabei bewusst wurde, wie scharf und wirklich wissenschaftlich im besten Sinne des Wortes er analysiert, und wie sorgfältig er zusammengetragen hat, was tatsächlich extrem erstaunliche Ähnlichkeiten sind, kann kaum anders, als zuzugeben, dass da vielleicht doch eine Verbindung sein könnte, die sich unserer Wahrnehmung bisher entzogen hat.

    Was nun speziell Anton Zeilinger angeht, so hat der die Gabe, in seiner Rolle als Wissenschaftler wirklich nichts zu behaupten, was er nicht belegen kann. ABER: In seiner Rolle als jemand, der seine Ergebniss auch geschickt zu vermarkten versteht, pfeift er keinen Journalisten zurück, wenn der in seiner Berichterstattung ein wenig übertreibt in dem Sinne, dass er mit Begriffen operiert, die etwas suggerieren, was eine breite Öffentlichkeit als sehr spektakulär empfinden muss, was aber — kritisch hinterfragt — der Sache dann doch nicht wirklich gerecht wird.
    • Beispiel 1: Im von Gregor gefundenen Artikel empfinde ich den Abschnitt 6 (aber auch NUR den) als eine derartige Übertreibung. [Allerdings würde ich die dort in Abschnitt 2 gegebene Definition des Begriffes » transzendent « lieber durch meine ersetzt sehen.
    • Beispiel 2: In der Berichterstattung über Anton Zeilingers Ergebnisse wird hin und wieder angedeutet, zukünftige Ereignisse wären — so sähe es aus — in der Lage, das Ergebnis ihnen vorangegangener Ereignisse mit zu beinflussen. Das klingt spektakulär, ist aber falsch, denn jene zukünftigen Ereignisse liefern nur den Schlüssel, in Daten, die man in der Vergangenheit gesammelt hat, Information zu entdecken, die ohne jenen Schlüssel einfach nicht entdeckbar ist. [Wer in Zeilingers Buch "Einsteins Spuk" das Kapitel "Teleportation von Nichts" gelesen hat — und insbesondere die letzte Seite daraus (Seite 311) — wird wissen, wovon ich spreche.

    Beste Grüße,
    Gebhard Greiter (grtgrt)

     

      Beitrag 2035-29
    Zwei Klarstellungen

     
    Henry aus 2035-27:
    Einige Grundlagen sollten mal wieder ins Gedächtnis gerufen werden!

    Hallo Henry,

    ich habe mir erlaubt, zwei deiner Feststellungen in das Glossar der Arbeitsplattform SRT in der nachstehenden Form einzubringen:

    Zitat:
    Relativität der Bewegung
    Relativ bedeutet, dass die Bewegung nur in bezug auf ein anderes Objekt festgestellt werden kann. Die Relativität der Bewegung gleichförmig bewegter Objekte ist keine Entdeckung der SRT, sondern wurde bereits von Galileo erkannt.

    SRT als Sonderfall der ART
    Die SRT lässt sich als Sonderfall der ART interpretieren, sie ist gültig für einen massefreien Raum. Bei einem masseerfüllten Raum lässt sich die SRT lokal näherungsweise anwenden.

    M.f.G. Eugen Bauhof


    Wichtig zu wissen ist auch:

    Die Aussage "Wenn wir laufen, während ein anderer Mensch still steht, dann vergeht auch für uns die Zeit langsamer, aber halt extrem wenig" ist falsch.

      Es ist lediglich so, dass es der Laufende den Eindruck hat, die Uhr einer stehenden Person würde langsamer gehen als seine eigene (wenn er von ihr weg läuft).

      Umgekehrt hat die stehende Person den Eindruck, die Uhr eines Läufers würde langsamer gehen als die eigene, solange er sich entfernt (bzw. schneller gehen, wenn der Laufende näher kommt).

      In Wirklichkeit aber altern beide gleich schnell (solange sie nicht unterschiedlich stark beschleunigt sind).

     

      Beitrag 1951-23
    -

     
     
    Stueps aus 1951-21:
     
    Gebhard, ich muss mich vorerst komplett dem Beitrag 1951-20 anschließen. Aber vielleicht kannst du ja noch mit einfachen Gedanken aufklären, wie du Beitrag 1951-19 meinst, sodass ich es verstehe.

    Hi Stueps,

    es würde mich freuen, von dir zu hören, ob meine eben in Beitrag 1951-22 gegebene Antwort dir ausreicht, mich zu verstehen.

    Sie soll zeigen: Die Komplexität eines Systems entspricht der maximalen Menge an Information, die jenes System zu kodieren in der Lage ist. Da nun aber auch der jedem seiner Teile zugeordnete WDDF Information kodiert, ich aber nicht weiß, wie die quantifizierbar sein könnte, kann ich Systemkomplexität nur definieren für den Fall, dass der WDDF der Teilchen des Systems leer ist.


    Beste Grüße,
    grtgrt
     

      Beitrag 1951-29
    Informierende Komplexität entspricht durch Ordnung gegebener Information

     
     
    C... aus 1951-28:
     
    Meiner Meinung nach hat Entropie nichts mit Komplexität zu tun. Eher im Gegenteil:

    Im Rahmen eines Ordnungssystems für ein Zustandssystem ist die Entropie genau dann maximal, wenn es innerhalb des Zustandssystems möglichst viele Zustände gibt, welche man mit dem Ordnungssystem nicht voneinander unterscheiden kann.

    Hi C...,

    ich verstehe, was du meinst.

    Aber was du als "Komplexität" siehst, würde ich eher als "informierende Komplexität" bezeichnen (auch eine komplexe Nachricht kann ja sehr gut wenig informierend sein).

    Aus meiner Sicht gilt:

    Komplexität kodiert Information

    Informierende Komplexität ist der Teil davon, der zu kybernetisch kodierter Information führt.


    Gruß, grtgrt
     

      Beitrag 1951-130
    Warum beobachtet man an DNS (= DNA) Molekülen so hohe Stabilität?

     
     
    Stueps aus 1951-127:
     
    Das Konzept "DNS" beinhaltet trotz hoher Stabilität ein hohes Maß an Flexibilität.

    Hi Stueps,

    die Stabilität kann ich mir nicht wirklich erklären, das hohe Maß an Flexibiliät schon eher:

    Solche Flexibilität, so scheint mir, ergibt sich aus der Tatsache, dass ein DNS-Molekül einerseits sehr komplex, andererseits aber auch sehr modular ist und seine Bausteine irgendwie "genormt" erscheinen. Leider verstehe ich nichts von Chemie, und so kann ich das nicht genauer ausdrücken.

    ußere Bedingungen, so wie du, hätte ich jetzt ganz und gar nicht als Grund vermutet. Wäre interessant, zu hören, wie du zu diesem Eindruck kommst.

    Gruß, grtgrt
     

     Beitrag 0-479
    Kosmologie — wie sich unser Weltbild entwickelt hat

     
     

     
    Zum Weltbild der Kosmologen

     
     
    Ein Markstein der Geschichte der Naturwissenschaft — man könnte sagen, ihre Geburt in Mitteleuropa — war das 1543 posthum veröffentlichte Werk des polnischen Astronomen Nikolaus Koernikus.
     
    Es trug den Titel De revolutionibus orbium celestium. Kopernikus vertrat darin die Meinung, dass sich nicht die Sonne um die Erde, sondern die Erde und alle anderen Planeten um die Sonne herum bewegen — eine Ansicht, die schon einer der griechische Philosoph Aristarch von Samos (310-260 v. Chr.) — vertreten hatte, die dann aber im Vergessenheit geriet um durch das Weltbild des Ptolemäus (etwa 100 v. Chr.) ersetzt zu werden, an dem dann später der katholischen Kirche so sehr gelegen war.
     
    Der neue Blick auf den Kosmos, für den Kopernikus eintrat, schockierte das Abendland — vor allem aber die Theologen — so sehr, dass das Wort » Revolution « aus dem lateinischen Titel des Werkes auch in den politischen und sozialen Kontext einging und dort bis heute Synonym für eine umwälzende Entwicklung ist.
     
    Im 16. Jahrhundert war Europa noch völlig unter dem Bann der katholischen Kirche, die weiterhin fest auf das ptolemäische Weltbild setzte, nach dem die Erde als Mittelpunkt des Universums galt und der Mensch als die Krone der göttlichen Schöpfung.
     
    Als Galileo 1609 das damals eben erst entdeckte Fernrohr auf den Himmel richtete, sah er, dass die Milchstraße aus unzähligen, schwach leuchtenden Sternen besteht, und so erkannte man erstmals, dass die Sonne ein nur durchschnittlicher Stern unter vielen ist. Heute wissen wir, dass zur Milchstraße über 100 Millionen Sterne gehören, von den viele unserer Sonne recht ähnlich sind.
     
    Erst im frühen 20. Jahrhundert aber wurde klar, dass es neben der Milchstraße noch andere Galaxien (sog. » Weltnebel « wie man damals sagte) gibt:
     
    Erst jetzt gelang es, auch den Andromedanebel als große Menge von Sternen zu erkennen, und so wurde klar, dass selbst unsere Milchstraße im Universum nichts Außergewöhnliches darstellt.
     
    Diese Erkenntnis führte zum heute allgemein anerkannten sog. » kosmologischen Prinzip «, nach dem das gesamte Weltall — weiträumig gesehen — gleichförmig aufgebaut und von überall gleicher Qualität ist.
     
    Heute — zu Beginn des 21. Jahrhunderts — sind die führenden Kosmologen ebenso wie auch die Stringtheoretiker der Meinung, dass selbst das gesamte beobachtbare Universum nur winzig kleiner Teil eines von ganz unglaublich vielen sog. Taschenuniversen ist, in einem wahrscheinlich unendlich großen Multiversum also ebenfalls wieder nur durchschnittliche Qualität hat. Lediglich seine Eigenschaft, biologisches Leben zuzulassen, könnte es von vielen, aber sicher nicht allen anderen unterscheiden.

     

     Beitrag 0-250
    Kosmologie — wie sie sich zu echter Wissenschaft entwickelt hat

     
     

     
    Kosmologie im Wandel der Zeiten

     
     
    Unter Kosmologie verstand man zu unterschiedlichen Zeiten recht Unterschiedliches:
       
    • Noch bis ins 19. Jahrhundert hinein stand das Wort für eine Mischung aus Astronomie, Astrologie und dem Nachdenken über die Welt als Ganzes.
       
      Schönes Beispiel hierfür ist König Alfonso X., Herrscher über Kastilien im 13. Jahrhundert, genannt "der Weise":
         
        Er gab neue astronomische Tafeln in Auftrag in der Hoffnung, durch exakteres Wissen über die Position der Planeten zutreffendere Horoskope zu bekommen.
         
        Dass er wirklich klug war und wissenschaftlches Gespür hatte, zeigt die Tatsache, dass er sich von Astronomen genau erklären lies, wie man sich nach dem damaligen Weltbild die Bewegung der Planeten dachte. Als man ihm jedoch die Feinheiten der ptolemäischen Zyklen erklärte — das damals etablierte Weltbild —, zeigt er sich skeptisch: "Hätte der Allmächtige mich befragt, bevor er die Schöpfung in Angriff nahm, ich hätte ihm etwas Einfacheres nahegelegt."

      Den letzten Versuch, an einer deutschen Hochschule eine Vorlesung für Astrologie zu etablieren hat 1817 Johann Wilhelm Pfaff, Professor für Mathematik und Astronomie an der Universität Erlangen, gemacht. Im Jahr vorher hatte er ein astrologisches Lehrbuch veröffentlicht.
       
       
      Erstaunlich auch:
       
      Noch 1950 hat sich Wilhelm Hartmann, ein promovierter Astronom, der zunächst an der Sternwarte Hamburg arbeitete, dann aber Direktor der Sternwarte und des Planetariums in Nürnberg geworden war, öffentlich zu astrologischen Grundaussagen bekannt: Er hatte seinerzeit Kollegen aufgefordert, zusammen mit ihm die Grundlagen der Astrologie auf Stichhaltigkeit hin zu überprüfen, stieß dabei auf wenig Hilfsbereitschaft, aber doch auf unterschiedliche Überzeugungen, und arbeitete dann alleine an diesem Vorhaben, wobei er — aus seiner Sicht — zu einem positiven Ergebnis kam (angeblich wider seine ursprüngliche Erwartung):
       
      In seinem 1950 erschienen Buch Die Lösung des uralten Rätsels um Mensch und Stern soll auf Seite 117 zu lesen sein: "Für mich ist diese kosmische Impulslehre kein 'Glaube' mehr, keine 'Annahme', sondern in ihren Grundzügen ein an tausend Beispielen bewiesenes Wissen. Es mag sein, dass einige Voraussetzungen später durch andere ersetzt werden müssen, dass einige weitergehende Schlüsse falsch sind; der Schluss jedoch, zu welchem diese Grundzüge führen, nämlich dass wir Menschen dauernd kosmische Impulse empfangen, die unser Handeln, Fühlen und Denken beinflussen, ist für mich unerschütterliche Tatsache."
       
      Etwa zur gleichen Zeit soll der recht bekannte Psychoanlytiker Prof. Karl Gustav Jung gesagt haben: "Die moderne Astrologie nähert sich mehr und mehr der Psychologie und klopft bereits vernehmlich an die Tore der Universitäten." Er hat die Astrologie in seine Arbeiten integriert, was besonders deutlich wird in seinem Werk Synchronicity: A causal Connecting Principle (1952).
       
      Meine Meinung: Jung wie auch Hartmann war wohl nicht klar, dass wer eine allzu kleine Stichprobe betrachtet (von nur etwa 1000 Menschen) nicht erwarten darf, eine wenigstens grob auch für die gesamte Menscheit richtige Aussage zu erhalten. Eine Studie aus 2006 bestätigt das: Man hat in ihrem Rahmen Daten über etwa 15.000 Menschen durchforstet und darin keinerlei Bestätigung astrologischer Aussagen gefunden.
       
       
      Insgesamt also gilt:
       
      Noch in der ersten Hälfte des 20. Jahrhunderts hat so mancher Wissenschaftler eher an Astrologie als an Kosmologie im modernen Sinne geglaubt:
       
         
      • Noch 1930 soll der Kernphysiker Ernest Rutherford es für notwendig erachtet haben, seine Mitarbeiter zu warnen: "Ich will in meinem Institut niemand über das Universum reden hören". Für ihn nämlich stand dieses Wort für haltlose Spekulation und Pseudowissenschaft. [ Einsteins Arbeiten nahm er dennoch ernst und hat sich schon sehr früh damit befasst. ]
         
      • Der Physiker Paul Davies schreibt: "Selbst als ich in den 60-er Jahren in London studierte, witzelten Zyniker, dass es Spekulationen gäbe, Spekulationen im Quadrat — und die Kosmologie."
         
      • Umgekehrt aber: Als Wilhelm Hermann — so etwa 1940 — Mitstreiter für ein kleines Forschungsprojekt gesucht hat, mit dem er beweisen wollte, dass es nun endlich an der Zeit sei, einzusehen, dass man astrologische Aussagen nicht ernst nehmen dürfe, soll ihm ein damals relativ bekannter Astronom einen Korb gegeben haben mit der Warnung: "Und was, wenn doch?"
         
        Und tatsächlich ist ja Hermann (s.o.) über dieses — von ihm dann alleine durchgezogene Projekt — zu einem überzeugten Anhänger der Astrologie geworden. Ihn als Spinner abzutun wäre dennoch nicht gerechtfertigt: Er hat sich vorurteilslos um Wahrheit bemüht.
         
      • Astrologie — im Mittelalter noch Zwillingsbruder der Astronomie — verlor schon im frühen 19. Jahrhundert ihren wissenschaftlichen Status, wurde aber dennoch sogar noch im 20. Jahrhundert kontrovers diskutiert und ist mit wissenschaftlicher Methodik erst 2006 durch eine Studie dreier Psychologen falsifiziert worden. Doch noch 1950 hatte der Psychoanalytiker Carl Gustav Jung die Astrologie in seiner Eigenschaft als Hochschullehrer "auf dem Weg zurück in die Universitäten" gesehen.
         
      • Interessant ist, dass eine wirklich wissenschaftlich zu nennende Auseinandersetzung mit der Astrologie — genauer: dem vermuteten Wahrheitsgehalt astrologischer Geburtshoroskope — i.W. erst ab 1950 stattfand: Gab es vor 1950 noch kaum empirische Studien dazu, waren es 1975 schon etwa 500. Besonders gewichtige Argumente gegen den Sinn astrologischer Regeln lieferte die Zwillingsforschung. [A]
         
      • Einer der ersten Astronomen, die Astrologie kritisch zu hinterfragen begannen, war Johannes Kepler. Trotz seines Buches [kp] hat er sich schließlich — in einer erst 1625 erfolgten Ergänzung zum Wallenstein-Horoskop — von Astrologie distanziert.
         
      • Die wahrscheinlich letzten Astronomen, die ein Buch über Astrologie schrieben — nun sie zu begraben —, waren Culver und Ianna (1984).
         
      • Eine Ausnahme: Der britische Astronom Percy Seymour (zunächst Hochschullehrer in Plymouth, dann Direktor des William Day Planetariums in Hagerstown) bekennt sich selbst heute noch zur Astrologie. Er schrieb zwischen 1988 und 1998 mehrere Bücher darüber und glaubt, die Bewegung der Sterne und Planeten könne das Gehirn ungeborener Kinder beeinflussen. Er ist Fellow von beiden: der Royal Astronomers' Society und der Astrological Society. Interview mit Seymour + /m
         
        Lediglich an die Sternzeichen-Horoskope der Illustrierten und Frauenzeitschriften hat im 20. Jahrhundert wohl kein Wissenschaftler mehr geglaubt.
         
        Mit wissenschaftlicher Methodik durch Astrologen selbst hinterfragt — ja sogar falsifiziert — wurde Astrologie erst gegen Ende des 20. Jahrhunderts: Grundlage war eine über 45 Jahre andauernde Beobachtung von etwa 2000 Personen, die sämtlich 1958 in derselben Woche (in London) geboren wurden [Geoffrey Dean, 2003]. /m
         
         
      • VORSICHT aber: Die oben erwähnten Wissenschaftler haben sich vorurteilsfrei die Frage gestellt, ob astrologische Aussagen Sinn machen könnten. Gemeint ist das im Sinne des Quantenphysikers Carl-Friedrich von Weizsäcker, der einmal gesagt haben soll, dass die Naturwissenschaft noch nicht weit genug entwickelt sei, um behaupten zu können, dass an der Astrologie nichts dran sein könne.
         
        Neben solch ehrlichen Denkern gab es aber schon immer — und gibt es bis heute — zahlreiche Horoskopschreiber, die einfach nur Geld mit der Leicht­gläubig­keit anderer Leute verdienen wollten bzw. wollen. Dass solche Scharlatane bis heute nicht ausgestorben sind, zeigen einige Zahlen im Pressebericht "Die moderne Astrologie hat nichts Magisches" (2011).
         

       
    • Doch schon mit Einsteins Relativitätstheorie und Hubbles Entdeckung der Expansion des Raumes begann ein Entwicklung, welche dem Begriff » Kosmologie « einen ganz neuen Sinn gab:
       
      Die Kosmologie wandelte sich zu Astrophysik, einer echten Wissenschaft, deren Vertreter mit Sterndeuterei und physikfremder Philosophie nichts mehr zu tun haben wollten.

       
      Dennoch stand sie noch etwa 50 weitere Jahre im Geruch einer Pseudowissenschaft, die nicht so recht ernst genommen wurde, da zahlreiche ihrer Thesen allzu weit hergeholt erschienen.
       
      Und so hat man Kosmologen noch Jahrzehnte lang ein wenig belächelt, und gerne gesagt:
       
       
      » Kosmologen befinden sich selten im Zweifel, aber oft im Irrtum. «

       
      Dieser Spruch, als Warnung gedacht, geht übrigens auf Lev Landau zurück, der ja selbst führender Kosmologe war.
       
      Dass sein Urteil viel Wahrheit enthielt, belegen zahlreiche Beispiele, darunter folgendes:
         
        Noch bis Ende der 60-er Jahre dachten Kosmologen, unser Universum sei nur etwa 1,5 Milliarden Jahre alt. Und das, obgleich Geologen schon Ende der 50-er Jahre Erdgestein gefunden hatten, dessen Alter sie auf knapp das 3-fache bezifferten.
         
        Geklärt hat sich diese Diskrepanz erst, nachdem die Hubble-Konstante unter Zuhilfenahme moderner Technologie viel genauer als zuvor bestimmbar wurde. Noch bis etwa 1970 arbeitete man mit dem 1929 noch von Hubble selbst errechneten Wert. Der aber — so sah man nun — war um etwa den Faktor 7 zu hoch.
         
        Wie über den genauen Wert des Hubble-Parameters selbst heute noch gestritten wird, beschreibt Wendy L. Freedman: Mit unterschiedlicher Methodik kommt man zu Werten, die etwa 8 Prozent differieren.

       
      Steven Weinberg, Nobelpreisträger für Physik, bekannte: » Es fiel den Physikern außerordentlich schwer, überhaupt eine Theorie über das frühe Universum ernst zu nehmen. Ich beziehe hier meine eigene Einstellung vor 1965 mit ein. «
       
      Frank Tipler: » Die erste solide Vorhersage der von Einstein 1917 begründeten Kosmologie — die kosmische Hintergrundstrahlung und ihre Temperatur — fand erst 1965 Bestätigung. «
       
       
      Der Astrophysiker Pedro G. Ferreira berichtet in seinem Buch Die perfekte Theorie (S. 100-104):
         
        Mit Einsteins Tod 1955 geriet seine allgemeine Relativitätstheorie aufs Abstellgleis. Sie war vom Interesse an der Quantentheorie überflügelt, wurde von führenden Physikern — Oppenheimer etwa — abgelehnt und brauchte dringend frisches Blut und neue Entdeckungen, ihr wieder Schub zu geben.
         
        Samual Goudsmit, 1951-1966 Herausgeber des Physical Review, wollte die Veröffentlichung von Arbeiten über » Gravitation und Grundlagentheorie « sogar untersagen. Dass es nicht soweit kam, ist dem Einspruch von John Archibald Wheeler zu verdanken, der Gefallen an Einsteins Theorie gefunden hatte.
         
        Nachhaltig wiederbelebt wurde Einsteins Gravitationstheorie dann in den 1960-er Jahren, als man sich — getrieben durch Wheeler (Princeton), Sciama (Cambridge) und Seldowich (Moskau) sowie deren Schüler — stark für Schwarze Löcher zu interessieren begann, was dann schließlich klar gemacht hat, dass sie tatsächlich existieren.

       
      Heute (2019) ist Einsteins Theorie aktueller denn je: Schuld daran sind Entdeckungen, die zur Bestätigung der Urknalltheorie geführt haben, der nun schon mehrfach gelungene Nachweis von Gravitationswellen sowie das erste Photo eines Schwarzen Lochs (aufgenommen 2017, aus diesen Daten vollständig zusammengesetzt erst 2019).
       
       
    • Heute hat die Kosmologie sich als Wissenschaft im besten Sinne voll etabliert:
         
        Die richtige Vorhersage (1933) und spätere Entdeckung (1964) der kosmischen Hintergrundstrahlung sowie deren genaue Vermessung mit Hilfe moderner Forschungssatelliten haben gezeigt, dass Astrophysiker und Kosmologen inzwischen nicht weniger genau zu beobachten und nicht weniger scharf zu schlussfolgern wissen als andere Physiker auch.
         
        Viel geholfen hat der Aufstieg der Radioastronomie und die damit verbundene Möglichkeit, Radioquellen zu lokalisieren und genau zu beobachten.
         
        Die sich heute abzeichnende Möglichkeit, das Universum auch abzuhören (d.h. Gravitationswellen zu empfangen und zu deuten) wird ganz sicher zu einem weiteren großen Fortschritt führen.

       
      Wie schnell Kosmologen Theorien, die falsch sind, zu widerlegen wissen, zeigt sich an der Steady State Theorie und daran, dass auch die Urknalltheorie — solange sie noch nicht durch die geradezu unerhört anmutende Inflationstheorie ergänzt war — noch viel Widersprüchliches in sich hatte.
       
       
    • Dennoch: Ganz so empirisch wie andere Wissenschaften kann die Kosmologie nicht vorgehen, wenn es darum geht, sich Vorstellungen zu erarbeiten, wie die Welt jenseits des Beobachtungshorizonts von uns Menschen aussehen könnte.
       
      Warum aber sollte extrapolierende Physik nicht ebenso seriös sein können wie empirische?
       
      Und beschäftigen sich z.B. Stringtheoretiker heute nicht auch mit Ideen, die vergleichbar weit hergeholt erscheinen wie die der Kosmologen?

     
    Michio Kaku schreibt 2013:
     
    » Die Vorstellung, es könnte über die 3 bekannten Raumdimensionen hinaus noch weitere geben, hielt man noch bis kurzem für Science-Fiction-verdächtig. Nicht wenigen Physikern galt diese Vorstellung sogar als lächerlich, und Forscher am CalTech, die etwa 1980 über die Möglichkeit von Wurmlöchern und Zeitreisen nach­dachten, wurden selbst von Kollegen, die sie gut kannten, für etwas verrückt gehalten.
     
    Doch inzwischen ist die Welt der Physik auf den Kopf gestellt worden: Es gibt heute kaum eine größere Universität ohne eine Forschungsgruppe, die sich mit höherdimensionalen Theorien beschäftigt. «
     

     
    Dennoch: Dass selbst heute noch etablierte Hochschullehrer für Theoretische Physik und Kosmologie in eben dieser Rolle hin und wieder im Brustton der Überzeugung Theorien publizieren, die ganz sicher nicht als wissenschaftlich einzuordnen sind, zeigt sich am Beispiel des Buches von Frank J. Tipler: Die Physik der Unsterblichkeit: Moderne Kosmologie, Gott und die Auferstehung der Toten, dtv 1995. Mehr dazu in [ Wissenschaft & Religion ].
     
     
     
     
     
    Wurzeln der alten Kosmologie

     
    Wurzeln der alten, teilweise noch vorchristlichen Kosmologie waren
       
    • astronomische Beobachtungen,
       
    • so eine Art Zahlenmystik ( religiös interpretiert durch die erst jüdische, dann christliche Kabbala )
       
    • und hermetische Philosopie ( welche sich zur Zeit, als Johannes Kepler aufwuchs, konkretisiert hatte zu Alchemie und Astrologie ):
       
      Noch zu Kepler Jugendzeit wurde eine wahre Flut astrologischer, kabbalistischer und alchemistischer Texte veröffentlicht, und selbst Isaak Newton — geboren 1643, 13 Jahre nach dem Tode Keplers — soll sich mehr mit Alchemie als mit Physik beschäftigt haben.

     
     
     
    Zwischen alter und neuer Kosmologie

     
    Schnittstelle zwischen der alten und der neuen Kosmologie war eindeutig das Wirken von Johannes Kepler als kaiserlicher Hofastronom in Prag: Auf Basis sehr genauer Beobachtungsdaten (die noch sein Vorgänger Tycho Brahe gesammelt hatte),
       
    • kam es durch Kepler zur Entdeckung der richtigen Gesetze der Planetenbewegung.
       
    • Zugleich aber hat Kepler in seinem Buch » Weltharmonik « das alte kosmologische Weltbild nochmals ganz besonders genau und umfassend beschrieben und durch Überlegungen mathematischer Art bereichert. Dieses Buch soll voll sein von astrologischen, alchemistischen, pythagoräischen und mystischen Konzepten. Erste Zweifel, die Kepler an der Wahrheit astrologischer und alchemistischer Aussagen gekommen sind, seien dort noch nicht erwähnt.

     
     
     
    Worin sich heutige Kosmologie von Astrophysik unterscheidet


    Thomas Görnitz (1999):
     
    Unter dem Kosmos versteht man alles, wovon zu erfahren (bzw. Wissen zu erlangen) uns nicht prinzipiell unmöglich ist.
     
    Es hat somit der  K o s m o s  nicht nur eine physikalische, sondern auch eine geistige Dimension.
     
     
    Im Fokus der Kosmologie stehen Geburt und Evolution des Weltalls — Astronomie und Astrophysik aber befassen sich vor allem mit Gaswolken, Galaxien, Sternen und Planeten.
     

    Physiker tendieren dazu, die Kosmologie — fälschlicherweise — einfach nur als ein Teilgebiet der Astronomie zu sehen.


     

     Beitrag 0-326
    Begründer moderner Kosmologie: Henrietta Leavitt, Edwin Hubble und Georges Lemaitre

     
     

     
    Henrietta Leavitt — Edwin Hubble — Georges Lemaître

     
     
    Als Begründer der modernen Kosmologie muss man wohl vor allem Henrietta Levitt (1968-1921), Edwin Hubble (1889-1953) und Georges Lemaître (1894-1966) sehen:
       
    • Henrietta Leavitt war eine — recht unbekannte — amerikanische Astronomin, die als erste eine Technik entdeckt hat, Entfernungen im Weltall zu messen. Erst diese Technik, später neu entdeckt durch Shapley, hat die Astronomen — kurz nachdem Leavitt gestorben war — in die Lage versetzt, zu erkennen, dass es über unsere Milchstraße hinaus noch andere » Welteninseln « gibt.
       
      Erst etwas später nannte man sie, wie heute, » Galaxien «.
       
       
    • Durch Edwin Hubble über 5 Jahre hinweg gesammelte genaue Beobachtungsdaten haben zur Erkenntnis geführt, dass der Abstand zwischen weit voneinander entfernten Welteninseln (Galaxien) sich ständig vergrößert.
       
       
    • Georges Lemaître schließlich — bekannt als Begründer der Urknalltheorie — war einer der wenigen, die sich mit Einsteins Allgemeiner Relativitätstheorie schon früh überaus gründlich befasst hatten. Ihm gelang es sogar, Einstein selbst gleich 2 Mal in wichtigen Punkten erfolgreich zu korrigieren:

         
      • Einstein nahm die Entdeckung, dass der Raum expandiere, zunächst mit großer Skepsis auf. Er war aufgewachsen in der Überzeugung, dass das Universum als Ganzes statisch sei. Lemaître traf sich mit Einstein und versuchte, ihm seine Vorurteile auszureden, womit er zunächst wenig erfolgreich war: Ihre Berechnungen — so antwortete Einstein ihm — sind zwar mathematisch richtig, aber Ihre Physik ist schrecklich.
         
        Erst später musste Einstein zugeben, dass Lemaître doch Recht hatte.
         
         
      • So ein Vorgang wiederholte sich: Einstein hatte sein » kosmologische Konstante « als geringfügige, aber bedeutende Abänderung seiner Gleichungen eingefügt in der Hoffnung, seine Theorie so mit einem statischen Universum vereinbar zu machen. Als er später dann doch einräumen musste, dass das Universum nicht statisch sein kann, bezeichnete er das Einfügen dieser Konstanten als seine größte Eselei.
         
        Lemaître, viel weitsichtiger und Einsteins Gleichungen schon besser verstehend, versuchte ihn umzustimmen: Diese Konstante, so argumentierte er, mache das Universum nicht statisch, könne aber dennoch Berechtigung haben und müsse keineswegs verworfen werden.
         
        Wieder behielt Lemaître recht: Wie wir heute wissen, ist die Konstante notwendig, wenn Einsteins Gravitationstheorie mit der Tatsache in Einklang sein soll, dass die Expansion des Universums — wie wir seit 1998 wissen — sogar  b e s c h l e u n i g t  vor sich geht.
         
         
      • Lemaître war weitsichtig genug, nicht nur Einstein zu korrigieren, sondern auch Papst Pius XII, als der 1951 in einer öffentlichen Rede argumentierte, der Urknall bestätige die Schöpfungsgeschichte. Lemaître erkannte sofort, wie gefährlich diese Argumentation sein konnte. Er nahm deswegen Kontakt zur päbstlichen Akademie der Wissenschaften auf und versuchte so, den Papst davon zu überzeugen, die Sache auf sich beruhen zu lassen: Öffentliche Verlautbarungen, wonach zwischen dem Schöpfungsakt und dem Urknall eine Beziehung bestünde, seien unangebracht.
         
        Lemaître war überzeugt, dass man Wissenschaft und Religion nicht miteinander vermischen dürfe. Er soll wörtlich geschrieben habe: Die Bibel hat von der Physik und die Physik hat von Gott keine Ahnung.
         
        Pabst Pius lies sich überzeugen und hielt sich fortan in der Öffentlichkeit mit jedem Hinweis auf den Urknall zurück.
         
        Heute zeigt sich, wie recht Lemaître hatte: Inzwischen ist unter Physikern häufig die Rede davon, dass der Urknall wohl nicht der eigentliche Anfang war. Man stelle sich die peinliche Lage der katholischen Kirche vor, wenn Lemaître sie nicht daran gehindert hätte, den Urknall in ihrer offiziellen Lehre zum Schöpfungsakt zu erklären.

     
     
    Eine besonders schöne Beschreibung der Geschichte der modernen Kosmologie — beginnend mit Einsteins Allgemeiner Relativitätstheorie bis hin in die Gegenwart — findet sich im Sachbuch Pedro G. Ferreira: Die perfekte Theorie (2014), in Englischer Originalausgabe: The perfect Theory. A Century of Geniuses and the Battle over General Relativity (2014).

     

     Beitrag 0-297
    Wie erkannt wurde, dass unsere Milchstraße nicht die einzige Welteninsel (Galaxie) ist

     
     

     
    Von Kant bis Hubble:

    Wie klar wurde, dass unsere Milchstraße nur eine unter vielen Galaxien ist

     
     
    Schon im 18. Jahrhundert war Astronomen aufgefallen, dass einige Lichter am Himmel klar strahlen, andere aber einen etwas verschwommenen Eindruck machen. Letztere, so dachte man, müssten Nebel aus Gas und Staub sein.
     
    Der Physiker und Philosoph Immanuel Kant (1724-1804) allerdings war anderer Meinung: Er hat als erster vermutet, dass diese feinen Nebel Sternensysteme wie unsere Milchstraße sein könnten.
     
    Entscheidbar war die Frage damals aber nicht, da man noch nicht gelernt hatte, die Entfernung solcher Nebel von der Erde zu bestimmen.
     
    Noch 1920 gab es — sogar in Gegenwart von Einstein — eine ergebnislose Diskussion zwischen zwei anerkannten Astronomen über genau diese Frage:
       
    • Harlow Shapley (1885-1972) hatte als erster den Durchmesser der Milchstraße und die Entfernung ihres Zentrums von der Erde abgeschätzt (wenn auch beides um etwa den Faktor 2 zu groß). Er vertrat die Meinung, die sog. Nebel befänden sich innerhalb der Milchstraße.
       
    • Heber Curtis (1872-1942) kritisierte Shapleys Modell der Milchstraße heftig und vertrat die Ansicht, dass Nebel mit der Milchstraße vergleichbare andere Sternsysteme seien.

    Wer recht hatte, wurde erst entscheidbar, nachdem einige Jahre später Edwin Hubble die zwei größten von der Erde aus sichtbaren Nebel zu erforschen begann (M33 und Andromeda). Er verwendete ein 2,50-Meter-Teleskop sowie eine neuartige empfindliche Fotoemulsion und konnte so M33 als flachen Spiralnebel erkennen und ihn zweifelsfrei in Sterne auflösen, unter denen er 35 als Cepheiden erkannte. Mit ihrer Hilfe kam er zu einer Abschätzung der Entfernung der Erde von M33, woraus sich ergab, dass M33 deutlich außerhalb der Milchstraße liegen musste.
      Note: Cepheiden — man nennt sie auch Meilensteine im All — sind sehr große Sterne, deren Helligkeit periodisch schwankt. Sie haben besondere Bedeutung für die Astrophysik, denn wie Shapley erkannt hatte, gibt es zwischen der Pulsationsrate eines Cepheiden und seiner Leuchtkraft einen festen Zusammenhang. Vergleicht man also seine Leuchtkraft mit der Helligkeit, mit der er uns erscheint, lässt sich so auf seine Entfernung von der Erde schließen.
       
      Note: Hubble, der zunächst Jura studiert und dann wenige Monate als Rechtsanwalt praktiziert hatte, hat in Chicago Astronomie studiert und in Yerkes – dem der Universität Chicago angeschlossenem Observatorium – promoviert. 1919 folgte er einer Berufung ans Mount-Wilson-Observatorium, an dem auch Shapley forschte (der Hubble allerdings gar nicht mochte: Er fand ihn arrogant und anmaßend, und Hubble selbst trug wenig zu seiner Beliebtheit unter Kollegen bei). Hubble hat dort 5 Jahre lang nahegelegene "Nebel" photographiert, untersucht und klassifiziert, bevor ihm gelang, wofür er berühmt wurde:

     
    Hubbles Veröffentlichungen machten zum ersten Mal deutlich, dass sich das Universum aus Galaxien zusammensetzt.
     
    Und nicht nur das: Er machte auch die erstaunliche Entdeckung, dass nur einige nahegelegene Galaxien anscheinend ohne bestimmte Richtung im All schweben, alle anderen aber von uns zu fliehen scheinen. Sie entweichen bemerkenswert schnell, und je weiter sie entfernt sind, umso größer ist ihre Entweichgeschwindigkeit. Hubble schloß daraus, dass dies nur sein könne, wenn
       
    • entweder die Milchstraße das Zentrum des Universums wäre
       
    • oder aber der Raum sich in Aufblähung befände.

    Dass letzteres richtig sein muss, ergab sich schließlich aus Einsteins Gravitationstheorie:
     
    Sie verlangte einen expandierenden Kosmos, doch Einstein war der Meinung, der Kosmos müsse statisch sein. Um seine Theorie dieser Auffassung anzupassen, erweiterte er seine Feldgleichung um eine sog. kosmologische Konstante.
     
    Alexander Friedmann (1888-1925) jedoch konnte Einstein einen Rechenfehler nachweisen, nach dessen Korrektur klar wurde, dass die Feldgleichung auch mit so einer Konstanten vorhersagt, dass der Raum nicht statisch sein kann: Er muss sich ausdehnen, zusammenziehen oder beides abwechselnd tun.
     
    Dies hat Einstein schließlich veranlasst zu glauben, seine Einführung einer kosmologischen Konstante sei ein großer Fehler gewesen.
     
     
    Note: Seit 1998 wissen wir, dass der Raum nun schon seit etwa 6 Mrd. Jahren sogar  b e s c h l e u n i g t  expandiert. Wenn das noch etwa 100 Mrd. Jahre so bleibt (unser Universum wird dann erst 7 Mal so alt sein wie heute), wird das dazu geführt haben, dass die Lokale Gruppe (das ist der Galaxienhaufen, dem die Milchstraße und Andromeda als größte Mitglieder angehören) zu einer einzigen Galaxie verschmolzen sein wird. Für ihre Bewohner wird rein gar nichts mehr darauf hindeuten, dass es über ihr eigenes Sternensystem hinaus im All noch andere solcher  W e l t e n i n s e l n  gibt. Der Expansion des Raumes wegen werden sie alle dann nämlich schon über den Beobachtungshorizont der Lokalen Gruppe hinausgewandert sein.
     
    Wir dürfen uns also glücklich schätzen, in einer Zeit zu leben, in der uns das Licht anderer Galaxien tatsächlich noch erreicht.

     

     Beitrag 0-251
    Der Kosmologen aktuelles Weltbild

     
     

     
    Unser aktuelles Weltbild

    in den Augen der Theoretischen Physik zu Beginn des 21. Jahrhunderts

     
     


    Alexander Vilenkin, Physiker & Kosmologe (2006):
     
    Seit Jahrhunderten schon streiten sich Philosophen und Theologen, ob das Universum endlich oder unendlich, stationär oder dynamisch, ewig oder vergänglich sei.
     
    Das Weltbild jedoch, das sich nach jüngsten Ergebnissen der Theoretischen Physik abzeichnet hat niemand vorausgesehen: Statt zwischen einander widersprechenden Möglichkeiten eine Wahl zu treffen, scheint es  j e d e r  dieser Möglichkeiten ein Körnchen Wahrheit zuzusprechen:
     
    Im Zentrum der neuen Sicht auf die Welt steht das Bild eines ewig inflationär expandierenden Ozeans von Energie, in dem mit Inseln vergleichbare, in sich abgeschlossene Universen entstehen und vergehen. Jede dieser post-inflationären Welten vergrößert sich schnell, aber noch viele Größenordnungen schneller vergrößern sich die Abstände zwischen ihnen, und so entsteht ständig neuer Raum für weitere Insel-Universen. Ihre Zahl steigt ins Unendliche.
     
    Von innen betrachtet stellt sich jedes dieser Insel-Universen dar als ein grenzenloser Raum, der um jeden seiner Bewohner herum kugelförmige, durch deren Beobachtungshorizont begrenzte Welten beherbergt, die sich überlappen, über deren Grenzen man aber nicht hinaussehen kann.
     
    Die Gesamtheit der ewig inflationär expandierenden, ozeanartigen Raumzeit entstand wahrscheinlich aus einem winzigen Etwas, das auf quantenmecha­nischem Wege aus dem Nichts hervortunnelte und sofort inflationär zu expandieren begann.
     
    Das umfassendste, durch Physik und Kosmologie heute denkbare Universum ist somit ewig, hat aber einen Anfang.
     


     
    Lies mehr dazu in Notiz 0-245 und Vilenkins Buch Many Worlds in One (2006).
     
     
    Es soll nicht verschwiegen werden, dass ein in Vilenkins Buch präsentiertes Argument Mathematiker keineswegs überzeugt und quantenphysikalischer Unbestimmheit wegen auch als nicht nachbesserungsfähig erscheint:
     
    Ich spreche von der Argumentation, mit deren Hilfe Vilenkin und Garriga glauben bewiesen zu haben, dass jeder von uns in der Raumzeit unendlich viele Doppelgänger haben müsse. Ihre Argumentationskette findet sich als finale Version veröffentlicht in J. Garriga & A. Vilenkin: Many Worlds in One, Phys. Review, Vol. D64, p. 043511 (2001), als Entwurf aber auch an Stelle arXiv.
     
    Selbst wenn es keinerlei quantenphysikalische Unschärfe gäbe, müsste ihr Argument "we argued that the number of distinct histories is finite, which allowed us to conclude that there should be regions with histories identical to ours" als nicht schlüssig zurückgewiesen werden. Tatsächlich gefolgert könnte nur werden, dass die endliche Zahl der Historien unendlich vieler Welten zeigen würde, dass mindestens  e i n e  dieser Historien unendlich vielen Welten gemeinsam sein muss.
     
    Das also ist ihr erster Denkfehler. Ein zweiter ist noch weit gravierender:
     
    Heisenbergs Unschärferelation angewandt auf das Paar Energie und Zeitspanne macht uns klar, dass keine Historie — für welch kurzen Zeitraum auch immer — aus nur endlich vielen Ereignissen bestehen kann. Richtig ist vielmehr:
     
    ES GIBT KEINE HISTORIE MIT NUR ENDLICH VIELEN EREIGNISSEN !!!

     
    Damit muss dann aber — im Gegensatz zur Annahme von Vilenkin und Garriga — auch die Zahl möglicher Historien keineswegs endlich sein. Dies gilt für jeden Teilbereich der Raumzeit, in den eine raumzeitliche Kugel mit positivem Radius passt (wie klein auch immer sie sein mag).
     
     
    Leider haben viele Buchautoren, ja sogar der Mathematiker John Barrow, Vilenkins Beweisführung kritiklos übernommen, und so kommt es, dass z.B. Hürtner & Rauner in ihrem Buch Die verrückte Welt der Paralleluniversen (Piper 2009) auf Seite 77 behaupten:

      (1)   In einem unendlichen Weltraum gibt es unendlich viele Gegenden von der Größe unseres beobachtbaren Universums.
      (2)   Weil jede dieser Gegenden nur endlich groß ist, kann sie nur auf endlich viele Arten mit Teilchen gefüllt sein.
      (3)   Daher muss unser Universum da draußen in unendlich vielen Kopien existieren — und in allen Variationen.

    Tatsächlich aber ist nur die erste dieser drei Aussagen richtig. Die beiden anderen sind falsch und somit gilt:
     
     
     
    Vilenkins Argumentation zeigt keineswegs,
     
    dass unser Universum (oder jeder von uns) in unendlich vielen Kopien existiert.

     
     
    Heisenbergs Unschärferelation und die Gesetze der Chaostheorie machen es sogar ganz extrem unwahrscheinlich.


     

     Beitrag 0-252
    Einsteins Gravitationsgesetz zeigt: Auch Druck und Spannung haben gravitative Wirkung

     
     

     
    Einsteins Gravitationsgesetz



    Jörg Resag (2012, S. 26):
     

    Die Gravitationswirkung, die von einen kleinen kugelförmigen Volumenbereich insgesamt ausgeht,
     
    ist proportional zu seiner Energiedichte
     
    zuzüglich dem dreifachen Druck in diesem Bereich.

    Hierbei gilt:
       
    • Die Energiedichte umfasst die Materiedichte gemäß  E = m c2  und ist stets positiv.
       
    • Der Druck in dieser Formel kann sein
         
      •   p o s i t i v e r  Druck (wie bei einem Gas) oder
         
      •   n e g a t i v e r  Druck (wie in einem gespannten Gummi, der sich zusammenziehen möchte).

       
      Die Verdreifachung des Drucks hat ihre Ursache in den 3 Raumrichtungen: Jede Raumrichtung leistet einen eigenen Beitrag.

    Details in Resag.
     


    Bei normaler Materie spielt der Druck im Vergleich zur Energiedichte keine nennenswerte Rolle. Ganz anders ist es z.B. bei einem Neutronenstern oder im Feld der Inflationstheorie:

     
     
    Beispiel 1: Neutronenstern


    Jörg Resag (2012, S. 26):
     
    In einem Neutronenstern ist eine komplette Sonnenmasse [genauer: maximal 1.4 Sonnenmassen] auf nur wenige Kilometer zusammengequetscht. Es gibt keine Atome mehr, denn die Elektronen der Atomhüllen wurden gleichsam in die Protonen der Atomkerne hineingedrückt, so dass der gesamte Stern nun nur noch aus Neutronen besteht.
     
    Die Dichte so eines toten Sterns ist extrem groß und sein Gravitationsfeld schon fast so stark, ihn zu einem Schwarzen Loch zu machen. Damit nichts passiert — sich also Gleichgewicht einstellt — müssen die Neutronen einen extrem starken Gegendruck erzeugen. Sie tun dies aufgrund des Pauliprinzips, [nach dem keine zwei Neutronen ihren Schwerpunkt an genau gleicher Stelle haben können].
     



     
    Beispiel 2: Das Inflatonfeld


    Jörg Resag (2012, S. 27-29):
     
    Bei einem unterkühlten Inflatonfeld ist es genau umgekehrt:
     
    Es möchte sich zusammenziehen, hat also stark negativen Druck. Er ist so stark, dass die von ihm verursachte abstoßende Gravitationswirkung die anziehende der Energiedichte überwiegt (es wird der Druck ja 3-fach gezählt).
     
    Insgesamt führt das zu einer Aufblähung des Raumes.
     
    Man könnte nun vermuten, dass sich das Inflatonfeld seines rasch zunehmenden Volumens wegen schnell ausdünnt und so seine abstoßende Gravitations­wirkung verliert. Das aber ist nicht der Fall, denn da das Feld sich zusammenziehen will, kostet es Energie, das Volumen aufzublähen (so wie es auch Energie kostet, einen Gummi auseinander zu ziehen). Diese Energie fließt ins Inflatonfeld und bewirkt, dass seine auf Expansion des Raumes zielende Kraft erhalten bleibt.
     
    Man kann es auch so ausdrücken:
     
    Da das Inflatonfeld in einem hoch energetischen, metastabilen Zustand gefangen ist und seine Energiedichte trotz Aufblähung des Raumes nahezu konstant bleibt, muss es starken negativen Druck aufweisen, so dass – ihn aufrecht zu erhalten – bei der Raumexpansion Energie zugeführt werden muss. Sie stammt aus der abstoßenden Gravitationswirkung, welche wie eine unerschöpfliche Energiequelle wirkt.
     
    Das unterkühlte Inflatonfeld zeigt sich in Einsteins Gleichungen als (nur fast konstante) kosmologische Konstante — als metastabiles Gleichgewicht.
     
      Dass Einsteins Konstante, von der er später nichts mehr wissen wollte, heute eine Renaissance erlebt, hat einen bestimmten Grund: Die Lösung seiner Gleichungen ist instabil (was Einstein zunächst nicht wusste). Geringe Abweichungen von der angenommenen Materieverteilung führen schließlich doch zu einem expandierenden oder kollabierenden Universum – insofern hatte Einstein Recht, wenn auch eher ungewollt. Denn seine Gleichungen sollten eigentlich ein konstantes Universum beschreiben.

    Die abstoßende Gravitation des unterkühlten Inflatonsfeldes wirkt umso stärker, je aufgeblähter der Raum bereits ist. Daher braucht man zu Beginn einen Raumbereich mit einer kritischen Mindestgröße, um die Expansion zu starten. Was dann passiert ist klar: Dieser Raumbereich bläht sich miz zunehmender Geschwindigkeit auf, und da das Inflatonfeld sich ständig nachbildet und so nahezu konstanten negativen Druck aufweist, wird die abstoßenden Gravitationswirkung ständig stärker, was wiederum die Expansion beschleunigt.
     
    Man nimmt heute an, dass die inflationäre Expansion des durch uns beobachtbaren Raumes über etwa 10-35 sec angehalten hat und sich hierbei sein Volumen alle 10-37 sec verdoppelt hat (so dass es sich ingesamt um einen Faktor zwischen 1030 und 1050 ausgehnt haben sollte. Das also muss man sich als den Urknall vorstellen.
     
      Diese Zahlen sind mit großer Unsicherheit behaftet. Aber schon ein Vergrößerungsfaktor von nur 1030 würde bedeuten, dass sich damals Raumbereiche, deren Größe einem Atom entspricht, zu einer Kugel mit einem Durchmesser von immerhin zehntausend Lichtjahren aufgebläht haben.

    Solange sich das unterkühlte Inflatonfeld im seinem hochenergetischen, metastabilen Zustand befindet, solange hält auch sein negativer Druck, was dazu führt, dass der Raum zunehmend schneller expandiert und immer mehr Gravitationsenergie ins Inflatonfeld übergeht. Die Inflation flaut erst dann ab, wenn der metastabile Zustand zusammenbricht. Erst dann wandelt sich die vom Inflatonsfeld abgegebene Energie in Teilchen um, die wir kennen: vor allen in Quarks und Leptonen, aber wohl auch in Teilchen, die sog. Dunkle Materie darstellen.
     
    Ab diesem Moment — den man dann als Aufheizung (reheating) des Universums bezeichnet, ist der Raum mit extrem heißer dichter Strahlung ausgefüllt. Ihre Gravitationswirkung bestimmt die weitere Entwicklung.
     
    Da wir heute beobachten, dass die Expansion des Raumes sich langsam wieder verstärkt, muss es im Raum etwas geben, das schwache abstoßende Gravitationswirkung hat: sog. Dunkle Energie. Wir wissen heute nicht, was sich dahinter verbirgt.
     


     
    Quelle: Jörg Resag: Zeitpfad — Die Geschichte unseres Universums und unseres Planeten, Springer Spekrum 2012


     

     Beitrag 0-243
    Wie man das Alter der Erde bestimmt und warum wir alle aus Sternenasche bestehen

     
     

     
    Wie man das Alter der Erde bestimmt

    und warum wir Menschen aus Sternenasche bestehen

     
     
    Im Mittelalter versuchten Alchemisten immer wieder, häufig vorkommene (billige) Stoffe in Gold zu verwandeln.
     
    Der Grund, warum sie scheiterten. war — wie uns heute klar ist —, dass sie dazu hätten wissen müssen, wie sich die Zusammensetzung von Atonkernen abändern läasst. Zudem sind für solche Kerntransformation Energien notwendig, welche die im Rahmen einer chemischen Reaktion um das Millionenfache übersteigen.
     
    Solche Portionen von Energie entstehen z.B. bei der Explosion von Wasserstoffbomben, aber nicht im Rahmen natürlicher Prozesse auf der Erde.
     
    Mit winzigen Ausnahmen allerdings: Eine ist der spontane Zerfall radioaktiver Elementein in leichtere. So zerfällt etwa ein Uranatom in durchschnittlich 4.5 Mrd Jahren zu Blei, so dass die Menge allen Urans auf der Erde ständig kleiner wird.
     
    Und so beruhen denn auch unsere besten Schätzungen des Erdalters auf Messungen der relativen Verteilungen von Uran und Blei.

     
    Wie man weiß, entstehen schwere Element ausschließlich in Sternen, deren Inneres schon eine Temperatur von weit über 100 Mio Grad erreicht hat. Wo so ein Stern schließlich als Supernova sein Leben beendet, werden in seinem Inneren des hohen Drucks wegen entstandene schwere Elemente ins All hinaus verstreut.
     
    Und in diesem Sinne ist richtig, was Martin Rees, ein Astrophysiker, schrieb:
     

      Wir sind Sternenstaub — Asche von Sternen, die schon lange nicht mehr existieren.


     

     Beitrag 0-400
    Was man unter einem Vakuum versteht

     
     

     
    Was man unter einem » Vakuum « versteht

     
     
    Ein absolutes Vakuum wäre ein Zustand, in dem nichts existiert, das auf Veränderung drängt.
     
    Beste bekannte Näherung hierfür ist das Vakuum im Sinne der Physik: Ein Zustand, in dem nur noch Quantenfluktuation auf Veränderung drängt.
     
     
    Unter einem » falschen Vakuum « verstehen Physiker einen Zustand, in dem absolutes Gleichgewicht aller auf Veränderung hin drängenden Kräfte herrscht. Es ist instabil, denn es wird schlagartig zusammenbrechen, sobald auch nur eine jener Kräfte irgendwo doch Veränderung herbeiführen kann. Man spricht dann von einem spontanen Bruch der Symmetrie.
     
     
     
     
    Der Quantenphysiker Michio Kaku erklärt es anhand eines Beispiel wie folgt:

    Michio Kaku (2024):
     
    Ein Symmeriebruch ist vergleichbar mit dem Bruch eines Staudamms:
     
    Wasser fließt — getrieben durch die Schwerkraft — bergab, wird sich aber, wo es auf einen Staudamm trifft, sammeln und dort — sozusagen im falschen Vakuum — verharren, bis der Damm zu bröckeln beginnt und schließlich bricht.
     
    Ist das der Fall, wird sich das Wasser in Bewegung setzen bis es Meeresniveau erreicht hat (womit es dann in dem Zustand verbleibt, der dem » echten Vakuum « entspricht).
     



     

     Beitrag 0-245
    Das Vakuum kann sehr unterschiedlichen Zustand haben

     
     

     
    Eigenschaften des Vakuums
     
    und wie sich daraus die Inflationstheorie begründen lässt

     
     
    Wer sich vorstellt, er befände sich weit draußen im Atlantischen Ozean, dem wird klar sein, dass er dort sehen wird
       
    • bei nahezu Windstille nur weit ausgedehnte Wellen geringer Höhe, deren Form sich nur relativ  l a n g s a m  ändert,
       
    • bei Sturm aber Wellen, die sich beinahe senkrecht hoch auftürmen, ihre Form und Höhe aber recht  s c h n e l l  wieder verlieren.

    Die Wellenhöhe über den gesamten Ozean hinweg kann als skalares Feld aufgefasst werden.
     
     
    Ganz ähnlich verhält es sich mit dem Vakuum: Es stellt ein Meer von Energie dar, dessen Dichte ortsabhängig schwankt und — wie die ortsabhängige Wellenhöhe des Ozeans — durch ein Skalarfeld beschrieben werden kann.
     
    So gesehen lässt sich das Vakuum vergleichen mit einer Landschaft, die in weiten Teilen nur wenig Höhenunterschiede aufweist. Jedes Tal in dieser Landschaft der Energiedichte nennen Physiker ein Vakuum.
     
    Ein Vakuum, dessen Energiedichte nahezu null ist, nennt man ein  e c h t e s  Vakuum, ansonsten aber ein  f a l s c h e s  Vakuum.
     
     
    Je höher die Energiedichte eines falschen Vakuums ist, desto  i n s t a b i l e r  verhält es sich — ganz analog zu den Wellen im Ozean, die ja auch, weil dann durch nichts gehalten und zusammengepresst, umso schneller in sich zusammenstürzen, je höher sie wurden.
     
    Inflation im Sinne der Kosmologie ist nichts anderes als der Zusammensturz eines falschen Vakuums: So plötzlich, wie seine Energiedichte abnimmt, so schnell dehnt der Raum sich aus (aus einer steilen, hohen Welle geringen Durchmessers wird fast schlagartig eine flache, weit ausgedehnte).
     
     
    Innerhalb des Beobachtungshorizonts der Menschen — und ganz sicher auch noch weit über ihn hinaus — herrscht derzeit ein echtes Vakuum: Man geht heute (2006) davon aus, dass seine Energiedichte einer Masse von 3 Wasserstoffatomen pro Kubikzentimeter entspricht.
     
    Heutige, erst im Ansatz vorhandene physikalische Theorien kennen noch zwei weitere Vakua (Zustände des Vakuums):
       
    • Das erste von beiden ist das sog. Elektroschwache Vakuum: Ein Zustand des Vakuums, wie er Bruchteile von Sekunden nach dem Urknall vermutet wird.
      Seine Energiedichte entspricht etwa 1019 Tonnen (etwa der Masse des Mondes) pro Kubikzentimeter.
       
    • Das zweite ist der Zustand des Vakuums während der sog. GUT-Ära: Ein noch näher am Urknall vermuteter Zustand, der so energiereich war, dass es noch keinen nennenswerten Unterschied gab zwischen der starken Wechselwirkung einerseits und der elektroschwachen andererseits.
      Ihn kennzeichnet eine Energiedichte, die nochmals um etwa den Faktor 1048 höher ist als die des elektroschwachen Vakuums.

    Wichtig ist:
     
    Typ und Masse möglicher Elementarteilchen sind abhängig vom Zustand des Vakuums

     
     
    Die Rate, mit der der Raum während des Zusammenbruchs eines falschen Vakuums expandiert, ist unverstellbar groß, und die Zeitspanne, in der so ein Zusammensturz erfolgt, ist umso kürzer, je höher die Energiedichte des zusammenbrechenden falschen Vakuums war.
     
    Beim Zusammenbruch des elektroschwachen Vakuums vergrößerten sich alle Abstände im Raum im 13-ten Teil einer Microsekunde um etwa den Faktor 10100. Während des Zusammenbruchs des Vakuums der GUT-Ära war die Expasionsrate, wie man heute denkt, sogar 1026 mal so hoch.
     

     
     
    Das Vakuum: ein Meer von Energie, in dem Welten entstehen

     
     
    Wie oben erklärt, lässt sich der Kosmos — das falsche Vakuum, in dem dann Welten entstehen — gut vergleichen mit einem Ozean von Energie, deren Dichte an jeder Stelle man als lokale "Wassertiefe" sehen könnte.
     
    Dieses Meer von Energie verhält sich analog zu einem Meer aus Wasser:
     
    Wo ein Meer über weite Strecken hinweg wenig tief ist, vielleicht nur Zentimeter tief, können sich selbst bei Sturm keine hohen Wellen bilden.
     
    Ganz analog dazu wird es Inflation im Ozean der Welten vor allem dort geben, wo hohe Energiedichte vorliegt.
     
    Inflation reduziert drastisch die Energiedichte, so dass weit ausgedehnte Regionen geringer Energiedichte entstehen, die evolutionstechnisch gesehen den Weg nehmen, den auch unser Universum genommen hat und noch nehmen wird:
       
    • Erst entstehen Galaxien.
       
    • Da das Vakuum aber auch dort noch nicht all seine Energie abgegeben hat, wird der Raum weiter expandieren, nun aber sehr viel langsamer.
       
    • Dies hat zur Folge, dass sein Inhalt sich über lange Zeiträume hinweg ständig verdünnen wird mit dem Effekt, dass die im Raum und seinem Vakuum vorhandene Energiedichte schließlich asymptotisch gegen Null geht.
       
      Wie Simulation gezeigt hat [ in Vilenkins Buch wird auf den Seiten 99-100 darüber berichtet ] entstehen im falschen Vakuum ständig — gut vergleichbar
      mit aus dem Meer hochsteigenden Inseln — Regionen, in denen die Energiedichte so stark absinkt, dass sich diese Region dann als ein Universum darstellt, welches vergleichbar ist mit dem, in dem wir leben.


     
    Quelle: Alex Vilenkin: Kosmische Doppelgänger, Originaltitel: Many Worlds in One (2006), S. 57-63, 99-100.

     
    Die eben beschriebene Theorie ewiger Inflation erwies sich als eine Ergänzung der Urknalltheorie, welche zusammen mit ihr auch Fragen beantworten kann, auf die vorher niemand eine Antwort wusste. Eben deswegen erscheint sie am plausibelsten, obgleich sie einen Kosmos postuliert, der noch weit komplexer, weit größer und weit erstaunlicher ist, als man bis dahin dachte.
     
    Sie macht insbesondere deutlich, dass der Ursprung allen Lebens (und auch der Zeit) im Vakuum liegt, genauer: in nie aufhörender Quantenfluktuation.

     

     Beitrag 0-320
    Wie groß ist das Multiversum?

     
     

     
    Wie groß ist das Multiversum?

     
     
    Die heute mit Abstand plausibelste Theory über Struktur und Größe des Weltalls insgesamt ist die durch Alan Guth, Andrei Linde und Alexander Vilenkin gefundene bzw. fortgedachte Theorie ewiger Inflation.
     
    Nach ihr, so schreibt der Astrophysiker Paul Davies, muss man sich das Weltall vorstellen als
       
    • einen sich ewig extrem schnell ausdehnenden Raum,
       
    • in dem blasenartig Welten entstehen, die aussehen können wie unser Universum.

    Jede solche Welt ist eine Stelle im inflationierenden Raum, an der die Inflation zum Erliegen kommt, die Inflationsenergie zu Wärme wird und so durch einen Urknall eine Welt gebären kann, in der der Raum sich kaum noch ausdehnt. Details dazu in Notiz Die Grundidee der Inflation des falschen Vakuums.
     
    Selbst wenn sich solche Taschen-Universen (auch Blasen-Universen genannt) kaum noch ausdehen, können sie wirklich extrem groß sein: größer als man sich noch vorstellen kann:
     
    Auf Basis der Theorie durchgeführte Rechnungen ergeben, dass der Durchmesser einer typischen Blase durchaus 10 hoch 10 Milliarden Kilometer betragen könnte (was verglichen mit dem Durchmesser des durch uns beobachtenbaren Universums, der nur etwa 1023 km beträgt, unvorstellbar groß ist: weit größer — ja sogar um viele Größenordnungen größer — als der Unterschied zwischen der Größe eines Elektrons verglichen mit der Größe des beobachtbaren Universums.
     
    Da der Raum zwischen den Blasen weiterhin inflatinär expandiert, ist nicht zu erwarten, das es häufig zu einem Zusammenstoß zweier Blasen kommt. Ganz im Gegenteil: Obgleich, wie wir am Beispiel unseres Universums sehen, die Expansion des Raumes in den Blasen keineswegs ganz aufhören muss, dürfte es so sein, dass die Abstände zwischen den Blasen sich wenigstens alle 10-34 sec verdoppeln. Selbst Licht kann — ausgehend von einer Blase — andere dann nicht mehr erreichen.
     
     
    Zusammenfassend lässt sich feststellen:
       
    • Noch vor 500 Jahren glaubten viele Menschen, dass der Kosmos der nur wenige tausend Kilometer Durchmesser und die Erde zum Mittelpunkt habe.
       
    • Noch Anfang des 20. Jahrhunderts — als man dann schon wusste, dass es der Sonne ähnliche Sterne gibt, die viele Lichtjahre weit von uns entfernt sind — kannte man keinen Unterschied zwischen der Milchstraße und dem gesamten Universum.
       
    • Dass es Milliarden anderer Galaxien gibt, wurde erst klar, nachdem man in den 1920-er Jahren gelernt hatte, die Entfernung bestimmter Sterne (der sog. Cepheiden) von der Erde abzuschätzen. Nun aber — zu Beginn des 21. Jahrhunderts — haben die Dimensionen der Welt, von denen wir ausgehen müssen, einen Sprung ins schier Unermessliche hinein gemacht.

    Vorsicht aber: Die Darstellung von eben ist noch etwas zu einfach. Einsteins Relativitätstheorie nämlich zeigt uns, dass
       
    • es absolute Entfernungen und Zeitabschnitte eindeutiger Länge gar nicht gibt ( sondern nur vom Bezugssystem abhängige Sichten auf zeitliche und räumliche Entfernung ),
       
    • es rein räumliche Abstände nicht gibt ( sondern alle Abstände raumzeitlicher Natur sind, der zweite Kommentar zu [m] diskutiert das )
       
    • und Beobachtern im Inneren einer Blase ihr Durchmesser unendlich groß erscheinen kann, selbst wenn sie von außen betrachtet nur endliche Größe hat.

     
     
    Quelle: Paul Davies: Der kosmische Volltreffer (2008), S. 114 und Fußnote 29 auf S. 346


     

      Beitrag 1149-133
    Der allumfassende Kosmos — ist er eine logische Unmöglichkeit?

     
     
    Henry aus 1149-132:
     
    Da ich nicht davon ausgehe — und der Großteil der Physikergemeinde ebenfalls nicht —, dass der Kosmos aus dem Nichts entstand, sondern möglicherweise aus einer Fluktuation des Vakuums, ...
     


    Das Problem mit dieser Argumentation ist:

    Wenn der Kosmos nicht aus dem Nichts entstand, muss dieses Etwas, aus dem er entstand, sich ja selbst wieder der Frage stellen, wie es zu seiner Existenz kam.
    Man wäre dann also keinen Schritt weiter ...


    Nebenbei: Wenn man unter dem Kosmos wirklich alles versteht, was je war, muss man ja auch jenes Etwas als einen Teil des Kosmos betrachten.
    So gesehen, kann der Kosmos eigentlich niemals entstanden sein (in dem Sinne, dass vorher gar nichts da war).

    Den Begriff "Kosmos" widerspruchsfrei zu definieren scheint fast so unmöglich, wie es unmöglich ist, den Begriff der "Menge aller Mengen" wohldefinert zu haben.

     

      Beitrag 1149-139
    Gibt es Wirkung ohne Ursache?

     
    Stueps aus 1149-136:
    Ein "einfach sein" - ohne weitere Annahme - widerspricht in meinen Augen jeder Logik, und das auf schlimmste anzunehmende Weise. Nachdem alles, aber auch alles der Kausalität verpflichtet ist, ohne jede Ausnahme. Ein einfach "Nichts" dagegen würde ich ohne Weiteres akzeptieren. Mir scheint Hawkings Annahme nur scheinbar logisch, ich vermute sogar einen Zirkelschluss.

    Hallo Stueps,

    nicht jedem Ereignis kann auch eine Ursache zugeordnet werden. Max Born schreibt dazu auf Seite 34 seines Buches [1] folgendes:

    Zitat:
    Die Unmöglichkeit, alle Daten eines Zustandes exakt zu messen, verhindert die Vorherbestimmung des weiteren Ablaufs. Dadurch verliert das Kausalitätsprinzip in seiner üblichen Fassung jeden Sinn. Denn wenn es prinzipiell unmöglich ist, alle Bedingungen (Ursachen) eines Vorganges zu kennen, ist es leeres Gerede zu sagen, jedes Ereignis habe eine Ursache.

    Timothy Ferris sieht das ähnlich. Er meint sogar, dass das Ursache-Wirkungs-Modell könnte auch beim Ursprung des Universums versagen. Er schreibt dazu auf Seite 299 seines Buches [2] folgendes:

    Zitat:
    Ähnlich gibt es in der Quantenmechanik streng genommen keine Ursache für eine bestimmte Vakuumfluktuation, wie etwa die Fluktuation, die einige Varianten der Inflationstheorie als Motor der Schöpfung betrachten, sondern die Schwankungen ergeben sich statistisch. Ein strenges Ursache-Wirkungs-Modell könnte damit sowohl in der Quantenphysik als auch bei der Betrachtung des Ursprungs der Schöpfung versagen. Möglicherweise ist dies kein Zufall, sondern ein Hinweis darauf, dass das Quantenprinzip den Schlüssel zum Verständnis der Genesis birgt.

    Wenn Begriff der Ursache in der Quantenmechanik nur eingeschränkt sinnvoll ist, dann ist m.E. wohl kaum sinnvoll, den Begriff der Ursache sogar auf das gesamte Universum anzuwenden.

    M.f.G. Eugen Bauhof

    [1] Born, Max
    Physik im Wandel meiner Zeit.
    Braunschweig 1983
    ISBN=3-528-08539-8

    [2] Ferris, Timothy
    Chaos und Notwendigkeit.
    Report zur Lage des Universums.
    München 2000
    ISBN=3-426-27078-1
     

      Beitrag 1149-151
    -

     
     
    Stueps aus 1149-145:
    Bauhof aus 1149-139:
    Hallo Stueps,

    nicht jedem Ereignis kann auch eine Ursache zugeordnet werden.

    Hallo Eugen,

    ja, das ist richtig. Seit klar ist, dass die Bellsche Ungleichung verletzt werden kann und wird, ist es wohl sogar so, dass bestimmte Ereignisse keine Ursache haben.


    An Stueps & Eugen:

    Mir scheint, ihr denkt beide etwas zu undifferenziert.


    Zunächst zur Bellschen Ungleichung:
    • Sie (und Aspects Ergebnisse entsprechender Experimente) schließt aus, das es sog. "verborgene Variable" gibt. Das aber bedeutet noch lange nicht, dass bestimmte Ereignisse keine Ursache haben.
    • Beweis: Sind Q1 und Q2 zwei zueinander verschränkte Quanten und stellt man zunächst Q1 eine Messfrage, so wird — wenn man kurze Zeit später Q2 dieselbe Frage stellt — die Antwort beider identisch sein (aber zufällig in ihrem Wert).
      Irgendwie also muss das Wissen über die Antwort, die Q1 gab, bis zu dem Zeitpunkt, zu dem man Q2 dieselbe Frage stellt, erhalten geblieben sein.

    Nun zur Antwort auf eine Messfrage:
    • Die Antwort, die Q1 gibt, ist aus Sicht der Experimentalphysik ihrem Wert nach zufällig. Aber ist sie wirklich  a b s o l u t  zufällig? Mindestens zwei Argumente sprechen dagegen:
    • Ist Q1 ein Photon, welches nach seiner Ploarisationsrichtung gefragt wird, so wird — wenn man nach exakt derselben Ausrichtung zweimal hintereinander frägt —, die zweite Antwort mit der ersten übereinstimmen.
      Auch hier also sehen wir: Irgendwie hat die Antwort auf die Frage Q1 doch bleibend geprägt.
    • Was aber war denn eigentlich die absolut  e r s t e  Frage? Antwort: Wir können es nicht wissen, denn da es ja überall Quantenfluktuation gibt, ist die Wahrscheinlichkeit groß, dass die erste Interaktion von Q1 mit einer "Messapparatur" seine Interaktion mit einem virtuellen Teilchen war.
    • Konsequenz daraus: Da Quantenfluktuation ihre Begründung in Heisenbergs Unschärfe-Relation hat — sie wird durch sie, wenn man jenes Gesetz als Unbestimmtheits-Relation sieht, ja geradezu  e r z w u n g e n  —, scheint auch die Zufälligkeit, mit der sich auf eine bestimmte an Q1 gestellte Messfrage eine ganz bestimmte Antwort ergibt, letztlich aus der Unschärfe-Relation zu kommen. Und zwar einschließlich der konkreten Wahrscheinlichkeit, mit der sich so ein Wert ergibt.
    • Ursache aller Zufälligkeit ist deswegen ganz eindeutig die Unschärfe-Relation.
    • Besonders interessant daran ist, dass jene Zufälligkeit umso gravierender (um nicht zu sagen umso chaotischer) wird, je kleinere Deltas man betrachtet.
      Hier ein Beispiel: Heisenbergs-Unschärferelation gilt z.B. auch für das Paar ( Energie, Zeit ), wo die Zeitunschärfe die Zeit ist, die der Schwerpunkt einer Teilchenwelle benötigt, die Ortsunschärfe zu durchlaufen (siehe Hees).
      Das aber bedeutet: Je kleiner die Ortsunschärfe ist, die man betrachtet, desto höher wird die Gesamtenergie aller an diesem Ort in diesem Zeitabschnitt ent­stehender und vergehender virtueller Partikel sein (und desto wahrscheinlicher ist es, dass es unter ihnen auch beliebig schwere, dann aber auch entsprechend kurzlebige geben wird). Wenn wir jetzt also z.B. ein Elektron an bestimmtem Ort beobachten, kann man über Feynman-Diagramme beschreiben, welche Wahr­scheinlichkeit besteht, dass es in welcher aller möglichen Weisen mit virtuellen Partikeln welcher Art interagiert. Natürlich gibt es unendlich viele solch möglicher Interaktionen und daher auch unendlich viele solcher Diagramme. Nun ist aber der Beitrag zur Situation, den eine solche Möglichkeit liefert, umso geringer, je komplizierter das jeweilige Diagramm ist. ...

    Gruß, grtgrt
     

      Beitrag 1149-152
    -

     
     
    Henry aus 1149-150:
     
    Es stellt sich nicht die Frage nach einer weiteren "ersten Ursache", das Chaos ist vollkommen a-kausal, es ist aber nicht "Nichts".

    Hallo Henry,

    genau  w e i l  das Chaos nicht "Nichts" ist, stellt sich die Frage nach seinem Entstehen sehr wohl.

    Das Chaos, so sagst Du ja ganz richtig, ist ein Etwas. Ein Etwas halt, dass sich dadurch auszeichnet, dass es völlig oder fast ohne Ordnung ist.

    Gruß, grtgrt
     

      Beitrag 1149-153
    Der Kosmos (in der weitesten Interpretation dieses Wortes)

     
     
    Henry aus 1149-150:
     
    "Kosmos" steht ursprünglich für das "Geordnete", als Gegensatz zum Chaos. Klar, ich verwende es synomym zu Universum und verstehe darunter all das, was innerhalb der Raumzeit physikalisch begreifbar ist, aber das sehe ich nicht aus eigener Definition heraus so, sondern das ist "kosmologisch-physikalischer Usus".


    Nun, Henry,

    du verwendest die Worte "Kosmos" und "Universum" synonym.

    Die Stringtheorie lehrt mich, dass man das nicht tun sollte: Unser Universum (als Raumzeit) könnte eines unter sehr vielen sein, die parallel zueinander existieren.
    Sie alle zusammen würden das bilden, was ich als "Kosmos" bezeichne.

    Lisa Randall geht noch weiter: Sie vergleicht Universen im Sinne der Stringtheorie mit Quallen in einem großen Meer, das sie dann "Bulk" nennt.
    Auch jener "Bulk" wäre Teil dessen, was ich als den "Kosmos" bezeichne":

    Für mich ist der  K o s m o s  wirklich ALLES, was existiert ("anfassbar" oder auch nur rein gedanklich).


    Beispiel und Konsequenz daraus:
    • Logiker haben gezeigt, dass die logische Welt, in der wir normalerweise argumentieren, keineswegs die einzige ist. So hat ein Hochschullehrer mir mal gesagt, dass ein gewisser Cohen — ein ganz berühmter Logiker — einen Kalkül, eine formale Logik also, konstruiert habe, unter der die Menge der rationalen Zahlen NICHT mehr abzählbar ist. Wer Cantors Diagonalverfahren kennt — seinen Beweis für die Abzählbarkeit der Menge aller rationalen Zahlen — dem wird klar, dass diese seltsame Logik, wenn es sie denn wirklich geben sollte, nicht verträglich sein kann mit der, die wir als Physiker oder Mathematiker sonst nutzen (und als Standardlogik sehen).
      Die Stringtheoretiker behaupten, dass schon in der Welt der Standardlogik etwa 10500 verschiedene Typen von Universen existieren könnten (so dass keine zwei dieser Typen exakt gleiches physikalisches Geschehen erlauben). 2005 wurde nachgewiesen, dass es sogar unendlich viele sind.
      Da muss man sich jetzt also doch einfach die Frage stellen, wie viele noch ganz anderer Typen von Universen und physikalischer Gesetze denn nun unter je einer Non-Standard-Logik existieren könnten.
    • Noch krasser: Es scheint nicht ausgeschlossen, dass es unendlich viele zueinander nicht äquivalent Non-Standard-Logiken gibt.
    • Der  K o s m o s  in meinem Sinne beinhaltet auch noch all das, was in allen nur möglichen  l o g i s c h e n  Welten existieren könnte (weil all dieser Logik ja Existenz zukommt — und sei es nur gedankliche).

    Gruß, grtgrt
     

      Beitrag 1149-154
    -

     
     
    Bauhof aus 1149-149:
    Grtgrt aus 1149-148:
     
    Wie man auch denkt, es bleibt immer die scheinbar unauflösliche Frage nach der Existenz (dem existent-Werden) der  a l l e r e r s t e n  Ursache.

    Hallo Grtgrt,

    fragen kann man ja danach.
    Meine Antwort: Es gibt keine allererste Ursache. Wer glaubt, es gibt ein solches Ding, der muss die möglichen Raumzeit-Koordinaten dieses Ereignisses nennen.

    M.f.G. Eugen Bauhof


    Hallo Eugen,

    wie schon die Stringtheorie uns nahelegt, könnte der Raum, den wir als unsere "Raumzeit" bezeichnen, nur eine kleine Blase in einem fast unendlich viel größeren Gesamtkosmos sein. Dass das  n i c h t  so sein kann, müsste mir erst mal jemand beweisen.

    Nebenbei: Was macht dich so sicher, dass es nicht auch Welten ohne Zeit (in unserem Sinne) gibt?

    Gruß, grtgrt
     

      Beitrag 1149-156
    -

     
     
    Bauhof aus 1149-155:
    Grtgrt aus 1149-154:
     
    ...wie schon die Stringtheorie uns nahelegt, könnte der Raum, den wir als unsere "Raumzeit" bezeichnen, nur eine kleine Blase in einem fast unendlich viel größeren Gesamtkosmos sein. Dass das  n i c h t  so sein kann, müsste mir erst mal jemand beweisen.
     

    Hallo Grtgrt,

    eine sehr seltsame Argumentation.
    Derjenige, der die Theorie aufstellt, dass unser Universum nur eine kleine Blase in einem fast unendlich viel größeren Gesamtkosmos ist, der hat m.E. die Beweispflicht. Und nicht derjenige, der das anzweifelt.

    Diese Argumentation finde ich genau so schlimm wie z.B. die "Argumentation" eines Religionsfanatikers, der vom Rest der Welt verlangt: Beweist doch, dass Gott nicht existiert!

    Hallo Eugen,

    diese Argumentation ist die von Lisa Randall — als Religionsfanatiker kann man die auf keinen Fall bezeichnen.

    Gruß, grtgrt
     

      Beitrag 1149-157
    -

     
     
    Bauhof aus 1149-155:
    Grtgrt aus 1149-154:
     
    Was macht dich so sicher, dass es nicht auch Welten ohne Zeit (in unserem Sinne) gibt?

    Auch das ist wieder eine missglückte Rhetorik von dir. Ich habe noch nie über Welten ohne Zeit nachdacht, geschweige denn, dass ich hier erwähnt hätte, dass es solche Welten gibt oder nicht gibt.

    Du eröffnest in deinen meisten Beiträgen dauernd neue thematische "Nebenkriegsschauplätze", die nur Verwirrung stiften und vom Thema ablenken.

    M.f.G. Eugen Bauhof


    Hallo Eugen:

    Mir scheint, der Zweck eines Forums (wie diesem hier), sollte es durchaus auch sein, Türen hin zu neuen Ideen zu öffnen.

    Wie tragfähig so eine Idee ist, kann man i.A. erst gegen Ende der Diskussion beurteilen.

    Stell dir mal vor, Louis de Brouglie hätte seine Idee der Materiewellen hier zum ersten Mal ausgebreitet. Ich bin ganz sicher, du hättest ihn ebenso harsch kritisiert wie jetzt mich. Utopisch genug hat seine Idee ja geklungen, oder?


    Gruß, grtgrt
     

      Beitrag 2049-1
    Kann es neben unserem Universum (als Raumzeit-Raum) noch andere geben?

     
     


    Was über unser Universum hinaus noch existieren könnte


    Ausgangspunkt dieses Diskussionsfadens ist der Meinungsaustausch in Beitrag 1149-153

    ( gefolgt von Eugen Bauhofs Metakommentaren in 1149-160 und 1149-161 )



    Henry aus 1149-162:
     
    Gebhard,

    es geht mir überhaupt nicht um die Stringtheorie, es geht um alle Baby-, Mutter-, Onkel- und sonstige Universen sowie für als real behauptete Dimensionen (aufgerollt von mir aus) und alle "Vielwelten" und was da sonst noch die Multiversen bevölkert und der Spekulation Tür und Tor öffnet.

    Für mich ist UNSER Universum der Maßstab, selbst wenn der im höchsten Maße unwahrscheinliche Fall eines Beweises für die Existenz weiterer Universen vorgelegt werden sollte, und es ist mir piepegal, was irgendwelche "Logiker" von sich geben. Das ist MEIN Kosmos, ist mein ALLES, ist unsere Zeit und unser Raum, und damit beschäftigt sich ursächlich im Übrigen auch die Stringtheorie, und auf deine Interpretation lasse ich mich nicht ein, das ist, was ich gemeint habe. Und das hat überhaupt nichts damit zu tun, ob ich Spekulationen ablehne oder nicht – ich lehne sie nicht ab, aber ich nehme sie als das, was sie vorläufig und bis zum Beweis des Gegenteils sind: eine Spielerei, die mit dem nachweisbaren Hier nichts zu tun haben.

    Henry aus 1149-162:
     
    Dass die Stringtheorie für die "Welt der Standardlogik" etwa "10 hoch 500" Universen für möglich hält, ist doch völliger Humbug (in dem Sinne, das die Stringtheorie erst diese Möglichkeit eröffnet hätte).

    Basis der Stringtheorie sind mathematische Gegenstände — und NUR solche, die mit Hilfe unserer Standardlogik definiert und diskutiert werden. Damit ist natürlich auch alles, was die Stringtheorie für möglich hält auf diese Standardlogik gegründet.


    Henry aus 1149-162:
     
    Dass Universen existieren könnten, hat erstens mit Logik überhaupt nichts zu, so wie man grundsätzlich Existenz nicht auf Logik gründen kann, und ist zweitens keine Behauptung, die sich aus der Stringtheorie als Folge der Stringtheorie ergibt. Die Springtheorie widerspricht nicht solchen Spekulationen, ...

    Dass bislang unentdeckte Universen existieren könnten, wird uns NUR durch logisches Nachdenken nahegelegt.
    Und natürlich widerspricht die Stringtheorie solcher Schlußfolgerung nicht, denn es war ja sie, die uns diese Schlußfolgerung zum ersten Mal mathematisch begründet nahegelgt hat.


    Henry aus 1149-162:
     
    Die Möglichkeit vieler Universen ist eine uralte Möglichkeit und wurde schon von der Alten Griechen in Erwägung gezogen, die "Viele-Welten-Theorie" stammt aus den 50gern des letzten Jahrhunderts und hat – ich muss mich wiederholen – nichts mit der Stringtheorie zu tun.

    Ich persönlich glaube nicht an Everetts Viele-Welten-Theorie. Und mit Stringtheorie hat sie rein gar nichts zu tun.

    Auch an was griechische Philosopen vor gut 2000 Jahren gedacht haben mögen, hat nichts mit dem zu tun, was die moderne Theoretische Physik als möglich erachtet (vor allem auf Anregung der Stringtheoretiker hin).


    Gruß, grtgrt
     

      Beitrag 2049-4
    -

     
     
    Wrentzsch aus 2049-2:
     
    Der Begriff Universum bezieht sich auf alles Existierende, unabhängig vom Standort.

    Hi Wrentzsch,

    bitte sei daran erinnert, dass ich die Begriffe "Universum" und "Kosmos"  d e f i n i e r e  wie folgt:
    • Der   K o s m o s  ist ALLES, was existiert (in dem Sinne, dass es nichts sonst geben kann). Sollte es also z.B. einen Schöpfergott geben, so wäre der mit ein Teil des Kosmos in meinem Sinne.
    • Ein   U n i v e r s u m  ist ein Raum von Typ Raumzeit (z.B. eine Lösung der Stringtheorie, die genau einem Wert der String-Kopplungskonstanten entspricht). Ich sage ausdrücklich "z.B.", da ich  n i c h t  voraussetzen möchte, dass jedes Universum durch Stringtheorie beschreibbar ist.

    Gruß, grtgrt
     

      Beitrag 2049-9
    Multiversum und nebeneinander existierende Welten

     
     
    Hans-m aus 2049-7:
     
    wenn wir uns Gedanken über mögliche Paralleluniversen machen dann müssen wir auch bedenken, was diese anderen Universen für unser Universen bedeuten.

    Unser Universum existiert in unserer Raumzeit.


    Hallo Hans-m,

    es ist wichtig, zu verstehen, dass unsere Raumzeit — mit allem, was darin existiert — exakt unser Universum ist.

    Ein Teil dieses aus mathematischer Sicht in sich komplett abgeschlossenen Raumzeit-Raumes ist das uns sichtbare Weltall (das eine gedachte Kugel um unsere Erde herum darstellt, die derzeit einen Durchmesser von ca. 46 Mrd. Lichtjahren hat). Licht von Sternen, die sich außerhalb dieser Kugel befinden, kann uns nicht mehr erreichen.

    Wenn ich jetzt von möglichen weiteren Universen spreche, dann wären die ganz analoge Gebilde ( fast sicher mit je einem eigenen Zeitbegriff, der mit unserem möglicherweise überhaupt nicht in Beziehung setzbar ist ).

    Das jedenfalls ist die Sicht der M-Theory (Standard-String-Theorie).


    Lisa Randalls Idee (Non-Standard-String-Theorie) ist schon etwas anders:

    Sie hat, gemeinsam mit anderen, eine Theorie entwickelt, nach der nebeneinander existierende Universen eher vergleichbar sind mit sehr kleinen Inseln in einem weiten Ozean. Diese Inseln sind so weit voneinander entfernt, dass mögliche Bewohner einer solchen Insel — z.B. der, die unser Universum darstellt — die Existenz noch anderer Inseln höchstens vermuten können.

    Auf jeder dieser "Inseln" existieren andere physikalische Gesetze, was darin begründet ist, dass physikalische Grundkonstanten dort anderen Wert haben. Insbesondere kann das Verhältnis der Stärke der 4 Grundkräfte auf all diesen Inseln verschieden sein.

    In diesem Ozean, den man dann ein Multiversum nennt, existiert dennoch ein Zusammenhang zwischen jenen Inseln: Ganz so wie auch zwischen weit auseinander liegenden kleinen Inseln im pazifischen Ozean einen Verbindung besteht: Da der Pazifik nur endliche Tiefe hat, könnte ein automatisch gesteuertes Gerät, am Boden des Ozeans entlang wandern, die andere Insel erreichen.

    Kurz: Jede dieser Inseln entspricht einem im ganzen Mulitversum existierenden Wellenpaket. Als Insel zeigt es sich nur dort, wo es Werte annimmt, die nicht extrem klein sind.


    Noch ganz anders &mdash und NICHT auf Stringtheorie beruhend — ist Bojowalds Theorie:

    Seine Theorie (erstmals publiziert in 2004) ist die erste, in der von 2 Welten die Rede ist, die unterschiedlichen Zeitbegriff haben und deren Zeitpfeil unterschiedliche Richtung hat.
    Es scheint so, als sei die eine aus der anderen geboren. Ich persönlich könnte mir auch vorstellen, dass man sie vielleicht als Zwillinge betrachten kann, die aus ein und demselben Ereignis — einem Ereignis außerhalb unserer Raumzeit — geboren wurden. Es endet in dem, was aus unserer Sicht der Urknall ist, in dem unser Universum entstand.


    Hans-m aus 2049-7:
     
    Wenn es jetzt noch ein oder mehrere andere Universen gäbe, dann bedeutet dies, dass die Universen zur gleichen Zeit wie das unsere existieren.

    Somit würde das/die anderen Universen zumindest die Zeitachse der Raumzeit mit uns gemeinsam haben.

    Diese Aussagen ergeben keinen Sinn, wenn — wie eben erklärt — "nebeneinander" existierende Universen unterschiedlichen Zeitbegriff haben.

    Sie würden höchstens Sinn machen in dem Spezialfall, in dem ein im Multiversum existierendes Wellenpaket mehrere Spitzen hat (und so eine ganze "Inselgruppe" im "Ozean" darstellt): Wenn diese Inseln nicht allzu weit auseinander liegen, könnten sie noch gleichen — oder annähernd gleichen — Zeitbegriff haben.


    Hans-m aus 2049-7:
     
    Wenn die Universen neben unserem existieren, dann gäbe es auch ein ausserhalb unseres Universums.
    Dies wäre dann aber nicht im Sinne unsere 3-dimensionalen Denkweise sondern in der n-ten Dimension neben uns.

    Das sehe ich auch so.


    Hans-m aus 2049-7:
     
    Wenn es aber Universen jenseits unserer Raumzeit gibt, gab oder geben wird, könnten wir dann behaupten, dass diese Universen parallel zu unserem existieren, wenn diese ihre eigene Raumzeit haben und nicht neben unserem existieren und auch ihre eigene Zeitachse haben.

    Begriffe wie "gibt" oder "gab" machen keinen Sinn, wenn man von Universen spricht, deren jedes einen eigenen Zeitbegriff haben kann (und selbst dort, wo sie sich berühren — wie in Bojowalds Theorie) unterschiedliche Richtung des Zeitpfeils haben können.

    Der Begriff   Z e i t p f e i l  ist zu verstehen als die Richtung, die von Ursache zur Wirkung führt.


    Gruß, grtgrt

    PS: Das Wort "Viele-Welten-Theorie" sollte man vermeiden, denn es ist fest vergeben für Everetts Theorie.

    Sie hat mit einem "Multiversum" oder "nebeneinander existierenden Universen" im oben diskutierten Sinn rein gar nichts zu tun. Man sollte sie eher sehen als eine gedankliche Krücke, als Bild also, dessen Qualität gut vergleichbar ist mit der Qualität der Bilder "Schrödingers Katze" und "Überlagerungszustand".

     

      Beitrag 2049-24
    -

     
     
    Hans-m aus 2049-23:
    Ich glaube du hast meine Aussage nicht verstanden.

    Wenn ich frage ob ein Paralleluniversum existiert, dann bezieht sich meine Frage darauf, ob jetzt ein solches existiert.
    Wenn aber etwas zur gleichen Zeit wie unser Universum existiert, dann vergeht dort die Zeit ähnlich, wie in unserem Universum.
    und wenn dieses Univerum auch morgen noch existiert, dann sind beide Universen, unseres und das parallele, zumindest einen Tag lang Zeitsynchron.


    Hallo Hans-m,

    schon in unserer eigenen Welt gilt: Es gibt  k e i n e n  globalen Zeitbegriff (so zeigt die ART).

    Der Begriff » zur gleichen Zeit « macht also schon in unserer Welt nur Sinn, wenn die beiden Ereignisse, von denen man spricht, extrem kleinen Abstand unter der Minkowski-Metrik haben.

    Über verschiedene Raumzeit-Räume (getrennte Universen) hinweg gedacht macht er noch viel weniger Sinn. Es gibt ihn da einfach nicht.

    Gruß, grtgrt
     

      Beitrag 2049-30
    Parallel-Universen

     
     
    Okotombrok aus 2049-28:
    Grtgrt aus 2049-27:
     
    Streng genommen muss der Abstand genau null sein (so dass beide Ereignisse am selben Ort stattfinden).

    ist jedenfalls Unsinn.

    Du musst deine persönlichen Ansichten hier nicht immer als allgemeingültig verkaufen.
    Formulierungen wie "nach meiner Ansicht" oder "meinem Verständnis nach" wären 'mal angebracht.

    mfg okotombrok


    Hallo Okotombrok,

    ich denke nicht, dass das Unsinn ist, denn auch in der SRT gibt es keine  b e o b a c h t e r - u n a b h ä n g i g e  Gleichzeitigkeit für Ereignisse, die nicht am selben Ort stattfinden.

    Gruß, grtgrt
     

    PS: Es sei hier nochmals ausdrücklich festgestellt, dass all meine Beiträge — soweit sie niemand anders zitieren — natürlich vor allem  m e i n e  Meinung darstellen. Und ich will keineswegs behaupten, dass ich mich nicht auch mal irren kann. Deswegen aber gleich jeden Beitrag mit dem Satz zu beginnen "Wenn ich mich nicht irre, ..." scheint mir nicht notwendig. Es wird schon jeder Leser selbst wissen, dass diese Einschränkung natürlich immer gilt.

    Im übrigen lese ich selbst die Beiträge anderer ja auch nur in diesem Sinne.

     

      Beitrag 2049-33
    -

     
    Grtgrt aus 2049-31:
    Hallo Hans-m,

    wo man von "Parallel-Universen" spricht, ist das Wort "parallel" nicht wörtlich zu nehmen. Es bedeutet dann nur

    "Es gibt das eine Universum und das andere;
    Aber nach allem, was wir derzeit wissen, gibt es kein Koordinatensystem, in das sich beide einordnen."


    Zeitlich miteinander irgendwie in Verbindung bringen könnte man zwei solche Universen somit nur dann, wenn das eine die Ursache für die Existenz des anderen — oder für ein Ereignis im anderen — erzeugt hat. Denn Zeit als solche kann man dann wirklich nur noch als Übergang von Ursache nach Wirkung sinnvoll definiert sehen.

    Gruß, grtgrt
     
    Ich glaube ich wurde noch immer nicht verstanden.
    Aber von Deinem Wortlaut kannst Du ableiten, was ich meine
    Du sagst: Es gibt das eine Universum und das andere;
    ich ändere etwas ab:
    Es gibt / es gab, es wird geben. das eine Universum und das andere;

    Wenn wir sagen es gibt, dann treffen wir auch die Aussage, dass das andere Universum jetzt existiert.
    Ex existiert während unserer Raumzeit, selbst dann, wenn es mit unserer Raumzeit nicht wechselwirken kann.

    Wenn aber etwas ausserhalb unserer Raumzeit existiert, dann können Ausdrücke wie Es gibt / es gab, es wird geben. nur falsch sein. Unser Wortschatz gibt kein Wort her, das etwas ausserhalb unserer Raumzait als existent definiert, denn ist, war oder wird sein bezieht sich auf zeitliche Abläufe in unserer Raumzeit.
     

      Beitrag 2049-34
    -

     
    Hans-m aus 2049-33:
    Wenn aber etwas ausserhalb unserer Raumzeit existiert, dann können Ausdrücke wie Es gibt / es gab, es wird geben. nur falsch sein. Unser Wortschatz gibt kein Wort her, das etwas ausserhalb unserer Raumzeit als existent definiert, denn ist, war oder wird sein bezieht sich auf zeitliche Abläufe in unserer Raumzeit.

    Hallo Hans-m,

    genau so sehe ich das auch.
    Ich will noch ergänzen, dass nicht nur unser Wortschatz nichts dafür hergibt, dass außerhalb unserer Raumzeit etwas existiert, sondern auch der derzeitige Stand der astronomischen Forschung gibt nichts dafür her, dass außerhalb unserer Raumzeit etwas existiert. Es ist alles nur hochspekulativ.

    Wir haben schon große Mühe, das zu verstehen, was sich innerhalb unserer Raumzeit abspielt. Welchen Erkenntnisgewinn soll es bringen, sich mit Dingen zu beschäftigen, die höchstwahrscheinlich niemals verifiziert werden können?

    M.f.G. Eugen Bauhof
     

      Beitrag 2049-36
    -

     
     
    Hans-m aus 2049-33:
     
    Wenn aber etwas ausserhalb unserer Raumzeit existiert, dann können Ausdrücke wie Es gibt / es gab, es wird geben. nur falsch sein. Unser Wortschatz gibt kein Wort her, das etwas ausserhalb unserer Raumzeit als existent definiert, denn ist, war oder wird sein bezieht sich auf zeitliche Abläufe in unserer Raumzeit.

    Hallo Hans-m,

    du hast völlig recht, und deswegen hätte ich schreiben sollen (und das war tatsächlich gemeint):


    Wir können über ein Universum sprechen oder über ein anderes;
    Aber nach allem, was wir derzeit wissen, gibt es kein Koordinatensystem, in das sich beide — zeitlich und/oder örtlich — einordnen.



    Danke für die Richtigstellung,
    mit besten Grüßen
    grtgrt
     

      Beitrag 2049-41
    In anderen Universen ...

     
     
    Hans-m aus 2049-40:
     
    In anderen Universen könnte alles ganz anders sein.

    Wir können nicht einmal sagen, ob in anderen Universen Quarks, Atome, Photonen... etc existiern. Der Raum könnte, im Unterschied zu unserem 3-Dimensionalen Raum, sogar 5 oder 8 oder n-Dimensionen haben.

    Selbst die Zeit, die bei uns 1-dimensional ist, könnte "drüben" 2 oder mehrdimensional sein. Die Zeit könnte, nicht wie bei uns, als Linie verlaufen, sondern als Fläche, die, ähnlich einer Wellenfront voranschreitet. und..und...und.

    Ich denke unser Menschverstand reicht nicht aus, um sich das vorzustellen, was jenseits unsere Raumzeitgefüges existieren könnte.
    Unsere Vorstellungskraft muss sich von der 3-dimensionalen Raumvorstellung (bzw 4-dimensionale Raumzeit) loslösen, die unseren Vorstellungshorizont begrenzt.
     


    Ja, ich denke auch, dass man das so sehen sollte.

    Die einzige Randbedingung, die bisher  a l l e  theoretischen Physiker als unumstößlich sehen, ist die Gültigkeit der Standardlogik (und damit auch die Gültigkeit aller uns bekannten mathematischen Gesetze) im gesamten Kosmos.

    Ich selbst beginne mich zu fragen, ob man selbst davon wirklich ausgehen darf.

     
    Siehe auch: Welcher Teil der Mathematik ist absolutes Axiom?

     

      Beitrag 2049-47
    -

     
     
    Hans-m aus 2049-46:
    Bauhof aus 2049-44:
     
    Ja, alle mögliche Parameter könnten anders sein, aber nur eines nicht: Die Gesetze der Quantenmechanik. Sie sind universell. Wenn sie hier gelten, dann müssen Sie auch anderswo gelten. Wenn nicht, dann wäre die Quantenmechanik grundsätzlich falsch. Und das ist sie nicht.

    Unser Universum entstand offensichtlich nach den Gesetzen der Quantenmechanik und diese Quantenmechanik ist in "unseren Genen", sprich in unseren Naturgesetzen verankert.

    Es kann aber, neben der Quantenmechanik, noch ganz andere Entstehungsursachen geben, die den "Genen" unseres Universums unbekannt sind.


    Auch hier, Hans-m, kann ich Dir nur zustimmen.

    Gruß, grtgrt
     

      Beitrag 2049-42
    -

     
     
    Niels Bohr sagte mal:

    Wer wirklich Neues entdecken will, kann nicht verrückt genug sein!



    John Archibald Wheeler — der ein Schüler Bohrs war — dachte ebenso (obgleich Hugh Everetts Theorie der vielen Welten ihn doch hat zögern lassen).

    Nebenbei: Niels Bohr hatte einen Sohn — Aage Bohrs —, der auch den Nobelpreis gewann.

     

      Beitrag 2049-45
    Worte — Konzepte — Logiken

     
     
    Henry aus 2049-43:
    Hi, Eugen!

    Du schreibst sinngemäß: "Uns fehlt der Wortschatz, um über ein » Außerhalb der Raumzeit « zu sprechen".
    Dem kann ich mich nur eingeschränkt anschließen. Wir haben schon den nötigen Wortschatz, nur sind die Wörter in ihrer Bedeutung naturgemäß schon belegt.


    An Henry & Eugen:

    Was ihr beide hier ansprecht, ist ein recht interessanter Punkt, den man aber richtig verstehen sollte.


    Henry, so könnte man sagen, hat hier einen konkreteren "Wortschatz" im Auge als Eugen:

    Eugen denkt eher an  K o n z e p t e , Henry eher an  W o r t e , die diese Konzepte (z.B. in einer bestimmten Sprache) benennen.



    Ich meine das wie folgt:

    Wo die theoretische Physik über hochspekulative Dinge spricht (z.B. über solche, die außerhalb unseres Universums existieren könnten), besteht sie rein nur aus Begriffen basierend auf einer ganz bestimmten Logik — bislang nur auf jener, die unsere Standardlogik ist. Allgemeinere Logiken, oder solche die nicht notwendig kompatibel zur Standardlogik sind, gibt es nur im Elfenbeinturm mathematischer Grundlagenforschung: dort also, wo Physiker (noch) nicht hinsehen.

    Damit haben wir 3 mögliche Ebenen von Konkretheit, die ein "Wortschatz" ( als Vertreter einer Begriffswelt ) haben kann:
    • Ein bestimmtes Modell M
    • Die durch M vertretende Isomorphieklasse (bzw. Dualitätsklasse): class(M)
    • Die Logik, die wir benutzt haben, um M und class(M) zu konstruieren.

    und dem entsprechend lässt sich feststellen:
    • M beschreibt Dinge D (den Wortschatz im Sinne von Henry),
    • Übergang von M zu class(M) bedeutet, jedes solche D als Implemntierung eines entsprechenden Konzeptes K(D) zu sehen. Diese Konzepte entsprechen dem Wortschatz im Sinne von Eugen.
    • Was D und K(D) aber wirklich ist, definiert vor allem die Logik, in deren Rahmen beide diskutiert werden (und mit deren Hilfe sie konstruiert wurden).

    Gruß, grtgrt

    PS: Der Unterschied zwischen Isomorphie einerseits und Dualität andererseits ist in Beitrag 2049-21 erklärt.
     

      Beitrag 2049-10
    Korrekte Einordnung der Viele-Welten-Theorie von Hugh Everett III

     
     
    Henry aus 2049-8:
     
    Die Viele-Welten-Theorie und Stringtheorie beschreiben beide in Bezugnahme auf die Quantenmechanik die Möglichkeit weiterer Universen, wobei die Viele-Welten-Theorie explizit genau deshalb entwickelt wurde, die Stringtheorie aber ganz sicher nicht.


    Henry,
    das ist so nicht richtig, denn:

    Everetts Viele-Welten-Theorie ist nur eine gedankliche Krücke, ein Bild, das man ebenso wenig wörtlich nehmen darf, wie das Bild von "Schrödingers Katze" oder den Begriff "Überlagerungszustand".

    Auch deine Aussage "Die Entwicklung der Viele-Welten-Theorie beruht auf der Annahme, es gäbe VERBORGENE VARIABLEN" halte ich für absolut falsch. Woher nimmst Du diese Vermutung?

    Tatsache ist:

    Es gibt kein einziges Indiz dafür, dass Everetts Viele-Welten-Theorie zutreffen könnte (!).


    Dass sie überhaupt entstand — und auch Everetts Doktorvater, John Archibald Wheeler, zunächst nicht so recht wusste, was er davon halten sollte, und sich deswegen erst etwa zwei Jahrzehnte später entschieden von ihr distanziert hat — lag einfach nur daran, dass man zur Zeit ihres Entstehens den sog. Kollaps der Wellen­funktion noch zu wenig verstanden hatte. Bitte lies dazu » Der Kollaps der Wellen­funktion: Allzu oft missverstanden! «.

    Dass Everetts Theorie heute immer noch ernsthaft Erwähnung findet, ist nicht zun verstehen. Zur Ehre der Physiker, die noch davon sprechen, muss aber gesagt werden, dass sie Everetts Idee heute nicht mehr als Theorie, sondern nur noch als Interpretation bezeichnen. Nur Autoren, denen es vor allem darum geht, ihre Bücher zu vermarkten, tun so, als würde es sich um eine plausible oder gar schon bewiesene Theorie handeln.


    Gruß, grtgrt
     

      Beitrag 2079-1
    Kosmischer Schaum — ist er wirklich nur Spekulation?

     
     

    Kosmischer Schaum — wirklich nur eine Spekulation?


    Dieses Thema soll der Frage gewidmet sein, was alles im Kosmos in einer Weise unendlich sein könnte, die man nach dem gegenwärtigen Kenntnisstand der Physik nicht ausschließen kann.

    Brian Greene (in: The hidden Reality), Lisa Randall (in: Warped Passages – Unravelling the Mysteries of the Universe’s hidden Dimensions) und auch John Barrow (in: Einmal Unendlichkeit und zurück, Kap. 7: Ist das Universum unendlich?) haben dazu schon Gedanken in die Welt gesetzt, die auf den ersten Blick wahrlich utopisch anmuten. Es geht aber durchaus noch utopischer:

    • Zunächst muss man sich vor Augen führen, dass die Frage, ob unser Universum zeitlich oder räumlich unendliche Ausdehnung hat, nur einen besonders einfachen Sonderfall der Frage nach Unendlichkeiten im Kosmos darstellt
    • und dass es da mindestens eine Unendlichkeit gibt, die wir schon kennen: Unendlich große Mengen, die ja wenigstens in unserem Kopf, auf rein gedanklicher Ebene, durchaus existieren. Unser Kopf aber, und all seine Gedanken, sind ja nun ganz klar auch Teil unseres Universums.

    Damit ist klar:

    Der Kosmos   h a t   t a t s ä c h l i c h   Aspekte, die unendlicher Natur sind.


    Was der Begriff » unendlich « genau bedeutet, kann nur Mathematik uns wirklich klar machen. Aber auch mathematische Gesetze sind Teil unseres Universums. Was also liegt näher als auf der Suche nach physisch existierenden Unendlichkeiten von Beispielen in der Mathematik auszugehen?

    Hier wenigstens ein solches Beispiel:

    Wir betrachten die linear geordnete Menge aller reellen Zahlen. Sie ist auf jeden Fall unendlich groß, und das nicht nur in einer Hinsicht:

    • Sie hat neben unendlich großer Kardinalität
    • auch noch unendlich komplizierte Struktur, denn:
      Zu jedem nicht leeren Intervall W reeller Zahlen der Länge L und zu jeder positiven ganzen Zahl N existieren
       
      • unendlich viele Teilintervalle K von W, deren Länge kleiner als L/N ist, d.h. gegen Null konvergiert,
         
      • und existieren umgekehrt auch unendlich viel Intervalle G, die ihrerseits W als Teil enthalten und deren Länge größer als N*L ist und somit jede nur denkbare Ausmessung übersteigen kann.

    Mit anderen Worten:

    Unsere Welt — mindestens aber ihre Extrapolation durch unsere Gedanken — enthält Gebilde, die in beide Richtungen — ins Kleine ebenso wie ins Große hinein —tatsächlich unendlich reichhaltige Struktur aufweisen.

    Liegt es dann nicht nahe zu fragen, ob nicht vielleicht auch schon der  p h y s i s c h  existierende Teil unseres Universums — was Struktur in ihm und Struktur um ihn herum betrifft — beschaffen sein könnte wie jenes Intervall W?

    Realty Check 1: Moderne Physik kann sicher nicht ausschließen, dass dem so ist.


    Wie könnte das aussehen? Na ja, vielleicht so:

    Könnte es nicht sein, dass unser Universum U Teil eines Multiversums M ist, dessen Struktur und dessen Expansionsverhalten es vergleichbar machen mit einem schnell wachsenden Berg von Milchschaum, wie er entsteht, wenn Milch in einem offenen Topf zum Kochen kommt. Unser Universum U (d.h. unserer Raumzeit) entspräche in diesem Gleichnis einer einzigen, sich derzeit aufblähenden Blase in diesem Berg von Schaum. U wäre endlich, das kosmologische Prinzip würde aber nur in seinem Inneren gelten und sicher nicht mehr in der Nähe der Region, die der Hülle dieser Blase entspricht: Dort, so müsste man sich vorstellen, könnte die Energiedichte extrem hoch werden, so dass die gesamte Hülle sich im Sinne der ART wie der Mittelpunkt eines Schwarzen Lochs verhält.

    Schließlich und endlich könnte — wie auch im Milchschaum — jede solche Blase, also auch unser Universum, irgendwann platzen und so (als Blase, aber nicht als Teil des Kosmos) zum Ende seiner Existenz kommen.

    Mehr noch: Wenn wir uns vorstellen, der Milchtopf stehe in einer Großküche, so könnte es dort gleich mehrere solcher Töpfe geben, aus denen heraus und um die herum sich mehr oder weniger schnell wachsende Berge von Milchschaum bilden. Da im Gleichnis jeder solche Berg einem Multiversum entspricht, entpräche die gesamte Küche dann dem Raum, den Lisa Randall als » Bulk « bezeichnet und in den eingebettet Stringtheorie ihr zahllose Welten nahelegt, die dort existieren und pulsieren wie Quallen im Meer — nur dass diese » Quallen « in meinem Bild statt einzelner Universen gleich ganze Haufen von Universen sein könnten: Multiversen, deren jedes Unmengen von Universen darstellt, von denen keine zwei exakt gleichen Wert für all ihre Naturkonstanten zu haben brauchen.

    Jedes solche Multiversum wäre einem Haufen Sand vergleichbar: einer Unmenge kleiner und kleinster Sandkörner, die ja auch keineswegs alle gleiche chemische Zu­sammen­setzung haben müssen.

    Realty Check 2: Kann moderne Physik ausschließen, dass dem so ist? Bislang wenigstens nicht.


    Kommen wir nun aber nochmal zurück zum Intervall W (das ja unserer Welt entsprechen sollte):

    Ganz so wie um das Intervall W herum immer noch größere Intervalle existieren, die sämtlichl W als Teil enthalten, könnte doch auch unser Universum gemeinsam mit anderen in zunehmend größere Räume eingebettet sein und, umgekehrt, könnte sich vielleicht auch unsere Welt bei genaueren Hinsehen als eine Unzahl kleinerer, rekursiv ineinander geschachtelter Welten entpuppen.

    Wer würde dann noch sicher sein können, dass die Tiefe solcher Schachtelung endlich ist? Und könnte sie nicht — ganz analog zu einer der vielen gedanklich leicht konstruierbaren Schachtelungen von Subintervallen von W — auch unendliche Tiefe haben?

    Ich denke nicht, dass wir das ausschließen können, denn ob physische Objekte (wie etwa Strings oder Branen) auf einer Skala weit unterhalb der Planck­skala nicht doch noch Struktur haben, wird sich wohl nie mit letzter Sicherheit entscheiden lassen.

    Mehr noch: Da Lösungen mathematischer Gleichungen mit zunehmender, über alle Grenzen wachsender Genauigkeit jede Unschärfe verlieren, läge es sogar wirklich nahe, anzunehmen, dass das auch für die Struktur physischer Objekte gelten müsse, wenn man sie mit zunehmender, über alle Grenzen wachsender Genauigkeit bestimmen könnte (und diese Struktur wirklich Lösung eines Gleichungssysystems im Sinne der Mathematik ist).

    Wahrscheinlich, so denke ich, sind Einsteins Gleichungen der ART nur ein erstes, vergleichsweise triviales Beispiel eines Gleichungssystems, dessen Lösungen die Struktur physischer Objekte auf gewisser Größenskala durchaus zutreffend, ja sogar unglaublich genau modelliert.


    Gebhard Greiter (grtgrt), 2013

    PS: Das kosmologische Prinzip gilt für eine Größenskala, die typisch ist für besonders große Entfernungen im durch uns beobachtbaren Teil des Kosmos. Für deutlich kleinere Entfernungen — etwa für solche, die dem Durchmesser unseres Sonnensystems entsprechen — gilt es natürlich nicht. Auch in der Umgebung von Universen, die am Rande eines "Schaumhaufens" liegen würde es natürlich nicht gelten, obgleich dort natürlich Entfernungen eine Rolle spielen (könnten), die den Durchmesser des uns beobachtbaren Teiles unseres Universums geradezu winzig aussehen lassen.

     

      Beitrag 2079-7
    -

     
     
    Quante in 2079-6:
     
    Guten Morgen Grtgrt

    ... gebe ich dir – wenn auch nur eingeschränkt – Recht, da wo du mich betreffend schreibst: "dass du — allzu vorschnell — schon denkst, eine Antwort zu haben,"

    Wie glaubst du, ... sieht es diesbezüglich, bei dir aus?

    Ich habe keine Antworten, sondern biete lediglich Überlegungsansätze an, denn wer Antworten bietet, ist eigentlich fertig.


    Hallo Quante,

    natürlich habe auch ich keine endgültigen Antworten ( jedenfalls nicht die Physik betreffend ).

    Aber selbst für Physiker gilt ja, dass jede ihrer Antworten nur mit gewisser Wahrscheinlichkeit und gewisser Genauigkeit die bislang richtigste sein wird.
    Dass bei ihnen jene Wahrscheinlichkeit größer sein wird als bei Laien wie uns, ist natürlich unbestritten.



    Quante in 2079-6:
     
    Benenne mir nur ein physisches Element, ein physisches System in diesem Kosmos, welches in seiner Existenz des Daseins unendlich (im Sinne von unveränderlich) besteht.

    Das Vakuum könnte so ein Element sein, oder?



    Quante in 2079-6:
     
    ... bringe ich, im übertragenen Sinne wieder, den Energieerhaltungssatz ins Spiel, der besagt:

    » dass die Gesamtenergie eines abgeschlossenen Systems sich nicht (mit der Zeit) ändert...«.


    Will damit sagen, dass sich die Gesamtmaterie innerhalb eines abgeschlossenen Systems — gleich der Energie in einem abgeschlossenen System — nicht ändert, ABER [duchaus] verändert.

    Das bedeutet in seiner Konsequenz, daß alles was existiert unendlich existiert, nie einen Anfang gehabt haben kann und nie ein Ende haben wird, sondern lediglich in seiner Daseinsform Änderungen, Veränderungen unterliegt.


    Die Tatsache, dass der Energie-Erhaltungssatz eines — wenn nicht sogar  d a s  wichtigste — Grundprinzip aller Physik ist, auf jeden Fall der gesamten Physik unseres Universums, sollte uns nicht glauben machen, dass er nicht vielleicht in größerem Kontext doch verletzbar sein könnte.

    Auch sollten wir nicht vergessen: Selbst wenn der gesamte Kosmos abgeschlossenes System im Sinne des Energie-Erhaltungssatzes ist, kann nicht ausgeschlossen werden, dass der Kosmos Teile hat, derer wir uns gar nicht bewusst sind. Sollte dann Energie in jene Teile verschiebbar sein, würde sich das uns so darstellen, als ob der Kosmos Energie verlieren würde.

    Hier kommt also wieder mal zum Tragen, was Niels Bohr schon bewusst war: Physik kann nicht ergründen, wie die Natur funktioniert — Physik kann nur darüber sprechen, wie die Natur sich uns gegenüber  z e i g t .


    PS: Den Energie-Erhaltungssatz auch als Materie-Erhaltungssatz zu sehen (wie deine Formulierung suggeriert), ist natürlich falsch.

    Beste Grüße,
    grtgrt
     

      Beitrag 2079-10
    Ist unser Universum endlich oder gar ein Poincaré-Dodekaeder-Raum?

     
     

    Ist unser Universum als Raum

    flach und unendlich

    oder leicht positiv gekrümmt und endlich ( etwa 3-dimensionale Torus-Oberfläche )

    oder gar ein Poincaré-Dodekaeder-Raum?



    Bis heute ist nicht geklärt, ob unser Universum von endlicher oder unendlicher Größe ist.

    Messung des Satelliten WMAP zeigen uns, dass der Wert Ω seiner kritischen Dichte zwischen 1.00 und 1.02 liegt. Hieraus folgt:


    Unser Universum hat entweder flache oder extrem leicht positiv gekrümmte Geometrie.



    Nur für den Fall, dass es unendlich groß ist, kann es darin Wellen wirklich  j e d e r  Wellenlänge geben. Wie nun aber die Analyse der kosmischen Hintergrundstrahlung zeigt, scheint das nicht der Fall zu sein — was als Argument dafür gedeutet werden muss, dass unser Universum doch eher endlich ist.

    Heute favorisieren dennoch die meisten Wissenschaftler ein flaches unendliches Universum und unterstellen dabei die einfachst mögliche Geometrie.

    Andererseits: Das 3-Torus-Modell eines endlichen,  f l a c h e n  Raumes passt noch etwas besser zu den durch WAMP gesammelten Daten als die Annahme, unser Universum sei absolut flach und unendlich groß. Note: Im 3-Torus-Modell entspricht unser Raum der 3-dimensionalen Oberfläche eines Körpers im 4-dimensionalen Raum, der im 3-dimensionalen Raum ein Torus wäre.

    Nach den Satelliten COBE und WMAP wird nun PLANCK die Hintergrundstrahlung noch genauer vermessen. Erwartet wird eine noch bessere Entscheidungsgrundlage zur Topologie des Universums: Planck wird den Raum anhand der gemessenen Energiedichte auf weniger als 1 Prozent genau vermessen. Bestätigt sich der bisher favorisierte Wert, dann wäre das Torus-Universum die einzige bisher solide überprüfte Alternative zum unendlich großen Raum.


    Quelle: Ist das Universum ein 3-Torus? (2009).

    Die Form einer Torus-Oberfläche scheint wahrscheinlicher als die Form der Oberfläche eines unendlich langen Zylinders.

    Wie ein Team um Jean-Pierre Luminet nachgerechnet hat, passen die durch WAMP gesammelten Daten auch sehr gut zur Möglichkeit, dass unser Raum endlich ist und seiner Form nach ein Poincaré-Dodekaeder-Raum (Räume diesen Typs sind in wirklich bizarrer Weise in sich abgeschlossen, also endlich und doch grenzenlos). In diesem Fall müsste Ω = 1.013 sein, siehe (1).


    Nebenbei: Sollte unser Universum endlich sein, wäre — theoretisch wenigstens — der gesamte Kosmos von überall her sichtbar — das allerdings erst, nachdem das Universum hinreichend alt ist, so dass erstes ausgesandtes Licht Zeit genug hatte, ihn komplett zu durchqueren und so wieder zu seiner Quelle zurückzukehren.


    Wichtig fürs Verständnis ist auch:

    Wenn oben von Wellen die Rede ist, über deren Analyse man Erkenntnisse zur geometrischen Form unseres Universums zu gewinnen versucht, sind das Dichtewellen (Schallwellen), nicht aber elektromagnetische Wellen. Sie sind erkennbar an Temperaturschwankungen, die ihre Spuren in der kosmischen Hintergrundstrahlung hinterlassen haben. Genauer:

    Noch vor der Entkopplungszeit hatten sich in der Dunklen Materie erste, schwach ausgeprägte Massenkonzentrationen gebildet. Das Plasma aus vor allem Protonen und Neutronen folgte diesen Kondensationen, doch dem Wunsch der Baryonen nach Zusammenballung stand der Druck der Photonen gegenüber, der diese Plasmawolken wieder auseinander zu treiben suchte. Im Widerstreit der Kräfte begannen sie zu schwingen — ganz analog zu Schallwellen.

    Die größte schwingende Plasmawolke war gerade bis zur Entkopplungszeit einmal von einer Schallwelle durchlaufen worden. Größere Wolken konnten noch keinen Gegendruck aufbauen, sondern zogen sich — der Schwerkraft nachgebend — langsam zusammen. Kleinere Wolken oszillierten mit höherer Frequenz.

    All diese Schwingungen waren in Phase, perfekt synchronisiert durch den Urknall. Bei Kontraktion und Verdichtung wurde das Photonengas heißer, bei Verdünnung und Auseinan­derlaufen kühlte es sich ab. Zur  E n t k o p p l u n g s z e i t  verließen die Photonen die Plasmawolken und finden sich so heute mit leicht unterschiedlichen Temperaturen in den Detektoren der Astronomen wieder: Die Temperaturschwankungen zeigen sich als heißere oder kühlere Bereiche im CMB (dem Cosmic Microwave Background).

     

      Beitrag 2079-15
    -

     
     
    Bauhof in 2079-12:
    Grtgrt in 2079-10:
    Note: Im 3-Torus-Modell entspricht unser Raum der 3-dimensionalen Oberfläche eines Körpers im 4-dimensionalen Raum, der im 3-dimensionalen Raum ein Torus wäre.

    Hallo Grtgrt,

    daraus folgt doch, dass z.B. der dreidimensionale Begrenzungsraum einer vierdimensionalen Kugel im dreidimensionalen Raum ein Torus wäre. Das verstehe ich nicht.

    M.f.G. Eugen Bauhof


    Hallo Eugen,

    meine Formulierunmg scheint missverständlich zu sein. Ich hätte wohl besser gesagt:

    » ... eines Körpers im 4-dimensionalen Raum, der mathematisches Analogon zu etwas ist,
    das man im 3-dimensionalen Raum einen Torus nennen würde. «


    Auch ich kann mir einen 4-dimensionalen Torus nicht wirklich vorstellen.

    Vielleicht hilft Dir ja mehr als meine die entsprechende Erklärung auf Seite 76 im Dossier 2/10 von Bild der Wissenschaft bzw. Seite 28 Jan 2009. Dort steht:

    Zitat:
     
    Das Drei-Torus-Modell gilt zwar unter Experten als mathematisch relativ einfach, ist aber unserem rämlichen Vorstellungsvermögen dennoch nur schwer zugänglich.

    Deutlicher wird es, wenn wir wieder die Oberfläche eines zweidimensionalen Torus als Analogon zum dreidimensionalen Fall betrachten: Wie bei einem Zylinder können Wellenlängen dort nicht größer sein als die Seitenlänge des entfalteten Torus.

    Was der Autor (Georg Wolschin, ein theoretischer Physiker) hier als "zweidimensionalen Torus" bezeichnet, ist ganz klar der 3-dimensionale Torus.

    Die Tatsache übrigens, dass der Zylinder, der entsteht, wenn man den Torus durchschneidet wie einen Fahrradschlauch, nicht überall gleiche Länge hat (wie das bei einem Ofenrohr der Fall wäre) ist wichtig und erklärt, warum bei der Analyse der durch den Forschungssatelliten WAMP gelieferten Daten die gefundenen Wellenlängen ab einer bestimmten Größe nicht aprupt, sondern langsam weniger werden. Man kommt so zum Schluss, dass unser Universum, wenn die Daten tatsächlich seine Endlichkeit beweisen, etwa 5 Mal so großen Radius haben müsste wie das durch uns derzeit beobachtbare Universum (demnach etwa 70 Mrd. Lichtjahre).


    PS: Vielleicht lohnt es sich, auch Wolschins Buch Facetten der Physik zu lesen (und darin insbesondere die Seiten 3 bis 20).

    Gruß,
    grtgrt
     

      Beitrag 2079-13
    -

     
     
    Bernhard Kletzenbauer in 2079-11:
     
    Ich kann eine Papier-Fläche verzerrungsfrei zu einer Zylinderoberfläche rollen.
    Eine Kugeloberfläche kann ich damit nicht erzeugen, es sei denn ich verknittere das Papier dabei.:smiley9:

    Und auch bei einem Torus verknittere ich das Papier............!:smiley33:


    Wenn Du einen Torus erst mal durchschneidest (wie einen Fahhradschlauch), entsteht ein Zylinder.
    Wer den der Länge nach aufschneidet (wie ein Ofenrohr an seiner Naht), bekommt ein Trapez, das flach in einer Ebene liegen kann.

    Dass das wirklich  v e r z e r r u n g s f r e i  geht, wäre mir zunächst nicht eingefallen, wird aber so behauptet auf Seite 73 im Spektrum der Wissenschaft, Dossier 2/10.

    Glaubhaft ist es, und die Länge der kurzen bzw der langen Seite des Trapezes sind der Umfang des Torus in seinem Inneren bzw entlang seines Rückens.

     

      Beitrag 2079-18
    -

     
     
    Bauhof in 2079-16:
     
    Warum betrachtet man in der Kosmologie überhaupt einen Torus? Eine dreidimensionale Sphäre wäre doch einfacher und naheliegender, weil darin das kosmologische Prinzip gilt.


    Hierzu sagt Wolschin auf Seite 28:

    Zitat:
     
    Die Idee eines Torus-Universums ist dabei keineswegs neu.
    • Der Astrophysiker Karl Schwarzschild hat sie bereits im Jahre 1900 vorgeschlagen,
    • der russische Theoretiker Yakov B. Zeldovich hat sie 1973 näher untersucht,
    • und seitdem ist sie immer wieder von Forschern aufgegriffen worden.
    Neu an den Ulmer Untersuchungen ist jedoch die vollständige Berechnung mit den ersten 5,5 Millionen Schwingungen und der detaillierte Vergleich mit den aktuellen kosmologischen Beobachtungen, speziell den Fluktuationen der kosmischen Hintergrundstrahlung, und die gute Übereinstimmung der Simulationen mit den WMAP-Beobachtungen.

    Dass den Torus als Möglichkeit in Betracht zu ziehen, durchaus Sinn macht, zeigt die Tatsache, dass die durch WAMP gesammelten Daten noch etwas besser zu ihm passen als zur Möglichkeit eines flachen, unendlich großen Universums (siehe die Graphik ganz unten auf auf Seite 26).

    Nebenbei: Deine Frage stellt sich natürlich ebenso für die Möglichkeit, dass unser Universum seiner Form nach ein Poincaré-Dodekaeder-Raum sein könnte. Das nämlich wäre eine wirklich extrem exotische Form, an die zu glauben uns schwer fällt. Dennoch scheinen die Daten auch mit ihr gut verträglich zu sein. Höchste Zeit also, dass man genauere Daten sammelt (und vielleicht hat man sie ja schon in dem, was PLANCK liefert, das auszuwerten man aber eben erst begonnen hat).

    Auf jeden Fall gilt:

    Man sucht eine Form, die signifikant bessere Übereinstimmung mit den Beobachtungsdaten liefert, als jede andere.


    Dass die Forscher da ganz erstaunlich kreativ sind, zeigt einmal mehr das wirklich schon begonnene Betrachten der Möglichkeit des Poincaré-Dodekaeder-Raumes.

     

      Beitrag 2079-17
    -

     
     
    Bauhof in 2079-16:
    Grtgrt in 2079-15:
     
    Man kommt so zum Schluss, dass unser Universum, wenn die Daten tatsächlich seine Endlichkeit beweisen, etwa 5 Mal so großen Radius haben müsste wie das durch uns derzeit beobachtbare Universum (demnach etwa 70 Mrd. Lichtjahre).

    Was meinst du mit Radius? Ich nehme an den Krümmungsradius, der im ganzen Universum überall gleich groß ist, falls man eine dreidimensionale Sphäre annimmt. Oder meinst du mit Radius die derzeitige Sichtweite?

    M.f.G. Eugen Bauhof


    Ich verstehe darunter den halben Durchmesser des Universums, wobei ich als seinen Durchmesser den Abstand zweier Sterne sehe, die so lokalisiert sind, dass es keine zwei anderen Sterne gibt, die noch größeren Abstand voneinander haben.

     

      Beitrag 2077-13
    Über den  R a u m , in dem unser Weltall existiert

     
    Ich würde sagen: Raum und Zeit sind Gefäße, in denen alles Materielle gebunden ist. So wie ein Kaffee in einer Tasse.
    Nur dieses Gefäss ist 4-Dimensional (Raum & Zeit = Raumzeit)

    Dabei stellt sich mir die (vielleicht etwas dumme) Frage: Woher weiss man, dass der Raum begrenzt, also nicht unendlich ist. Mit welchem Messverfahren kann ich das bestimmen?
    Der Raum hat keine Ecken und Kanten, an denen man ein Massband anlegen könnte. Man kann nur das Vermessen, was im Raum "umherfliegt", also Planeten, Sonnen, Galaxien etc.
    Aber, da wo kein festes Objekt ist, da kann trotzdem Raum sein.
    Ich will hier nicht die Endlichkeit des Raums in Frage stellen, ich wüsste aber zu gerne, wie man das bewiesen hat.

    Beispiel:
    Stell Dir vor, du befindest Dich auf dem Ozean und lässt mehrere Fische ins Wasser fallen. zunächst beträgt der Abstand zwischen ihnen nur wenige Zentimeter. Trotzdem ist der Raum (Ozean) um sie herum im verhältnis riesig. wenn sich die Fische in unterscheidliche Richtungen bewegen, so vergrössert sich der Abstand zwischen ihnen, von zunächst einigen Metern, bis zu etlichen Kilometern. Wenn du die Fische, mal angenommen, immer noch sehen könntest, was könntest Du über den Raum(Ozean) sagen, in dem sie sich befinden. Du kannst zwar jederzeit sagen, dass der Raum grösser ist, als der Abstand zwischen den Fischen, aber um wieviel grösser, darüber kannst Du keine Aussage machen. Die Fische könnten im nächsten Augenblick an einem Ufer ankommen, oder aber noch tausende Kilometer Raum um sich haben, das kann man nie mit Gewissheit sagen.

    Unsere "Blickweite" erfasst derzeit ca 14 Mrd Lichtjahre im Universum, aber was dahinter kommt, das wissen wir nicht. selbst wenn wir irgend wann den "letzten Stern" entdecken könnten, so sagt uns dies nichts darüber aus, ob "dahinter" noch Raum ist, oder nicht.
     

      Beitrag 2077-14
    -

     
     
    Hans-m in 2077-13:
     
    Woher weiss man, dass der Raum begrenzt, also nicht unendlich ist. Mit welchem Messverfahren kann ich das bestimmen?
    Der Raum hat keine Ecken und Kanten, an denen man ein Massband anlegen könnte. Man kann nur das Vermessen, was im Raum "umherfliegt", also Planeten, Sonnen, Galaxien etc.
    Aber, da wo kein festes Objekt ist, da kann trotzdem Raum sein.

    Ich will hier nicht die Endlichkeit des Raums in Frage stellen, ich wüsste aber zu gerne, wie man das bewiesen hat.


    Hallo Hans-m,

    zunächst mal: Bisher konnte noch niemand beweisen, dass der » Raum «, in dem der uns sichtbare Kosmos existiert, endlich ist.

    Solche Endlichkeit würden die Physiker und Kosmologen erst dann als bewiesen erachten,
    • wenn Forschungssatelliten Daten geliefert haben, die uns zeigen, dass der Wert Ω (der die sog. kritische Dichte unseres Universums darstellt) mit Sicherheit größer als 1 ist (um wie wenig auch immer)
    • und wenn bis dahin keinerlei Zweifel daran aufgetaucht sind, dass diese Dichte nicht irgendwo im Raum doch 1 oder kleiner als 1 sein könnte.

    Derzeit weiß man nur, dass die Dichte durch uns beobachtbarer Regionen des Raumes irgendwo zwischen 1.00 und 1.02 liegt.
    • Sollte Ω exakt 1 sein (was wir Menschen mit letzter Genauigkeit natürlich nie wissen werden), wäre der Raum um uns herum — im Sinne der Physiker und auch in dem Sinne, wie Du ihn verstehst — tatsächlich unendlich weit: Es gäbe dann darin Entfernungen, die jede nur denkbare Zahl von Lichtjahren übersteigen.
    • Sollte Ω aber größer als 1 sein, wäre unser Raum — so wie Physiker und Mathematiker ihn verstehen — endlich aber doch grenzenlos. Aber auch die Oberfläche einer Kugel ist ja endlich und grenzenlos. Um die Kugel herum allerdings existiert meist auch Raum: Raum allerdings, der von anderer mathematischer Qualität ist.

    Wer also nur von » Raum « spricht (und nicht von Raum einer ganz bestimmten Qualität), wird  n i e  wissen können, ob solcher Raum um ihn herum endlich ist.

    Gruß,
    grtgrt
     

     Beitrag 0-42
    Was Kritiker der Stringtheorie allzu oft übersehen: Einsteins Erfahrungen

     
     

     
    Einstein und seine Gravitationstheorie (die ART)
     
    oder:

     

    Was Kritiker der Stringtheorie allzu oft übersehen


     
     
     
    In seinem — übringens äußerst lesenswerten — Buch Raum-Zeit (de Gruyter, 2009) analysiert Martin Carrier
    • nicht nur, welche Grundüberlegungen Einstein zu dem geführt haben, was wir heute seine Allgemeine Relativitätstheorie nennen,
    • sondern auch, wie diese Arbeit (und ganz sicher auch die Tatsache, dass ihr Erfolg beschieden war), Einsteins Verhältnis zur Mathematik geprägt haben:

    Aus jemand, der — wie Einstein selbst mehrfach betonte — mit der Mathematik eher auf Kriegsfuß stand, wurde jemand, dessen Erfolg man heute gut dazu benutzen kann, den schärftsten Kritikern der Stringtheorie — Peter Woit und Alexander Unzicker etwa — zu zeigen, wie falsch es wäre, sämtliche Arbeiten an ihr aufzugeben nur deswegen, weil sie sich mit Überlegungen befasst, in die hinein ihr Experimentalphysik nicht mehr folgen kann.


    Carrier schreibt (S. 152)
     

    Einsteins methodologische Orientierung erfuhr durch die Erfahrung mit der Formulierung der ART eine tiefgreifende Änderung:
     
    Die ART sollte die in der SRT enthaltene Gleichberechtigung von Bezugssystemen erweitern und insbesondere Bewegungungen Im Gravitationsfeld einschlie­ßen. {Seine dabei gemachte] Erfahrung der Alternativlosigkeit der mathematischen Konstruktion einer Theorie prägte Einstein tiefgreifend und führte zu einer Abwendung von der operationalistischen Ausrichtung seiner jungen Jahre und zu Zweifeln an der heuristischen Kraft von Beobachtungen.
     
    Für Einstein sind es nicht die komplizierte und entlegene Erfahrungsbefunde, wie sie in hochentwickelten Experimenten zutage treten, sondern allgemeine Tatsachen und mathematische Zwangsbedingungen, die die Gestalt der Theorie fixieren:
     


    Die ersten und wichtigsten jener Bedingungen, die Einstein sich gesetzt hatte, waren

    Carrier schreibt (S. 153)
     
    Rückblickend erklärte Einstein: » Noch etwas anderes habe ich aus der Gravitationstheorie gelernt: Keine noch so umfangreiche Sammlung empirischer Fakten kann zur Aufstellung derart verwickelter Gleichungen führen. ...
     
    Gleichungen von solcher Komplexität wie die Gleichungen des Gravitationsfeldes können nur dadurch gefunden werden, daß eine logisch einfache mathe­matische Beziehung gefunden wird, welche die Gleichungen völlig oder nahezu determiniert. Hat man aber jene hinreichend starken formalen Bedingungen, so braucht man nur wenig Tatsachenwissen für die Aufstellung der Theorie. « (Einstein 1949, 33; vgl. Howard 2004)
     
     
    Bei der Formulierung der ART gewinnt Einstein den Eindruck der  Unausweichlichkeit .
     
    Die zentrale Kreativitätsleistung besteht für ihn darin, den angemessenen mathematischen Begriffsapparat zu finden. Ist er richtig gewählt, so führt die Bedingung, die Gleichungen der Theorie sollten möglichst einfach sein, zum  k o r r e k t e n  Ergebnis.
     
    Einstein selbst schreibt 1930:
    » Das eigentlich schöpferische Prinzip liegt in der Mathematik.
     
    In einem gewissen Sinne halte ich es also für wahr, daß dem reinen Denken das Erfassen des Wirklichen möglich ist, wie es die Alten geträumt haben. «

     
    Der Gegensatz zwischen dem erfahrungs- und praxisorientierten Einstein der frühen Zeit und dem Einstein der späteren Jahre springt ins Auge.
    Nach seiner Kehrtwende rückte Einstein die traditionell mit dem Platonismus verknüpfte konstruktive Rolle der Mathematik für die Naturerkenntnis ins Zentrum.
    Zwar entscheiden die Tatsachen nachträglich über die Brauchbarkeit einer Theorie, aber für den kreativen, den Fortschritt vorantreibenden Physiker sind Tatsachen im Kern ohne Belang.
     


     
     
    Wie also kann man da den Stringtheoretikern noch vorwerfen wollen, ihr Vorhaben sei sinnlos?

     
    Vielleicht wird man jetzt verstehen, warum es mich traurig macht, zu lesen, dass Unzicker — übrigens schon im Epilog seines Buches Auf dem Holzweg durchs Universum — Edward Witten und Lisa Randall als "euphorische Märchenerzähler" einstuft. Es passt dies so gar nicht zur Tatsache, dass eben jener Witten auf der Konferenz "Strings 2013, Korea" den seiner Vorträge, der für die Öffentlichkeit gedacht war, mit der Einschätzung schloß (aus meinem Gedächtnis zitiert): Die Stringtheorie steht heute, was Erkenntnisse betrifft, noch ganz am Anfang. Wir wissen noch nicht recht viel mehr, als dass hier etwas sein muss, das untersucht zu werden verdient.
     
    Unzicker und Woit — deren erklärte Absicht ja ist, die Ehrlichkeit wissenschaftlicher Argumentation zu verteidigen — müssen sich meiner Meinung nach also wirklich fragen lassen, ob sie in ihrem Eifer nicht genau den Fehler machen, den sie den Stringtheoretikern vorwerfen. Tun die denn nicht genau das, was Einstein über ein ganzes Jahrzehnt hinweg tat,  b e v o r  es ihm gelang, seine Feldgleichungen dann auch wirklich zu formulieren?
     
    Und gar noch zu behaupten, Einstein würde sich Grabe umdrehen, wenn er wüsste, was die Stringtheoretiker treiben, ist angesichts seiner eigenen, oben erklärten Kehrtwende doch sicher absoluter Unsinn. Es würde mich freuen, wenn Herr Unzicker (dessen Bücher ich ansonsten schätze) das einsehen oder mir wenigstens hierauf antworten wollte.
     
     
     
    Quellen:
    • Einstein, Albert (1930): Zur Methodik der Theoretischen Physik, Seite 113-119 in: Einstein (1984): Mein Weltbild, ed. Carl Seelig, Ullstein
       
    • Einstein, Albert (1949): Autobiographisches, in: P.A. Schilpp: Albert Einstein als Philosoph und Naturforscher. Eine Auswahl, Braunschweig: Vieweg 1983, 1-35
       
    • Howard, Don A. (2004): Einsteins Philosophy of Science, The Stanford Encyclopedia of Philosophy (Spring 2004 Edition), hier online


     

     Beitrag 0-73
    Wie man Stringtheorie entdeckt hat

     
     

     
    Wie es zur Stringtheorie kam

     
     
    Als Geburtsjahr der Stringtheorie gilt 1968:
    • Damals nämlich war zwei am CERN forschenden, jungen Physikern — unabhängig voneinander — aufgefallen, dass die sog. Eulersche Beta-Funktion (von Euler schon im 19. Jahrhundert entwickelt) erstaunlich gut geeignet war, das Verhalten stark miteinander wechselwirkender Teilchen zu beschreiben (sprich: den Austausch von Bosonen, die als Träger der sog. Starken Kernkraft gelten).
       
    • Die durch die beiden Entdecker dieser Tatsache gefundene Formel machte aber auch einige unzutreffende Aussagen. Doch schon 1969 konnten drei andere Physiker dieses Problem beseitigen, indem sie die Formel um kleine Zusatzterme ergänzt hatten.
       
    • Noch ein Jahr später — 1970 — legte dann der japanische Physiker Y. Nambu, aufbauend auf dieser Formel, endgültig den Grundstein der Stringtheorie: Sein Forschungsgebiet waren Symmetrien, ihre tiefer Bedeutung und die Art und Weise, in der man sie immer wieder gebrochen vorfindet. Nambus Idee war, die punkteförmigen Teilchen des Standardmodells der Elementarteilchenphysik durch 1-dimentionale schwingende Gebilde zu ersetzen, die an die Saiten eines Musikinstruments erinnern (engl. Strings) und genau ein Plancklänge lang sind.

      Die so erhaltene Stringtheorie — die sog bosonische — kannte geschlossene und offene Strings, konnte aber nur Bosonen (nicht auch Fermionen) modellieren. Sie war 26-dimensional, was viele Anomalien (in den Prozessen der Teilchenumwandlung) und Unendlichkeiten zur Folge hatte.

     
    In dieser Form allerdings hatte die Stringtheorie noch ganz gravierende Mängel:
    • Sie war weder zur Relativitätstheorie noch zu allen quantenmechanischen Erkenntnissen konform.
    • Sie sagte auch Tachionen voraus (d.h. überlicht-schnelle Teilchen).
    • Zudem hätte unsere Welt nach dieser Variante der Stringtheorie 26 Dimensionen haben müssen.
    Vor allem dieser Gründe wegen, dachten damals viele Physiker, der Ansatz sei eine Sackgasse.
     
    Erst als Michael Green und John Schwarz — die Väter der sog. Superstringtheorie — sich auf eine supersymmetrische Variante der Stringtheorie konzentrierten, war eine Version gefunden, die
    • mit 10 Raumdimensionen auskam
    • und sämtliche Symmetrien beschrieb, die das Standardmodell der Elementarteilchenphysik im Verhalten der Bosinen und Fermionen kennt.

    Diese Variante der Stringtheorie (Typ I) stütze sich auf offene und auch auf geschlossene Strings. Schon 1 Jahr später — 1985 — präsentierten Green und Schwarz eine zweite Variante (genannt Typ II), welche nur noch geschlossene Strings betrachtete.
     
    Sie war frei von Tachionen und enthielt ein masseloses Teilchen mit Spin 2, das sog. Graviton (dessen Existenz die Schöpfer des Standardmodells zwar immer vermutet, aber nie hatten modellieren können).

     
    Damit konnte man nun tatsächlich viele Physiker davon überzeugen, dass diese supersymmetrische Form der Stringtheorie ein guter Weg sein könnte hin zu einer Theorie, welche das Verhalten sämtliche Fermionen, sämtlicher Bosonen, und auch des Gravitons derart treffend beschreibt, dass sie als Vereinigung von Quantenmechanik, dem Standardmodell und der Allgemeinen Relativitätstheorie in Frage kommen könnte.
     
     
    Dennoch schien sich diese Hoffnung zunächst nicht zu erfüllen:
    • Haupthindernis war die Tatsache, dass Strings nicht punktförmig sind, sondern Ausdehnung haben.

    Doch bald fand man einen Weg, die Strings auch als punktförmig anzusehen: dann jedenfalls, wenn man sich auf große Abstände konzentrierte (und so ein relativ niedriges Energieniveau annehmen konnte). Die erzielten Erfolge waren groß genug, dass Begeisterung aufkam:
     
     
     
    Man sprach jetzt von der Superstring-Revolution und sah die Weltformel in greifbare Nähe gerückt.
     
    Zudem war jetzt klar geworden, dass man nicht nur Strings zu betrachten hatte, sondern auch höher-dimensionele schwingende, membranartige Gebilde (sog. Branen).
     
    Berechnet man nun aber mit Hilfe der Stringgleichungen, wie sich Strings teilen und vereinigen, so musste man feststellen, dass da laufend Anomalien und Unendlichkeiten auftraten, die die Theorie entwerteten. Erstaunlicherweise aber traten die immer nur in Verbindung mit dem Faktor (η-10) auf, wo η die Zahl der angenommenen Dimensionen bezeichnet. Da dieser Faktor für η = 10 zu null wird (und die Probleme dadurch verschwinden), dachte man dann, dass alle durch die Stringtheorie sinnvoll beschriebenen Welten 9 Raum- und 1 Zeitdimension hätten.
     
     
    Ernüchterung trat ein, als man dann während weniger Jahre noch 3 weiter Varianten der Stringtheorie fand (alle basierend auf nur geschlossenen Strings). Damit waren 1995 immerhin 5 verschiedene Stringtheorien bekannt:
    • Eine Variante (genannt Typ I) betrachtete offene und geschlossene Strings.
       
    • Vier weitere Varianten (genannt Typ IIA, Typ IIB, o-heterotisch, und E-heterotisch) betrachteten nur geschlossene Strings.

    Die Angst, dass es noch mehr Varianten geben könnte, wuchs ...
     
     
     
    Dann aber kam es — 1995 — zur sog. Zweiten Superstring-Revolution:
     
    Mit Hilfe sog. Dualitätsprinzipien (wonach scheinbar unterschiedliche physikalische Prinzipien dennoch ein und dasselbe Verhalten der Natur beschreiben) konnte Eduard Witten zeigen, dass
    • die bis dahin gefundenen fünf 10-dimensionalen Varianten der Stringtheorie
    • sowie eine damals auch schon konstruierte 11-dimensionale, supersymmetrische Quantenfeldtheorie
    sämtlich Grenzfälle einer umfassenderen 11-dimensionalen supersymmetrischen Theorie sind (die er M-Theorie nannte).
     
     
    In [1] liest man: M-theory contains extended objects of a whole slew of different spatial dimensions called p-brane (an object with p space dimensions, up to nine). It seems the fundamental ingredients in the M-theory are "branes" of a variety of dimensions.
     
    Daraus folgt:
     
     
    Der M-Theorie nach könnte unsere Welt eine dieser p-Branen sein,
     
    d.h. bis zu 10 räumliche Dimensionen haben ( 6 davon bisher nie beobachtet ).

     
     
    Note: Wer über die bisher experimentell nicht nachweisbaren 6 Dimensionen spricht, geht davon aus, dass es sich dabei um kompaktifizierte ( zusammengerollte )
    r ä u m l i c h e 
    Dimensionen handeln müsse. Mir aber scheint das nicht zwingend zu sein, denn schließlich stellen Dimensionen einer Theorie ja genau genommen nur unabhängig voneinander variierbare Freiheitsgrade dar. FRAGE also:
     
     
    Könnte es sein, dass die 6 zusätzlichen, der Experimentalphysik unbekannten Dimensionen
     
    weder räumlicher noch zeitlicher Natur sind?

     
     
    Heute wird oft der Eindruck erweckt, die Stringtheorie trete auf der Stelle. Die Stringtheoretiker aber sind optimistisch: Sie sind fest davon überzeugt, dass wir nur noch nicht die richtigen mathematischen Werkzeuge haben, in der Stringtheorie schlummernde Aussagen zu entschlüsseln. Sie könnten recht haben, denn dass die siebte verborgene Dimension erst so spät entdeckt wurde, hängt damit zusammen, dass die Gleichungen der Stringtheorie über Jahrzehnte hinweg nicht genau genug gelöst werden konnten [ so schreibt Karamanolis in seinem Buch » Die Suche nach der Weltformel « (2006) ].
     
    Jetzt also scheinen die Mathematiker am Zuge zu sein ...

     

     Beitrag 0-296
    Bewertung der Stringtheorie aus heutiger Sicht (2017)

     
     

     
    Wo steht Stringtheorie heute?

     


    Leonard Susskind ( auf S. 410 seines Buches Der Krieg um das Schwarze Loch, 2010 ):
     
    Die Stringtheorie wurde durch Zufall entdeckt, und ihre Entwicklung vollzog sich fragmentarisch.
     
    Man hat noch keinen umfassenden Satz von Prinzipien, ja noch nicht mal einen kleinen Satz sie definierender Gleichungen.
     
    Ähnlich rund wie die Theorien von Newton und Einstein ist sie deswegen noch lange nicht.
     
    Bis heute ist sie kaum mehr als ein Geflecht zufällig entdeckter mathematischer Tatsachen, die untereinander bemerkenswerte Konsistenz aufweisen, aber ins­gesamt doch erst eine Menge von Puzzleteilchen sind, von der man noch nicht weiß, wie vollständig sie ist. Ein sich abzeichnenden Gesamtbild zu erkennen ist noch immer schwierig.
     
    Dennoch ist Stringtheorie unser bislang bester mathematischer Führer hin zu den Fundamenten einer Theorie, welche sämtliche vier Grundkräfte der Physik gleichermaßen berücksichtigt.
     
    Der niederländische Nobelpreisträger Gerard 't Hooft vergleicht den heutigen Zustand der Stringtheorie mit einem Stuhl, dem noch Beine und Sitzfläche fehlen, dessen Armlehnen demnächst aber wohl lieferbar sein werden.
     




    Peter Woit ( zitiert durch v. Buttlar auf S. 164 seines Buches RaumZeit, 2009 ):
     
    Als die Stringtheorie aufkam, schien sie mir eine spekulative Idee zu sein, die es durchaus wert war, weiter verfolgt zu werden.
     
    Doch dann vergingen die Jahre, und mit der Zeit wurde immer klarer, dass Stringtheorie nicht funktioniert.
     
    Dennoch erhielten die Strings immer mehr Aufmerksamkeit, und mehr und mehr Leute fingen an, auf dem Gebiet zu arbeiten — obwohl Erfolge ausblieben. In den letzten Jahren ist es sogar noch schlimmer geworden. Mittlerweile ist mir nicht einmal mehr klar, ob das, was die Leute da betreiben, überhaupt noch Wissenschaft ist.

     


     
    Ich, Gebhard Greiter, würde es eher so sehen:
     
    Die Stringtheorie ist noch zu wenig ausgearbeitet, zu wenig präzisiert, um sie ernsthaft anfechten zu können.
     
    Da die der Stringtheorie zugrundeliegende Mathematik extrem schwierig ist, gibt es viele Physiker, die diese Theorie schon allein deshalb nicht bewerten können, weil sie viel zu wenig davon verstehen. Wo sie Kritik an ihr üben, kann man die deswegen auch nicht so recht ernst nehmen.
     
     
    Wir müssen berücksichtigen:
     
    Stringtheorie beschreibt, was irgendwo in den Tiefen des Weltalls möglich sein sein könnte, also nicht nur die Verhältnisse in "unserem" Universum, d.h. in der doch eher nur "kleinen" Umgebung unserer Erde, die durch unseren Beobachtungshorizont begrenzt ist und einen kegelförmigen Bereich der Raumzeit darstellt, in dem wir maximal 46 Mrd. Lichtahre weit und nur knapp 13,5 Mrd. Jahre in die Vergangenheit sehen können — verglichen mit der Weite des Universums dahinter könnten das extrem kleine, kaum nennenswerte räumliche und zeitliche Entfernungen sein.
     
    Man bedenke: Wer sich in Norddeutschland befindet, stets nur dort gewohnt hat und soweit das Auge reicht, nur flaches Land sieht, kann sich ja auch nur schwer vorstellen, dass es auch sehr gebirgige Landschaften gibt. Ähnliches gilt im Kosmos: Astronomen können sozusagen nur unsere "nächste" Umgebung einsehen. Stringtheorie aber erhebt den Anspruch, auch noch zu beschreiben, was erst weit hinter unserem Beobachtungshorizont vorzufinden sein könnte.

     

     Beitrag 0-114
    Pro Stringtheorie

     
     

     
    Was für Stringtheorie spricht

     
     
    Hier einige Argumente, die zeigen, dass es Sinn macht, die Stringtheorie weiter zu erforschen:

       
    • Dass Experimentalphysik keine Wege kennt, Ergebnisse der Stringtheorie zu falsifizieren, scheint nicht mehr richtig zu sein: Siehe etwa A first chance to test String Theory (2014).
       
    • Per Stringtheorie gelang es erstmals, die thermodynamische Entropie eines Schwarzen Lochs auf mikroskopische Weise zu berechnen: einfach durch Abzählen der ihm möglichen Quantenzustände. Diese Rechnung reproduzierte exakt die Formel von Bekenstein und Hawking, welche den Zusammenhang zwischen der Entropie des Lochs und der Größe der Fläche seines Ereignishorizonts beschreibt.
       
      Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 244
       
    • Stringtheorie ist die erste Theorie, welche die Gravitationskraft als zwingend gegebenen und zudem noch als quantisiert postuliert: Geschlossene Strings führen zwangsläufig auf die Gravitationskraft.
       
      Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 257
       
    • Weitere Erkenntnisse, die erst die Stringtheorie gebracht haben soll, nennt Wikipedia: Wertung der Stringtheorie.

     
     
    Wer nicht selbst Stringtheoretiker ist, der sollte solchen Erfolgsmeldungen allerdings auch ein wenig skeptisch gegenüber stehen, da sie meist — bei genauerem Hinsehen — mit Einschränkungen versehen sind (die oft verschwiegen werden). Hier ein Beispiel:


      von Baeyer schreibt
       
      1996 fanden Stringtheoretiker eine Herleitung der Bekensteinschen Formel aus statistischen Überlegungen: Sie ermittelten die Anzahl der Möglichkeiten, mit denen sich ein bestimmtes » mathematisches Objekt « in ihrer Theorie ungestraft umordnen lässt und sahen, dass der Logarithmus dieser Zahl gerade der Entropie von Bekenstein entspricht.
       
      Vorsicht aber: Obgleich das von ihnen untersuchte Modell viele Eigenschaften eines Schwarzen Lochs hat, besitzt es leider nicht all seine Eigenschaften. Insbesondere ist dieses Modell bei Null Grad Kelvin eingefroren und beschreibt daher mit Sicherheit kein echtes Schwarzes Loch mit seiner Hawking-Strahlung.
       
      Seither werden im Rahmen der Stringtheorie kompliziertere Modelle untersucht, sog. Gedanken Black Holes . Die Erfolge ermutigen, doch Bekenstein warnt zur Vorsicht: Wenn Sie einen Penny verloren haben und jemand anders findet einen, dann muss das nicht notwendig derselbe sein.
       


     
    Klar gesagt werden muss aber auch:

      Zum gegenwärtigen Zeitpunkt (2015) ist die Stringtheorie noch keine abgeschlossene, voll akzeptierte physikalische Theorie.
      Selbst eine über die Störungstheorie hinausgehende Formulierung ist noch nicht erarbeitet.
       
      Ihre Calabi-Yau-Räume implizieren neue Feldkräfte, die erst nachzuweisen wären.


     

      Beitrag 2072-1
    Schon ausschließbare Teile der Stringtheorie

     
     

    Stringtheorie kann – wenigstens in Teilen – falsifizierbar sein


    Stringtheoretiker werden oft kritisiert mit dem Argument, ihre Theorie sei nicht falsifizierbar.
    Wie folgendes Beispiel (schon aus 2004) zeigt, ist diese Kritik aber keineswegs immer berechtigt:

    Der extrem helle Gammastrahlenausbruch GRB 041219A in einer Entfernung von rund 300 Millionen Lichtjahren erlaubt Untersuchung energieabhängiger Rotation der Polarisationsrichtung jener Gammastrahlung. In 2004 gelang es, die Genauigkeit der Beobachtung um etwa den Faktor 10.000 zu steigern und so Daten zu bekommen,
    mit denen sich in 2011 Details einiger Varianten der Stringtheorie widerlegen ließen.

    Der entsprechende Bericht auf pro-physik.de sagt:

    Zitat:
     
    Die vorliegende Messung ist 10.000-fach genauer, als bei früheren Beobachtungen.

    Daraus ergibt sich der unvorstellbar kleine Wert von 10-48 Meter als Obergrenze für die Größe der Raumzeit-Körnung. Bisher gingen die Forscher davon aus, sie läge im Bereich der Planck-Skala: 10-35 Meter.

    Dieser geringe Wert schließe einige Varianten von Stringtheorie und der Schleifenquantengravitation aus, mit denen die Theoretiker eine Vereinigung von Relativitäts- und Quantentheorie erzielen wollen.
     

     

     Beitrag 0-129
    Wie sich die Gravitationskraft mit der elektrostatischen Kraft vergleicht

     
     

     
    Gravitation und elektrostatische Kraft

     
     
    Leider ignoriert das Standardmodell der Elementarteilchenphysik die Gravitationskraft. In praktischer Hinsicht allerdings ist das kein Problem, denn die zwischen zwei Elektronen wirkende Gravitationskraft ist um den Faktor 1043 geringer als die elektrostatische Kraft.
     
    Sie zu vernachlässigen ist daher in etwa dasselbe, als würde man bei der Vermessung des beobachtbaren Universums eine Strecke außer Acht lassen, die dem Durchmesser eines einfachen Atomkerns entspricht.
     
     
    Dass die Wirkung der Gravitation so gering ist, mag überraschen, wo wir doch wissen, dass sie ganze Planetensysteme, ja sogar Galaxien zusammenhält. Doch dass die Gravitation in der makroskopischen Welt so stark erscheint, liegt einfach nur daran, dass sich hier die Wirkung einer gigantischen Anzahl von Materieteilchen summiert, wohingegen die elektrostatische Kraft sich der Ladungsneutralität der Atome wegen weitgehnd selbst neutralisiert.
     
     
    Dennoch: Die Einbindung der Gravitationskräfte in ein vollständiges Bild der Fundamentalkräfte ist ein ganz zentrales Problem der Physik — bisher aber noch ungelöst.

     

     Beitrag 0-138
    Zur Vereinheitlichung der Theorien aller physikalischen Grundkräfte

     
     

     
    GUT — die erfolgreiche Vereinheitlichung dreier Grundkräfte

     
     
    Die sog. schwache Wechselwirkung ist zuständig für Phänomene wie den radioaktiven Zerfall.
     
    Theorien, sie zu beschreiben, hatten zunächst immer wieder mit Problemen zu kämpfen, die im Zuge neuer Experimente sichtbar wurden. Erst als es zu einer Vereinheitlichung mit der Quantenelektrodynamik kam — zur sog. elektroschwachen Theorie — konnte man stets Übereinstimmung mit den experimentellen Ergebnissen erzielen.
     
    Das Bild, das sich durch diese Vereinheitlichung ergab, war so überzeugend, dass man im gleichen Stil auch noch die starke Wechselwirkung — sie hält die Nukleonen zusammen — mit einzubeziehen versuchte.
     
    Was so entstand, war die sog. Grand Unified Theory (GUT). Auch sie hat bisher alle Prüfungen bestanden. Sogar ihr lange Zeit noch fehlender letzter Baustein, das Higgs-Teilchen, wurde inzwischen experimentell bestätigt.
     
     
    Auf Quantenebene also ist das Programm der Vereinheitlichung der Theorien, die Kräfte beschreiben, vorzüglich vorangekommen.
     
    Der zunächst letzte große Schritt bestünde nun darin, die GUT mit Einsteins Theorie der Gravitation zusammenzuführen.
     
    Wie schwierig sich das gestaltet, kann ermessen, wer bedenkt, dass Einstein bis an sein Lebensende vergeblich versucht hat, die gravitative mit der elektro­magne­tischen Wechselwirkung zusammenzuführen. Er war hierin aber nicht erfolgreich, was bemerkenswert ist, da er einerseits beim Erfinden seiner Gravitations­theorie von Vorbild der Maxwellschen Theorie mit ausgegangen war und man andererseits einige Jahre lang dachte, mit der Kaluza-Klein-Theorie dem Ziel schon sehr nahe zu sein.
     

     
    Grand Unified Theories (GUT) machen zwei wichtige Voraussagen, für die sich aber bisher — trotz intensiver Suche — keine Bestätigung fand:
       
    • Das Proton sei instabil mit einer Halbwertszeit größer als 1030 Jahren.
       
    • Zudem solle es neue Arten magnetische Monopole geben: schwere Verwandte der einfacheren, elektromagnetischen.

     
    Der theoretische Physiker Marcelo Gleiser ist skeptisch. Er schrieb:
      Nach Jahrzehnten intensiver Suche in Labors rund um den Erdball ist noch kein Anzeichen für Protonenzerfall entdeckt worden.
       
      Auch magnetische Monopole hat man bisher nicht gefunden. Obgleich argumentiert werden kann, dass sie fast alle durch kosmische Inflation inzwischen so weit verteilt sein dürften, dass sich nur noch wenige innerhalb des durch Menschen beobachtbaren Universums aufhalten, kann ich mich des Gefühls nicht erwehren, dass an dem ganzen Bild etwas grundsätzlich nicht stimmt:
       
      Die elektroschwache Wechselwirkung ist unser einziges Modell zweier Kräfte, die sich oberhalb einer bestimmten Temperaturschwelle in ihrem Verhalten angleichen. Dies wenigstens konnte experimentell bestätigt werden.
       
      Dennoch zeigt sich bei genauer Betrachtung, dass die elektroschwache Vereinheitlichung keine wahre Verheinheitlichung ist: Sie wird die Unterscheidung zwischen schwacher und elektromagnetischer Wechselwirkung nie wirklich los. Die neutralen Austauschteilchen, die wir bei niedrigen Energien als das masselose Photon und das schwere Z0 identifizieren, sind Kombinationen der schwachen Eichbosonen der Theorie bei sehr hohen Energien.

       
        Die elektroschwache Theorie hat zwei Kopplungskonstanten: Eine (gs) für die Symmetriegruppe der schwachen Kraft und eine andere (ge) für die Symmetriegruppe der elektromagetischen.
         
        Was wir als Elektronenladung bezeichnen ist eine Kombination beider:   e = gs ge / ( gs2 + ge2 )1/2  .
         
        Es drängt sich der Verdacht auf, dass die so erzielte Vereinigung eher nur formaler Natur sein könnte.

      Darüber hinaus ist die Theorie aufgrund des linkshändigen Neutrinos in einer Schieflage: Um sie in Einklang mit Experimenten zu bringen, werden rechtshändige Teilchen ganz anders behandelt als linkshändige.

     
     
    Marcelo Gleiser begann seine wissenschaftliche Karriere als, wie er sagt "begeisterter Vereiniger" (er ist Verfasser von etwa 60 Forschungsartikeln, die sich auf dem Weg hin zu einer  a l l e  physikalischen Grundkräfte vereinheitlichenden Theorie sahen). Heute glaubt er nicht mehr, dass es die gesuchte, alles zusammenführende Theorie jemals geben kann. Er schreibt:
      Symmetrie und Vollkommenheit sollten ihre Rolle als dominierendes Ideal aller Physik aufgeben. Interessant und vielfältig wird der Kosmos erst durch die überall auftretenden Symmetriebrüche.
       
      Auf die Frage seiner damals 6-jährigen Tochter, warum Schneeflocken nie gleich aussehen, aber dennoch immer 6 Ecken haben, hat er ihr geantwortet:
       
      Schneeflocken sind so ähnlich wie Menschen: Während wir alle zwei Augen, zwei Beine und einen Kopf haben, sind wir alle unterschiedlich. Und es sind die Unterschiede, die das Leben spannend machen.
       
      Uns, seinen Zuhörern, erklärt er dann weiter:
       
      Die physikalischen Modelle, die wir erschaffen, sind unser Werk. So wunderbar sie auch anmuten, sie werden immer unvollkommen sein, den unser Wissen über die Welt kann nie vollständig sein. Dass wir so viel gelernt haben, zeugt von unserer Kreativität, dass wir noch mehr lernen wollen, beweist unseren Tatendrag und Wissensdurst. Wenn wir aber glauben, alles wissen und in einer einzigen Theorie beschreiben zu können, so zeugt das einfach nur von unserer Torheit.

     
    Bis hierher gebe ich Gleiser recht. Er schreibt aber auch:
      Die Vorstellung einer wohldefinierten mathematischen Struktur, die alles bestimmt, was im Kosmos existiert und geschieht, ist ein platonischer Irrglaube, der jeder Verbindung mit unserer physikalischen Umwelt entbehrt.

    Ich, Gebhard Greiter (und auch Max Tegmark) denken eher: Die Gesamtheit aller mathematischen Wahrheiten könnte genau diese Struktur sein. Richtig ist nur, dass Menschen nie all diese Wahrheiten werden entdecken können und schon allein deswegen jede unserer physikalischen Theorien Stückwerk bleiben muss.

     

     Beitrag 0-300
    Zu Higgs-Mechanismus und elektroschwacher Vereinheitlichung

     
     

     
    Zum Higgsfeld

    und wie man sich die elektroschwache Vereinheitlichung vorzustellen hat

     
     


    Marcelo Gleiser (2010):
     
    Nachdem sich herausgestellt hat, dass auch Neutrinos ein kleine Masse haben (deren Wert wir allerdings noch nicht kennen), ist das Photon das einzige Elementarteilchen ohne Ruhemasse.
     
    Wie aber bekommen Teilchen Ruhemasse? Phasenübergänge geben die Antwort darauf:
     
    Heute befindet sich unser Universum in einer Art "gefrorenem" Zustand, in dem das Higgsfeld ungleich Null ist und so Teilchen Masse haben. Dies aber ist nur ein Zustand bei niedrigen Energien. Derzeitiger Schätzung zufolge wird das Higgsfeld bei Energien über 200 bis 300 Protonenmassen (multipliziert mit dem Quadrat der Lichtgeschwindigkeit) "durchsichtbar" für andere Teilchen: Sie tauschen dann untereinander keine Higgsteilchen mehr aus und werden deswegen masselos: Der "gefrorene" Zustand unseres Universums wird bei solch hoher Temperatur also ein sozusagen "flüssiger".
     
    Betrachten wir zum Vergleich den Phasenübergang zwischen Wasser und Eis:

       
      Wasser und Eis weisen unterschiedlich räumliche Symmetrie auf: Während Wasser homogen ist, d.h. im Durchschnitt überall gleich aussieht, ist Eis inhomogen. Gefrorene Wassermoleküle nämlich nehmen ganz bestimmte Positionen ein. Sie bilden ein hexagonales Gitter, das an Bienenwaben erinnert. Die Sauerstoffatome bilden die 6 Ecken und auf den Verbindungslinien zwischen ihnen sitzen die beiden Wasserstoffatome. Diese Symmetrie des Eiskristallgitters führt zu den wunderschönen 6-eckigen Mustern in Schneeflocken oder dünnen Eisschichten auf Fensterglas.
       
      Fakt also: Obgleich gefrorenes Wasser ein hohes Maß an Symmetrie aufweist, ist flüssiges Wasser noch weit symmetrischer, da es überall gleich aussieht (was daran liegt, dass nur in flüssigem Wasser die durchschnittliche Aufenthaltswahrscheinlichkeit für ein Wassermolekül überall die gleiche ist). Wenn Wasser nun aber gefriert, sorgt der Phasenübergang für einen Verringerung der Symmetrie, stellt also einen Symmetriebruch dar.

     
    Etwas ganz Ähnliches passiert mit dem Higgsfeld: Solange es "durchsichtig" ist, sind die schwachen Eichbosonen ebenso masselos wie die Photonen. Die Reichweite der schwachen Wechselwirkung ist dann groß und sie verhält sich in etwa so wie die elektromagnetische. Aus diesem Grund sagt man, die beiden Wechselwirkungen seien im Zustand hoher Energie zur elektroschwachen Wechselwirkung vereint.
     
    Bei niedrigen Temperaturen aber kommt es zu einem Austausch von Higgsbosonen zwischen allen Elementarteilchen (Photonen ausgenommen), so dass sie dann Ruhemasse haben. Die schwachen Eichbosonen werden sogar sehr schwer, wodurch die schwache Kraft dann nur noch sehr kurze Reichweite hat.
     
    Wie im Fall von Wasser und Eis ist der Übergang vom hochenergetischen in den niederenergetischen Zustand mit Symmetrieverlust verbunden. Er besteht jetzt aber darin, dass die Kräfte sich im hochenergetischen Zustand nahezu gleich, im niederenergischen aber deutlich unterschiedlich verhalten.
     
    Dieser (wie man auch sagt: innere) Symmetriebruch ist das Kennzeichen des elektroschwachen Phasenübergangs.
     


     
    Quelle: Marcelo Gleiser: Die unvollkommene Schöpfung (2010), S. 214-216


     

     Beitrag 0-394
    Wo entsteht Leben?

     
     

     
    Wo beginnt Leben?

     
    Es erscheint sinnvoll zu behaupten:
     
     
    Leben beginnt, wo abstrakter Information Bedeutung zugeordnet wird,
     
    so dass Wissen entsteht (= etwas, das gewusst werden kann).

     
     
     
     
    Über Monismus und Dualismus

     
     
    Dualismus ist eine Denktradition, die von zwei Grundsubstanzen ausgeht: Materie und Geist.
     
    Monismus aber — in der heutigen Weltsicht vorherrschend, vor allem wo sie sich als naturwissenschaftlich fundiert begreift — geht von nur einer Grundsubstanz aus: Energie.
     
     
    Wer den Monismus ernst nimmt, kann das aber aus zwei ganz unterschiedlichen Gründen tun:
       
    • Der eine — heute in der Naturwissenschaft weit verbreitete — besteht darauf, Geist als eine eigenständige Größe ganz zu leugnen.
       
    • Man kann aber auch daran glauben, dass der Unterschied zwischen Geist und Materie ein eher nur pragmatischer sei (ganz so wie der zwischen Materie und Energie).
       
      In der von C.F. v. Weizsächer vorgeschlagenen Urtheorie — so Görnitz — lasse sich nämlich zeigen, dass masselose Information übergehen kann in Materie mit Ruhemasse.
       
      Quelle: Görnitz u.A. in Intern. Journ. Theoret. Phys. 27 (1988), S. 527-542 und S. 659-666 sowie 28 (1989) S. 651-657 und 31 (1992) S. 1929-1959.
       
      In der Urtheorie werde Information mit Wissen gleichgesetzt: Mit allem, was gewusst werden kann.
       
      Note: In der Urtheorie würde z.B. sämtliche mathematische Wahrheit (die durch Menschen heute ja erst in kleinen Teilen entdeckt wurde) Information sein. Die etablierte Physik aber ignoriert Information solcher Art, da sie alles ignoriert, was nicht beobachtet werden kann. Und so ist Geist ein Begriff, den sie nicht kennt, obgleich doch jeder von uns weiß, dass belebte Materie sich von unbelebter gerade dadurch unterscheidet, dass ihr Geist innwohnt als etwas, das sogar über sich selbst nachzudenken in der Lage ist.


     

     Beitrag 0-437
    Definition von: Leben, Wirklichkeit und Realität

     
     

     
    Definition von

    Leben, Wirklichkeit und Realität

     
     
    Unter Berücksichtigung von dem, was in den Notizen [Realismus] und [Information] gesagt wird, erscheint es sinnvoll zu definieren:
       
    • Leben ist, was die Fähigkeit hat, seiner Wirklichkeit Bedeutung zuzuordnen.
       
    • Die Wirklichkeit W(L,Z) eines Lebewesens L zum Zeitpunkt Z ist alles, was sich L spätestens zum Zeitpunkt Z bekannt gemacht haben kann. Es ist dies die Summe aller Signale, die L spätestens zum Zeitpunkt Z erreicht haben können.
       
    • Die Realität R(L,Z), in der ein Lebewesen zum Zeitpunkt Z lebt, ist seine — mehr oder weniger subjektive — Interpretation der Summe aller Signale, die L spätestens zum Zeitpunkt Z tatsächlich erreicht haben.

     
    Wie Einsteins Relativitätstheorie uns klar macht, ist
     
    — der Endlichkeit der Lichtgeschwindigkeit wegen —
     
    W(L,Z) Funktion des Ortes, an dem L sich zum Zeitpunkt Z befindet.


     

     Beitrag 0-286
    Was ist Leben?

     
     

     
    Was ist Leben?



    Freeman Dyson:
     
    Life [may be] defined as a material system that can acquire, store, process, and use information to organize its activities.
     
    In this broad view, the essence of life is information, but information is not synonymous with life.
     
    To be alive, a system must not only hold information but process and use it. It is the active use of information, and not the passive storage, that constitutes life.
     


     
    Quelle: Freeman Dyson: » Is Life analog or digital? «
     
     
    Lies auch: » Leben ist Definitionssache « — Wie Biologen Leben definieren


     

     Beitrag 0-324
    Leben ist, was Wille hat — wie schwachen auch immer

     
     

     
    Leben ist, was wollen kann

     
     
    Unter Leben — so könnte man definieren — versteht man jede Verteilung von Energie (z.B. Materie), deren Fortentwicklung nicht allein nur durch physikalische Gesetze bestimmt ist.
     
     
    Um zu verstehen, warum diese Definition Sinn macht, lese man, was der Astrophysiker Paul Davies uns klar macht:

    Paul Davies (2006):
     

    (1) Die Struktur eines Kristalls ist von geometrischen Symmetrien bestimmt, die aus den Gesetzen des Elektromagnetismus folgen. Der Prozess, durch den eine diffuse Salzlösung zu Salzkörnchen auskristallisiert, ist genau definiert und verläuft gemäß Ursache und Wirkung, ist also deterministisch.
     
    (2) Gleiches gilt für das Streben jeden Gases hin zum thermodynamischen Gleichgewicht: Füllt man Gas in einem beliebigen Zustand in einen geschlossenen Behälter, um es dann sich selbst zu überlassen, erreicht es schnell einen Endzustand, in dem Temperatur und Druck im gesamten Behälter gleich sind und die Geschwindigkeit der Gastmoleküle einem wohlbekannten mathematischen Verteilungsgesetz folgen: der Maxwell-Boltzmann-Verteilung. Wieder ist der Endzustand ganz und gar vorhersagbar und der Prozess wiederholbar.
     
    In (1) und (2) scheint daher alles durch physikalische Gesetze bestimmt zu sein.
     
    Man könnte also fragen, on das Gleiche nicht auch für Leben und Bewusstsein gilt. Könnte also das Enstehen von Leben aus Nicht-Leben ebenso vorhersagbar und unvermeidlich und nur den physikalischen Gesetzen geschuldet sein?
     
    Die Antwort ist ein ganz klares NEIN.
     
    Das Verhalten biologischer Systeme liegt zwischen den beiden Extremen (1) und (2), denn sie sind weder so einfach strukturiert wie ein Kristall, noch so chaotisch wie ein Gas. Eine lebende Zelle ist durch große, wohlorganisierte Komplexität gekennzeichnet und ein ganz besonderer Zustand von Materie, der sehr viel Information enthält. Das Genom der kleinsten Bakterienart, die man bisher gefunden hat, speichert Information,
       
    • zu deren Darstellung mehrere Millionen Bit notwendig sind
       
    • und die keineswegs schon in physikalischen Gesetzen steckt.

    Die physikalischen Gesetze nämlich sind mathematische Beziehungen, die nur recht wenig Information (im Sinne von Shannon) darstellen. Sie gelten für alles und können schon allein deswegen keine Information enthalten, die nur für eine ganz bestimmte Klasse physikalischer Systeme charakteristisch ist, etwa für biologische Systeme.
     
    Wir sehen also: Um den hohen Informationsgehalt lebender Organismen verstehen zu können, müssen wir uns daran erinnern, dass er nicht nur Produkt physikalischer Gesetze ist, sondern auch der Geschichte des Objekts. Das Leben hat seine ungeheuere Komplexität erworben als Resultat eines Prozesses, der Milliarden von Jahren andauerte und eine ungeheuer große Zahl informationsverarbeitender Schritte bedurfte. Jeder biologische Organismus ist deswegen Produkt einer komplexen, verschlungenen Entwicklungsgeschichte. und so gilt:
     
     
    Fast alles Leben, dem wir heute begegnen, besteht zu 1% aus Physik und zu 99% aus Geschichte.

     
     
    Wenn nun aber nicht schon die Gesetze der Physik Leben formen, welches andere Ordnungsprinzip wirkt denn hier?
     
    So ein Prinzip ist tatsächlich vorgeschlagen worden, wurde und wird aber immer noch von der klassischen Wissenschaft aufs Heftigste bekämpft, da viele es als esoterisches Gedankengut einordnen: Teleologie. Das Wort kommt aus dem griechischen telos, was "Ende", "Ausgang" oder "Ziel" bedeutet. Eine teleologische Entwicklung ist deswegen eine Entwicklung, die zielgerichtet ist, und der Wissenschaft verdächtig ist sie deswegen, weil etwas auf ein Ziel hin zu treiben, entsprechenden Willen erfordert, die Mehrzahl aller Wissenschaftler sich ab weigert, daran zu glauben, dass auch scheinbar unbelebte Materie wenigstens einen Spur von Willen haben kann.
     
    Doch schon Aristoteles war der Meinung, dass es verschiedene Arten von Zielen gibt, von denen einen das » letzte Ziel « ist: der Endzustand, auf den jede Handlung hin zielt.
     
    Bei menschlicher Handling ist das einfach einzusehen: Ein Baumeister kauft Ziegel, um ein Haus zu bauen. Ein Koch gibt den Braten ins Rohr, um eine Mahlzeit zuzubereiten. In diesen Beispielen sind Haus und Mahlzeit das letzte Glied einer geplanten Kette von Ursache und Wirkung. Nur wenn wir diese » teleologische « Dimension mit betrachten, können wir verstehen, warum Baumeister und Köche so handeln, wie sie handeln.
     
    Auch bei Tieren, ja selbst bei Pflanzen, ist diese Dimension ganz offensichtlich gegeben: Der Falke stößt herab, um die Maus zu fangen. Die Pflanze versucht, möglichst senkrecht nach oben zu wachsen, damit sie Licht bekommt. Und dennoch wird nun schon seit Newton die Teleologie aus der Physik verbannt.
     
    In der Biologie kann man Teleologie kaum abstreiten, und doch hat Darwin in seiner Evolutionstheorie streng darauf geachtet, alles Teleologische herauszuhalten: Für ihn regierten nur Zufall und Lebenstauglichlichkeit (Selektionsdruck).
     
    So gesehen steht Darwin in scharfem Gegensatz zur — heute diskredierten — Evolutionstheorie von Langmarck, nach der Organismen von sich aus bestrebt sind, sich anzupassen, um besser zu überleben, und auch erworbene Fähigkeiten vererben können.
     
    Durchgesetzt hat sich Darwins Auffassung, und man kann fast sagen, dass die Wissenschaft eben dabei ist, sich auch von den letzten Resten teleologischen Denkens zu befreien.
     
    VORSICHT aber: Teleologie hat nichts mit Theologie zu tun. Obgleich Aristoteles' Konzept eines letzten Zieles theologisch neutral war, erschien vielen Wissenschaftlern das teleologische Prinzip zu nahe am Gedanken einer führenden Hand Gottes bei der Gestaltung des Universums. [ Dass Laien die beiden Worte teleologisch und theologisch gerne verwechseln, mag auch eine Rolle gespielt haben. ]
     
    Auf jeden Fall gilt: Das starke anthropische Prinzip flirtet mit der Teleologie, und Wissenschaftler, die sie aus der Physik heraushalten wollen, haben deswegen über derart "blauäugige Begriffe" ihren Spott ausgeschüttet.
     

    Gell-Mann etwa schrieb (1994):
     
    Das Leben kann sehr wohl aus den physikalischen Gesetzen in Kombination mit Zufällen entstehen, der Geist aus der Neurobiologie. Es ist nicht nötig, zusätzliche Mechanismen oder verborgene Ursachen anzunehmen.
     
    In seiner stärksten Version würde
    [ das anthropische Prinzip ] sich vermutlich auf die Dynamik der Elementarteilchen und den Anfangszustand des Universums erstrecken und diese grundlegenden Gesetze des Universums so zurechtschneidern, dass sie den Menschen hervorbringen. Diese Idee scheint mir derart lächerlich, dass sie keiner weiteren Erörterung bedarf.
     
     
    Quelle: Murray Gell-Mann: Das Quark und der Jaguar. Vom Einfachen zum Komplexen — die Suche nach einer neuen Erklärung der Welt (1994), S. 303.
     



    Paul Davies nennt als Gegenargument:
     
    Es ist nicht einzusehen. dass die erweiterte Multiversumstheorie — das ist diejenige, die davon ausgeht, dass jedes nicht unmögliche Gesetz irgendwo im Multiversum auch tatsächlich herrscht — teleologische Gesetze ausschließen sollte: Sie sind ja schließlich möglich. Vertritt man also die erweiterte Multiversumstheorie, so muss man sich tatsächlich fragen, ob nicht vielleicht unser Universum Resultat teleologisch gesteuerter Prozesse ist und ob nicht auch in ihm solche Gesetze selbst da noch herrschen, wo wir es bisher weder bemerkt noch für möglich gehalten haben.
     


    Die Teleologie ist bei Wissenschaftlern aber keineswegs nur aus ideologischen Gründen unbeliebt. Ihr scheinbar wichtigster Einwand: Wenn irgendwo neben den physikalischen Gesetzen auch teleologische wirken, wären doch Situationen denkbar, in denen es zu Zielkonflikten kommt. Wie aber lösen sich solche Konflikte?
     
    Doch die Antwort liegt auf der Hand, wenn wir uns selbst betrachten — z.B. dann, wenn jemand am Reck turnt oder auch einfach nur einen Berg erklimmt:
     
    Das physikalische Gesetz, ebenso wie unser Wille, üben dann einander entgegengesetzten Druck aus. Es gewinnt, wer von beiden den größeren Druck erzeugt.
     


     
    Quelle: Paul Davies: Der kosmische Volltreffer (2008), S. 293-297 + Fußnote 28 auf S. 360

     
     
     
    Wer sich all diese Argumente durch den Kopf gehen lässt, könnte gut auf den Verdacht kommen, dass die gesamte Natur Leben darstellt und biologisches Leben sich von scheinbar unbelebter Materie nur insofern unterscheidet, als der Wille der letzteren um Größenordnungen schwächer ist als der Wille von Mensch, Tier und Pflanze.
     
    Ich sehe hier einen Zusammenhang mit Beobachtungen, die Kristallologen, gemacht haben und die Sheldrake zu seiner Theorie morphogenetischer Felder brachten.
     
     
     
    Nebenbei noch:
     
    Menschlicher Wille — aber selbst der von Pflanzen — kann erstaunlich zielgerichtet sein und hohen Druck ausüben. Wer von uns hat sich nicht schon mal darüber gewundert, wie selbst Grashalme gelegentlich eine Asphaltdecke heben und durch sie ans Licht wachsen. Ist also vielleicht auch Wille eine Grundkraft der Natur?
     
    Aber können wir wirklich ausschließen, dass Physik sie nicht doch irgendwann zu modellieren lernt?
     
    Wenn wir also definiert haben, dass Leben etwas sei, dem eine nicht-physikalische Kraft innewohne, könnte sich das sehr schnell als eine doch recht relative Aussage entpuppen.

     
     

     
     
    Der eigentlich bedenkenswerte Einwand gegen Teleologie

     
    Sich vorzustellen, dass schon Existierendes sich aus eigenem Antrieb Ziele setzen kann, um sie dann — mit viel Willensstärke entgegen dem Drang physikalischer Gesetze — auch gezielt anzusteuern, ist eine Sache. Sich solche Ziele aber überhaupt auszudenken ist eine ganz andere:


    Paul Davies (2006, S. 306):
     
    Die Teleologie wird nicht nur abgelehnt, weil sie mit den Gesetzen der Physik in Konflikt kommen kann. Sie leidet auch unter einem anscheinend unlösbaren Problem, das mit Ursache und Wirkung zu tun hat:
     
    Sie nimmt per definitionem einen zukünftigen Zustand vorweg — z.B. die Existenz biologischen Lebens — und verwirklicht ihn über einen oft lange andauernden Prozess.
     
    Dieses Element von Vorbestimmung steht nun aber in krassem Widerspruch zum normalen Konzept von Ursache und Wirkung, nach dem Ereignisse stets nur die Zukunft, aber nie die Vergangenheit beeinflussen können. Teleologie scheint dieses Verhältnis umzudrehen und zu erlauben, dass Zukunft die Gegenwart bestimmt. Wie aber kann das gehen? Wie konnte das frühe Universum von biologischem Leben wissen, um es dann gegen den Widerstand physikalischer Gesetze zu realisieren?
     


    Auch dieses Argument scheint mir den Schluss zuzulassen, dass Willenskraft eine Kraft wie jede andere sein muss. Es wundert uns ja schließlich auch nicht, dass z.B. ein elektrisch geladenes Objekt durch die elektromagnetische Kraft in eine Richtung und durch die Gravitationskraft in eine ganz andere gezogen werden kann.
     
    Nur wenn man annimmt, dass Willenskraft eine Kraft ist, die mit anderen Kräften konkurriert wie auch jene untereinander konkurrieren, kann Evolution im Sinne von Darwin zu biologischem Leben geführt haben ohne dass es vorweg schon hätte angedacht sein müssen.
     
    So gesehen ist das Wirken eines teleologischen Prinzips dann tatsächlich weder notwendig noch plausibel. Es würde reichen, wenn überall in der Natur Wille und Willenskraft gegeben sind — aber natürlich ist auch das alles andere als selbst­verständlich, da wir beides bisher ja nur in schon relativ hoch entwickeltem Leben tatsächlich beobachten. Zu fragen bleibt, auf welcher Stufe der kosmischen Evolution erste Spuren davon gegeben waren (bzw. in welcher Art quantenphysikalischer Wellenpakete sie gegeben sind, ohne dass wir sie dort schon entdeckt haben).

     

     Beitrag 0-303
    Eine weit konsquentere Definition des Konzepts » Leben «

     
     

     
    Wie Tipler, Barrow und Dawkins » Leben « definieren

     


    Frank J. Tipler (1994):
     
    Um » Leben « anhand physikalischer Begriffe zu definieren, verstehe ich unter einem » Lebewesen « jedes Gebilde, das Informastion codiert und über natürliche Auslese bewahrt.
     
    Nach einer Theorie des Biochemikers A.G. Cairns-Smith bestanden die ersten Lebewesen — unsere und auch aller Pflanzen Urvorfahren — aus Metallkristallen: Unsere ältesten Vorfahren waren sich selbst kopierende Muster von Defekten in Kristallen.
     
    Doch ist Leben natürlich kein statisches Muster, sondern ein dynamisches, mithin ein Prozess. Aber nicht alle Prozesse » leben «. Das wichtigste Merkmal Leben darstellender Muster ist, dass ihr Fortdauern auf einem Feedback mit ihrer Umgebung beruht und die im Muster codierte Information ständig variiert in Reaktion auf jenes Feedback.

     
     
    Somit ist Leben — wie schon erwähnt — durch natürliche Auslese bewahrte Information.

     
     
    Einige Folgerungen, die sich aus dieser Definition ergeben, leuchten nicht ohne weiteres ein.
     
    1986 wiesen John Barrow und ich darauf hin, dies bedeute unter anderen, dass Autos leben, denn:

       
      Sie reproduzieren sich in Fabriken und bedienen sich dabei menschlicher Mechaniker, aber Gleiches gilt für männliche Menschen: Zur Produktion ihrer Kinder benötigen sie über sich selbst hinaus eine Fabrik, genannt "Gebärmutter".
       
      Ähnliches gilt für blütentragende Pflanzen: Sie benutzen Bienen zu ihrer Befruchtung und Tiere, ihren Samen zu verbreiten. Viren benötigen die gesamte Maschinerie einer Zelle, um sich zu reproduzieren.
       
      Die Form von Autos entwickelt sich über natürliche Auslese, denn nur was gefällt und modischen Trends folgt, wird produziert (da anderes ja keine Käufer findet).

     
     
    Interessant nun aber: Im gleichen Jahr, als Barrow und ich öffentlich verkündeten, dass Autos leben, erschien Richard Dawkins Buch The Blind Watchmaker, in dem man gleich zu Beginn liest: "Computer und Autos ... [werden] in diesem Buch wie biologische Gegenstände behandelt."
     
    Und in seinem früheren Werk The Selfish Gene erklärt Dawkins, man solle Ideen des menschlichen Geistes, die durch natürliche Auslese bewahrt werden, als lebende Strukturen betrachten, und zwar nicht nur im übertragenen, sondern auch wirklich im technischen Sinne.
     
     
    Der Biologe Dawkins ist also zur gleichen Definition von Leben gelangt, wie wir [ Tipler und Barrow ] auch.
     
    Jeder Versuch, Leben auf Physik zu reduzieren, wird unweigerlich zu diesem Ergebnis führen.

     


     
     
    Unter einer Person versteht Tipler ein informationsverarbeitendes Gebilde, welches den Turing-Test besteht.
     
    Genau genommen, so schreibt Tipler, bestehe eine erstaunliche Ähnlichkeit zwischen einem Computerprogramm und der mittelalterlichen — durch Thomas von Aquin auf den Punkt gebrachten Vorstellung von dem, was wir Seele nennen:

       
      Jedes Computerprogramm — als formale Ursache einer Aktion des Computers — ist eine Folge von Zahlen, materielle Ursache sind die Eigenschaften der Materie, aus denen der Computer besteht, und wirkende Ursache ist das Öffnen und Schließen von Stromkreisen.
       
      Nach Thomas von Aquins bedarf die menschliche Seele eines Körpers um zu denken und zu fühlen, ganz so wie ein Computerprogramm einen Computer braucht, um arbeiten zu können.
       
      Seele, so Thomas von Aquin kennzeichnet sich durch zwei Fähigkeiten:
         
      • den agierenden Intellekt (intellectus agens), d.h. die Fähigkeit sich Vorstellungen anzueignen, und
         
      • den rezeptiven Intellekt (intellectus possibiles), d.h. die Fähigkeit, erworbene Vorstellungen zu bewahren und sich ihrer zu bedienen.

      In der Informatik ist es ganz ähnlich:
         
      • agierend sind die Regeln, welche die Verarbeitung der in Registern der CPU vorhandenen Information betreffen,
         
      • rezeptiv aber sind die im RAM oder auf sequentiellem Speicher codiert vorgefundenen Programme.

      Darüber hinaus leitet sich das Wort Information ab vom durch Aristoteles geprägten — und später von Thomas von Aquin übernommenen — Begriff der Form.
      Wir informieren uns, indem unser rezeptiver Intellekt neue Form annimmt.

     
    Lebewesen also, so Tiplers Credo,
    • kennzeichnen sich durch agierenden und rezeptiven Intellekt (sog. Seele).
    • Sie können — und werden schließlich auch — überall dort existieren, wo die Gesetze der Physik Informationsverarbeitung erlauben.
       
    • Dass sie in nicht allzu ferner Zukunft zum großen Teil Von-Neumann-Sonden sein könnten — Roboter also, die in der Lage sind, weitere, mindestens so fähige Roboter zu bauen — will Tipler nicht ausschließen. Mehr noch: Er hält es für wahrscheinlich.
       
      So also sieht seine  p h y s i k a l i s c h e  Theorie der Unsterblichkeit aus.
       
      Dass sie nichts mit Religion zu tun hat, sollte nun offensichtlich sein ( obgleich Tipler uns anderes zu suggerieren versucht ).


     
     
    Quellen: Frank J. Tipler: The Physics of Immortality (1994), in Deutsch: Die Physik der Unsterblichkeit, DTV (1995), S. 163-165.
     
    A. Graham Cairns-Smith: Genetic Takeover and the Mineral Origin of Life, Cambridge University Press, 1982.


     

     Beitrag 0-28
    Wie kam es zur Existenz erster reproduktionsfähiger biologischer Zellen?

     
     

     
    Wie entstand eine erste reproduktionsfähige biologische Zelle?

     
     
    In einem sehr ausführlichen Artikel mit dem Titel Hat die Biologie das Leben erklärt? befasst sich Siegfried Scherer (TU München) mit der Frage, ob Leben denn nun wirklich nur absolut zufällig entstanden sein kann.
     
     
    Seine Ausführungen, so sagt er selbst, konzentrieren sich auf zwei Fragen:
    • Wie viele Proteine waren für eine primitive Urzelle mindestens erforderlich?
       
    • Wie hoch ist der Anteil funktionaler Proteine in Sequenzraum (und damit die Chance, dass solche Sequenzen unter präbiotischen Bedingungen entstehen können)?

     
    Mir persönlich erscheint es sinnlos, der Betrachtung gerade diesen Schwerpunkt zu geben, denn:
    • Unser Universum ist eine Ansammlung sich — durch Quantenfluktuation und Dekohärenz — ständig neu konfigurierender Energie.
    • Dass Konfigurationen möglich sind, die wenigstens eine reproduktionsfähige Zelle (als Teilsystem) enthalten, ist offensichtlich (da wir selbst sonst nicht existieren würden).
    • Die Wahrscheinlichkeit dafür, dass sich absolut zufällig eine solche Konfiguration ergibt, kann deswegen nicht Null sein.

     
    Neben Zufall aber gibt es nur eine andere Möglichkeit: Einen bewusst eingreifenden Schöpfer.
    • Man kann also entweder Atheist sein (einen Schöpfungsakt ausschließen)
       
    • oder die Möglichkeit eines Schöpfers doch in Betracht ziehen (was dann zwingend zur Folge hat, dass für uns nicht mehr entscheidbar sein kann, auf welchem der beiden dann möglichen Wege es zur Existenz von Leben kam).

     
    Ich persönlich schließe einen Schöpfer nicht aus, bin aber doch der Meinung, dass — nachdem das Universum existent war — ein expliziter Eingriff des Schöpfers gar nicht mehr notwendig war.
     
    Vielleicht sind ja brodelnde Energie, die natürlichen Zahlen und die sie in ihren Beziehungen zueinander regierenden mathematischen Gesetze schon wirklich alles, was unser Schöpfer direkt zu schaffen hatte. Der ganze Rest, da bin ich mir sicher, kann sich dann sehr gut nur noch durch absoluten Zufall gesteuert ergeben haben.
     
    Meine Meinung also:

     
    Die Frage, ob Leben sich zufällig ergeben hat, ist unentscheidbar.
     
    Es macht höchstens Sinn, der Frage nachzugehen,  w i e  es sich aus präbiotischen Zuständen entwickelt haben könnte.



     

     Beitrag 0-84
    Wo findet sich die Wurzel allen Lebens?

     
     

     
    Was ist und wo beginnt Leben?

     
     
    Ganz offensichtlich gibt es Leben in mindestens drei Grundformen
       
    • Physikalisch:

        Aus Sicht der Physik lebt unsere Welt, da es Quantenfluktuation gibt: Sie ist dafür verantwortlich, dass ständig Neues entsteht, sich fortentwickelt und schließlich wieder im Formlosen verklingt.

       
    • Biologisch:


       
    • Spirituell:


     
    Sollte spirituelles Leben stets nur Teil biologischen Lebens sein, wäre absolut ungeklärt, wo seine Wurzeln liegen.
     
    Wer aber will so genau wissen, ob nicht vielleicht doch schon Geist selbst noch die Quantenfluktuation hervorruft?

     

     Beitrag 0-151
    Wie extrem unwahrscheinlich das Entstehen von Leben war

     
     

     
    Über die extrem geringe Wahrscheinlichkeit
     
    Leben zulassender Universen

     
     
    Ohne Licht gäbe es uns nicht.
     
    Letztendlich sind wir Resultat eines allerersten Symmetriebruchs, zu dem es in einem anfangs raum- und zeitlosen Universum kam, welches einfach nur extrem dichte Ansammlung von Energie war ( wahrscheinlich plötzlich aufgetaucht aufgrund von Quantenfluktuation und/oder des Tunneleffekts der Quantenphysik ).
     
    Schon die Tatsache, dass es zu 3 Raumdimensionen kam und zur Möglichkeit, dass ständig etwas geschehen konnte (uns also Zeit erzeugt hat), muss als ganz wesentlich eingestuft werden, denn nur so sind Kraftgesetze möglich, die Planetensysteme wie das unserer Sonne über lange Zeit erhalten können.
     
    Nachdem der Zahn der Zeit nun erstmals dank des so extrem unwahrscheinlichen Vorfalls eines Auftauchens unserer Welt aus dem Nichts zu nagen begann (wohl wieder nur deswegen, weil es Quantenfluktuation gibt), war die Möglichkeit geschaffen, dass sich Materie bilden konnte.
     
    Sie aber derart reichhaltig werden zu lassen, wie wir sie heute kennen, bedurfte es noch einiger weiterer — gar nicht selbstverständlicher — Bedingungen:
       
    • Erst Abkühlung und Ausdehnung verwandelte in unserem frisch geschlüpften Universum Photonen in erste Spuren von Materie (Quarks), womit es dann nicht nur erste Bosonen, sondern auch erste Fermionen gab.

       
    • Vor allem das zufallsgetriebene Auftauchen erster W- und Z-Bosonen führte zu einer Spezialisierung unter den Bosonen, d.h. zu einer Aufspaltung der Elementarkräfte und schließlich zu 4 Grundkräften, die deutlich unterschiedliche Reichweite haben.

       
    • Nur weil es in unserem Universum — wieder der Quantenfluktuation wegen — schon seit seinem plötzlichen Auftauchen aus dem Quantentunnel geringe Dichteunterschiede gab, konnten chemische Elemente entstehen: zunächst Wasserstoff, und dann sein eigenwilliger, bindungsunwilliger Freund, das Edelgas Helium.
         
      • Wäre unser Universum allerdings zu schnell expandiert — und damit zu schnell abgekühlt — hätten sich niemals Atomkerne bilden können: Es wären dann nämlich schon innerhalb von nur 15 Min sämtliche Neutronen ausgestorben, d.h. zu Protonen geworden ohne die Möglichkeit sich neu bilden und an andere Protonen klammern zu können, um zusammen mit ihnen Atomkerne zu bilden.
         
      • Es hätten sich dann auch nicht — so etwa 380 000 Jahre später — Elektronen zu den Atomkernen gesellen können, um so erste ungeladene Atome zu bilden mit dem Effekt, dass das Licht von nun an freie Bahn bekam, sich ungehindert auszubreiten (man ist daran erinnert, dass die Bibel uns berichtet: Und Gott sprach "es werde Licht".
         
      • Wäre auch an dieser wichtigen Schwelle die Expansion des Raumes schneller vorangeschritten, sähe unsere Welt heute völlig anders aus: Materie, wie wir sie kennen, gäbe es nicht. Strukturbildung hätte niemals in Gang kommen können. Das Universum wäre völlig gleichförmig, und abgesehen von einer ständigen Verdünnung der Ionenwolke bestehend aus Protonen und Elektronen, die es dann wäre, könnte nichts passieren.
         
      • Wäre die Expansion aber schleppender verlaufen, hätte sich Materie haufenweise derart schnell zusammenballen können, dass die kritische Dichte zugunsten eines geschlossenen Universums gekippt und so der gesamte Raum wieder auf quantenmechanisches Ausmaß in sich zusammenfallen hätte müssen.

       
    • Es erscheint daher als großes Wunder, dass unser Universum nun schon fast 14 Mrd Jahre lang fast exakt entlang der kritischen Dichte expandiert und daher schön flach ist — mindestens in dem durch uns noch beobachtbaren Bereich.
       
      Dass dem so ist, haben wir wohl Dunkler Materie und Dunkler Energie zu verdanken, denn bestünde unsere Welt nur aus den lächerlichen 4 Prozent, welche die leuchtende Materie ausmacht, hätten sich sie darstellende Sterne wohl niemals bilden können. Wie aber hätte es dann zur Fusion schwererer Elemente als Helium kommen können?
       
      Erst ständig Licht erzeugende Sterne haben uns das All erhellt, und erst das Entstehen erster Population-III-Sterne hat den Materiekreislauf in Gang gebracht: das Erbrüten immer schwererer Elemente durch die Kerne der Sterne.
       
      Immerhin 92 Prozent dieser Elemente sind heute Bestandteil unseres Körpers. Wir sind damit vor allem eines: Sternenstaub, Asche verbrannter Sterne, die gerade noch warm genug ist, Leben zu beherbergen.

       
    • Dieses Leben entstehen zu lassen, bedurfte es jedoch
         
      • einer einige Milliarden Jahre lang währender Abkühlung des Alls
         
      • und zudem noch des Entstehens eines Planetensystems, welches alle Eigenschaften besaß, jenes Leben zu schützen:
         
      • Hierzu war zunächst mal wichtig, dass unser Sonnensystem seit seiner Entstehung vor 4.6 Mrd Jahren noch keine einzige Supernova-Explosion in seiner näheren Umgebung miterleben musste — und wir reden hier immerhin von einem Bereich, dessen Radius mindestens 50 Lichtjare groß ist!
         
      • Nur dieser ruhigen Lage ist es zu verdanken, dass entstehendes Leben nicht schon früh wieder ausgelöscht worden ist.
         
      • Zudem ist unser Stern — unsere Sonne — insofern ein absoluter Glücksgriff, als sie recht langsam verbrennt, also recht lange existiert und insbesondere recht lange die angenehme Nestwärme garantiert, die Leben benötigt, sich zu entwickeln.
         
      • Der durch sie erzeugte Sonnenwind schützt uns vor kosmischer Strahlung, macht aber dank des Magnetfeldes unserer Erde ihr selbst nicht viel aus. So also kommt es, dass wir wärmendes Licht zwar bekommen, durch allzu harte Strahlung aber nicht ausgelöscht werden.
         
      • Die Tatsache, dass die Lichtgeschwindigkeit zwar groß, aber doch endlich ist, macht uns das Leben interessant, denn nur so können wir in die Vergangenheit und weit ins All hinaus blicken.
         
      • Und wie unglaublich wichtig für uns ist die Existenz der besten Freunde der Photonen: der Elektronen. Denn nur durch ihr ständiges Verschlucken und Wiederausspucken von Photonen wird unsere Welt für uns farbig und können wir Strukturen sehen. Ganz zu schweigen davon, dass sie notwendig waren, ungeladene Teilchen — die Atome — entstehen zu lassen und so der Raum durchsichtig werden konnte.
         
        Auch Moleküle, und letztlich uns, könnte es ohne Elektronen nicht geben.

       
    • Ferner ist von zentraler Bedeutung, dass die Gravitation weder stärker noch schächer ist, als wir beobachten:
         
      • Wäre sie schwächer, müssten die Sterne größer werden, um Kernfusion in Gang zu setzen.
        Ihre Strahlung wäre dann viel zu energiereich und ihre Brenndauer viel zu kurz, um Leben zu unterstützen.
         
        Wäre sie viel schwächer, hätten sich Sterne, Planeten, Galaxien und Filamente gar nicht erst bilden können.
         
      • Wäre sie jedoch stärker, wären die die Sterne kleiner und kurzlebiger, da ihre Kernfusion durch den stärkeren Druck ihrer eigenen Gravitationskraft schneller voranschreiten würde. Planeten könnten sie dann nur in viel engeren Bahnen lange umkreisen, was bewirken würde, dass auf ihnen Leben eher nicht möglich wäre.
         
        Wäre sie viel stärker, müsste das Universum schon längst wieder in sich zusammengefallen sein.

       
    • Von ganz besonderer Bedeutung für die Existenz unserer Welt sind jedenfalls die Gesetze der Quantenmechanik:
       
      Unschärfe-Relation, Tunneleffekt und Wirkungsquantum.

     
    War es also Zufall oder Absicht, dass sich unser Universum — eine urplötzlich auftauchende Portion von Energie — so entwickelt hat, wie es sich entwickelte?
     
    Warum sind die Naturgesetze so, wie sie sind?

     
    Man weiß es nicht.

     
     
     
    Quelle: Daniela Leitner: Als das Licht laufen lernte (Bertelsmann 2013, Seite 793-805)


     

     Beitrag 0-162
    Was genau sind Leben und Intelligenz?

     
     

     
    Wie definiert die Natur Leben und Intelligenz?



    Mathias Bröckers, 1998 :
     
    Mit der Frage » Was ist Leben? « verhält es sich wie mit der Frage » Was ist Intelligenz? « — je genauer man hinschaut, desto ungenauer fällt die Antwort aus.
       
    • Das Lexikon definiert die Dinge als lebendig, die wachsen, funktioniern und sich fortpflanzen. Aber auch Kristalle verfügen über diese Eigenschaften — sollte man sie deswegen als Leben einstufen?
       
    • Genauere Versuche, Leben als solches zu charakterisieren, beziehen die Fähigkeit zur Reaktion und Stoffwechsel mit ein — aber was ist mit dem 2000 Jahre alten Samen der Lotusblume, der erfolgreich ausgesät und gezüchtet wurde? War er während dieser 2000 Jahre tot oder lebendig? Oder was gilt für die Pilz-Spore, die Jahrmillionen durchs All schwebte und plötzlich, wenn Umgebung und Temperatur stimmen, zu wachsen beginnt?

    Anfang der 80-er Jahre schlugen Gerald Feinberg (ein Physiker) und Robert Shapiro (ein Biochemiker) vor, das Problem einer präzisen Definition von Leben dadurch zu lösen, dass man die Unterscheidung zwischen Leben und Nichtleben aufgebe, weil   Leben nicht als isoliertes Einzelphänomen erkennbar  sei, sondern nir in Wechsewirkung mit einer Umgebung.
     
    Sie gelangten zur Meinung, dass Leben stehe und falle mit dem Ausmaß der Ordnung, zu der Teile sinnvoll zusammengefügt sind und in ihrer Beziehung zueinander Information kodieren.
     
     
    Es scheint, als ob die Frage » Was ist Leben? « ebenso wie die Frage » Was ist Intelligenz? « auf ein und dieselbe Antwort hinauslaufen: auf
     
    die Fähigkeit zur Selbstorganisation.

     
    Das Paradox der Selbstorganisation aber ist:
     
     
    Je eigenständiger und kreativer ein Selbst ist, desto fester ist seine Einbindung in den Infomationszyklus des Ganzen —
     
    und desto weniger kann es auf jenes Ganze als notwendiger Umgebung seiner selbst verzichten.

     
    Kein Wunder also, dass James Lovelock zu seiner Gaia-Theorie gelangte, nach der die gesamte Erde als Lebewesen begriffen werden muss.
     
    Die Erde lebt — und das auch ohne uns. Gaia, so Lovelock, ist weder die gütige, alles verzeihende Mutter, noch eine zarte zerbrechliche Jungfrau, die einer brutalen Menscheit hilflos ausgeliefert ist. Sie ist vielmehr streng und hart: Denen, die die Regeln einhalten, verschafft sie ein stets warmes, angenehmes Zuhause. Unbarmherzig aber vernichtet sie jene, die zu weit gehen. Ihr unbewusstes Ziel ist ein Planet, der Leben fördert. Steht der Mensch diesem Ziel entgegen, wird er eleminiert werden.
     
    Gaias Grundgesetz und die erste Regel aller Selbstregulierung scheint zu sein: Alle Parasiten streben danach, zu Symbioten zu werden.
     


     
     
    Interessant in diesem Zusammenhang ist das Beispiel der Schleimpilze.
     
    Es sind dies einzellige Lebewesen, die in ihrer Lebensweise an Tiere und Pilze gleichermaßen erinnern, aber zu keiner der beiden Gruppen gehören.



    Mathias Bröckers, 1998 :
     
    Der sog. Schleimpilz ist kein Pilz, sondern ein amöben-ähnliches, einzelliges Lebewesen, das in verwesender Vegetation auf Waldböden vorkommt.
     
    Es pflanzt sich durch einfache Zellteilung fort und kann sich so auch über größere Gebiete ausbreiten.
     
    Sobald die Nahrung in seiner Umgebung erschöpft ist, geschieht etwas Außergewöhnliches: Die einzelnen Schleimpilze beginnen sich nach innen zu bewegen, rücken zusammen und verklumpen sich schließlich zu einem komplexen Organismus. Wie eine Art Schnecke kriecht dieses Wesen dann in ein neues Nahrungsgebiet und verwandelt sich dort erneut: Es errichtet einen Stengel, an dessen Spitze sich ein Fruchtkörper bildet, von dem sich in großer Zahl Sporen lösen und im Waldboden eine neue Kolonie bilden.
     
    Woher aber » weiß « der individuelle Schleimpilz, wann es Zeit ist, seine Individualität aufzugeben und einen kollektiven Organismus zu bilden?
     
    Die einfache Teilung, derer er sich zur Fortpflanzung bedient, zeigt, dass wir es bis heute mit einer seit den Frühzeiten des Lebens praktisch unveränderten Art zu tun haben — mit einer Art, die Selbstorganisation perfekt beherrscht, Leben darstellt und — ansatzweise wenigstens — sogar Intelligenz aufweist, da sie ja offensichtlich intelligent handelt.
     


    Welches Regelsystem mag denn nun bewirken, dass es zu solcher Selbstorganisation, Leben und sogar Intelligenz kommt?
     
    Statt von Selbstorganisation ( Autopoiesis = Selbsterschaffung & Selbsterhaltung ) spricht man oft auch von » Emergenz « (d.h. dem sich Herausbilden neuer Eigenschaften, die allein der Summe aller Teile zukommen, ohne dass man wüsste, wie einzele Teile zum Entstehen jener Eigenschaften beitragen).
     
    Lies auch, was Joachim Sohns dazu erklärt.
     
     
    Ursache von Emergenz scheinen sog. » dissipative Strukturen « zu sein. Es sind dies ganz erstaunlich häufig durch die Natur geschaffene Strukturen, die äußerst unwahrscheinliche Zustände darstellen. Obgleich höchst instabil, bleiben sie oft — dem 2. Hauptsatz der Thermodynamik zum Trotz — über längere Zeit hinweg erhalten.
     
    Ilya Prigogine (sprich "Prigoschin"), der sie 1967 entdeckt und beschrieben hat, erhielt hierfür 1977 den Nobelpreis für Chemie.
     
    Was dissipative Strukturen aufrecht erhält ist ein ständiger Energie- und Materialdurchfluss. Ihre Entstehung und Entwicklung läßt sich mathematisch erfassen.
     
     
    Note: Beispiele dissipativer Strukturen und ihrer nahezu unglaublichen Wirkung scheinen vor Prigogine schon andere gekannt, ja sogar gezielt genutzt zu haben. Dies gilt mit Sicherheit für Viktor Schauberger, der diese Kenntnis — wegen der er zunächst verlacht worden war — zum Bau besonders effektiver Holzschwemmanlagen genutzt hat (erst durch sie gelang es, auch noch das Holz von Bäumen, die in schwierigen Gebirgslagen wuchsen, erfolgreich und kostengünstig zu Tal zu bringen).
     
    Man lese hierzu:
       
    • Callum Coates: Living Energies — Viktor Schaubergers brilliant work with natural energy (1996),
       
    • Michel Schiff: Das Gedächtnis des Wassers — Homöopathie und ein spektakulärer Fall von Wissenschaftszensur (1997),
       
    • Hans Kronberger und Siegbert Lattacher: Auf der Spur des Wasserrätsels (1995),
       
    • Richard Milton: Verbotene Wissenschaft (1994), ab Seite 39.
       
    • Wikipedia: dissipativ, Dissipation
       
    • Wikipedia: Energie = Exergie + Anergie. Unumkehrbar sind genau die Prozesse, die Exergie in Anergie wandeln.

     
     
    Quelle: Mathias Bröckers: Das sogenannte Übernatürliche, Eichborn 1998


     

     Beitrag 0-233
    Wurzel allen Lebens ist der ständige » Kollaps der Wellenfunktion «

     
     

     
    Leben charakterisiert sich durch

    die Fähigkeit, abstrakter Information Bedeutung zuordnen zu können

     
     
    Wie in Notiz 0-230 erklärt, ist alle Information zunächst bedeutungslos (abstrakt, wie man auch sagt).
     
    Görnitz schreibt:
     
     
    Leben ist das Schaffen von Bedeutung aus bedeutungsloser Information.

     
    Zudem gilt:
     
    Je höher entwickelt eine Lebensform ist,
     
    desto mehr Möglichkeiten für Erzeugung und Weitergabe von Bedeutung stehen ihr zu Verfügung:

     
       
    • Für erste Formen von Leben war nur genetische Weitergabe von Bedeutung möglich.
       
    • Schon bei Vögeln — und noch weit mehr bei Säugetieren — entwickelt sich Sozialverhalten, da hier Bedeutung im Rahmen der Brutpflege von Eltern an ihre Kinder — über bedeutungstragendes Verhalten und bedeutungstragende Zeichen — weitergegeben wird (soziale Entwicklungsstufe).
       
    • Wo Sprache entstand, wurde Erzeugung und Weitergabe von Bedeutung nochmals deutlich erleichtert und mit der Erfindung von Schrift sogar unabhängig vom direkten Kontakt: Die kulturelle Entwicklungsstufe war erreicht.

     
    Da — wie ebenfalls in Notiz 0-230 erklärt — bedeutungstragende Information (konkrete, wie man auch sagt) klassische Information sein muss — solche also, die stets nur durch den Kollaps der Wellenfunktion entsteht —, muss er als die Wurzel allen Lebens gesehen werden.

     
     
    Quelle: Thomas & Brigitte Görnitz: Der kreative Kosmos, Spektrum-Verlag (2002), S. 161-162.

     

      Beitrag 2060-9
    Kirchliche Lehrmeinung oder Gewissen?

     
     
    Hans-m in 2060-8:
     
    Bei den christlichen Kirchen war bereits die Nutzung von Hilfmitteln (Kondom, Pille etc) zur Verhütung, eine Sünde.
    Ich weiss nicht ob die Kirche heute offiziell die Nutzung erlaubt, oder nur duldet?

    Zweck einer Kirche (= Religionsgemeinschaft) kann nur sein, ein Umfeld darzustellen, in dem man sein Gewissen bilden kann: Ein Umfeld, das Hilfe sein sollte, über moralische Vorstellungen nachzudenken und sie zu entwickeln.

    Keine Kirche kann irgend einem von uns eine Gewissensentscheidung abnehmen!

    Dass viele Vertreter von Kirchen das anders sehen, zeigt lediglich, wie begrenzt ihr Denkhorizont manchmal ist (bzw. aus machtpolitischen Gründen heraus wurde).

     

      Beitrag 1964-1
    Unter Leben verstehe ich ...

     
     

    Am Ende von Beitrag 1961-4 definiere ich:


    Ein Ding D(Q) existiert in genau dem Ausmaß,

    in dem — wie indirekt auch immer — Information darüber existiert.


    ( Information verstanden als Menge wahrer Aussagen )



    Diese Definition zugrundegelegt, kann D(Q) als zeitlich variable Menge Info(D,Q) von Information verstanden werden.

    Es macht dann Sinn zu definieren:


    Ein Ding D(Q) stellt in dem Ausmaß Leben dar, in dem es in der Lage ist, sich selbst — als Menge Info(D,Q) — in einer Weise abzuändern,


    die   d u r c h   k e i n   u n s   b e k a n n t e s   N a t u r g e s e t z   e r z w u n g e n   wird.


    Grob gesagt:


    Ein Ding lebt mindestens dann,

    wenn es lernfähig ist oder in der Lage, sich zu informieren.



    Gebhard Greiter (grtgrt)
     

      Beitrag 1964-4
    ... wonach dann z.B. auch Einzellern Leben zugesprochen wird

     
     
    Hans-m aus 1964-2:
     
    Trifft das auf Einzeller zu , denn die leben auch.

    Hallo Hans,

    die genaue Version meiner Definition war (siehe 1964-1):


    Ein Ding D(Q) stellt in dem Ausmaß Leben dar, in dem es in der Lage ist, sich selbst — als Menge Info(D,Q) — abzuändern.


    Und die spricht ja wohl tatsächlich auch Einzellern Leben zu.

    Gruß, grtgrt
     

      Beitrag 1964-10
    Zu leben bedeutet, sich selbst abändern zu können — und das (vielleicht) über ein gewisses Mindestmaß hinaus

     
     
    Stueps aus 1964-9:
     
    Vielleicht ist der Ansatz, den du wählst, schon falsch. M.E. macht es wenig Sinn, Leben über eine Menge von Qualitäten versuchen, zu definieren. Denn Leben ist m.E. schon eine eigenständige Qualität.

    Hi Stueps,

    ich bekomme jetzt den Verdacht, dass du das, was ich oben als die Qualität Q des Objekts bezeichne, mit als Teil meiner Definition von Leben siehst.

    Das ist NICHT so, denn Q dient lediglich dazu, das Objekt selbst auch seiner Art nach hinreichend genau zu charakterisieren. Beispiel:

    Eine Ziege aus Fleisch und Blut ist ganz was anderes, als eine Ziege, die mir im Traum erscheint. Und die wiederum ist ganz was anderes, als der Schatten einer Ziege an der Wand in Platons Höhlengleichnis, den die Gefangenen als die Ziege missverstehen.


    In meiner Definition von Leben geht es nur um genau zwei Aspekte:
    • Leben muss in der Lage sein, sich selbst abzuändern,
    • und muss das können in einem bestimmten Mindestmaß, das eben es zu definieren gilt.

    Wenn es hier also um irgend eine Qualität geht, dann ist es die Qualität der Möglichkeit solcher Selbst-Veränderung.

    Gruß, grtgrt
     

      Beitrag 1964-13
    -

     
     
    Stueps aus 1964-12:
     
    Leben in Qualitätsgüten zu unterteilen (also in welchem Mindestmaß es sich abändern können muss, um als Leben zu gelten), könnte problematisch sein. Da greift dann doch wieder mein Beispiel von den Viren.

    Hi Stueps,

    leider hat das Wort "Qualität" im Deutschen zwei grundverschiedene Bedeutungen, Wer es nutzt, kann damit meinen
    • eine Klassifizierung nach  G ü t e  (= je mehr Qualität etwas hat, desto besser ist es)
    • oder eine Klassifizierung nach  A r t  (= was von verschiedener Qualität ist, ist von verschiedener Art).

    Im Kontext meiner Beiträge zur Frage » Was genau sollte man als Leben bezeichnen? « verstehe ich Qualität stets im zweiten Sinne.

    Welcher Wert der einen oder anderen Art zukommt ist eine ganz andere, von mir völlig ausgeklammerte Frage. Sie müsste ganz sicher unter verschiedenen Aspekten verschieden beantwortet werden.

    Kurz: Die Unterscheidungsmöglichkeiten, über die ich nachdenke, sind nicht als Werteskala zu verstehen, sondern als Skala zur Quantifizierung der Eigenschaft "kann sich selbst mehr oder weniger gezielt abändern".

    Beste Grüße,
    grtgrt
     

      Beitrag 1964-15
    -

     
     
    Stueps aus 1964-12:
    Dass du damit

    Grtgrt aus 1964-10:
    Eine Ziege aus Fleisch und Blut ist ganz was anderes, als eine Ziege, die mir im Traum erscheint. Und die wiederum ist ganz was anderes, als der Schatten einer Ziege an der Wand in Platons Höhlengleichnis, den die Gefangenen als die Ziege missverstehen.

    meinen könntest, darauf wäre ich gar nicht gekommen. Ich halte dies eigentlich auch für überflüssig, denn eine Ziege ist eine Ziege, ein Traum ist ein Traum, und ein Schatten ist ein Schatten. Traum und Schatten mit einer Ziege zu verwechseln, halte ich für unwahrscheinlich.

    Hi Stueps,

    dass du diese 3 Fälle nicht miteinander verwechseln würdest, wenn du sie nebeneinander genannt bekommst, ist sicher richtig.

    Nun stell dir aber mal bitte 3 Personen vor, von denen du nicht weißt, dass deren jede genau einen dieser 3 Fälle überhaupt nicht kennt (und wenn es nur wäre, weil sie – aus der Situation heraus, in der sie sich gerade befindet – überhaupt nicht daran denkt). Wenn nun jede dieser 3 Personen sagen hörst:

    Ich sehe eine Ziege. Sie frisst Gras.


    Würdest du dann jede dieser 3 Aussagen richtig interpretieren?
    Nimm an, keine der Personen lügt. Wären dann alle diese Ziegen (aus Sicht der Physik) lebende Exemplare?

    Kann man die letzte Frage denn überhaupt beantworten, ohne zu wissen, von welcher Qualität Q jede einzelne der 3 Ziegen ist?

    Gruß, grtgrt
     

      Beitrag 1964-14
    -

     
     
    Thomas der Große aus 1964-11:
     
    Meine Großmutter pflegte zu sagen: "Mit der Dummheit ist es so: Selbst merkt man nichts davon"

    Und so kann man auch die tote von der lebendigen Natur trennen, eben soweit wie sie reicht.

    Hi Thomas,

    nach dem, was du hier folgerst, würden Menschen, die an gewissen Geisteskrankheiten leiden, oder im Koma liegen, nicht mehr leben.

    Ich glaube nicht, dass deine Großmutter das so gesehen hätte, wenn z.B. du der Betroffene gewesen wärest.

    Gruß, grtgrt
     
     

      Beitrag 1964-16
    Zwei Beispiele, an denen sich jede Definition von Leben gut testen lässt

     
    Hallo grtgrt,

    Beispiel 1: Ein Stern verbrennt mittels Kernfusion. Das notwendige Material hierfür trägt dueser also selbst bei. Der Stern ändert sich daher aus eigener Kraft. Zählt die Sonne damit nach deiner Definition zu den lebenden Dingen?

    Beispiel 2: Ein Virus ohne Wirt ist nicht in der Lage, sich selbst (oder seinen eigenen Informationsgehalt) zu ändern.also Leben oder nicht?

    Pepe
     

      Beitrag 1964-17
    -

     
     
    Hi Pepe,

    vielen Dank für deine beiden Beispiele — sie haben mir gezeigt, dass meine Definition von Leben zu lückenhaft war.

    Ich habe sie deswegen ergänzt um die Nebenbedingung, dass die fragliche Selbstmodifikation durch kein uns bekanntes Naturgesetz erzwungen sein darf.


    Die so korrigierte Fassung meiner Definition spricht einem Stern — soweit ich sehen kann — nun kein Leben mehr zu.

    Ein Virus aber würde nach ihr Leben darstellen, da er sich ja mindestens in bestimmten Situationen so wandeln kann, wie kein uns bekanntes Naturgesetz ihm vorschreibt.


    Mit besten Grüßen,
    grtgrt
     

      Beitrag 1964-20
    Stellt auch ein Virus schon Leben dar?

     
     
    C... aus 1964-18:
    Zitat von Grtgrt:
     
    Ein Virus aber würde nach ihr Leben darstellen, da er sich ja mindestens in bestimmten Situationen so wandeln kann, wie kein uns bekanntes Naturgesetz ihm vorschreibt.

    Welche "bestimmte" Situationen meinst du?

    Hi C...,

    wenn ich das richtig verstanden habe, gibt es Situationen, in denen ein Virus sich in Kombination mit einer Wirtszelle — unabhängig von derem Genom und deren RNA — vermehren kann. Diese Situation habe ich gemeint.

    Ich gebe dir aber recht, dass hier nicht klar ist, ob man diese Situation tatsächlich so interpretieren kann, dass der Virus sich selbst modifiziert. Eigentlich müsste man ja genauer sagen: Die Kombination aus Virus und Wirtszelle modifiziert sich selbst. Nach meiner Definition wäre es dann also erst sie, die lebt.

    Deine beiden anderen Beispiele muss ich noch etwas überdenken. Ich hoffe, dann was dazu sagen zu können.

    Beste Grüße,
    grtgrt
     

      Beitrag 1964-21
    Physikalische Freiheitsgrade sind nicht weniger wichtig als physikalische Gesetze (!)

     
     
    Stueps aus 1964-19:
     
    meines Wissens nach wird doch alles durch (uns auch schon weitgehend bekannte) Naturgesetze erzwungen.


    Ich weiß nicht, ob man das so sagen kann. Es scheint mir eher so zu sein, dass
    • das wichtigste aller Naturgesetze darin besteht, die Natur zu veranlassen, eben NICHT alles zu regeln.
    • und dass man als » Leben « all das bezeichnen sollte, was in der Lage ist, die so entstandenen Freiräume gezielt zu nutzen.

    Mit anderen Worten: Es gibt
    • physikalische Gesetze,
    • daneben aber auch physikalische Freiheitsgrade.

    Beide sind gleich wichtig — beide sollten wir genau kennen.


    grtgrt
     

      Beitrag 1964-22
    Kann man sagen, dass ein radioaktives Atom, den Zeitpunkt seines Zerfalls selbst bestimmt?

     
     
    C... aus 1964-18:
     
    Ein radioaktives Atom, dass jetzt zufällig zerfällt, lebt1). Menschen, die sich entscheiden, zu heizen, weil ihnen kalt ist, dagegen nicht2).

    zu 1: Das Naturgesetz des radioaktiven Zerfalls in einer bestimmten Halbwertszeit gilt nicht für das einzelne Atom.
    zu 2: Das Blockheizkraftwerk hat z.B. im Winter jeweils um 11.00 Uhr eine naturgesetzlich verlässliche, konstante Leistungsabnahme.
     

    Hi C...,

    meine Definition will Leben charakterisieren über seine Fähigkeit, gegebene Freiheitsgrade ( sich selbst zu modifizieren ) gezielt zu nutzen.

    Wo Menschen sich entscheiden zu heizen, weil ihnen kalt ist, nutzen sie gezielt einen ihnen gelassenen Freiheitsgrad. Sie also fallen ganz klar unter meine Definition von Leben, wenn wir davon ausgehen, dass sie sich so selbst Wohlbefinden verschaffen (sich also selbst in einen Zustand versetzen, in den sie sonst nicht kämen).


    Wirklich sprachlos allerdings macht mich dein Beispiel des radioaktiven Atoms:
    • es scheint ja ganz klar einen Freiheitsgrad zu nutzen (eben die Freiheit, den Zeitpunkt seines Zerfalls selbst zu bestimmen),
    • muss sich aber andererseits doch an die Regel halten, irgendwann auf jeden Fall zu zerfallen.

    Meine Definition von Leben mal ernst genommen, könnte das aber zweierlei bedeuten:
    • Es könnte einerseits bedeuten, dass das Atom sich gar nicht selbst zum Zerfall entschließt
    • oder dass die Spitzen der Wurzeln allen Lebens eben doch schon quantenmechanisch begründete Freiheitsgrade sind.

    Ich sehe mich nicht in der Lage zu sagen, was mir wahrscheinlicher erscheint.


    Beste Grüße,
    grtgrt
     

      Beitrag 1964-27
    Physikalische Entfaltungsfreiheit

     
     
    Henry aus 1964-26:
    Grtgrt aus 1964-25:
     
    schließlich und endlich sind die Freiheitsgrade doch genau komplementär zu den Gesetzen.

    Naturgesetze setzen Größen zueinander in Beziehung, ein Freiheitsgrad (also z. B. der Ort oder der Impuls eines Teilchens oder auch seine Ladung) ist kein Naturgesetz.

    Hallo Henry,

    schön, wieder von dir zu hören!

    Aber was ich hier und in Beitrag 1964-21 unter "Freiheitsgraden" verstehe — bitte verzeih mir den Begriff, wenn er wirklich anders belegt sein sollte — ist schlicht und einfach die Freiheit, die die Naturgesetze den Dingen lassen, sich selbst in der einen oder anderen Richtung zu entwickeln: All das also, was Naturgesetze NICHT regeln.

    Vielleicht wäre » physikalische Entfaltungsfreiheit « das richtige Wort dafür.


    Gruß, grtgrt
     

      Beitrag 1964-33
    Wie entsteht der dem Leben gegebene höhere Spielraum, sich zu entwickeln?

     
     
    Zara.t. aus 1964-31:
    Grtgrt aus 1964-21:
     
    und dass man als » Leben « all das bezeichnen sollte, was in der Lage ist, die so entstandenen Freiräume gezielt zu nutzen.

    Wie kann ich nun feststellen, ob ein Messergebniss "gezielt" gewählt wurde?

    Hallo Zara.t,

    sei zunächst mal willkommen geheißen: Es freut mich sehr, dass du dich an dieser Diskussion hier mit beteiligen möchtest.


    Damit der Einstieg gut gelingt, sei zunächst mal auf eine Feinheit meiner Formulierungen hingewiesen das Wort "gezielt" betreffend:
    • Meine Definition von Leben in 1964-1 vermeidet es bewusst, solche Gezieltheit mit zu fordern.
    • Andererseits ist klar: Wo Freiraum  g e z i e l t  genutzt wird, sprechen wir von einer ganz besonders interessanten Form von Leben.

    Wir sollten aber vielleicht sogar noch etwas weiter ausholen:

    Dazu stelle ich zunächst mal fest, dass — wenn es überhaupt möglich sein sollte, die unbelebte von der belebten Natur klar abzugrenzen — die belebte sich dadurch auszeichnen sollte, dass ihr  m e h r  Freiraum zur Verfügung steht, sich eigenverantwortlich zu entwickeln, als das das für die unbelebte Natur der Fall ist.

    Andererseits aber haben wir zu akzeptieren, dass wenigstens  e t w a s  Freiraum auch der unbelebten Natur gegeben ist (das folgt allein schon aus der Tatsache, dass ein Kollaps der Wellenfunktion den durch ihn selektierten konkreten Zustand des Quantenobjekts ja absolut zufällig zu wählen scheint).

    Letztlich also bin ich der Meinung, dass die Frage, wo oder wodurch bei der belebten Natur der größere Freiraum (sich zu entwickeln) zustande kommt, die eigentlich wichtige ist. Solange wir sie nicht beantworten können, werden wir dem Geheimnis des Lebens wohl ganz grundsätzlich nicht auf die Spur kommen.


    Gruß, grtgrt
     

      Beitrag 1964-42
    Zur Doppelzüngigkeit der Natur: Selbst absoluter Zufall kann statistisch gesteuert sein

     
     
    Zara.t. aus 1964-38:
     
    sind wir uns einig, dass ... Leben nur von einer Quantentheorie beschrieben werden kann, da die nötigen Freiräume in klassischen Theorien nicht vorkommen?

    Hallo Zara.t,

    Leben über Quantentheorie zu beschrieben halte ich für unmöglich. Dennoch bin ich der Meinung, dass der Prozess, der zur Entwicklung von Leben geführt hat, seine Wurzeln in den Gesetzen der Quantenmechanik hat. Sie bestehen – meiner Meinung nach – in einem Zusammenwirken der beiden folgenden Tatsachen, die — da man sie nicht begründen kann — als durch die Natur gegebene Axiome zu sehen sind:

    Wo ein Überlagerungszustand in einen realen Zustand kollabiert,
    • ist dessen Wert (einzeln betrachtet) absolut zufällig,
    • statistisch gesehen aber doch durch Wahrscheinlichkeiten gesteuert (jene sind gegeben durch die Wellenfunktion, die den kollabierenden Überlagerungszustand beschreibt).

    Auf dieser "doppelzüngigen" Tatsache aufbauend setzt dann offenbar ein Evolutionsprozess ein, über dessen Gesetzmäßigkeiten nachzudenken mir durchaus sinnvoll erscheint.

    Jener Prozess, so sehe ich das, wird
    • durch die eine Seite der Medaille (1: absoluter Zufall) in Gang gebracht und getrieben,
    • wird aber erst durch (2: gewisse Wahrscheinlichkeiten) so gesteuert, dass er nicht ständig sofort wieder rückgängig macht, was er zuvor an Fortschritt erzielt hat.

    Mit anderen Worten: Die oben identifizierte "Doppelzüngigkeit" allen natürlichen Geschehens scheint essentiell (und des Pudels Kern) zu sein.

    Sie scheint zu bewirken, dass zunehmend komplexere Strukturen aufbauende Schritte ein klein wenig wahrscheinlicher sind als jene, die Strukturen zerstören.

    Gruß, grtgrt
     

    PS: Dass absoluter Zufall statisch gesteuert sein kann, klingt zunächst widersprüchlich, ist aber letztlich nur eine Einschränkung des Begriffes "absoluter Zufall".
     

      Beitrag 1964-45
    Es gibt 2 Arten von Komplexität ...

     
     
    Zara.t. aus 1964-43:
     
    Ich unterscheide zwischen Wirklicheit und Realität.

    Wirklich ist alles, was auf als real definierte Probekörper wirkt. In diesem Sinne sind Möglichkeiten wirklich (und Realität streng genommen eine Definitionssache). Möglichkeiten können durch Wellenfunktionen dargestellt werden. Die durch diese Wellenfunktionen beschriebenen Möglichkeiten superponieren und können zB zu makroskopischen Interferenzmustern führen. Einem Elektron ist es nicht egal wieviel Möglichkeiten (Spalten, oder Gitterstruktur...) es hat ein ansonsten undurchdringliches Hinderniss zu passieren. Möglichkeiten wirken!

    "Die Welt ist alles, was der Fall ist", sagt Ludwig Wittgenstein. " Und alles, was der Fall sein kann", ergänzt Anton Zeilinger.
     


    All das sehe ich ebenso.

    Zitat:
    Es spricht aus heutiger Sicht nichts dafür, dass komplexere Strukturen wahrscheinlicher sind als einfachere. Im Gegenteil.


    Auch hier kann ich nur zustimmen — allerdings nur dort, wo "wertvolle" Komplexität gemeint ist: Das ist solche kybernetischer Art.

    Das Gegenteil davon ist Komplexität nachrichtentechnischer Art (oft als "Unordnung" bezeichnet). Hier gilt genau das Gegenteil: Je "ungeordneter" ein Zustand ist, mit desto größerer Wahrscheinlichkeit tritt er ein (2. Hauptsatz der Thermodynamik).

    Leben zeichnet sich u.A. dadurch aus, dass bei lebenden Objekten der Quotient KkA/KnA besonders groß ist (aber eben leider nicht nur bei ihnen).

    grtgrt
     

      Beitrag 1964-56
    Was genau versteht man unter einer Zelle, die lebt?

     
     
    E... aus 1964-53:
     
    Was lebende Dinge von unbelebten unterscheidet:

    A l l e s was lebt besteht ausschließlich aus lebenden oder noch abzutransportierenden ehemals lebenden Zellen.


    Das scheint mir ein sehr schöner Ansatz,
    da er das Problem, Leben zu definieren, darauf zurückführt, zu definieren, was wir denn nun eigentlich ganz genau unter einer "lebenden" Zelle verstehen wollen.

    Sollte dieser notwendige zweite Teil der Definition mal gegeben sein, wird sich herausstellen, dass diese Definition von Leben ein Sonderfall meiner ist.


    grtgrt
     

      Beitrag 1964-62
    Was Chemiker als Leben definieren

     
     
    Pepe aus 1964-61:
    Organisch im Sinne "von Organismen herrührend" zu verstehen wäre natürlich tautologisch. Hier macht der Begriff Organisch nur wie der Chemiker es versteht Sinn, also "In der Natur vorkommende Kohlenstoffverbindung".

    Hi Pepe,

    das sehe ich ein, und demnach sagt uns die Definition der Chemiker:

    » Leben besteht aus aktiven Aminosäureketten eingebettet in eine Hülle aus in der Natur vorkommenden Kohlestoffverbindungen. «



    Zitat von Pepe:
    Verstehe ich dich richtig, dass der Zweck, den die Definition von Leben für dich erfüllen soll, gleichsam eine Erklärung der Ursachen des Vorhandenseins (also der Wurzel) des Lebens erfassen soll? Inwiefern glaubst du, dass eine Definition hierfür das richtige Mittel ist?

    Ja, du verstehst mich richtig. Meine Definition ist sozusagen der Versuch, die Stelle zu benennen, an der Leben beginnt — jene Stelle also, an der physikalische Dinge eine Qualität bekommen, die wir auch intuitiv nur lebenden Dingen zuordnen würden.

    Dies erfolgreich zu tun, darf man nicht auf der Abstraktionsebene stehen bleiben, auf der Biologie erst beginnt. Man muss darunter weiter suchen (natürlich ergebnisoffen).


    Gruß, grtgrt
     

      Beitrag 1964-68
    Zur Ursuppe

     
     
    E... aus 1964-60:
     
    sieh einmal bei "Ursuppe" nach (aber nicht kosten) und unter "Harold C. Urey" und "Stanley L. Miller", sowie bei "Uratmosphäre".

    Hi E...,

    das Experiment mit der Ursuppe ist vor allem deswegen interessant, weil es zeigt, dass die Entstehung von Leben aus Unbelebtem nicht auf einen einmaligen Schöpfungsakt zurückgeht (so nach dem Motto: Da kam jemand vorbei und hat erste Lebewesen geschaffen, die sich dann nur noch vermehrt haben), sondern dass die Fähigkeit, Leben zu schaffen, offenbar Teil der Natur unseres Universums ist.

    Eigentlich muss unser Universum dann ja selbst schon als Lebewesen aufgefasst werden. Diese extremen Standpunkt aber will ich zunächst NICHT vertreten (z.B. deswegen nicht, weil sich auch dann die Frage stellt, wann und in welcher Weise es denn zum ersten Mal lebendig war).

    Mir geht es darum, die Stelle im Evolutionsprozess zu finden, an der zum ersten Mal von Leben gesprochen werden kann. Das Experiment mit der Ursuppe kann dabei nur helfen, wenn man Leben nicht erst dort als gegeben sieht, wo Biologen das tun (deren Definition von Leben findet sich in 1964-62; sie versucht gar nicht erst, nach der Ursache von Leben zu fragen).

    ber Viren nachzudenken — die ja erst in Kombination mit einem Wirt zu Leben zu erwachen scheinen — ist wohl am ehesten der Weg, der hin zu neuen Erkenntnissen führen könnte.

    Gruß, grtgrt
     

      Beitrag 1964-70
    Leben, das mehr ist als nur biologisches Leben

     
     
    E... aus 1964-69:
     
    Ferner definiert sich Leben durch...
    1. ...die Nahrungsaufnahme und das Ausscheiden der Abfallprodukte des Stoffwechsels.

    Hi E...,

    mir erscheint dieses Kriterium ein allzu spezielles, da es viel ausschließt, was Leben sein könnte, von uns aber noch nicht als solches erkannt.

    Nehme z.B, mal an, wir würden physikalische Objekte entdecken, die nicht organisch sind aber etwas haben, was man als rudimentäres Bewusstsein sehen könnte. Würde man die dann nicht auch als Leben einordnen wollen?

    Anders gesagt: Wenn Leben wirklich nur biologisches Leben wäre (sprich: etwas, das sich vor allem durch Vorhandensein eines Stoffwechselprozesses und gelegentliche Fortpflanzung charakterisiert), käme es mir doch reichlich uninteressant vor. Die bei weitem erstaunlichere Eigenschaft von wirklichem Leben ist doch, dass sich in ihm Materie mit Geist mischt. Und wo der herkommt, das sehe ich als die eigentlich interessante Frage.


    Gruß, grtgrt
     

      Beitrag 1964-80
    Leben(M)

     
     

    Ein Ding D(Q) stellt in dem Ausmaß Leben dar, in dem es in der Lage ist, sich selbst in einer Weise abzuändern,

    die   d u r c h   k e i n   u n s   b e k a n n t e s   N a t u r g e s e t z   e r z w u n g e n   wird.


    Pepe aus 1964-79:
     
    Das "uns" in der Nebenbedingung, da sind doch wir, die Mitglieder von Manus Zeitforum - die die Naturgesetze kennen - gemeint, oder?

    Hi Pepe,

    du hast recht: Das "uns" bezieht sich auf uns (z.B. auf alle heute lebenden Vertreter der Wissenschaft "Physik"), und somit ist eine ganz bestimmte Menge M von Naturgesetzen gemeint.

    Den Mensch als solchen aber macht das noch nicht zum Teil der Definition. Es macht lediglich M zu einem Parameter der Definition, so dass wir eigentlich von "Leben(M)" statt einfach nur von "Leben" sprechen müssten.

    Wird also M durch eine größere Menge M' wirklich gültiger Naturgesetze ersetzt, so wird das die Definition automatisch verschärfen. Es könnte dann schon sein, dass wir Dinge, in denen wir nach jener Definition heute noch Leben vermuten, als doch unbelebt erkennen. Ich kann darin kein Problem sehen, denn die Physik (als Wissenschaft) existiert ja einzig und allein zum Zweck, unser Wissen über die Welt, in der wir leben, zu vermehren und unsere Modelle zutreffender zu machen.

    Insofern ist meine Definition von Leben wahrscheinlich das erste physikalische Modell, welches anerkennt, dass es mit großer Wahrscheinlichkeit irgendwann durch ein genaueres ersetzt werden wird.

    Gruß, grtgrt
     

      Beitrag 1964-83
    Ist unser Universum fortpflanzungsfähig? Vielleicht: siehe die Theorie der Baby Universes

     
     
    Irena aus 1964-81:
    grtgrt aus 1964-68:
     
    Eigentlich muss unser Universum dann ja selbst schon als Lebewesen aufgefasst werden.

    Nur in dem Fall, wenn du dem Leben sein spezifischen Merkmal zur Fortpflanzung aberkennst.

    Nein Irena, da irrst du:

    Denk doch bitte an die Theorie der Baby Universes: Nach ihr kann ein Schwarzes Loch aus unserem Universum sozusagen "heraustropfen", so dass jener Tropfen dann selbst ein Universum darstellt — gezeugt durch unser Universum.

    Es  k a n n  sich also fortpflanzen!

    Beste Grüße,
    grtgrt
     

      Beitrag 1964-86
    -

     
     
    E... aus 1964-85:
     
    Könnten Grtgrt. Singularitäten  k ö n n t e n  neue Universen hervorbringen. Es existieren nicht einmal zuverlässige Berechnungen für ein solches Ereigniss.
    Alles nur reine Spekulation oder auch "Träumerei".

    Also ist Deine Aussage unrichtig.

    Hi E...,

    du hast natürlich völlig recht, mich so auf den Boden der Tatsachen zurückzuholen.

    Auf was ich mich da beziehe, ist tatsächlich nicht mehr als eine — bisher weder bewiesene noch widerlegte — Theorie.

    Gruß, grtgrt

    Nebenbei: Wie hoch schätzt du eigentlich den Prozentsatz aller Theoretischen Physik, der Theorien zum Gegenstand hat, die bislang weder bewiesen noch widerlegt sind?

     

      Beitrag 1964-104
    Hawkings Kehrtwende 2004: Es gibt wohl doch keine Baby Universen

     
     
    E... aus 1964-103:
     
    Hi Grtgrt.
    Deine Informationen sind nicht der aktuelle Stand.

    Anläßlich der 17. internationalen Konferenz über allgemeine Relativitätstheorie und Gravitation in Dublin 2004, reichte Steven Hawking einen Vortrag ein, den er auch gehalten hat. ...

    Am 21. Juli 2004 begann er also mit Hilfe seines Sprachcomputers vor zu tragen...

    Zitat:
    "Die Frage lautet: Geht Information bei der Verdampfung schwarzer Löcher verloren?"

    Steven Hawking wörtlich:

    Zitat:
    " Es zweigt sich  k e i n  Baby-Universum ab, wie ich einst gedacht habe. Die Information bleibt fest in unserem Universum."

    Quellen: ISBN 978-3-440-13431-3 alternativ Google.... Was war denn Deine Quelle?

    Hi E...,

    danke für diese Info. Wenn das so ist, gebe ich mich Dir natürlich geschlagen.

    Mein Wissen kam aus Kapitel 11 des Buches "Stephen Hawking - Die Biographie" von Michael White & John Gribbin (1992, deutsch 1994).


    Wie oben schon Irena wünsche auch ich Dir und allen anderen hier friedliche und gesegnete Weihnachten.

    Mit besten Grüßen,
    grtgrt
     

      Beitrag 1964-87
    Warum es (fast sicher) KEINE eindeutige minimalste Form von Leben gibt

     
     

    Schlusspunkt zu diesem Thema


    In seinem Buch » Abschied von der Weltformel « macht Nobelpreisträger Robert B. Laughlin mit Nachdruck darauf aufmerksam, wie wichtig es ist, einzusehen, dass die Natur sich per Emergenz selbst organisiert.

    Emergenz
    — verursacht durch eine Vielzahl zufällig eintretender Elementarereignisse, die den Drang nach Potentialabbau ständig stören —
    ist dafür verantwortlich, dass komplexe Systeme mehr sind als nur die Summe ihrer kleinsten Teile.


    Leben, so Laughlin, ist der extremste Fall emergierender Gesetzmäßigkeiten.

    Damit wissen wir nun also ganz genau, wie Leben entsteht, und müssen daraus folgern:


    Es gibt fast sicher KEINE eindeutig minimalste Form von Leben (!).


     

      Beitrag 2039-20
    Die Wurzel aller Lebendigkeit und Kreativität

     
     

    Worin Hans-Peter Dürr

    die Wurzel aller Lebendigkeit und Kreativität

    sieht


    Zitat von Dürr, S. 116-118, hier etwas gekürzt:
     
    Vom Standpunkt des Physikers bleibt es zunächst rätselhaft, auf welche Weise die in der Mikrophysik entdeckte Ur-Lebendigkeit [ er meint damit wohl Quanten­fluktuation in unserer makrospopischen Alltagswelt eine Chance haben soll, sich dort in der Gestalt viel größerer, höher entwickelter Lebensformen der Pflanzen- und Tierwelt, uns eingeschlossen, bemerkbar zu machen.

    Und dies ohne dabei durch die erwartete  A u s m i t t e l u n g  ... zum scheinbar Unbelebten degradiert zu werden.


    Hier bedarf es eines Verstärkungsmechanismus, einer Art Kettenreaktion bzw. eines Dominoeffekts, durch den gewisse Möglichkeiten bevorzugt und verstärkt wirksam werden können.

    In der Physik sind es » statisch instabile Gleichgewichtszustände, singuläre Chaospunkte «, die eine solche bevorzugte Auslese ermöglichen.

    Das klingt unverständlicher als es ist und lässt sich durch ein einfaches Pendel demonstrieren, dessen Hin- und Herschwingungen, wie beim langen Pendel einer alten Standuhr, uns allen vertraut sind. Physikalisch lassen sie diese Schwingungen leicht berechnen, außer in dem einen singulären Fall, wenn ich das Pendel exakt senkrecht nach oben richte, also auf den Kopf stelle. Für diese Lage ist nicht vorhersagbar, in welche Richtung es fallen wird, wenn ich es loslasse. Es bleibt zunächst schüchtern oben stehen: Wir nennen das ein instabiles Gleichgewicht.

    Meditation und Versenkung heißt für mich, gleichnishaft, dass ich mich in einen solch statischen Instabilitätszustand begebe. Das Interessante an diesen Chaos-Systemen ist jedoch, dass die Hintergrundstörungen, die den chaotischen Ablauf bewirken, ihre Wurzeln im nicht auftrennbaren Beziehungsgefüge, der quantenphysikalischen Potenzialität, haben.

    Dies hat zur Folge, dass das Chaos wegen dieser Ur-Verbundenheit kein Chaos mehr ist: "Der Alte würfelt nicht" sagte Einstein mal in seiner entschiedenen Ablehnung der Quantenphysik. Jetzt wird diese Aussage richtig, aber umgekehrt als Stütze der Quantenphysik.
     


    Dürrs Argumentation seine beiden folgenden Feststellungen betreffend habe ich nicht wirklich verstanden (obgleich sie beide für sein Weltbild und seinen Appell an uns, natürliche Ressourcen nicht zu vergeuden, ganz zentral sind):

    • Dynamische Stabilisierung muss gefüttert werden.
    • Nachhaltigkeit bedeutet dynamisch: Das Lebende lebendiger werden zu lassen.

    Gut nachvollziehbar aber finde ich, dass er instabiles Gleichgewicht für die Quelle aller Kreativität hält.

     

      Beitrag 2097-38
    Erzeugt erst Licht die Zeit?

     
     
    Harti in 2097-1:
    Hallo zusammen,

    einerseits bewegt sich das Licht mit einer endlichen Geschwindigkeit von rund 300 000 km/sec; d.h. es bewegt sich in Raum und Zeit
    andererseits
    vergeht für das Licht bei seiner Bewegung keine Zeit (es bewegt sich nur im Raum).

    Wie ist dieser Widerspruch aufzuklären ?

    MfG
    Harti


    Hallo Harti,

    Raum, Zeit und Geschwindigkeit scheinen Begriffe zu sein, die man mit einem Gerüst vergleichen kann, das wir um ein Haus herum gebaut haben, welches es zu studieren gilt als etwas, das ein uns unbekannter Architekt in grauer Vorzeit geschaffen hat.

    Licht (als Phänomen) wäre das Haus, von dem ich hier spreche, und es genau zu studieren erscheint notwendig, da nicht klar ist, ob die Physik das Licht seinem Wesen und Zweck nach wirklich schon voll verstanden hat.

    Was mir beim Versuch, mehr Verständnis zu erreichen, so durch den Kopf geht, ordnet sich am ehesten dem Stichwort » Licht im räumlichen Sinne « zu. Du kannst ja dort mal nachlesen.


    Gruß, grtgrt
     

      Beitrag 2078-1
    Zur so überaus engen Verwandtschaft von Licht und Zeit

     
     

    Mehrere Fragen zu Licht und Zeit


    Schwarze Löcher — so denkt man — müssten schwarz sein, da ja sogar von ihnen eingefangenes Licht nicht mehr entkommen kann.

    In John Barrow: Einmal Unendlichkeit und zurück (2004) aber liest man:

    Zitat von Barrow, S. 113:
     
    Ein großes Schwarzes Loch sieht eher rot als schwarz aus, da das Licht, das einen außen stehenden Beobachter von der Schicht knapp über dem Ereignishorizont erreicht, beim Versuch, dem Schwerefeld zu entkommen, viel Energie verloren hat, wodurch sein Farbspektrum in Richtung rot verschoben ist.

    Er fährt fort und sagt:

    Zitat:
     
    Ganz gegen einen weit verbreiteten Glauben sind Schwarze Löcher nicht unbedingt kompakte Objekte. Große Exemplare, wie man sie im Zentrum von Galaxien vermutet, sind milliardenfach schwerer als unsere Sonne, aber trotzdem ist ihre Dichte geringer als die von Luft! Wir könnten ihren Ereignishorizont glatt durchqueren und würden nichts Seltsames bemerken. Nur ein Versuch umzukehren würde scheitern.


    Damit ist klar: Schwarze Löcher sind nicht einfach nur Ansammlungen von Materie, sondern sind Stellen der Raumzeit, an denen sich Energie in wohl jeder denkbaren Form sammelt und zusammenballt, ganz so wie sich in Vertiefungen der Erdoberfläche Wasser zu Seen und Meeren sammelt.

    Bisher dachte ich immer, jedes Photon sei eine Welle, die als Energieportion unteilbar sei, sich also nur ganz oder gar nicht mit einem anderen Elementarteilchen — einem Elektron etwa — vereinigen könne. Wie aber kann diese Vorstellung verträglich sein mit der Tatsache, dass Licht, welches nahe an einem Schwarzen Loch vorbeizieht, seine Wellenlänge vergrößert bekommt?

    Kann mir das jemand erklären?


    Und noch ein Gedanke geht mir durch den Kopf: Das Licht wird ja nicht, wie man denken könnte, schneller oder langsamer, wenn das Loch an ihm zerrt (die Licht­geschwindigkeit ist stets konstant). Nun ist aber Geschwindigkeit Quotient aus örtlichem Abstand und entsprechendem zeitlichen Abstand, und so bleibt nur der Schluss, dass durch die Gegenwart großer Energie-Ansammlung räumliche und zeitliche Abstände im selben Ausmaß, genauer: um jeweils denselben Faktor, verkleinert werden.

    Damit scheint die Zeit eine Dimension des Universums zu sein, die sich ihrer Qualität nach in rein gar nichts von den rein räumlichen Dimensionen unterscheidet.
    • Müsste sie dann aber nicht infolge der ständig stattfindenden Expansion des Universums ebenso gedehnt werden wie der Raum?
    • Wenn ja, könnte das die Erklärung dafür sein, dass man Atomuhren wirklich als etwas sehen kann, das einen im gesamten Universum einheitlich anwendbaren Zeitmaßstab darstellt?
    • Warum aber kann man Zeit — anders als andere Dimensionen — in nur  e i n e r  Richtung durchqueren?
      Licht könnte gut einziger Träger der Zeit sein. Schließlich und endlich bettet es ja die Vergangenheit uns ferner Sterne in unsere Gegenwart ein (!).

     

      Beitrag 902-91
    Logik, Expertensysteme, Wissensfindung

     
     
    Chemo aus 902-20:
     
    Meine Frage war, welcher Mittel sich ein Wahrheitsunkundiger bei der Wahrheitssuche bedienen kann.

    Hi Chemo,

    Meine Antwort auf deine Frage wäre:

    Unter Logik versteht man die Summe aller Wege, die dem Menschen offen stehen,
    sein Wissen gezielt, systematisch und zuverlässig zu erweitern.

    Diese Wege sind von dreierlei Art:

        (1) Lernen, indem man beobachtet
        (2) Lernen, indem man Fragen stellt
        (3) Lernen, indem man Wissen gezielt konstruiert



    Wege der Kategorie (1) sind eher selten besonders gezielt und besonders systematisch. Dafür decken sie aber ab, was ich als meinen Verstand von der Leine lassen bezeichne. Das Logische an Wegen dieser Art besteht vor allem darin, möglichst gezielt zu beobachten und sich in komplizierteren Situationen bewusst zu fragen, ob man denn auch wirklich genau genug hingesehen hat.


    Wege der Kategorie (2) sind ausgesprochen gezielt und besonders leicht zu gehen. Sie logisch zu gehen bedeutet vor allem, sich bewusst zu sein, dass nicht alle Antworten, die man auf eine Frage erhält, auch wirklich richtig sein müssen (es gilt also, sie zu prüfen).

    Interessant ist, dass es da aber einen — und wohl auch NUR einen — Gesprächspartner gibt, auf dessen Antwort wie uns zu 100% verlassen können: Dieser Gesprächs­partner ist die Logik selbst in Form eines Naturgesetzes, das man den Satz (besser: das Axiom) vom Widerspruch nennt. Es sagt:


    Lässt sich aus der Annahme, irgendwelche Aussagen seien wahr, ein Widerspruch ableiten,
    so ist wenigstens eine dieser Aussagen falsch oder nicht wohldefiniert.


    Einzusehen, dass und warum eine Aussage nicht wohldefiniert ist, kann beliebig schwierig sein (siehe [R] und das Ende der Seite [G] für zwei ganz typische, aber recht unterschiedliche Beispiele).

    Eben weil das recht schwierig ist, halte ich es für so wertvoll, dass das Axiom vom Widerspruch — hier in der Rolle einer Phytia — uns absolut zuverlässig antwortet. Wir müssen nur schlau genug sein, die Aussage, von deren Wahrheit unsere Überlegung ausgeht, so zu wählen, dass mit Ausnahme nur einer einzigen, uns alle anderen schon als WAHR bekannt sind.

    Vorsicht aber: Sofern wir keinen Widerspruch konstruieren können, sind wir nicht klüger als vorher (Phytia hat dann nicht geantwortet).

    Wir sehen also: Die Natur ist vergleichbar einer Mutter, die uns beim Lernen zuschaut, sich nicht einzumischen versucht, uns aber sofort hilft, wenn wir in eine falsche Richtung laufen. Ist das nicht schön?


    Kommen wir jetzt zu Kategorie (3): dem Konstruieren wahrer Aussagen.

    Es ist dies der Weg, den sog. Expertensysteme gehen, Computerprogramme also, deren Aufgabe es ist, logische Konsequenzen gegebenen Wissens zu errechnen.
    Jedes Expertensystem
    • nimmt eine Menge A(0) von Aussagen, deren Wahrheit man voraussetzt,
    • und kennt eine Menge R von Regeln, mit deren Hilfe sich Konsequenzen gegebener Aussagen errechnen lassen.
    Einmal gestartet, ergänzt das System pro Takt jede schon vorhandene Menge A(n) von Aussagen zu einer noch größeren Menge A(n+1): Die neu hinzukommenden Aussagen entstehen durch jeweils einmalige Anwendung des Regelwerkes R auf das in A(n) enthaltene Wissen und sind garantiert wahr unter der Voraussetzung, dass alle Aussagen aus A(0) wahr sind.

    Wir sehen: Jedes Expertensystem arbeitet wie ein Berater, der seinem Klienten zunächst Fragen stellt, seine Situation A(0) kennenzulernen, und der dann — unter Nutzung seines eigenen Wissens R — dem Klienten Konsequenzen seiner Situation aufzeigt (z.B. mögliche Wege, geschickt zu handeln).

    Jeder von uns hat schon mal ein Expertensystem konsultiert,
    • z.B. indem er an einen am Bahnhof stehenden Automaten nach einer komplizierten Zugverbindung gefragt hat.
    • Auch die Art und Weise, in der Juristen denken, ist ein recht treffendes Beispiel für gezielte Wissenskonstruktion.

    Gruß, grtgrt


    PS: Wenn Mathematiker von einer Logik sprechen, so verstehen sie darunter
    • einerseits ein (meist nur gedachtes) Expertensystem ( A(0), R ),
    • andererseits aber auch die Menge ALLER über dieses System herleitbaren Aussagen (man nennt sie die durch jene Logik als WAHR nachweisbaren Aussagen).
    Es kann Aussagen A geben, für die weder NOT A noch A als WAHR nachweisbar sind. Man sagt dann, A sei durch die Logik nicht entscheidbar.

    Interessant ist, dass das oben diskutierte Axiom vom Widerspruch der Menge aller wahren Aussagen (jeder Logik also) eine ganz klare, zwiebelartige Struktur gibt. Wen das interessiert, der findet sie skizziert auf Seite Was Mathematiker und Logiker unter Logik verstehen.

     

      Beitrag 1107-16
    Alle Kreter lügen — oder doch nicht?

     
    Thomas der Große aus 1107-1:
    Hallo,

    das wohl berühmteste Beispiel für sprachlogisch Kritik ist der Satz
    Zitat:
    Ein Kreter sagt: "Alle Kreter lügen!".

    Nach den mir bekannten Interpretationen ist er ein Widerspruch in sich.

    Seht Ihr das auch so oder steckt vielleicht doch eine sinnvole Aussage dahinter?

    Hi Thomas,

    es handelt sich hier NICHT um einen Widerspruch in sich.

    Eine ausführliche Begründung (und sonst noch einiges zum Thema Paradoxa) findet sich auf dieser Seite.

    Gruß, grtgrt
     

      Beitrag 1107-17
    Paradoxa sind stets Folge von Denkfehlern

     
    Irena aus 1107-15:
    Hallo,

    Es gibt auch ein Klassiker - eine Paradoxie des Barbiers:

    Alle Männer, die sich nicht selbst rasieren, werden vom Barbier rasiert

    Frage: wer rasiert den Barbier? Er rasiert nur die Männer, die sich selbst nicht rasieren. Also, er dürfte sich selbst rasieren nur wenn er sich selbst nicht rasiert.

    Es ist schon wieder ein Fall Selbstbezüglichkeit, ...

    Gruß, Irena

    Hi Irena,

    diese Aussage ist nur scheinbar eine paradoxe — ihr Wahrheitswert ist FALSE, wie man leicht durch Anwendung des Axioms vom Widerspruch beweisen kann.

    Details dazu finden sich auf Seite Paradoxa sind stets Folge von Denkfehlern.

    Gruß, grtgrt
     

      Beitrag 1107-19
    Mathematik klärt Paradoxa

     
     
    Liebe Irena,

    bitte lies mal den Abschnitt   [Argument 3]  auf meiner Seite Mathematik im Spannungsfeld von Physik und Informatik.

    Dort spreche ich über Russels Beispiel.

    Bitte lass' dir auch die letzten beiden Absätze auf dieser Seite gut durch den Kopf gehen.

    Danach dann nochmals (diesmal ganz in Ruhe, gründlch, und vor allem  u n v o r e i n g e n o m m e n ) die Seite Paradoxa sind stets Folge von Denkfehlern zu lesen, wird dir sicher klar machen, wovon ich spreche.

    Die Lösung des Lügner-Paradoxons übrigens ist auch in Kommentar 1 auf Seite philo42 gut erklärt (umgangssprachlich und auch strikt formal).
    Kommentar 2 und 3 auf jener Seite sind sicher auch hilfreich.

    Beste Grüße,
    grtgrt

    PS: Darf ich fragen, welchen Beruf du hast (oder was dein Studienfach war oder ist)?

     

      Beitrag 1107-22
    Wenigstens ein Kreter lügt nicht

     
    Henry aus 1107-21:
    Hi, Gebhard, Irena!

    "Weniger ist manchmal mehr", Gebahrd! Das IST eine paradoxe Aussage, und ...

    Hallo Henry,

    was du hier sagst, zeigt mir, dass dir — wie so vielen Leuten — nicht klar ist, dass die Negation der Aussage


    Alle Kreter lügen

    eben NICHT die Aussage ist,
    Alle Kreter sagen die Wahrheit

    sondern NUR die Aussage
    Wenigstens ein Kreter lügt nicht.


    Wir anderen aber, denen das klar ist, sehen sofort, dass in der Situation, in der ein Kreter K sagt, "Alle Kreter lügen" nur folgt
    • dass K lügt (was bedeutet, dass mindestens ein Kreter nicht lügt),
    • denn die Annahme, K lüge nicht, führt zu einem Widerspruch (was nach dem ältesten und wichtigsten Beweisprinzip, das die Mathematik kennt, aber nur bedeutet, dass diese Annahme eben nicht zutrifft — er also doch lügt).

    Wo also soll hier irgend etwas paradox sein?

    Paradox ist höchstens, dass wir Menschen rein umgangssprachlich hin und wieder zu schlampig denken (!).

    Gruß, grtgrt
     

      Beitrag 1107-29
    Paradoxa: Zu wenig durchdacht und verstanden

     
    Henry aus 1107-24:
    Es gibt verschiedene Typen von Paradoxa, wie mein Beispiel (Weniger ist manchmal mehr) zeigt, und das ist inhaltlich - weil es gegensätzliche Aussagen vereinigt - sehr wohl ein echtes Paradoxon. Ja, es gewinnt seine Bedeutung erst aus der bewussten Gegenüberstellung der Gegensätze und ist gewollt paradox forumuliert. Aber selbstverständlich bedeutet es auch, dass aus einer "Metaebene" betrachtet die Gegensätzlichkeit sich aufhebt, wenn man sich klar ist, dass hier die Bedeutung von "weniger" und "mehr" nicht als Quantität, sondern als Qualität zu verstehen ist. Das ändert aber nichts am paradoxen Inhalt der Aussage, die - wie gesagt - genau so gewollt ist.

    Hi Henry,

    bitte entschuldige, dass ich deinen Beitrag 1107-21 zu schlampig gelesen hatte. Mir wird erst jetzt klar, was dein erster Teil dort sagen an mich rüberbringen wollte.

    Dein Beispiel "Weniger ist manchmal mehr" zeigt deutlich, dass es tatsächlich eine Grauzone gibt (Aussagen also, die man sozusagen "zwischen den Zeilen" lesen muss — wie man im Deutschen so schön sagt). Mit rein nur mathematischer (sprich: formaler) Logik ist denen natürlich nicht beizukommen.


    Es freut mich aber, dass auch dein Beispiel sich zwanglos einordnet in mein Schema, welches ja behauptet:

    Zitat von grtgrt:
    Jede paradoxe Aussage ist
    • falsch,
    • zu ungenau formuliert (also gar keine Aussage) oder
    • wahr, aber ganz besonders nachdenkenswert.

    Dein Beispiel fällt hier ganz klar in die dritte dieser Kategorien.

    Dies festzustellen hindert mich nicht daran, zu sagen, dass man dein Beispiel eigentlich gar nicht als Paradoxie sehen sollte.

    Meine Faustregel lautet:

    Wo man — formal begründet oder nur gefühlt — von Paradoxie spricht,
    muss das als Anzeichen dafür gewertet werden, dass eine Situation vorliegt, die wir oder andere
    noch zu wenig durchdacht und verstanden
    haben.

    Beste Grüße,
    Gebhard
     

      Beitrag 1107-50
    Auch ein Kreter kann sich irren

     
     
    C... aus 1107-46:
    Wenn K lügt, so ist das - wie du richtig sagst - gleichbedeutend mit "Mindestens ein Kreter sagt die Wahrheit".

    Allein die Tatsache, dass K die Aussage: "Alle Kreter lügen." macht, würde somit wie von Geisterhand bedingen, dass mindestens ein Kreter die Wahrheit sagt, obwohl alle anderen Kreter doch frei sind, entweder die Wahrheit zu sagen oder zu lügen... ;-)

    Hallo C...,

    meine Beweisführung ist durchaus ok.

    Aber bitte bedenke: Zu lügen bedeutet, das Gegenteil von dem zu sagen, was man denkt.

    Da mein Beweis zeigt, dass K lügt, bedeutet das:

    K denkt: Nicht alle Kreter lügen.


    Was K denkt, muss aber nicht notwendig auch richtig sein (er kann sich ja irren — und dein Beispiel zugrundegelegt, irrt er sich halt wirklich).

    Beste Grüße,
    grtgrt
     

      Beitrag 1107-35
    Über das Axiom vom Widerspruch

     
    C... aus 1107-33:
    Grtgrt aus 1107-22:
    Wir anderen aber, denen das klar ist, sehen sofort, dass in der Situation, in der ein Kreter K sagt, "Alle Kreter lügen" nur folgt
    • dass K lügt (was bedeutet, dass mindestens ein Kreter nicht lügt),
    • denn die Annahme, K lüge nicht, führt zu einem Widerspruch (was nach dem ältesten und wichtigsten Beweisprinzip, das die Mathematik kennt, aber nur bedeutet, dass diese Annahme eben nicht zutrifft — er also doch lügt).

    Hallo Grtgrt,

    ich sehe das ganz und gar nicht "sofort".
    Meines Erachtens kann man aus Ks Aussage "Alle Kreter lügen" nicht ableiten, dass K lügt (vgl. hierzu auch meinen Beitrag 1107-5).

    Begründung: Es könnte sich nach Prüfung der Aussagen aller übrigen Kreter herausstellen, dass ...


    Hallo C...,

    das schöne an mathematischer Logik ist, dass wir mit ihrer Hilfe unser Problem lösen können auch OHNE alle Kreter befragen oder auch nur kennen zu müssen. Denn:

    Wichtigstes Axiom mathematischer Logik ist der sog. Satz vom Widerspruch.
    Er garantiert uns, dass, falls man aus gewissen Annahmen einen Widerspruch herleiten kann, wenigstens eine dieser Annahmen falsch sein muss.

    Im vorliegenden Fall, haben wir 2 Annahmen (wobei wir die erste als Gewissheit sehen):
    • Annahme 1: K sagt: Alle Kreter lügen.
    • Annahme 2: K sagt die Wahrheit.
    Aus Annahme 2 in Kombination mit Annahme 1 folgt, dass K lügt. Da das ein Widerspruch zu Annahme 2 ist, muss — so sagt der Satz vom Widerspruch — eine der Annahmen falsch sein. Da wir Annahme 1 als Gewissheit sehen, kann nur noch Annahme 2 falsch sein. Wir wissen also: K lügt.

    Gruß, grtgrt

    PS: Ich persönlich halte den Satz vom Widerspruch (Aristoteles hat ihn als erster formuliert und auf seine Bedeutung hingewiesen) für das wichtigste alle Naturgesetze.
     

      Beitrag 1107-38
    Was zu lügen alles bedeuten kann

     
    Irena aus 1107-36:
    ... es geht hier wieder um sprachliche "Feinheiten". Es geht nicht um mathematische Logik ...

    Hallo Irena,
    sofern man die Aussage

    Ein Kreter K sagt: "Alle Kreter lügen."


    nicht unter streng (formal-) logischen Gesichtspunkten betrachten will, sondern stattdessen in rein sprachlich-semantischer Hinsicht, kann man einfach nur festzustellen, dass sie zu ungenau formuliert ist. Vor allem ihrer Ungenauigkeit wegen erscheint sie uns paradox.

    Die Ungenauigkeit besteht darin, dass zu lügen, auf gleich fünf unterschiedliche Weisen etwas ganz Unterschiedliches bedeuten kann, wobei aber nicht geklärt ist, was K gemeint hat:
    • meint er, dass alle Kreter stets lügen, oder nur hin und wieder?
    • meint er, dass ihre Lüge eine objektive Lüge ist (oder eine nur subjektive)?
    • meint er, dass jede ihrer Lügen derselben dieser Kategorien zuzurechnen ist, oder meint er, dass die Kategorie von Fall zu Fall eine andere sein kann?
    Sollte dir nicht klar sein, was eine objektive Lüge von einer subjektiven unterscheidet, lies bitte nach auf Seite Falsches, Korrektes und Nachdenkenswertes: Es findet sich dort ein Beispiel (das mit dem Semmelpreis).

    Gruß, grtgrt
     

      Beitrag 2016-50
    -

     
     
    Henry aus 2016-48:
    Zitat von Gebhard:
    Na ja: Zumindestens durch Beobachtung zu bestätigen ist so mache Theorie doch (weswegen denn auch Einstein so scharf drauf war, dass damals jemand sich die Mühe machen sollte, zu beobachten, ob man anläßlich einer Sonnenfinsternis die durch seine Theorie vorhergesagte Ablenkung des an der Sonne vorbeiziehenden Lichts im von ihm vorhergesagten Ausmaß bestätigt fände).

    Nebenbei: Einstein hatte Glück, dass das deutsche Team auf der Krim damals — der Spionage verdächtigt — am Arbeiten gehindert wurde.
    Zu dem Zeitpunkt nämlich, war seine Vorhersage noch um einen Faktor 2 falsch. Erst zwei britische Teams konnten ihn anlässlich einer in Afrika und Südamerika beobachtbaren späteren Sonnenfinsternis bestätigen — hinsichtlich seiner dann schon korrigierten Vorhersage.

    Man sieht: Auch mit dem Falsifizieren ist das so ein Sache ....

    Das ist keineswegs "so eine Sache", denn es ist nur EIN Experiment, aber um die Theorie zu beweisen müsste man unzählige Experimente durchführen, und zwar unter exakt den selben Bedingungen. Das hört sich manchmal nach Spitzfindigkeiten an, aber so wird nun mal in den Naturwissenschaften gearbeitet. Zudem ist jedem, der sich ein wenig damit befasst, klar, dass auch die Relativitätstheorie nur annähernd richtig ist, denn sie kann keine Prozesse der Quantenmechanik erklären.


    Nun Henry,

    es ist halt doch "so eine Sache" mit der Falsifikation:

    Hätte man das Team in Kiew nämlich seine Beobachtungen durchführen lassen, hätten seine Zahlen dem widersprochen, was Einstein damals voraussagte.
    Die Wahrscheinlichkeit ist groß, dass man dann seine Theorie als widerlegt betrachtet hätte (und nicht einfach nur seine Rechnung, die den Fehler wirklich enthielt).
    Wer nämlich macht sich die Mühe, etwas Kompliziertes zu verstehen, wenn andere ihm sagen, es gäbe schon ein Gegenbeispiel?

    Und noch eine Sache: Zutreffende Theorien kann man natürlich niemals (zurecht) falsifizieren. Aber genau diese Theorien sind ja die wertvollen (!).

    Logisch korrekte Falsifikation ist demnach nicht mehr als ein Weg, Sackgassen schnell als solche zu erkennen.

    Gruß, grtgrt

     

      Beitrag 2016-52
    -

     
     
    Henry aus 2016-48:
     
    Du wirst mit deinem reinen Bezug zur Logik nicht weiter kommen.

    Tatsache aber ist: Fehlt dieser Bezug, so ist man von Anfang an auf dem Holzweg.


     

      Beitrag 2132-3
    Ist die Raumzeit ein geschlossenes System im Sinne des Energie-Erhaltungssatzes?

     
    Wrentzsch in 2132-1:

    Der Erhaltungssatz ist ein guter Hinweis das alles nur Wandel der Erscheinungsform ist.
    Wie kann man das beweisen oder widerlegen?

    Der Erhaltungssatz bezieht sich auf geschlossene Systeme, vielleicht ist das Universum in Bezug auf das Quantenvakuum kein geschlossenes System, wir wissen es nicht.
     
     

     
    Verletzt das Vakuum den Energie-Erhaltungssatz?

     
     
    Dass physikalische Größen wie Energie und Impuls in einem geschlossenen System weder verschwinden, noch zusätzlich auftauchen können, ist ein ganz zentraler Grundsatz der klassischen Physik und war wichtiger Ausgangspunkt von Einsteins Entwicklung der ART.
     
    Für expandierende Raumzeiten allerdings, lassen sich solche Erhaltungssätze bisher  n i c h t  begründen.
     
    Paul Davies und Edward R. Harrison — beides Kosmologen — argumentierten schon in den 80-er Jahren, dass man die Expansion des Raumes als Energiequelle sehen müsse, ohne dass klar sei, woher jene Energie kommt.
     
    Und auf der Frühjahrstagung 2015 der Deutschen Physikalischen Gesellschaft wies Gerhard Schäfer (Universität Jena) explizit darauf hin: "Das Thema Energie in der relativistischen Kosmologie ist eine Katastrophe."
     

     
     
    Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 191-192.
     

     Beitrag 0-539
    Was Ursache dafür sein könnte, dass unser Universum mehr Materie als Antimaterie enthält

     
     

     
    Was Ursache dafür sein könnte, dass

    unser Universum mehr Materie als Antimaterie enthält

     
     
    In Spektrum der Wissenschaft (1998) wird erklärt, aus welcher Richtung man sich heute eine Antwort auf die Frage erwartet, warum unsere kosmische Umgebung ganz offensichtlich mehr Materie als Antimaterie enthält (deutlich mehr sogar).
     
    Im Folgenden sei ein Versuch unternommen, diese Tatsache von völlig anderer Seite her plausibel zu machen:


    Gebhard Greiter (2021):
     
    Wie der Astrophysiker Lawrence Krauss in seinem Buch A Universe from Nothing (2012) argumentiert, könne es gut sein, dass der Urknall, der unsere kosmische Umgebung schuf, Quantenfluktuation war.
     
    Wenn Materie nun aber nicht durch kosmische Evolution entstand, sondern Ergebnis einer Quantenfluktuation war, so musste dieses Ergebnis ja — des Prinzips der Ladundungserhaltung wegen — zu gleichen Teilen aus Materie und Antimaterie bestanden haben. Genauer: Es müsste bestanden haben aus einem Paar gewaltig großer Teilchen, von denen eines i.W. Materie, das andere i.W. Antimaterie war.
     
    Wenn nun aber das sofort einsetzende Inflationsgeschehen die beiden gleichermaßen expandiert hat zu ganzen Universen, könnte es doch gut sein, dass wir gerade in dem leben, das vor allem aus Materie bestand (und immer noch besteht): Die beiden hätten sich dann ja kaum vermischen können, da sich der Abstand zwischen ihnen ebenso schnell vergrößert hätte wie ihr jeweiliger Durchmesser.
     
    Sabine Hossenfelder erklärt das recht schön gegen Ende ihres Vortrages How to create a Baby Universe (2021).
     


     
    Vom Nichts und dem Ursprung von allem — Was andere überlegen.
     
    A Big Bang in a Little Room (2017) — More Religion than Physics? — Read Hossenfelder's Review.


     

     Beitrag 0-312
    Was Physiker heute under » Materie « und » Strahlung « verstehen

     
     

     
    Was Physiker unter » Materie « verstehen



    Leonard Susskind (2010) schrieb:
     
    Unter Materie verstehen Physiker nicht nur Dinge, die aus Atomen bestehen.
     
    Als Materie gelten auch andere Elementarteilchen wie Photonen, Neutrinos und Gravitonen.
     


     
    Ausführlicher:
       
    • In der klassischen Physik wird unterschieden zwischen Materie, Vakuum und Kraftfeld. Hierbei haben Vakuum und Kraftfeld keine Masse, sondern beschreiben einen Zustand des leeren Raumes.
       
      Klassische Physik versteht unter » Materie « alles, was Raum einnimmt und Ruhemasse hat.
       
       
    • In der modernen Physik wurde der Materiebegriff durch die Relativitätstheorie und die Quantenphysik mehrfach erweitert.
      In den meisten Lehrbüchern der Physik wird er nun ohne eine genauere Definition einfach vorausgesetzt. Tatsache aber ist:
       
      Moderne theoretische Physik versteht unter » Materie « wirklich sämtliche Elementarteilchen (und auch alles daraus Zusammengesetzte).

     
     
    Was Physiker unter » Strahlung « verstehen

     
    Mit » Strahlung « kann Korpuskularstrahlung ebenso wie rein energetische Wellenstrahlung gemeint sein.

     

     Beitrag 0-313
    Schwarzkörper richtig verstehen

     
     

     
    Über Schwarzkörper und Schwarzkörper-Strahlung

     
     
    Was Physiker unter einem » schwarzen Körper « verstehen, ist ein Objekt, welches
       
    • einfallendes Licht  v o l l s t ä n d i g  absorbiert (als nichts davon reflektiert)
       
    • und Licht wirklich  j e d e r  Wellenlänge absorbieren und später auch wieder abgeben kann.

     
    Beispiel hierfür wäre ein rußiger Topf aus Gusseisen. Aber auch er wird strahlen, wenn man ihn erhitzt: Er wird zunächst rot glühen, bei weiterer Erhitzung dann mehr und mehr gelbes und schließlich sogar bläulich weißes Licht aussenden.
     
    Selbst unsere Sonne ist ein Schwarzkörper, denn durch sie abgestrahltes Licht ist kein durch sie reflektiertes, sondern stets nur von ihr selbst abgegebenes.

     

     Beitrag 0-81
    Warum wir ständig in einer Wolke virtueller Antimaterie leben

     
     

     
    Virtuelle Antimaterie
     
     
    Wie die Quantenelektrodynamik (QED) uns zeigt, lebt alle Materie ständig in einer Wolke virtueller Antimaterie:
     
     
     

     
     
     
    Quelle: Pedro Waloschek: Besuch im Teilchenzoo (rororo 1996)

     
     
     
    Das Bild zeigt — mit Hilfe eines Feynman-Diagramms — die Entstehung der virtuellen Elektron-Positron-Wolke in der Umgebung jeder elektrischen Ladung, z.B. eines Elektrons:
     
    Vom Elektron immer wieder abgespaltene und sofort wieder mit ihm verschmelzende Photonen verwandeln sich hin und wieder (in etwa 1 von 137 Fällen) in Elektron-Positron-Paare noch kürzerer Lebensdauer.
     
    Im Endeffekt also ist jedes Elektron (ja sogar jede Ladung) von einer Wolke virtueller Photonen und Ladungen umgeben. Da ein Elektron selbst negative Ladung trägt, werden die virtuellen Positronen angezogen, die virtuellen Elektronen abgestoßen. Feymans Diagramm symbolisiert das recht schön. Nebenbei:
     
     
     
    Ganz analog dazu sind auch Gluonen ständig von virtueller Antimaterie begleitet: Könnte man einen Blick auf sie werfen, würde man grob jedes vierte oder fünfte Gluon in einem Quark-Antiquark-Zustand vorfinden:
     
     
     

     
     
     
    Wie elegant und übersichtlich sich sich der Zerfall von Elementarteilchen mit Hilfe von Feynman-Diagrammen darstellen lässt, zeigt auch das folgende Bild:
     
     
     
    Beispiel eines komplexeren Feynman-Diagramms


     

     Beitrag 0-100
    Das Pauliprinzip — und sein Beweis

     
     

     
    Das Pauliprinzip (und seine Begründung)

     
     
    Jedes System von n Materieteilchen (1 ≤ n) ist letztlich eine Wolke aus Wirkpotential.
     
    Deren Dichte, genauer: das Feld der Wahrscheinlichkeiten, welches für jeden Zeitpunkt t und jeden Ort x im Raum beschreibt, mit welcher Wahrscheinlichkeit man
    dort spontan eintretende Wirkung erwarten kann — ist gegeben durch das Quadrat einer stetigen, komplexwertigen Wellenfunktion ψ( z1, ..., zn ), die nur von den Zuständen zj ( 1 ≤ j ≤ n ) der einzelnen Teilchen zu gegebener Zeit t0 abhängt.
     
    Eine offensichtliche Folge dieser Tatsache ist:
     
     
    Vertauscht man in der Parameterliste dieser Funktion zwei der Argumente, so ändert das nichts am Quadrat der Funktionswerte.
     
    Anders ausgedrückt:

     
    Jede solche Vertauschung wird ψ mit -1 multiplizieren ( man nennt das den  a s y m m e t r i s c h e n  Fall )
     
    oder gar nichts an ψ ändern (  s y m m e t r i s c h e r  Fall ).

     
     
    In der Natur werden beide Fälle beobachtet:

     
    Teilchen mit ganzzahligem Spin haben symmetrische Wellenfunktion,
     
    Teilchen anderer Art (dazu rechnen Protonen, Neutronen und Elektronen), haben asymmetrische Wellenfunktion.
     
    Dies gilt für elementare Teilchen ebenso wie für zusammengesetzte (also z.B. auch für Atome).

     
     
    Ein Wasserstoffatom etwa besteht aus zwei Spin-1/2-Teilchen (einem Proton und einem Elektron), deren Spinmomente sich zu einem ganzzahligen Gesamtspin addieren. Demzufolge ist die Wellenfunktion einer Menge von Wasserstoffatomen
    • hinsichtlich des Vertauschens der Zustände zweier Wasserstoffatome symmetrisch,
       
    • hinsichtlich der Zustandsvertauschung zweier Elektronen (oder zweier Protonen) aber antisymmetrisch.

     
    Aus der Antisymmetrie der Wellenfunktion von Elektronen folgt das Pauliprinzip. Es besagt:

     
    In keinem Quantensystem kann es zwei Elektronen geben,
    die sich im selben Zustand befinden (d.h. hinsichtlich aller vier Quantenzahlen gleichen Wert haben).

    Diese 4 Quantenzahlen sind:
     
    n (= Energie),  l (= Bahnmoment),  ml (= Richtung des Bahnmoments),  ms (= Richtung des Spinmoments)
     
     
     
    Beweis: Gäbe es im System zwei Elektronen gleichen Zustandes, so könnte man in der Wellenfunktion ψ( z1, ..., zn ) des Systems diese beiden Zustände miteinander vertauschen,
    o h n e  dass sich an den Werten der Funktion irgend etwas ändern würde. Dies wäre ein Widerspruch zur Asymmetrie der Funktion.

     
     
     
    Das Pauliprinzip hat zur Folge, dass sich in einem Atom mit mehr als zwei Elektronen nicht alle im energiemäßig vorteilhaftesten Zustand befinden können, dem mit (n,l,ml) = (1,0,0). Diesen Zustand können nur Elektronen besetzen, die unterschiedliches Spinelement ms haben. Dies aber kann nur 1/2 oder -1/2 sein.
     
    Wenn ein Atom also mehr als nur 2 Elektronen hat, müssen durch sie auch energetisch höhere Zustände besetzt sein: (2,0,0), (2,1,0), (2,1,1), (3,0,0) usw.
     
    Hieraus resultiert eine elektronische Struktur, die Grundlage des Periodensystems der Elemente und aller Chemie ist. Die einzelnen Elemente des Periodensystems sind chemisch deshalb verschieden, weil sie im Grundzustand unterschiedliche elektronische Struktur haben.
     
     
    In Lothar Schäfers Buch » Versteckte Wirklichkeit « liest man auf Seite 250-251:
     


    Lothar Schäfer (2004):
     
    Wenn zwei Moleküle oder Gegenstände A und B weit voneinander entfernt sind, ist es für alle praktischen Anwendungen ausreichend, sich vorzustellen, dass ihre Wellenfunktionen unabhängig voneinander sind.
     
    Wird der Abstand zwischen ihnen aber kleiner als etwa 10-10 Meter, so beginnen diese Wellenfunktionen deutlich miteinander zu interferieren, so wie man das bei Wellen immer beobachtet. Die Zustände von A und B verlieren dann ihre Eigenständigkeit, ja sogar ihre Identität, und das System { A, B } gelangt in einen Zustand, der stabilisierend oder destabilisierend sein kann:
     
    Die Elektronen des Systems entdecken dann nämlich, dass die meisten von ihnen sich auf destabilisierende Zustände höherer Energie zurückziehen müssen, da vorteilhaftere schon besetzt sind.
     
    Nach diesem Prinzip entstehen abstoßende Kräfte zwischen den Molekülen: Die Elektronen im einen Ding bemerken, dass die vorteilhaften Zustände im anderen schon besetzt sind und daher vermieden werden müssen.
     
    Der begriffliche Zwang, besetzte Zustände zu meiden, ruft dann physikalische Kräfte hervor.

     
    Man kann es auch so sehen:
     
    Ein geistiges Prinzip wird in ein mechanisches verwandelt.

     



     

     Beitrag 0-107
    Wie es zur Entdeckung von Antimaterie kam

     
     

     
    Antimaterie

     
     
    1929 fand Paul Dirac eine Gleichung zur Beschreibung von Elektronen, die sich mit annähernd Lichtgeschwindigkeit bewegen.
     
    Aus rein mathematischen Gründen enthielt sie nicht nur das Elektron als Lösung, sondern auch ein Teilchen mit gleicher Masse aber entgegengesetzter elektrischer Ladung.
     
    Schon 3 Jahre später (1932) wurde so ein Teilchen durch Carl Anderson in einer Nebelkammer — ohne dass er gezielt danach gesucht hätte — dann auch tatsächlich entdeckt. Man nennt es heute das Positron.
     
     
    Heute wissen wir, dass es zu jedem elektrisch geladenen Elementarteilchen T genau ein Antiteilchen gibt. Es unterscheidet sich von T allein durch das Vorzeichen seiner Ladung.

       
    • Antiprotonen konnten zum ersten Mal 1955 erzeugt werden (im Lawrence Berkely National Labaoratory, USA).
       
    • Wesentlich schwieriger war die künstliche Herstellung von Antiwasserstoff (dem Bindungszustand von einem Antiproton und einem Positron), einem aus Antimaterie bestehenden Atom. Sie gelang erstmals 1995 im CERN.
       
    • 2002 gelang es dann erstmals — ebenfalls im CERN — eine größere Menge von Anti-Wasserstoff-Atomen herzustellen (etwa 50.000).

     
     
    Das Konzept der Dirac Sea war Diracs Versuch, sich Antimaterie zu erklären. Dieser sein Erklärungsversuch aber widerspricht der Tatsache, dass in unserem Universum sehr viel mehr Materie als Antimaterie zu existieren scheint. Die Quantenfeldtheorie — die als modernere Fassung (und als Verallgemeinerung) der Quantenelektrodynamik zu sehen ist — macht keinen Unterschied mehr zwischen Materie und Antimaterie.
     
    Nebenbei: Richard Feynman war einer der letzten großen Physiker, die Teilchen eher als Teilchen, denn als Wellen sahen. Mit der Quantenfeldtheorie (QFT) wurde das anders: Elementarteilchen werden heute als Feldanregung verstanden, d.h. als Welle oder als Wellenpaket in einem physikalischen Feld analog dem elektromagnetischen Feld.
     
    Unter Mitberücksichtigung von Heisenbergs Unbestimmtheitsrelation existieren genau genommen noch nicht mal diese Wellen, sondern nur Wahrscheinlichkeiten, sie in unterschiedlich starker Ausprägung (d.h. mit unterschiedlich großer Amplitude) an diesem oder jenem Punkt der Raumzeit vorliegen zu haben.
     
     
    Lies auch: There are no particles, there are only fields
     
     
     
    Seit Mitte der 60er Jahre wissen Physiker aus Experimenten mit sogenannten K-Mesonen, dass Materie und Antimaterie auch ihrem Verhalten nach leicht unter­schiedliche Eigenschaften haben. Den Effekt, dass sich ein Teilchen bei einem Zerfallsprozess anders verhält als sein Antiteilchen, nennen sie CP-Verletzung.
     
    Quelle: CP-Verletzung — Verletzt ist die Symmetrie zwischen Materie und Antimaterie.

     

     Beitrag 0-168
    Antimaterie — wie man sie heute produziert und nutzt

     
     

     
    Antimaterie — wie leicht produzierbar?

     
     
    Antimaterie ist vor allem für die Grundlagenforschung interessant: Zum Ausloten der Naturgesetze.
     
    Dennoch gibt es auch recht wichtige praktische Anwendungen von Antimaterie:
       
    • Beispiel 1: Untersuchung von Werkstoffen:
       
      Durch Bestrahlung mit Positronen lassen sich die Ermüdungserscheinungen von Metallen besser dignostizieren als mit anderen Verfahren. Konkret kommt das zum Einsatz bei der Überprüfung von Flugzeugturbinen. Der Vorteil hier: Höhere Flugsicherheit und Kosteneinsparung.
       
    • Beispiel 2: Die Positronen-Emissions-Tomographie:
       
      Recht erfolgreich sind die Methoden SPECT und PET: Radioaktiv markierte Moleküle werden ins Blut gespritzt, wo sie Millionen von Positronen emittieren (positiver Beta-Zerfall). Damit lassen sich dann im Körper Tumore lokalisieren, aber z.B. auch molekulare Andockstellen für chemische Botenstoffe des Nervensystems.
       
      Selbst Blutfluss und Sauerstoffverbrauch im Gehirn lassen sich so gut verfolgen. Neurologen haben mit PET-Scans schon zahlreiche Hirnfunktionen und deren Wechselspiel lokalisieren können.
       
    • Beispiel 3: Seit 2003 versucht man mit Antimaterie sogar Krebs zu bekämpfen (weltweit forscht man daran an mindestens schon 10 Instituten). Hoffnung machen Experimente mit Hamsterzellen, die gezeigt haben, dass bei Tumorzellen Antiprotonstrahlen eine 4-fach höhere Zerstörungskraft haben als Protonenstrahlen.

    Was noch 1990 kaum vorstellbar war, ist Realität geworden:
     
     
    Antimaterie kann heute — wenn auch nur in extrem kleinen Mengen — nicht nur produziert,
     
    sondern auch gespeichert und manipuliert werden.

     
    Mit "extrem kleinen Mengen" sind  M i l l i a r d s t e l  von Gramm gemeint — eine Menge,
       
    • die kaum ausreichen würde, eine Glühbirne wenige Minuten leuchten zu lassen
       
    • und deren Zusammenbringen mit Materie (zwecks Verstrahlung) nicht gefährlicher wäre, als ein Streichholz anzuzünden.

    Mit der heute möglichen Antimaterie-Produktionsrate würde es 10.000-mal so lang dauern, wie unsere Universum alt ist, genügend zu bekommen, eine Bombe zu konstruieren, die mit einer einfach zu schaffenden Atombombe hinsichtlich Sprengkraft konkurrieren könnte.
     
    Zudem ist Antimaterie schon allein von der Energiebilanz her waffentechnisch absolut uninteressant: Bei ihrer Zerstrahlung würde nämlich nur etwa 10-Milliardstel der zu ihrer Produktion nötigen Energie frei — und das, obgleich Annihilation (das gegenseitige Auslöschen von Materie und Antimaterie) der effizienteste Energielieferant ist, den die Natur kennt.
     
     
    Die bisher ergiebigste Quelle von Antiprotonen sprudelte am Fermilab (in Chicago), wo man ab Juni 2007 monatlich etwa 1014 Antiprotonen gewann (rund 1.5 Milliardstel Gramm).
     
    Zum Vergleich: Im CERN produziert man jährlich etwa 1/10 dieser Menge: nicht einmal genug, eine 40-Watt-Glühbirne 7 sec leuchten zu lassen.
     
    Antiatome konnten erstmals 1995 (am CERN) erzeugt werden: Neun Antiwasserstoffatome mit einer Geschwindigkeit von 90% der des Lichts waren nachgewiesen worden als Resultat eines Prozesses, der Situationen schafft, in denen mit einer Häufigkeit von nur 1 zu 1019 so ein Atom entsteht.
     
    Ein erstes Anti-Lithium-Atom zu produzieren gelang erst 2011. Es besteht aus 2 Antiprotonen, 2 Antineutronen und 2 Positronen.
     
     
    Positronen in einer Penning-Falle einzusperren glückte erstmals 1984, Antiprotonen einzusperren war noch schwieriger, gelang aber 1986. Aber schon 1991 konnte man etwa 100 davon über Monate hinweg so aufbewahren. 1995 war es dann so weit: Man konnte Antiprotonen einzeln einsperren und so für experimentelle Zwecke bereitstellen. Ihre elektrische Ladung — so wurde jetzt mit einer Messgenauigkeit von 1 zu 10 Mrd. bestätigt — ist genau die der Protonen.
     
    Da Antiatome elektrisch neutral sind, können sie nicht mit Hilfe elektrischer Felder bewegt und gespeichert werden. Nun hat Antiwasserstoff aber — seines inneren Drehimpulses wegen — ein magnetisches Moment. Dadurch lässt er sich — wenn kalt genug — in einer magnetischen Falle einsperren. Damit ist es 2011 gelungen, auch Antiatome für immerhin mehr als 1000 sec zu speichern (um so damit experimentieren zu können mit dem Ziel, weitere Bestätigung für die Gültigkeit des Standardmodells der Elementarteilchenphysik zu finden).

     
     
    Auch die Natur produziert Antimaterie

     
    Dass sich Positronen (= Antielektronen) in kosmischer Strahlung finden, hat ein Höhenballon schon 1964 entdeckt.
    Selbst Gewitter auf der Erde erzeugen welche.
     
    Antimaterie im All ist inzwischen ein großes Forschungsthema:
       
    • Sonneneruptionen setzen regelmäßig relativ große Mengen von Antimaterie frei: Positronen und Antiprotonen.
      So sind z.B. 2002 in einer einzigen, gewaltigen Eruption etwa 0.5 kg Positronen entstanden —wäre ihre Energie nutzbar gewesen, hätte sie gereicht, ganz Deutschland 2 Tage mit Strom zu versorgen.
       
    • Etwa 80 Gramm Antimaterie kreisen zwischen Venus und Mars um die Sonne, und ca. 20 kg vermutet man innerhalb der Bahn des Saturns.
       
    • Nahe des Zentrums unserer Milchstraße zerstrahlen ständig riesige Mengen von Elektronen mit Positronen. Es muss da also eine Positronenquelle geben, die man noch nicht gefunden hat. Dies signalisieren uns Photonen, deren jedes genau die Energieportion darstellt, die bei der Annihilation eines Elektrons mit einem Positron frei wird.

     
     
    Quelle: Rüdiger Vaas: Vom Gottesteilchen zur Weltformel, Kosmos-Verlag 2013, S. 170-255
     
    Nach Harald Lesch (2002) kommen heute auf je 5 Mrd. Teilchen Materie etwa 1 Teilchen Antimaterie.


     

     Beitrag 0-169
    Quantenchromodynamik (QCD) beschreibt die Starke Wechselwirkung

     
     

     
    Quantenchromodynamik (QCD)

     
     
    Die QCD ist die Theorie der Starken Wechselwirkung — sie beschreibt die zwischen den Quarks wirkende Kraft.
     
    Das Besondere daran:
       
    • Bei geringen Abständen und hohen Energien sind die Quarks » asymptotisch frei «, d.h. kaum aneinander gebunden.
       
    • Bei zunehmend größerer Distanz aber wirkt Kraft wie ein zunehmend gespanntes Gummiband, das sie verbindet (Stichwort: » Confinement «).
       
    • Es gibt deswegen keine isolierten Quarks.
       
    • Beim Versuch, ein Paar von Quarks zu trennen, entstehen spontan neue Quark-Antiquark-Paare (» spontane Paarbildung «).

    Unmittelbar nach dem Urknall war die Materie im All so heiß und dicht, dass Quarks und Gluonen eine Art Plasma aus frei beweglichen Teilchen bildeten. Sein Verhalten war weniger das eines Gases, sondern eher das einer Flüssigkeit ohne innere Reibung (viel flüssiger als Wasser).

     

     Beitrag 0-364
    Was uns heutige Physik über die Struktur aller Materie zu sagen weiß

     
     

     
    Wie man zum heutigen Modell der Struktur aller Materie kam

     
     
    Schon im 5. Jahrhundert v. Chr. waren Leukip und sein Schüler Demokrit der Meinung, alles Anfassbare müsse Summe kleinster, unteilbarer Teilchen sein.
     
    Dass sie mit ihrer Auffassung recht haben könnten, begann der modernen Physik erst Ende des 19. Jahrhunderts klar zu werden:
       
    • Die entscheidenden Argumente dafür, dass Demokrits Atomidee richtig sein könnte, lieferten Experimente mit Gasentladungen in evakuierten Röhren, wie man sie gegen Ende des 19. Jahrhunderts in zahlreichen Laboren durchführte. Dass die im Zuge dieser Experimente entdeckten negativ geladenen Teilchen — dann Elektronen genannt — nicht die einzigen kleinsten Teilchen sein konnten, wurde klar aus der Tatsache, dass sie elektrische Ladung trugen, Materie an sich aber elektrisch neutral ist.
       
    • 1896 hat dann Henri Becquerel entdeckt, dass Uran Strahlung aussendet. Wenig später wurde klar, dass es sich dabei in Radium verwandelt. Neben elektrisch geladenen Partikeln — Alpha- und Beta-Strahlung genannt — verließ auch energiereiche Strahlung extrem kurzer Wellebnlänge — Gamma-Strahlung genannt — das sich umwandelnde Uran. Wie etwas später klar wurde, besteht Beta-Strahlung aus Elektronen, Alpha-Strahlung aber aus positiv geladenen Helium-Atomkernen.
       
    • Insbesondere die Alphateilchen erwiesen sich als recht gut geeignet, die Struktut der Atome zu erforschen: Ernest Rutherford verwendete sie als winzige Geschosse, die er auf Materialien unterschiedlichen typs prallen lies. Hierbei erkannte er, dass die weitaus meisten dieser Geschosse das Material durchdrangen, als würde es kein Hindernis darstellen. Einige wenige aber wurde extrem stark abgelenkt, in seltenen Fällen sogar um mehr als 90 Grad.
       
      Gegen Ende 1910 war Rutherford klar, was das bedeuten musste: Der Sitz der elektrisch positiven Ladung des Atoms — heute Atomkern genannt — musste im Verhältnis zur ganzen Größe der Atome extrem klein sein.
       
      Rutherford verschiedenste Materialien und sah, dass die positiv geladenen Alphateilchen umso häufiger und stärker abgelenkt wurden, je größer die Ordnungszahl des jeweiligen Elements im Periodensystem war.
       
      Diese Beobachtung führte zu einem ersten abgesicherten Atom-Modell: Jedes Atom musste aus einem positiv geladenen Kern bestehen, der umso mehr Ladungen aufweist, je höher die Ordnungszahl des jeweiligen Elements im Periodensystem ist. Da Atome nu aber nach außen hin elektrisch neutral sind, waren im Atom wohl auch kompensierende negative Ladungen — Elektronen — vorhanden.
       
      Da sich nun aber Ladungen verschiedenen Vorzeichens gegenseitig anziehen, sah Rutherford sich gezwungen, den Elektronen kreisförmige Bewegungsbahnen zuzuschreiben, da sie sonst ja in den Kern des Atoms stürzen müssten. Damit war das Planetenmodell des Atoms geboren.
       
       
    • So ganz richtig konnte dieses Modell aber aus gleich 3 Gründen nicht sein:
         
      • Wenn sich negativ geladenen Teilchen um einen positiv geladenen Kern bewegen, müsste sich ein Dipol bilden, der ständig elektromagnetische Strahlung aussendet, so dass die Elektronen ständig Energe verlieren und daher schließlich doch in den Kern stürzen müssten.
         
      • Auch die damals schon längst bekannte Tatsache, dass in den Spektren der Gase diskrete Linien auftreten, jedes Atom also nur elektromagnetische Wellen ganz bestimmter Frequenzen abstrahlt, gab zu denken.
         
      • Heisenberg lieferte noch einen weiteren Einwand: Kein den Gesetzen der Newtonschen Mechanik folgendes Planetensystem würde jemals nach Zusammenstoß mit einem anderen in seine Ausgangskonfiguration zurückfinden. Kohlenstoff aber bleibt Kohlenstoff auch nach dem Zusammenstoß seiner Atome mit anderen.

       
    • Erst Niels Bohr gelang es, wenigstens für Wasserstoff ein widerspruchsfreies Atommodell zu entwerfen: Er vereinigte die Ideen von Rutherford, Planck und Einstein, indem er den Elektronen innerhalb des Atoms kreisförmige Bahnen zuschrieb, die sie — entgegen den Gesetzen der klassischen Physik — strahlungslos durchlaufen. Jeder Behn, so Bohr, entspricht eine bestimmte Energiestufe, die Bohr durch eine Quantenzahl charakterisierte. Nur wenn Elektronen die Bahn wechseln, geben sie Energie ab oder nehmen Energie auf.
       
    • Obgleich Bohrs Modell auch heute noch das bekannteste ist, gilt es als überholt. Es kann keineswegs alle Fragen beantworten:
         
      • Sofort nach seinem Entstehen wurde klar, dass es selbst Wasserstoff — das aller einfachste Atom — Spektrallinien kennt, die sich so nicht erklären lassen. Sommerfeld hat deswgen zusätzlich zu de hauptquantenzahlen noch Nebenquantenzahlen eingeführt, womit dann auch die Feinstruktur der Spektren gedeutet werden konnte.
         
      • Dennoch funktionierte auch das nur für Wasserstoff, für Atome also, in denen nur ein einziges Elektron den Kern umkreist.

       
    • 1932 hat dann James Chadwick ein weiteres Teilchen entdeckt: Nahzu so schwer wie ein Proton, aber ohne eletrische Ladung, nennt man es heute das Neutron.
       
    • Schon 1930 aber kam Wolfgang Pauli zur Überzeugung, dass es ein weiters — ganz besonders leichtes, auch elektrisch neutrales — Teilchen geben müsse, welches Enrici Fermi dann das Neutriono (= "kleies Neutron") nannte. Es sollte noch 25 weitere Jahre dauern, bis man es tatsächlich nachweisen konnte.
       
    • 1936 fand man in kosmischer Höhenstrahlung dann noch ein Teilchen, das — wie das Elektron — negetive elektrische Ladung trägt, aber etwa 200 Mal so schwer ist: Man nannte sie Mesonen und hat später erkannt, dass es in zweierlei Varianten auftritt: Heute nennt man sie das Myon und das Pion.
       
    • 1970 schließlich hat man Protonen mit sehr energiereichen Elektronen beschossen und so erkannt, dass alle Nukleonen (= Protonen wie Neutronen) aus 3 noch kleineren Teilchen bestehen, die nie einzeln auftreten. Man nennt sie Quarks. Neben elektrischer Ladung tragen sie auch noch sog. Farbladung (was nichts mit Farbe zu tun hatn sondern einfach nur eine hilfreiche Analogie suggerieren soll).

     
    Da es neben den Materieteilchen nun aber auch noch Energieportionen gibt, die man Kraftteilchen nennt, hat man schließlich und endlich sie alle in einem einzigen Modell zusammengeführt: dem sog. Standardmodell der Elementarteilchenpysik.
     
    Seine — jetzt rein geschichtlich — letzte Ergänzung erfuhr dieses Modell, nachdem Experimentalphysik das sog. Higgs-Boson nachweisen konnte: Higgs-Bosonen sind Energieportionen, die anderen Elementarteilchen sozusagen "im Weg stehen" und so Ruhemasse verleihen: Je mehr sie Teilchen einer bestimmten Art "im Wege stehen", desto mehr Ruhemasse haben Teilchen jener Art.
     
     
    Interessant ist, dass jede physikalische Theorie selbst definiert, wie man sich Elementarteilchen vorzustellen hat:
       
    • Das Standardmodell sieht sie als ausdehnungslose Punkte.
       
    • Experimentalphysik (man denke an die Streuexperimente von Rutherford) sieht sie meist als Teilchen mit wenigstens grob definiertem, artspezifischen positivem Durchmesser (man nennt ihn die Compton-Wellenlänge des Teilchens).
       
    • Stringtheorie sieht sie als die einem String — einem Faden oder einer Membran — möglichen Schwingungszustände.
       
    • Quantenfeldtheorie aber sieht sie als Pakete von Wellen, die Anregung abstrakter Kraftfelder sind (jedem Typ von Elementarteilchen entspricht ein eigenes, in der gesamten Raumzeit defiertes Feld).

     
    Hält man sich an das Bild der Quantenfeldtheorie, kommt man unweigerlich zum Schluss, dass
       
    • unteilbar ( atomar im Sinne von Demokrit ) wirklich nur sinusförmige Feldanregungen sind,
       
    • und alles, was man heute ein einzelnes Elementarteilchen nennt, genau genommen nur ein aus einer bestimmten Perspektive heraus gesehener Aspekt des gesamten art-spezifischen Feldes ist.

     
    Wer sich dieses Bild — als das der Wirklichkeit wahrscheinlich am ehesten entsprechende — zu eigen macht, den wundert es dann auch nicht mehr, dass über die Materieteilchen hinaus auch einige der Kraftteilchen Ruhemasse haben (das Higgs-Boson und die Bosonen, welche die sog. schwache Wechselwirkung vermitteln).
     
     
    Nebenbei:
     
    Interessant ist, dass Teilchen, die Summe von Fermionen sind, dennoch Bosonen sein können (Spin ist additiv, und bosonisches Verhalten hat alles, was ganzzahligen Spin hat).

     

     Beitrag 0-108
    Quarks, Gluonen, QCD, und die Struktur der Hadronen

     
     

     
    Wie Quarks die Struktur der Hadronen erklären

     
     
    Die Quarks waren schon vor ihrer Endeckung von Gell-Mann und George Zweig theoretisch postuliert worden, um die sog. Hadronen (= Teilchen, die der starken Wechselwirkung unterliegen) zu erklären.
     
    Die meisten Hadronen (wörtlich: dicke Teilchen) zerfallen binnen sehr kurzer Zeit in leichtere. Stabil ist einzig und allein das Proton.
     
    Das Neutron, wenn frei auftretend, hat eine mittlere Zerfallszeit von etwa 11 Minuten. Beim Zerfall wird daraus ein Proton, ein Elektron und ein Neutrino. Im Atomkern dagegen, im Verbund mit Protonen, ist auch das Neutron stabil.
     
    Hadronen sind entweder Baryonen ("schwere" Teilchen) oder Mesonen ("mittelschwere" Teilchen).
     
    Viele davon wurden in den 50-er und 60-er Jahren entdeckt. Man dachte zunächst, all ihre Eigenschaften über das sog. Resonanzmodell erklären zu können. Es lief darauf hinaus, die Hadronen als eindimensionale Objekte (sog. "Strings") aufzufassen. Und in der Tat war genau dies die Geburtsstunde der Stringtheorie: Man schuf sie, das Spektrum der Hadronen zu erklären.
     
    Die Baryonen traten als Gruppe von 10 verschiedenen Fermionen auf, die Mesonen aber als Gruppe von 8 unterschiedlichen Bosonen.
     
    Es gehörte schon Genialität gepaart mit sehr guten mathematischen Kenntnissen dazu, um — wie Gell-Mann 3 Jahre später — zu erkennen, dass sich dieses Muster durch das Postulat einer Existenz von 3 unterschiedlichen Quarks mit Spin 1/2 erklären lässt:
     
      Rein nur aus Symmetriegründen dachte Gell-Mann, dass

      • die Baryonen aus 3 Quarks,
      • die Mesonen dagegen aus einem Quark und einem Antiquark

      zusammengesetzt sein müssten.
       
      Einige Jahre lang wurde seine Idee als zu abstrakt — als zu weit hergeholt — angesehen.

     
    1968 aber änderte sich das schlagartig: Streuexperimente im Stanford Linear Beschleuniger (SLAC) hatten bewiesen, dass Protonen und Neutronen nicht strukturlos sein konnten. Man beschoss sie mit Elektronen und konnte sie so bis tief in ihr Inneres hinein abtasten. Festgestellt wurde:
     
     
    Jedes Proton wie auch jedes Neutron besteht i.W. aus 3 noch kleineren Bestandteilen:
     
    aus Quarks, wie Gell-Mann sie wenige Jahre vorher schon postuliert hatte.

     
     
    Jedes Quark kommt in der Natur in 3 unterschiedlichen Varianten vor, die man "blau", "rot" und "grün" nennt.
     
    Es ist dies eine zusätzliche Eigenschaft der Quarks, die man bei anderen Leptonen, wie etwa beim Elektron, nicht findet. Sie führt ziemlich direkt zu den Gluonen und den Anziehungskräften, die zwischen den Quarks wirken: Gluonen sind der Klebstoff, der Nukleonen zusammenhält.
     
     
    Im Vergleich zu anderen Bosonen besitzen die Gluonen eine zusätzliche Eigenschaft: "Farbe" (auch "Farbladung") genannt:
     
    So kann sich z.B. ein "rotes" Quark durch Abstrahlen eines Gluons in ein "blaues" verwandeln. Dies Gluon trägt dann positive "rote" Farbladung und negative "blaue". Analog ist das mit den anderen "Farben".
     
    Es sind hierbei alle denkbaren Kombinationen unterschiedlicher Farbladung erlaubt (nur Gluonen, die jede der "Farben" in sich selbst überführen würden, kennt die Natur nicht).
     
    Und so kann man sich durch einfaches Abzählen vergewissern: Es gibt genau 8 unterschiedliche Gluonen.
     
     
    Bei nicht allzu hoher Temperatur sind Quarks stets eingesperrt in Hadronen, doch stets nur in Gruppen, bei denen die Summe all ihrer Farbladung sich neutralisiert zu "weiß" = "rot" + "grün" + "blau" in Nukleonen bzw. zu Null in Mesonen, denn jedes Meson enthält ein Quark mit positiver Farbladung und ein Antiquark mit der entsprechenden negativen Farbladung (also z.B. "rot" + "antirot").
     
     
    Dieses "Rechnen" mit den Farbladungen nennt man Quantenchromodynamik (QCD).
    Mit echten Farben allerdings, d.h. mit elektromagnetischer Strahlung, hat sie rein gar nichts zu tun.
     
    Das sogenannte Confinement — die Tatsache, dass man in der Natur keine freien Quarks oder Gluonen beobachtet, sondern ausschließlich farbneutrale Objekte — kann die QCD bisher nicht erklären.
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 92-105

     

      Beitrag 1955-150
    Virtuelle Materie — viel davon ist Antimaterie

     
     
    Keen aus 1955-82:
    Da hätte ich noch eine Frage, die mich schon längere Zeit beschäftigt:

    Ist Materie immer gegenständlich? Schon dieses Wort Materie, verstehen zu wollen fasziniert mich!

    Hi Keen,

    unter Materie versteht man Fermionen (d.h. Elementarteilchen, die so beschaffen sind, dass sich keine zwei davon an genau demselben Ort aufhalten können).
    Ganz klar aber sollte sein:

    Materie darf man sich nicht unbedingt schon als Substanz vorstellen.
    Sie kann auch einfach nur sog.  v i r t u e l l e  Materie sein.



    So richtig aufgegangen ist mir das erst, als ich im Buch "Antimaterie" von Frank Close (auf den Seiten 116-117) las:

    Zitat von Close:
     
    Richard Feynman und andere hatten [basierend auf Diracs Theorie des Elektrons gezeigt, dass sich das elektromagnetische Feld selbst in [virtuelle Elektronen [= Materie und [virtuelle Positronen [= Antimaterie umwandeln kann — eine der vielen bizarren Folgerungen aus der Unbestimmtheitsrelation der Quantentheorie. Diese "virtuellen" Teilchen und Antiteilchen im Vakuum hatten für das Elektron zur Folge, dass seine unmittelbare Umgebung nicht einfach leerer Raum ist, sondern dass es dort vor Aktivitäten brodelt.

    ... es zeigt sich nämlich, dass  das Elektron einen Einfluss auf das Vakuum hat  und die Leere in seiner Umgebung in einen Schwarm aus Teilchen und Antiteilchen verwandelt.

    ... Wir leben zwar in einer Welt der Materie, doch das Vakuum enthält sowohl "virtuelle" Materie als auch "virtuelle" Antimaterie.

    Virtuell bedeutet hier, dass diese Teilchen nicht zu materieller (oder antimaterieller) Substanz werden; ihre Gegenwart hat aber trotzdem einen Einfluss auf die anwesenden Materieteilchen.


    Das Elektron, von dem Close da spricht, ist ein in einer Penning-Falle gefangenes:

    Zum Mechanismus der Penning-Falle: Ein sehr starkes Magnetfeld kann Teilchen (z.B. auch solche, die Antimaterie sind) auf kleine Kreisbahnen zwingen und so davon abhalten, die Röhre bis zum anderen Ende zu durchqueren, zumindest in einem perfekten Vakuum. Hans Dehmelt hat so 1984 ein einzelnes Positron — Antimaterie also — über 3 Monate hinweg aufbewahren können.

     

      Beitrag 1955-156
    Wie symmetrisch sind Materie und Antimaterie?

     
     
    Keen aus 1955-82:
     
    Wenn Gas oder Sauerstoff ebenfalls Materie sind, wie verhält sich dabei Antimaterie?


    Ihrem Verhalten nach ist Antimaterie von Materie überhaupt nicht unterscheidbar (Atome und Antiatome entsprechenden Typs haben gleiches chemisches Verhalten, ja sogar dieselben Spektrallinien, da sämtliche für ihre Elektronen bzw. Positronen möglichen Energie-Niveaus einander exakt entsprechen).

    Leichte Brüche der Symmetrie zwischen Materie und Antimaterie existieren erst auf Ebene der Quarks und Antiquarks (aus denen Protonen, Neutronen und ihre Antipartner aufgebaut sind).


    Nebenbei: Alle durch Physiker bislang erzeugten Antiatome waren vom Typ Antiwasserstoff (dem einfachsten Typ also).

    Frank Close schreibt (auf Seite 199 seines Buches):

    Zitat:
     
    Der Einfang von Positronen durch Antiprotonen ergibt Antiwasserstoff, wovon am CERN pro Sekunde einige 100 Atome hergestellt werden.

    Für ein Nanogramm benötigt man 100000 Jahre, und für die Menge in einem Kinderballon bzw. für 1 Gramm benötigte man sogar länger als das Alter des Universums.

     

      Beitrag 1955-220
    Was im Quantenvakuum existiert (und neuerdings sogar gezielt real gemacht werden kann)

     
     
    Henry aus 1955-216:
     
    Aber es gibt im Quantenvakuum keine Teilchen, wenn sich im "realen" Kosmos Teilchen zeigen   und das tun sie eben nur in Zeitbruchteilen   können sie das nur "quantisiert", das ist das, was die Quantenmechanik aussagt.

    Und "quantisierte" Energie lässt sich als Teilchen interpretieren, grob ausgedrückt.
     

    ... und somit gibt es im Quantenvakuum eben doch Teilchen (die virtuellen).

    Wörtlich genommen ist der Begriff "Quantenvakuum" deswegen irreführend, bedarf also einer Definition:



    Unter dem Quantenvakuum versteht man den Zustand niedrigster Energie des absolut leeren Raumes.


    Diese Nullpunktsenergie ist immer größer als null,

    d.h. selbst wenn sich makroskopisch in einem physikalischen System scheinbar nichts tut, so ist es mikroskopisch doch immer in Bewegung



    so wie kochendes Wasser immer in Bewegung ist:

    Was im kochenden Wasser das "Sprudeln", ist im Quantenvakuum das Entstehen und Vergehen virtueller Teilchen.



    Mehr dazu findet sich z.B. in Wissenschaft Online und auf einer Seite der Gesellschaft für Raumzeitforschung.

    Interessant ist, dass man langsam lernt, wie sich virtuelle Teilchen gezielt in reale umwandeln lassen.

     

      Beitrag 1955-214
    So ganz klar lassen sich virtuelle von realen Teilchen gar nicht unterscheiden

     
     

    Zum Begriff virtueller Teilchen



    V i r t u e l l  nennt man ein Teilchen dann, wenn es nicht voll on mass shell ist, d.h. wenn seine Bewegung  d e u t l i c h  abweicht von einer, die man über klassische Bewegungsgleichungen beschrieben kann.

    In Feynman-Diagrammen werden virtuelle Teilchen repräsentiert durch die nur endlich langen,  w e l l e n f ö r m i g  gezeigten Kanten des Diagramms.

    Virtuelle Teilchen sind vor allem solche, die kaum länger als nur ein kleines Vielfaches der Planckzeit leben.
    Genau deswegen liest man oft: Virtuelle Teilchen sind jene, die man ihrer allzu kurzen Lebensdauer wegen nicht einzeln beobachten kann.


    Feynman drückt die Tatsache, dass eine klare Grenze zwischen real und virtuell gar nicht zu ziehen ist, so aus:

    Zitat von Feynman:
     
    A real particle is "on mass shell", which basically means that it has the mass it is supposed to have, no less, no more. A virtual particle is "off mass shell". In a Feynman diagram, the virtual particles are those that connect vertices; they are the internal lines like the wavy one in the diagram. Actually, they represent internal propagators, but you may think of them as the tracks of the particles. The real particles are those that enter and those that leave the diagram.

    In fact, the longer the line, the more the represented particle is "on mass shell", and if it is infinitely long (never again interacts), it is perfectly "real".
     


    Dass selbst im Vakuum ständig virtuelle Teilchen existieren, ist nachweisbar über den sog. Casimir-Effekt.

    Dass Atome häufig virtuelle Photonen emittieren und absorbieren, zeigt die sog. Lamb-Verschiebung.

     

      Beitrag 1955-157
    Virtuelle Teilchen

     
     
    Hans-m aus 1955-155:
     
    Schon die Tatsache, dass wir sie [die virtuellen Teilchen messen/nachweisen können, zeigt, dass sie mit "normaler" Materie interagieren. Was eine Messung anzeigt, ist ja nichts anderes, als eine physikalische Wirkung auf die Messanordnung. Und alles, was im Labor eine Wirkung hat, das hat auch die gleiche Wirkung irgend wo anders im Universum.
    Selbst wenn die Wirkung des Einzelteilchens verschwindent klein ist, so ist sie jedoch nicht null. Nach der Chaostheorie kann die endgültige Wirkung verheerend sein.

    Hi Hans-m,

    deinen Hinweis auf die Chaostheorie finde ich gut, richtig, und sehr interessant.

    Deine Aussage allerdings, dass man virtuelle Teilchen messen kann, scheint falsch zu sein, denn Steven Hawking schreibt in Does God play dice? explizit:

    Zitat von Hawking:
     
    These pairs of particles occur for all varieties of elementary particles.
    They are called virtual particles, because they occur even in the vacuum, and they can't be directly measured by particle detectors.

    However, the indirect effects of virtual particles, or vacuum fluctuations, have been observed in a number of experiments, and their existence confirmed.

    Mit anderen Worten:

    Virtuelle Teilchen lassen sich nur nachweisen durch die Wirkung, die ihre Anwesenheit auf andere, direkt beobachtbare Quanten hat.


    Beste Grüße,
    grtgrt

     

      Beitrag 1955-167
    -

     
    Grtgrt aus 1955-157:
    Mit anderen Worten:

    Virtuelle Teilchen lassen sich nur nachweisen durch die Wirkung, die ihre Anwesenheit auf andere, direkt beobachtbare Quanten hat.

     

    ......und die Quanten haben wiederum Wirkung auf etwas anderes, und nach "n" Schritten der Wirkungslinie hat dann das Objekt "X" Wirkung auf normale Materie.

    Wenn auch über Umwege hat das Virtuelle Teilchen somit mittelbar Wirkung auf das Universum.

    So wie der Schmetterling in China über "n" Zwischenschritte einen Einfluss auf das Wetter in Europa hat (Chaostheorie)

    Alles, was ein Wissenschaftler im Univerum messen/nachweisen kann, hat eine Wechselwirkung auf "normale" Materie, wenn auch über "n" Zwischenschritte. Alles was keine Wechselwirkung hat, lässt sich auch nicht nachweisen, denn es ist letztendes immer die Wechselwirkung die ein Objekt verrät.
    Objekte ohne Wechselwirkung, wenn es sie denn gibt, bleiben den Wissenschaftlern auf ewig verborgen. Wenn sie aber keinerlei Wechselwirkung haben, so ist deren Existenz für unser Universum unerheblich, da sie es in keinster Weise beeinflussen.
     

      Beitrag 1955-168
    -

     
    Zitat von Gebhard:
    Der Unterschied zwischen deiner und meiner Auffassung liegt einfach darin, dass
    • du denkst, zu wissen, was Hawking gemeint hat,
    • wohingegen ich vorsichtiger bin und sage: Es kann da verschiedene Möglichkeiten geben.


    Gruß, grtgrt

    These pairs of particles occur for all varieties of elementary particles.
    They are called virtual particles, because they occur even in the vacuum, and they can't be directly measured by particle detectors.

    However, the indirect effects of virtual particles, or vacuum fluctuations, have been observed in a number of experiments, and their existence confirmed.

    ... und sie (die Virtuellen Teilchen) können nicht direkt durch Teilchendetektoren gemessen werden.

    Wie auch immer, die indirekten Effekte... sind durch eine Anzahl von Experimenten beobachtet und ihre Existenz bestätigt worden.

    Was ist daran falsch zu verstehen?

    Dass die virtuellen Teilchen nicht direkt zu messen sind, ist der eindeutige Beleg dafür, dass nicht mit "realen" Teilchen wechselwirken, sonst könnte man sie nämlich direkt messen.
     

      Beitrag 1955-164
    -

     
     
    Henry aus 1955-162:
     
    Der indirekte Nachweis besteht doch nicht im Einfluss auf andere Teilchen, sondern in den Zerfallsprodukten der virtuellen Teilchen, sie entstehen doch paarweise - Teilchen, Antiteilchen. Was anderes sagt Hawking doch nicht, wenn mich mein Englisch nicht ganz verlässt.
     

    Hawking spricht von indirekten Effekten ("indirect effects"), spezifiziert sie aber nicht weiter.

    Ob er darunter wirklich nur Zerfallsprodukte versteht — in dem Fall also in aller Regel nur Photonen — bleibt völlig offen.

    Zudem dürften beim Wieder-Verschmelzen (und gegenseitiger Auslöschung) der beiden Teilchen eines Paares virtueller Teilchen ja gar keine Zerfallsprodukte auftreten: Ihre Existenz widerspräche dem Energie-Erhaltungssatz, da, wie manche Autoren schreiben, durch diese Teilchen gegebene Energie vom Vakuum ja nur "geborgt" ist:

    Zitat:
     
    Das Universum borgt sich dazu Energie, lebt ständig auf Pump und verhindert so ein absolutes Nichts.

     

      Beitrag 1955-166
    -

     
     
    Henry aus 1955-165:
     
    Zitat von Gebhard:
     
    Hawking spricht von indirekten Effekten ("indirect effects"), spezifiziert sie aber nicht weiter.
     
    Willst du mich veralbern? Du zitierst ihn doch selbst in der Zeile vorher: Sie können nicht direkt gemessen werden!

    Nein, Henry,

    veralbern will ich dich ganz und gar nicht.

    Ich denke aber, dass man unter einen indirekten Effekt am direkt beobachtbaren Teilchen T keineswegs nur die Interaktion eines Zerfallsproduktes mit T verstehen darf.

    So nämlich, wie eine Atom oder Molekül mehr ist als nur die Summe seiner Elementarteilchen (und deswegen eine Wellenfunktion hat, die keineswegs genau der Summe der Wellenfunktionen seiner Elementarteilchen entspricht, wenn man die einzeln betrachtet) kann ja auch die Gesamtheit bestehend aus

    T und einer Menge in seiner direkten Umgebung lebenden virtuellen Teilchen X

    die Wellenfunktion von T modifizieren, sie also irgendwie "verbiegen".


    Was ich sagen will ist: Keiner von uns beiden — weder Du, noch ich — kann wissen, was Hawking mit seinen "indirekten Effekten" wirklich gemeint hat.
    Der Unterschied zwischen deiner und meiner Auffassung liegt einfach darin, dass
    • du denkst, zu wissen, was Hawking gemeint hat,
    • wohingegen ich vorsichtiger bin und sage: Es kann da verschiedene Möglichkeiten geben.

    Wir wissen es letztlich nicht, und deswegen sollten wir uns das ganz klar auch eingestehen. Anders zu handeln wäre so, als würde man ein Messergebnis auf 5 Stellen nach den Komma geben, wohl wissend, dass die Messgenauigkeit nur 2 Stellen nach dem Komma garantieren kann.

    Gruß, grtgrt
     

      Beitrag 1955-208
    -

     
    Henry aus 1955-207:
    ...die Teilchen stehen nicht im Widerspruch zum Energieerhaltungssatz (für Teilchen, die am Ereignishorizont von Schwarzen Löchern entstehen, wird es allerdings komplizierter). Die Teilchen haben auch keine Position im Quantenvakuum, dort gibt es keine Teilchen. Es gibt eine Beziehung - ist auch schon mal von okotombrok erwähnt worden - zwischen ihrer Energie (ihrer Masse) und der Zeit, die sie höchstens existieren können, und diese Zeit ist kleiner oder gleich der sogenannten Planckzeit. Je größer die Energie der Teilchen, desto kürzer "existieren" sie. Planckzeit und Plancklänge definieren die Grenze zur Kausaltiät, alles, was unterhalb von Planck-Länge und Planck-Zeit exitstiert, hat keinen kausalen Bezug zur "realen" Welt. Wenn du das einfach akzeptieren könntest, müsstest du dir nicht so unnötige Gedanken über Galaxien usw. machen.

    Hallo Henry,

    so ist es.
    Um es vielleicht etwas 'volkstümlich' auszudrücken: Die virtuellen Teilchen sind alle "Schnorrer", die nur auf Kredit leben. Sie nehmen einen Kredit (in Form von Energie) auf, um auf ein Existenzminimum kommen zu können. Je größer der Kredit ist, um so schneller muss er zurückgezahlt werden und desto kürzer ist die Existenz der virtuellen Teilchen.

    M.f.G. Eugen Bauhof
     

      Beitrag 1955-171
    Beispiel einer nicht messbaren Interaktion von Materie mit einem virtuellen Teilchen

     
     
    Henry und schrieb in Beitrag Henry 1955-168 und 1955-169 :
     
    Dass die virtuellen Teilchen nicht direkt zu messen sind, ist der eindeutige Beleg dafür, dass nicht mit "realen" Teilchen wechselwirken, sonst könnte man sie nämlich direkt messen.

    Wenn sie auf "reale" Teilchen wie auch immer wirken würden, wäre das eine Verletzung des Energieerhaltungssatzes, einer der Grundlagen der gesamten Physik.


    Dass diese Auffassung falsch ist, wird bewiesen (z.B.) durch die sog. Hawking Strahlung:

    Sie entsteht, da es vorkommen kann, dass – wo virtuelle Teilchen in unmittelbarer Nähe des Ereignishorizontes eine Schwarzen Loches entstehen – eines dieser Teilchen im Loch verschwindet, das andere aber entkommt.

    Dennoch, da bin ich sicher, hat noch niemand diesen Vorgang direkt beobachten können (da die Interaktion des ins Loch fallenden virtuellen Teilchens mit einem dort vorhanden Teilchen entgegengesetzter Ladung ja schon im Schwarzen Loch stattfindet — dort also, wo wir nicht mehr messen können).

     

      Beitrag 1955-173
    -

     
     
    Henry aus 1955-172:
    Was im SL geschieht, kann niemand wissen, aber es ist nicht anzunehmen, dass dort irgendwelche interagierenden Teilchen existieren.

    Immerhin sagt Wikipedia, sich auf Stephen Hawking: Eine kurze Geschichte der Zeit (ab S. 141) berufend:

    Zitat:
    Deswegen kann in diesem Fall ein virtuelles Teilchen mit negativer Energie in das Schwarze Loch fallen "und dort zu einem realen Teilchen oder Antiteilchen werden".

    Die Quotes um die grüne Aussage verstehe ich so, dass Hawking hier wörtlich zitiert wird (natürlich in deutscher Übersetzung).


    Wenn Hawking also glaubt, dass ein vom Schwarzen Loch eingefangenes virtuelles Antiteilchen dort zu einem "realen" Antiteilchen werden kann, liegt es doch nahe, zu glauben, dass dort auch "reale" Teilchen existieren, mit denen dieses Antiteilchen reagieren kann, in dem Sinne, dass sich beide auslöschen.

    Gruß, grtgrt
     

      Beitrag 1955-174
    -

     
    Henry aus 1955-169:
    Hans, wenn sie auf "reale" Teilchen wie auch immer wirken würden, wäre das eine Veletzung der Energieerhaltungssatzes, einer der Grundlagen der gesamten Physik.

    Ich antworte mal mit einer Gegenfrage: Wie könnte ein Wissenschaftler ein solches Teilchen nachweisen, wenn dieses keine Wirkung auf die Messeinrichtung, bzw den Versuchsaufbau ausübt?

    Die Wirkung des Teilchens muss ja nicht unbedingt endo- oder exo-energen sein (Energieabsorbtion oder Energieabgabe)
    Es reicht bereits, wenn das Teilchen einen vorhanden Energiefluss verändert. Durchfliegt das Teilchen z.B. eine elektromagnetisches Feld oder ein Gravitationsfeld, so nimmt es möglicher weise Einfluss darauf. Es "verbiegt" die Feldlinien des entsprechenden Feldes, und hat somit eine Wirkung auf seine Umgebung, ohne selbst Energie aufzunehmen oder abzugeben.


    Grtgrt aus 1955-170:
    Ja, so sehe ich das auch, denn das ist ein Spezialfall der Sinn machenden Auffassung:


    Alles, was existiert, existiert nur in dem Ausmaß, in dem es Information darüber gibt.



    Wem diese Ansicht zu radikal erscheint, ist frei, sie zu lesen als:

    Alles, was existiert, existiert  d e  f a c t o  nur in dem Ausmaß, in dem es Information darüber gibt.

     

    Die Aussage ist gut, ich würde sie aber etwas abändern:

    Alle Objekte die existieren, können wir in dem Maße beurteilen, wie sie uns Informationen über sich geben.
    Alles, worüber sie uns keine Informationen geben, können wir weder als existend, noch als nicht existend beurteilen.

     

      Beitrag 1968-68
    Quanten

     
     
    Wrentzsch aus 1968-64:
     
    Wenn die Kleinste Energieeinheit (das Quant) ausgedehnt wird weil außen herum nichts an Energie ist, entsteht der Zusammenhalt des Quants mit gleich großen Energiemangel im Zentrum wie Energiemangel außen.
    Das Photon oder Quant in Bewegung wirkt als Impuls oder Welle.
    Das Transportmedium für die Welle ist fast immer gegeben.

    Hi Wrentzsch,

    ein Quant ist ein Wellenpaket, d.h. Summe von Produkten zahlreicher,  n i c h t - l o k a l  existierender Sinuswellen.

    Lokal ist lediglich das Interagieren zweier Quanten (worunter man, im Gegensatz zu Multiplikation und Addition sie beschreibender Wellen, beobachtbare Nebeneffekte spontaner Neukonfiguration einiger dieser Wellen — meist auch Entstehung zusätzlicher — zu verstehen hat).


    Ein Transportmedium existiert nach heutiger Auffassung NICHT.

    Was da "schwingt" — genauer gesagt: "an jedem Punkt des Raumes pulsiert" — ist schlicht und einfach die Stärke von "Kraft".

    ( "pulsieren" meint "ständiges Auf- und Abbauen von durch Kraft gegebenem Wirkpotential" )



    Ein Quant kann sich also nicht wirklich "ausdehnen". Ausdehnen kann sich nur der Raum, in dem eine Welle präsent ist (dieser "Ort" der Existenz der Welle bildet eine Kugel um den Punkt herum, von dem sie ausgeht; ihr Radius kann höchstens mit Lichtgeschwindigkeit wachsen).

    Natürlich hat eine mehrfach an Spiegeln reflektierte Welle auch entsprechend viele Punkte, von denen sie ausgeht. Die "Kugel", die sämtliche Punkte, an denen sie existiert, umfasst, kann also schon auch etwas komplizierter ausfallen, als man so zunächst mal denkt.

    Gruß, grtgrt
     

     Beitrag 0-338
    Warum Dürr kein Esoteriker war und es tatsächlich Materie nur als Illusion gibt

     
     

     
    Wie berechtigt ist Kritik an H. P. Dürrs Argumentation?

     
     
    Im Buch Relativer Quantenquark von Holm Gero Hümmler werden auch einige Aussagen von Hans-Peter Dürr als Esoterik eingeordnet — meiner Ansicht nach aber völlig unberechtigt. Dürrs Aussage etwa » Es gibt keine Materie « darf nicht so verstanden werden, dass es Materie — als Begriff — nicht gäbe.
     
    Dürr wollte lediglich darauf hinweisen, dass mit Materie nur der Eindruck gemeint ist, den gewisse physikalische Kraftfelder in uns hervorrufen. Was ich damit meine, wird verstehen, wer sich vor Augen führt, was Farbe denn nun eigentlich ist: Farbe ist ein in unserem Bewusstsein entstehender Eindruck, den elektromagnetische Wellen in uns hinterlassen: Eine bestimmte Farbe entspricht einer bestimmten Wellenlänge elektromagnetischer Strahlung. Niemand wird das heute noch bezweifeln wollen, aber ganz Ähnliches gilt für Materie.
     
     
    Lies hierzu auch: Schon Max Planck hat festgestellt: Es gibt keine Materie.
     
     
    Klar sein sollte auch: Wenn tatsächliche Esoteriker — Leute also, die wissenschaftliche Aussagen nicht wirklich verstehen, sich aber dennoch in irreführender Weise auf sie berufen —, so diskrediert das nicht die Wissenschaft. Dürr jedenfalls war durch und durch Wissenschaftler. Eben das haben Leute wie Holm Gero Hümmler so gar nicht verstanden.
     
     
     
    Thomas Görnitz — ein in der Tradition von C.F. v. Weizäcker denkender theoretischer Physiker — schrieb (siehe z.B. sein Buch Quanten sind anders, S. 237):


    Thomas Görnitz (1999, 2011):
     
    "Die Meinung, dass wir verstünden, was Materie ist, kann zur Zeit wohl nur schwerlich ernsthaft vertreten werden.
     
    In den naturwissenschaftlich orientierten Teilen der Biowissenschaften und Medizin wird noch vielfach ein historisch gewachsener und heute überholter Materiebegriff verwendet.
    "
     
    Er kann als Verfeinerung dessen angesehen werden, was wir im Alltagsleben unter Materi verstehen: Etwas, das feiner sein kann als Sand, aber doch nicht wesentlich verschieden davon.
     
    Dieser [naive] Materiebegriff erfasst aber nur klassische Eigenschaften.
     
    Es gibt sie selbstverständlich schon an kleinen Molekülen, und nur mittels dieser klassischen Eigenschaften werden heute biologische Vorgänge erklärt.
     
    "Für den Teil der biologischen Probleme aber, für welche die Erklärungskraft dieser einfachen Modelle nicht ausreicht, konnte ich bei vielen Kontakten selten Bereitschaft erkennen, sich die Beschränktheit der klassischen Erklärungsmuster zu verdeutlichen."
     


     
    Thomas Görnitz ist einer der (noch) wenigen Naturwissenschaftler, der — wie auch Rupert Sheldrake — immer wieder auf die zunehmend offensichtlicher werdende Tatsache hinweist, dass unser materialistisches, noch ausschließlich an den Prinzipien der klassischen Physik orientiertes Weltbild ausgedient hat. Man lese dazu sein neuestes Buch Thomas & Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein: Kosmos, Geist und Materie (Springer 2016).

     

      Beitrag 2039-13
    -

     
     
    Hi Stueps,

    wir beide sehen die Fakten identisch — wir sind uns nur nicht darüber einig, wie pointiert man sie ausdrücken darf.

    Dürr kennt keine solche Furcht (daher seine Wendung "Es gibt keine Materie").
    An anderer Stelle benutzt er Zusätze wie "im Grunde", "streng genommen", "eigentlich" und deutet so schon auch an, dass machem Leser allzu eindeutige Aussagen missfallen könnten:

    Zitat von Dürr, S 62:
     
    Die bisherigen Naturgesetze sind im Grunde falsch und, welche Überraschung, wir müssen feststellen, es gibt die Materie im Grunde nicht mehr.

    Es gibt letzten Endes nur noch eine Art Schwingung. Es gibt, streng genommen, keine Elektronen, es gibt keinen Atomkern, sie sind eigentlich nur Schwingungsfiguren. Eine Art Schwingungsfigur wie Ihr Handy-Gespräch im elektromagnetischen Feld, nichts Materielles im eigentlichen Sinne.

    An diesem Punkt haben wir die Materie verloren.


    Bei meiner Aussage, das Schienbein als Materie sei nicht identisch mit dem Schienbein als Wellenpaket, denke ich vor allem daran, dass es als Materie lokalisiert, als Wellenpaket aber nicht lokalisiert ist.

    Für das Schienbein oder ein ganzes Lebewesen bedeutet dieser Unterschied, dass es, wo es sich im Kostüm "Materie" zeigt, einen gewissen Prozentsatz seiner selbst ignoriert. Das nicht zu vergessen ist wichtig, denn Dürr deutet ja auch an, dass Lebewesen sich wohl deswegen so relativ problemlos verstehen, weil sie in jenem restlichen Teil einander enthalten, auf jeden Fall aber dort am deutlichsten zu etwas Unteilbarem verschmolzen sind.

    Er spricht es nicht aus, vermutet aber wohl, dass wir ein klein wenig auch über diese nicht nach Materie abgebildeten Teile unserer selbst kommunizieren bzw. mehr oder weniger miteinander "verwandt" sein können (vielleicht eine Art Verwandschaft wie sie sich auch bei miteinander verschränkten Quanten zeigt).

      Siehe auch: ein Interview mit Hans-Peter-Dürr: Quanten, Elektronen etwa, sind » Wirks « (wirkende Wellenpakete).

     

      Beitrag 2039-19
    -

     
     
    Stueps aus 2039-12:
     
    Grtgrt aus 2039-11:
     
    Das Schienbein, von dem Stueps spricht, ist also nur dort sichtbar und anfassbar, es zeigt sich nur dort verkleidet als Materie, wo das Wirkungsquantum ihm gestattet, mit seiner Umgebung zu interagieren (zu "wirken").

    das sehe ich ähnlich.

    Grtgrt aus 2039-11:
     
    Solche Wirkung erzeugt Lichtwellen, die uns das Schienbein sichtbar machen

    Das ist nicht ganz richtig. Du siehst meinen Fuß nicht, wenn er im Dunklen gegen dein Schienbein tritt.


    Das ist doch richtig, denn:

    Ein physikalisches Objekt ist dem Menschen  n u r  dann sichtbar, wenn es Licht  a b s t r a h l t .


    • Je heller es ist, umso mehr Licht fällt auf das Objekt.
    • Diese zum Objekt kommenden Photonen veranlassen einige seiner Elektronen, sich auf höheres Energie-Niveau zu begeben.
    • Sie bleiben dort aber i.A. nur ganz kurze Zeit.
    • Ihr Herunterfallen auf das alte, niedrigere Energie-Niveau erzeugt Photonen, die vom Objekt ausgehend auf unser Auge treffen (und uns so z.B. auch sagen, von welcher Farbe jenes Objekt ist).

    Kurz: Im Hellen ist die Interaktion des Objekts mit seiner Umgebung intensiver (und so sehe ich es dann auch besser).

     

      Beitrag 2039-23
    -

     
    Hallo ich alle,
    Grtgrt aus 2039-1:
    Hier wird ganz klar deutlich, dass alles materiell Existierende seiner wahren Natur nach nur Wellenpaket ist.

    Ich sehe hier ein Problem. Unter einem Wellenpaket verstehe ich ein Teilchen, das nur den Potential einer Materie zu werden besitzt. Zu Materie wird es, wenn es in einer Wechselwirkung verstrickt wird. Dann werden die Möglichkeiten der Äußerungen (also Materiewerden) reduziert bis zu einer, die sich als Materie manifestiert.

    Es kann aber passieren, dass ein Photon oder anderes Teilchen nie ein Wechselwirkungspartner findet. In dem Sinne ein objektiv beschriebenes/vorhandenes Teilchen, das sich als Wellenpaket herumtreibt, nie zu Materie wird. Daher finde ich, es muss begrifflich unterschieden werden zwischen den Teilchen, die in einem Wechselwirkungsnetz eingebunden sind und die Teilchen, die potentiell in das Wechselwirkungsnetz - also Materie - eingebunden werden können. Könnte man die Gesamtheit alle Teilchen als Realität nennen? Dann wäre Materie ein Teil der Realität.

    Noch eine andere Kategorie der Existenz sind virtuellen Teilchen, die eine Umwelt für die reellen Teilchen darstellen.


    In dem Sinne bin ich auf Seite des grt (nicht des Stueps), wobei dann er seinem oben zitierten Satz widerspricht:

    Zitat:
    Zitat:
    Grtgrt aus 2039-11:
    Das Schienbein als Materie ist also nicht identisch mit dem Schienbein als Wellenpaket.

    Stueps aus 2039-12:
    Eben doch! Denn das Wellenpaket äußert sich in Form von Materie, und das eben ganz real

    Stueps, das Wellenpaket äußert sich, in dem eine der Möglichkeiten des Wellenpakets sich manifestiert. In dem Augenblick werden andere Möglichkeiten hinfällig. Also in Moment der Äußerung gibt es keine Welle bzw. Wellenpaket.
    ---

    Zitat:
    grt: Bei einem Paket von Potentialwellen ist es ebenso:

    Es existiert im gesamten Raum, hat aber nur in einer ganz kleinen Teilregion davon (als ortsabhängige Funktion betrachtet) so großen Absolutwert, dass das Plancksche Wirkungsquantum ihm gestattet sich dort — und NUR dort — im "Faschingskostüm Materie" zu zeigen.

    Ich glaube, Grt, du hast falsche Vorstellung von dem Wellenpaket. Man kann es auch als eine Welle der Möglichkeiten nennen, von denen jede selbst in einer wellenartige Entwicklung ist (Fraktalen). Ihre Gesamtheit entwickelt sich auch nach Wellenfunktion. Also schon hier gibt es Beziehung des Ganzen und der Teile, wenn sie auch nur mathematisch erfassbar sind. Mit dem Begriff "Wellenpaket" wird Dynamik der Entwicklung des Ganzen verloren. Daher bevorzuge ich persönlich die Möglichkeitswelle, die zugegeben gegenteilige Effekt hat. Hier wecken die Möglichkeiten den Anschein als starre Teilen der Welle zu sein. Es ist aber nicht so. Auch sie sind einer wellenartigen Entwicklung unterzogen.

    Aber mein Vorwand gilt nicht der Begrifflichkeit. Es sind beide etabliert. Man muss nur wissen, was darunter steckt. Mein Widerspruch gilt "für gesamten Raum". Wenn man eine Verbindung mit gesamten Raum (was auch immer darunter verstanden wird) hat, heißt es nicht, dass es in gesamten Raum existiert. Ich hatte meinerseits gelernt die Welle als eine Störung einer Umwelt betrachten. Diese Störung hat eine lokale Audehnung und einen Expansionsverhalten, die durch Wellenfunktion beschrieben werden können. Das Teilchen muss als eine Emanzipierung von ihrer (Kräfte-) Umwelt verstanden werden.

    Ich bin ganz deiner Meinung, wenn man die Entwicklung des Ganzen auch als eine Welle angesehen wird. Somit steht ein Teilchen zu dem Ganzen genau in solche Relation, wie eine der Möglichkeiten zu gesamten Wellenpaket. Deine Beschreibung verleitet aber einem Übergeordneten eine steuernde bzw. entscheidende Rolle. Als ob das Ganze sagt dem einzelnem wie es sich verhalten darf. Meiner Überzeugung nach liegt die erwähnte Emanzipation gerade daran, dass auch ein Teilchen das Sagen hat. Die Entwicklung der Quantenebene wäre danach stetige Diskurs zwischen dem Ganzen und dem Teil, indem man ein Konsens findet.

    ----
    Ich habe das Buch nicht gelesen, aber seine Ansichten in vielem meinen entsprechen. Was mich allerdings wundert (habe ich aus den Zitaten Eindruck gewonnen), dass er unbelebte Natur als " stumpf, langweilig, apathisch" beschreibt. Ich durch meiner Forschung habe ganz anderen Eindruck gewonnen. Gerade wenn man die astronomische Ganzheiten betrachtet, findet man viel, was den Stoffwechsel des Lebendigen ähnelt. Keinesfalls gelten hier Adjektive wie stumpf, langweilig, apathisch.

    Gruß
    Irena
     

      Beitrag 2039-24
    -

     
     
    Irena aus 2039-23:
     
    Ich habe das Buch nicht gelesen, aber seine Ansichten in vielem meinen entsprechen. Was mich allerdings wundert (habe ich aus den Zitaten Eindruck gewonnen), dass er unbelebte Natur als " stumpf, langweilig, apathisch" beschreibt. Ich durch meiner Forschung habe ganz anderen Eindruck gewonnen. Gerade wenn man die astronomische Ganzheiten betrachtet, findet man viel, was den Stoffwechsel des Lebendigen ähnelt. Keinesfalls gelten hier Adjektive wie stumpf, langweilig, apathisch.
     


    Hallo Irena,

    Dürr schreibt zwar wirklich "Dann  w i r d  das resultierende Gesamtsystem stumpf, langweilig und apathtisch", was er damit aber wirklich meint ist wohl,
    dass es uns dann — aus unserer eher makroskopischen Sicht heraus — als stumpf, langweilig und apathtisch  e r s c h e i n t  .

    Damit Du dir in dieser Hinsicht selbst ein Urteil bilden kannst, sei jene Stelle hier nochmals (und nun wirklich ungekürzt) wiedergegeben:


    Zitat von Dürr, S 40:
     
    Einmal geschieht die Orgainsation ganz ungeordnet und unkorreliert. Dann wird das resultierende Gesamtsystem stumpf, langweilig und apathtisch. Es trägt die Züge der unbelebten Materie. Wir schätzen diese geronnene Form, diese Schlacke, wegen ihrer Verlässlichkeit.

    Wie der Tisch vor mir — ich wende mich ab von ihm — drehe mich wieder hin zu ihm — und er ist immer noch da: in gleicher Form, an gleicher Stelle — es ist ihm nicht anderes eingefallen in der Zwischenzeit.

    Wir schätzen die Materie wegen ihrer steten Bereitschaft, sich von uns widerspruchslos manipulieren zu lassen. Sie dient uns als Werkzeug und Baustoff; und das schätzen wir: Etwas Verlässliches, das uns bedingungslos gehorcht, das keinen eigenen Willen entwickelt.

    Aber wenn sich diese Prä-Materie auf raffiniertere, geordnetere, differenziertere Weise zu einem Gesamtsystem formiert, dann können Strukturen entstehen, in denen das im Grunde embryonal Lebendige auch in der Mesowelt zum Ausdruck kommt und zum lebendigen Organismus wird.
     


    PS: Mindestens ab Seite 95 scheint Dürrs Buch nicht von ihm selbst formuliert zu sein sondern von der Lektorin Birgit Stratmann (die ihn interviewed hat).

    Was sprachliche Schärfe betrifft, hinkt sein Buch dem von Lothar Schäfer "Versteckte Wirklichkeit" unverkennbar etwas hinterher.

    Gruß, grtgrt
     

      Beitrag 2039-25
    Auf dem Grunde dieser Welt verbirgt sich pure Lebendigkeit.

     
    Hallo Irena,

    Irena aus 2039-23:
    Stueps, das Wellenpaket äußert sich, in dem eine der Möglichkeiten des Wellenpakets sich manifestiert. In dem Augenblick werden andere Möglichkeiten hinfällig. Also in Moment der Äußerung gibt es keine Welle bzw. Wellenpaket.

    Akzeptiert! Da habe ich mich hinreißen lassen, Wellenpakete und daraus resultierende Materie sind nicht exakt das selbe.
    Jedoch steckt in der Materie meines Erachtens immer noch die Natur des Wellenpaketes, sonst wäre Materie etwas Unveränderliches. Sie sind nach meiner Auffassung mindestens eng verwandt.

    Was die Lebendigkeit angeht: Da ist Dürr ganz klar deiner Meinung: Auf dem Grunde dieser Welt verbirgt sich pure Lebendigkeit.

    Grüße
     

      Beitrag 2039-26
    -

     
    Grtgrt aus 2039-24:
    Was sprachliche Schärfe betrifft, hinkt sein Buch dem von Lothar Schäfer "Versteckte Wirklichkeit" unverkennbar etwas hinterher.

    Hallo Gebhard, ich habe von Dürr den klassischen Eindruck eines "zerstreuten Professors". Es entbehrt manchmal nicht einer gewissen Komik, wenn er während seines Vortrages das Kartenspiel verlegt hat, oder vergessen hat, ein Buch einzustecken - sodass er sich dieses aus dem Publikum leihen muss. Ich denke, das kommt daher, dass er sein ganzes Leben gelernt hat, sich auf wenige wesentliche Dinge seiner Arbeit zu konzentrieren, und für "Nebensächlichkeiten" nun keinen Blick mehr hat. Auch drückt er sich oft sehr kompliziert aus, einfach weil das, was er mitteilen will, zwar in seinem Kopf klar ist, jedoch für´s unbedarfte Publikum sehr fremd erscheint. Lässt man sich jedoch auf ihn ein, gewinnt man (da dürften wir uns einig sein) einen neuen Blick auf die Welt, der sehr lohnenswert ist.
    Er ist halt ein kluger Mann mit Ansichten, die dringend Beachtung verdienen. Meine Meinung jedenfalls.

    Grüße
     

      Beitrag 2039-31
    -

     
     
    Harti aus 2039-30:
     
    Die Aussage "Es gibt keine Materie" ist nur sprachverwirrend.

    Ein Beispiel dazu:

    Wenn ich ein Auto zerlege, kann ich auch Einzelteile nicht mehr als Auto bezeichnen. Daraus die Aussage zu folgern "Es gibt kein Auto" ist nicht sinnvoll.



    Hallo Harti,

    dein Beispiel ist gut.

    Dennoch finde ich Dürrs Aussage » Es gibt keine Materie « keineswegs verwirrend. Mir ist klar, dass er hier überspitzt formuliert um aufzurütteln: Er will seine Zuhörer zwingen, darüber nachzudenken, wie diese Aussage denn gemeint sein könnte.

    Was er uns mitteilt, ist einfach nur: Wir haben versucht, die Welt in immer kleinere Bausteine zerlegt zu sehen und sind schließlich auf Grundbausteine gestoßen, die man nicht mehr als Materie einstufen kann, da sie nur noch Schwingung sind (genauer: Schwingungsformen).


    Was unsere Interpretation der Wirklichkeit als Materie kennt, kennt sie auch als Wellenpaket im Feld der 4 physikalischen Grundkräfte.

    Dass beide Interpretationen so extrem Unterschiedliches suggerieren, sollte uns auch daran erinnern, dass wir die Wirklichkeit ja gar nicht kennen.


    Gruß, grtgrt
     

     Beitrag 0-72
    Zur wahren Natur dessen, was unsere Sinne uns als Materie erscheinen lassen

     
     

     
    Über die wahre Natur aller (sog.) Materie

     
     
    Materieteilchen sind in Wirklichkeit Stellen eines allgegenwärtigen Feldes von Kräften,
     
    an denen die Feldstärke weit höheren Wert hat als um diese Stelle herum.

     


    Stratis Karamanolis sagt auf Seite 49 seines Buches » Die Suche nach der Weltformel « (2006):
     
    Jedes Materieteilchen, beispielsweise ein Elektron, ist ein winziger Bereich eines riesigen Feldes, in dem die Feldstärke extrem hohen Wert annimmt so dass eine vergleichsweise sehr große Feldenergie sich auf eine kleine Stelle des Raumes konzentriert.
     
    Solch ein Energieknoten — der aber keineswegs klar gegen das übrige Feld abgegrenzt ist — breitet sich durch den leeren Raum aus wie eine Wasserwelle auf der Oberfläche eines Sees.
     


     
    Wo die Summe all dieser Wellen — gegeben durch die ortsabhängige, gerichtete Feldstärke — einen besonders langen Vektor darstellt, ist die Wahrscheinlichkeit, dass sich an dieser Stelle  W i r k u n g  ergibt, besonders hoch. Wo solche Wirkung dann wirklich eintritt, besteht sie im spontanen Ersetzen einer kleinen Menge M1 der Wellen durch eine andere Menge M2 solcher Wellen, wobei die Wellen aus M1 ihrer Summe nach ebenso viel Energie darstellen wie die aus M2.
     
    Wenn M2 Lichtwellen enthält, glauben wir, an jener Stelle Materie zu sehen (bzw. Teilchen beobachtet zu haben).

     


    Walter Thirring (Zitat):
     
    Die moderne theoretische Physik hat unser Denken vom Wesen der Materie in neue Bahnen gelenkt. Sie hat den Blick vom zunächst Sichtbaren, den Teilchen, weitergeführt zu dem, was dahinter liegt, dem Feld:
     
    Anwesenheit von Materie ist nur Störung des vollkommenen Zustandes des Feldes an dieser Stelle, etwas Zufälliges, ...
     
    Dem entsprechend gibt es auch keine einfachen Gesetze, welche die Kräfte zwischen Elementarteilchen beschreiben. Ordnung und Symmetrie sind im dahinter liegenden Feld zu suchen.
     



    Einstein (Zitat):
     
    Wir können daher Materie als den Bereich des Raumes betrachten, in dem das Feld [von Kräften] extrem dicht ist. [...]
     
    In dieser neuen Physik ist kein Platz für beides, Feld und Materie, denn das  F e l d  ist die einzige Realität.
     


     
     
    Geschichtliches:
     
    Das Konzept des Feldes geht zurück auf Michael Faraday: Er stellte sich Kraftlinien vor (heute würde man sagen: Kraft modellierende Vektoren), die sich aus Magneten und elektrisch geladenen Körpern ausbreiten und den gesamten Raum ausfüllen.
     
    Die erste Feldtheorie stellen Maxwells Gleichungen für das Zusammenspiel von elektrischen und magnetischen Kräften dar.
     
    Ihm folgend hat Einstein 1915 seine Gravitationstheorie (die sog. Allgemeine Relativitätstheorie) ebenfalls als Feldtheorie formuliert.
     
    Um etwa 1970 wurden dann die sog. Young-Mills-Felder erarbeitet (zurückgehend auf frühere Arbeiten von C.N. Young und seinem Schüler R.L. Mills). Es sind dies Felder zur Beschreibung der Wechselwirkung sämtlicher subatomaren Teilchen.

     

      Beitrag 2039-57
    Materie ist nur Quantenfluktuation

     
     
    Grtgrt aus 2039-31:
     
    Harti aus 2039-30:
     
    Die Aussage "Es gibt keine Materie" ist nur sprachverwirrend.

    Ein Beispiel dazu:

    Wenn ich ein Auto zerlege, kann ich auch Einzelteile nicht mehr als Auto bezeichen. Daraus die Aussage zu folgern "Es gibt kein Auto" ist nicht sinnvoll.



    Hallo Harti,

    dein Beispiel finde ich recht gut.

    Dennoch finde ich Dürrs Aussage » Es gibt keine Materie « keineswegs verwirrend. Mir ist klar, dass er hier überspitzt formuliert um aufzurütteln: Er will seine Zuhörer zwingen, darüber nachzudenken, wie diese Aussage denn gemeint sein könnte.

    Was er uns mitteilt, ist einfach nur: Wir haben versucht, die Welt in immer kleinere Bausteine zerlegt zu sehen und sind schließlich auf Grundbausteine gestoßen, die man nicht mehr als Materie einstufen kann, da sie nur noch Schwingung sind (genauer: Schwingungsformen).

    Gruß, grtgrt
     


    Interessant in diesem Zusammenhang ist auch ein 2008 im NewScientist erschiener Artikel, der mit dem Statement beginnt


    Matter is built on flaky foundations.

    Physicists have now confirmed that the apparently substantial stuff is actually no more than fluctuations in the quantum vacuum.


     

      Beitrag 2039-29
    Es kann beliebig lange dauern, bis ein Teilchen (ein Photon etwa) mit anderen wechselwirkt

     
     
    Henry aus 2039-28:
     
    Irena aus 2039-23:
     
    Es kann aber passieren, dass ein Photon oder anderes Teilchen nie einen Wechselwirkungspartner findet.

    Okotombrok aus 2039-27:
     
    das glaube ich nicht.
    Nach meiner Auffassung verletzt das den ersten Hauptsatz.

    Es gibt Berechnungen die zeigen, dass selbst in den entferntesten Winkeln des Kosmos kein Teilchen die Chance hat, auch nur tausendstel Sekunden ohne Wechselwirkung zu überstehen.


    Wieso gehen wir dann davon aus, dass durch uns registrierte kosmische Hintergrundstrahlung uns das Universum zeigt, wie es war, als es erst etwa 400.000 Jahre alt war?

    Hätten jene Photonen sich inzwischen mit anderen gemischt (hätte also Wechselwirkung stattgefunden), könnten sie uns nur zeigen, wie die Welt zu dem Zeitpunkt aussah, an dem sie zum letzten Mal neu geprägt wurden.

    Mir also scheint: Irena hat recht. Es kann beliebig lange dauern, bis ein Teilchen mit anderen wechselwirkt.

     

     Beitrag 0-447
    Meilensteine der Menschheitsgeschichte

     
     

     
    Meilensteine der Menschheitsgeschichte

     
     
    Schon vor mehreren 100 000 Jahren lebten Vorgänger des Menschen. Sie sind nachgewiesen durch Knochenfunde in zeitlich datierbaren geologischen Schichten. Seit Jahrzehntausenden gab es dem modernen Menschen anatomisch völlig ähnliche Menschen. Reste erster Werkzeuge, ja sogar Malereien sind mindestens 30 000 Jahre alt. Eine dokumentierte, zusammenhängende Geschichte hat der Mensch aber erst seit etwa 5000 Jahren.
     
     
    Die Menscheitsgeschichte hat vier tiefgreifende Einschnitte:
       
    • Nur erschließbar ist der erste große Schritt der Entstehung der Sprachen, der Erfindung von Werkzeugen und der Gebrauch des Feuers. Es ist dies das Zeitalter, in dem der Mensch erst Mensch wurde im Gegensatz zu einem uns nicht vorstellbaren nur rein biologischen Menschsein. Wann das genau war und über wie lange Zeiträume sich die einzelnen Entwicklungsschritte erstreckt haben, wissen wir nicht. Dieses Zeitalter muss sehr lange zurückliegen und das Vielfache der dagegen fast schon verschwindend kurzen dokumentierten Menscheitsgeschichte betragen haben.
       
    • Zwischen 5000 und 3000 v.Chr. entstanden die alten Hochkulturen in Ägypten, Mesopotamien, am Indus und — etwas später — am Hoangho in China. Sie waren kleine Lichtinseln in der breiten Masse der schon den ganzen Planeten bevölkernden Menschheit von vielleicht 100 000 Individuen.
       
    • In der Zeit von 800 bis 200 v.Chr. erfolgte dann die geistige Grundlegung der Menschheit, von der sie bis heute zehrt. Dies geschah gleichzeitig, aber unabhängig von einander in China, Indien, Persien, Palestina und Griechenland.
       
    • Seitdem gab es nur noch ein einziges, geistig und materiell einschneidendes Ereignis von ebenso großem weltgeschichtlichen Rang: Es war der Beginn des wissenschaftlich-technischen Zeitalters, vorbereitet in Europa seit Ende des Mittelalters, geistig konstituiert im 17. Jahrhundert, in breiter Entfaltung seit Ende des 18. Jahrhunderts und in überstürzt schneller Entwicklung seit Mitte des 20. Jahrhunderts.


     

     Beitrag 0-547
    Die Kugelform des Elektrons — Wie extrem genau man sie heute messen kann

     
     

     
    Wie extrem genau Physiker heute messen können, z.B.

    die Kugelform des Elektrons

     
     
    Physiker am Imperial College in London untersuchten an Ytterbium-Fluorid-Moleküle gebundene Elektronen. Dazu schickten sie die Moleküle durch ein Interferometer. Innerhalb des Interferometers ist ein elektrisches Feld angelegt, das aufgrund des elektrischen Dipolmoments mit dem äußersten Elektron des Moleküls, dem Valenzelektron, wechselwirkt.
     
    Man konnte diesen Effekt messen und anhand der Daten auf das elektrische Dipolmoment des Elektrons schließen. Jene Physiker bestimmten die Form des Elektrons in ihren Versuchen so genau wie nie zuvor, allerdings bleibt eine Mess-Ungenauigkeit von maximal 10 hoch minus 28 Metern (mit 90-prozentiger Wahrscheinlichkeit) - nur so stark könnte das Elektron noch von perfekter Kugelform abweichen.
     
    Wäre das Elektron so groß wie unser Sonnensystem, würde die maximale Abweichung nur 0,05 Millimeter betragen.
     
     
    Quelle: Improved Measurement of the Shape of the Electron (2011).
     
    |
     
    Zur bisher genauesten Zeitmessung (bzw. Atomuhr) (2016)

     

     Beitrag 0-215
    Millimetergenaue Messung des Mond-Erde-Abstandes bestätigt Einsteins Theorie

     
     

     
    Entfernung des Mondes von der Erde (auf Millimeter genau)

     
     
    Einsteins Relativitätstheorie sagt voraus, dass sich der mittlere Abstand des Mondes von der Erde pro Jahr um etwa 3,8 cm vergrößern müsse.
     
    Es ist heute tatsächlich möglich, dies zu verifizieren.
     
    Die Astronauten der Apollo-Missionen 11, 14 und 15 haben nämlich drei Reflektoren auf dem Mond installiert. Sie haben die Eigenschaft, ankommendes Laserlicht genau in dieselbe Richtung zurückzuwerfen, aus der die Strahlung kommt.
     
    Zwar können pro Laserpuls nur wenige der reflektierten Photonen auf der Erde empfangen und identifiziert werden — wegen Auffächerung und atmosphärischer Absporption nur etwa 1 Photon aus 1021 (der Laser macht auf dem Mond einen Fleck von etwa 2 Meter Durchmesser, sein Echo auf der Erde hat schon einen Durchmesser von etwa 20 Kilometern) — doch das reicht.
     
    Dieses sog. Lunar Laser Ranging Project ist das einzige noch aktive Projekt der Apollo-Ära.
     
    Dank ständig verbesserter Laser und Detektoren konnte die Präzision von etwa 20 cm Genauigkeit 1969 auf heute 1 mm verbessert werden (und das, obgleich das Reflexionsvermögen der auf den Mond gebrachten Reflektoren inzwischen auf etwa 1/20 gefallen ist).
     
    Mittlerweile sind nicht weniger als 40 Erdstationen am Lunar Laser Ranging beteiligt. Mit größeren, neueren Reflektoren auf dem Mond, ließe sich die erreichte Messgenauigkeit nochmals um knapp den Faktor 10 erhöhen.
     
    Interessant auch: In die Modellrechnungen gehen etwa 170 Parameter ein: Neben den Massen aller Planeten im Sonnensysten sind das z.B. auch Daten über die Kontinentalverschiebungen auf der Erde.
     
     
     
    Nebenbei:
     
    Mit Hilfe zum Mars gebrachter Raumsonden kann man die Konstanz von Newtons Gravitationskonstante untersuchen. Ergebnis dieser Messungen:
     
    Der Wert der Gravitationskonstanten kann sich seit dem Urknall um höchsten 1 Prozent verändert haben — wenn überhaupt.

     

     
     
    Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 291-295.


     

     Beitrag 0-216
    GPS – die wohl bekannteste Anwendung von Einsteins Theorie

     
     

     
    GPS – nur möglich wegen Einsteins Theorie

     
     
    Je höher über der Erde sich eine Uhr befindet — und sei es eine Atomuhr —, desto schneller geht sie.
     
    Einsteins Theorie sagt das voraus, und heute mögliche Messungen bestätigen es.
     
    Keines der heute in jedem Auto vorhandenen Navigationssysteme würde funktionieren, wenn man diesen Effekt nicht genauestens quantifizieren könnte.
     
    Pro Tag würde die Ortung per GPS um 2.2 Kilometer bzw. um 10 Kilometer ungenauer, würde man die von der Speziellen und der Allgemeinen Relativitätstheorie vorhergesagten Korrekturen unberücksichtigt lassen. Schon nach 3 Tagen wüsste ein Navi nicht mehr, ob es in Köln oder Düsseldorf steht.
     

     
     
    Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 300.


     

     Beitrag 0-219
    Wie rund sind Neutronensterne?

     
     

     
    Wie ( perfekt ) rund sind Neutronensterne?

     
     
    Neutronensterne sind Sternleichen mit einer Masse von 1,4 bis maximal 3 Sonnenmassen und einem Durchmesser von ca. 20 Kilometern.
     
    Wie auf Basis von Messungen der Detektoren LIGO und Virgo schon 2013 klar wurde, müssten schon wenige Zentimeter hohe Buckel auf der Eisenkruste eines Neutronensterns zu einer Umwucht führen, die mit der Abstrahlung von Gravitationswellen einher ginge.
     
    Im 6500 Lichtjahre von der Erde entfernten Krebsnebel kennt man einen Supernova-Überrest (d.h. einen Neutronenstern), auf dem solche Buckel maximal 1 Meter hoch sein können — sonst nämlich wäre das bereits aufgefallen.

     
     
    Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 382.


     

     Beitrag 0-223
    Warum MOND eine nur von wenigen Forschern ernst genommene Theorie ist

     
     

     
    MOND ( Modified Newtonian Dynamics )

     
     
    Wie Astronomen beobachten, rotieren die äußeren Bereiche von Galaxien weit schneller als Newtons Gravitationsgesetz voraussagt.
     
    Die Standarderklärung hierfür ist, dass sie größtenteils aus dunkler (also nicht strahlender, uns noch unbekannter) Materie bestehen.
     
    Eine weniger wahrscheinliche — aber nach heutigem Wissen nicht ausschließbare — Erklärung könnte sein, dass Newtons Gravitationsgesetz (dann allerdings auch das der Allgemeinen Relativitätstheorie) nicht ganz der Wirklichkeit entspricht.
     
    Der Astrophysiker Mordehai Milgrom argumentiert wie folgt:
     
      Nach Newton gilt  F = ma  für die Kraft F, die auf ein Objekt der Masse m wirkt, wenn es die Beschleunigung a erfährt.
       
      Hieraus folgt: Ist G die Gravitationskonstante, m die Masse eines Sterns, F die auf ihn wirkende Schwerkraft und r sein Abstand vom Schwerpunkt seiner Heimatgalaxie, so gilt — wenn M die Masse der gesamten Galaxie bezeichnet —  F = GMm/r2  .
       
      Dies entspricht einer Beschleunigung  a = v2/r  des Sterns, wenn er sich mit der Geschwindigkeit v auf einer Kreisbahn vom Radius r um den Schwerpunkt der Galaxie herum bewegt.
       
      Postuliert man nun eine neue Naturkonstante a0 in der Größenordnung von 10-11 m/s2, so ergibt sich ein modifiziertes Bewegungsgesetz  GM/r2 = a2/a0  , welches für zunehmend höhere Beschleunigung a gegen das von Newton konvergiert.
       
      Nach ihm wird die Rotationsgeschwindigkeit der Sterne mit zunehmender Entfernung vom Schwerpunkt der Galaxie konstant: Sie konvergiert gegen (GMa0)1/4 , hängt dann also kaum mehr von r ab.
       
      Dieses Gesetz liefert für die Außenbezirke der Galaxien Vorhersagen, die im Einklang mit den astronomischen Messergebnissen stehen.
      Wüssen wir also, dass es richtig ist, bestünde keine Notwendigkeit mehr, an die Existenz dunkler Materie zu glauben.

     
    Der 2015 verstorbene Jacob Bekenstein hielt die MOND-Theorie für verfolgenswert und hat sie selbst weitergedacht zu TeVeS (Tensor-Vektor-Skalar-Gravitationstheorie: die relativistische Variante von MOND).
     
     
    Die Tatsache, dass MOND Einsteins Gravitationstheorie widerspricht, muss nicht viel bedeuten: Beide könnten Grenzfälle einer umfassenderen Theorie sein.
     
    Führt man sich jedoch vor Augen, dass der Wert eines physikalischen Modells
       
    • sich nicht nur danach bemisst, mit wie vielen vorhandenen Beobachtungen es kompatibel ist,
       
    • sondern vor allem auch danach, wie gut es über sie hinaus  e x t r a p o l i e r t  (d.h. wie viele Aussagen es macht, die erst viel später durch dann möglich gewordene Messungen Bestätigung finden),

    so kann MOND und TeVeS kein großer Stellenwert zugestanden werden.
     
    Es ist daher verständlich, dass die meisten Astrophysiker statt MOND in Erwägung zu ziehen, eher an die Existenz dunkler Materie glauben.
     


    Bekenstein (2002):
     
    Alle Arten galaktischer Systeme – Kugelsternhaufen, Zwerggalaxien, Galaxiengruppen und große Galaxienhaufen – zeigen eine Diskrepanz zwischen der beobachteten und der aus ihrer inneren Bewegung abgeleiteten Masse. Diese Diskrepanz ist umgekehrt proportional zur charakteristischen Beschleunigung – wie von MOND vorhergesagt. Modelle mit Dunkler Materie können diesen Zusammenhang nicht erklären. Dafür versagt MOND in den Kerngebieten großer Galaxienhaufen.
     



     

     Beitrag 0-226
    Die Skala der Quantengravitationseffekte

     
     

     
    Die Skala der Quantengravitationseffekte

     
     
    Die beiden Grundsäulen der modernen Physik — Allgemeine Relativitätstheorie und Quantenphysik — werden irgendwann zu einer einzigen, in sich konsistenten Theorie der Quantenvravitation vereinigt werden müssen.
     
    Bisher nämlich wird Einsteins Theorie zu ungenau, wo man — in der Umgebung des Urknalls oder im Zentrum Schwarzer Löcher — um die Berücksichtigung von Quanteneffekten nicht mehr herum kommt.
     
    Problem dabei wird sein, dass
       
    • natürlich auch jede Quantengravitationstheorie experimenteller Bestätigung bedarf,
       
    • hierzu aber enorm hohe Energien notwendig sein werden:
      1028 Elektronenvolt im Gegensatz zur Größenordnung unserer Alltagswelt von nur etwa 1 Elektronenvolt.

    Thomas Thiemann — einer der führenden Köpfe auf dem Gebiet der Schleifen-Quantengravitation — sagt:
     
    Direkt sehen wird man Quantengravitationseffekte wohl nicht, jedenfalls nicht in diesem Jahrhundert. Er hofft jedoch auf indirekte Indizien und erinnert in diesem Zusammenhang an Einsteins indirekten Nachweis der Existenz der Atome (1905) über seine Erklärung der Brownschen Bewegung (eine schon im Lichtmikroskop beobachtbaren Zick-Zack-Bewegung von Pollenkörnern): Einstein stieß in den Bereich unterhalb eines Millionstel Millimeters vor, obgleich das Mikroskop eine Auflösung von höchstens einem Hunderdstel Millimeter hatte.
     
    Es war diese Leistung, wofür ihm der Nobelpreis zuerkannt wurde.

     

     Beitrag 0-552
    Wie alles menschliche Wissen hinter Erkenntnishorizonten im Ungewissen verklingt

     
     

     
    Extrapolierende Physik

    Wo all unser physikalisches Wissen im Ungewissen verklingt

     
     
    Lieber Gesprächspartner,
     
    mich würde interessieren, was Du denkst
     
    Eng damit verbunden ist für mich die Frage, welche Grenzen theoretische Physik sich denn nun eigentlich zu setzen hat, um als noch seriös gelten zu können.
     
    Ich persönlich neige dazu, dass man einen Unterschied machen sollte zwischen den Begriffen » erklärende Physik « und » extrapolierende Physik «.
     
    Unter extrapolierter Physik — ein bisher nur von mir gebrauchter Begriff — sollte man Denkergebnisse verstehen, deren Wahrheitswert Experimentalphysik aus grundsätzlichen Gründen heraus nie wird nachprüfen können, die uns aber doch nicht wirklich aus der Luft gegriffen erscheinen, da sie nur fortdenken (= extrapolieren), was sich innerhalb unserer Möglichkeiten, die Welt zu beobachten, als nachprüfbar richtig erwies.
     
    |
     
    Stringtheorie etwa ist keine extrapolierende Physik in diesem Sinne, denn:
     
    Dass die kleinsten Bausteine der materiellen (= messbare Energie darstellenden) Welt Strings (= schwingende Fäden seien) ist ja definitiv falsch:
     
    Die kleinsten Portionen von Energie, aus denen sich Strahlung und Materie zusammensetzt, sind gegeben durch harmonische Kugelwellen. Es wundert mich deswegen, dass man noch nicht versucht hat, die Stringtheorie so umzubauen, dass sie nicht Schwingungungszustände von Strings (= Fäden) mit Elementarteilchen gleichzusetzen versucht, sondern stattdessen Schwingungszustände von Kugeloberflächen. Vielleicht würde sich dann ja herausstellen, dass es gar nicht notwendig ist, anzunehmen, dass unsere Welt mindestens sechs sog. "versteckte" Dimensionen habe.

     

     Beitrag 0-281
    Das schwache und das starke anthropische Prinzip

     
     

     
    Das anthropische Prinzip (Metaphysik)

     
     
    Unter einer Naturkonstanten versteht man eine physikalisch relevante Zahl, welche — wenigstens innerhalb des Beobachtungshorizonts (und der Messgenauigkeit) von uns Menschen — von Zeit und Ort unabhängigen Wert zu haben scheint.
     
    Wie nun aber Stringtheorie uns nahelegt, scheint es Regionen im Kosmos zu geben, die sich hinsichtlich der Werte solcher Naturkonstanten gravierend unterscheiden.
     
    Zudem lässt sich schnell einsehen — eben der Werte ihrer Naturkonstanten wegen — nur extrem wenige dieser Regionen biologisches Leben erlauben:
     
    Was die Werte der Naturkonstanten im Lebensraum der Menschen so besonders macht ist u.A.
       
    • Die Stärke der anziehenden Kraft zwischen den Kernteilchen kann gerade die abstoßende Kraft zwischen den positiv geladenen Protonen in den Kernen gewöhnlicher Atome — wie etwa Sauerstoff oder Kohlenstoff — überwinden, ist aber umgekehrt nicht ganz so stark, dass sie zwei Wasserstoffkerne (Protonen) in ein gebundenes System bringen kann. Das Diproton also gibt es nicht. Könnte es sich aber bilden, so wäre praktisch der gesamte Wasserstoff im Kosmos in Diprotonen oder noch größeren kernen gebunden. Sterne wie die Sonne, die durch langsame Fusion von Wasserstoff zu Helium über lange Zeit Energie erzeugen, könnt es dann kaum geben.
       
      Andererseits würden wesentlich schwächere Kernkräfte die Bildung größerer Atomkerne unmöglich machen.
       
      Wir sehen also: Falls die Entwicklung von Leben einen Stern wie die Sonne erfordert, der mit einer konstanten Rate über Millionen Jahre hinweg Energie erzeugt, so ist eine notwendige Voraussetzung dafür, dass die Stärke der Kernkräfte innerhalb ziemlich enger Grenzen liegen muss.
       
    • Ähnlich fein abgestimmt sein muss die Stärke der schwachen Wechselwirkung, denn sie steuert die Wasserstoff-Fusion in der Sonne. Nur weil die schwache Wechselwirkung in unserem Universum etwa 1 Millon Mal schwächer als die Kernkraft ist, verbrennt der Wasserstoff in der Sonne langsam und gleichmäßig. Wäre sie deutlich stärker oder schwächer, gäbe es Probleme für jede Art von Leben, das nur in Gegenwart sonnenartiger Sterne gedeihen kann.
       
    • Eine dritte numerische Abhängigkeit betrifft die mittlere Entfernung zwischen den Sternen, die in unserer galaktischen Umgebung einige Lichtjahre beträgt.
      Wir hätten keine Überlebenschance, wenn sie z.B. 10 Mal kleiner wäre. Es ergäbe sich dann nämlich eine hohe Wahrscheinlichkeit, dass im Verlauf der vergangenen 4 Mrd. Jahre ein anderer Stern dem Sonnensystem so nahe gekommen wäre, dass sich die Planetenbahnen verändert hätten. Es würde reichen, die Erde in eine leicht exzentrische elliptische Umlaufbahn zu bringen, um Leben auf ihr unmöglich zu machen.
       
    • Man könnte noch zahlreiche weitere Konstellationen solcher Bedeutung aufzählen.
       
      So bewirkt etwa erst eine empfindliche Balance zwischen elektrischen und anderen quantenmechanischen Kräften die Eigenschaft von Wasser flüssig zu sein, die Neigung von Kohlenstoff­atomen, sich zu komplexen Molekülen zu gruppieren, und die Vielfalt der organischen Chemie auch noch in vieler anderer Hinsicht.

     
    Die bemerkenswerte Harmonie zwischen den Werten der Naturkonstanten und den Bedürfnissen von Leben aufzuzeigen ist das Bedürfnis der Wissenschaftler, die das sog. » schwache anthropische Prinzip « herausstellen: die Tatsache, dass nur recht spezielle Werte der Naturkonstanten unsere Existenz möglich machen.
     
    Dass die Natur eben diese speziellen Werte bevorzugt zu erreichen sucht — wie Vertreter des sog. » starken anthropischen Prinzips « anzunehmen geneigt sind —, kann Naturwissenschaft aber nicht belegen.

     
     
    Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 84-85


     

     Beitrag 0-551
    Im Metaverse zu sein ist Tortur und Produktivitätskiller

     
     

     
    Wünsche dir ja nicht,

    im Metaverse arbeiten zu müssen



    Die Computerwoche – eine IT-Fachzeitschrift – berichtet (Mitte 2022):
     

    Im Metaverse zu sein ist Tortur und Produktivitätskiller

     
    Wissenschaftler der Universitäten von Coburg, Cambridge und Primorska haben in Kooperation mit Microsoft Research das bislang umfassendste Virtual-Reality-Arbeitsexperiment realisiert.
     
    Im Experiment arbeiteten 16 Testpersonen eine volle 40-Stunden-Woche in der virtuellen Realität.
    Es kam dabei das handelsübliches Equipment zum Einsatz: ein Meta Quest 2 VR-Headset und eine Logitech K830 Tastatur mit integriertem Trackpad.
     
    Dieselben Probanden verbrachten im Anschluss eine weitere Arbeitswoche innerhalb einer herkömmlichen Büro- und PC-Umgebung.
     
    Das Resultat des Experiments bezeichnen die Studienautoren als "erwartungsgemäß". Die Probanden berichteten im VR-Umfeld über:
       
    • um 35 Prozent gesteigerte Arbeitsbelastung,
       
    • um 42 Prozent gesteigertes Frustrationslevel,
       
    • eine Zunahme von Angstzuständen um 11 Prozent und
       
    • um 48 Prozent gesteigerte Belastung für die Augen.

    Ihre eigene Produktivität werteten die Teilnehmer als um 16 Prozent reduziert – ihr Wohlbefinden sogar um 20 Prozent.
     
    Zwei der Testpersonen – ein Mann und eine Frau – brachen die Studie schon am ersten Tag ab wegen unerwarteter Beschwerden in Form von Migräne, Übelkeit und Angstzuständen.
     
     
    Quelle: Researchers confirm: Working in the Metaverse is going to suck (eine Studie aus 2022)
     
    Das Studienergebnis im Detail
     
    und
     
    wie Werbung — ein "Advisor Strategic Customers" bei Salesforce als "IDG Experte" — CIOs was ganz anderes zu suggerieren versucht.

     



     

     Beitrag 0-531
    Was die Physik unser Ich nennen könnte

     
     

     
    Was die Physik unser Ich nennen könnte

     
     
    Was man aus Sicht der Naturwissenschaft als unser Ich sehen könnte, ist der Teil unseres Bewusstsein, der vor allem nicht-algorithmisch denkt und insbesondere auch über sich selbst nachdenken kann.
     
    Damit ist klar: Jeder geistig gesunde Mensch hat ein solches Ich.
     
      Die interessante Frage, die sich stellt, ist nun aber die Frage, ob diese Art von Seele (unser Ich also) den Tod unseres Gehirn überlebt — und wenn ja, für wie lange. Es gibt nur wenige Wissenschaftler, die sich ernsthaft auf die Suche nach einer Antwort gemacht haben. Viele von ihnen kommen zur These: Ja, das könnte durchaus der Fall sein.
       
      Die Beobachtungen allerdings, die ihnen diese Meinung nahelegen, deuten — soweit mir bekannt — alle darauf hin, dass unser Ich — wenn es denn wirklich den Tod unseres Körpers überleben kann – sich über die Zeit hinweg verflüchtigt wie Gasgeruch in ansonsten reiner Luft.
       
      Aus physikalischer Sicht heraus könnte es sich dabei wohl am ehesten um in unserem Gehirn erzeugte, langwellige elektromagnetische Wellen handeln, deren jede sich über unsere Schädeldecke hinaus als Kugeloberfläche ins All hinaus ausbreitet, um sich dort dann einzeln und weitgehend unabhängig von einander irgendwann mit anderen Quanten zu vereinen — die eine oder andere davon vielleicht erst in Milliarden von Jahren.

     
    Wer sich als Naturwissenschaftler solche (von der Quantenphysik ja durchaus nahegelegte) Gedanken macht, sollte aber nicht verschweigen, dass dieser Sachverhalt noch keineswegs klärt, ob es auch ein Ich im religiösen Sinne gibt: ein Ich, das nicht an physikalisch Existierendes gebunden ist und das Christen etwa als ihre Seele bezeichnen.
     
    Es ist wichtig, sich den Unterschied zwischen den Begriffen Geist, Psyche und Seele (in diesem Sinne) klar zu machen:
     
    Jeder Mensch besteht aus Körper und Geist. Letzterer gedeiht oder verkümmert in dem Teil des Menschen, den wir als seine Seele bzw. seine Psyche bezeichnen. Wie Körper und Psyche funktionieren und zusammenwirken, ist Gegenstand von Neurologie, Psychologie und Medizin, nur ansatzweise auch Biologie.
     
    Religionen gehen davon aus, dass jeder Mensch über seine Psyche hinaus auch noch eine Seele (nun aber im religiösen Sinne) hat und die besonders wichtig sei, da sie sein eigentliches, über den Tod hinaus existierendes Ich darstellt.
     
    Fazit also:
     
      Das Psychische ist sozusagen der Teil allen Seelischen, für dessen Existenz wir Beweise haben und der deswegen wissenschaftlicher Untersuchung gerade noch zugänglich ist.
       
      Wie weit über ihn hinaus Seelisches auch als etwas sogar noch physikalisch Existentes über unseren körperlichen Tod hinaus existiert — bzw. existieren kann —, ist nicht erforschbar.

       
      Das oben vorgebrachte physikalische Argument scheint Beweis dafür zu sein, dass der Tod unseres Gehirns Anfang unseres entgültigen Sterbens ist im selben Sinne, wie das Abschneiden einer Blume, um sie dann in eine Vase zu stellen, der Beginn ihres unwiderruflichen Absterbens ist.


     

     Beitrag 0-337
    Positivismus und Realismus — Wie sie sich unterscheiden

     
     

     
    Positivisten und Realisten (in der Physik)

     
     
    Wie Positivismus in der Physik zu verstehen sei, hat Max Planck 1930 einmal so zusammengefasst:
     
    Für Positivisten » ist die Aufgabe der physikalischen Wissenschaft erschöpfend gekennzeichnet, wenn man sagt, dass sie darin bestünde, im die Summe vorliegender Naturbeobachtungen einen möglichst genauen und einfachen gesetzlichen Zusammenhang zu bringen «.
     
    Jede Frage, so Planck, die der Positivist überhaupt als sinnvoll zulässt, muss durch Beobachtung beantwortbar sein.

     
    Seinen deutlichsten Ausdruck hat der Positivismus in der Denkökonomie des Ernst Mach gefunden, in der es bei der Naturbeschreibung nur daraum geht, die Erscheinungen möglichst ökonomisch zu beschreiben: Positivisten sind keine Entdecker, sondern Erfinder ökonomischer Beschreibung.
     
    Planck war sich mit Physikern wie Einstein, Schrödinger und Pauli darin einig, dass die große Gefahr des Positivismus seine Unfruchtbarkeit sei.
     
    Einstein, der Mach verehrt hat, hat das sehr genau erkannt. Er schrieb 1917 an Besso: » Über das Machsche Rösslein schimpfe ich nicht ... Aber es könnte nichts Lebendiges gebären, sondern nur schädliches Gewürm ausrotten. «
     
    Über Quantengravitation und Quantenkosmologie würde ein Positivist heute gar nicht nachdenlen. Er versagt sich dadurch aber von vornherein die Möglichkeit, in Neuland vorzustoßen.
     
     
    Deswegen kam es schnell zur Gegenposition des Realismus :
     
    Planck bezeichnete ihn als die Hypothese, dass
     
    unsere Erlebnisse nicht selbst die physikalische Welt ausmachen, sondern nur Kunde geben von der wirklichen Welt.

     
    Natürlich fordert auch der Realist, dass all seine Aussagen in Einklang mit Experimenten und tatsächlich gemachten Beobachtungen stehen. Hierin also stimmt er mit dem Positivisten überein. Darüber hinaus aber gibt es für ihn die Möglichkeit, freier Setzung und freier Spekulation:


    Albert Einstein und Leopold Infeld in Die Evolution der Physik :
     
    Physikalische Begriffe sind freie Schöpfungen des Geistes und ergeben sich nicht etwa – wie man recht leicht zu glauben geneigt ist – zwangsläufig aus den Verhältnissen der Außenwelt.
     


    Erst der Grad der Sicherheit, mit der diese intuitive Verknüpfung vorgenommen werden kann, unterscheide — so Einstein in Autobiographisches — leeres Spekulieren von wissenschaftlicher Wahrheit.
     
    Fassen wir zusammen:
     
    Positivisten verstehen sich als Beschreiber der Naturgesetze,
     
    Realisten aber wollen auch Entdecker sein.


     

     Beitrag 0-392
    Warum Quantenphysik weit genauer als klassische Physik ist

     
     

     
    Das besonders genaue Modell der Quantenphysik

     
     
    (1)  Quantenphysik verfeinert den Zustandsbegriff

     
     
    Die klassische Physik versucht eine Welt W zu verstehen, indem sie sich W als Summe disjunkter Teilwelten W(j) auffasst und dann davon ausgeht, dass man W kennt, sobald man alle W(j) kennt. Mit anderen Worten:
     
    Klassische Physik geht davon aus, dass der Zustandsraum von W die direkte Summe der Zustandsräume aller W(j) sei und jedes W(j) sich autonom verhalte.
     
    Ein Nachteil dieses Vorgehens wird sofort klar: Jede so erhaltene Beschreibung von W wird ums ungenauer sein, in je weniger kleine Teilwelten W(j) man sich W partitioniert denkt.
     
     
    Quantenphysik dagegen ist genauer: Sie ist holistisch in dem Sinne, dass sie neben sämtlichen Teilwelten auch noch die Beziehungen zwischen ihnen betrachtet und sie als ebenfalls wesentliche Bestandteile von W anerkennt. Dies zu erreichen, geht Quantenphysik davon aus, dass der Zustandsraum von W das direkte Produkt der Zustandsräume all seiner kleinstmöglichen, nicht mehr teilbaren Teilwelten w(j) sein müsse.
     
     
     
    (2)  Nur Quantenphysik kennt komplementäre Größen

     
     
    Als komplementär bezeichnete Niels Bohr zwei Größen, deren begrifflicher Gebrauch für das volle Verständnis einer Sache unverzichtbar ist, obgleich sie einander ausschließen.
     
    Er hat das erklärt am Beispiel von Liebe und Gerechtigkeit: Um zu überleben benötigen Menschen beides. Und doch ist — im strengen Sinne ihrer Bedeutung — die gleichzeitige Anwendung beider nicht möglich. Sie sind komplementär.
     
    Beispiel für Komplementarität in der Quantenphysik sind das Wellen- und das Teilchenmodell: Jede Welle ist ausgebreitet über den ganzen Raum, ein Teilchen aber wird als punktförmig und zu jeder Zeit als an einem ganz bestimmten Ort lokalisiert gedacht.
     
     
     
    Heisenbergs Matrizenmechanik lieferte die mathematische Struktur, die zur Darstellung des Zustandsraumes, aber auch der Komplementarität in der Quantenphysik nötig war. Da sich jede quantenphysikalische Messung als linearer Operator auf dem Zustandsraum darstellt, spiegelt sich die Komplementarität in der Tatsache, dass das Produkt zweier Operatoren von der Reihenfolge ihrer Anwendung abhängt.

     

     Beitrag 0-218
    Was Quantenphysik von klassischer Physik unterscheidet

     
     

     
    Unterschiede zwischen

    Quantenphysik und klassischer Physik

     
     
    Unterschied 1:  Die Rolle des Zufalls
       
    • Im alltäglichen Sprachgebrauch bezeichnen wir als zufällig, was durch uns nicht vorhersehbar ist.
       
    • Nach klassischer Physik ist der Zufall eine rein subjektive Erscheinung, die überall dort auftritt, wo ein Geschehen nicht durchschaut und vorausberechnet werden kann. Es gilt dennoch als vollkommen determiniert.
       
    • Ganz anders in der Quantentheorie: Dort sind die Möglichkeiten eines Systems durch vollkommen festgelegt, aber nicht, aus welchen davon Fakten werden: Die Wahrscheinlichkeiten, mit der Möglichkeiten realisierbar sind, ist genau bestimmt und berechenbar. Die sich im Einzelfall ergebenden Fakten allerdings sind objektiv zufällig. Die Annahme, sie seinen an sich wohlbestimmt aber unbekannt, gilt als experimentell widerlegt (Stichwort: Bellsche Messung).
       
      Da sich Fakten aber stets nur im Rahmen naturgesetzlich genau festgelegter Möglichkeiten ergeben können, unterscheidet sich der quantenphysikalische Zufall ganz erheblich von einer rein strukturlosen Willkür, unter deren Regie sich gleichsam alles ergeben könnte.

     
    Unterschied 2:  Der Stellenwert von Reduktionismus
     
    Die klassischen ebenso wie die quantischen Objekte bilden ein dynamisches Gewebe, in dem es ständig durch Wechselwirkung zu Emergenz, aber auch zu ständig neuer Trennung und Differenzierung kommt.
       
    • Eine Besonderheit der Quantenphysik besteht nun aber darin, dass solche Trennungen keineswegs räumlich erfolgen müssen: Bosonen können sich räumlich durchdringen und dennoch als Objekte klar voneinander getrennt sein (elektromagnetische Wellen sind das wohl bekannteste Beispiel hierfür: sie ignorieren einander).
       
    • Dennoch ist ein Tisch — ja sogar der gesamte Inhalt des Weltalls — aus Sicht der Quantenphysik ein einziges Ganzes (also nicht wie aus Sicht der klassischen Physik eine Menge kleinster, strukturloser Teile, in die sich das Ganze so zerlegen ließe, dass jeder dieser kleinsten Teile unverändert bliebe).

     
    Unterschied 3:  Beschreibungsgegenstand

     
    Klassische Physik beschreibt  F a k t e n ,
     
    d.h. Ergebnisse quantenphysikalischer "Messung" (bzw. quantenphysikalischer Ereignisse).
     
     
    Quantenphysik zeigt zudem alle durch das Eintreten solcher Fakten neu entstandenen  M ö g l i c h k e i t e n .

     
     
    Wichtige Konsequenz dieses Unterschiedes ist, dass — wo man ein Objekt als aus Teilen zusammengesetzt sieht —
       
    • der Zustandsraum des Objekts in der klassischen Physik die direkte  S u m m e  der Zustandsräume dieser Teile ist,
       
    • wohingegen er sich in der Quantenphysik als ihr direktes  P r o d u k t  ( Tensorprodukt ) darstellt.

     
    Wie Thomas Görnitz auf den Seiten 379-381 des Buches Thomas & Brigitte Görnitz: Der kreative Kosmos (2002) über einen Beweis des No-Cloning-Theorems zeigt, sind nur die Zustände kopierbar (nachbildbar), die einen  v o l l s t ä n d i g  definierten quantenphysikalischen Zustand darstellen.
     
    Sie und  n u r  sie sind Zustände im Sinne der klassischen Physik. Jede Messfrage, die einer quantenphysikalischen Messung zugrunde liegt, wählt einen möglichen klassischen Zustand und frägt dann, ob das Quantensystem sich in ihm befindet. Daher kann die Antwort auf die Messfrage stets nur ein JA oder ein NEIN sein.
     
    Der gegebenen Antwort entsprechend wird die Messung den Zustand des Quantensystems
       
    • bei Antwort JA in den Zustandsteilraum versetzt haben, der die abgefragten Eigenschaften garantiert,
       
    • bei Antwort NEIN aber in einen zu ihm orthogonalen.

    Note: Jeder vollständig bestimmte Zustand entspricht einer Richtung im Zustandsraum (d.h. einer Geraden durch dessen Ursprung). Messung verändert diese Richtung.
     
    Statt klassischer Zustände die deutlich mehr Information tragenden quantenphysikalischen zu betrachten bedeutet nichts anders als an jeden klassischen Zustand angehängt auch die Wellenfunktion zu sehen, nach der sich das Gesamtsystem (genauer: seine Wirkwahrscheinlichkeit) ausgehend von diesem Zustand — falls er mal eingetreten sein sollte — so lange durch Zeit und Raum fortentwickelt, bis eine erneute "Messung" des Quantensystems (ein sog. Kollaps der Wellenfunktion) sie durch eine neue Version ihrer selbst ersetzt.
     
    Wirkwahrscheinlichkeit in diesem Sinne ist das Quadrat der zeit- und ortsabhängigen Amplitude der normierten Wellenfunktion.
     
    Man kann sie verstehen als die Nachdrücklichkeit n(x,t), mit der das Quantensystem an Stellen (x,t) der Raumzeit versucht, Quantenereignisse auszulösen.

     

     Beitrag 0-506
    Demokrit, Heisenberg und die Quantenfeld-Theorie

     
     

     
    Demokrits Atommodell

    präzisiert durch Heisenberg und die Quantenfeld-Theorie

     


    Physiker wissen (2020):
     
    Unter einem Quant (oder Quantensystem) versteht man einen aus Strahlung und/oder Materie bestehenden Teil der Natur, der sich mit Hilfe der Quantenfeld-Theorie nicht nur prinzipiell, sondern zudem noch in praktikabler Weise deutlich zutreffender beschreiben lässt als mit den Mitteln der klassischen Physik.
     
    Man könnte nun meinen, die Tatsache, dass jedes Quant auch System von Quanten ist, widerspreche Demokrits Atommodell. Dem aber ist nicht so, wie man einsehen kann wie folgt:
     
     
    Heisenbergs Unschärfe-Relation impliziert Quantenfluktuation
     
    und zudem noch:
       
    • Wirklich jedes Teilchen ist ein sich durch Quantenfluktuation ständig mehr oder weniger selbst modifizierendes System harmonischer Wellen im Feld der physikalischen Grundkräfte.
       
      Diese Wellen (sog. QuBits) stellen die unteilbaren Portionen von Energie dar, aus denen jedes in der Natur anzutreffende Boson oder Fermion besteht.
       
    • Auf hinreichend kleiner Skala — unterhalb der Planckskala, wie Bronstein erkannt hat, — sind sie durch keinerlei Messverfahren mehr auseinanderzuhalten.
       
      Mit anderen Worten:
       
       
      Die Struktur der Wellenpakete im Feld der physikalischen Grundkräfte ist unterhalb der Planckskala ganz prinzipiell unbeobachtbar
       
      und muss daher im Rahmen der Physik als unbestimmt angenommen werden.
       
      Einzeln können QuBits beliebig kurz existieren, werden dann aber entsprechend energiereich sein.

     


     
    Bronsteins argument Bronsteins argument
     
     
    Quelle: Carlo Rovelli, Francesca Vidotto: Covariant Loop Quantum Gravity: An Elementary Introduction to Quantum Gravity and Spinfoam Theory (2014), p. 7-8


     

     Beitrag 0-462
    Quanten sind als Welle oder Teilchen gedeutete Portionen von Energie

     
     

     
    Die Wellen und Teilchen der Quantenphysik beschreiben

    Energieportionen und ihr Verhalten

     
     
    Wie das Fourier-Theorem zeigt, ist alles, was man Welle nennt, genau genommen Summe harmonischer (d.h. sinusförmiger) Wellen. Erst sie stellen je eine unteilbare Portion von Energie dar, und so ist letztlich nur jede solche Portion das, was man » ein unteilbares Teilchen « nennt (informationstheoretisch gesehen: » ein QuBit «).
     
      Ein besonders häufig diskutiertes Beispiel harmonischer Wellen sind Photonen:
       
      Jedes Photon breitet sich um den Ort seines Entstehens herum aus als Oberfläche einer Kugelwelle, deren Radius sich mit Lichtgeschwindigkeit vergrößert. Da diese Welle nun aber um Hindernisse herum gebeugt wird, nimmt sie sehr schnell mehr oder weniger stark "verbeulte" Form an. Das geht so weit, dass wenn sie auf ein Gitter trifft, sie zwischen den Stäben des Gitters durchquillt und ihre so entstehenden Lappen sich hinter dem Gitter dann sogar überlagern (weswegen dann z.B. im Doppelspalt-Experiment auf einem Schirm hinter den beiden Spalten, durch die Licht kommt, Inteferenz zu sehen ist). Genauer:
       
      Was sich auf dem Schirm hinter den Spalten zeigt, sind Punkte, deren jeder eine Stelle ist, an der ein durch den Doppelspalt gekommenes Photon seine Energie an ein Atom des Schirms abgegeben hat:
       
      Da das Atom jene Energie aufnimmt, dann aber sofort wieder abgibt, so dass sich der Schirm, wenn er aus lichtempfindlichen Materiel besteht, dort verändert, sehen wir jenen Punkt.
       
      Da die Wahrscheinlichkeit, dass sich das Photon an einer bestimmten Stelle des Schirms mit dem Schirm vereinigt — dort also seine gesamte Energie schlagartig abgibt und aufhört zu existieren — an den Stellen am größten ist, an denen die Amplitude der harmonischen Welle am größten ist, gruppieren sich solche Stellen dann zu einem Interferenzmuster, das wir als Interferenz von Wahrscheinlichkeitwellen deuten können.
       
      Bei Materiewellen ist es im Prinzip ebenso, nur dass man sie gleich von vorn herein als Wahrscheinlichkeitswellen deutet. Letzten Endes aber existiert auch jede Materiewelle nur als Summe harmonischer Wellen, deren jede Auf- und Abbau von Kraft darstellt, d.h. wellenförmig schwankendes Potential, Wirkung hervorzurufen.

     
    Vieles, was im Standardmodell der Elementarteilchenphysik als Elementarteilchen gilt, ist tatsächlich ein ganzes Wellenpaket, also Summe harmonischer, sich im Raum ausbreitender Kugelwellen. Wie Heisenbergs Unschärferelation (angewandt auf das Paar Energie und Lebensdauer einer harmonischen Welle) zeigt, ist dieses Wellenpaket sogar in ständiger Abänderung seiner selbst begriffen.

     

     Beitrag 0-449
    Quantenphysikalische Observable als Operatoren

     
     

     
    Quantenphysikalische Observable als Operatoren

     
     
    In der Quantenmechanik werden die grundlegenden Größen der klassischen Mechanik — die Ortskoordinate q etwa, der Impuls p oder die Hamilton-Funktion H(p,q) als Operatoren auf einem Hilbertraum dargestellt.

    Ilya Prigogine:
     
    Wir müssen zwischen dem Operator — einer mathematischen Operation — und dem Objekt, auf das er wirkt — einer Funktion — unterscheiden:
     
    Nehmen wir als Operator z.B. die durch d/dx dargestellte Ableitung nach x und wenden ihn an auf die Funktion f(x) = x2, so erhält man als Ergebnis die Funktion df/dx = 2x.
     
    Bestimmte Funktion aber verhalten sich so, dass ihre Ableitung Vielfaches der Funktion selbst ist ( z.B. ist 3e3x die Ableitung von e3x ).
     
     
    Jede Funktion, die man durch Anwendung eines Operators erneut erhält, nennt man Eigenfunktion des Operators, und die Zahl, mit der sie nach Anwendung des Operators multipliziert ist, nennt man einen Eigenwert des Operators.
     
    Auf diese Weise ist jedem Operator ein Vorrat von Zahlen zugeordnet, den man sein Eigenwertspektrum nennt. Es kann diskret oder kontinuierlich sein (also z.B. aus allen ganzen Zahlen bestehen oder aus allen reellen Zahlen zwischen z.B. 0 und 1).
     
     
    Sämtlichen physikalischen Größen der klassischen Mechanik entspricht in der Quantenmechanik ein Operator. Seine Eigenwerte stellen die Menge der möglichen Messwerte dar.
     
    So wird z.B. die Energie durch den Hamilton-Operator H(p,q) dargestellt und beobachtete Energiewerte (Energieniveaus) durch dessen Eigenwerte.
     


     
    Quelle: Ilya Prigogine, Isabelle Stengers: Dialog mit der Natur — Neue Wege naturwissenschaftlichen Denkens, Serie Piper, S. 232-233
     
    oder das Vorlesungsskript physik.hu-berlin.de/~sokolov/QM1


     

     Beitrag 0-58
    Zum Begriff physikalischer Theorien und Objekte

     
     

     
    Zum Begriff physikalischer Objekte

     
     
    Die Wurzeln der Disziplin Theoretische Physik reichen zurück bis in die Zeit der Vorsokratiker (etwa 500 v.Chr.). Spätestens seit Isaac Newton bedient sich die Theoretische Physik zum Aufschreiben ihrer Ergebnisse zwingend der Mathematik. Der mathematische Zweig der Differentialrechnung etwa wurde durch Newton (und parallel dazu durch Leibniz) zu eigens diesem Zweck erfunden und entwickelt.
     
    Dennoch sehen gerade die Vertreter der Theoretischen Physik sich häufig — und weit mehr als andere Wissenschaftler — dem Vorwurf ausgesetzt, was sie da vorbrächten sei einfach nur eine mehr oder weniger haltlose Vermutung und allzu weit hergeholt. Dem ist entgegenzuhalten, dass solche Vermutungen vor allem dem Zweck dienen, keinen Lösungsansatz zu übersehen, nur weil er so gar nicht naheliegt oder so gar nicht dem entspricht, was unsere Erfahrung uns nahelegt. Dass die meisten ihrer Denkansätze die Natur missverstehen, ist den theoretischen Physikern bewusst. Jede Idee dennoch zu prüfen und nach Argumenten zu suchen, sie zu widerlegen, ist dennoch ihre Pflicht, denn schon allzu oft hat ganz extrem Unwahrscheinliches sich später doch als wahr erwiesen.
     
     
    Heute also gilt: Theoretische Physik ist kreative Anwendung hoch komplizierter mathematischer Konstrukte mit dem Hintergedanken, dass die Mathematik uns hilft, die Welt in der wir leben, zu entdecken, zu verstehen und ihrem Verhalten uns gegenüber vorhersagbar zu machen.
     
    Aus mathematischer Sicht ist jedes physikalische Objekt ein
     
     
    Gegenstand ( Eigenschaften, Theorie )

     
    wobei
    • sich der Gegenstand — als gedankliches Bild einer Kategorie physikalischer Objekte gleicher Art — über die genannte Menge von Eigenschaften definiert,
       
    • jede dieser Eigenschaften durch eine Zahl quantifizierbar ist
       
    • und die so erhaltenen Zahlen (Eigenschaftswerte) der genannten Theorie gehorchen.
       
    • Die Theorie wiederum ist nichts anderes als ein Gleichungssystem, welches beschreibt, in welcher Abhängigkeit mögliche Werte der einzelnen Eigenschaften zueinander stehen: Jede Lösung des Gleichungssystems beschreibt — als Menge von Eigenschaftswerten — genau eine Objektinstanz.

     
    Streng genommen also ist jede Lösung der Theorie — jedes konkrete physikalische Objekt —
     
    eine Abbildung der Menge aller Eigenschaften in die Menge aller reellen Zahlen.

     
     
    Da nun aber Objekte im Sinne der Physik so gut wie immer zeitabhängig betrachtet werden — und sich ihre Eigenschaftswerte mit der Zeit ändern — werden Physiker sehr oft erst dann von einer Lösung der Theorie sprechen, wenn sie eine ganze Schar mathematischer Lösungen meinen, deren Scharparameter der Zeitwert ist.
     
    Noch allgemeiner: Wo z.B. die Stringtheoretiker behaupten, ihre Theorie hätte so etwa 10500 Lösungen (deren jede ein konkrete Instanz des Gegenstandes "Raumzeit mit allen über die gesamte Zeit hinweg darin existierenden Dingen" beschreibt), ist damit eine Schar von Lösungen gemeint, die mindesten zwei Scharparameter hat: die Zeit einerseits und die sog. Kopplungskonstante andererseits.
     
     
    Wer sich nun aber vor Augen führt, dass jedes Gleichungssystem mit mehr als zwei Unbekannten — nennen wir sie Z und K in Anlehnung ans eben gegebene Beispiel — sehr viele Lösungen haben kann, die aber alle in Z und K denselben Wert haben, so wird klar, dass jede Schar von Lösungen der Theorie selbst wieder Vereinigung kleinerer, aber immer noch beliebig großer Scharen sein kann.
     
      Diese Tatsache übringens führt nicht selten zur Entdeckung neuer, bis dahin völlig unbekannter Phänomene. Beispiel für ein auf diesem Wege entdecktes Phönomen ist Antimaterie. Paul Dirac konnte 1928 die Existenz eines » positiv geladenen Elektrons « (man nennt es heute das Proton) vorhersagen, da sie ihm auffiel, dass eine von ihm betrachtet quadratische Gleichung statt nur einer Lösung — die die Ladung des Elektrons beschrieb — gleich deren zwei hatte, die sich nur im Vorzeichen unterschieden.

     
    Wir sehen: Die Aussage der Stringtheoretiker, ihre Theorie hätte wohl so etwa 10500 Lösungen, sagt rein gar nichts. Das einzige, was wir mit Sicherheit wissen, ist, dass die Stringtheorie — sollte ihr Gleichungssystem denn jemals endgültig formuliert sein — sicher noch weit mehr Lösungen haben wird als Einstein Feldgleichungen (d.h. die Allgemeine Relativitätstheorie). Schon die aber hat unendlich viele  g e s c h l o s s e n e  Lösungen — z.B. die, welche man das Gödel-Universum nennt.
     
    Hinzu kommt: Die meisten Lösungen der Allgemeinen Relativitätstheorie sind überhaupt nicht in geschlossener Form angebbar (als Formel also), sondern nur mit Hilfe komplizierter Rechnung als Menge der sie darstellenden Eigenschaftswerte schrittweise (und stets nur näherungsweise) konstruierbar.
     
     
    Nun ist allerdings zu beachten, dass Lösungen, die der Physiker sucht, fast immer Lösungen eines bestimmten Anfangswertproblems sein sollen.
     
    Was das bedeutet, beschreibt Martin Bojowald wie folgt (unter der Voraussetzung, dass der betrachtete Gegenstand ein Modell unseres Universums sei):
     


    Bojowald ( S. 309-311 seines Buches Zurück vor den Urknall ):
     

    In der Kosmologie spielt die Eindeutigkeit der Lösung einer Theorie der Raumzeit eine wichtige Rolle — denn schließlich können wir ja nur ein einziges Universum beobachten: da, in dem wir leben. Leider erhält man Eindeutigkeit nie umsonst, sondern stets nur über zusätzliche (die Theorie einschränkenden) Annahmen, die mehr oder weniger natürlich erscheinen mögen. Sie treten in zwei prinzipiell unterschiedlichen Rollen auf:
    • als Annahmen, die zum Aufstellen einer Theorie nötig sind,
    • aber auch als Annahmen zur Auswahl von Lösungen der dann schließlich gegebenen Theorie.

    Zu Annahmen der zweiten Art kommt man über eine standardisierte Operation, die eng mit der mathematischen Art der Gleichungen zusammenhängt, die in in physikalischen Gesetzen Verwendung finden: Es sind dies (meist partielle) Differential-, hin und wieder aber auch Differenzengleichungen, die zu bestimmen haben, wie sich eine Größe ändert, wenn man sich in Raum oder Zeit — oder im Sinne eines anderen abstrakten Parameters — bewegt.
     
    Um die Lösung eindeutig zu machen, reicht es nun aber nicht, lediglich zu wissen, wie sich sich ändert, wenn man sich bewegt: Man benötigt zusätzlich einen Standpunkt, von dem aus solche Änderungen ausgehen. Er kann sein
    • eine Anfangsbedingung (d.h. man legt fest, welchen Wert die untersuchte Größe zu dem  Z e i t p u n k t  hat, von dem man ausgeht)
    • oder eine Randbedingung (was bedeutet, dass man festlegt, von welchem Wert der Größe man am Rande des jeweils untersuchten  R a u m g e b i e t e s  ausgeht)
    Anfangs- und Randbedingung können als das theoretische Äquivalent der Entscheidung eines Experimentators zu Aufbau und Durchführung seines Experiments angesehen werden. Die Theorie selbst aber soll, mindestens näherungsweise, dem Verhalten der Natur entsprechen — so wie uns auferlegte Naturgesetze es erwarten lassen.
     
    Ein Experiment ist dann immer eine spezielle Situation in der Natur, die durch den Experimentaufbau (z.B. ein Pendel) und die gewählte Ausgangsposition (z.B. die Position, von der aus man das Pendel frei schwingen lässt) spezifiziert ist.
     
    Also: Die Theorie wird durch die Wahl eines bestimmten natürlichen Phänomens fixiert, aber erst seine spezifische Realisierung liefert die Randbedingungen, von denen ausgehend man unter Berücksichtigung seiner allgemeinen Möglichkeiten eine Lösung sucht.
     


    Festzuhalten bleibt:
     
     
    Wer von der Lösung einer Theorie spricht, meint damit i.d.R.
     
    eine Lösung, die gewisse Randbedingungen respektiert,
     
    die aber keineswegs aus der Theorie selbst kommen.
     
     
    Lösungen solcher Art beschreiben das betrachtete physikalische Objekt dann meist auch nur lokal.

     
     
     
    Schönes Beispiel hierfür ist die Schwarzschild-Metrik (als die Lösung von Einsteins Feldgleichungen, die 1916 als erste gefunden wurde): Karl Schwarzschild betrachtete den Außen­raum einer kugelsymmetrischen Massenverteilung. Hier verschwindet der Energie-Impuls-Tensor und die Metrik hängt nur von einer radialen Koordinate ab. Die resultierende Raum-Zeit-Struktur nennt man heute ein » Schwarzes Loch «. Sie ist durch einen sog. Ereignishorizont gekennzeichnet, der die zentrale Singularität abschirmt.
     
    Noch weit exotischer ist eine von Kurt Gödel gefundene Schar von Lösungen: der sog. » Gödelsche Kosmos «. Er lässt geschlossene Zeitlinien zu und wurde von Einstein als eher nicht die wirkliche Welt beschreibend eingestuft (genauer müsste man eigentlich sagen "keine wirklich existierende  R e g i o n  unserer Welt").


     

     Beitrag 0-136
    Jedes physikalische Modell hat zwei Ebenen unterschiedlicher Verbindlichkeit: Begriffe und Relationen

     
     

     
    Die beiden Ebenen physikalischer Modelle

     
     
    Nach Josef Honerkamp — er war 30 Jahre lang Professor für Theoretische Physik — gibt es in jedem physikalischen Modell zwei Ebenen, die keineswegs gleich verbindlich sind:
    • die Ebene der Begriffe
       
    • und die Ebene der Relationen zwischen diesen Begriffen.
    Während man die Relationen — soweit sie sich in Prüfungen bewährt haben — als festen, verlässlichen Bestandteil des Wissens der Menschheit anzusehen hat, unterliegen die Begriffe im Laufe der Zeit häufig einem Wandel: Sie sind Provisorien, von denen keines so richtig passen will, und so werden sie hin und wieder durch neue ersetzt oder gar auch als überflüssig erkannt (so wie Einstein z.B. den Begriff des Äthers als überflüssig erkannt hat).
     
    Die Ebene der Begriffe ergibt sich aus unseren Denkgewohnheiten: Noch Unverstandenes versuchen wir zu begreifen, indem wir es mit Dingen vergleichen, die wir schon gut verstanden zu haben glauben.
     
    Im Nachhinein, so schreibt Honerkamp, erscheinen uns überwundene Vorstellungen von einem Begriff wie Vorurteile, und so könne die Wissenschaft insgesamt als ein nie endendes Menschheitsprojekt zur Überwindung von Vorurteilen gesehen werden.
     
     
      Besonders klar wird das, wenn man sich vor Augen führt, wie der Begriff » Materie « sich im Laufe der Zeit gewandelt hat:
       
      Noch Ende des 19. Jahrhunderts sahen die Physiker Materie als Menge von Atomen, deren jedes man sich zunächst als kleines Körnchen vorgestellt hat.
       
      1911 hat Rutherford den Begriff des Körnchens ersetzt durch sein Planetenmodell, und schon 2 Jahre später sprach Bohr von einem Schalenmodell.
       
      Der damaligen Denkgewohnheit entsprechend hat man sich mechanische Modelle gewünscht (wie es diese 3 Vorstellungen ja auch waren). Der britische Physiker Lord Kelvin etwa soll offen bekannt haben, dass er die Maxwellschen Gleichungen nicht verstehen könne, da ihm ein mechanisches Modell dazu fehle.
       
      Erst langsam akzeptierten die Physiker, dass die Welt nicht nur aus Teilchen, sondern auch aus Feldern bestehend gedacht werden kann.
       
      Heute — etwa 100 Jahre später — beginnt man, den Teilchenbegriff im atomaren und subatomaren Bereich ganz fallen zu lassen und voll auf den Feldbegriff zu setzen: Jede Art von Elementarteilchen wird als wellenförmige Anregung eines dieser Art zugeordneten Feldes gesehen.
       
      Ein Wasserstoffatom etwa würden wir heute gar nicht mehr als "real" existierend ansehen, wenn mit "real" gemeint sin soll, dass es all seinen Eigenschaften nach stets wohlbestimmt und vor allem auch irgendwo lokalisierbar ist. Wir sehen ein, dass es Realität solcher Art ganz offensichtlich erst beginnend mit der Skala mittler Dimensionen gibt (der mesoskopischen).


    Honerkamp drückt es so aus:
     
    Heute müssen wir konstatieren, dass die Quantenmechanik eine in allen Experimenten erfolgreich geprüfte Theorie ist, die uns zeigt, dass die Natur auf der atomaren Ebene durch ganz andere Gesetze [durch nicht-mechanische] beschrieben werden muss und dass die Objekte auf dieser Größenskala von ganz neuer Art sind — neu im Hinblick auf alles, was wir in unserer Welt der mittleren Diemensionen kennen.
     
    Zwar kommen wir manchmal mit der Vorstellung, dass diese Objekte Teilchen wären, noch ganz gut zurecht. Aber das hat Grenzen.
     
    Wir nennen diese Objekte jetzt Quanten und sehen, dass sie mit nichts vergleichbar sind, was wir sonst im Laufe der Evolution erfahren und kennen gelernt haben.
     


     
     
    Quelle: Josef Honerkamp: Wissenschaft und Weltbilder, Springer 2015, S. 144-171


     

     Beitrag 0-155
    Steven Hawking: Zum Wesen physikalischer Modelle

     
     

     
    Steven Hawkings Standpunkt

    Über die Grenzen physikalischer Modelle

     
     


    Hawking 1996:
     
    Ich nehme den positivistischen Standpunkt ein, dass jede physikalische Theorie nur ein mathematisches Modell darstellt und dass es nicht sinnvoll ist, zu fragen, ob es der Wirklichkeit entspricht:
     
    Man kann nur fragen, ob seine  V o r h e r s a g e n  mit den Beobachtungen in Einklang stehen.

     


     
     
    Quelle: Hawking und Penrose: Raum und Zeit, Rowohlt 1998, Seite 10
     
    Titel der Originalausgabe: The Nature of Space and Time, Princeton University Press (1996)

     
    Note: Wissenschaftstheoretiker verstehen unter dem positivistischen Standpunkt die Überzeugung, dass man sich zum Gewinnen von Erkenntnissen nur auf positive Befunde im Sinne der Naturwissenschaften zu stützen und transzendentale Begründungen zu verwerfen habe.

     

     Beitrag 0-157
    Genauigkeit und Grenzen der derzeit aktuellen physikalischen Modelle

     
     

     
    Genauigkeit der aktuellen physikalischen Theorien

     
     
    Die derzeit aktuellen, durch viele Experimente gut bestätigten physikalischen Theoren des 20. Jahrhunderts sind

    Roger Penrose schreibt ( 1996 ):
     
    Manche behaupten, die QFT sei mit ihrer Genauigkeit von etwa 1 : 1011 die bisher genaueste physikalische Theorie.
     
    Ich jedoch möchte darauf hinweisen, dass sich die ART inzwischen in einem wohldefinierten Sinne mit einer Genauigleit von sogar 1 : 1014 als korrekt erwiesen hat und dass die i.W. nur die entsprechend beschränkte Präzision der Uhren auf der Erde zu dieser Grenze führt.
       
      Ich rede da vom Binärpulsar PSR 1913 + 16, d.h. von zwei sich umkreisender Neutronensterne, von denen einer ein Pulsar ist.
       
      Der ART nach sollte die Umlaufbahn allmählich enger (und die Periode entsprechend kürzer) werden, da wegen der Aussendung von Gravitationswellen Energie verloren geht.
       
      Und genau das hat man beobachtet; die gesamte Beschreibung der Bewegung, welche von den Newtonschen Bahnen an einem Ende der ART-Korrekturen in der Mitte bis hin zu der Beschleunigung der Bahnbewegung durch Gravitationswellen am anderen Ende führt, stimmt mit der Vorhersage der ART (in welche ich Newtons Theorie mit einbeziehe) überein — und zwar mit der eben erwähnten Genauigkeit.
       
      Dies hat sich aus Beobachtungen über einen Zeitraum von 20 Jahren hinweg ergeben.
       
      Den Entdeckern dieses Systems wurde völlig zu Recht der Nobelpreis verliehen.

     
    Quantentheoretiker haben immer wieder verlangt, man solle wegen der Genauigkeit ihrer Theorie die ART ändern, um sie in den Rahmen der QT einzufassen. Ich aber glaube, dass es jetzt an der QFT ist, ein wenig auzuholen.
     
    Obgleich diese Theorien ganz bemerkenswert erfolgreich sind, haben sie doch auch Probleme:
       
    • Das der QFT besteht darin, dass man bei der Berchnung der Amplitude eines mehrfach zusammenhängenden Feynman-Diagramms zunächst stets eine nach unendlich divergierende Antwort bekommt. Diese Unendlichkeiten müssen als Teil des Renormierungsprozesses der Theorie subtrahiert und wegskaliert werden (ein mathematisch fragwürdiges Vorgehen).
       
    • Die ART sagt die Existenz raumzeitlicher Singularitäten voraus.
       
    • In der QT schließlich gibt es das » sog. Messproblem «.

    Vielleicht liegt die Lösung dieser Probleme in der Beseitigung möglicher Ungenauigkeiten dieser Theorien.
       
    • Viele gehen z.B. davon aus, dass die QFT die Singularitäten der ART irgendwie » ausschmieren « könnte.
       
    • Die Divergenzprobleme der QFT könnten — tweilweise wenigstens — durch ein ultraviolettes Cutoff aus der ART gelöst werden.
       
    • Das Messproblem der QT, so denke ich, wird letztlich dadurch gelöst werden, dass man ART und QT sinnvoll zu einer neuen Theorie vereinigt.

     


     
    Quelle: Hawking und Penrose: Raum und Zeit, Rowohlt 1998, Seite 87-89
     
    Titel der Originalausgabe: The Nature of Space and Time, Princeton University Press (1996)


     

     Beitrag 0-165
    Feldtheorien und Elementarteilchen-Modelle darf man nicht allzu wörtlich nehmen

     
     

     
    Alle heute bekannten Elementarteilchen-Modelle

    sind nur effektive Theorien

     
     
    Eine Theorie wird effektiv genannt, wenn sie eine (meist noch unbekannte) tiefere Theorie vereinfachend oder zusammenfassend darstellt
     
    mit dem Ziel, praktikabel zu werden.


    Rüdiger Vaas (2003):
     
    Obgleich ein operationaler Teilchenbegriff in der Experimentalphysik unverzichtbar bleibt — die Partikel werden dort als mikroskopische Ursache lokaler Wirkungen gesehen (als Klicks im Zählrohr-Detektor, als Lichtblitze oder als Spur in einer Nebelkammer) — bedeutet das noch lange nicht, dass Teilchen mikroskopische Bestandteile makroskopischer Dinge sind:
     
    Sehr wahrscheinlich geben selbst die besten gegenwärtigen Theorien der Elementarteilchenphysik trotz aller Erfolge keine fundamentale, sondern nur eine effektive Beschreibung.
     
    Es ist nicht einmal klar, von welchen Entitäten die Quantenfeldtheorien denn eigentlich handeln bzw. welche Teile der Formalismen überhaupt etwas physikalisch Reales repräsentieren:
       
    • Beschreiben sie wirklich Felder, wie es den Anschein hat und meistens angenommen wird?
       
    • Und was sind Felder genau?
       
    • Kann man sich Feldquanten oder Wellenpakete auch ohne sie vorstellen?
       
    • Oder sind ganz andere Kategorien des Seins anzunehmen, Eigenschaftsbündel etwa?
       
    • Oder handelt es sich um abstrakte Beziehungen oder Strukturen?

    All diese Alternativen werfen schwierige Probleme auf. Im sog. Strukturenrealismus beispielsweise wird neuerdings der relationale Charakter der Entitäten betont. Demnach wäre das, was Materie » ist «, gar nicht so wichtig, wäre vielleicht sogar unerkennbar, im Vergleich zur Deutlichkeit, mit der sich die abstrakten Beziehungen zeigen.
     
    Ein solcher Strukturen-Realismus spiegelt sich auch in der Klassifikation der verschiedenen Quanten oder Quantenfelder wider, wie sie durch abstrakte Symmetrien — durch Gruppen im Sinne der Gruppentheorie — erfasst werden.
     
    Solche Relationen gelten
       
    • in den Varianten des ontischen Struktur-Realismus als real und eventuell sogar fundamental,
       
    • in den epidemistischen Varianten aber nur als Beschreibungswerkzeuge, so dass sich dann die Frage stellt, was diese Strukturen gewissermaßen aufspannt.

    Will man keinen antinaturalistischen Platonismus vertreten — d.h. behaupten, dass nur » reine Ideen « real sind « sondern stattdessen einen wissenschaftlichen Realismus, so müsste geklärt werden, zwischen was die strukturellen Beziehungen denn eigentlich bestehen.
     
    Die alten Fragen der vorsokratischen Philosophen sind also nach wie vor ungelöst, aber aktueller und diffiziler denn je.
     
    Auf jeden Fall gilt:
     
    Den modernen Quantenfeldtheorien zufolge gibt es
     
    weder klassische Teilchen noch räumlich lokalisierbare Trajektorien (Bahnen).

     
    Die von Heisenberg nachgewiesene Unschärfe von Ort, Impuls, Energie und Zeitpunkt
       
    • setzt nicht nur Grenzen für Messung,
       
    • sondern unterminiert darüber hinaus auch das Konzept klassischer Eigenschaften.

    Innere Freiheitsgrade und Eigenschaften von "Teilchen" sind extrem unanschaulich (Spin) und z.T. sogar ständig wechselnd (etwa bei Neutrino-Oszillation).
     
    Ferner sind Teilchen gleichen Typs ununterscheidbar — man kann sie also nicht mal in Gedanken nummerieren oder unterschiedlich einfärben.
     
    Seltsam ist auch ihre quantenmechanische Nicht-Lokalität (wie Verschränkung sie zeigt).
     
    Trotzdem sind "Teilchen" experimentell lokalisierbar.
     
    Noch kurioser: Die Zahl solcher "Teilchen" kann je nach Bezugssystem unterschiedlich sein (Unruh-Effekt), ist also beobachterabhängig.
     
    Zudem kommt es laufend zu Erzeugung, Vernichtung und Transformation von "Teilchen" bis hin zu beliebig virtuellen, die sich nicht wirklich aus dem Vakuum isolieren lassen, aber dennoch messbare Effekte haben (Lamb-Shift, Casimir-Effekt).
     
    Und selbst der Raum scheint den spekulativen Ansätzen der Quantengravitationstheorie zufolge emergent zu sein, d.h. aus fundamentaleren Entitäten aufgebaut. Es deutet sich an, dass er möglicherweise noch nicht mal irreduzibel 3-dimensional ist.
     
     
    Nach diesen atemberaubenden Entwicklungen der Teilchenphysik, die aber noch keineswegs abgeschlossen sind, muss man sich fragen, was letztlich vom klassischem Atomismus noch übrig bleibt: und das, obgleich er doch bis Ende des 19. Jahrhunderts nur Spekulation, dann aber so glänzend bestätigt schien.
     


     
    Quelle: Rüdiger Vaas: Vom Gottesteilchen zur Weltformel, Kosmos-Verlag 2013, S. 62-65


     

     Beitrag 0-308
    Wie sich moderne Physik ein Quant vorstellt

     
     

     
    Wie man sich Quanten vorzustellen hat

     
     
    Die moderne Physik modelliert jedes unteilbare  Q u a n t  als eine sich wellenförmig ausbreitende Feldanregung in einem der 4 Felder physikalischer Grundkräfte:
       
    • dem elektromagnetischen Feld,
       
    • dem Feld der schwachen Wechselwirkung,
       
    • dem Feld der starken Wechselwirkung und — nicht zuletzt —
       
    • dem Gravitationsfeld.

    Da der Raum 3 Dimensionen hat, handelt es sich dabei um Kugelwellen.
     
    Jede von ihnen breitet sich aus analog zur Anregung einer ruhenden Wasseroberfläche, die zustande kommt, wenn man einen Stein ins Wasser wirft: Man kann beobachten, dass die Welle sich kreisringartig ausbreitet, an Hindernissen gebeugt wird und dass solche Wellen miteinander interferieren. Die Front der Welle ist der äußere Rand des Kreisringes, ihr Ende sein innerer Rand, und der Beugung an einem Hindernes wegen, muss dieser Rand seine kreisförmige Form nicht behalten. Hinter Hindernissen, um die herum er gedrückt wird, kann er sogar mit sich selbst interferieren [ Stichwort: Doppelspaltexperiment ].
     
    Mit Anregungen 3-dimensionaler Felder ist es nicht anders: Jede von ihnen breitet sich aus wie die Haut eines Ballons, der aufgeplasen wird. Präsent — in dem Sinne, dass sie dort Kraft darstellt und somit Wirkung hervorrufen kann — ist die 3-dimensionale Welle überall dort, wo sich die Haut des Ballons gerade befindet.
     
    Jede Feldanregung trägt eine unteilbare Portion von Energie — Energie also, die nur auf einen Schlag verbraucht werden kann in dem Sinne, dass sie sich mit einem anderen Quant vereinigt und diese Vereinigung — als neues Quant, das nicht selten sofort wieder zerfällt — neue Feldanregungen zur Folge hat: Die Summe sie darstellender Portionen von Energie ist immer gleich der Summe der beiden Portionen von Energie, deren Kollision das Quantenereignis ausgelöst hat.
     
    Über solche Ereignisse hinaus wird natürlich auch jede Quantenfluktuation Feldanregungen erzeugen.
     
     
    Jede dieser Kugelwellen — jedes Quant — existiert, bis es sich als unteilbare Portion von Energie schlagartig mit einem anderen vereinigt
     
    und die Stelle, an der das geschieht, zum Ausgangspunkt neuer Feldanregungen wird.

     
     
    Note: Der Welle-Teilchen-Dualismus gilt heute als überholt, da wir jetzt wissen, dass das "Teilchen" als Kugelwelle weit ausgebreitet sein kann und die Region, in der es existiert, nicht verwechselt werden darf mit dem Punkt darin, an dem es "beobachtet" wird, an der es also aufhört zu existieren. Was wir von dort empfangen und als das beobachtete "Teilchen" interpretieren, sind schon die neu entstandenen Feldanregungen.

     
     
    VORSICHT aber:
     
    Dieses Quantenmodell stellt Realität dar — nicht notwendig die uns unbekannte Wirklichkeit.


    Josef Hohnerkamp ( 2015 auf S. 244 seines Buches Wissenschaft und Weltbilder ):
     
    Wir können einzelne Quanten manupulieren und genau berechnen, wie sie sich in jeder experimentellen Situation verhalten,
     
    aber wir werden nie sagen können, was ein Quant denn in Wirklichkeit ist.

     


    Eben das sagt uns in etwas anderen Worten auch Hawking als Kosmologe:

    Steven Hawking ( 1993 ):


      Es hat keinen Zweck, sich auf die Wirklichkeit zu berufen, da wir kein modellunabhängiges Konzept der Wirklichkeit besitzen.

    Nach meiner Meinung ist der unausgesprochene Glaube an eine modellunabhängige Wirklichkeit der tiefere Grund für die Schwierigkeiten, die Wissenschaftsphilosophen mit der Quantenmechanik und dem Unbestimmtheitsprinzip haben.

    Quelle: Mein Standpunkt


     
    Natürlich sind diese beiden Vertreter der Theoretischen Physik nicht die einzigen, die das so sehen. Vor ihnen haben schon Niels Bohr, Immanuel Kant und sogar der Vorsokratiker Parmenides (etwa 500 v. Chr.) darauf hingewiesen.

     

     Beitrag 0-239
    Die beiden notwendigen — sich gut ergänzenden — physikalischen Weltmodelle

     
     

     
    Klassische und quantenphysikalische Weltbeschreibung

     
     
    Die Weltbeschreibung der klassischen Physik zerlegt die Welt in Objekte, die einzeln erkannt und untersucht werden können. und unter Wechselwirkung ihre Identität und Eigenexistenz behalten. Es wird damit möglich, zu betrachten, wie sich ihr Zustand über die Zeit inweg entwickelt.
     
    Anders die Weltbeschreibung der Quantenphysik: Sie erkennt, dass Wechselwirkung den quantenphysikalischen Objekten — die man dort ja sämtlich als Pakete von Feldanregungen sieht — ihre Identität nimmt und sie in etwas aufgehen lässt, in dem sie so verschmelzen sind, dass sie danach nicht mehr als einzeln existent — als sich selbst bestimmte Form gebend — aufgefasst werden können.
     
    Da der rein quantenphysikalische Zustand der Welt — als Wellenfunktion des Universums — keine durch ständige Veränderung uns nahe gelegte Zeit kennt, sind Vergangenheit, Gegenwart und Zukunft in ihr nicht wirklich vorhanden. Sie ist zeitlos, denn der Zeitparameter der Wellenfunktion ist dort nur eine Dimension im mathematischen Sinne.
     
    Die Zeitlosigkeit des quantenphysikalischen Weltmodells führt zum seltsamen Phänomen von "delayed choice", der verzögerten Wahl, bei der jeder Kollaps der Wellenfunktion neu entscheidet, was als zuvor gewesen gilt, so dass ein Unterschied zwischen früher und später jeden Sinn verliert.
     
     
    Das Verbleiben des Quantischen im Bereich der Möglichkeiten hat zur Folge, dass das Mitteilen und Erklären auch quantischer Zusammenhänge nur im Rahmen klassischer Physik möglich ist. Andererseits ist das Quantische Grundlage auch jeder quantischen Weltbeschreibung. Mit anderen Worten:
     
     
    Für eine vollständige Erfassung des Weltgeschehens sind  b e i d e  Beschreibungen unverzichtbar.

     
     
    Görnitz bezeichnet dies als die dynamische Schichtenstruktur unserer Welt und schreibt:

    Görnitz (2002):
     
    Die Schichtenstruktur ergibt sich, da sich die Welt weder voll deterministisch noch nur durch Zufall gesteuert entwickelt.
     
    Da die menschliche Psyche ein Teil der Natur ist, wird auch sie sämtlichen Gesetzmäßigkeiten unterworfen sein, die für die Natur generell gelten. Und so wirkt auch in ihrem Bereich die dynamische Schichtenstruktur.
     
    Phsychoanalytische Konzeptionen ebenso wie die Säuglingsforschung bestätigen diese Erwartung.
     
    Freud etwa definiert eine ihm wichtige Unterscheidung in primär und sekundär prozesshaftes Denken. Im Sinne dieser Unterscheidung sind
       
    • die primären Prozesse jene, die unbewusst ablaufen und weder die klassische Logik noch die reale Zeitstruktur berücksichtigen.
       
    • Sekundärprozesshaftes Denken ist das streng rationale Denken, welches im sich selbst reflektierenden Bewusstsein mündet.

    Freud war der Meinung, dass letzteres erst später ausgebildet werde, dass also nur das primärprozessartige Denken von Anfang an gegeben sei.
     
    Heute denkt man, dass das eher nicht richtig ist und dass auch das primär prozessartige Denken sich mit der Zeit verändere.
     


    Quelle: Thomas & Brigitte Görnitz: Der kreative Kosmos, Spektrum-Verlag (2002), S. 327-328

     
     
    Da ständiger Kollaps der Wellenfunktion die quantenphysikalische Beschreibung unserer Welt laufend durch eine leicht abgeänderte Version ihrer selbst ersetzt, lässt sich das quantenphysikalische Weltbild mit einem Film vergleichen, dessen schnell aufeinander folgende Bilder (Frames, wie der Fachman sagt) die durch jeweils einen Kollaps der Wellenfunktion geschaffenen Fakten zeigen.
     
    Die Weltbeschreibung der klassischen Physik entspricht dem, was der Betrachter dieses Filmes sieht und was er gerade noch registrieren kann.
     
    Mathematisch gedacht könnte man jeden Frame F des Films — der einen faktisch gewordenen Zustand X zeigt — vergleichen mit dem Tangentenraum an eine differenzierbare Mannigfaltigkeit W, welche unsere Welt nicht nur als Ergebnis von Ereignis X, sondern über die gesamte Raumzeit hinweg modelliert.

     

     Beitrag 0-240
    Verschiebung (im Sinne der Psychologie) und ...

     
     

     
    Verschiebung (im Sinne der Psychologie)
     
    und was sie quantenphysikalisch sein könnte

     
     
    Man versteht darunter die Tatsache, dass der Akzent — die emotionale Bedeutung oder auch die Intensität — von Vorstellungen sich von ihnen lösen und auf andere übertragen kann, die mit den ersten durch Emotionsketten verbunden sind.
     
    Quanteninformation kann sich unter bestimmten Bedingungen in Teile aufspalten, und diese Teile können sich als eigenständige Objekte mit anderen neu zusammenfinden und so neue Ganzheiten bilden.
     
    Derartige Vorgänge finden auch bei einer Verschiebung statt, die sich im Unterbewusstsein abspielt, bei dem sich ein emotionaler Informationsanteil — z.B. wegen seines bedrohlichen Inhalts — von seiner objektiven Verursachung ablösen und auf andere, als weniger bedrohlich empfundene, übetragen kann.
      So mag man sich z.B. über den Chef ärgern, schluckt diesen Ärger herunter, und wird dann am Abend daheim plötzlich über eine Reaktion der Kinder ärgerlich, die man unter anderen Umständen kaum zur Kenntnis genommen hätte.

    In der Sprache der Quantentheorie hat man es hier mit einer Transformation von Zuständen zu tun, die
       
    • sowohl als Bewegung ( unitäre Drehungen ) im Hilbert-Raum.
       
    • als auch als Projektionsvorgänge
    zu verstehen sind.
       
    • Im ersten Fall hat man es mit reiner Quanteninformation zu tun, die Veränderung von Wahrscheinlichkeiten darstellt, ohne dass hierbei etwas faktisch werden würde.
       
      Dieser Vorgang ist reversibel und wäre ohne weiteres rückgängig zu machen.
       
       
    • Der zweite Fall aber entspricht einer "Messung", bei der etwas "passiert". Sie muss nicht vollständig, sondern kann auch teilweise sein in dem Sinne, dass nicht auf einen ganz bestimmten Zustand projeziert wird, sondern auf einen Teilraum dann immer noch möglicher Zustände.
       
      In diesem Fall aber kann der Vorgang nicht mehr ungeschehen gemacht werden, da Projektionen ja nicht injektiv sind.
       
      Dies kann als ein Modell für Verschiebung im psychologischen Sinne dienen.

     
     
    Quelle: Thomas & Brigitte Görnitz: Der kreative Kosmos, Spektrum-Verlag (2002), S. 330-331


     

     Beitrag 0-256
    Warum wohl keine umfassende physikalische Theorie zeitsymmetrisch sein kann

     
     

     
    Können zeitinvariante physikalische Theorien vollständig sein?

     
     
    Da die Physik all ihre Theorien mathematisch formuliert, ist jedes physikalisch beschriebene Geschehen eine Funktion der Zeit.
     
    Eine der ganz wenigen nur teilweise zeitinvarianten physikalischen Theorien ist die Quantenphysik, denn:
       
    • Die Schrödinger-Gleichung ist zeitsymmetrisch,
       
    • der Kollaps der Wellenfunktion aber ist es nicht.

    Hieraus folgt: Würde man irgendwann eine sog. Weltformel finden — eine absolut vollständige physikalische Theorie für alles im gesamten Kosmos mögliche Geschehen — oder auch nur eine Theorie der Quantengravitation, so könnte sie nicht zeitsymmetrisch sein.
     
     
    Unsere bisher genaueste Theorie des Makrokosmos ist Einsteins Allgemeine Relativitätstheorie (ART). Jede ihrer Lösungen — betrachtet als Funktion der Zeit — beschreibt mögliches kosmisches Geschehen, z.B. den gesamten Lebenslauf eines Schwarzen Lochs.
       
    • Ersetzt man in dieser Lösung L(t) die Zeitvariable t durch -t, so erhält man eine weitere Lösung der Theorie.
       
    • Beschreibt L(t) ein Schwarzes Loch, so nennt man das durch L(-t) beschriebene Geschehen die Geschichte eines Weißen Lochs.
       
    • Andererseits könnte L(t) aber auch die Geschichte eines Menschen beschreiben. Was aber würde dann L(-t) beschreiben?

    Konsequenz daraus:
     
    Die Existenz sog. Weißer Löcher ist ebenso unwahrscheinlich wie die Existenz von Menschen, die aus dem Grab erstehen und ihr Leben rückwärts durchlaufen.
     
     


    Klaus Mainzer (1995):
     
    Im Rahmen der relativistischen Kosmologie ist Zeit nur eine reelle Koordinate, um Ereignisse zu markieren. Die Frage, was "vor" der Anfangssingularität [ dem sog. Urknall ] war, ist mathematisch nicht definiert und daher sinnlos.
     
    Auch die Rede von einer "Schöpfung" der Zeit ist mathematisch im Rahmen der Relativitätstheorie nicht definiert.
     
    Wir müssen streng unterscheiden zwischen
       
    • den definierten Begriffen einer physikalischen Theorie
       
    • und weltanschaulichen Interpretationen.
     
    Die Singularitäten von Einseins Theorie sagen die Möglichkeit sehr kleiner Gebiete der relativistischen Raumzeit voraus, in denen die Krümmung der Raumzeit — und somit auch die Gravitation — beliebig groß werden kann.
     
    Astrophysikalisch werden dieses Singularitäten gedeutet als "Schwarze Löcher", denen der Tod eines Sterns durch Gravitationskollaps vorausging. Dazu wird eine 3-dimensionale Oberfläche angenommen — genannt "absoluter Ereignishorizont" — die alle von außen einfallenden Signale verschluckt und nichts wieder nach außen lässt.
     
    Im Zentrum des durch den Ereignishorizon begrenten Bereichs wird die raum-zeitliche Singularität angenommen, in der die Krümmung der Raumzeit unendlich wird: Ein absoluter Endpunkt für kausale Zeitsignale.
     
     
    ... Da die Spezielle ebenso wie die Allgemeine Relativitätstheorie zeitsymmetrisch sind, sagt Einsteins Theorie auch das zeitlich gespiegelte Verhalten eines Schwarzen Lochs voraus, d.h. "unendlich" dichte Materipunkte, aus denen Lichtsignale explodieren (sog. Weiße Löcher).
     
    Diese mathematische Konsequenz der zeitsymmetrischen Theorie gilt jedoch als physikalisch unwahrscheinlich und wurde von R. Penrose durch seine Ad-hoc-Hypothese "Kosmischer Zensur" ausgeschlossen.
     
     
    Damit werden Erklärungsdefizite der relativistischen Kosmologie deutlich.
     
     
    ... In der derzeitigen Quantenmechanik und Quantenfeldtheorie ist das Problem der Zeitsymmetrie noch nicht abschließend geklärt. Einerseits sind die Quantengleichungen zeitsymmetrisch, gestatten also die Zeitumkehr. Andererseits trennen in der Gegenwart stattfindende Messvorgänge Vergangenheit und Zukunft der Systeme in einer irreversiblen Weise. Man erhofft von einer Vereinigung der Quanten- mit der Relativitätstheorie eine Klärung dieses Problems, die Vereinigung beider Theorien zu einer einheitlichen Quantengravitationstheorie ist aber noch nicht gelungen, obwohl es erste Ansätze von Hawking zu einer solchen Theorie gibt.
     



    Quelle: Klaus Mainzer: Zeit — von der Urzeit zur Computerzeit, Beck'sche Reihe (1995, 2011), S. 54-55.
     
    Klaus Mainzer, Ordinarius für Wissenschaftstheorie an der Uni Augsburg, hat Mathematik, Physik und Philosophie studiert.


     

     Beitrag 0-257
    Zur — oft missverstandenen — Qualität physikalischer Aussagen

     
     

     
    Zur Qualität physikalischer Aussagen

     
     
    Die Sprache der Physik ist Mathematik.
     
    Dies bedeutet aber nicht, dass physikalische Aussagen ebenso richtig sein müssen wie – logisch fehlerfrei abgeleitete – mathematische Aussagen:

     


    Wolfgang Kinzel, Lehrstuhl für theoretische Physik III Universität Würzburg, schrieb:
     
    Es gibt keine wahren Aussagen in der theoretischen Physik, sondern nur Aussagen, die eine Vielzahl von Experimenten beschreiben und ihr Ergebnis vorhersagen können.
     
    Die Mathematik dagegen hat eine andere Zielsetzung. Sie geht von Axiomen und präzisen Definitionen aus und leitet daraus Aussagen her, die streng logisch aus den Axiomen gefolgert werden sollen. Die bewiesenen Aussagen der Mathematik sind Wahrheiten, die – falls der Beweis richtig war – nie widerlegt werden können.
     


     
    Um das zu verstehen,muss man wissen: Physikalische Aussagen sind  D e u t u n g  der Aussagen mathematischer Modelle im Lichte unser Realität, d.h. unserer Sinneswahrnehmung interpretiert durch unser Gehirn.
     
    Jede solche Deutung wird irgendwie hinken — ist also stets nur mehr oder weniger grob zutreffend.
     
     
    Schönes Beispiel hierfür ist Heisenbergs Aussage über unsere Atommodelle:

    Heisenberg (Zitat aus 1945):
     
    Das Atom der modernen Physik kann allein nur durch eine partielle Differentialgleichung in einem abstrakten, vieldimensionalen Raum dargestellt werden. Alle seine Eigenschaften sind gefolgert; keine materiellen Eigenschaften können ihm in direkter Weise zugeschrieben werden. Das heißt: Jedes Bild des Atoms, das unsere Einbildung zu erfinden vermag, ist aus diesem Grunde mangelhaft. Ein Verständnis der atomaren Welt in jener ursprünglich sinnlichen Weise ist unmöglich.
     

      Nebenbei noch: Wie aus Heisenbergs Unbestimmtheitsrelation — angewandt auf das Paar Energie und Lebendauer virtueller Teilchen — folgt, wird in jedem noch so kleinen Zeitintervall durch ständig und überall gegebene Quantenfluktuation nicht nur die Differentialgleichung, von der er spricht, sondern auch die Zahl der Dimensionen des "vieldimensionalen" Raumes, über dem sie definiert ist, fortlaufend modifiziert.


     

     Beitrag 0-361
    Warum weder Quantenphysik noch Einsteins Theorie beliebig große Energiedichte kennen

     
     

     
    Warum heutige Physik bei hoher (aber noch endlicher) Energiedichte versagt

     
     
    In vielen Büchern wird behauptet, dass im Zentrum Schwarzer Löcher — und auch im Urknall — es zu unendlich großer Materiedichte käme.
     
    Tatsächlich aber gilt, dass heutige physikalische Modelle bei hinreichend hoher — aber durchaus noch endlich großer
    — Dichte undefiniert werden.
     
       
    • Erstens: Einsteins ART kann nicht bis in den Urknall hinein formuliert werden, denn hierfür wäre es nötig, für jeden dem Urknall noch so nahen Raumzeitpunkt einen Energie-Impuls-Tensor
       
      Ti,k   =   Ti,k ( ρ,P )

       
      formulieren zu können ( ρ die Energiedichte, P der Druck ).
       
      Dies aber ist nicht möglich, da sich Baryonen nicht genauer als bis hin zu ihrer Compton-Wellenlänge ( λ = h/mc ) lokalisieren lassen. Mit anderen Worten: Wegen der unvermeidlichen quantenphysikalischen Unschärfe kennen heute bekannte physikalische Modelle keine sinnvollen Dichten größer als
       
      1064 g/cm3  =  mN/λ3

      Hier ist m die Masse des Protons und N die Zahl aller Baryonen im Universum.
       

       
    • Zweitens: Schon bei der sehr viel kleineren Planckdichte (= 1056 g/cm3 ) brechen unsere Modelle zusammen, denn ab da wächst der Schwarzschildradius jeden Baryons über seine Comptonwellenlänge hinaus, so dass sich unter solchen Drucken jedes Baryon als Schwarzes Loch darstellt.
       

       
    • Drittens: Eine nochmals um gut 40 Größenordnungen kleinere obere Grenze für sinnvolle Dichte-Angaben impliziert allein schon das Pauliprinzip, nach dem Raumwürfel kleiner als h3 keine zwei Baryonen enthalten können. Dies hat eine maximal gerade noch sinnvolle Dichte von
       
      m/λ3  =  1015 g/cm3

      zur Folge, jenseits derer heutige Quantenphysik versagt.

     
    Wir sehen: Bei hinreichend großer Dichte sind beide — Einsteins Theorie ebenso wie die Quantenphysik — gar nicht mehr anwendbar (weswegen die Physiker sich denn auch so dringend eine Quantengravitationstheorie wünschen).
     
     
     
    Quelle: Hans Jörg Fahr: Mit oder ohne Urknall, 2. Auflage 2016, S. 326-328


     

     Beitrag 0-289
    Warum Physiker die Planck-Länge als untere Grenze gerade noch Sinn machender Abstandsangaben sehen

     
     

     
    Warum Physiker die Planck-Länge als untere Grenze
     
    aller gerade noch Sinn machenden Abstandsangaben sehen

     
     
    Der Physiker Gerhard Graw erklärt uns das in seinem Aufsatz Kosmologie, einfach auf Seite 20-21 wie folgt:

    Gerhard Graw:
     
    Einsteins Allgemeine Relativitätstheorie kennt den Urknall nur als Singularität, in der alle Abstände zu Null schrumpfen. Diese mathematische Aussage widerstrebt dem physikalischen Denken. Wie kleine Abstände also kann man sich als gerade noch sinnvoll vorstellen?
     
    Auch wenn wir noch keine Theorie haben, die Gravitation und Quantenmechanik vereinigt, kann man folgende Überlegung anstellen:
     
    Heisenbergs Unschärferelation besagt, dass bei extremer Beschränkung des Raums der Impuls und damit die Energie sehr groß werden. Nun lässt sich aber jeder Masse (bzw. jeder Konzentration von Energie) ihr sog. Schwarzschild-Radius zuordnen. Wird er größer als die betrachtete Lokalisation, so diskutiert man eine Lokalisation innerhalb eines Schwarzen Lochs. Das aber ist von einem Standpunkt außerhalb des Lochs physikalisch sinnlos.
     
    Daher also wird eine Länge von 10-35 Meter, als kleinster, physikalisch gerade noch Sinn machender Wert für Abstandsangaben gesehen.
     


     
    Andere Gesichtspunkte sind:


    Leonard Sussind ( in Der Krieg um das Schwarze Loch, S. 248-250 ):
     
    In den letzten Jahtren haben wir — die Elementarteilchen-Physiker — Beweise dafür gesammelt, dass die Maschinerie im Inneren von Teilchen nicht viel größer, aber auch nicht viel kleiner ist als die Plancklänge:
     
    Nach gewohnter Vorstellung ist die Gravitationskraft im Vergleich zu elektromagnetischen und subnuklearen Kräften derart schwach, dass sie für das Verhalten von Elementarteilchen vollkommen irrelevant ist.
     
    Auf Skalen kleiner oder gleich der Plancklänge allerdings übertrifft die Stärke der Gravitation zunehmend die der anderen drei Grundkräfte der Natur.
     
    Es könnte deswegen im Bereich des Allerkleinsten — dort also, wo selbst noch Elektronen komplizierte Strukturen sind — die Gravitation die wichtigste aller Kräfte sein. Daher sollten auch Teilchenphysiker sich bemühen, die im Entstehen begriffene Theorie der Quantengravitation zu verstehen.
     
    Interessant ist, dass selbst die Kosmologen nicht um eine Quantentheorie der Gravitation herumkommen: Es ist ja bekannt, dass das Universum früher weit größere Teilchendichte hatte als heute. Die Photonen des kosmischen Mikrowellenhintergrunds etwa haben heute einen Abstand von etwa 1 cm, waren aber umso dichter gepackt, je weiter wir in die Vergangenheit zurückgehen. Es spricht einiges dafür, dass sie zur Zeit des Urknalls nicht weiter von einander entfernt waren als nur eine Plancklänge. Sollte das zutreffen, wären die damals wichtigsten Kräfte zwischen ihnen gravitativer Natur gewesen. Mit anderen Worten:
     
     
    Eine Theorie der Quantengravitation ist für die Elementarteilchenphysik ebenso wichtg
     
    wie für die Kosmologen, welche den Urknall zu verstehen versuchen.

     



     

     Beitrag 0-294
    Was man sich unter einem » Paradigmenwechsel « vorzustellen hat

     
     

     
    Was man sich unter einem » Paradigma « vorzustellen hat

     
     
    Thomas S. Kuhn — einer der bedeutendsten Wissenschaftsphilosophen des 20. Jahrhunderts — verstand darunter ein in einer bestimmten Epoche dominierendes Denkmuster. In den Wissenschaften ist das meist eine Modellvorstellung, anhand derer man sich bestimmte Sachverhalte zu erklären versucht.
     
    Wenn sich eine neue Theorie durchsetzt, um eine bis dahin allgemein anerkannte Lehrmeinung abzulösen, sprechen wir von einem Paradigmenwechsel.
     
    In seinem Buch Grenzen des Wissens schreibt der Wissenschaftsjournalist John Horgan:
      Die meisten Wissenschaftler bekehren sich nur widerwillig zu einem neuen Paradigma. Häufig verstehen sie es nicht, denn es gibt kaum objektive Regeln, nach denen Paradigmen beurteilbar wären. Und so können Anhänger verschiedener Paradigmen endlos miteinander streiten, ohne sich einigen zu können.
       
      Der Grund hierfür: Nicht selten ordnen unterschiedliche Paradigmen wichtigen Grundbegriffen – etwa den Begriffen Teilchen oder Zeit – unterschiedliche Bedeutung zu.
    Neue Theorien setzen sich deswegen oft erst durch, nachdem die Anhänger des alten Paradigmas verstorben sind.

     

     Beitrag 0-306
    Wie moderne Physik sämtliche Energie tragenden Elementarteilchen — Materie und Strahlung — modelliert

     
     

     
    Was sind (derzeit) die elementarsten Objekte der Physik?

     
     
    Galileo Galileis Idee, das Verhalten der Natur über mathematische Formeln zu beschreiben, war weit mehr als nur ein Paradigmenwechsel: Es war der Beginn der Physik als Wissenschaft (vorher kannte man nur Naturphilosopie).
     
    Nur zwei Generationen später hat Isaac Newton — auf dieser Idee aufbauend — die Physik zu ihrem ersten Höhepunkt geführt.
     
    Der Erfolg seiner Gravitationstheorie war derart überzeugend, dass man von da an jeder dachte, alle Dinge der materiellen Welt seien Körper, deren Bewegung sich durch Newtons Theorie beschreiben ließe.
     
    Später — als Michael Faraday elektromagnetische Phänomene endeckt und durch Felder gut beschreibbar gemacht hatte, dachte man, die Welt bestünde aus Teilchen und elektromagnetischen Feldern.
     
    Erst im 20. Jahrhundert kamen Quanten dazu — und die Quantenmechanik als quantentheoretische Version der Mechanik.
     
    Schließlich lag es nahe, dass es auch eine quantentheoretische Version der Elektrodynamik geben müsse, und so trat an die Stelle der elektromagnetischen Felder nun das allgemeinere Konzept der Quantenfelder, welches dann zu einer vereinheitlichten Theorie der elektromagnetischen, der schwachen und der starken Wechselwirkung führte.
     
    Hohnerkamp schreibt:
      Alle experimentell nachprüfbaren Aussagen dieser Theorie wurden bestätigt, so dass es nun eine übergreifende logische Ordnung gibt.
       
      Für jedes Quant, dessen Existenz sich in Streuexperimenten — im CERN etwa — bemerkbar macht, gibt es jeweils ein Quantenfeld.
       
      Umgekehrt muss es für jedes Quantenfeld, das man dort aus Konsistenzgründen einführen muss, auch ein entsprechendes Quant geben.
       
      Bisher prominentestes Beispiel ist das sog. Higgs-Teilchen: Zunächst hat nur die Theorie seine Existenz vorhergesagt, nach langem Suchen ist es dann aber auch tatsächlich beobachtet worden.

    Es gilt somit:

    Die Gesamtheit der Quantenfelder ist das heute fundamentalste Konzept für alles,
     
    was wir uns unter Energie darstellenden Objekten vorstellen können.

     
    Die Frage ist nur, wann sich auch diese Vorstellung als unzureichend erweisen wird.

     

     Beitrag 0-314
    Feynmans Erklärung für die relative Stärke der vier physikalischen Naturkräfte

     
     

     
    Feynman's Modell der Quanten-Jongleure

     
     
    Feynman beschrieb ein geladenes Teilchen als einen Jongleur von Photonen, der in dem die Ladung umgebenden Raum ständig Photonen emittiert und absorbiert.
      Ein stillstehendens Elektron etwa wäre ein perfekter Jongleur, der nie einen Fang verpasst.
       
      Aber wie bei einem menschlichen Jongleur in einem Eisenbahnwagen, kann plötzliche Beschleunigung des Wagens die Dinge durcheinander bringen: Die Ladung kann — aus Sicht des Jongleurs — aus ihrer Position herausgeworfen werden, so dass sie nicht am rechten Platz ist, das Photon zu absorbieren. Es fliegt dann davon als abgestrahltes Licht.

    Wenn zwei solcher Jongleure im Eisenbahnwagen gemeinsam üben, fängt jeder seine eigenen Würfe auf, gelegentlich aber auch einen Wurf des jeweils anderen. Eben dies passiert auch, wenn zwei Ladungen sich hinreichend nahe kommen: Die Wolken aus Photonen, welche jede der Ladungenen umgeben, mischen sich, und so kann es passieren, dass eine der Ladungen [ genauer: eines der geladen Elementarteilchen ] auch mal ein Photon absorbiert, welches von der jeweils anderen emittiert wurde. Diese Vorgang nennt man Photonenaustausch.
     
    Die schwierige Frage, ob solche Kräfte anziehend oder abstoßend wirken, kann nur durch Feinheiten der Quantenmechanik beantwortet werden. Feynmans Berechnungen zeigen, was Farady und Maxwell vorausgesagt hatten: Gleiche Ladungen stoßen einander ab, entgegengesetzte ziehen einander an.
     
    Nach Feynmans Theorie jonglieren nicht nur elektrische Ladungen, sondern jede Art von Ladungen und damit ist wirklich  j e d e s  Materie darstellene Objekt so ein Jongleur. Ladungen in diesem Sinne sind neben elektrischer oder magnetischer Ladung natürlich auch die Farbladungen der Quarks und Gluonen sowie Ruhemasse.
     
    Erde und Sonne etwa sind umgeben von Wolken von Gravitonen. Diese Wolken mischen sich, und so entsteht Gravitationskraft, welche die Erde auf ihrer Bahn um die Sonne hält.
     
    Die Stärke der jeweiligen Kraft resultiert aus dem Mengengerüst jonglierter Bosonen:
       
    • Ein Elektron bringt es pro Sekunde auf etwa 1019 emittierte und absorbierte Photonen.
       
    • Doch mit welcher Häufigkeit emittiert und absorbiert ein einzelnes Elektron Gravitonen (Gravitationswellen)?
       
      Die Antwort ist überraschend: Bis ein Elektron ein einziges Graviton emittiert vergeht eine Zeitspanne, die größer ist als das bisherige Alter unseres Universums. Dies ist — nach Feynmans Theorie — die Ursache dafür, dass die Gravitationskraft zwischen Elementarteilchen so extrem schwach ist gegenüber der elektrischen Kraft.
       
      Aber ist denn nun Feynmans Theorie richtig oder die Feldtheorie von Faraday, Maxwell und Einstein?
       
      Tatsache ist: Beide sind wahr.
       
        Der Schlüssel, dies einzusehen, ist die Quanten-Komplementarität zwischen Wellen und "Teilchen" (= Energieportionen).

    Note: Das durch die Wolke der jonglierten Teilchen erzeugte Quantenfeld nennt man ein Kondensat.

     
     
    Quelle: Leonard Susskind: Der Krieg um das Schwarze Loch (2010), S. 402-411.


     

     Beitrag 0-363
    Von welchem Modell des Weltraums Kosmologen heute ausgehen

     
     

     
    Das Arbeitsmodell heutiger Kosmologen ist

    die Robertson-Walker-Raumzeit

     
     
    Heutige Kosmologie geht vom sog. kosmologischen Prinzip aus, insbesondere von der Annahme, dass die Raumzeit unseres Universums in sehr guter Näherung krümmungsisotrop ist.
     
    Es ist dies die Annahme, dass die Bahn des Lichtes in jedem Weltpunkt gleiche Krümmung hat.
     
    Bei gegebener Krümmungsisotropie lassen sich Einsteins Feldgleichungen deutlich vereinfachen:
       
    • Bewerkstelligt wird dies durch eine von Robertson und Walker eingeführte Form des metrischen Tensors, aus der dann eine höchst symmetrische Metrik resultiert, in der als variabel nur noch der Weltradius R = R(t) als unbekannte Funktion des Weltalters t auftritt.
       
    • Es gibt dann nur 3 mögliche Krümmungen deren jede sich über einen der Werte 1, 0 oder -1 (den sog. Krümmungsparameter) charakterisiert.
      Diese Werte implizieren elliptisch, gar nicht bzw. hyperbolisch gekrümmten Raum.

     
    Details dazu finde man in » Die Robertson-Walker-Metrik und die Friedmann-Gleichung «, Ausarbeitung eines Seminar-Vortrags von Markus Michael (2011).
     
     
    Bei der Interpretation durch Astronomen gesammelter Daten geht man heute — allein schon deswegen, weil man dazu ein hinreichend leicht zu handhabendes Modell des Alls benötigt — davon aus, dass unser Universum krümmungsisotop (und daher unsere Raumzeit eine vom Robertson-Walker-Typ) ist. Natürlich könnte sich das irgendwann als nicht mehr ausreichend herausstellen, denn es gibt im All ja riesige fast leere Räume (sog. Voids) in denen die Raumzeit deutlich weniger gekrümmt sein muss also im Inneren oder in naher Umgebung von Galaxienhaufen.
     
    Unsere Milchstraße — so denkt man inzwischen erkannt zu haben — lebt relativ einsam in einem Void.

     

     Beitrag 0-456
    Astrophysikalische Begriffe

     
     

     
    Astrophysikalische Begriffe
       
    • Magnetar
       
      Man versteht darunter einen Neutronenstern, dessen Magnetfeld das 1000-fache des bei Neutronensternen üblichen Wertes übersteigt.
       
      Etwa 10% aller Neutronensterne — so schätzt man — sind Magnetare.
       
      Ein Magnetar entsteht, wenn ein schnell rotierender Stern mit einem starken Magnetfeld nach dem Ausbleiben der Kernfusion zu einem Neutronenstern kollabiert.
       
       
    • Neutronenstern
       
      Unter einem Neutronenstern versteht man einen extrem kompakten Himmelskörper, der fast vollständig aus Neutronen besteht.
      Sein Durchmesser beträgt etwa 10 is 20 km, seine Masse liegt zwischen 1,2 und 2,0 Sonnenmassen.
       
      Ein Qubikzentimeter Neutronenmaterie würde auf der Erde mehrere hunderttausend Tonnen wiegen.
       
       
    • 1 Parsec ( = 3,26 Lichtjahre )
       
      d.h. eine Parallaxensekunde (engl.: parallex second) ist die Entfernung, aus der der Erdbahnradius unter einem Winkel von 1 Bodegensekunde erscheint.
       
       
    • 1 Plancklänge ( = 1,616 • 10-35 Meter )
       
      Es ist dies die kleinste Länge, für die heutige physikalische Theorien gerade noch Sinn machen.
       
       
    • MOND (Modifizierte Newtonsche Dynamik)
       
      ist eine Hypothese, die das Rotationsverhalten von Galaxien durch Modifikation der Newton'schen Gravitationsgesetze zu erklären versucht. Man hat sie zu verstehen als Alternative zur Theorie Dunkler Materie.


     

     Beitrag 0-482
    Zum Modell der » Führungswelle « wie erst de Broglie, später auch Bohm es vorschlugen

     
     

     
    Zur Theorie der Führungswelle

    nach de Broglie und Bohm



    Lee Smolin (2019), Kap. 7, S. 141-151:
     
    Kern der Führungswellentheorie war de Broglies Idee (1927), dass das Elektron aus zwei Entitäten bestünde:
       
    • aus einer sich kugelförmig ausbreitenden Welle gegeben durch seine Wellenfunktion wie sie sich als Lösung der Schrödinger-Gleichung ergibt
       
    • und einem Teilchen, welches auf ihr reitet [ wie ein Korken auf einer Wasserwelle reitet ].

    Nach dieser Theorie ist das Teilchen stets an einem bestimmten Ort und nimmt auch immer einen bestimmten Pfad (z.B. durch einen Doppelspalt).
     
    Die Welle aber fließt duerch den Raum und nimmt gleichzeitig jeden nur möglichen Pfad.
     
    Auch wenn das Teilchen den einen oder anderen Weg nehmen muss, wird der Weg, den es tatsächlich nimmt, von der Welle beeinflusst, die durch alle Wege fließt.
     
    Anders als die auf Bohr und Heisenberg zurückgehende Theorie der Quantenmechanik ist die Theorie der Führungswelle deterministisch und liefert eine Begründung für die Bornsche Regel (nach der die größte Wahrscheinlichkeit, das Teilchen anzutreffen, immer dort besteht, wo das Quadrat der Wellenamplitude größten Wert hat. [ In der Quantenmechanik wird die Bornsche Regel ohne Begründung als wahr angenommen. ]
     


     
    25 Jahre später (1952) hat Bohm eine ganz ähnliche Theorie in die Welt gesetzt, und das — wie sich aus einer seiner Bemerkungen ergibt —, zunächst ohne de Broglies Idee zu kennen.
     
    Vor allem von Einstein und Oppenheimer hatte Bohm sich Unterstützung für seine Idee erhofft — beide aber habe sie abgelehnt.
     
    Einstein, der 1927 de Broglies Idee noch begrüßt hatte, schrieb jetzt an Born: » Es ist ein physikalisches Märchen für Kinder, das Bohm und de Broglie irregeführt hat. «
     
    Wie Smolin aber betont, war mindestens de Broglie von Anfang an klar, dass seine Führungswellentheorie Grundprinzipien der Newtonschen Mechanik verletzt, so etwa das Trägheitsprinzip und das Prinzip von der Impulserhaltung.
     
    Heisenberg und Pauli räumten ein, dass sich Bohms Theorie nicht widerlegen lasse, da sie aber zu denselben Vorhersagen führe wie die Quantenmechanik, sei sie überflüssig.
     
    Dass es tatsächlich Umstände gibt, unter denen die Vorhersagen der Führungswellentheorie sich von denen der Quantenmechanik unterscheiden, wusste man damals noch nicht.
     
     
     
    Quelle: Lee Smolin: Quantenwelt, 2019

     
     
    Zusammenfassend lässt sich feststellen:
     
    Die Führungswellentheorie — ebenso wie Bohmschen Mechanik — behauptet, dass alles im Universum als ein Paar bestehend aus einer Welle und einem Teilchen gesehen werden könne. Der Welle wegen, die ja nur Wahrscheinlichkeit darstellt, scheint damit auch Verschränkung erklärbar zu sein.
     
    Mir persönlich erscheint dennoch viel plausibler die Deutung der Quantenfeldtheorie, nach der es statt Teilchen nur Felder mit Wellen darin gibt und alle Energie gegeben ist als Summe kleinster (= unteilbarer) Portionen, deren jede gegeben ist durch eine harmonische Welle im Feld: einem Feld, das man als Summe aller Teilchen eines bestimmten Typs sehen kann oder auch als Feld sämtlicher physikalischen Kräfte und damit als Menge aller den physikalischen Kosmos darstellenden QuBits [wie Thomas Görnitz es tut in Konkretisierung von C. F. v. Weizsäckers Theorie der Ure].
     
    An der Kopenhagener Deutung der Quantenmechanik mit ihrem Kollaps der Wellenfunktion festzuhalten, erscheint mir weit sinnvoller, als immer wieder neu auch Bohmsche Mechanik und Everetts Viele-Welten-Theorie in Erwägung zu ziehen (wie Lee Smolin es erst 2019 in seinem Buch Quantenwelt tatsächlich erwogen hat).
     
    Everetts viele Welten — das hat Hans-Dieter Zeh sehr schön erklärt — existieren nur als Elemente der Menge aller denkbaren Konfigurationen eines Quantensystems. Daran ändert auch die Tatsache nichts, dass David Deutsch über seine ganz andere Ansicht zu einem bahnbrechenden Ergebnis das Quanten Computing betreffend fand.
     
     
     
    Wie man sich die Verschränkung makroskopischer Objekte vorzustellen hat

     
    Der Quantenfeldtheorie (QFT) nach ist jedes Quantensystem Summe harmonischer (d.h. sinus-förmiger) Wellen. Nur sie stellen unteilbare Portionen von Energie dar.
     
    Harmonische Wellen sind genau dann verschränkt, wenn sie im selben Quantenereignis entstanden.
     
    Da jedes makroskopische Objekt Summe einer riesigen Zahl harmonischer Wellen ist — als Welle gesehen also auf vielfache Weise teilbar —, bedeutet Verschränkung zweier makroskopischer Objekte A und B, dass es zahlreiche Paare harmonischer Wellen W1 und W2 gibt, derart dass gilt:
       
    • W1 ist Teil von A,
       
    • W2 ist Teil von B,
       
    • und W1 ist verschränkt mit W2.

    Hätte Smolin diese Erklärung in sein — ja doch populärwissenschaftliches — Buch mit aufgenommen, wären einige Abschnitte seiner Argumentation dort eher verständlich. Insbesondere würde dann auch Laien klar sein können, was er z.B. auf Seite 283 unter "Atomen" versteht: Was Smolin — auch im Bild dort — zu erklären versucht, macht meiner Meinung nach nur Sinn, wenn er mit "Atom A" und "Atom B" harmonische Wellen im Sinne der Quantenfeldtheorie meint.
     
    Wie Thomas Görnitz abgeschätzt hat, besteht schon ein einziges Elektron aus etwa 1030 solcher "Atome" (= QuBits), ein Proton sogar aus etwa 1040.

     

     Beitrag 0-483
    Was Bohr und Heisenberg erkannt haben, viele aber immer noch nicht wahrhaben wollen

     
     

     
    Antirealismus begründet durch

    Bohr und Heisenberg

     


    Werner Heisenberg (gekürzt, aber wörtlich, wo kursiv gedruckt):
     
    ... man kann gar nicht mehr vom Teilchen losgelöst vom Beobachtungsvorgang sprechen.
     
    Das hat zur Folge, daß die Naturgesetze, die wir in der Quantentheorie mathematisch formulieren, nicht mehr von den Elementarteilchen handeln, sondern
    [nur] von unserer Kenntnis der Elemetarteilchen [ gemeint ist: von der Kenntnis ihrer durch uns beobachtbaren Reaktionen auf Messfragen ].
     
    Die Frage, ob diese Teilchen » an sich « in Raum und Zeit existieren, kann deswegen in dieser Form gar nicht gestellt werden.
     
     
    Wenn von einem Naturbild der exakten Naturwissenschaften in unserer Zeit gesprochen werden kann, so handelt es sich eigentlich nicht um ein Bild der Natur, sondern nur um ein Bild unserer Beziehungen zur Natur
    [ will heißen: unsere Schlussfolgerung daraus, wie die Natur auf durch unsere Messgeräte gestellte Fragen antwortet ].
     
    ... Die Naturwissenschaft steht nicht mehr als Beschauer vor der Natur, sondern erkennt sich selbst als Teil dieses Wechselspiels zwischen Mensch und Natur. ...
     
     
    Verschiedene anschauliche Bilder, mit denen wir atomare Systeme beschreiben, sind zwar für bestimmte Experimente angemessen, aber schließen sich
    [ nicht selten ] doch gegenseitig aus. ...
     
    Diese verschiedenen Bilder sind richtig, wenn man sie an der richtigen Stelle verwendet, aber sie widersprechen einander, und man bezeichnet sie daher als komplementär zu einander.

     


     
    Bohrs Standpunkt war fast noch radikaler, denn im zufolge ...

    Niels Bohr (gekürzt, aber wörtlich, wo kursiv gedruckt):
     
    ... kann unabhängige Wirklichkeit im gewöhnlichen physikalischen Sinne [...] weder den Phänomenen, noch den Beabachtungsmitteln zugeschrieben werden.
     
    ... Jede vollständige Erhellung ein und desselben Gegenstandes kann unterschiedliche Gesichtspunkte erfordern, welche eine einzige Beschreibung in Frage stellen.

     


     
     
    Quelle: Lee Smolin: Quantenwelt, 2019, S. 135-136
     
    basierend auf:
     
    Werner Heisenberg: Das Naturbild der heutigen Physik, Rohwolt 1955, S. 12, 21
    Niels Bohr (1934) zitiert nach Max Jammer aus: The Philosophy of Quantum Mechanics in Historical Perspective, John Wiley and Sons, 1974, S. 103


     

      Beitrag 2049-52
    Everett zur Natur physikalischer Modelle

     
     
    Grtgrt in 2049-10:
     
    Everetts Viele-Welten-Theorie ist nur eine gedankliche Krücke, ein Bild, dessen Qualität in etwa der Qualität der Bilder "Schrödingers Katze" und "Überlagerungszustand" entspricht.


    Everett selbst erklärt die Natur physikalischer Modelle wie folgt:

    Zitat von Hugh Everett III, 1956:
     
    Wenn wir einmal eingesehen haben, dass jede physikalische Theorie im wesentlichen nur  M o d e l l  für die Welt der Erfahrung ist, müssen wir alle Hoffnung aufgeben, so etwas wie die "richtige" Theorie finden zu können, denn:

    Nichts hindert eine Reihe sehr unterschiedlicher Modelle daran, mit der Erfahrung übereinzustimmen (sie können also alle "richtig" sein),
    und weil uns niemals die Gesamtheit aller Erfahrungen zugänglich ist, gibt es keine Möglichkeit, die vollständige Richtigkeit eines Modells zu bestätigen.
     

     

      Beitrag 2049-54
    -

     
     
    Hans-m in 2049-53:
    Zitat:
    Nichts hindert eine Reihe sehr unterschiedlicher Modelle daran, mit der Erfahrung übereinzustimmen (sie können also alle "richtig" sein),
    und weil uns niemals die Gesamtheit aller Erfahrungen zugänglich ist, gibt es keine Möglichkeit, die vollständige Richtigkeit eines Modells zu bestätigen.
     
    Auch wenn wir niemals ALLES wissen, sollen wir deshalb den (Bruch-)Teil, den wir wissen, einfach ignorieren?

    Auch auf der Suche nach Wissen werden wir immer an eine Grenze stossen, aber alles, was für uns vor der Grenze liegt, dass können wir getrost nutzen.


    Ja, Hans-m,

    das ist völlig richtig, und auch Everett sah das so, denn er plädiert sogar ganz explizit für den Mut zur Lücke:

    Zitat von Everett:
     
    Wir glauben nicht, dass es der Hauptzweck der theoretischen Physik ist, "sichere" Theorien aufzustellen, die in der Anwendbarkeit ihrer Konzepte einen hohen Preis erfordern ... vielmehr soll sie nützliche Modelle aufstellen, die eine Zeit lang ihren Dienst tun, um dann, wenn sie verbraucht sind, [ durch bessere ersetzt zu werden.
     

    Quelle: DeWitt und Graham (Hrsg): The Many Worlds Interpretation of Quantum Mechanics, 1973, p. 111
    zitiert durch Peter Byrne: Viele Welten — Hugh Everett III – ein Familiendrama zwischen Kaltem Krieg und Quantenphysik, S. 179


     

      Beitrag 2049-55
    -

     
    Zitat von Everett:
    vielmehr soll sie nützliche Modelle aufstellen, die eine Zeit lang ihren Dienst tun, um dann, wenn sie verbraucht sind, [ durch bessere ersetzt zu werden. 

    Das hört sich so an, wie das "Wissen" : Die Erde ist eine Scheibe, und der Mittelpunkt des Universums
    Dieses Wissen tat auch lange seinen Dienst und wurde irgendwann durch neues Wissen ersetzt.

    falsches Wissen ist in jedem Fall gefährlicher als fehlendes Wissen.

    Als man entdeckte, dass die Welt keine Scheibe ist, musste das gesamte Weltbild neu überdacht werden.

    Als man endeckte, dass das Atom nicht unteilbar ist, musste man nur das entsprechende Denkmodell erweitern.
    Wenn man zunächst das Atom als unteilbar hielt, entdeckte man die Protonen, Elektronen, Neutronen, dann die Quarks und mittlerweile ist man auf der Stringebene angekommen.
    Dieses neue Wissen brachte eine Erweiterung des Wissensstandes aber keinen Anlass das bis dahin bekannte über Bord zu werfen.
    Wichtig ist, dass man jeden Wissensstand nicht als endgültig festhällt, sondern sich ständig Raum für Optionen offen lässt.
     

      Beitrag 2039-62
    --

     
     
    E... in 2039-5:
     
    die Aussage "Es gibt keine Materie!" ist ohne jeden Sinn und Inhalt ...


    Da steht E... nicht nur im Widerspruch zu Hans-Peter Dürr, sondern auch im Widerspruch zu Everett, denn der schrieb:

    Zitat von Hugh Everett III:
     
    Die Konstrukte der klassischen Physik sind genau so Fiktionen unseres eigenen Geistes wie die jeder anderen Theorie:
    Wir haben zu ihnen lediglich sehr viel mehr Vertrauen.
     

    Quelle: DeWitt und Graham (Hrsg): The Many Worlds Interpretation of Quantum Mechanics, 1973, p. 111
    zitiert durch Peter Byrne: Viele Welten — Hugh Everett III – ein Familiendrama zwischen Kaltem Krieg und Quantenphysik, S. 181


     

      Beitrag 2039-66
    Quantenfeldtheorie mdash; die verbesserte Version der Quantenmechanik

     
     

    Von der Quantenmechanik zur Quanten-Feldtheorie


    Siehe auch, was Joachim Schulz schreibt



    Zitat von Hans-Peter Dürr, S. 22-64 in Dürr und Österreicher: "Wir erleben mehr als wir begreifen" (2001):
     
    In der alten Quantenmechanik spricht man nur von Dualität: Jedem Teilchen "entspricht" eine Welle. Ich habe also die Dualität Welle oder Teilchen.

    Die neue Quantentheorie, die Quantenfeldtheorie, die sich auf eine unendliche Vielzahl von Teilchen bezieht, führt zu einer noch weiter gehenden Auflösung:

    Das Teilchenbild geht immer mehr verloren. Was bleibt, ist nur noch Form.


    ... Quantenfeldtheorien sind viel allgemeiner, liegen begrifflich tiefer. Der Feldbegriff überlebt, der Teilchenbegriff löst sich ganz auf.

    ... Sich das vorzustellen ist schwierig, weil man hier den Begriff der Gestalt erweitern muss. Gestalt ist ja etwas, das wir uns normalerweise nur als Materieanordnung im Raum vorstellen. Im Raum. Aber in welchem Raum? ... verglichen mit den Räumen, wie sie z.B. in der Beschreibung der Quantentheorie vorkommen, ist der 3-dimensionale Raum nur ein ganz spezieller Raum. Wellen schwingen sozusagen noch in anderen Räumen, nur diese anderen Raumdimensionen nehmen wir nicht als vierte oder fünfte Raumdimension wahr, sondern wir sagen dann: Aha, das ist also ein Elektron oder ein Proton und so weiter. Das aber ist jeweils nur eine Verwirklichung in einer anderen Raumdimension.
     


    Man wird, was Dürr hier sagt, vielleicht dann verstehen, wenn man sich vor Augen führt, dass ja auch in der Mathematik die Dimensionen eines Raumes zu gleicher Zeit unabhängig von einander nutzbare  F r e i h e i t s g r a d e  sind.

     

      Beitrag 2085-264
    -

     
     
    H... in 2085-263:
     
    Lass uns mal voraussetzen, dass der Mensch Wahrnehmung besitzt und damit widerspiegeln kann. Damit ist es einfach möglich, dieser Widerspiegelung den Namen MODELL zugeben und dieses Modell ins Verhältnis zur Wahrnehmung zu setzen. Das ist eigentlich alles, was passiert.

    Nun zu streiten, ob dies REAL ist (oder surreal oder blau oder salzig...), kann man machen, bringt aber nicht wirklich viel. Denn für den Menschen besteht die einzige Interaktion in Wahrnehmung und Widerspiegelung.


    Das scheint mir schön und recht treffend ausgedrückt ...

     

      Beitrag 1376-62
    Beispiel 1

     
     
    Stueps aus 1376-61:
    Man könnte weiter fragen, ob es noch das selbe Photon ist, das z.B. ein Elektron anregt, und danach wieder emittiert wird?
    Wenn man erste Frage mit ja beantworten kann, tendiere ich zu der Auffassung, dass auch in einem Medium für das Licht keine Zeit vergeht.

    Aber es könnten sich aus dieser Sicht vielleicht WIdersprüche entwickeln: Falls es immer das selbe Photon ist, welches durch ein Medium marschiert, und dabei absorbiert und emittiert wird, wie "merkt" es etwas von diesen Wechselwirkungen?

    Hi Stueps,

    das Schöne am Modellieren ist, dass man da gewisse Freiheiten hat. Die ergeben sich daraus, dass ja durchaus mehrere Modelle geben kann, die sämtlich in dem Sinne gültig sind, dass jedes dieser Modelle ein Verhalten aufweist, welches analog dem an der Natur beobachteten ist.

    In diesem Fall aber sollte man dann am besten mit dem einfachsten dieser Modelle arbeiten.

    Im konkreten Fall ist das einfachste Modell das, in dem man annimmt, dass ein Photon durch Wechselwirkung mit einem anderen Elementarteilchen sein Leben beendet.


    Grtgrt aus 1376-30:
     
    Man sollte berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

    Zitat von Niels Bohr:
    Die Physik kann nicht ergründen, wie die Natur funktioniert.
    Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

    Beste Grüße,
    grtgrt
     

      Beitrag 1376-63
    Beispiel 2

     
     
    Henry aus 1376-50:
     
    Es gibt keine wie auch immer geartete "Lebensbatterie", ...

    Hi Henry,

    ich behaupte ja gar nicht, dass die Natur eine Lebensbatterie kennt, sie ist lediglich der Teil meines Modells der Natur, der diesem Modell die Fähigkeit verleiht, für jedes betrachtete materielle physikalische Objekt dessen Rest-Lebenserwartung zutreffend abzuschätzen:

    Bitte beachte:

    Grtgrt aus 1376-30:
     
    Man sollte berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

    Zitat von Niels Bohr:
    Die Physik kann nicht ergründen, wie die Natur funktioniert.
    Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

    Beste Grüße,
    grtgrt
     

      Beitrag 1894-62
    Physikalische Objekte sind Modelle, das Verhalten der Natur zu erklären

     



    Physikalische Objekte (die Zeit etwa) sind gedankliche Modelle,

    die der Mensch sich macht, aus dem Wunsch heraus,

    das Verhalten der Natur verstehbar und vorhersagbar zu machen.



    Man darf solche Modelle aber auf keinen Fall mit der Natur selbst verwechseln (und so kann es für jeden Teil der Natur — die Zeit ist da keine Ausnahme — mehr oder weniger genaue Modelle geben: Sie sind dann natürlich auch mehr oder weniger einfach und werden daher auch nicht notwendig alle Aspekte des jeweils betrachteten Phänomens gleich gut modellieren.

    Dass auch grobe Modelle — wie etwa das von Aristoteles — sehr weit tragen können, ist unbestritten. Was aber, wenn man über eine Grenze der Anwendbarkeit eines einfachen Modells hinausgehen möchte? Eben dann braucht man ein genaueres, weniger einfaches Modell.


    Man sollte zudem berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

    Zitat von Niels Bohr:
    Die Physik kann nicht ergründen, wie die Natur funktioniert.
    Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.


     

      Beitrag 1910-1
    Beispiel: Hugh Everett's Viele-Welten-Theorie

     
     
    Hallo Henry,

    du hast mir ja recht deutlich gesagt, dass es sich deiner Meinung nach nicht lohnt, über Hugh Everett’s Viele-Welten-Theorie weiter nachzudenken. Nun, es juckt mich jetzt doch, dir zu widersprechen, denn mein Standpunkt ist:


    Eine physikalische Theorie sollte man erst dann vergessen, wenn sie widerlegt ist.


    Für Everetts Theorie gibt es bisher auch nicht den Ansatz einer Widerlegung — und das, obgleich sich John Wheeler (sein Doktorvater) recht bemüht hat, einen solchen zu finden.

    Niels Bohr — scheint so einen Ansatz auch nicht gefunden zu haben, denn er hat sich über Everetts Arbeit (und darüber, dass Wheeler sie ihm hat durchgehen lassen) mächtig geärgert, selbst nie ein Gegenargument vorgebracht, aber doch seine Schüler ermuntert, solche Gegenargumente zu suchen.

    Interessant auch: Feynman hat Everetts Theorie ebenfalls als Unsinn abgetan, wohl auch gar nicht weiter darüber nachgedacht &mash, und das obgleich er selbst eine ebenso utopisch wirkende Theorie in die Welt gesetzt hat: die Theorie der vielen Wege, die Quanten – wie er denkt – gleichzeitig nehmen, wenn sie sich von A nach B bewegen.

    Lustig ist ferner, dass gerade er seinen Studenten sagte:

    Wenn ein Physiker dir erzählt, etwas sei unmöglich, so glaube ihm nicht.
    Wenn er dir aber sagt, etwas könne VIELLEICHT möglich sein, spricht viel dafür anzunehmen, dass es eben DOCH möglich ist.


    Dass er dieser Meinung war, wird so wirklich spannend, wenn man weiß, dass Peter Byrne (ein Wissenschaftsjournalist, der den erst kürzlich aufgefundenen Nachlass von Everett durchforstete) in 2008 schreibt:

    "Before I started looking into Everett’s theory, I would have thought it was crazy.
    Now I wouldn't be surprised if it's true."


    Byrnes lesenswerte Würdigung von Everetts Arbeit zeigt uns übrigens auch, dass Everett nicht einfach eine Idee vom Himmel fallen ließ, sondern dass er sie — mit Mitteln der Mathematik und Informationstheorie — hergeleitet hat aus der Annahme, dass die Schrödinger-Gleichung ohne Einschränkung für jedes Quantensystem Gültigkeit habe. Da die Wellengleichung des gesamten Universums nicht wirklich hinschreibbar und daher auch nicht direkt untersuchbar ist, hat er versucht, ihr mit Mitteln der damals eben erst durch Shannon und Wiener entwickelten Informationstheorie beizukommen.

    Zitat:
    Charles W. Misner, der zur selben Zeit wie Everett bei John Wheeler promovierte, schreibt:
    • Hugh Everett proposed that we not search for remedies of the implausible «collapse of the wave function» by changing the mathematics of the Schrödinger equation (or its relativistic field theory upgrades), but just look hard what would be predicted if we let the equations show us how they think nature behaves.
    • Now, over 50 years later [2010 , there is a strong effort to do just that, but the broad picture is not yet clear. Thus my guess for the outcome ... is that some different «big picture» will arise, which is not «many worlds» but will still uphold Hugh Everett’s conviction that paranormal influences do not overrule the Schrödinger equation.


    Leider steht Everetts Dissertation nur in der stark verstümmelten Fassung im Netz, in der John Wheeler ihn zwang, sie vorzulegen (Wheeler fürchtete, seines Schülers ur­sprüngliche Version könne Bohr zu sehr erzürnen und könne, da Everett sich einer sehr bildhaften Sprache bediente, von Bohr als zu wenig wissenschaftlich gebrandmarkt werden).


    Siehst du Henry: Dem armen Everett ging es offensichtlich nicht anders als mir, der ich jetzt ja auch vor der Situation stehe, dass z.B. du das physikalische Modell, das ich in Beitrag 1376-8, 1376-15 und fortgeführt in 1376-28 präsentiere, als zu wenig wissenschaftlich empfindest – und das schon von meiner Begriffsbildung her (die ich ja ganz bewusst so wähle, um den Leser aufzurütteln, ihm meinen Denkansatz klar zu machen und ihm zu helfen, sich aus allzu eingefahrenen Denkwegen zu befreien):

    Henry aus 1376-16:
    Gebhard,
    ich denke, du machst es dir zu einfach, Dinge einfach mit neuen Begriffen zu bedenken und dann (wie in deinem folgendem Beitrag) drauf los zu fabulieren!

    Beste Grüße,
    grtgrt
     

      Beitrag 2011-11
    Exakte Modelle können keine (ganz) genauen sein

     
     
    Thomas der Große aus 2011-10:
     
    Die spezielle Relativitätstheorie beschreibt starre Objekte, das sind genau die, für die eine Länge bezüglich eines Bezugssystems scharf ist
    und dort gibt es eine 0-Geschwindigkeit.

    Für mikroskopische Objekte der Quantenmechanik gilt das, was C... aus der Unschärfe-Relation abgeleitet hat
    und damit keine Nullgeschwindigkeit.

    Wenn es keine 0-Geschwindigkeit gibt, dann ist insbesondere die spezielle Relativitätstherorie falsch.


    Mir scheint, man muss es so sehen:

    Die Relativitätstheorien (SRT und ART) sind klassische Theorien in dem Sinne, dass sie  e x a k t e s  Modell sein wollen, ein Modell also, das glatte Formeln anstrebt und deswegen Ungenauigkeiten, die hinreichend klein sind, einfach in Kauf nimmt.

    Die Quantentheorie aber ist eine  g e n a u e  Theorie in dem Sinne, dass sie keinerlei Ungenauigkeit in Kauf zu nehmen bereit ist. Wo nichts Genaues ausgesagt werden kann, werden obere Grenzen für die unvermeidliche Ungenauigkeit mit zu einem Teil der Theorie.


    Den Unterschied zwischen exakt und genau macht man sich am besten klar, wenn man bedenkt, dass
    • ein Kreis exakt ist, wenn gegeben im Sinne der Mathematik (als Paar, welches Mittelpunkt und Radius nennt),
    • ein punktweise beschriebener Kreis aber das darstellt, was man zeichnen kann: Eine Linie, die — wenn man ganz genau hinsieht — nur mit gewisser Unschärfe definiert ist.

    Man erkennt daraus:


    Eine exakte Theorie kann sehr gute Näherung einer genauen Theorie sein.

    Wirklich ganz genau aber kann sie — allein schon der Unschärfe-Relation wegen — NIEMALS sein.



    Tieferer Hintergrund der Unschärfe-Relation ist natürlich Plancks Wirkungsquantum: die Tatsache also, dass die Natur kein stetiges Verhalten (im Sinne der Mathematik) aufweist.

    Falsch muss eine exakte Theorie deswegen aber keineswegs sein. Sie ist höchstens ungenau (so wie jede den Bruch 1/3 darstellende Dezimalzahl nur endlich vieler Stellen nicht falsch, sondern nur ungenau ist).

     

     Beitrag 0-502
    Demokrits Atome (Urkörner) — nun endlich haben wir sie gefunden

     
     

     
    Demokrits Atome aus heutiger Sicht

     
     
    Das erste Atommodell geht auf die beiden griechischen Philosophen Leukipp und seinen Schüler Demokrit zurück. Beide waren der Ansicht, dass sich Materie nicht beliebig weit zerteilen lasse. Vielmehr müsse es ein kleinstes Teilchen geben, das nicht weiter zerteilbar ist: Das Urkorn oder » Atom (atomos = griech. unteilbar) « .
     
    Um etwa 1900 herum glaubte man diese unteilbaren Teilchen gefunden zu haben. Sie sind das, was man heute Atome nennt, ogleich man schon bald erkannte, dass sie keineswegs unteilbar sind.
     
    Was also sind dann nun aus heutiger Sicht heraus die Atome (Urkörner) Demokrits?
     
     
    Hier die Antwort darauf:
     


    Gebhard Greiter (2020):
     
    Die Quantenfeldtheorie sieht jedes Teilchen als Anregung des Feldes der physikalischen Grundkräfte, d.h. als Wellenpaket. Damit kann man es — per Fourier-Transformation und wegen Heisenbergs Unbestimmtheitsrelation — als eine sich ständig per Quantenfluktuation modifizierende Summe harmonischer Wellen erkennen. Jede harmonische Welle aber ist unzerlegbares QuBit. Und so komme ich zum Schluss:
     
     
    Atome im Sinne Demokrits,
     
    — die kleinsten, und nun wirklich unzerlegbaren Portionen von Energie — Demokrits Urkörner
     
    sind diese QuBits.

     



     

     Beitrag 0-376
    Zur Aussagekraft physikalischer Modelle

     
     

     
    Zur Aussagekraft physikalischer Modelle

     
     
    Die meisten physikalischen Modelle sind mathematisch formulierte Modelle. Nur sie können Singularitäten haben.
     
    Ein mathematisches physikalisches Modell ist nie die Wirklichkeit selbst, sondern stets nur eine Idee, welches sie an unterschiedlichen Stellen unterschiedlich genau nachbildet (und in Punkten, die Singularitäten des Modells darstellen, rein gar nichts mehr dazu aussagt):

     
    Was mit zunehmener Nähe zur Singularität unendlich groß wird, ist stets nur die Ungenauigkeit des Modells.


     

     Beitrag 0-341
    Wie Physik — als Wissenschaft — geboren wurde

     
     

     
    Über Galieo Galilei und Isaac Newton

     
     
    Galilei gilt als der Begründer der Wissenschaft Physik, da er erkannt hat, dass die Naturgesetze sich mathematisch beschreiben lassen (und somit auch Gedanken­experimente ermöglichen, die von gewissen störenden Einflüssen — wie etwa Reibung, der durch die Luft fallende Körper ausgesetzt sind — abstrahieren können).
     
    Isaac Newton hat Galileos Entdeckung erstaunlich schnell zu einem ersten Höhepunkt geführt, insofern, als er den für seine Theorie notwendigen mathematischen Mechanismus — das, was man heute als Differentialrechnung bezeichnet — sogar noch selbst erfunden hat. [ Dass denselben Mechanismus zeitgleich, aber unabhängig von ihm auch Leibniz entwickelt hat, tut seiner Leistung keinen Abbruch. ]
     
    Wie der Nobelpreisträger Paul Wigner (1902-1995) betont, könnte mit die wichtigste Erkenntnis Newtons gewesen sein, dass ihm klar wurde:
     
     
    Wie ein physikalisches System sich konkret fortentwickelt,
     
    hängt nicht nur von den Naturgesetzen ab
     
    — gegeben durch Differentialgleichungen, die sagen, wie sich Größen von einem Zeitpunkt hin zu einem nahe benachbarten ändern —,
     
    sondern auch von frei wählbaren Anfangsbedingungen.


     

     Beitrag 0-347
    Quantenphysik und Einsteins Gravitationstheorie verwenden einen unterschiedlichen Zeitbegriff

     
     

     
    Wo Quantenphysik und Relativitätstheorie einander widersprechen



    Claus Kiefer (2008):
     
    Dass das Gebäude der Physik noch nicht vollendet sein kann, zeigt sich nirgendwo deutlicher als am » Problem der Zeit «:
     
    ART und Quantenphysik gehen von einem Zeitbegriff aus, wie er unterschiedlicher nicht sein kann:
       
    • Die Quantenphysik hat Newtons absoluten Zeitbegriff übernommen, und so ist die Zeit dort ein äüßerer Parameter, den das physikalische Geschehen nicht beinflusst, der aber dennoch unverzichtbar ist: Die Wellenfunktion entwickelt sich in der Zeit.
       
      Auch Hinzunahme der SRT ändert daran nichts, denn zwar vereinigen sich dort Raum und Zeit zur Raumzeit, die aber ist dort immer noch nur feste Bühne für eine Dynamik, die das Gefüge der Raumzeit nicht antastet.
       
    • Erst die ART befreit die Raumzeit von diesen Fesseln und unterwirft sie dynamischen physikalischen Gleichungen: Einsteins Feldgleichung.

     
    Da die Zeit nun aber nicht beides sein kann
       
    • absolut wie in der Quantentheorie
       
    • und dynamisch wie in Einsteins Gravitationstheorie,

    muss die gegenwärtige Physik unvollständig sein.
     
    Man erwartet, dass erst eine vereinigte Theorie der Quantengravitation den Zeitbegriff harmonisieren wird.
     


     
    Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 222.


     

     Beitrag 0-465
    Wie deterministisch ist Quantenphysik?

     
     

     
    Wie deterministisch ist Quantenphysik?



    Thomas Görnitz (2015, Zitat):
     
    Die Quantentheorie ist in ihrer mathematischen Struktur eine deterministische Theorie — so wie die klassische Physik auch.
     
    Der große Unterschied besteht jedoch darin, dass sich der Determinismus bei ihr nicht auf faktische Entwicklung, sondern nur auf die möglichen Entwicklungen bezieht:

     
    Die sich gesetzmäßig verändernden Möglichkeiten geben einen Rahmen vor, innerhalb dessen sich dann die Fakten zufällig realisieren.
     
    Das sich ergebende zufällige Auftreten von Fakten ist deswegen keineswegs willkürlich.

     


     
    Quelle: Thomas und Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein, Springer 2015, S. 451

     

     Beitrag 0-348
    Zur Bedeutung der Planckskala

     
     

     
    Warum die Planckskala so wichtig ist



    Claus Kiefer (2008):
     
    Es gibt eine ausgezeichnete Skala, auf der ART und Quantenphysik eine gleich wichtige Rolle spielen: Die Planckskala. Wie kommt dies zustande?
     
    Einsteins ART enthält zwei fundamentale Parameter (Naturkonstanten): Die Lichtgeschwindigkeit c und die Gravitationskonstante G.
     
    Wenn man deren Einheiten genauer anschaut, stellt man fest, dass sich damit keine Längeneinheit konstruieren lässt (weswegen die ART denn auch keine Längenskala auszeichnet.
     
    Das ändert sich, wenn man Quantentheorie mit berücksichtigt: Mit Hilfe des Planckschen Wirkungsquantums h lässt sicht tatsächlich zusammen mit c und G eine fundamentale Länge konstruieren. Da Max Planck als erster hierauf hinwie, nennt man sie ihm zu Ehren » die Plancklänge «.
     
    Wie aber war es möglich, dass Planck sie schon 1899 — also vor der Geburt der Quantentheorie — entdeckt hat? Er war damals verzweifelt darum bemüht, die Hohlraumstrahlung zu verstehen und die Tatsache, dass ihr Spektrum bei einer bestimmten Wellenlänge ein Maximun besitzt. Man konnte es experimentell feststellen, doch theoretisch war es unverstanden. Erst die Einführung des Wirkungsquantums h im Jahr 1900 brachte die Erklärung. Planck erkannte schon 1899 aus den experimentellen Daten, dass hier eine bisher unbekannte Naturkonstante ins Spiel kommen musste und dass es sich dabei um eine Größe mit der physikalischen Dimension einer Wirkung — darunter versteht man das Produkt aus Energie und Zeit — handeln musste. Heute nennt man sie das Plancksche Wirkungsquantum h.
     
    Mit Hilfe von h, G und c lässt sich nun tatsächlich eine natürliche Längeneinheit — heue die Plancklänge genannt — konstruieren.
     
    Gäbe es ein Teilchen mit Planckdurchmesser, so wäre die von ihm erzeugte Raumkrümmung nicht mehr vernachlässigbar. Sein Verhalten zu beschreiben wären Gravitation und Quantentheorie gleichermaßen wichtig.
     
    Neben der Plancklänge kann man auch Einheiten für Zeit und Masse bilden (heute Planckzeit und Planckmasse genannt).
     
    Ebenso wie die Plancklänge (etwa 10-35 Meter) ist auch die Planckzeit unvorstellbar winzig (etwa 10-44 Sekunden).
     
    Die Planckmasse aber ist mit etwa 10-8 Kilogramm erstaunlich groß: größer als die Masse eines Virus und etwa 1019 Mal so groß wie die Protonenmasse. Entsprechend viel Energie wäre nötig, ein Teilchen mit dieser Masse in einem Beschleuniger zu erzeugen: Er müsste dazu schon galaktisches Ausmaß haben.
     
     
    WICHTIG ist:
     
    Da die Naturgesetze überall im Universum die gleichen sind, muss es sich bei den Planck-Einheiten um wahrhaft universelle Größen handeln. Am Ende seiner Arbeit aus 1899 schrieb Planck:
       
    » Diese Größen behalten ihre natürliche Bedeutung so lange bei, als die Gesetze der Gravitation, der Lichtfortfplanzung im Vakuum und die beiden Hauptsätze der Wärmetheorie in Gültigkeit bleiben. Sie müssen also von den verschiedensten Intelligenzen nach den verschiedensten Methoden gemessen, sich immer wieder als die nämlichen ergeben. «
     

     
    Die Größen und Massen astronomischer Objekte werden i.W. durch die Protonenmasse bestimmt. In Atom- und Kernphysik kommt ihr eine zentrale Bedeutung zu.
     
    Und so ist vor allem die große Abweichung der Protonenmasse von der Planckmasse dafür verantwortlich, dass Quantenphysik in astrophysikalischen Anwendun­gen i.A. keine Rolle spielt.
     
    Ausnahmen sind nur recht exotische Situationen wie etwa das Verdampfen Schwarzer Löcher oder die Beschreibung der Raumzeit in naher Umgebung irgendeiner Singularität der ART.
     


     
    Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 228-230.
     
    Hier eine Kurzfassung der wesentlichen Aussagen des Buches.


     

     Beitrag 0-351
    Die Geometrie der Raumzeiten ohne Materie (aber mit kosmologischer Konstante) hat — schon 1917 — de-Sitter gefunden.

     
     

     
    Welche Form eine materiefreie Raumzeit hätte



    Claus Kiefer ( auf S. 192-193 in Quantenkosmos ):
     
    Unser Universum enthält natürlich Materie. Dennoch ist es instruktiv, zu fragen wie eine Raumzeit aussähe, in der es keine Materie, wohl aber eine kosmologische Konstante gäbe.
     
    Lösungen der ART, welche diese Frage beantworten, hat de Sitter gefunden. Man nennt sie
    Beide Raumzeiten haben die Form eine 4-dimensionalen Hyperboloids, das in einen 5-dimensionalen flachen Minkowski-Raum eigebettet ist. Sie unterscheiden sich lediglich durch eine Vertauschung der Zeit- mit der Raumrichtung.
     
    Zu jedem festen Zeitpunkt kann man sich den de-Sitter-Raum vorstellen als einen 3-Spähre (d.h. als die Oberfläche einer 4-dimensionalen Kugel). Sie kontrahiert, erreicht ein Minimum positiven Durchmessers, und expandiert dann wieder. Sie kennt keinen Urknall und hat auch keinerlei Singularitäten.
     
    Die Anti-de-Sitter-Raumzeit spielt eine gewisse Rolle in der Stringtheorie.
     



     

     Beitrag 0-353
    Die Wheeler-de-Witt-Gleichung und bisher angedachte mögliche Lösungen

     
     

     
    Quantenkosmologie

    und die Wellenfunktion des Universums

     
     
    Quantenkosmologie — so verstehe ich Claus Kiefer ist der Teil der Kosmologie, der sich bemüht, die in der Wellenfunktion des Universums enthaltene Information zu entschlüsseln.
     
     
    Unter der Wellenfunktion eines — sehr kleinen — Quantensystems versteht man eine Lösung der Schrödingergleichung: Eine Funktion also, die (geeignet normiert) jedem Punkt der Minkowski-Raumzeit die Wahrscheinlichkeit zuordnet, mit der das Quantensystem sich dort bemerkbar macht durch Interaktion mit seiner Umgebung, z.B. einer Messapparatur.
     
    Probleme dieses physikalischen Modells sind:
       
    • Man betrachtet das Quantensystem als in sich abgeschlossen, obgleich doch nur das Universum als Ganzes ein in sich abgeschlossenes Quantensystem darstellt.
       
    • Zudem kann jede Lösung der Schrödingergleichung stets nur lokal hinreichend genau sein: Allein schon deswegen, weil die Raumzeit weder einen absoluten Zeitbegriff kennt, noch eine globales Koordinatensystem, d.h. global eindeutig definierte Orte.

     
    Um wirklich genau zu sein, muss man deswegen die Wellenfunktion des Universums betrachten — eine Lösung der sog. Wheeler-de-Witt-Gleichung.
     
    Was aber tritt in solchen Lösungen an Stelle der dort nicht mehr verwendbaren Begriffe Zeit und Ort?
     
    Wenn ich Claus Kiefer (in seinenem Buch Quantenkosmos (2008), Kap. 6: Die Wellenfunktion des Universums) richtig verstehe, so tritt dort
       
    • an Stelle der Zeit im Sinne der Relativitätstheorie ein Skalenfaktor, dessen Werte uns sagen, in welchem Ausmaß der Raum expandiert ist,
       
    • an Stelle der Orte aber die Menge aller Zustände des Universums (genauer: die jeweils gegebene geometrische Form der Raumzeit, d.h. die jeweils vorliegende Verteilung von Gravitation erzeugender Energie im Universum [ die » Metrik «, wie Kiefer schreibt ]).
       
    • an Stelle der Wirkwahrscheinlichkeit tritt die Wahrscheinlichkeit, dass bei gegebenem Expansiongrad die Raumzeit eine ganz bestimmte geometrische Form hat.

     
    Da der Skalenfaktor die Rolle zu spielen hat, die in den Lösungen der Schrödinger Gleichung die Zeit spielt, könnte man ihn » Zustandszeit « oder » absolute Zeit « nennen. Hawking nennt ihn die » imaginäre Zeit «, Kiefer die » innere Zeit «. Diesen Zeitersatz den Expansionsgrad des Universums zu nennen, wäre treffender.
     
     
    Sucht man nach Lösungen der Wheeler-de-Witt-Gleichung mit vernünftigen mathematischen Eigenschaften, so stellt sich heraus, dass all diese Lösungen zu einer Wellenfunktion führen, die an Singularitäten der Einsteinschen Raumzeit verschwinden, was dann dort zu Wahrscheinlichkeit Null führt. Die Singularitäten, wie etwa der Urknall, kommen daher in der Quantenkosmologie einfach nicht mehr vor — ein recht befriedigendes Ergebnis.
     
    Mit dem Vermeiden von Singularitäten eng verknüpft ist das Problem der Wahl der Anfangsbedingungen für die betrachtete Lösung der Wheeler-de-Witt-Gleichung.
       
    • Ein Vorschlag stammt von James Hartle und Steven Hawking und ist bekannt unter dem Begriff der » No boundery condition «:
       
      It assumes that the universe would start at a single point, like the North Pole of the Earth. But this point would not be a singularity, like the Big Bang. Instead, it would be an ordinary point of spacetime, like the North Pole is an ordinary point on the Earth. According to the no boundary proposal, the universe would have expanded in a smooth way from a single point. As it expanded, it would have borrowed energy from the gravitational field, to create matter.
       
      Entgegen den ursprünglichen Hoffnungen hat sich herausgestellt, dass diese Bedingung noch nicht zu einer eindeutigen Wellenfunktion des Universums führt. Man muss also noch eine weiter Auswahl treffen und steht somit wieder vor dem Problem der Wahl geeigneter Randbedingungen.
       
       
    • Ein anderer Vorschlag ist der von Alexander Vilenkin (1982). Man nennt ihn die » tunneling boundary condition «, denn:
       
      Vilenkin denkt an das Beispiel des Alphazerfalls, bei dem ein Alphateilchen (das aus 2 Protonen und 2 Neutronen besteht) von einem Atomkern emittiert wird. Wegen der im Kern gegebenen Energieverhältnisse kann — nach den Regeln der klassischen Physik — das Alphateilchen den Kern nicht verlassen, da es weniger Energie darstellt als für die Überwindung einer Energiebarriere notwendig ist. Als Quantenteilchen mit Welleneigenschaften kann es dennoch nach außen tunneln. Vilenkin wählte für die Wheeler-de-Witt-Gleichung eine Lösung aus, die — rein formal wenigstens — der Wellenfunktion des emittierten Alphateilchens entspricht.

     
    Interessant sind Vorhersagen, die Vilenkins Lösung von der durch Hartle und Hawking vorgeschlagenen unterscheiden. So kann man etwa nach der Wahrscheinlichkeit für die Existenz einer inflationären Phase des Universums fragen. Während Vilenkins Tunnelbedingung die Inflation recht wahrscheinlich macht, scheint bei Hartle und Hawkings no-boundery condition nichts auf Inflation hinzudeuten. Wer also am empirisch gestützten Inflationsmodell festhalten möchte, muss die no-boundery condition wohl aufgeben.
     
     
    Erwähneswert ist noch die 1999 von Martin Bojowald vorgeschlagene Schleifenquantenkosmologie: Im Rahmen dieser Theorie führt die diskrete Natur des Raumes dazu, dass die Wheeler-de-Witt-Gleichung durch eine Differenzengleichung ersetzt wird (eine Gleichung also, in der für den Skalenfaktor nur bestimmte diskrete Werte erlaubt sind). Sie beschreibt, wie man in endlich vielen Schritten von einem zu einem anderen erlaubten Wert kommt. Auf Skalen allerdings, die einige wenige Plancklängen überschreiten, ist die Differenzengleichung kaum noch von der Wheeler-de-Witt-Gleichung zu unterscheiden. Dennoch: Der Schleifenkosmologie gelingt es auf recht überzeugende Weise, die klassische Urknall-Singularität zu vermeiden: So fehlt i.A. unter den erlaubten diskreten Werten des Skalenfaktors der Wert Null. [ Etwas wundersam aber — so schreibt Claus Kiefer — sei die Tatsache, dass man den Wert Null zwar überspringen kann, dadurch aber in ein anderes Universum gelangt. Die physikalische Bedeutung dieses neuen Bereiches der Raumzeit sei noch unklar. ]

     
     
     
    Mehr zur Wheeler-de-Witt-Gleichung

     
    Die Lösungen der Wheeler-de-Witt-Gleichung sind auf einem sehr komplizierten Raum definiert,
       
    • den man — Wheeler folgend — den Superraum nennt.
       
    • Er hat unendlich viele Dimensionen, in dem jeder Punkt selbst wieder ein 3-dimensionaler Raum ist (genauer: die Metrik auf diesem Raum).

    Damit man mit ihm überhaupt umgehen kann — und da der Weltraum sich auf großer Skala als nahezu homogen und isotrop darstellt — ersetzt man diesen Raum durch einen sehr viel einfacheren, 2-dimensionalen: Seine 2 Dimensionen sind der Expansionsgrad des Universums (in der Rolle "Zeit") und eine Dimension "mögliche Materieverteilung im Universum" (in der Rolle "Ort"). Den so reduzierten Raum nennt man den Minisuperraum.
     
    Bisher geht es in der Quantenkosmologie fast immer nur um den Minisuperraum (obgleich man damit Heisenbergs Unbestimmtheitsrelation für Ort und Impuls verletzt, indem man zulässt, dass — im Modell — beide gleichzeitig Null sein können). Solche Modelle funktionieren deswegen nur, solange die Ergebnisse, an denen man interessiert ist, sich selbst durch solch gewaltige Vereinfachung nicht wesentlich veränden.
     
    Schon in der gewöhnlichen Quantenmechanik lässt sich oft mit ähnlichen Vereinfachungen gut leben. So reicht es z.B. in vielen Situationen aus, sich ein Molekül als starren Körper vorzustellen — unter Vernachlässigung seiner Schwingungszustände. Das macht Sinn, solange man damit nicht in Widerspruch zu experimentellen Befunden kommt.
     
    Kurz: Die Wellenfunktion des Universums ist auf einem 2-dimensionalen Minisuperraum definiert.

     

     Beitrag 0-355
    Wie unterschiedliche physikalische Modelle Elementarteilchen modellieren.

     
     

     
    Modelle für Elementarteilchen



    Jukka Maalampi in Die Weltlinie (2008, S. 171-127):
     
    In den Quantenfeldtheorien ebenso wie in den GUT-Theorien stellen sich Elementarteilchen — Quarks und Leptonen — als punktförmig dar. Sie haben dort weder Richting noch Dimension, ihre Abmessungen sind 0 - 0 - 0.
     
    Dennoch haben sie Eigenschaften, welche sie unterscheidbar machen: Masse, elektrische und andere Ladungen.
     
    Laut Stringtheorie aber sind diese Teilchen nur in der 4-dimensionalen Raumzeit punktförmig. Wenn es uns gelänge, in die 7 Extradimensionen zu blicken, würden wir sehen, dass es sich um kleine Fadenstücke oder Fadenschleifen [ oder schlauchartige Gebilde ] handelt. Sie können schwingen, und alle Arten von Elementar­teilchen — Quarks und Leptonen, ja sogar alle Energiequanten wie Photonen, Gluonen und Gravitonen — stellen sich als unterschiedliche Schwingungszustände solcher Strings dar.
     


     
     
    Immer im Kopf behalten sollte man, auf was Richard Feynman hinwies:

     
    » Mikroteilchen — wie etwa das Elektron — sind keine sichtbaren oder anfassbaren Gegenstände,
     
    sondern Konzepte, die sich nur mathematisch formulieren lassen. «


     

      Beitrag 1896-27
    Mathematische Gesetze sind Naturgesetze

     
    Grtgrt aus 1896-1:
     
    Mathematische Gesetze sind Teil der Natur
    und Mathematik kann als der Teil der Physik verstanden werden, der diesen Teil der Natur entdeckt
    und diskutierbar macht (modelliert).

     
    Mathematik ist kein Teil der Natur (wenn wir Natur als physikalischer Realität verstehen) . Mathematik ist ein gedachtes Medium, in dem besondere Eigenschaften und Gesetzmäßigkeiten der Natur sich wiederspiegeln. Dennoch ist das Spiegelbild nie gleich mit Originalbild zu setzen.

    Mathematische Gesetze brauchen keine Physik um diskutierbar zu sein. Es genügt ihnen das eigene Medium, die eigene Sprache. Die Physik braucht dagegen die Mathematik für die Beschreibung ihrer Modelle.

    Mathematik kann nicht als Teil der Physik verstanden werden, weil beide unterschiedliche Beobachtungsobjekte haben. Man könnte Sagen der Physiker guckt nach Außen, der Mathematiker nach Innen. Physiker sucht Zusammenhänger zwischen physikalischen Objekten, die er in seine gedachten Modellen, Theorien beschreibt und auf die Weise nähert sich dem Mathematiker, der mit abstrakten – gedachten- Objekten arbeitet. Übrigens ganz trennen die beiden(und andere) geht nicht. Weil die Mathematik eine abstrakte Spiegelung der Realität darstellt, nährt sie sich aus der Erkenntnissen anderer Bereiche. Es gibt ihr stoß sich weiter zu entwickeln (z. B. neue Algebra mit der Entwicklung der Quantenphysik) und im Gegenzug liefert sie der Naturwissenschaften neue Werkzeuge zur Beschreibung der Natur, die ihrerseits beschleunigen die Entwicklung der jeweiligen Wissenschaften.

    Die quantenphysikalische Phänomene, die unseren alltäglichen Erfahrung entfliehen scheinen, verleiten die Lösung in reiner Mathematik zu sehen. Dennoch auch hier bleiben die wichtigsten Unterscheidungskriterien erhalten: Mathematik beschäftigt sich mit abstrakten Einheiten, die von Mensch kreiert worden sind und Physik mit objektiv vorhanden Natur. Hier aber kann die Mathematik hilfreich sein, um die Analogien in der Natur zu zeigen (die etwa gleichen mathematischen Muster zeigen), die uns das für unsere Wahrnehmung versperrte Welt verständlicher zu machen.
     

      Beitrag 1896-29
    Naturgesetz Geometrie

     
     

    Geometrische Gesetze sind durch die Natur gegebene Gesetze — der Mensch erfindet lediglich Begriffe und Notation, sie zu formulieren!

    Das ist nun mal so!


    grtgrt
     

      Beitrag 1896-40
    Gesetze zu formulieren bedeutet NICHT, sie zu erfinden

     
    Okotombrok aus 1896-39:
    Geometrische wie auch mathematische Gesetze sind vom Menschen formulierte Gesetze als Äquivalent zu in der Natur durch Beobachtungen gefundene Gesetzmäßigkeiten und stellen darüber hinaus Idealisierungen dar.

    Hi Okotombrok,

    dass man in der Natur selten sehr regelmäßige Formen findet (wie etwa einen exakten Kreis, ein exakt rechtwinkliges Dreieck, oder auch nur eine exakt ebene Fläche) ist eine Sache (und von mir unbestritten).

    Auf keinen Fall aber sind mathematischen Gesetze — etwa jene, die sagen, wie die Länge der Katheden eines (wirklich exakten) rechtwinkligen Dreiecks die Länge seiner Hypothe­nuse bestimmt, oder wie der Radius einer wirklichen exakten Kreislinie auf einer wirklich flachen Fläche mit die Länge ihren Umfangs beschreibt — nur beobachtete Gesetzmäßigkeiten:

    All dieses sind logisch wirklich BEWEISBARE mathematische Gesetzmäßigkeiten. Sie haben nichts, aber auch rein gar nichts mit der Tatsache zu tut, dass wir nicht beliebig genau beobachten können oder dass z.B. die Heisenbergsche Unschärferelation wirklich gilt.

    Die Kreiszahl π etwa ist durch den Menschen beliebig genau errechenbar (sie existiert ohne jede Unschärfe) — ihre Größe ist ein Naturgesetz.

    Sie ist übrigens ein schönes Beispiel einer Konstanten, von der selbst theoretische Physiker nicht im Traum annehmen würden, dass sie sich im Laufe von Milliarden Jahren ein klein wenig ändern könnte (so wie man das von anderen Naturkonstanten keineswegs ganz ausschließen möchte).

    Ich bin also weiterhin der festen Meinung:


    Mathematische Gesetzmäßigkeiten sind Naturgesetze.

    Nur die uns bekannten Wege, solche Gesetze exakt zu formulieren, sind etwas, was der Mensch selbst erfunden hat.



    Deine Aussage, dass in der Quantenmechanik das Prinzip vom "ausgeschlossenen Dritten" (tertium non datur) nicht gilt, ist zwar richtig, reißt mich aber nicht vom Hocker, denn selbst in der Mathematik und der formalen Logik gilt dieses Prinzip ja keineswegs immer:
    • Es gibt mathematische Aussagen, von denen man vermutet, dass sie nicht entscheidbar seien (etwa die Kontinuumshypothese),
    • und es gibt auch formal exakt formulierbare Aussagen, von denen schon bewiesen ist, dass sie nicht entscheidbar sind (z.B. das Halteproblem bei Turingmaschinen, siehe Folie 31 in Entscheidbare und unentscheidbare Probleme).

    Interessant ist auch: Es gab während der letzen 100 Jahre durchaus mehrere Ansätze, den Begriff berechenbar exakt zu definieren — obgleich z.T. grundverschieden, haben sich alle diese Ansätze als äquivalent erwiesen. Deswegen glauben die Mathematiker heute, dass die Eigenschaft gewisser Funktionen, NICHT berechenbar zu sein, in ihrer Natur begründet ist (und somit UNABHÄNGIG von irgendeinem durch uns Menschen erfundenen oder erfindbaren gedanklichen Mechanismus).

    Beste Grüße,
    grtgrt
     

      Beitrag 1896-45
    Sind mathematische Gesetze die einzigen Naturgesetze?

     
    Hi,

    den Standpunkt, dass mathematische Gesetze Naturgesetze sind, vertrete offenbar nicht nur ich.

    Max Tegmark, Professor am MIT, is da noch extremer.
    In seinem Aufsatz Shut up and calculate schreibt er in der Einleitung:

    The idea that our universe is in some sense mathematical goes back at least to the Pythagoreans of ancient
    Greece, and has spawned centuries of discussion among physicists and philosophers. In the 17th century,
    Galileo famously stated that the universe is a "grand book" written in the language of mathematics. More
    recently, the physics Nobel laureate Eugene Wigner argued in the 1960s that "the unreasonable effectiveness of
    mathematics in the natural sciences" demanded an explanation.

    I will push this idea to its extreme and argue that

    our universe is not just described by mathematics — it is mathematics.


    grtgrt
     

     Beitrag 0-18
    Nur mathematische Gesetze begrenzen die Freiheit der Natur, sich und ihre Gesetze fortzuentwickeln

     
     

     
    Wie konstant ist der Wert sogenannter Naturkonstanten?

     
     
    In seinem Buch Sieben Experimente, die die Welt verändern könnten adressiert Rupert Sheldrake auch die Frage, ob die folgenden Größen — die man heute als Naturkonstanten betrachtet — tatsächlich über Raum und Zeit hinweg gleichen Wert haben:
    • Lichtgeschwindigkeit
    • Elementarladung
    • Elektronenmasse
    • Protonenmasse
    • Avogadrosche Zahl
    • Placksche Konstante
    • Universale Gravitationskonstante
    • Boltzmann-Konstante

    Stets zu erwartender Messungenauigkeiten wegen kann man ihren genauen Wert nicht kennen, veröffentlicht also hin und wieder etwas revidierte Bestwerte für sie.
    So ein Bestwert kommt zustande wie folgt:
    • Erstens vernächlässigen die Experimentatoren gerne Werte, die den Erwartungen allzu sehr entsprechen und erklären sie zu Fehlern.
    • Nachdem so die am stärksten abweichenden Messergebnisse ausgesiebt sind, glättet man im zweiten Schritt dann noch bestehende leichte Schwankungen der zu verschiedenen Zeiten gemessenen Werte, indem man zum Mittwelwert übergeht.

    Konsequenz daraus:
     
     
    Zwischen falscher Messung und tatsächlicher Schwankung zu unterscheiden ist bei hinreichend kleiner Schwankung absolut unmöglich.

     
     
    Zudem gilt: Die oben genannten Grundgrößen zu messen gelingt nur im unmittelbaren Umfeld der Erde (dort also, wo wir unser Messgerät hinbringen können). Gemessen an der Weite des Universums ist das nur ein ganz bestimmter Ort (und auch fast nur ein ganz bestimmter Zeitpunkt).
     
     
    Die Annahme also, dass die Natur jenen Größen gar keinen anderen Wert als den uns bekannten erlaubt,
    ist letztlich durch rein gar nichts gerechtfertigt.

     
    Zunächst ist das nicht weiter schlimm, denn all unsere physikalischen Theorien und Modelle dienen ja nur dem Menschen selbst.
     
    Wenn nun aber der Verdacht aufkommt, dass z.B. die Stringtheorie die Natur besser beschreiben kann als alle uns bisher bekannten Modelle, könnte man sich gut vorstellen, dass die dann unendlich vielen Lösungen der Stringtheorie (die dann auch entsprechend viele Werte für jene Konstanten zur Folge haben könnten) durchaus nur beschreiben, was die Natur auch tatsächlich zu realisieren in der Lage ist.
     
    Gegenwärtig also erscheint einzig und allein berechtigt die  T h e s e , dass
     
     
    die Natur alles realisieren kann, was keiner mathematischen Gesetzmäßigkeit widerspricht
     
    ( sei die uns nun bekannt oder noch unbekannt ).

     
     
     
    Doch zurück zu den sog. Naturkonstanten:
     
    Nachdenklich machende Hinweise darauf, dass selbst noch in dem durch Menschen beobachtbaren Teil des Universums wenigstens die Gravitationskonstante G und die Feinstrukturkonstante α tatsächlich Schwankungen unterworfen sein könnten, sind:
       
    • In der Zeit von 1970 bis 1989 variierten die damals festgestellten Bestwerte für G zwischen 6.6699 und 6.6745.
       
    • Noch deutlich außerhalb dieses Intervalls liegen
       
      • der Wert 6.6685, der an der Uni Wuppertal gemessen wurde und
         
      • der Wert 6.7154, den 1978 eine sorgfältige Messung der Physikalisch-Technischen Bundesanstalt in Braunschweig ergab: Er liegt 0.65 Prozent über dem offiziellen Bestwert 6.672 (Stand 2001).
       
    • Zudem hat 1988 eine Forschergruppe des Institute of Standards and Technology in Colorado eine Serie von Messwerten veröffentlicht, die an verschiedenen Tagen ermittelt worden waren. Sie zeigt eine ganz erstaunliche Variationsbreite: So lag der Wert für G einmal bei 6.73 und wenige Monate später beobachtete man ihn um 1.3 Prozent niedriger.
       
    • Der Herausgeber der Zeitschrift Nature bezeichnet die Tatsache, dass G bisher nur mit einer Genauigkeit von 1/5000 angegeben werden kann, als einen Schandfleck der Physik. Und wirklich: Wie soll man das erklären unter der Annahme, dass G über Ort und Zeit hinweg konstant sei?
     
    • Weniger drückend, aber doch noch in Diskussion sind Hinweise auf ein Schwanken auch der Feinstrukturkonstante α:

      Sorgfältige Messungen des Lichtes sehr ferner (und daher auch sehr alter) Quasare legen nahe, dass α vor etwa 8 Milliarden Jahren niedrigeren Wert hatte als heute. Der Unterschied liegt nur bei etwa 1/100000, hätte aber dennoch gewaltige theoretische Konsequenzen (Nobelpreisträger Sheldon Glasgow sagt, dass diese Entdeckung — wenn sie bestätigt würde — auf einer Skala von 1 bis 10 den Wichtigkeitswert 10 hätte).
       
    • In 2003 wollen Forscher Hinweise auf eine Änderungsrate von α um den Faktor 10-15 pro Jahr gefunden haben (siehe Bericht).

     
    Quelle: Sheldrake: Sieben Experimente, die die Welt verändern könnten (erweiterte Neuausgabe 2005, Fischer Taschenbuch Seite 195-196 und 270-272)
     
    Der jeweils zuletzt akzeptierte Bestwert physikalischer Konstanten — und auch die Genauigkeit, die man ihm zuschreibt — findet sich hier und hier. Auch ältere Werte lassen sich über diese Seite finden.

     

      Beitrag 2092-11
    Einige der wichtigsten Naturkonstanten

     
     
    Stueps in 2092-10:
    Der Parameter h in der Formel E= hf, ist das ein experimentell festgelegter Wert? Also so, dass er am besten zu den Experimenten passt?
    Oder lässt er sich aus anderen gegebenen Größen herleiten?


    Hallo Stueps,

    nimmt man die Formel ernst, so ist h = E/f (wobei E wie f messbar sind).

    So argumentiert,  m u s s  das Plancksche Wirkungsquantum h eine Naturkonstante sein.

    Wenn ich allerdings die Stringtheorie richtig verstehe, behauptet die ja, dass es nur eine einzige Naturkonstante gäbe (die String-Kopplungs-Konstante, welche die Stärke der Grundkräfte bestimmt). Aus ihr, so die Stringtheoretiker, könnten sie alle anderen Konstanten der Physik herleiten.

    Wikipedia übrigens sagt:

    Zitat:
     
    Das Wirkungsquant ist neben der Gravitationskonstante und der Lichtgeschwindigkeit eine der drei fundamentalen Naturkonstanten der Physik.

    spricht aber gleichzeitig auf einer anderen Seite von vier solch fundamentaler "Naturkonstanten":

    Zitat:
     
    Die Planck-Einheiten bilden ein System natürlicher Einheiten für die physikalischen Größen. Sie werden direkt aus vier fundamentalen Naturkonstanten berechnet: aus der Gravitationskonstanten G, der Lichtgeschwindigkeit c, dem planckschen Wirkungsquantum h und der Boltzmann-Konstanten kB.

    Die Planck-Einheiten sind daher, bis auf die Wahl eventueller zusätzlicher Faktoren, durch die Naturgesetze selber festgelegt.


    Mag diese Zweideutigkeit in Wikipedia noch ein Flüchtigkeitsfehler sein, zeigt der Unterschied zur Stringtheorie wohl doch, dass sich Deine Frage heute mit Sicherheit wohl noch gar nicht beantworten lässt.

    ABER: Nach Abschnitt 1.2.2 des Papiers CODATA Recommended Values of the Fundamental Physical Constants (2010) gilt das Plancksche Wirkungsquantum h heute ganz eindeutig als eine nur durch Messung (unabhängig von anderen Konstanten) bestimmte Konstante.

    
    Gruß, grtgrt
     

      Beitrag 2001-6
    -

     
     
    Wrentzsch aus 2001-2:
     
    Netzartige Struktur der Zeit- davon habe ich noch nie gehört!
    Ist der Zeitablauf nicht linear?

    Hi Wrentzsch,

    meine Theorie sagt, dass Zeit nur in Elementarereignissen entsteht. Die aber kann man als die Knoten eines gerichteten Graphen sehen, dessen Kanten den Weg je eines Elementarteilchens von seinem Geburtsort (Elementarereignis 1) hin zu seinem Todesort (Elementarereignis 2) darstellen.

    Mindestens dann, wenn so ein Quant mit Lichtgeschwindigkeit reist — wie Photonen das tun (und fast alle Bosonen) —, vergeht für dieses Teilchen ja keinerlei Zeit.

    Für Quanten, die Ruhemasse haben,  v e r g e h t  auf der Reise seltsamer Weise aber  d o c h  Zeit.

    Anders gesagt: Sie nehmen einen Weg, der nicht nur durch den Raum, sondern auch durch die Zeit (der ART) führt. Ich frage mich manchmal, ob ihnen statt der vermuteten "Reibung" am Higgsfeld nicht vielleicht eher das Ausscheren aus der räumlichen Dimension der Raumzeit Masse verleiht.

    Die sich netzartig verzweigende Zeit im Sinne meiner Theorie scheint nicht wirklich die Zeit der ART zu sein.

    Da die ART aber noch nicht berücksichtigt, dass alles in der Natur gequantelt ist (sogar die Wirkung von Kräften und so vielleicht auch der Fluss der Zeit), könnte es gut sein, dass sich irgendwann in der Zukunft mein Zeitbegriff als der richtigere und genauere herausstellt. Man wird sehen ...

    Gruß, grtgrt
     

      Beitrag 2001-1
    Entdeckung netzartiger Strukturen im All

     
     

    Zur Entdeckung netzartiger Strukturen im All


    Warum ich glaube, dass in unserem Universum die Zeit kein Pfeil, sondern vielmehr ein Netz darstellt, hatten wir schon mal diskutiert (siehe Diskussionsergebnisse und Kurzargumentation).

    Nun finde ich aber gerade in FOCUS Online einen Bericht — und vor allem auch Fotos —, die zeigen, dass in astronomischer Dimension auch der Raum — oder sollte man sagen: was darin existiert? — netzartige Struktur hat.

    Das scheint mir ja nun wirklich bemerkenswert.
    • Wie mag sich dieses Netz ergeben haben?
    • Besteht es wirklich nur aus Materie, oder könnte es sein, dass der Raum neben Schwarzen Löchern auch Strukturen kennt, die eher mit Gräben vergleichbar sind, in denen sich Materie sammelt ähnlich wie sich durch Wiesen fließendes Wasser in Bächen sammelt?

     

      Beitrag 2001-11
    Verteilen sich die Galaxien im All fraktalartig?

     
     

    Verteilen sich die Galaxien im All fraktalartig?



    Auf Seite 197 des Buches "Die göttliche Formel" schreibt Amir D. Aczel:

    Zitat:
     
    Je tiefer wir ins All blicken, desto deutlicher erkennen wir, dass die Galaxien nicht zufällig angeordnet sind, wie man meinen könnte, sondern dass ihre Verteilung eine gewisse Struktur aufweist.

    Benoit Mandelbrot hat vor einigen Jahren gezeigt, dass diese Struktur einem Fraktal ähnelt —
    einem kompliziert angeordneten Gebilde, das eindeutig nichtzufälligen Charakter hat, selbst wenn es lokal betrachtet so aussieht.
     

    Hinweis: Mandelbrot ist nicht nur der Entdecker mathematischer Formeln, die Fraktale beschreiben, sondern hat auch entdeckt, dass derartige Strukturen durch die Natur recht häufig bebildet werden — im Mikrokosmos, im Mesokosmos und – s.o. – auch im Makrokosmos.

     

      Beitrag 2001-4
    Auch die Millennium-Simulation zeigt das Entstehen der sog. kosmischen Voids

     
     
    Hi E...,

    es ist mir nicht klar, welchen Zusammenhang du zwischen dem Gravitationslinseneffekt jener kosmischen Voids und der von mir angesprochnenen Netzstruktur siehst.

    Oder wolltest du mich eher auf die Ergebnisse der sog. Millennium-Simulation hinweisen?

    Mit ihnen scheint ja auch das Entstehen der Netzstruktur reproduziert worden zu sein. Das heißt aber wohl nicht, dass man irgend eine Ahnung davon hätte, wie sie sich denn nun eigentlich ergeben.

    Gruß, grtgrt

    Nebenbei: Eines der Fotos, auf die ich in Beitrag 2001-1 hinweise,  i s t  Simulationsergebnis.

     

      Beitrag 1149-106
    Kann man das Nichts als eine Art Existenzfeld sehen?

     
     
    Stueps aus 1149-1:
     
    Hiermit postuliere ich etwas völlig Neues, nämlich ein "Existenzfeld".

    Es hat folgende Eigenschaften: Es ist in sich geschlossen, und impliziert sich somit auch selbst (es hat schließlich diese Eigenschaft). Es braucht keine Zeit und keinen Raum.
    Da es komplementär zur Nichtexistenz steht, steht es (dann auch gezwungenermaßen "in sich") unter Spannung. Der ständig versuchte Spannungsausgleich führt dann zu Erscheinungen wie Kräften, Strings, Quarks u.s.w.

    Es wird ja in der Wissenschaft oft so gehandhabt, dass Felder zur Erklärung für irgendwelche Erscheinungen postuliert werden. Also hab ich einfach mal ein Feld für die Existenz postuliert.

    Ich seh grad selbst nicht mehr durch (hab ja nicht gesagt, dass es einfach ist), bin aber mal gespannt auf eure Überlegungen.
     


    Hallo Stueps,

    die Physik versteht unter einem Feld eine Funktion, die jedem Punkt im Raum (oder gar jedem Punkt der Raumzeit) etwas zuordnet, das man als Wert einer bestimmten physikalischen Größe in diesem Punkt zu sehen hat. Dieser Wert kann ein Skalar sein oder ein Vektor, womit er dann selbst ein- oder mehrdimensional ist.

    Das bedeutet:
    • Der Begriff Feld ist ohne einen als existent angenommenen Raum gar nicht denkbar.
    • Ein über einem Raum R definiertes Feld F erweitert den Raum um ebensoviele Dimensionen, wie die Werte des Feldes haben.
      Mit anderen Worten: Ein Feld ist etwas, das einen existierenden Raum um wenigstens eine Dimension erweitert. Sind n und m die Dimensionen von R einerseits und der potentiellen Bildmenge F(R) andererseits, bilden R + F eine n+m-dimensionale Fläche im erweiterten Raum.
      Ist F konstant Null, so ist R + F der absolut leere Raum R (hinsichtlich dessen, was F zu messen da ist).

    Solltest Du jetzt auf die Idee kommen zu glauben, man könne das Nichts als einen 0-dimensionalen Raum R sehen, so wäre auch das nicht richtig: Ein Raum ohne Dimensionen ist immer noch ein Punkt, und der ist mehr als nichts.

    Gruß, grtgrt
     

      Beitrag 1149-130
    Denkbares bewertet durch Existenzwahrscheinlichkeit

     
     
    Hallo Stueps,

    ich frage mich immer noch, was sich hinter deinem Konzept » Existenzfeld « denn eigentlich verbirgt.

    Dass Du das Wort "Feld" verwendest, scheint mir — wie ich in 1149-106 ausführlich begründet habe — eher wegzuführen von dem, was dir da wirklich vorschwebt.

    Nachdem Du jetzt in Beitrag 1149-129 sagst, dass für dich der von Thomas angesprochene "Rand der Existenz" die  M ö g l i c h k e i t  der Existenz ist — die, wie ich mal annehme,  q u a n t i f i z i e r b a r e , d.h. mit einer Wahrscheinlichkeit  b e w e r t b a r e  Möglichkeit —, könnte es der Klarheit dienen, wenn du das Wort "Existenzfeld" ersetzt durch "Existenzwahrscheinlichkeit".

    Kurz: Ich vermute jetzt, dass — was dir da als "Existenzfeld" vorschwebt — eine Art Abbildung ist, die allem Denkbaren die Wahrscheinlichkeit seiner Existenz zuordnet.
    Könnte ich damit recht haben?

    Gruß, grtgrt


    Existenzwahrscheinlichkeit  im so präzisierten Sinne
    • wäre — wie auch ein Feld — eine Bewertung, die gewissen Dingen (in deinem Fall allen  d e n k b a r e n  Dingen, im Fall des Feldes allen Punkten eines Raumes) eine quantifizierte Eigenschaft zuordnet.
    • Sie würde — wie Du in Beitrag 1149-1 als wesentlich forderst — weder Zeit noch Raum erfordern.

    Wir hätten damit einen Begriff, der  a n a l o g  zum Feldbegriff definiert wäre, der alle von dir geforderten Eigenschaften hätte, und der dennoch mich (und vielleicht auch andere) nicht dadurch verwirren würde, dass er vorgibt, ein Feld zu sein.

     

      Beitrag 1149-98
    Alles, etwas, nichts, und das Nichts

     
     
    Bauhof aus 1149-97:
     
    Man kann nur etwas mit etwas erklären, aber nichts kann man nicht mit etwas erklären. Alle deine Beispiele liefern keine saubere Definition des Begriffs nichts. Versuche doch eine akzeptable Definition des Begriffs nichts. Dann wirst du merken, dass das nicht geht. Das nichts ist eben nicht das Gegenteil von etwas.


    Das sehe ich anders:

    Keiner der beiden Begriffe etwas bzw. nichts wird durch irgend eine formale Theorie definiert (sicher nicht durch die Mathematik).

    Man kann diese Begriffe deswegen nur rein umgangssprachlich definiert sehen — womit dann aber tatsächlich
    • nichts das Gegenteil von etwas ist und
    • etwas das Gegenteil von nichts.

    Und das Nichts (als Hauptwort) bezeichnet einfach die Abwesenheit von etwas.

     

      Beitrag 1149-104
    -

     
     
    Henry aus 1149-100:
     
    Es wird übersehen, dass nichts nicht dasselbe ist wie das Nichts, und um das Nichts geht es, ...

    Das umgangssprachliche "dort ist nichts", oder "im Tank ist nichts", bedeutet die Abwesenheit von bestimmten, erwarteten Objekten, es bedeutet aber nicht, dass dort ... tatsächlich nichts ist, und schon gar nicht, dass dort das Nichts ist, denn an dem Ort, an dem "nichts ist", finden wir vielleicht das Buch nicht, das wir auf dem Regal gesucht haben, aber es ist mit Sicherheit irgendetwas dort, der Ort auf dem Regal existiert, selbst wenn der Platz leer ist, und im Tank ist z. B. immer noch Luft.

    Kurz: in diesem Sinne bedeutet nichts die Abwesenheit von etwas in einer physikalischen Welt, es setzt die Existenz der Welt voraus.
     


    Hallo Eugen,

    zunächst mal sei festgestellt:

    Was Hans-m in Beitrag 1149-99 als Definition der Begriffe nichts, etwas und alles gibt, scheint mir perfekt: Man kann es nicht besser sagen.


    Dass nichts einerseits und das Nichts andererseits keineswegs dasselbe sind (wie Henry sagt), finde auch ich.

    Sein letzter Satz (im Zitat oben) scheint mir (als Definition) voll kompatibel mit meiner letzten Aussage in Beitrag 1149-98 (die das Nichts zu definieren sucht).

    Soweit also scheinen wir uns schon einig zu sein.


    Dennoch finde ich, dass das Nichts (als das, was wir damit meinen) so nur unvollkommen definiert ist und eine wirklich vollkommene Definition wohl gar nicht existiert. Ein Grund hierfür mag sein:


    Das absolute Nichts entzieht sich unserer Denkwelt,

    denn auch sie existiert dort ja nicht.


    Gruß, grtgrt
     

      Beitrag 1149-109
    Das absolute Nichts wohldefiniert zu haben ist nicht möglich

     
     
    Grtgrt aus 1149-104:
     
    ... finde ich, dass das Nichts (als das, was wir damit meinen) so nur unvollkommen definiert ist und eine wirklich vollkommene Definition wohl gar nicht existiert. Ein Grund hierfür mag sein:


    Das absolute Nichts entzieht sich unserer Denkwelt,

    denn auch sie existiert dort ja nicht.

     


    Man könnte es auch so sagen:

    Hätten wir das Nichts erfolgreich definiert, wäre es — wenigstens als Begriff — existent. Daraus würde folgen: Das Nichts existiert und ist somit etwas (im Widerspruch zu seiner Definition). Damit scheint mir bewiesen zu sein:


    Das absolute Nichts ist kein Begriff, der wohldefiniert sein kann.


     

      Beitrag 1149-110
    Das absolute Nichts wohldefiniert zu haben ist unmöglich

     
    Grtgrt aus 1149-109:
    Man könnte es auch so sagen:

    Hätten wir das Nichts erfolgreich definiert, wäre es — wenigstens als Begriff — existent. Daraus würde folgen: Das Nichts existiert und ist somit etwas (im Widerspruch zu seiner Definition). Damit scheint mir bewiesen zu sein:


    Das absolute Nichts ist kein Begriff, der wohldefiniert sein kann.


     

    Hallo Grtgrt,

    auch damit bin ich einverstanden.

    M.f.G. Eugen Bauhof
     

      Beitrag 1149-114
    -

     
     
    Bauhof aus 1149-113:
    Grtgrt aus 1149-111:
     
    ...unsere Erkenntnis, dass das Nichts nicht wohldefiniert sein kann (und daher nicht existiert), scheint mir zu bestätigen, was die Quantenphysiker glauben, die weiter an der Kopenhagener Interpretation festhalten.

    Hallo Grtgrt,

    was glauben denn deiner Meinung nach die Quantenphysiker, die weiter an der Kopenhagener Interpretation festhalten?
    Was soll das mit dem absoluten Nichts zu tun haben?

    M.f.G. Eugen Bauhof


    Eugen,

    mir fällt einfach nur auf, dass nicht alle Quantenphysiker bedingungslose Anhänger von Bohrs Interpretation sind.

    Zeilinger jedenfalls plagen solche Zweifel nicht. Er denkt, wie Bohr dachte. Und meiner Beobachtung nach ist er mit der Grund, dass man Bohrs Ansichten heute nicht wirklich in Frage stellt (jedenfalls nicht ernsthaft).


    Weder Bohr noch Zeilinger sprechen über das Nichts. Aber meine Argumentation ist die folgende:
    • Wenn das Nichts nicht wohldefiniert sein kann, kann es nicht existieren.
    • Wenn es nicht existiert, kann es keine Information darüber geben.
    • Gleichzeitigt gilt: Gäbe es Information über das Nichts, wäre das ein Beweis dafür, dass es doch existiert.

    Konsequenz daraus: Das Nichts existiert genau dann, wenn es Information darüber gibt.
    Es gibt aber keine, und daher ist die Nicht-Existenz des Nichts auch Folge von Zeilingers Ansicht, die da lautet:


    Alles existiert nur in dem Ausmaß, in dem es Information darüber gibt.

    Wie leicht wir existierende Information finden können, ist eine davon völlig unabhängige Frage.

    Das heißt: Existierende Information kann uns unbekannt sein.


    Gruß, grtgrt

    PS: Das Revolutionäre an Bohrs Ansicht war auf jeden Fall, dass er als erster auf den Gedanken kam, dass Information, die wir suchen, aber nicht finden, Information sein kann, die gar nicht existiert. Einstein kam dieser Gedanke überhaupt nicht.
     

      Beitrag 1149-164
    -

     
     
    Stueps aus 1149-163:
     
    Grtgrt aus 1149-151:
    Sie [die Bellsche Ungleichung] (und Aspects Ergebnisse entsprechender Experimente) schließt aus, das es sog. "verborgene Variable" gibt. Das aber bedeutet noch lange nicht, dass bestimmte Ereignisse keine Ursache haben.

    Grtgrt aus 1149-151:
    Was aber war denn eigentlich die absolut  e r s t e  Frage? Antwort: Wir können es nicht wissen, denn da es ja überall Quantenfluktuation gibt, ist die Wahrscheinlichkeit groß, dass die erste Interaktion von Q1 mit einer "Messapparatur" seine Interaktion mit einem virtuellen Teilchen war.

    Falls du hier eine eventuelle Ursache siehst, wäre das virtuelle Teilchen eine verborgene Variable, die laut Experiment ausgeschlossen werden kann. Falls ich deine Worte richtig interpretiere, hätte ich hier also einen Widerspruch in deiner Argumentation entdeckt.
     


    Nein, Stueps,

    ein mit dem Photon Q1 zum ersten mal interagierendes Teilchen wäre keineswegs eine verborgene Variable.
    Es ist lediglich so, dass seine Interaktion mit Q1 einer "Mes­sung" von Q1 entspricht und daher Q1 eine bestimmte Polarisation geben würde.

    Wenn man Q1 jetzt nochmals frägt, ob es eine bestimmte Polarisation hat, dann wird die Wahrscheinlichkeit, mit der sich jede der beiden möglichen Antworten tatsächlich ergibt, davon abhängen, welchen Winkel jene Antwort (als Polarisationsrichtung) mit der Polarisationsrichtung einschließt, die Q1 aufgrund der vorangegangenen Interaktion mit dem virtuellen Teilchen bekommen hat. Diese Wahrscheinlichkeit wird
    • 0 sein, wenn der Winkel 90 Grad beträgt (d.h. die Messung wird Q1 dann zerstören)
    • und wird 1 sein, wenn der Winkel 0 Grad beträgt.
    • Ist der Winkel aber größer als 0 Grad und kleiner als 90 Grad, wird Q1 entweder zerstört oder die Polarisation bekommen, die die Messung meldet.  W e l c h e r  dieser beiden Fälle eintritt, ist absolut zufällig, aber nur dann gleich wahrscheinlich, wenn der Winkel genau 45 Grad beträgt.

    Stueps aus 1149-163:
     
    Wichtig in meinen hiesigen Überlegungen wäre die Tatsache, dass im Rahmen der Unbestimmtheitsrelation Fluktuationen im Vakuum auftreten können, und diese sind meinem Verständnis nach absolut zufälliger Natur, und bedürfen keiner Ursache:

    Sie treten spontan auf.

    Auch ich sehe das so.


    Stueps aus 1149-163:
     
    Falls du als Verursacher (im Sinne von "Täter") von Vakuumfluktuationen eben jene Unbestimmtheitsrelation anführen wolltest, wäre das so, als wolltest du argumentieren, dass die StVO das Knöllchen hinter deinen Scheibenwischer geklemmt hätte, und nicht die Politesse.
    &nbsb;


    Heisenbergs Unbestimmtheits-Relation ist nicht Verursacher der Quantenfluktuation, setzt aber doch den Rahmen für mögliche Energie und Lebensdauer der zu erwartenden virtuellen Teilchen: Sie erst macht Quantenfluktuation  m ö g l i c h  und  z w i n g e n d  e x i s t e n t .

    Insbesondere ergibt sich aus dieser Relation, dass die Summe der Energien aller virtuellen Teilchen, die in einem bestimmten Zeitintervall zu erwarten sind, ansteigt, wenn man das Zeitintervall (als Ortsunschärfe und daraus resultierender Zeitunschärfe) verkleinert: siehe Formel (13) in Hees.

    Gruß, grtgrt
     

      Beitrag 1149-148
    Wie kam es zum existent-Werden der allerersten Ursache?

     
     
    Stueps aus 1149-145:
     
    Henry aus 1149-132:
     
    Da ich nicht davon ausgehe ..., dass der Kosmos aus dem Nichts entstand, sondern möglicherweise aus einer Fluktuation des Vakuums, ist es durchaus annehmbar, die Existenz von Raum und Zeit als FOLGE dieser Fluktuation zu betrachten.

    Hallo Henry,

    Ich bin auch ein Befürworter dieser Annahme. Allerdings sehe ich in diesen Fluktuationen das stetige Bestreben, zwischen Nichts und Existenz auszugleichen.
     


    An Stueps & Henry:

    Ich persönlich sehe die Quantenfluktuation als DEN Motor der Schöpfung — allerdings nur, soweit Schöpfung  i n n e r h a l b  unseres Universums passiert.

    Versteht man unter dem Kosmos ALLES, was existiert, gibt es keine Umgebung, in der Quantenfluktion oder etwas dazu Analoges vorhanden sein könnte.
    Selbst wer anderes denkt, wird sich dann fragen müssen, wie es zu solcher Fluktuation von was auch immer kam.

    Kurz: Wie man auch denkt,


    es bleibt immer die scheinbar unauflösliche Frage nach der Existenz (dem existent-Werden)

    der  a l l e r e r s t e n  Ursache.


    Gruß, grtgrt
     

     Beitrag 0-525
    Philosophen: Einige Meister und ein Lehrling

     
     

     
    Bekannte Philosophen

    — über absolut geniale und ihr pures Gegenteil —

     
     
      Welche Philosophen waren die am erfolgreichsten? Ich weiß es nicht.
     
      Sagen aber kann ich, welche mir — einem Informatiker, der mit Logik umzugehen weiß — am meisten imponieren.
     
      Hierzu gehören auf jeden Fall folgende ( da einige ihrer Erkenntnisse bis heute nichts an Wert verloren und sogar durch Naturwissenschaft bestätigt wurden ):
         
      • Parmenides
         
      • Leukipp mit seinem Schüler Demokrit
         
      • Platon
         
      • Aristoteles
         
      • Kant
         
      • Karl Jaspers

       
      Jaspers verstand besser als jeder von uns das wahre Wesen der Philosophie und ihrer Ergebnisse.
       
      Sehr deutlich wird das klar am Denken der Religionsphilosophen Meister Eckart (etwa 1300 n.Chr.) und Karl Rahner (um 1950).
       
       
       
      Beschämend finde ich, wie wenig Brauchbares nun schon seit Jahrzehnten die deutsche Hochschulphilosophie produziert.
       
      Markus Gabriel etwa, obgleich bereits 11 Jahre lang Inhaber eines Lehrstuhls für Erkenntnisphilosophie, hat sich noch nicht mal eine brauchbare Definition des Begriffes der Existenz einfallen lassen. Er gehört immer noch zu denen, die persönliche Meinung mit Philosophie verwechseln. Selbst als Verwalter wertvollen philosophischen Gedankengutes ist er kaum zu gebrauchen, da er zwar viel gelesen hat, all das auch zitieren kann (so scheint mir jedenfalls), es seinem wahren Wert nach aber gar nicht erkennt.
       
      Er behauptet explitzit mit seinem sog. Neuen Realismus sämtliche älteren Philosophen korrigieren zu können und zu müssen.
       
      Peter Strasser (Hochschullehrer für Philosophie aus Österreich, Kulturpreisträger) ordnet Gabriels sog. "Sinnfeld-Ontologie" ein als "ontologisches Larifari" — meiner Ansicht nach völlig zu Recht.
       
       
       
      Erwähnenswert ist noch: Philosophie scheint sich um 3 Schwerpunkte zu gruppieren:
         
      • Natur verstehen
         
      • Ethik
         
      • Religion (= Sinn des Lebens)

       
      All meine Urteile oben beziehen sich nur auf Philosophie zum ersten und letzten dieser 3 Schwerpunkte: Über Ethik habe ich bisher kaum was gelesen (wohl deswegen, weil ich mehr an Logik und Naturwissenschaft interessiert bin).


       

     Beitrag 0-527
    Wie sich Wissenschaft mit Philosophie und Religion vergleicht

     
     

     
    Wissenschaft vs Philosophie und Religion

     
     
    Im Philosophie-Unterricht erfährt man, zu welchem Ergebnis das Philosophieren von Personen geführt hat, die schon lange tot sind. Genauer: Man erfährt, welcher Meinung sie waren und auf welchem gedanklichen Wege sie versucht haben, ihre Meinung zu begründen.
     
    In allen anderen Schulfächern lernt man, was Wissenschaft derzeit als wahr erkannt zu haben glaubt. Es ist dann aber zunächst nur wahr in der Realität, in der wir leben. Ob es in Wirklichkeit wahr ist, wissen wir nicht, da Menschen — ebenso wie auch alle anderen biologischen Wesen — kein modellunabhängiges Verständnis der Wirklichkeit haben. Es ist dies eines der zentralsten Ergebnisse der Philosophie. Besonders deutlich haben es formuliert:
       
    • Parmenides (ca. 500 v.Chr.)
       
    • Kant
       
    • Niels Bohr (der Anfang des 20. Jahrhunderts führende Quantenphysiker) und
       
    • Steven Hawking (ein erst 2018 verstorbener, weltweit bekannter Astrophysiker)

     
    Nie vergessen sollte man:
     
    Eine philosophische Meinung verliert ihren Wert, sobald es Naturwissenschaft gelang, sie zu widerlegen. Markus Gabriel etwa, der sich derzeit (ab 2010 etwa) am lautstarksten zu Wort meldende deutsche Professor für Philosophie argumentiert, als habe er das noch nicht begriffen. Seine Philosophie ist, wo er glaubt, Beweise präsentieren zu können, Pseudophilosophie, zum anderen Teil aber einfach nur Meinungsäußerung (statt echter Philosophie).
     
    Religionsphilosophie ist ein Teil der Philosophie, dessen Ergebnisse Naturwissenschaft weder widerlegen noch bestätigen kann. Daran sollte jeder denken, der andere ihrer religiösen Überzeugung wegen zu kritisieren versucht.

     

     Beitrag 0-523
    Wo und wie Naturwissenschaft schon recht alte philosophische Erkenntnisse bestätigt

     
     

     
    Sternstunden der Philosophie

     
     
    Ich verstehe darunter philosophische Einsichten — erahnte, tiefe Wahrheit — die z.T. schon 2500 Jahre alt ist, von der Naturwissenschaft (Quantenphysik, Kosmologie, Tiefenpsychologie) nun aber neue Bestätigung erfährt:
       
    • 1. —  die Atomtheorie (im Sinne von Leukipp und seinem Schüler Demokrit etwa 500 v.Chr.) wird voll bestätigt durch die Quantenfeldtheorie:
                Sie erkennt die Atome jener Philosophen als QuBits.
       
    • 2. —  den Unterschied zwischen Realität und Wirklichkeit (über den schon Platon und Lukrez sprachen),
       
    • 3. —  die auf Platon und seinen Lehrer Sokrates zurückgehende Theorie einer unsterblichen Seele
       
    • 4. —  die vom Phsychologen Carl Gustav Jung in die Welt gesetzte Theorie an der Wurzel der menschlichen Phsyche gegebenen archetypischen Vorstellungen,
                die man — ohne dass er sie so genannt hätte — auch schon bei Meister Eckhart, einem Religionsphilosophen der Mystik (etwa 1300 n.Chr.) vorfindet.

     
    Jedes dieser so ganz erstaunlichen Ergebnisse der Philosophie werte ich als Beispiel von Wahrheit, zu der Menschen in jahrhunderte langem Abstand auf völlig unterschiedlichen Wegen gelangt sind.
     
    Berücksichtigt man das, wird man den Eindruck nicht los, dass Religionsphilosophie — auch die des Christentums — nur Fortschritte im Tempo ganz besonders langsamer Schnecken macht.

     
     
    Wie Naturwissenschaft die oben genannten philosophischen Ergebnisse zu deuten weiß:

     

     Beitrag 0-509
    Was ist — und welchen Wert hat — Philosophie?

     
     

     
    Was ist und welchen Wert hat (echte) Philosophie?


    Gebhard Greiter:
     
    Dass Gott all seinen Geschöpfen, denen er die Fähigkeit gab, sich etwas bewusst zu machen, damit auch die Fähigkeit gab zu philosophieren — d.h. sich ihre Realität selbst auszubauen und zu gestalten — empfinde ich als ein ganz besonders schönes Geschenk unseres Schöpfers.
     



     

     Beitrag 0-451
    Metaphysik und Philosophie

     
     

     
    Metaphysik als Philosophie

     
     
    Metaphysik kann man als den Versuch definieren, eine Theorie des Weltganzen zu entwickeln. Sie soll beschreiben, wie die Welt wirklich ist (im Gegensatz dazu, wie sie uns vorkommt).
     
    Auf diese Weise — so schreibt Markus Gabriel — habe die Metaphysik die Welt gewissermaßen erst erfunden: Wir meinen damit alles, was wirklich der Fall ist: die Wirklichkeit.
     
    Um herauszufinden, wie die Welt wirklich ist, muss man alles Menschengemachte davon abziehen (es also zunächst mal identifizieren).
     
    Die Postmoderne — die Markus Gabriel jetzt durch das Zeitalter des Neuen Realismus zu ersetzen gedenkt — hat den Standpunkt vertreten, dass es die Dinge nur gibt, wie sie uns erscheinen. Dahinter, so argumentiert sie, gäbe es nichts mehr: keine Wirklichkeit.
     
     
    Die Postmoderne, so Gabriel, sei eine Variante der Metaphysik und als solche nur eine besonders allgemeine Form des Konstruktivismus.
     
    Der Konstruktivismus nämliche basiert auf der Annahme, dass es überhaupt keine Tatsachen an sich gäbe, da wir sie als Tatsachen einfach nur durch unsere vielfältigen Diskurse (auch die wissenschaftlicher Art) konstruieren.
     
    Wichtiger Gewährsmann dieser nun schon 2500 Jahre alten Denktradition ist Immanuel Kant. Er behauptet, dass wir die Welt, wie sie wirklich ist, nicht erkennen können: Was auch immer wir erkennen, sei irgendwie auch von Menschen gemacht.
     
     
     
    Quelle: Markus Gabriel: Warum es die Welt nicht gibt, Ullstein 2013, S. 10-11


     

     Beitrag 0-446
    Philosophie — Was man darunter versteht

     
     

     
    Was ist Philosophie?

     
     
    Der deutsche Philosoph Karl Jaspers erklärt das so:

    Karl Jaspers (1971):
     
    Was Philosophie sei und welchen Wert sie hat, ist umstritten:
       
    • Man erwartet von ihr außerordentliche Aufschlüsse oder lässt sie als gegenstandsloses Denken beiseite.
       
    • Man sieht sie mit Scheu als das bedeutende Bemühen ungewöhnlicher Menschen oder verachtet sie als überflüssiges Grübeln von Träumern.
       
    • Man hält sie für eine Sache, die jedermann angeht und daher im Grunde einfach und verstehbar sein müsse, oder man hält sie für so schwierig, dass es hoffnungslos sei, sich mit ihr zu beschäftigen.

    Was unter den Namen Philosophie auftritt, liefert in der Tat Beispiele für all diese entgegengesetzten Beurteilungen.
     
    Für einen wissenschaftsgläubigen Menschen ist das Schlimmste, dass die Philosophie gar keine allgemeingültigen Ergebnisse hat, etwas, das man wissen und damit besitzen kann.
     
    Während jede Wissenschaft auf ihrem Gebiet zwingend gewisse, dann allgemein anerkannte Erkenntnisse gewonnen hat, hat die Philosophie dies trotz aller Bemühungen der Jahrtausende nicht erreicht. Es ist nicht zu leugnen: In der Philosophie gibt es keine Einmütigkeit des endgültig Erkannten. Was aus zwingenden Gründen von jedermann anerkannt wird, ist wissenschaftliche Erkenntnis geworden, ist nicht mehr Philosophie, sondern bezieht sich auf ein besonderes Gebiet des Erkennbaren.
     
     
    Das philosophische Denken hat auch nicht — wie die Wissenschaften — den Charakter eines Fortschrittsprozesses: Wir sind gewiss viel weiter als Hippokrates, der griechische Arzt. Wir können aber kaum sagen, dass wir weiter seien als Plato. Nur im Material wissenschaftlicher Erkenntnisse, die er benutzt, sind wir weiter. Im Philosophieren selbst aber sind wir vielleicht noch kaum wieder bei ihm angelangt.
     
     
    Dass jede Gestalt der Philosphie, unterschieden von den Wissenschaften, der einmütigen Anerkennung aller entbehrt, das muss in der Natur ihrer Sache liegen. Die Art der in ihr zu gewinnenden Gewissheit ist nicht die wissenschaftliche, also die gleiche für jeden Verstand, sondern ist Vergewisserung, bei deren Gelingen das ganze Wesen des Menschen mitspricht.
     
    In der Philosophie handelt es sich um das Ganze des Seins, das den Menschen angeht, um Wahrheit, die, wo sie aufleuchtet, tiefer ergreift als jede wissenschaftliche Erkenntnis.
     
    Ausgearbeitete Philosophie orientiert sich am durch die Wissenschaften gesammelten Wissen, aber der Sinn der Philosophie hat einen anderen Ursprung: Philosophie tritt auf, wo Menschen wach werden.
     
    Philosophisches Denken muss jederzeit ursprünglich sein. Jeder Mensch muss es selber nachvollziehen.
     
     
    Wunderschönes Zeichen dafür, dass der Mensch als solcher ursprünglich philosophiert, sind die Fragen der Kinder:
     
    Man erzählt ihnen von Realitäten, erklärt die Frage, wie die Sonne sich bewege und warum es doch eigentlich die Erde ist, die sich dreht, und kommt auch auf die Kugelgestalt der Erde zu sprechen. ... » Ach, das ist ja gar nicht wahr. « sagt das Mädchen und stampft mit dem Fuß auf den Boden. » Die Erde steht doch fest. Ich glaube doch nur, was sich sehe. «
     
    Darauf die Mutter: » Dann glaubst du auch nicht an den lieben Gott, denn den kannst du ja auch nicht sehen. « — Das Mädchen stutzt und sagt dann sehr entschieden: » Wenn er nicht wäre, dann wäre doch gar nichts da, auch ich nicht! «
     
    Dieses Kind wurde ergriffen von dem Erstaunen des Daseins: es ist nicht durch sich selbst. Und es begriff den Unterschied des Fragens: ob es um einen Gegenstand in der Welt geht oder um das Sein und unser Dasein als Ganzes.
     


     
    Quelle: Karl Jaspers: Einführung in die Philosophie, 12 Radiovorträge, Rohwohlt


     

     Beitrag 0-450
    Was ist Ziel der Philosophie?

     
     

     
    Was ist Ziel der Philosophie?



    Gebhard Greiter (2019):
     
    Die Welt zu verstehen, ist auch für Philosophen ein viel zu ehrgeiziges Ziel.
     
    Es kann nur darum gehen, sich klar zu machen, wie man selbst (als Person oder als mehr oder weniger große Gemeinschaft Gleichgesinnter) die Welt versteht.
     
    Dass dem so ist, liegt daran, dass die Wirklichkeit zu kennen und zu verstehen, uns ganz grundsätzlich nicht gelingen kann. Wir können nur darüber diskutieren, wie sie auf uns wirkt und so Realität um uns herum erzeugt (= unser Modell vermeintlicher Wirklichkeit).
     
    Ein bekannter Physiker, Steven Hawking, schrieb:
     
    Wir haben kein modellunabhängiges Verständnis der Wirklichkeit.

     
    Er hat damit nur wiederholt, was vor ihm schon andere so sahen: Niels Bohr, Kant, ja sogar schon der griechische Philosoph Parmenides ( geb. 515 v.Chr. ), der schrieb:
     
    » Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen:
     
    Die Welt ist nur Meinung. «
     
     
    Philosophie ist das Sich-präsent-machen und das ständige Hinterfragen dieser Meinung.

     



    Auf  Philo Quer  liest man:
     
    Philosophieren bezeichnet das Bemühen, präzise nachzudenken und dieses Nachdenken mit seinen Ergebnissen der Kritik durch andere auszusetzen.
     
    Das alles in der Hoffnung, zu vertretbaren und vielleicht sogar hilfreichen Einsichten zu gelangen.

     



     

     Beitrag 0-19
    Philosophie — überflüssig?

     
     

     
    Philosophie — was nützt sie uns?

     
    Hierzu sagt Betrand Russel:
     
     
    Der Wert der Philosophie besteht in ihrem Einfluß auf das Leben derer, die sich mit ihr beschäftigen.

    Sie bringt Einheit und System in die Wissenschaften und prüft die Gründe unserer Überzeugungen  u n d  Vorurteile.

     
     
    Quelle: Bertrand Russell: The Problems of Philosophy (1912)

     

      Beitrag 1896-52
    Unsere Welt — auch die der Physik — ist nur unser Bild von der Wirklichkeit

     
     

    Schon erstaunlich, wie Physiker und Philosphen zum selben Ergebnis kommen:

    Zitat von N. Bohr:

     
    Die Physik kann nicht ergründen, wie die Natur funktioniert.

    Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

     

    Zitat von I. Kant:
     
    Es gibt die Dinge der Erscheinungen und die Dinge an sich.

    Wir kennen die Dinge nur so, wie sie auf uns wirken.


     

    Mehr zu Kants Philosophe ...

     

    Interessant auch: Weit vor den beiden vertrat diese Meinung auch schon Parmenides (geboren um 530 v.Chr.). Er schrieb:

    Zitat von Parmenides:

     
    Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen;
    die Welt ist nur Meinung ...

     


    Und genau das bestätigt uns im 20. Jahrhundert die Quantenphysik.



    Steven Hawking (1993):

      Es hat keinen Zweck, sich auf die Wirklichkeit zu berufen, da wir kein modellunabhängiges Konzept der Wirklichkeit besitzen.

    Nach meiner Meinung ist der unausgesprochene Glaube an eine modellunabhängige Wirklichkeit der tiefere Grund für die Schwierigkeiten, die Wissenschaftsphilosophen mit der Quantenmechanik und dem Unbestimmtheitsprinzip haben.

    Quelle: Mein Standpunkt


     

     Beitrag 0-452
    Religion — Wie Markus Gabriel sie erklärt

     
     

     
    Religion — Wie Markus Gabriel sie erklärt

     
     
    Ohne die Religion wäre es niemals zur Metaphysik, ohne die Metaphysik niemals zur Wissenschaft und ohne die Wissenschaft niemals zur Mehrzahl aller Erkenntnisse gekommen, die wir heute formulieren können.
     
    Was sich in diesem Prozess ereignet, ist nicht einfach nur als Aufklärung einzuordnen:

     
    Die Moderne ist nicht durch einen Abbau von Religion gekennzeichnet, sondern durch eine Erweiterung unseres Freiheitsverständnisses:
     
    Es ist dem Menschen in der Moderne aufgegangen, dass dass er Geist ist und dass dieser Geist eine Geschichte hat.

     
     
    Diese Dimension war ihm vorher verborgen oder nur ansatzweise zugänglich.
     
    Deswegen darf man die Anerkennung des Geistes und seiner Geschichte auch nicht als prä-modern oder gar als Rückschritt denunzieren. Schon Religion beruht auf einer Anerkennung des Geistes.
     
     
    Natürlich gibt es unsinnige Formen von Religion, bloßen Aberglauben und manipulative Sekten. Es gibt aber auch defiziente Formen der Wissenschaft, wissenschaftlichen Irrtum, ohne den es keinen wissenschaftlichen Fortschritt gäbe.
     
    Nur weil eine menschliche Haltung davon bedroht ist, Pathologien auszubilden, folgt daraus nicht, dass man sie abschaffen sollte.
     
    Denn die Eliminierung des Geistes wäre selbst Geist in seiner schlechtesten Form — Geist in der Form seiner eigenen Verleugnung.
     
    Die Frage, ob es Gott gibt, muss man daher sehr viel umsichtiger angehen, als plumpe Sekten oder Neoatheisten es tun.

     
    Wer sich mit der Gottesfrage unabhängig von der Geschichtlichkeit des Geistes befasst,
     
    verfehlt die Frage eigentlich schon.

     
    In der Religion geht es um den Menschen und um seine Verortung in einen Sinnzusammenhang.

     
     
     
    Quelle: Markus Gabriel: Warum es die Welt nicht gibt, Ullstein 2013, S. 212-213

     

     Beitrag 0-486
    Poesie und Philosophie

     
     

     
    Poesie und Philosophie

     
     
    Aus Schiraz stammt der persische Dichter Saadi (wahrscheinlich 1219-1292), der in Akkon Kreuzfahrern in die Hände gefallen und von ihnen versklavt worden war.
     
    Von ihm stammen die fabelhaften Verse, welche die Eingangshalle des UNO-Hauptquartiers in New York schmücken:
     
     
      Die Adamssöhne sind ja alle Brüder,
       
      aus einem Stoff wie eines Leibes Glieder.
       
      Hat Krankheit nur ein einz'ges Glied erfasst,
       
      so bleibt den andern weder Ruh noch Rast.
       
      Wenn andrer Schmerz dich nicht im Herzen brennet,
       
      verdienst du nicht, dass man noch Mensch dich nennet.

       
       
       
      Nachdichtung von Karl Heinrich Graf, 1846


     

     Beitrag 0-521
    Was es bedeutet, erfolgreich zu denken

     
     

     
    Was es bedeutet, erfogreich zu denken

     
     
    Erfolgreich zu denken bedeutet mindestens zweierlei:
       
    • erstens: herausragende Denkergebnisse unserer Vorfahen richtig zu würdigen (etwa die, großer Philosophen),
       
    • und zweitens: selbst Denkergebnisse zu produzieren, welche auch dann noch von Wert sein werden, wenn wir schon verstorben sind.

    Warum nennt der US-amerikanische Philosoph Searle Markus Gabriel "den derzeit besten deutschen Philosophen", obgleich der doch in wenigstens erster Hinsicht versagt (und stattdessen — stolz wie ein Gockel auf dem Mist — ein Zeiltalter des "Neuen Realismus" ausruft, welches gleich mehrere der bisher größten Philosophen unserer Welt zu korrigieren gedenkt?
     
    Kein Wunder: Searle und Gabriel denken beide, sie wüssten es besser als alle Philosophen vor ihnen.
     


    Michael Hampe erklärt uns in der SZ vom 19.05.2010 :
     
    John Searle, berühmter Philosophieprofessor an der Universität von Kalifornien in Berkeley, löst seit über zwanzig Jahren das Leib-Seele-Problem und erregt damit immer wieder Aufsehen. Dies geschieht nicht in mühsamen Argumentationen mit in Jahrzehnten entwickelter Gelehrsamkeit. Searle ist vielmehr seit zwei Dekaden gestisch in der Verkündung einer wissenschaftlichen Sensation erstarrt.
     
    Berühmt geworden mit den "Speech-Acts" von 1969, proklamiert er seit seinem Buch "Minds, Brain and Science" (1984) die philosophische Revolution. So auch in seinem neuesten Werk: "Geist".
     
    In dieser "allgemeinen Einführung in die Philosophie des Geistes" will Searle nachweisen, dass "die berühmtesten und einflussreichsten Theorien alle falsch sind". Er will zeigen, wie Bewusstsein, Intentionalität, Willensfreiheit und andere geistige Phänomene "tatsächlich funktionieren".
     
    Dabei geht er so vor: "Meine philosophische Methode besteht darin, die Geschichte eines Problems zu vergessen ... und nur die Tatsachen zu konstatieren."
     


    Was aber, wenn wir die objektiv gegebenen Tatsachen gar nicht kennen — die Welt also gar nicht so sehen und begreifen, wie sie ist?
     
     
    War nicht eben das die so wertvolle Einsicht von Parmenides, Platon, Kant und anderen?


     

     Beitrag 0-528
    Warum jeder eben doch nur in seiner eigenen Welt lebt

     
     

     
    Wie sich Realitäten in uns unbekannte Wirklichkeit (den Kosmos) einbetten

     
    Jedes denkende Wesen lebt in einem nicht allzu klaren, persönlichen Spigelbild eines kleinen Teiles der Wirklichkeit
     
    Spiegel in diesem Sinne ist das Gehirn des Lebewsens

     
     
    Wisse: Es gibt einen Unterschied zwischen Realität und Wirklichkeit:
     
    Die Wirklichkeit kennen wir nur über von ihr erzeugte Signale, die unsere Sinne empfangen. Unser Gehirn erzeugt daraus unsere Vorstellung, wie die Wirklichkeit denn wohl sein müsse. Nennen wir es: Unser Modell der Wirklichkeit.
     
    Man nennt es die Realität, in der wir leben. Wir synchronisieren es (teilweise) mit der Realität, in der andere leben, indem wir mit ihnen kommunizieren.
     
    Hat man nun aber zwei biologische Wesen, Menschen etwa (oder z.B. einen Mensch und seinen Hund), so kann deren Modell der Wirklichkeit nicht genau das gleiche sein sein, da ihrer beider Sinne ja so gut wie nie genau dieselbe Menge von Signalen aufgefangen haben (und auch nicht alle Gehirne gleich leistungsfähig sind).
     
    Da wir mit unserem jeweiligen gedanklichen Bild der Wirklichkeit nun aber selbst auch ein Teil der Wirklichkeit sind, ist jede Realität, in der einer von uns lebt, nur kleiner Teil der Wirklichkeit insgesamt: Unser oft subjektiv geprägtes Bild (= Verständnis) des Teiles der Wirklichkeit, der mit uns — direkt oder indirekt — kommuniziert. Empirie und alles rationale Denken eines Gehirns kann sich direkt stets nur auf eines dieser Modelle beziehen: auf das von diesem Gehirn selbst erzeugte.
     
    Steven Hawking hat das so ausgedrückt:
     
    Wir haben kein modellunabhängiges Verständnis der Wirklichkeit.
     
    Konsequenz daraus:
     
    Weite Teile der Wirklichkeit sind uns empirisch nicht einsehbar.
     
    Über sie können wir nur spekulieren. Sie haben auf jeden Fall auch eine geistige Dimension.


     

     Beitrag 0-533
    Wo fehlendes Qualitätsbewusstsein

     
     

     
    Wo fehlendes Qualitätsbewusstsein

    die gesamte Zunft deutscher Hochschulphilosophen blamiert

     
     
    Philosophische Freiheit ist der einzige, durch keinerlei Gesetze geregelte Freiraum, den wir haben: Freiheit des philosophischen Denkens.
     
    Wahr ist aber auch:
      Man kann in diesen Raum — selbst als Professor für Philosophie — jeden nur denkbare Blödsinn erzählen.
       
      Einer, den sein US-amerikanischer Kollege John Searle den "derzeit besten Philosophen Deutschlands" nennt, macht von eben dieser Freiheit ganz ungeniert Gebrauch, was ihn zum bisher wohl erfogreichsten Selbstvermarkter in dieser ganzen Branche macht.
       
      Es gibt halt zu viele Kollegen, die ihm stumm abkaufen, was er so alles als "Forschungsergebnis" einordnet.
       
      Muss man sich da wundern, dass Steven Hawking (ein inzwischen verstorbener renommierter Physiker) der Meinung war: "Philosophy is dead. Philosophers have not kept up with modern developments in science. Particularly physics. Scientists have become the bearers of the torch of discovery in our quest for knowledge."?
       
      Gegen Ende des Reports Is Philosophy dead? liest man:
       
      Professor Crane argued "academic philosophy is in crisis and no longer really hospitable to the idea of challenging everything, not least because the need to be published in a few top journals “encourages incredible conformism around a very narrow range of ideas".
       
      Professor Newberger took a similar line, reflecting that she had "only managed to maintain my enthusiasm for philosophy by staying away from philosophers".

    Ich, Gebhard Greiter, sehe es ebenso, denn wie z.B. die Qualität angeblich philosophischer Argumentation in Markus Gabriels Buch Warum es die Welt nicht gibt (2013) zeigt, scheint selbst im akademischen Bereich nicht mehr klar zu sein, wo statt zu philosophieren nur noch Selbstvermarktung um jeden Preis stattfindet.
     
    Natürlich gründet sich diese meine Meinung nicht auf den fragwürdigen Wahrheitswert von Gabriels Denkergebnis, sondern vielmehr auf die fehlende Qualität seiner Argumentation hin zu diesem Denkergebnis. Welche — eines Wissenschaftlers ganz unwürdigen — gravierenden Mängel Gabriels Herleitung seiner Meinung enthält findet sich ausführlich erklärt hinter Links in Zur Güte von Markus Gabriels erkenntnistheoretischer Argumentation und zudem in mehreren anderen Blogposts.
     
    |
     
    Vergleicht man Gabriels Argumentieren mit dem wirklich überlegten von Kant oder Jaspers, so wird schnell klar: Markus Gabriel scheint bisher noch gar nicht verstanden zu haben, welche Qualität Denken zukommen muss, damit man es zu Recht
       
    • als Philosophie einerseits
       
    • und/oder Wissenschaft andererseits

    anerkennen kann.
     
    Gabriel mag Heidegger ausführlich gelesen haben. Karl Jaspers Einführung in die Philosophie (1996) aber hat er ganz sicher nicht gelesen. Er wüsste sonst nämlich, welche Qualität philosophisches Denken als solches auszeichnet und von wissenschaftlicher Argumentation abgrenzt.
     
    Zudem sollte sich Gabriel — in seiner Eigenschaft als Inhaber eines Lehrstuhls für Erkenntnistheorie — zunächst mal einen wohldefnierten Existenzbegriff zurechtlegen. Sollte ihm das irgendwann gelingen, wird er schnell erkennen, wie er sich mit seiner Argumentation in Sachen » Warum es die Welt nicht gibt « einfach nur blamiert hat.
     
    Dass keiner von Gabriels deutschen Kollegen und ehemaligen Lehrern es wagt, ihn auf die ganz unakzeptable Qualität seiner Argumentation hinzuweisen, scheint mir kein gutes Zeichen zu sein.
     
    Hawkings Meinung, Philosophie sei tot, teile ich nicht. Deutsche Hochschulphilosophie aber ist derzeit wirklich nicht ernst zu nehmen.

     

      Beitrag 2028-1
    Philosophie — was man darunter versteht

     
     

    Philosophie — Definition und Abgrenzung


    Philosophie ist
    • die meist (aber nicht notwendigerweise) zweckfreie Suche nach zusätzlichem Wissen
    • ohne dabei anerkannte Gesetze der Logik zu ignorieren.

    Zu einer Karikatur von Philosophie kommt es dort, wo man Gesetze der Logik ignoriert und — aus Dummheit oder mit dem Ziel bewusster Täuschung anderer — dennoch für sich in Anspruch nimmt, logisch zu argumentieren.

    Wo man mit den Mitteln der Informatik nach Wissen sucht, geschieht das i.A. zweckgebunden und unter Hinnahme gut abschätzbarer Ungenauigkeiten. Sie hinzunehmen dient dem Ziel, trotz begrenzter Ressourcen zu einem praktisch verwertbaren Ergebnis zu kommen.

     

      Beitrag 2028-7
    -

     
     
    Irena aus 2028-4:
    Grtgrt aus 2028-1:
     
    Zu einer Karikatur von Philosophie kommt es dort, wo man Gesetze der Logik ignoriert und — aus Dummheit oder mit dem Ziel bewusster Täuschung anderer — dennoch für sich in Anspruch nimmt, logisch zu argumentieren.

    Offen gesagt, es schwebt mir eine andere Karikatur vor. Ich weiß nicht wie hier in Deutschland, aber in dem Umfeld, wo ich aufgewachsen bin, hatte man etwas abfällig als Philosoph den Menschen genannt, der gern viel redet aber im Grunde nichts sagt. Es ist für mich geblieben als Karikatur an einen Philosophen: viel redet, nichts aussagt.
     


    Diese andere Karrikatur sehe ich schon auch — sie ist aber Spezialfall dessen, was ich sage. Wo nämlich viel geredet wird ohne etwas auszusagen, findet sich ja auch keinerlei Logik (die Rede dient ja dann sogar genau dem Zweck, dem Zuhörer die Logik nur vorzugauckeln). Ich nenne so was Biertischpolitik, Verschleierungspolitik, oder im Extremfall auch Betrugsversuch.

    Erst wer das Ausmaß, in dem eine Rede Logik enthält, genau erkannt hat, wird wissen, welchen Wert die Rede hat.

     

      Beitrag 2028-15
    -

     
     
    Irena aus 2028-11:
    Grtgrt aus 2028-5:
     
    Es gibt durchaus Menschen, die Zusammenhänge irgendwelcher Art einfach nur verstehen wollen, weil sie ihnen interessant erscheinen.
    Irgend ein darüber hinausgehender Zweck muss da nicht notwendig gegeben sein.

    Nein, die Zusammenhänge verstehen wollen ist nichts anders als das Lernen. Wir lernen indem wir Zusammenhänge verstehen. Viel einfacher zu lernen ist, wenn es Einem auch interessiert ist. Die Philosophie ist nicht die schon bekannte Zusammenhänge zu verstehen. Philosophie ist die Zusammenhänge zu entdecken. Ich sehe ein wesentliches Unterschied zwischen verstehen und entdecken.


    Hi Irena,

    auch ich sehe einen wesentlichen Unterschied zwischen dem Verstehen einerseits und dem Entdecken andererseits.

    Der Philosophie aber ist das Verstehen ganz sicher  v i e l  wichtiger als das Entdecken (welches ja vor allem Mittel zum Zweck ist: Zusätzliche Eigenschaften oder Zusam­menhänge zu entdecken, hilft sehr oft, schon bekannte besser zu verstehen). Kurz:

    Sammler wollen viel entdecken — Philosophen aber wollen verstehen.


    Gruß, grtgrt
     

      Beitrag 2028-17
    -

     
     
    Irena aus 2028-14:
     
    Grtgrt aus 2028-12:
    Die Mittel der Informatik  s i n d  menschliche Intelligenz, Mathematik und Logik.

    Ja, aber wo hier die Verknüpfung mit der Philosophie?!


    Diese Verknüpfung ist darin zu sehen, dass
    • die Mathematik als Teil der Philosophie entstand
    • und dann weiter die Informatik aus der Mathematik hervorging.

    Das Kunstwort "Informatik" steht für "Informationsverarbeitung". Und genau das ist die Philosophie eben auch.

    Den wahren Unterschied aller 3 Disziplinen sehe ich vor allem darin, dass
    • die Mathematik zu einer extrem formalisierten Art der Informationsverarbeitung geführt hat,
    • und die Informatik hierbei bis an die Grenzen ging (Stichworte: Bit, Berechenbarkeit, Unentscheidbarkeit) und gleichzeitig die zweite Wurzel der Mathematik (das ingenieurmäßige Denken) mit ins Boot geholt hat.

    Wenn ich jetzt sagen würde, dass die Informatik die Industrialisierung der Philosophie bedeutet, würde Henry mich für total verrückt erklären.
    Dennoch ist daran schon ein Körnchen Wahrheit, wie man erkennt, wenn man sich vor Augen führt, dass die Philosophie (mal abgesehen von dem, was die Philosophen antrieb, sie zu betreiben) vor allem eine Denktechnik ist — ohne sie wären wir heute nicht, wo wir sind.

     

      Beitrag 2028-18
    -

     
     
    Irena aus 2028-16:
     
    Ich denke du reduzierst die Philosophie auf einer Art Kunstkritik, die die Kunst verstehen will, dennoch keine Kunst selbst schafft.


    Das tue ich ganz und gar nicht.

    Mir ist aber sehr wohl klar, dass auch ein Künstler erst dann Kunst wird schaffen können, nachdem er gelernt hat, mit entsprechendem Werkzeug virtuos umzugehen (mit geeigneten Farben und Pinseln etwa, mit Palette, Leinwand, Öl, den Gesetzen der Perspektive und des Lichts, ...).

    Das Werkzeug der Philosophen aber ist einzig und allein das wirklich  l o g i s c h e  Denken.


    Anders als offenbar Henry und E..., sehe ich keineswegs alle Philosophen schon als Weise.

    Dazu werden sie frühestens, wenn sie ihr Werkzeug — die Logik — quasi im Schlaf beherrschen, so also, dass andere sie in dieser Hinsicht "zaubern" sehen (eben so, wie Richard Feynman sein Werkzeug — Mathematik — derart gut beherrscht hat, dass er sagen konnte: "Die eigentliche Rechnung braucht man erst durchzführen, wenn man ihr Ergebnis schon kennt").

     

      Beitrag 2028-21
    -

     
     
    Henry aus 2028-6:
     
    Ich möchte zu deiner Vorgehensweise allgemein etwas sagen. Man sollte annehmen, deine Weltanschauung – die Idee / der Geist als Urgrund allen Seins – brächte dich zu einem umfassenden Denken, will heißen, du gingest vom Allgemeinen aus und kämst so zu einzelnen Vorgängen.

    Dem ist aber ganz und gar nicht so, ...


    Richtig, Henry,

    das ist ganz und gar nicht so, denn ich habe längst gelernt, dass erfolgreich zu denken,
    • weder mit strikter Top-Down-Analyse,
    • noch mit strikten Buttom-Up-Aufbauen

    gut verträglich ist: Man muss beides parallel zueinander tun, da oft erst ein Beispiel zeigt, worin der allgemeine Gedanke zur Zwangsjacke oder gar zum Irrtum wurde.



    Henry aus 2028-6:
     
    Und dazu kommt noch, dass du alles aus der eingeengten Welt des Informatikers betrachtest.


    Ja, ich betrachte alles aus einer Sicht, deren Existenz und Möglichkeiten uns erst die Informatik bewusst gemacht hat (mehr dazu auf meiner Seite Zum Wesen der Informatik).

    Dass Du diese Welt als eine "eingeengte" siehst, enttäuscht mich tief.
    Könnte es sein, dass nicht vielleicht Du es bist, der sie noch gar nicht so richtig verstanden hat?



    Henry aus 2028-6:
     
    Kurz zur Philosophie: Der Begriff "Philosophie" bedeute für sich erst einmal "Liebe zur Weisheit". Und philosophieren war ursprünglich gedacht als Erwerb von Wissen "um der Weisheit willen", der Zweck bestand ausschließlich in der Mühe um Verständnis der Welt, in die der Mensch gestellt ist.

    Heute zu sagen, Philosophie sei dies oder jenes, übersieht, dass es diese Allgemeingültigkeit nicht mehr gibt. Es gibt nicht mehr "die Philosophie", sondern es gibt Philosophie in formulierten Zusammenhängen.


    Beiden Aussagen stimme ich voll zu.

    Und weil so insbesondere die zweite richtig ist, spreche ich ja heute — wo ich das Wesen von Philosophie, Mathematik, oder Informatik klar erkennbar machen möchte — nicht nur von  e i n e r  dieser Wissenschaften, sondern gleich  v o n  a l l e n  d r e i e n  zusammen:

    Nicht um behaupten zu wollen, dass alle drei ein und dieselbe wären, sondern um klar zu machen, durch welche Schwerpunkt-Setzung sie sich unterscheiden, obgleich sie doch nun wirklich "ein Fleisch und Blut" sind: Die Philosophie ist sozusagen die Mutter von Mathematik und Informatik, und obgleich die Informatik der jüngste Spross dieser Familie ist, hat sie mit den beiden anderen extrem viel gemeinsam. Sie liegt sozusagen noch in Windeln, verspricht aber schon jetzt, das Genie der Familie zu werden — auf jeden Fall aber ihr mächtigstes Mitglied.

    Informatik hat keine Hemmungen, die Grenzen zu ignorieren, die Philosophie oder Mathematik sich selbst setzen.

    Das einzig wirklich große Problem, das die Informatik noch lange haben wird, ist ein Qualitätsproblem, welches vor allem deswegen existiert, weil die explosionsartige Entwicklung dieser Wissenschaft uns bislang viel zu wenig Zeit lies, es zu lösen.


    Gruß, grtgrt
     

      Beitrag 2028-26
    Philosophie — meine zweite, eher emotionale Definition

     
     
    Irena in 2028-20:
     
    Ein guter Logiker ist keinesfalls ein Philosoph. Daher die Frage: Was ist genau die Philosophie? bleibt unbeantwortet.


    Hi Irena,

    da gebe ich dir recht. Aber vielleicht könnte man sagen:


    Philosophie ist die gezielte Anwendung des menschlichen Verstandes hin zum Ziel, Antworten auf Fragen zu finden,

    die dieser Verstand sich stellt,  o h n e  über die Freude nachvollziehbaren Verstehens hinaus weitere Belohnung zu erwarten.



    Gruß, grtgrt

    PS: Verstehen nenne ich genau dann nachvollziehbar, wenn die Argumentation, die zum Verständnis führt, anderen mitteilbar ist und ihnen hilft, schneller zur gleichen Einsicht zu kommen.
     

      Beitrag 2028-29
    Philosophie und eine Philosophie sind etwas deutlich Verschiedenes

     
     
    Emmins in 2028-27:
     
    Eine Reduktion auf Ansprüche von Logik hat zwar Tradition innerhalb der Philosophie, aber welcher heute lebende Philosoph würde noch ernsthaft behaupten wollen, es gäbe z.B. nur logisch-analytische Philosophie (selbst wenn er oder sie sich für dafür entschieden (!) hätte)?

    Man kann also immer nur sagen: "Ich verstehe Philosophie als eine Wissenschaft, die...."
    oder noch plausibler: "Ich beziehe mich mit meinen Verständnis von Philosophie auf den XYZ-Zweig der Philosophie....".


    Hallo Emmins,

    man sollte nicht übersehen, dass » Philosophie « etwas ganz anderes ist als » eine Philosophie «.

    Genauer:
    • Unter » Philosophie « verstehe ich tatsächlich nur das logisch analysierende Nachdenken über welchen Gegenstand auch immer.
    • Alles andere wäre mehr nur » eine Philosophie « (d.h. eine Menge von Grundsätzen und Prinzipien, die dem Zweck dienen, bestimmte Handlungsweisen als erwünscht oder nicht erwünscht, im Extremfall auch als gut oder böse, einstufen zu können).


    Der Unterschied besteht darin, dass Philosophie im klassischen Sinne sich keinem bestimmten Zweck unterordnet, wohingegen jede konkrete Philosophie — so objektiv sie sich auch geben mag — etwas durchaus zweckgebunden Konstruiertes darstellt. Und natürlich gibt es da auch Mischformen ...


    Gruß, grtgrt
     

      Beitrag 2028-31
    -

     
     
    Emmins in 2028-30:
     
    Im ersten Satz legst Du Dich auf "eine" Philosophie fest (was ja legitim ist), im zweiten Satz gibst Du zu, dass es auch andere Philosophien gibt.

    Ist das nicht ein wundervolles Paradox? Was wäre die Einheit (Philsophie) des Verschiedenen (Philosophien), ohne sich in eine Paradoxie zu verstricken?


    Hi Emmins,

    natürlich kann man es auch so sehen, dass selbst das, was ich als die ursprüngliche, nicht zweckgebundene Philosophie bezeichne, allein schon dadurch, dass ich sie zu kennzeichnen versuche, zu einer bestimmten  A r t  von Philosophie wird.

    Eine bestimmte  A r t  von Philosophie ist aber immer noch was anderes als » eine bestimmte (zweckgebundene) Philosophie « (wie z.B. die, welche man Ethik nennt).


    Wenn jemand von der Ferne einen Wald betrachtet, kann es sein, dass er ihn einfach nur schön findet und es ihm gleich ist, an welchen Stellen des Waldrandes er mehr oder weniger erkennt, trotzdem er ganz grundsätzlich möglichst viel erkennen möchte. Das wäre der Philosophie vergleichbar, die nur Erkenntnis um der der Erkenntnis willen sammelt.

    Ganz anders jemand, der z..B. Jäger ist und jetzt an einer ganz bestimmten Stelle des Waldrandes möglichst viel erkennen möchte, da er glaubt, dass genau dort sich das Stück Wild rumtreibt, das er gerne abschießen möchte. Er betrachtet dann schon weit weniger unvoreingenommen — eben zu einem bestimmten Zweck.


    Und noch ein Vergleich: Wenn man die Summe all dessen, was man als » Philosophie « bzw als » eine bestimmte Philosophie « bezeichnen kann, mit einem Kamm vergleichen wollte, so wären seine Zinken die unterschiedlichen Philosophienen, wohingegen der Teil des Kammes, dem sie alle entwachsen, die Philosophie schlechthin vertreten würde.


    Genauer, so fürchte ich, werde ich's nicht erklären können.

    Gruß, grtgrt


    PS: Ich bin überzeugter Anhänger der Germanisten, die noch stutzen, wenn sie auf Stellenanzeigen treffen, die statt gutem Gehalt "ein" gutes Gehalt versprechen.
     

      Beitrag 2028-32
    -

     
    Emmins in 2028-30:
    Hallo Gebhardt,

    halt mich für blöd, aber ich hab es nicht verstanden! Im ersten Satz legst Du Dich auf "eine" Philosophie fest (was ja legitim ist), im zweiten Satz gibst Du zu, dass es auch andere Philosophien gibt.

    Ist das nicht ein wundervolles Paradox? Was wäre die Einheit (Philsophie) des Verschiedenen (Philosophien), ohne sich in eine Paradoxie zu verstricken?

    Gruß, Emmins

    Hi, Emmins!

    Nein, das ist kein Paradox. denn "eine" ist unbestimmt und kann verschiedene Arten von Philosophie meinen. Die Verwirrung liegt darin, dass ich sowohl "die Philosophie" als auch "Philosophie" sagen kann, wenn ich den "großen Überbau Philosophie" meine. Wenn eine bestimme Art von Philosophie oder eine bestimmte Richtung innerhalb der Philosophie gemeint ist, wendet man den Begriff "diese Philosophie" an.
     

      Beitrag 2026-5
    -

     
     
    U... aus 2026-4:
    Die Zahl der Atheisten ist in den letzten Jahren gestiegen.
    Das zumindest belegt eine Studie aus Amerika.


    Als Theismus bezeichnet man den Glauben an Gott. Als Atheismus demgegenüber einen Nicht-Glauben an Gott.

    Da nun aber niemand weiß, was Gott denn nun eigentlich ist, stelle ich fest: Alle 3 Begriffe sind undefiniert.

    Ich kann mich deswegen nur wundern, wenn ich lese, dass jemand sich als "an Gott glaubend" oder als "an Gott nicht glaubend" bezeichnet.

     
    PS: Siehe auch Beitrag 2028-1.

     

     Beitrag 0-35
    Realität ist eher nur selten Wirklichkeit

     
     

    Schon Platons Höhlengleichnis hat versucht, zu erklären:

     
     
    Realität ist etwas durch unseren Verstand Konstruiertes (etwas Subjektives).
     
    Erst Wirklichkeit ist das objektiv Vorhandene: das tatsächlich Wirkende.

     
     
     
    Realität ist keineswegs immer Wirklichkeit
     
    Quelle: Christoph Hubig, FG Philosophie der wissenschaftlich-technischen Kultur

     
     
     
    Erkenntnis liefert kein Bild der wirklichen Welt, sondern nur eine subjektive Konstruktion, die zur Welt "passt" (wie ein Schlüssel zum Schloss passt).
     
    Beispiele dafür, dass die Realität — als ein durch unser Gehirn gemaltes Bild der Wirklichkeit — hin und wieder ganz schön weit vom Wirklichen entfernt sein kann, finden sich im Video Realität ist oft nur Illusion.
     
     
     
    Realität entsteht durch erst  I n t e r p r e t a t i o n  und dann  E x t r a p o l a t i o n  von Information,
     
    die unsere Sinne empfangen und dem Gehirn zuleiten.

     
     
    Sie ist nicht selten stark subjektiv geprägt, da wir oft nur erkennen, was wir erwarten.

     
    Man kann es auch so ausdrücken:

     
    Aller Sinn, den wir der Welt unterstellen, entsteht in uns selbst.
     
    Die Wirklichkeit ist wie eine weiße Leinwand.
    Wir bemalen sie selbst, und das so entstandene Bild ist die Realität, in der wir leben.

     
     
     
    Und so hält jeder Mensch die Realität, in der er und andere leben, für am genauesten beschrieben durch
     
    die Menge aller Aussagen, welche er selbst als wahr erachtet.

     
     
     
    Warnung:
     
    Leider benutzen selbst Wissenschaftler ein und dieselben Begriffe nicht immer in ein und derselben Bedeutung. Und so kommt es, dass, was oben » Realität « bzw. » Wirklichkeit « genannt wird, von Helmut Hille als » geistige Wirklichkeit « bzw. » außergeistige Realität « bezeichnet wird.
     
    Selbst Philosophen (z.B. hier) verwenden oft das Wort "Wirklichkeit", wo sie über Realität sprechen. Das kann, wie etwa bei Markus Gabriel, recht verwirrend sein.
     
    Solch unterschiedlicher Sprachgebrauch hat zur Folge, dass man schon wirklich sehr genau zuhören muss, um zu wissen, was Anton Zeilinger meint, wenn er sagt, Wirklichkeit und Information seien dasselbe, es sei aber Wirklichkeit doch nicht einfach  n u r  Information [siehe die Diskussion im Video "Information und Wirklichkeit" ab Minute 31:00 bis zum Schluss].
     
    Insbesondere ist nicht klar, ob Helmut Hille Zeilinger richtig versteht.
     
    Zeilinger jedenfalls denkt wie Niels Bohr, der ebenfalls unterschied zwischen
    • dem, was die Natur ist (und wie sie funktioniert)
    • dem, wie sie sich uns zeigt (Information im Sinne Zeilingers) und
    • dem, was unser Gehirn aus dieser Information macht: Unsere Realität.

     
    Interessante Ergänzung:
     
    Was für eine Person zur Realität wird, lässt sich sogar manipulieren. Dies zeigt ein Ergebnis Schweizer Neurologen aus 2002: Sie konnten bei einer Patientin gezielt sog. Out-of-Body-Erfahrungen hervorgerufen.
     
     
     
    Hier noch eine ganz besonders interessante Frage:

     
     
    Ist Geist der Wirklichkeit zuzurechnen?

     
    Wenn Biologen — oder gelegentlich auch Quantenphysiker — von » Geist « sprechen, meinen sie damit etwas, das es definitiv gibt, das aber doch durch keinerlei Messgerät erfasst werden kann. Hieraus folgt: Auch Geist könnte einfach nur etwas durch unseren Verstand Konstruiertes sein.
     
    Mathematische Gesetzmäßigkeiten aber sind eindeutig der  W i r k l i c h k e i t  (und NUR ihr) zuzuordnen: Sie nämlich existierten schon lange bevor es in unserem Universum Menschen oder andere biologische Wesen gab.
     
    Alles Existierende scheint letztlich Energie in unterschiedlichster Form zu sein, diese Form allerdings wandelt sich — gesteuert durch mathematische Gesetze — ständig (ebenso wie die Form der Wellen im Ozean sich ständig wandelt).
     
    FRAGE also: Besteht Wirklichkeit vielleicht NUR aus Energie und mathematischen Gesetzen?
     
    Görnitz argumentiert: Alles Reale ist einfach nur Bedeutung. Die Wirklichkeit ist Geist.
     
     
    Quantenphysiker sagen gelegentlich, alles in der Welt sei durch Information durch Form erzwingende Information mathematischer Art — gesteuerte Energie. Die Form aber ist ständig im Fluss.
     
     
    Wäre Geist der Wirklichkeit zuzurechnen, könnte auch Energie nur Realität sein.
     
    Im umgekehrten Fall aber wäre Geist nur Teil unseres Bildes der Wirklichkeit, der Energie also.
     
    Das wiederum kann man nicht so recht glauben, obgleich es doch so scheint, als ob Bewusstsein – von Geist kaum zu unterscheiden – aus Energie emergiert.

     

     
     
     
    Auf jeden Fall ist erstaunlich, wie Physiker und Philosophen nun schon 2600 Jahre lang
     
    ständig neu zum selben Ergebnis kommen:
     
     
    Zitat von N. Bohr:

     
    Die Physik kann nicht ergründen, wie die Natur funktioniert.

    Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

     

    Zitat von I. Kant:
     
    Es gibt die Dinge der Erscheinungen und die Dinge an sich.

    Wir kennen die Dinge nur so, wie sie auf uns wirken.


     

    Mehr zu Kants Philosophe ...

     

    Und hier der Grund, warum wir recht oft zu unterschiedlicher Meinung kommen:

    Zitat von Nietsche:

     
    Jedes Sehen ist perspektivisches Sehen.

     


    Und genau das bestätigt uns im 20. Jahrhundert die Quantenphysik.

    Lange vor Kant und Bohr vertrat diese Meinung auch schon Parmenides (geboren um 530 v.Chr.). Er schrieb:

    Zitat von Parmenides:

     
    Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen;
    die Welt ist nur Meinung ...

     


    Und genau das bestätigt uns im 20. Jahrhundert die Quantenphysik.



    Steven Hawking (1993):

      Es hat keinen Zweck, sich auf die Wirklichkeit zu berufen, da wir kein modellunabhängiges Konzept der Wirklichkeit besitzen.

    Nach meiner Meinung ist der unausgesprochene Glaube an eine modellunabhängige Wirklichkeit der tiefere Grund für die Schwierigkeiten, die Wissenschaftsphilosophen mit der Quantenmechanik und dem Unbestimmtheitsprinzip haben.

    Quelle: Mein Standpunkt

    |
     
    Ich nehme den positivistischen Standpunkt ein, daß eine physikalische Theorie nur ein mathematisches Modell darstellt und daß es nicht sinnvoll ist, zu fragen, ob dieses der Realität entspricht. Man kann nur fragen, ob seine Vorhersagen mit den Beobachtungen in Einklang stehen.

     

     Beitrag 0-410
    Wie weit kennen wir die Wirklichkeit?

     
     

     
    Wie weit kennen wir die Wirklichkeit?

     
     
    Realität ist meist nur etwas durch unseren Verstand Konstruiertes: etwas Subjektives, von dem wir nur  g l a u b e n , es sei objektiv genau so vorhanden.
     
    Erst Wirklichkeit ist das objektiv Vorhandene: das tatsächlich Wirkende.
     
     
    Wahrscheinlich sind  mathematische Wahrheiten  der einzige Teil der Wirklichkeit, den wir — wenn auch nur teilweise — kennen.

     

      Beitrag 949-9
    Die Welt, in der wir leben, ist uns noch gar nicht bekannt

     
     
    Maximilian aus 949-1:
     
    Die Welt und deren Bedeutung lässt sich nach Belieben durch Vorstellung und Illusion erweitern.


    Wie findet ihr dieses Zitat, wie steht es um deren Richtigkeit, was möchtet ihr dazu sagen, und welches kennt ihr und haltet es für diskussionwürdig.


    Die moderne Physik bestätigt mehr und mehr die schon recht alte Erkenntnis, dass wir die Welt und deren Bedeutung noch gar nicht kennen, sondern dass ALLES um uns herum nur Vorstellung und Illusion ist.

    Parmenides (geboren etwa 530 v. Chr.) lehrte: "Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen; die Welt ist nur Meinung ...".

    Und genau das bestätigt uns im 20. Jahrhundert der Physiker Niels Bohr.

     

      Beitrag 949-27
    Wie ein Ding uns erscheint, hängt vom Ding, aber auch von uns ab

     
    H... aus 949-21:
    Hallo grtgrt,

    Grtgrt aus 949-16:
    wenn deine Frage gemeint war als

    Warum versucht der Mensch häufig, das eigentliche Etwas zu erfassen?


    scheint mir die Antwort klar: Er ist schlicht und einfach neugierig und frägt sich deswegen, ob das, was er bisher für unbegründbar hielt, nicht vielleicht doch eine Begründung hat.

    die Frage ging in Richtung des ewigen Zweifels "Ist meine Wahrnehmung Wirklichkeit" (also von mir unabhängig...)?

    Grundsätzlich haben wir es ja mit dem Fall selbsorganisierter Materie zu tun (Erd-Leben), die in einen merkwürdigen Zustand gerät: Widerspiegelung/Selbserkenntnis.
    Kann man dem trauen (was ist das nun wieder?) und aus diesem Zustand tatsächlich ableiten, dass die
    Widerspiegelung unabhängig von der widerspiegelnden Materie ist?

    Hallo H...,

    mir scheint, dass wo immer wir (als Mensch) etwas wahrnehmen,

    der Prozess des Wahrnehmens gleichzeitig auch ein Prozess des Abstrahierens ist.


    Was uns dann also wirklich als das Ding erscheint, das wir beobachten, ist das Ergebnis jener Abstraktion.

    Nun kann aber jedes Ding auf recht verschiedene Weise abstrahiert werden: Abstrahieren bedeutet, Aspekte zu ignorieren, die mir unwichtig erscheinen — was genau mir unwichtig erscheint hängt ab vom Kontext, in dem ich beobachte, und hängt auch davon ab, wie weit ich denn gedanklich überhaupt in der Lage bin, Details zu verfolgen und in ihrer Bedeutung richtig einzuschätzen. Ignorieren werde ich, was mir bedeutungslos erscheint.

    Damit ist nun klar: Was der einzelne wahrnimmt, hängt nicht nur ab von dem, was er beobachtet, sondern hängt wesentlich auch von ihm selbst ab.

    Genau deswegen werden wir einen Stuhl, auf den wir uns setzen, anders wahrnehmen, als z.B. Heisenberg es täte in einem Moment, in der er daran denkt, dass jener Stuhl nicht nur ein Gebrauchsgegenstand, sondern auch ein Quantensystem ist. Man könnte sagen:

    Was ich wahrnehme, hängt davon ab, welche Rolle das Ding, das ich beobachte, nach meinem Dafürhalten gerade spielt.


    Da ein solches Ding aber auch Rollen spielen kann, an die ich gerade gar nicht denke (ja sogar Rollen, die mir völlig unbekannt sein könnten), ist es kein Wunder, dass unsere Wahrnehmung jenes Ding vielleicht NIE in seiner ganzen Existenz erfassen wird.

    Beste Grüße,
    grtgrt
     

      Beitrag 949-28
    -

     
     
    H... aus 949-21:
    Grtgrt aus 949-16:
     
    Ich definiere:

    Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.

    Ich glaube, dass diese Definition nicht das Wesen des Sachverhalts hinreichend erfasst, den wir gefühlsmäßig darunter verstehen.
    Ich kann einen simplen Automaten bauen, der genau sich selbst von anderen unterscheidet (z.B. eine güne unter
    roten Lampen, und die grüne Lampe interpretiert "rot"=[false, ist ein anderer] und grün=[true, bin ich]).

    Hi H...,

    dein Einwand zeigt mir, dass ich mich nicht klar genug ausgedrückt habe. Hier also die korrigierte Fassung meiner Definition:


    Ein Ding hat Bewusstsein, wenn es sich selbst von jedem anderen Ding unterscheiden kann.



    Deinem Automaten — der grüne Lampe — könnte man somit erst dann Bewusstsein zuschreiben, wenn man entdecken würde, dass sie die Fähigkeit hat, selbst zu wissen, dass sie sich von jeder anderen, noch so identisch gebauten grünen Lampe unterscheidet.

    Gruß, und danke,
    grtgrt
     

      Beitrag 949-32
    Unser Bewusstsein schafft Abstraktionen — keineswegs aber alles, was ist

     
     
    Hallo Henry,

    mein Beitrag 949-29 sollte dich eigentlich nur darauf aufmerksam machen, dass das, was ein Schreiber (du etwa) in eine Aussage reinlegt bzw. reingelegt zu haben denkt, nicht notwendig genau das ist, was der Leser (ich etwa) dort wiederfindet.

    Nun aber zu unserem eigentlichen Thema:


    Henry aus 949-31:
     
    Wenn du schreibst, ALLES um uns herum sei nur Vorstellung und Illusion, muss die Frage erlaubt sein, ob es jenseits dieser Illusion und Vorstellung eine Wirklichkeit gibt bzw., ob es denn tatsächlich so ist, das alles um uns herum nur Vorstellung und Illusion ist.
     

    Meine Meinung ist:

    Die Wirklichkeit hinter all dieser Illusion und Vorstellung gibt es tatsächlich.
    Es scheint aber so zu sein, dass wir sie stets nur durch uns selbst gefiltert und abstrahiert zu sehen in der Lage sind (mehr dazu in Beitrag 949-27).


    Zitat von Henry:
     
    ...zumal es fraglich ist, ob Bohr tatsächlich der Ansicht war, die Welt um uns herum sei nur vermeintlich und nur Meinung.
     

    Ich kenne keinen Beleg dafür, dass Bohr der Meinung gewesen sein könnte, "die Welt um uns herum sei nur vermeintlich und nur Meinung".
    Er sagte lediglich, dass — wie sie sich uns (in unseren Augen) zeigt — nicht verwechselt werden darf mit dem, wie sie tatsächlich ist.


    Zitat von Henry:
     
    Die Frage ist: Gibt es eine unabhängige physikalische Welt oder schafft unser Bewusstsein die Welt?
     

    Unser Bewusstsein schafft Abstraktionen — nicht mehr und nicht weniger.

    Beste Grüße,
    grtgrt
     

      Beitrag 949-34
    Parmenides, Kant und Bohr kommen auf unterschiedlichen Wegen zum selben Urteil

     
     
    Hallo Henry,

    zunächst mal: Die Umgangssprache ist nun mal nicht in der Lage, so unzweideutig zu formulieren wie eine formale Sprache. Und deswegen ist, was ich in Beitrag 949-29 sage, auch gar kein Vorwurf an dich, sondern einfach nur eine Feststellung.

    Dass ich dir nichts vorwerfen will, geht allein schon daraus hervor, dass ich als Beispiel Beitrag 949-28 nenne, worin es ja nicht um einen Text von dir geht, sondern um einen, der von  m i r  zu ungenau formuliert wurde.

    Was nun speziell Beitrag 949-9 angeht, so habe ich da ja einfach nur zwei Zitate nebeneinader gestellt: Das von Parmenides und jenes von Bohr (bitte beachte: der Name "Niels Bohr" ist mit einem Link hinterlegt, der zum Zitat führt).

    Dass zwei Personen, die zu derart unterschiedlicher Zeit gelebt haben, nicht  w o r t w ö r t l i c h  das Gleiche sagen, sondern eben nur  s i n n g e m ä ß , kann man nicht anders erwarten. Wenn ich mir aber vor Augen führe, was die beiden jeweils gemeint haben, komme ich zur Auffassung, dass sich in ihren Köpfen tatsächlich ein und dasselbe Urteil gebildet hat.

    Es ist dir unbenommen, mir da nicht zu folgen, und genau  d a m i t  sich jeder Leser selbst ein Urteil bilden kann, macht Beitrag 949-9 ihm beide Zitate zugänglich (das von Parmenides direkt, das von Bohr — und zudem noch eines von Kant — über den Link).

    Ich für mich kann jedenfalls nicht anders als zu sehen:

    Parmenides, Kant und Bohr waren exakt der gleichen Auffassung.


    Beste Grüße,
    grtgrt
     

      Beitrag 949-35
    Die echte Wirklichkeit ist nicht die von uns wahrgenommene - 2 Beispiele

     
     
    Guten Morgen, Henry,

    vielleicht interessieren dich noch zwei Beispiele, die sehr schön zeigen, dass das, was Lebewesen wahrnehmen, i.A. eine mehr oder weniger verfälschte Sicht auf die Wirklichkeit ist (sie sich also letztlich ihre eigene Wirklichkeit schaffen):
    • In seinem Buch "Evolution and Modification of Behavior" (1966) berichtet Konrad Lorenz, dass ein gewisser Barlow entdeckt hat, dass die Nervenbahnen im Kopf eines Frosches, die von seinem Auge zu seinem Gehirn führen, über eine dort existierende Schaltstation laufen, welche nur die Bilder von fliegenden, nicht aber die Bilder von sitzenden Fliegen ans Gehirn weiterleitet. Das Bild einer bewegungslosen Fliege auf der Retina wird einfach nicht wahrgenommen, da der Frosch nur an mit Sicherheit frischer, sprich: fliegender Mahlzeit interessiert sei.
    • Die menschliche Gesellschaft (als lebender Teil des Kosmos) modiziert ihre Wahrnehmung ebenfalls selbst: Wenn nämlich Lobbyisten oder Politiker wollen, dass der Wähler was Bestimmtes glaubt, wiederholen sie einfach immer wieder eine gewisse Lüge. Der Anteil der Bevölkerung, der die entsprechende Behauptung dann für wahr erkennt, wächst mit jeder Wiederholung dieser Lüge.

    Schönen Tag noch,
    grtgrt
     

      Beitrag 949-36
    Kant genauer verstehen (1)

     
    Grtgrt aus 949-35:
     
    Guten Morgen, Henry,

    vielleicht interessieren dich noch zwei Beispiele, die sehr schön zeigen, dass das, was Lebewesen wahrnehmen, i.A. eine mehr oder weniger verfälschte Sicht auf die Wirklichkeit ist (sie sich also letztlich ihre eigene Wirklichkeit schaffen):
    • In seinem Buch "Evolution and Modification of Behavior" (1966) berichtet Konrad Lorenz, dass ein gewisser Barlow entdeckt hat, dass die Nervenbahnen im Kopf eines Frosches, die von seinem Auge zu seinem Gehirn führen, über eine dort existierende Schaltstation laufen, welche nur die Bilder von fliegenden, nicht aber die Bilder von sitzenden Fliegen ans Gehirn weiterleitet. Das Bild einer bewegungslosen Fliege auf der Retina wird einfach nicht wahrgenommen, da der Frosch nur an mit Sicherheit frischer, sprich: fliegender Mahlzeit interessiert sei.
    • Die menschliche Gesellschaft (als lebender Teil des Kosmos) modiziert ihre Wahrnehmung ebenfalls selbst: Wenn nämlich Lobbyisten oder Politiker wollen, dass der Wähler was Bestimmtes glaubt, wiederholen sie einfach immer wieder eine gewisse Lüge. Der Anteil der Bevölkerung, der die entsprechende Behauptung dann für wahr erkennt, wächst mit jeder Wiederholung dieser Lüge.

    Schönen Tag noch,
    grtgrt
     

    Auch guten Morgen, Gebhard!

    Deine beiden Beispiele zeigen mir, was ich schon vermutet habe – du hast überhaupt nicht verstanden, worum es bei Parmenides und Kant geht (sorry, wenn ich das so hart ausdrücke!). Es geht bei beiden, wenn sie von der Welt als etwas sprechen, was unseren Sinnen nicht zugänglich ist, NICHT darum, dass unsere Sinne uns über die physikalisch vorhandenen Welt täuschen, und schon gar um Täuschung im Sinne von bewusstem Verfälschen einer sozialen oder individuellen Wahrheit, sondern darum, dass es eine Welt jenseits der physischen Welt gibt, die unseren Sinnen PRINZIPIELL nicht zugänglich ist, das ist nämlich mit META-Physik gemeint.

    Wenn Kant von seinem "Ding an sich" spricht, dann ist das nicht ein Objekt, dass in unserem Geist von einem Objekt der physikalischen Welt abstrahiert existiert, sondern das "Ding an sich" ist das, was von allen Eigenschaften, die wir ihm zusprechen, gelöst existiert. Es ist sozusagen das Wesen eines Objektes, und es ist NICHT das Elektron, dessen Ort wir nicht in Abhängigkeit der Geschwindigkeit beliebig bestimmen können.

    Du darfst nicht vergessen, dass eine Vorstellung von Geist, der als Grundlage etwas Physikalisches hat (nämlich unser Gehirn), bis vor ein paar Jahrzehnten nicht denkbar war, Geist war etwas vom physischen völlig Getrenntes.

    Von Bohr spreche ich in diesem Zusammenhang gar nicht, denn er bezog sich einzig und allein auf elementare Quantenobjekte (die aber ebenfalls Objekte der physikalischen Welt sind und nichts mit Metaphysik zu tun haben).

    Ebenfalls noch einen schönen Tag!

    Nachtrag: Wegen dieses Missverständnisses hast du auch meine Einwende nicht verstanden.
     

      Beitrag 949-37
    Kant genauer verstehen (2)

     
     
    Hi Henry,

    du tust so, als wäre der Begriff "das Ding" bei Kant stets NUR "das Ding als Konzept".

    Kant aber benutzt den Begriff "das Ding" recht unterschiedlich. Im Kant-Lexikon von Rudolf Eisler steht als erste und daher (wie ich denke) wichtigste Definition:

    Zitat:
     
    Unter "Ding an sich" versteht Kant die Wirklichkeit, wie sie unabhängig von aller Erfahrungsmöglichkeit, für sich selbst besteht, die absolute Realität.

     

    Warum bitte, so frage ich dich, sollte diese Definition nicht auch auf so was wie ein Elektron anwendbar sein?

    Im selben Artikel steht aber auch — und nur daran denkst du wohl —

    Zitat:

    Zuweilen erscheint das Ding an sich gar nur als reines Denkgebilde,

    als reiner, von allen sinnlichen Bestimmungen losgelöst gedachter Dinggedanke

    (Schwanken zwischen mehr realistischer und rein idealistischer Fassung des Begriffs "Ding an sich").
     

    Es steht in jenem Lexikon weiter:

    Zitat:
     
    Jedenfalls will Kant sagen, daß die Art und Weise, wie sich das Wirkliche sinnlich-kategorial uns darstellt, das Wesen desselben nicht erschöpft.

     

    Warum also sollte man unter "Wirklichem" dann nicht auch die Fliegen verstehen dürfen, deren eigentliches Wesen der Frosch aus dem ersten Beispiel in Beitrag 949-35 zu nur einem kleinen Teil wahrzunehmen in der Lage ist?


    Kurz: Meiner Meinung nach spricht Kant keineswegs nur über Metaphysik — er spricht über ALLE Dinge, angefangen von anfassbaren aus unserem Alltag bis hin zu solchen, die wirklich NUR gedanklich existieren.

    Und ganz im Ernst: Welchen Wert hätte Philosophie, wenn sie nichts mit dem praktischen Leben zu tun haben wollte?

    Beste Grüße,
    grtgrt
     

      Beitrag 949-39
    Über den Wert von Philosophen

     
     
    Henry aus 949-38:
    Und zum Elektron: Kant kannte das Konzept "Elektron" nicht, und in seinem Sinne ist das Elektron nicht unabhängig von der Erfahrungsmöglichkeit, das Elektron ist Teil der physikalischen Wirklichkeit.

    Es wäre schon seltsam, wenn die Erkenntnisse von Philosophen nur auf Dinge anwendbar wären, die jene Philosophen kannten — wenn dem so wäre, hätte die Erkenntnis griechischer Philosophen heute gar keinen Wert mehr. Dem ist aber definitiv NICHT so.


    Zitat von Henry:
    Wenn er vom "Ding an sich" spricht, ist das zwangsläufig Metaphysik.

    Diese Ansicht teile ich nicht.

    Zitat von Henry:
    Die Frage nach dem Nutzen der Philosophie musst du tatsächlich allen Philosophen stellen, die wenigsten haben sich mit einem praktischen Nutzen der Philosophie befasst (von der Neuzeit mal abgesehen).

    Auch diese Ansicht teile ich nicht, denn den Nutzen, den Philosophie hat — insbesondere für mich selbst — den beurteile ich lieber selbst.

    Was ich an Philosophen schätze, ist vor allem, dass sie mich auf Ideen bringen, auf die ich sonst nicht käme.

    Beste Grüße,
    grtgrt
     

      Beitrag 949-42
    Zur Einordnung der "Erkenntnisse" griechischer Philosophen

     
    Henry aus 949-40:
     
    Von welchen "Erkenntnissen" sprichst du? Was die griechischen Philosophen geleistet haben und was unumstritten großartig ist, ist, dass sie sich über den "Mythos" hinaus damit beschäftigt haben, wie sich die Welt uns darstellt. Ist aber "alles fließt" eine wissenschaftliche Erkenntnis?

    Und es wird auch das vollkommenen Gegenteil behauptet, nämlich unter anderem von Parmenides, "alles ist statisch und unveränderlich". Sind die "Universalien" wissenschaftliche Erkenntnis? Ist die Welt letztlich "Idee"?
     

    Hallo Henry,

    die "Erkenntnisse" von denen ich spreche, sind nicht notwendig "wissenschaftlich" (obgleich man da bei einigen durchaus geteilter Meinung sein kann).

    Einige davon halte ich für sehr wertvolle Einsichten, über die es sich lohnt, weiter nachzudenken.

    Daran ändert auch die Tatsache nichts, dass die griechischen Philosophen keineswegs in allen Punkten einer Meinung waren (es gibt halt verschiedene Aspekte, und sie alle unter einen Hut zu bringen, ist nicht einfach).

    Die Welt ist sicher nicht einfach nur "Idee" — das Bild aber, das wir uns von ihr machen, kommt dem Begriff der "Idee" recht nahe.

    Gruß,
    grtgrt
     

      Beitrag 949-43
    Wird Kant durch Eisler richtig interpretiert?

     
    E... aus 949-41:
     
    ... völlig unorthodox ist die Tatsache das Rudolf Eisler ein sogenanntes [Kant- Lexikon verfasst hat, welches keines ist. Denn ein Lexikon verzeichnet ausschließlich Fakten und nichts anderes. Alle Deutungen, Auslegungen und Interpretationen gehören dort nicht hin. Das hat Herr Eisler aber komplett übersehen. Entweder vorsätzlich oder aus Gedankenlosigkeit.

    Beide Gründe sollten einen selbstdenkenden Mitmenschen veranlassen dem Werk keine allzugroße Beachtung zu schenken.
    Zumal dieser Autor 25 Jahre zuvor die "Kritische Einführung in die Philosophie. Berlin 1905." publiziert hat.

    Nichts desto Trotz verblüfft mich Dein Interesse für "fremde" Interpretationen umso mehr als Du um die Gefahren einer Manipulation weist.
     

    Hi E...,

    da Rudolf Eisler Kants Schriften mit Sicherheit gründlicher studiert hat, als mir das den ganzen Rest meines Lebens noch gelingen könnte, wäre es dumm von mir, zu glauben, ich könne Kant treffender interpretieren als Eisler.

    Die Gefahr also, dass er ihn nicht so ganz richtig interpretiert, muss ich deswegen in Kauf nehmen — auf jeden Fall so lange, bis mir jemand nachweisen kann, dass Kant sich Eislers Interpretation wegen im Grabe umdrehen würde.

    Beste Grüße,
    grtgrt
     

      Beitrag 949-45
    -

     
     
    E... aus 949-44:
    Es geht also nicht darum wer besser interpretieren kann, sondern das man seinen eigenen Verstand benutzt anstatt nur zu zitieren.

    Hallo E...,

    du hast ganz recht: Man sollte seinen Verstand benutzen.

    Ich tue das, indem ich bei irgend jemand (sei das nun Kant, Kant interpretiert durch Eisler, Peremides, oder Peremides interpretiert durch mich) Aussagen und Definitionen finde, die mir wahr bzw. hilfreich erscheinen, und die ich mir deswegen zu eigen mache.

    Mit anderen Worten: Für mich steht im Vordergrund, ob ich dem Gesagten zustimmen kann oder nicht.

    In welchem Kopf genau so eine Aussage dann wirklich entstand, scheint mir zweitrangig zu sein. Die Köpfe aber, in denen sie ihre Wurzel hat, nicht zu erwähnen käme geistigem Diebstahl gleich.

    Beste Grüße,
    grtgrt

    PS: Wo ein Philosoph einen anderen hinführt, kann es ja durchaus vorkommen, dass der zweite es ist, der die dort gefundene Erkenntnis genauer und treffender wahrnimmt als der erste. Am Ende der Kette aber stehe stets ich mit MEINEM Urteil. Das zu wissen und entsprechend selektiv zu nutzen oder nicht zu nutzen, was ich lese, darin besteht meine Selbstängigkeit. Mit anderen Worten: Auch Kant ist nur EIN Schritt auf dem Weg hin zur Erkenntnis.

     

      Beitrag 949-46
    Sprechen Kant und Bohr über nicht Vergleichbares?

     
    Zitat von Gebhard:
    Man sollte seinen Verstand benutzen.

    Ich tue das, indem ich bei irgend jemand (sei das nun Kant, Kant interpretiert durch Eisler, Peremides, oder Peremides interpretiert durch mich) Aussagen und Definitionen finde, die mir wahr bzw. hilfreich erscheinen, und die ich mir deswegen zu eigen mache.

    Mit anderen Worten: Für mich steht im Vordergrund, ob ich dem Gesagten zustimmen kann oder nicht.

    In welchem Kopf genau so eine Aussage dann wirklich entstand, scheint mir zweitrangig zu sein. Die Köpfe aber, in denen sie ihre Wurzel hat, nicht zu erwähnen käme geistigem Diebstahl gleich.

    Beste Grüße,
    grtgrt

    PS: Wo ein Philosoph einen anderen hinführt, kann es ja durchaus vorkommen, dass der zweite es ist, der die dort gefundene Erkenntnis genauer und treffender wahrnimmt als der erste. Am Ende der Kette aber stehe stets ich mit MEINEM Urteil. Das zu wissen und entsprechend selektiv zu nutzen oder nicht zu nutzen, was ich lese, darin besteht meine Selbstängigkeit. Mit anderen Worten: Auch Kant ist nur EIN Schritt auf dem Weg hin zur Erkenntnis.

     


    Gebhard, sei gegrüßt!

    Ich will noch einmal versuchen, meinen Standpunkt zu erläutern. Es ist jedem unbenommen, den Verfasser einer Schrift zu zitieren und sich auch auf ihn zu berufen. Ich denke, es ist sogar lobenswert, sich mit dem Gedankengut anderer auseinander zu setzen. Aber wenn ich mich auf den Verfasser einer Schrift berufe und meine Gedanken dazu äußere oder ihn auch interpretiere, dann muss ich mir klar machen (weil wir es in unserer Diskussion mit Philosophie zu tun haben), aus welchem Weltbild heraus der Verfassern argumentiert und zu seiner Auffassung kommt.

    Und hier setzt nun meine Kritik an, denn du zitierst und vereinnahmst die Aussagen von z. B. Kant, ohne dich auf den Hintergrund SEINER Weltsicht zu berufen, sondern mit dem Hintergrund deiner Sicht. Wenn du systematisch vorgehen willst, musst du erst seine Sicht mit deiner vergleichen um dann entscheiden zu können, ob es Übereinstimmungen in euren Sichtweisen gibt.

    Um ein Beispiel zu nehmen: Der Satz: "Es gibt eine Welt jenseits unserer Erfahrungsmöglichkeit" hat eine grundsätzlich andere Bedeutung, ob ich an eine Welt jenseits jeder physikalischen Gesetzmäßigkeit glaube oder daran, dass aus kausalen Gründen oder aus Gründen fehlender Information ein Zugang zu dieser Welt nicht möglich ist. Bin ich z. B. der Auffassung, dass es eine Welt jenseits unserer Erfahrung gibt, glaube aber, dass alles, was existiert, letztlich auf physikalischen Gesetzmäßigkeiten beruht, so darf ich zur Unterstützung dieser Auffassung nicht einen Autor zu zitieren, der daran nicht glaubt, sondern auch an eine Welt, die eben jenseits physikalischer Gesetzmäßigkeiten liegt.

    Die Bedeutung von Aussagesätzen ergibt sich aus ihrem Kontext. Und wenn ich diesen Kontext ignoriere, komme ich zu falschen Interpretationen bzw. ich berufe mich fälschlicher Weise auf den entsprechenden Autor.

    Henry
     

      Beitrag 949-47
    Blutsband oder Fan-Verhältnis?

     
     
    Hallo Henry,

    zunächst mal vielen Dank, dass du dir die Mühe machst, mir deinen Standpunkt nochmals genau zu erklären. Als Antwort darauf will ich nun das Gleiche tun:

    Stell dir mal vor, da sei eine Schar von Kindern, die ein Spiel spielen, welches den Namen trägt " Sag mir aus welcher Familie du kommst, dann sag ich dir welchen Beruf du hast". Nehmen wir weiter an, dieses Spiel kenne
    • drei Familen: TeileDerNatur, TeileDerPhysik, TeileDerMetaphysik
    • und zwei Berufe: Objekt, Konzept.

    So wie du mir deinen Standpunkt erläuterst, kann er reduziert werden auf die Ansicht: "Wo Kant und Bohr Gleiches sagen, reden sie von Dingen völlig unterschiedlicher Natur, so dass die Tatsache, dass sie das Gleiche sagen, keineswegs so zu interpretieren ist, dass sie auch Gleiches meinen."

    Mit anderen Worten:

    In deinen Augen haben Mitglieder der Familie TeileDerPhysik einen anderen Beruf als die Mitglieder der Familie TeileDerMetaphysik und deswegen könne man, wo sie nur über ihren Beruf sprechen, zufällig gleiche Wortwahl nicht als Darststellung ein und derselben Erkenntnis sehen.


    Betrachten wir die Aussagen
      A: Ein (metaphysisches) Konzept ist etwas völlig anderes als ein (physikalisches) Objekt,
      B: Die in Beitrag 1896-52 zitierten Aussagen von Bohr und Kant sind NICHT miteinander vergleichbar.
      C: Aus A folgt B.

    Du stellt dich auf den Standpunkt: " A ist wahr, und deswegen ist auch B wahr."

    Mein Standpunkt aber ist: "WENN A wahr ist, DANN ist auch B wahr."


    Ich sehe also Anlass zu fragen:

    Wie groß ist die Wahrscheinlichkeit, dass A zutrifft?

    Könnte es nicht sein, dass die Natur eben doch eine gemeinsame Wurzel von all dem kennt,
    was der Mensch als physisch oder als metaphysisch einstuft?


    Lothar Schäfer ist aufgefallen, dass wir (als Mensch) uns unwohl fühlen, wenn wir uns völlig entgegengesetzt aller ethischen Normen verhalten. Und so frägt er sich, ob ethische Normen nicht vielleicht Ausdruck eines uns noch nicht bekannten Naturgesetzes sein könnten, einer Art Kraft, die einen durch uns noch nicht identifizierten transzendenten Teil unserer Welt ebenso formt, wie die Gravitationskraft die Struktur der Raumzeit formt.


    Kommen wir jetzt zurück zum Spiel von oben:

    Sicher besteht Einigkeit darüber, dass Mitglieder der Familie TeileDerNatur den Beruf Objekt haben, und die TeileDerMethaphysik den Beruf Konzept.

    Wir haben uns in diesem Forum schon mal darüber unterhalten, was denn nun eigentlich ein physikalisches Objekt sei. Bohr und ich sind der Meinung, es handle sich da um ein gedankliches Konzept, dessen Verhalten dem Verhalten der Natur entspricht.

    Die Umgangssprache aber (und alle anderen, die mir damals antworteten) verstehen darunter einen Teil der Natur — und das wahrscheinlich aus 2 Gründen:
    • Wer Umgangssprache benutzt, unterscheidet zu wenig zwischen physikalisch einerseits und physisch andererseits.
    • Wer über Bohrs Erkenntnis nur wenig nachgedacht hat, kann wohl auch nicht so richtig einsehen, warum der Unterschied ein so gravierender sein sollte.

    Mir ist nun aber völlig klar:

    Sämtliche TeileDerPhysik sind von Beruf Konzept ( nicht aber Objekt ).


    Konsequenz daraus:

    Der Begriff "physikalisches Objekt" ist in sich widersprüchlich.

    Man sollte ihn ersatzlos streichen und stattdessen die Begriffe "physisches Objekt" und "physikalisches Konzept" gebrauchen.


    Leider wird sich der ungeeignete Begriff "physikalisches Objekt" ebenso wenig ausrotten lassen wie die von Einstein eingeführte Summen-Kurznotation (von der selbst Penrose sagt, dass sie ihn hin und wieder verwirre, wir aber wohl auf immer mit ihr werden leben müssen).

    Auf jeden Fall ist nicht zu übersehen:
    • Sämtliche TeileDerPhysik und TeileDerMetaphysik haben etwas gemeinsam: Sie alle sind durch unseren Verstand erzeugte Dinge, Konzepte also.
    • Dies offenbart eine enge Verwandschaft dieser beiden Familien — eine Art Blutsband, wohingegen das Verhältnis von TeileDerPhysik und TeileDerNatur eher vergleichbar ist mit der Beziehung, die Fußballfans mit Fußballern verbindet: Die einen versuchen, den anderen möglichst ähnlich zu werden, blutsverwandt mit ihnen sind sie deswegen aber keineswegs.

    Damit, Henry, sollte nun klar sein, warum ich nicht glauben kann, dass die Ähnlichkeit der Aussagen von Kant und Bohr nur eine zufällige, rein formale ist. Schließlich sind da zwei Personen — mit Peremides sogar drei — auf völlig unterschiedlichem gedanklichen Weg zur selben Aussage gelangt (!).

    Man sollte daher nicht ausschließen, dass es da einen tiefen inneren Zusammenhang gibt. Bohr würde, könnten wir ihn noch fragen, so einen Zusammenhang vielleicht nicht sehen. Auch das aber wäre noch lange kein Beweis, dass er nicht doch existiert. Meine Überlegung ( Blutsband vs Fan-Verhältnis ) lässt mich feststellen:

    Die Wahrscheinlichkeit, dass Aussage A falsch ist, dürfte größer als nur 0.5 sein.


    Beste Grüße,
    grtgrt
     

      Beitrag 949-49
    Kann uns ein physikalisches Objekt auf den Kopf fallen?

     
     
    E... aus 949-48:
    ... denn physikalische Objekte sind alles andere als nur Konzepte.

    Hi E...,

    du scheinst nicht verstanden zu haben, dass
    • Physik und Natur keinswegs dasselbe sind
    • und dass mir zwar ein physisches Objekt auf den Kopf fallen kann (der Hammer etwa), aber eben nicht ein physikalisches.

    Beste Grüße,
    grtgrt
     

      Beitrag 949-53
    Parmenides, Steinwerfer, und der Stein

     
     
    Okotombrok aus 949-51:
    ich stimme dem Beitrag von E... Ellert weitestgehend zu.

    Grtgrt aus 949-9:
    Die moderne Physik bestätigt mehr und mehr die schon recht alte Erkenntnis, dass wir die Welt und deren Bedeutung noch gar nicht kennen, sondern dass ALLES um uns herum nur Vorstellung und Illusion ist.
     

    dass die moderne Physik so etwas bestätigt mag ja deine Meinung wiederspiegeln, es aber so als Faktum darzustellen halte ich für arg überzogen. 

    Hi Okotombrok,

    ich kann diese deine Meinung durchaus nachvollziehen.

    Andererseits nehmt ihr meinen Ausspruch, der den Leser ja aufrütteln will, darüber nachzudenken, wie er denn gemeint sein könnte, etwas zu wörtlich:

    Auch dem Parmenides wird sehr wohl klar gewesen sein, dass der Stein, den andere ihm an den Kopf geworfen haben mögen, weil sie seine Aussage zu wörtlich nahmen, durchaus real und sehr hart war. Er wird dann aber sicher auch traurig gewesen sein, dass andere einfach nicht sehen wollen, dass sein Ausspruch auch so interpretierbar ist, dass er wahr ist.

    In meinem Fall jetzt bedeutet das: Was ich sage, ist insofern wahr, als der Stein, der mir an den Kopf fliegt, als Quantensystem betrachtet etwas ganz anderes ist als der kompakte feste Klumpen, als den Steinwerfer ihn sehen. Meine Aussage will darauf hinweisen, dass man sich durchaus darüber streiten kann, welche dieser beiden Formen denn nun eigentlich die wirklichere ist. Und wer will so genau wissen, ob es nicht noch eine dritte, von diesen beiden Sichten wesentlich verschiedene gibt?

    Nimmt ein Steinwerfer den Stein also wirklich in vollem Umfang wahr?

    Beste Grüße,
    grtgrt
     

      Beitrag 949-54
    -

     
    Henry aus 949-52:
     
    Eine Essenz aus allen deinen Aussagen ist meines Erachtens, dass du letztlich alles auf die Wahrnehmung der Welt zurückführst und nicht auf die Welt selbst; im Zweifel wie du sie wahrnimmst.
     

    Ich würde es mal so ausdrücken:
    Mir sind zwei Dinge durchaus bewusst:
    • Eure (scheinbar einzige) Wahrnehmung der Welt ist die, welche uns im alltäglichen Leben am ehesten nützt ( und dort ja auch meine ist ).
    • Muss man deswegen aber die Augen davor verschließen, dass es weitere Wahrnehmungen gibt (die ja mindestens so interessant sein könnten)?
    Kann man z.B. einen Tiger voll verstehen, indem man nur seinen Schwanz betrachtet?


    Zitat von Henry:
     
    Noch ein Letztes: Du berufst dich häufig auf die "Umgangssprache", wenn es nach deiner Ansicht zu Missverständnissen kommt. Nun, drück dich doch einfach genauer aus! Es ist nicht wahr, das man in einfachen Worten nicht auch schwierige Zusammenhänge darstellen kann. Wenn man etwas wirklich verstanden hat, ist das durchaus möglich.
     

    Von dir eine genaue Definition sämtlicher Unterschiede der Begriffe physisch und physikalisch zu hören, würde mich interessieren.

    Beste Grüße,
    grtgrt
     

      Beitrag 949-58
    Physikalisches Objekt = eine Sicht der Physiker auf die Natur

     
     
    Henry aus 949-57:
    es reicht, darauf hinzuweisen, dass sich "physisch" auf den (materiellen) Körper bezieht und physikalisch auf die Wissenschaft, die sich mit Gesetzen und Zusammenhängen befasst, die wir durch Messung über die Welt erhalten können - die Physik.

    Siehst du, Henry,

    nach eben dieser deiner Definition ist ein physikalisches Objekt eben doch nur eine durch die Physik (als Wissenschaft) konstruierte  S i c h t  auf das Objekt.

    In der Informatik nennt man so was einen "View" (und der ist i.A. weit weniger als das gesamte Objekt).

    Beste Grüße,
    grtgrt
     

      Beitrag 949-63
    Die Natur als Black Box (im Sinne der Informatik)

     
     
    Henry aus 949-61:
     
    Physik beschäftigt sich mit Objekten der Natur, was du jetzt ansprichst, ist aber eine Beschäftigung mit den Objekten der Physik, ...
     


    Hallo Henry,

    hinsichtlich der 3 verschiedenen Ebenen stimme ich dir voll zu.

    Wovon ich in meinem Beitrag spreche, ist aber nicht die Physik gesehen als Beschäftigung mit der Natur, sondern das Ergebnis dieser Beschäftigung (das aber ist etwas rein Gedankliches, nämlich unser Verständnis von der Natur). Bohr hat uns darauf hingewiesen, dass wir damit aber nur das Verhalten der Natur uns gegenüber erfassen können, nicht mehr.

    In der Sprache der Informatik bedeutet Bohrs Aussage, dass wir die Natur nur als Black Box verstehen und erforschen können. Sie kennt ein "Implementierungsgeheimnis" ihrer selbst, das uns unzugänglich ist.

    Beste Grüße,
    grtgrt
     

      Beitrag 1896-53
    Keine Beobachtung kann uns das wahre Wesen der Wirklichkeit enthüllen

     
     

    Das Credo von Lothar Schäfer — einem Physiker:

    • An der Wurzel der physikalischen Wirklichkeit erweist sich die Natur der materiellen Dinge als nicht-materiell.
    • Örtliche Ordnung wird durch nicht-lokale, unverzögert fernwirksame Phänome beeinflusst.
    • Die Wirklichkeit der Raumzeit hängt möglicherweise von Prozessen ab, die außerhalb der Raumzeit verankert sind.

    Er sagt ferner:

    Transzendente Wirklichkeit ist ihrem Wesen nach unbeobachtbar.

    Die moderne Physik ist in zunehmendem Maße bereit, sie zur Erklärung der Wirklichkeit dennoch zuzulassen.

    Die Botschaft moderner Physik ist, dass die Wirklichkeit an ihren Grenzen nicht im Nichts verklingt, sondern im Bereich des Metaphysischen.


     

      Beitrag 949-64
    Wichtige Details zur Kopenhagener Interpretation

     
     
    E... aus 949-62:
    Wie soll ein makroskopisches System mit Bestandteilen funktionieren die quantenphysikalische Eigenschaften haben, nicht stabil, nicht fassbar, nicht berechenbar und zeitlos sind? Antworte bitte nicht auf die Frage ...
     

    An alle,

    es mag ja sein, dass E... die Antwort ganz genau kennt, ich aber weiß nur folgendes:

    Zitat von Lothar Schäfer, Hochschullehrer:
     
    Die Kopenhagener Interpretation betrachtet den Kollaps der Wellenfunktion in einem Messakt NICHT als plötzliche Änderung des Zustandes des Universums, sondern lediglich als plötzliche Änderung unseres Wissens um irgendein Phänomen der physikalischen Wirklichkeit.

    Henry Stapp hat in seinem Buch "Mind, Matter, and Quantum Mechanics" (1993) diese Ansicht so charakterisiert: In der Kopenhagener Interpretation ist das wahre Wesen von ψ nicht ein Problem der Ontologie, sondern eines der Epistomologie.
     

    Auf die Frage, wer Stapp denn nun eigentlich ist, bekommt man zur Antwort: "Stapp is a leading quantum physicist who has given particularly careful thought to the implications of the theory that lies at the heart of modern physics. In this book, which contains several of his key papers as well as new material, he focuses on the problem of consciousness and explains how quantum mechanics allows causally effective conscious thought to be combined in a natural way with the physical brain made of neurons and atoms."

    Gruß, grtgrt

    PS: Was ich an Schäfer so mag ist, dass seine Sprache ebenso klar ist, wie seine Gedanken.
     

      Beitrag 1915-122
    Der erste Trunk aus dem Becher ...

     
     
    Gregor Lämmer aus 1915-118:
     
    Kein Geringerer als Werner Heisenberg hat den Ursprung sehr treffend formuliert mit der Aussage:

    "Der erste Trunk aus dem Becher der Naturwissenschaft macht atheistisch, aber auf dem Grund des Bechers wartet Gott".


    Es geht mir keinesfalls um religiöse Propaganda. Das ist für mich einfach Logik pur.


    Hierin, Gregor, sind wir beide einer Meinung.


    Gruß, grtgrt
     

      Beitrag 1917-1
    Lothar Schäfers Weltmodell (und sein entscheidender Schritt)

     
     

    Wie uns Philosophie hilft, den Kosmos zu verstehen


    Was ich als philosophische Erkenntnis bezeichne ist eine Meinung, die sich über lange Zeit hinweg mindestens einer Person mehr und mehr aufgedrängt hat, die mindestens eine Person immer wieder erwogen, mit Hilfe streng logischer Argumentation kritisch überdacht, mit anderen Meinungen verglichen, dann aber doch als einzig plausiblen Standpunkt eingestuft hat.

    Eine so entstandene Überzeugung ist deutlich mehr als nur eine Meinung unter vielen: Sie ist wenigstens diesem Menschen eine Art Erleuchtung, obgleich auch er sie nicht wirklich beweisen kann.


    Wer philosophische Erkenntnisse ignoriert, ist selten gut beraten.

    Ein uns alle angehendes Beispiel ist Kants Überzeugung, dass der Mensch Zweck an sich ist (und daher nie nur als Mittel zum Zweck benutzt werden darf):

    Zitat von Kant (1785):
     
    Jeder Mensch, und überhaupt jedes vernünftige Wesen,
    existiert als Zweck an sich
    und keineswegs nur als Mittel zum beliebigen Gebrauche für diesen oder jenen Willen.

     

    Zitat von Kant:
     
    Handle so, dass du die Menschheit — sowohl in deiner Person als in der Person eines jeden anderen — jederzeit zugleich als Zweck,
    niemals [aber bloß als Mittel brauchest.

     

    Zitat von Lothar Schäfer (2004):
     
    Kants Imperativ enthüllt die akute Immoralität unseres heutigen Gesellschaftsystems. Wir stehen dauernd unter dem Druck der Verderber: im Geschäftsleben wie in der Politik sind wir ständig gefordert, Menschen nur als Mittel zum Zweck zu betrachten.
     


    Dass philosophische Erkenntnisse sehr wertvoll sein können (wie dieses Beispiel zeigt), ist eine Sache.

    Eine ganz andere aber ist, dass – wo es um Naturwissenschaft geht – oft völlig unklar bleibt, wie man der Philosophen Aussage zu interpretieren hat, damit sie uns zur Erleuchtung wird.

    Schlimmer noch: selbst der Philosoph selbst, weiß das oft nicht wirklich. Es scheint vielmehr so zu sein, dass besonders tiefe Wahrheiten sich auch ihm nur einen kurzen Augenblick lang offenbaren. Er kann so eine Wahrheit dann nicht mehr vergessen, weiß jetzt, dass sie existiert, kann sie aber doch nicht weiter greifbar machen.


    Gutes Beispiel dafür mag George Berkely’s Erkenntnis sein:

    esse est percipi   ( zu sein bedeutet wahrgenommen zu werden ).


    Wie einige andere Philosophen sein Werk in allzu vielen Worten interpretieren, geht meiner Meinung nach völlig an dem vorbei, was sich ihm da einen kurzen Moment lang als tiefe Wahrheit gezeigt haben mag. Treffender zu interpretieren scheint ihn Lothar Schäfer, der denkt:


    Berkely ist der Meinung, dass alles, was wirklich existiert, eine Art Bewusstsein hat.

    Damit sagt er umgekehrt, dass wo immer wir ein Ding wahrnehmen, welches KEIN Bewusstsein zu haben scheint,
    wir es in seiner wirklichen Existenz noch gar nicht gesehen, geschweige denn begriffen haben.


    Nehmen wir also mal an, das betrachtete Ding sei der Stuhl, auf dem ich eben sitze. Hat der ein Bewusstsein? Wohl nicht (würden wir meinen). Also, so sagt Berkely, ist das, was ich sehe, wenn ich ihn fühle, greife, betrachte nur eine durch mich selbst produzierte Illusion — eine Art Abstraktion könnte man sagen. Sie zeigt ihn nur projeziert in meine eigene gedankliche Welt.

    Und tatsächlich: Ein Physiker wie Heisenberg etwa, sieht jeden Stuhl ganz sicher auch als ein Quantensystem, woraus ihm dann sofort klar wird, dass der Stuhl eine wesentlich weniger materielle Existenz hat als er sie in den Augen dessen hat, der ihn gerade als Sitzgelegenheit benützt. Kann man sich dann aber nicht mit Recht fragen, ob nicht vielleicht auch Heisenbergs Vorstellung von der Natur der Existenz des Stuhls noch sehr weit von der entfernt ist, die des Stuhles wirklich wahre ist — jene also, in der er dann tatsächlich Bewusstsein haben könnte?


    Hier angekommen, wird so mancher versucht sein zu sagen: Wenn wir nicht wissen, was eine ganz bestimmte Aussage eines Philosophen denn nun genau bedeutet — und wenn er selbst noch damit kämpft, sie zu verstehen — mache es wohl keinen Sinn, sich länger damit zu befassen.

    So zu denken aber wäre falsch, wie uns gleich drei Beispiele zeigen:

    • Chemiker und Physiker des 19. Jahrhunderts haben Demokrits Atomtheorie – sie geht eigentlich zurück auf seinen Lehrer Leukippos (etwa 500 v.Chr.) – neu ausgegraben und konnten sie erstaunlich genau bestätigen. Wer mir das nicht glaubt, der wird es sicher Heisenberg glauben.
    • Und Heisenberg gibt gleich noch ein zweites Beispiel: "Die Wahrscheinlichkeitswelle von Bohr, Kramer und Slater ... bedeutete so etwas wie eine Tendenz zu einem bestimmten Geschehen. Sie bedeutete die quantitative Fassung des alten Begriffes der » Potentia« in der Philosophie des Aristoteles."
    • Noch erstaunlicher: Parmenides (geboren um 530 v.Chr.) lehrte: "Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen; die Welt ist nur Meinung ...". Und genau das bestätigt uns im 20. Jahrhundert der Physiker Niels Bohr.

    Wir sehen: Die moderne Physik bestätigt mehr und mehr die schon recht alte Erkenntnis, dass

    wir die Welt und deren Bedeutung noch gar nicht kennen,
    sondern dass ALLES um uns herum nur Vorstellung und Illusion ist.


    Wo aber stehen wir dann? Sind wir beim Versuch, die Welt zu verstehen, in eine Sackgasse gelangt? Es sieht nicht so aus:


    Der Astrophysiker und Mathematiker Sir James Jeans (1877-1946) schrieb 1931:

    Zitat:
     
    Man kann sich das Universum am besten ... als aus einem reinen Gedanken bestehend vorstellen, wobei wir den Gedanken woran, mangels eines umfassenden Wortes, als den eines mathematischen Denkers beschreiben müssen ...

    Das Universum sieht immer mehr wie ein großer Gedanke aus als wie eine große Maschine. Geist erscheint nicht mehr wie ein zufälliger Eindringling in das Reich der Materie, sondern wir fangen an, Verdacht zu schöpfen, dass Geist Schöpfer und Herrscher im Reich der Materie ist — natürlich nicht unser eigener individueller Geist, sondern der, in dem die Atome als Gedanken existieren, aus denen unser eigenes Bewusstsein gewachsen ist ...

    Wir entdecken, dass das Universum Hinweise auf eine planende und kontrollierende Kraft offenbart, die etwas mit unserem individuellen Geist gemein hat.
     

    Ist Jeans dann aber mit diesem Verdacht nicht schon ganz nahe an dem, was George Berkely mit seinem esse est percipi wohl erahnt hat?


    Meiner Ansicht nach, könnte der nächste große Schritt, den Philosophen und Physiker sich wünschen gehen zu können, sehr wohl über das Weltbild des Lothar Schäfer führen. Wenn ich ihn richtig verstehe, lässt es sich so zusammenfassen:



    Lothar Schäfers philosophische Meinung


    Schäfer, ein Professor für Physik in Arizona, nicht der gleichnamige Philosoph, sieht drei Wurzeln unseres Wissens:
    • das Erfahren, Beobachten und Interpretieren der raumzeitlichen Wirklichkeit,
    • den gezielten Gebrauch unserer Vernunft in Übereinstimmung mit jedem anerkannten Gesetz logischen Denkens,
    • daneben aber auch die epistemischen Prinzipien des sich selbst bewussten Geistes (der mindestens uns, möglichwerweise aber sogar dem gesamten Kosmos Bewusstsein verleiht).
      Man beachte: Schäfer spricht hier von epistemischen (nicht aber von epistomologischen) Prinzipien. Was er als dritte Quelle unseres Wissens sieht, ist demnach all das, was logische Konsequenz dessen ist, was unser "sich selbst bewusster Geist" als "ganz offensichtlich wahr" einstuft.

    Schöpfend aus diesen 3 Quellen des Wissens kommt Schäfer zu einem Weltbild, welches das von Bohr und Heisenberg um einen, wenn er denn richtig sein sollte, ganz entscheidenden Schritt weiter denkt (in Punkt 3):
    • Die Grundlagen der materiellen Welt sind nicht-materiell.
    • Fast alle Dinge sind aufgebaut aus Dingen, die weit weniger konkret sind als sie selbst.
    • Über quanten-physikalische Experimente haben wir Zugang zu einer anderen Wirklichkeit gefunden: Sie könnte die Welt der platonischen Ideen sein.
      Hinweis: Die platonische Idee — das sollte man wissen — bezeichnet kein mentales Erzeugnis, keinen Einfall oder Gedanken. Platon geht davon aus, dass die Welt, wie sie vom Menschen sinnlich wahrgenommen wird, einem eigenständig existierenden Reich sog. Ideen nachgeordnet ist, welches einen Teil unserer Welt darstellt, den man nur auf geistigem Weg erkennen und erforschen kann, da alles dort Existierende sinnlicher Wahrnehmung entzogen sei [also nicht Gegenstand der Experimentalphysik sein kann .

    Schäfers gedanklicher Weg ist bemerkenswert, da er uns hin zu einem Punkt führt, an dem man nicht mehr wirklich ausschließen kann, dass unser Universum — eher noch der gesamte Kosmos — eine überaus wichtige transzendente Dimension hat, die
    • Ideen ( Konzeption) im Sinne Platons darstellt
    • und vielleicht sogar dem gesamten Kosmos wirklich eine Art Bewusstsein gibt.

    Schäfer meint: Die Annahme, das das menschliche Bewusstsein einfach nur Fortsetzung eines kosmischen Bewusstseins sein könnte, würde einige Rätsel erklären, darunter z.B.

    Wenn, wie Schäfer da vermutet, der menschliche Geist tatsächlich Teil eines kosmischen Bewusstsein sein sollte, so würde das erklären, warum gewisse Denkergebnisse griechischer Philosophen sich zwei Jahrtausende später als so erstaunlich richtig erwiesen.


    Gebhard Greiter (grtgrt)

    PS: Ich würde mich freuen, wenn gerade zu diesem Thema hier im Forum eine wirklich lebhafte Diskussion entstünde.

     

      Beitrag 1917-3
    Wo endet Meinung, und wo beginnt Erkenntnis?

     
     
    Harti aus 1917-2:
     
    Zu der Themenfrage "Ob Philosophie Erkenntnis bringt oder nur Meinung ist" würde ich antworten:
    Es handelt sich um einen konstruierten Gegensatz.. Philosophie kann beides bringen/sein.
     


    Hallo Harti,

    dass Philosophie ganz offensichtlich beides liefert ist sicher richtig. Wo aber liegt im konkreten Fall die Grenze zwischen "schon Erkenntnis" und "noch Meinung"?

    Der Pferdefuß bei der Philosophie ist, dass sie nicht in der Lage ist, diese Grenze klar genug zu ziehen. Und genau das unterscheidet sie ja von den sog. exakten Wissenschaften (und insbesondere von der Mathematik, auch wenn die — jetzt mal nur als Denkmethodik verstanden — als ein Spezialfall der Philosophie entstand).

    Da die Anwendbarkeit rein mathematischer Denkwenge in sehr vielen Fällen gar nicht gegeben ist, wird uns Philosophie weiterhin unentbehrlich sein. Nur sie ist an keine Grenze des Denkens gebunden (Logik mal ausgenommen, weswegen ich deren Regeln denn auch als Naturgesetz sehe).

    Beste Grüße,
    grtgrt
     

      Beitrag 1917-4
    Berkelys » esse est percipi « scheint weder beweisbar noch widerlegbar

     
     
    Harti aus 1917-2:
     
    Die widersprüchlichen Behauptungen, außerhalb unserer Wahrnehmung existiert etwas und außerhalb unserer Wahrnehmung existier nichts, können wir mit Wahrnehmung (Wissen) nicht entscheiden, da dieses "Etwas" und diese "Nichts" ja gerade außerhalb unserer Wahrnehmung angesiedelt sind.
     

    Dennoch lässt sich feststellen:
    • Wir entdecken immer wieder etwas, das wir zuvor nie wahrgenommen haben.
    • Auch kommt immer wieder vor, dass dieses bisher nicht Wahrgenommene von unterschiedlichen Personen unabhängig voneinander zu unterschiedlicher Zeit entdeckt wird.
    • Daraus aber folgt: Es hat ganz offensichtlich — jedenfalls in der Mehrzahl aller Fälle — auch schon vorher existiert.
    • Konsequenz daraus: Mit an Sicherheit grenzender Wahrscheinlichkeit existiert eine ganze Menge, was noch gar kein Mensch wahrgenommen hat.
    • Ein Widerspruch zu Berkleys Meinung muss das noch keineswegs sein, denn sollte der Kosmos ein Bewusstsein haben, kann er sich ja durchaus selbst wahrnehmen.
     

      Beitrag 1917-9
    Wie Schrödinger und die moderne Chemie zwei Auffassungen von Demokrit bestätigen

     
     

    Wie Schrödinger und die moderne Chemie zwei Auffassungen von Demokrit bestätigen


    Schon die Griechen (Demokrit, etwa 430 v.Chr.) waren erstaunlich treffsicher, wenn es darum geht, zu erklären, welche Form Materie hat:

    Nach Demokrit besteht der Raum aus aneinandergepackten Atomen, die festen Umriss haben und die, je nachdem wie sie angeordnet sind, zur Vielfalt der wahrnehmbaren Qualitäten aller materiellen Dinge führen: Farbe, Geruch, Geschmack, etc.


    Besonders interessant ist, dass er schon der Meinung war, dass Atome andere Qualität besitzen als gewöhnliche Dinge.


    Ein gewisser E. Paulus hat 2004 einen in Demokrits Schriften gefundenen Satz aus dem Griechischen ins Deutsche übersetzt wie folgt:

    Zitat von Demokrit:
    Man nimmt freilich Farbiges als gegeben hin, man nimmt Süßes als gegeben hin, man nimmt Bitteres als gegeben hin, in Wirklichkeit aber gibt es Atome und Leeres.

    Noch im 19. Jahrhundert war man, was ein zutreffendes Atommodell betrifft, bei weitem nicht so weit, wie Demokrit. Thomson etwa (1856-1940) glaubte an das sog. Rosinenpudding-Modell, nach dem man sich die Atome vorzustellen hatte als Kleckse einer elektrisch geladenen Masse, in denen die Elektronen stecken wie Rosinen in einem Pudding.

    Erst Rutherford (1871-1937) erkannte, dass jedes Atom fast nur aus Leere besteht. Zu Atom und Atomkern schrieb er:

    Zitat von Rutherford:
     der Atomkern — ein Staubkörnchen auf dem Boden einer Kathedrale;

    die Elektronen — wie ein paar Fliegen im Gewölbe der Kathedrale.

    Dazwischen Leere — nichts.


    In Schrödingers Bild vom Atom, unserem heutigen Weltbild also, sind die Elektronen stehende Wahrscheinlichkeitswellen, festgezurrt am Atomkern. Sie sind leer, tragen weder Energie noch Masse und stellen lediglich Information dar: Information über die Wahrscheinlichkeit, ein Elektron hier oder dort für einen Augenblick nachweisen zu können.

    Im Grundzustand des Wasserstoffatoms etwa, wo Atome dieses Typs nur ein Elektron enthalten, ist der wahrscheinlichste Ort es zu finden dicht am Kern, weil da die Amplitude der Wellenfunktion am größten ist. Doch weil diese Wellenfunktion nirgendwo im Raum zu Null wird, kann es im Prinzip passieren, dass ein Elektron, das eigentlich zur Nase eines Lesers dieser Zeilen gehört, auf dem Mond beobachtet wird; dass die Wahrscheinlichkeit dafür über alle Maßen gering ist, steht auf einem anderen Blatt.

    Die Spektren der Atome — das Resultat ihrer Wechselwirkung mit Licht — zeigen, dass die Elektronen in den Atomen in verschiedenen Quantenzuständen existieren, die sich durch ihre Energie unterscheiden. Jeder Zustandswechsel ist mit Emission oder Absorption von Licht verbunden.

    Während Bohr noch dachte, dass diese Zustände verschieden weit gezogenen Kreisbahnen der Elekronen um den Atomkern herum entsprächen, ist man heute — mit Schrödinger — der Meinung, dass jeder Zustand einer bestimmten Wellenform entspricht. Bei einem Quantensprung verändert ein Elektron ruckartig das Muster seiner Wahrscheinlichkeitsverteilung.

    Man kann diese Formen, berechnen, grafisch darstellen, aber NICHT sehen: Sie sind ja nur Zahlen, die Wahrscheinlichkeiten darstellen, aber nichts sonst. Trotzdem scheinen diese Wellen zu existieren, da ihre Interferenzen in sichtbaren Phänomenen zutage treten, z.B. in den messbaren Eigenschaften von Molekülen, die sich bilden, wenn Atome eine chemische Bindung eingehen.


    Welche Form also hat ein Atom? Die Antwort ist: Es hat gar keine.

    Alle Abbildungen atomarer oder molekularer Wellenfunktionen, die man in Lehrbüchern findet sind künstlich erdachte Gebilde: errechnete Oberflächen von Volumen mit einem bestimmten Prozentsatz, dort ein Elektron anzutreffen.

    Heisenberg Mahnung war: " Man soll sich über die Atome keine bildlichen Vorstellungen machen ".


    Demokrit also lag nicht falsch mit seiner Meinung, dass da eine große Leere sei obgleich doch die Atome den Raum füllen und in ihrer verschiedenen Anordnung zur Vielfalt der wahrnehmbaren Qualitäten der Dinge führen.

    Wir wissen es heute nur insofern genauer, als wir chemische Formeln kennen, diese Qualitäten zu beschreiben, und unsere berechneten Bilder verschiedene Regionen dieser großen Leere im Atom oder Molekül so einzufärben, dass die Intensität der Einfärbung die Wahrscheinlichkeit dafür zeigt, an dieser oder jener Stelle einen Blitz zu sehen, den wir dann als das dort eben noch gewesene Elektron interpretieren können.

    Nachtrag:

    Selbst der Schritt weg vom Konkreten hin zur reinen Idee wurde durch die Griechen schon getan:


    Nach Platon waren die Atome reguläre Festkörper: die der Luft Oktaeder, die des Feuers Tetraeder, die des Wassers Icosaeder, und die der Erde Kuben. Im Zusam­menhang mit Platons allgemeiner Philosophie verstehen viele seiner Interpreten diese Beschreibung aber als: Platons Atome sind nur vordergründig reguäre Körper mit bestimmten Gestalten, er versteht sie als mathematische Formen, die reine Idee sind.

    Heisenberg etwa — den Platons Philosophie sehr beeindruckt hat — bestätigt das auf Seite 99 in "Physics and Philosophy" (1958):

    Zitat von Heisenberg:
     
    Die kleinsten Teile der Materie sind also [ nach Platon nicht primär existierende Dinge, wie in der Philosophie des Demokrit, sondern mathematische Formen.
    Es wird deutlich, dass die Form hier wichtiger ist als der Stoff, aus dem die Form besteht oder der in dieser Form erscheint.

     

    Nochmals also: Die Griechen schon verstanden die Welt, so wie wir sie heute verstehen — die moderne Physik hat das durch sie skizzierte Bild lediglich konktretisiert und durch zahlreiche Beobachtungen als das einzige nachgewiesen, gegen dessen Gültigkeit nichts spricht, was der Mensch bisher beobachten konnte.

    Wer will mir da noch weismachen, dass Philosophie — reines Nachdenken also — nicht auch den Weg hin zu einer physikalischen Erkenntnis beginnen kann?


    Gebhard Greiter (grtgrt)
    einer Darstellung von Lothar Schäfer folgend

     

      Beitrag 1916-21
    Zur schier unglaublichen Treffsicherheit von Demokrits Vorstellung

     
     
    Okotombrok aus 1916-19:
     
    Wie Interferenzversuche zeigen sind Demokrits Atome nicht bestätigt.

    Hi Okotombrok,

    ich weiß zwar nicht, auf welche Interferenzversuche du hier Bezug nimmst, ansonsten aber bin ich eher bei Heisenberg, der 1973 schrieb:

    Zitat von Heisenberg:
     
    Im 19.Jh. folgten Chemie und Physik (Wärmelehre) ziemlich genau und mit großem Erfolg der von Leukipp und Demokrit entwickelten Atomlehre.


    Einiges im Beitrag 1917-9 Erklärte — z.B. was in Richtung Chemie geht oder seine Aussage, dass Atome andere Qualität hätten als gewöhnliche Dinge — sehe ich als schier unglaubliche Treffsicherheit von Demokrits Vorstellung. Ich kann mir nicht vorstellen, wie er darauf wohl kam.

    Dass man dann natürlich weitergedacht hat, ist eine andere Sache. Auch das aber stellt Heisenberg im selben Vortrag ja durchaus klar:


    Zitat von Heisenberg:

    ...die kleinsten Einheiten der Materie sind tatsächlich nicht physikalische Objekte im gewöhnlichen Sinn des Wortes;
    sie sind Formen Strukturen oder - im Sinne Platos - Ideen, über die man unzweideutig nur in der Sprache der Mathematik sprechen kann.
    ... wie Demokrit schon vermutete: Elementarteilchen haben andere Qualität als gewöhnliche Dinge.


    Gruß, gtrtgrt
     

      Beitrag 1917-11
    Die Grundlagen der materiellen Welt sind nicht-materiell.

     
     
    Quante aus 1917-10:
    Zu lesen steht geschrieben:
    » Die Grundlagen der materiellen Welt sind nicht-materiell. «

    Hi Quante,

    diese Aussage zu erklären habe ich den Beitrag 1924-1 geschrieben.


    Quante aus 1917-10:
    ... frage ich den Philosophen Grtgrt, was für ihn denn Grundlagen, im ganz konkreten, sind?

    Grundlagen sind für mich die Naturgesetze — von denen die meisten, wenn nicht sogar alle, in ihrer ursprünglichsten Form wohl sämtlich auf mathematische Gesetzmäßigkeiten zurückführbar sind. Auf die Frage, woher die kommen, fällt auch mir nichts mehr ein.

    Kurz also: Mathematische Gesetzmäßigkeiten sind Naturgesetz (das ist für mich offensichtlich) — und womöglich ist nichts sonst Naturgesetz.

    Gruß,
    grtgrt
     

      Beitrag 1917-12
    Fast alle Dinge sind aufgebaut aus Dingen, die weit weniger konkret sind als sie selbst.

     
     
    Quante aus 1917-10:
    Die 2. "These" wird dann noch unheimlicher:

    » Fast alle Dinge sind aufgebaut aus Dingen, die weit weniger konkret sind als sie selbst. «


    Diese Formulierung muss man sich erst einmal auf der Zunge zergehen lassen, im Kopf angekommen wird’s dann nur noch ein grauer Brei, aber es ist in seiner Konsequenz, die Weiterführung ... der Grundlagenbedeutung, und, so vermute ich, auf einer höheren Ebene?

    Hi Quante,

    das ist folgendermaßen gemeint (und auf eine "höhere Ebene" muss man sich deswegen keineswegs bemühen):

    Alle Dinge, die wir als Materie sehen, haben aus unserer Sicht eine recht handfeste Existenz (denk mal z.B. an Steine, dein Haus, dein Auto, dich selbst).
    Dennoch bestehen sie alle aus Elementarteilchen. Die aber sind WEIT WENIGER KONKRET.

    Nachdem du mir das, wie ich mal annehme, nicht glauben wirst, hier zwei Zitate eines Experten:


    Zitat von Heisenberg, Seite 101:
    Wenn man eine genaue Beschreibung des Elementarteilchens geben will — und hier liegt die Betonung auf "genau" — so ist das einzige, was als Beschreibung niedergeschrieben werden kann, die Wahrscheinlichkeitsfunktion. Aber daraus erkennt man, dass nicht einmal die Eigenschaft des "Seins" ... dem Elementarteilchen ohne Einschränkung zukommt. Es ist eine Möglichkeit oder eine Tendenz zum Sein.

    Zitat von Heisenberg, Seite 162:
    In den Experimenten über Atomvorgänge haben wir es mit Dingen und Tatsachen zu tun, mit Erscheinungen, die ebenso wirklich sind wie irgendwelche Erscheinungen im täglichen Leben. Aber die Atome und Elementarteilchen sich nicht ebenso wirklich. Sie bilden eher eine Welt von Tendenzen oder Möglichkeiten als eine von Dingen und Tatsachen.


    Die beiden Zitate sind genommen aus Heisenbergs Buch "Physics and Philosophy" (1958). Ob die Seitenangaben sich auf die englische oder deutsche Ausgabe beziehen, weiß ich nicht.

    Gruß,
    grtgrt
     

      Beitrag 1922-1
    Was würde ein geeigneter Detektor uns offenbaren — eine weitere Kraft?

     
     

    Ist die Physik ( noch oder für immer? ) auf einem Auge blind ( ohne Detektor )?


    Lothar Schäfer (Professor für physikalische Chemie, nur nebenbei Philosoph, und nicht identisch mit einem in Deutschland lebenden Philosophen gleichen Namens) schreibt:

    Im Bereich der Physik gibt es kein Instrument, das in der Lage ist, den vollen Bereich des elektromagnetischen Spektrums zu vermessen: Radioempfänger können Radiowellen empfangen, aber keine Mikrowellen; unsere Augen registrieren sichtbares Licht, aber keine ultravioletten Strahlen. Für jeden Bereich des elektromagne­tischen Spektrums ist ein spezifischer Detektor nötig, obwohl doch die Wellen an sich von nur einer Art sind: elektromagnetisch.

    Genauso könnte es sich mit der Ordnung der Wirklichkeit verhalten ...


    Grtgrt aus 949-47:
     
    Schäfer ist aufgefallen, dass wir (als Mensch) uns unwohl fühlen, wenn wir uns völlig entgegengesetzt aller ethischen Normen verhalten.

    Und so frägt er sich:

    Könnten ethische Normen nicht vielleicht Ausdruck eines uns noch unbekannten Naturgesetzes sein,
    — einer Art Kraft —
    die einen durch uns noch nicht identifizierten transzendenten Teil unserer Welt ebenso formt, wie die Gravitationskraft die Struktur der Raumzeit formt?

     


    Schäfer beschreibt den Schlusspunkt seines eigenes Weltbilds wie folgt:

    Zitat von Lothar Schäfer:
     
    Es wird hier die Ansicht vertreten, dass der menschliche Geist die geistige Ordnung der Wirklichkeit genauso in moralische Gesetze übersetzt wie die physische Ordnung in physikalische Gesetze. Die transzendente Ordnung der Wirklichkeit ist, was der Fall ist. Die aus ihr von unserem Geist abgeleiteten moralischen Gesetze sagen uns, was getan werden soll:
    • Wie die Gesetze der Physik sind auch die moralischen Gesetze Naturgesetz. Wenn sie nicht beachtet werden, ist ein Preis fällig: der innere Frieden.
    • Man kann nicht in Frieden mit seinem eigenen Ich leben, wenn man die Prinzipien des eigenen Geistes verletzt — das heißt: die Prinzipien des "geistes­ähnlichen" Hintergrunds des Universums.


    Dieses Grundprinzip, im Einklang mit der Ordnung der Wirklichkeit zu leben, und die Auffassung, dass auch die ethischen Prinzipien letztlich Teil der Ordnung des Universums sein könnten, sind praktisch identisch mit zentralen Prinzipien der stoischen Ethik des Zenon aus Kition (etwa 300 v.Chr.).

    Bemerkenswert ist: Erst nachdem Schäfer (so schreibt er) sein Buch schon niedergeschrieben hatte, las er über Zenon und hat erst dann den eigenen Standpunkt "mit Überraschung als stoische Prinzipien erkannt".


    Falls es jemand noch interessiert:

    Zenon aus Kition gründete in Athen (etwa 300 v.Chr.) die Schule der Stoiker. Er entwickelte ein ethisches System, dessen Grundprinzip die Forderung war "im Einklang mit der Natur zu leben". In seiner "Geschichte der Ethik" (1997) erklärt Hauskeller das so:

    Einer griechischen Tradition folgend besteht die Tugend jeder Sache darin, dass sie ihre definierende Eigenschaft, das also, was ihr Wesen ausmacht, möglichst zu ver­vollkommnen sucht. Die Tugend eines Messers etwa bestehe darin, scharf zu sein; die eines Athleten, stark zu sein. Die definierende Eigenschaft des Menschen sei seine Vernunft. Daher müsse er sie zu ihren besten Möglichkeiten zu entwickeln. Das aber setze voraus, dass er in Harmonie mit der Natur und den Regeln der Vernunft lebt.

    Obgleich nun aber Vernunft das eigentliche menschliche Wesen ausmache, komme sie, so Zenon, nicht aus dem Menschen selbst, sondern sei ein Geschenk des Universums: ein " Weltprinzip, das im Menschen Wirklichkeit erlangt — wenn es Wirklichkeit erlangt ".


    Auch hier könnte man sich jetzt fragen:

    Kann es Zufall sein, dass der Philosoph Zenon (300 v.Chr.) zu fast derselben Einsicht kommt, wie 2300 Jahre später völlig unabhänging von ihm der Physiker Schäfer, dessen Ausgangspunkt Erkenntnisse der Quantenphysik waren?

    Ich weiß, ich weiß, einige von euch sagen, man solle keine Äpfel mit Birnen vergleichen. Aber ...


    Gebhard Greiter (grtgrt)
     

      Beitrag 1922-4
    Alles, was existiert, kann nur die Natur seiner Voraussetzung widerspiegeln

     
    Grtgrt aus 1922-1:
    Das aber setze voraus, dass er in Harmonie mit der Natur und den Regeln der Vernunft lebt.

    Gebhard Greiter (grtgrt)
     

    Hallo Gebhard,

    besten Dank für diesen Artikel. Ich stimme Dir voll und ganz zu.

    Alles, was existiert, kann nur die Natur seiner Voraussetzung widerspiegeln, auch der menschliche Geist und seine Freiheit.

    Anders ausgedrückt: Nichts, was existiert, kann sich selbst widersprechen. Würde es das tun, wäre es nicht existenzfähig.
     

      Beitrag 1927-28
    Zur genauen Definition der Begriffe » Geist « und » Materie «

     
    Gregor Lämmer aus 1927-26:
    ... was bringt dann Materie hervor und plant diese?

    Wer oder was Materie entstehen lässt, scheint mir überzeugend erklärt in Beitrag 1924-1.

    Wer sie plant, ist weit schwieriger zu beantworten. Soweit man (als Physiker) sehen kann, sind das Naturgesetze, die in einer nur auf Geist basierenden zusätzlichen Dimension unserer Welt ihren Ursprung haben.


    PS: Ich habe es bisher strikt vermieden von "Geist" zu sprechen und stattdessen den Ausdruck "nur gedanklich existierend" verwendet.

    Da ich nun aber festgestellt habe, dass der Begriff "gedanklich" fast alle meine Geschrächspartner an aus Menschen kommende Gedanken erinnert, kann ich diesen Ausdruck nicht weiter verwenden.

    Unter » Geist (in der Natur) « verstehe ich etwas,
    • auf dessen Existenz es zahlreiche indirekte Hinweise gibt,
    • das zweifelsfrei nachzuweisen der Mensch bisher aber keinerlei Geräte entwickelt hat.

    John Archibald Wheeler war in der zweiten Hälfte seines Lebens mehr und mehr der Meinung, die Wurzel der Natur könnten rein nur aus Information bestehen.
    Sollte er damit recht haben, wäre Geist (in meinem Sinne) der Mechanismus, der eben diese Information verarbeitet.

    grtgrt
     

      Beitrag 1927-33
    Wie realisiert die Natur erst Gedankliches, und sogar Geist?

     
     
    Henry aus 1927-31:
    Grtgrt aus 1927-28:

    PS: Ich habe es bisher strikt vermieden von "Geist" zu sprechen und stattdessen den Ausdruck "nur gedanklich existierend" verwendet.

    Da ich nun aber festgestellt habe, dass der Begriff "gedanklich" fast alle meine Geschrächspartner an aus Menschen kommende Gedanken erinnert, kann ich diesen Ausdruck nicht weiter verwenden.

    Dein gesamte Fragestellung war nach meiner Ansicht nur vorgeblich ergenbnisoffen, du wolltest von Anfang an genau diese auch bestätigt sehen.

    Nein, Henry,

    mein Grund war, dass ich unter "Geist" eigentlich weit mehr verstehe als nur "Gedanken" oder das, was sie erzeugt und verwaltet.

    Können wir denn tatsächlich sicher sein, dass Gedanken nicht auch von — was auch immer — gesteuert sein können (etwa so, wie man einen Dia-Projektor steuert und mit den Bildern füttert, die er an die Wand werfen soll)?

    Gruß, grtgrt
     

      Beitrag 1927-47
    Was steckt hinter nicht-lokalen Phänomenen?

     
    C... aus 1927-43:
    Hallo Grtgrt, Henry, Bauhof,

    Grtgrt aus 1927-37:
    Warum eigentlich denkt niemand an die Möglichkeit, dass wir Teil seiner selbst sein könnten?

    Ich denke nicht nur, sondern glaube schon ziemlich lange an diese Möglichkeit.

    Eine Analogie ist für mich die Eltern/ Kind-Beziehung. Betrachtet man die genetische Verwandschaft (vgl. auch Informationsbegriff in Beitrag 1948-1 unter Nr. 6) und die erzieherische Beeinflussung durch die Eltern, so lässt sich m.E. durchaus die Auffassung vertreten, ein Kind sei Teil seiner Eltern. Dennoch ist das Kind ein (in gewissen Grenzen) eigenständiges, also freies, Individuum.

    Hi C...,

    dein Argument finde ich überzeugend.

    Ich selbst habe die Sache zunächst aber weniger abstrakt gesehen. Mein Gedanke ging eher in folgende Richtung:

    Die Tatsache, dass es nicht-lokale Phänomene gibt (Qantenverschränkung ist vielleicht nur ein erstes Beispiel), legt in meinen Augen die Vermutung nahe, dass die Gesamtheit dessen, was wir beobachten können, nur einen Teil der Natur darstellt — dass da also vielleicht noch ein zweiter Teil ist, den wir bisher noch nicht mal seinem Wesen nach kennen.

    Eine erste Vermutung war ja, es könne da "verborgene Variable" geben. Dass sich diese Vermutung als falsch erwies, schließt aber in meinen Augen nicht aus, dass da doch irgendwas sein könnte: Etwas, das uns verborgen ist ebenso wie 10/11 jeden Eisbergs unter der Wasseroberfläche existieren und daher zunächst unsichtbar sind. Das sichtbare 1/11 so eines Eisbergs — sein über Wasser existierender Teil also — kann gut die Form von Spitzen haben, die demjenigen, der nicht unter die Wasser­oberfläche sehen kann, anmuten wie eine ganze Reihe deutlich kleinerer, einzelner Eisberge.

    Ebenso könnte alle Lebewesen in unserem Kosmos etwas verbinden, das — wenn wir es registrieren könnten — uns klar machen würde, dass alles, was Bewusstsein hat, Teil eines einzigen großen Wesens ist.

    Mein "könnte ..." steht hier für "rein logisch gedacht, kann man nicht ganz ausschließen, dass ...".

    Beste Grüße,
    grtgrt
     

      Beitrag 1924-28
    Was ist eine Platonische Idee?

     
     

    Platonische Idee = etwas (als Idee) absolut genau Definiertes

    Bitte beachten: Messungen können niemals absolut genau in diesem Sinne sein.


     

      Beitrag 1924-33
    Nicht jedes Objekt ist ein physikalisches (oder gar materielles)

     
    Grtgrt aus 1924-32:
    U...bus aus 1924-31:
     
    Was gibt es denn deiner Meinung nach für Elemente, die nicht physischer Natur wären?
    Alles, was sich innerhalb des Universums befindet, ist physisches Objekt, oder glaubst du an Götter?

    Nein, U...bus,

    an Götter habe ich da nicht gedacht, wohl aber an Platonische Ideen (wie etwa die in Beitrag 1924-30 explizit definierten Mengen).

    Gruß, grtgrt
     

    Gebhard,

    die Richtigkeit deiner These fällt und steht mit der Richtigkeit der These über die Existenz der Idee im platonischen Sinne. Den Beweis für die Richtigkeit dieser Behauptung hast du aber noch nicht erbracht (so wenig wie im Übrigen Plato selbst und seine große Anhängerschar).
     

      Beitrag 1924-2
    Das Weltbild, das uns die moderne Physik nahelegt

     
     

    Das Weltbild, das die moderne Physik uns nahelegt


    Die zusätzliche — rein geistige — Dimension unser Welt, von der z.B. in Beitrag 1924-1 spricht, werde ich in Zukunft die Platonische nennen.

    Sie ist die Heimat aller Naturgesetze. Jene existieren auf nur logischer Ebene, führen aber dennoch zum Entstehen des einen oder anderen Universums. Sie formen seine Raumzeit und erschaffen, prägen und steuern alles, was darin existiert (sei es Objekt oder Prozess).

    Es gibt keinen Grund anzunehmen, dass unser Universum das einzige oder gar das einzig mögliche sei.

    grtgrt
     

      Beitrag 1924-19
    Sich Platonische Ideen vor Augen zu führen bedeutet nicht, sie zu erschaffen

     
    U...bus aus 1924-14:
     
    "Gedanklich Existierendes" benötigt einen Denkenden, der es denkt. Also ist doch der physische Teil der Welt Voraussetzung für "gedanklich Existierendes" und nicht umgekehrt. Ohne Denkerbse kein Denken.

    ... ohne Denken keine Existenz, das versuche ich Physikern immer klarzuachen.
     

    Hi U...bus,

    was du hier sagst ist falsch, denn:
    • Erstens: Nicht alles, was nur gedanklich existiert, ist eine Platonische Idee. Bilder etwa, die wir träumen, oder Geschichten, die wir im Traum erzählt bekommen, existieren nur gedanklich, sind aber dennoch keine Platonischen Ideen.
    • Zweitens: Nirgendwo habe ich behauptet, dass erst unser Denken Platonische Ideen erschaffen würde. Ganz im Gegenteil: Die einzigen Beispiele Platonischer Ideen, von denen ich gesprochen habe, waren Folge mathematischer Gesetze, und die — darauf habe ich nun schon sehr oft hingewiesen — sind Naturgesetz.
    • Drittens: Das einzige Werkzeug, eine Platonische Idee in aller Klarheit wahrzunehmen, ist — für Menschen jedenfalls — der menschliche Verstand. Alle anderen Werkzeuge, die Werkzeuge der Experimentalphysik etwa, zeigen uns nur schattenähnliche Projektionen davon.


    Meine Aussage war:

    Der physische Teil unserer Welt wird geschaffen, geformt, und regiert durch nur gedanklich Existierendes.


    Das Missverständnis, das ich jetzt in deinem Beitrag vorfinde, zeigt mir, dass ich mich genauer so hätte ausdrücken sollen:


    Der physische Teil unserer Welt wird geschaffen, geformt, und regiert durch Naturgesetze, die Platonische Ideen sind.



    Nochmals also: Die erste dieser Aussagen ist Folge der zweiten, genaueren Aussage. Es ist aber keineswegs so, dass erst unser Denken jene als Naturgesetz auf­tretenden Platonischen Ideen erschafft. Sie existieren völlig unabhängig von uns.

    Beste Grüße,
    grtgrt

    PS: Natürlich gilt auch: Nicht alles, was jemand denkt, wurde durch ihn selbst erschaffen (also zum ersten Mal gedacht).
     

      Beitrag 1924-27
    Warum Nicht-Stoffliches wohl doch existiert

     
    Stueps aus 1924-23:
     
    Die Dinge in unserer Welt gehorchen einer Ordnung, die sich empirisch untersuchen lässt. Daniel Kehlmann sagte in einem seiner Romane: "Und auf dem Grunde dieser Welt liegen die Zahlen." Dinge können erst in unserer Welt stabil existieren und wechselwirken, wenn sie dieser, na ich will mal sagen, "Überordnung" gehorchen.

    Dies ist für mich ein Indiz, dass etwas Nichtstoffliches real existiert, dem Materie und Energie gehorchen. Wir kleiden diese Ordnung in Sprache, um sie begreifen und beschreiben zu können. Diese Sprache heißt bei uns Mathematik. Und ich verstehe Mathematik eben als das "Ordungs-Ding", nicht als menschliche Sprache allein. Die Beschränkung: "Mathematik ist ausschließlich etwas von Menschen erdachtes." ist mir persönlich wesentlich zu wenig. Ich erhebe keinesfalls Anspruch auf Richtigkeit dieser Meinung, das möchte ich betonen!
     

    Ich sehe es ebenso,

    grtgrt
     

      Beitrag 1924-34
    Platonische Ideen existieren

     
    Henry aus 1924-33:
     
    die Richtigkeit deiner These fällt und steht mit der Richtigkeit der These über die Existenz der Idee im platonischen Sinne.
    Den Beweis für die Richtigkeit dieser Behauptung hast du aber noch nicht erbracht (so wenig wie im Übrigen Plato selbst und seine große Anhängerschar).

    Henry,

    es handelt sich hier um keine These, sondern schlicht und einfach um eine Definition – siehe dazu Beitrag 1924-28.

    Spannende Frage aber: Ist mathematische Notation wirklich die einzige Sprache, in der sich Platonische Ideen formulieren lassen?

    Beste Grüße,
    grtgrt
     

      Beitrag 1924-38
    Zwei weitere Beispiele Platonischer Ideen

     
    U...bus aus 1924-36:
    Grtgrt aus 1924-32:
     
    .......an Götter habe ich da nicht gedacht, wohl aber an Platonische Ideen (wie etwa die in Beitrag 1924-30 explizit definierten Mengen).
     
    Ich glaube, wir drehen uns wieder mal im Kreis:
    Platonische Ideen sind das geistige Konstrukt eines Platon, d.h. in dessen Hirn sind sie entstanden und dieses Hirn war ein physisches Objekt.

    Zunächst mal:

    unter einer Platonischen Idee verstehe ich praktisch nie etwas, das in Platons Kopf gedacht wurde, sondern genau das, was meine Definition in Beitrag 1924-28 sagt:

    Eine absolut exakt definierte Idee ( in wessen Kopf auch immer, vielleicht in gar keinem ).


    Platonisch nenne ich solche Ideen nur zur Ehren Platons, weil der als erster gemerkt hat, dass es einen Unterschied gibt zwischen z.B. der Idee eines Kreises und dem Bild eines Kreises, das er in den Sand gezeichnet haben mag oder als das er den Rand des runden Schildes eines Soldaten erkannt haben wird.


    Nehmen wir jetzt mal an, es wäre schon lange bevor es Menschen gab, Licht durch einen hinreichend feinen Doppelspalt gefallen und hätte auf einer Fläche dahinter ein entsprechendes Interferenzmuster erzeugt. Die konkrete Form des Musters wird sich auch damals schon aufgrund der den Quanten zugeordneten Wellenfunktion ergeben haben — obgleich die damals noch nicht mal dem Begriff nach irgend einem Hirn bekannt war.

    Als Teil der Natur hat sie dennoch schon existiert — es war halt nur niemand da, der sie damals schon hätte hinschreiben können.

    Da mathematische Notation (als Teil erst unserer Methodik, mit mathematischen Gesetzmäßigkeiten umzugehen) damals auch noch nicht existiert hat, scheint mir offensichtlich, dass die Natur andere Wege (Sprachen) kennt, so ein Gesetz, eine Platonische Idee also, festzuhalten.

    Gruß,
    grtgrt
     

      Beitrag 1924-41
    Eigenschaften der platonischen Beschreibung eines "Dings"

     
    Grtgrt aus 1924-40:
     
    Hi Stueps,

    ja: du hast völlig recht, wenn du sagst, es ginge um die das "Ding"  d e f i n i e r e n d e n  Eigenschaften.

    Ganz genau muss man so sagen: Die platonische Beschreibung des "Dings"
    • muss alle dieses "Ding" definierenden Eigenschaften enthalten,
    • muss sie absolut präzise beschreiben
    • und darf von nichts sonst sprechen.

    Gruß, grtgrt
     

    Gebhard,

    was hat das denn mit Platon zu tun? Du definierst exakt, was ein "platonisches Ding" gerade NICHT ist! Die "Idee" laut Platon ist das Urbild (Idee bedeutet unter anderem "Urbild" und genau so ist Platon zu verstehen) des Objektes, das wir sinnlich wahrnehmen. Die Idee ist das Gemeinsame einer Art, einer Klasse von Objekten, das, was sie zu einer Art macht. Es ist ein erkenntnistheoretischer Ansatz, nämlich die Frage, wie wir Objekte erkennen, z. B. ein Pferd als Pferd, einen Baum als Baum, einen Kreis als Kreis. Laut Platon erkennen wir die Objekte, weil wir durch unsere Fähigkeit zur Erkenntnis auf das Urbild eines jeden Objektes zugreifen, wir "schauen" im Objekt das Gemeinsame und eben gerade NICHT den Unterschied. Diese Urbilder, Ideen, sind das, was man unter Universalien versteht. SIE sind das, was "über" oder "hinter" dem Physischen als "Vorlage" existiert, und zwar unveränderlich und ewig. Deshalb ist für Platon die Welt "hinter" der physikalische Welt die "wahre" Welt. Das, was ein physisches Objekt zu einem unterscheidbaren Objekt macht, ist das, was dem "wirklichen" Objekt eben gerade nicht zukommt, die Eigenschaften eines Objektes müssen abstrahiert werden, um auf das eigentliche Objekt zu stoßen, auf das "Wesen" eines Objektes. Und genau damit beginnt für mich der Zweifel an der Richtigkeit dieser Vorstellung, denn was bleibt eigentlich übrig, wenn ich ein Objekt aller physischen Eigenschaften entledige? DAS ist die Frage!

    Viel zu früh, ich werden noch eingehender auf das "Wesen" eingehen, wie gesagt, nächste Woche habe ich Urlaub

    Schönen Abend!
     

      Beitrag 1924-42
    Den Begriff "Platonisches Objekt" besser verstehen

     
     
    Henry aus 1924-41:
     
    Die "Idee" laut Platon ist das Urbild (Idee bedeutet unter anderem "Urbild" und genau so ist Platon zu verstehen) des Objektes, das wir sinnlich wahrnehmen.

    Die Idee ist das Gemeinsame einer Art, einer Klasse von Objekten, das, was sie zu einer Art macht.


    Es ist ein erkenntnistheoretischer Ansatz, nämlich die Frage, wie wir Objekte erkennen, z. B. ein Pferd als Pferd, einen Baum als Baum, einen Kreis als Kreis. Laut Platon erkennen wir die Objekte, weil wir durch unsere Fähigkeit zur Erkenntnis auf das Urbild eines jeden Objektes zugreifen, wir "schauen" im Objekt das Gemeinsame und eben gerade NICHT den Unterschied. Diese Urbilder, Ideen, sind das, was man unter Universalien versteht. SIE sind das, was "über" oder "hinter" dem Physischen als "Vorlage" existiert, und zwar unveränderlich und ewig. Deshalb ist für Platon die Welt "hinter" der physikalische Welt die "wahre" Welt.

    Das, was ein physisches Objekt zu einem unterscheidbaren Objekt macht, ist das, was dem "wirklichen" Objekt eben gerade nicht zukommt, die Eigenschaften eines Objektes müssen abstrahiert werden, um auf das eigentliche Objekt zu stoßen, auf das "Wesen" eines Objektes.

    Hi Henry,

    diesem Teil deiner Aussage stimme ich ohne jede Einschränkung zu. Als Informatiker würde ich das auf den Punkt bringen, indem ich feststelle:


    Die Platonische Idee ist genau das, was all ihren Implementierungen gemeinsam ist.


    Wieso du nun aber sagst

    Henry aus 1924-41:
     
    Du definierst exakt, was ein "platonisches Ding" gerade NICHT ist!

    ist mir absolut schleierhaft. Bitte erkläre mir das genauer (ich warte gerne bis nächste Woche).

    Gruß,
    grtgrt
     

      Beitrag 1924-44
    Nicht jede Idee ist platonisch beschreibbar

     
     
    Henry aus 1924-43:
     
    Zu den "platonischen Objekten", also Ideen oder Urbildern zählen auch z. B. Schönheit, Liebe, Hass.

    Definiere doch mal, was ein Pferd ist, wenn du alle Erfahrungen durch die Sinne beiseite lässt, also das "Urbild" des Pferdes, oder definiere Schönheit, Liebe, Hass usw., und zwar anhand "aller definierenden Eigenschaften, absolut präzise und sonst auf nichts bezogen".

    Hi Henry,

    du hast völlig recht: Auch diese Dinge kann man platonisch oder in konkreten Beispielen sehen.

    Du bringst mich hier aber auf einen wichtigen Punkt:
    • Nicht alle Ideen haben eine platonische Beschreibung (auch wenn viele vielleicht noch annäherend platonisch gedacht werden können).

    Die Platonische Idee ist genau das, was all ihren Implementierungen gemeinsam ist.


    Beste Grüße,
    grtgrt
     

      Beitrag 1924-46
    Mehr zum Begriff der » Platonischen Idee «

     
     
    U...bus aus 1924-45:
     
    Das, was ihr platonische Ideen nennt, sind die Wirkprinzipien der Natur, die sind jedoch der metaphysischen Basis der Natur inhärent, existieren nur als Eigenschaften dieser Basis. Eines der Grundprinzipen, wenn nicht sogar das einzige, ist das Kausalitätsprinzip actio=reactio, es ist eine fundamentale Eigenschaft der Natur.

    Was ihr da mit eurem "nichtstofflich" macht entspricht der Trennung von Körper und Geist der Religionen. Aber es gibt, außer in religiösen Schriften und Teilen der Philosophie, keinen körperlosen Geist, auch wenn von den heute 7 Milliarden Menschen 5 Milliarden das Gegenteil glauben.
     

    Hi U...bus,

    die "platonische" Form einer Idee ist die Form, in der nichts erwähnt wird, was nicht notwendigerweise genannt sein muss, diese Idee inhaltlich zu charakterisieren.

    Betrachten wir z.B. die Idee "Uhr":

    Wer an eine Uhr denkt, kann sich vorstellen:
    • eine Atomuhr,
    • eine Armbanduhr,
    • eine Kirchturmuhr,
    • eine Eieruhr,
    • eine Sonnenuhr,
    • eine pendel-getriebene Standuhr,
    • oder irgend eine andere Form von Uhr.

    All diese Beispiel sind, was ich als je eine spezielle "Implementierung" des Konzepts "Uhr" bezeichne. Jede solche "Implementierung" enthält alles, was eine Uhr ausmacht, enthält aber vor allem noch viele weitere Eigenschaften, die nur dieser einen — sehr speziellen — Uhrenimplementierung zukommen: Eigenschaften, die unwesentlich sind insofern, als sie nichts mit dem eigentlichen Konzept "Uhr" zu tun haben.

    Die einzige platonische Beschreibung des Konzepts "Uhr", die mir einfällt, wäre "ein Gerät, welches geeignet ist, die Länge eines Zeitintervalls zu bestimmen".

    Damit, so denke ich, sollte nun klar sein, dass
    • das Attribut "platonisch" eine Idee auf ihren Kern reduziert (auf ihr "Urbild", wie Henry in Beitrag 1924-43 sagt)
    • und keineswegs jede Platonische Idee ein Wirkprinzip der Natur sein muss (obgleich einige Ideen — wie etwa die Wellenfunktion eines Quantums oder eines Quantensystems — es wirklich sind).

    Nebenbei: Was in einem Kontext lediglich Implementierung eines Konzepts ist ("Armbanduhr" etwa ist Implementierung des Platonischen Konzepts "Uhr") kann in einem anderen Kontext selbst das platonische Konzept sein: "Armbanduhr" etwa ist die Platonische Idee aller am Arm mit sich tragbaren Uhren.

    Gruß, grtgrt
     

      Beitrag 1924-75
    -

     
     
    Henry aus 1924-74:
    Die Ideen entsprechen nur deshalb deiner Vorstellung von mathematischen Gesetzmäßigkeiten, weil DU sie so definierst.

    Nein, Henry, ich definiere da gar nichts. Vielmehr gilt:

    Mathematische Gesetzmäßigkeiten sind "Ideen" im Sinne Platons, da sie all seine Kriterien dafür erfüllen:


    Zitat von Nora Leuschner:
     
    ber das Reich der Ideen kann man sicheres Wissen erlangen, allerdings nur, wenn man die Vernunft benutzt. Die Ideenwelt läßt sich also nur mit dem Verstand, nicht aber mit den Sinnen erkennen. Die Ideen sind ewig, unteilbar und unveränderlich und existieren unabhängig von wahrnehmbaren Dingen.
     

     

      Beitrag 1924-76
    Idee — Formulierung — Implementierung: Das sind 3 Paar Stiefel.

     
     
    Henry aus 1924-74:
     
    Was die 180 Grad angeht, ... deine Behauptung gilt nur in der euklidischen Geometrie und ansonsten nur lokal, denn auf der Erdkugel z. B. ist die Summe der Winkel keineswegs 180 Grad, sondern größer.


    Guten Morgen, Henry,

    wie ich in Beitrag 1924-61 zu erklären versucht habe, ist jede Formulierung einer Idee einer Tüte vergleichbar, in der die Idee transportiert wird. Als Formulierung ist diese Tüte eine Kodierung, die so beschaffen sein muss (aber leider nicht immer ist), dass der Empfänger sie korrekt dekodiert — der Tüte also genau das entnimmt, was der Sender dort reingesteckt hat.

    Dazu allerdings muss der Sender beim Empfänger bestimmtes Vorwissen als gegeben annehmen.

    Im Beispiel der Aussage

    "Die Winkelsumme im Dreieck wird immer 180 Grad betragen."


    geht der Sender der Idee (Nora Leuschner) davon aus, dass der Empfänger (jeder Leser ihrer Charakterisierung von Platons Ideenlehre) wissen wird, dass
    • wir hier von der Default-Geometrie sprechen (für uns die euklidische)
    • und dass ganz grundsätzlich jedes mathematische Gesetz G gelesen werden muss in der Form "A impliziert G" (d.h. in der Form: G oder NOT A), wo A die Menge aller dem Theorem G zugrundeliegenden Definitionen und Axiome ist.
    • Im Beispiel ist das die Menge aller Definitionen, die den Begriff euklidischer Geometrie definiert und zudem noch die Begriffe "Dreieck", "Winkel", "Grad" und "die additive Halbgruppe aller reller Zahlen" (worin sich dann auch das findet, was man unter "180" und als "Summe" bezeichnet).


    Lass uns den zweiten dieser Punkte noch genauer betrachten:

    Jedes mathematische Gesetz G muss man so lesen, als wäre es formuliert in der Form


    w( G(DG) oder NOT A(DA) ) = TRUE ,

    worin
    • w die Funktion ist, die jeder Aussage einen Wahrheitswert TRUE oder FALSE zuordnet, und
    • DA bzw. DG die Menge aller Definitionen ist, die notwendig sind, das Axiom A bzw. das Gesetz G zu formulieren.

    Für das Axiom A selbst — welches ja auch als mathematisches Gesetz gesehen werden muss —, reduziert sich das auf die Aussage


    w( A(DA) oder NOT A(DA) ) = TRUE ,


    und die ist offensichtlich richtig, macht also Sinn.


    Man erkennt hier sehr schön den Unterschied zwischen dem, was wir das mathematische Gesetz G nennen im Unterschied zu einer seiner Formulierungen G(DG).

    Dass ein und dasselbe mathematische Gesetz G extrem unterschiedliche Formulierungen G(DG) haben kann, zeigen sehr schön zwei Theoreme der Mengenlehre, die man

    Man kann beweisen, dass beide zueinander äquivalent sind, so dass man das Paar ( Auswahlaxiom, Zornsches Lemma ) als Paar ( A, G ) ebenso wie als Paar ( G, A ) sehen kann.

    Eine dritte, wieder völlig anders aussehende Formulierung des Auswahlaxioms ist übgrigens der sog. Wohlordnungssatz.


    Beste Grüße,
    grtgrt

    PS: So auf den ersten Blick könnte man versucht sein, das Auswahlaxiom, das Zornsche Lemma und den Wohlordnungssatz als 3 verschiedene Implementierungen ein und derselben "Idee" zu sehen. Das aber wäre falsch: Sie sind ebenfalls "Ideen" im Sinne Platons (und nicht "Dinge" in seinem Sinne).

    Als Formulierung einer "Idee" dürfen sie dennoch nicht mit eben dieser "Idee" verwechselt werden.

     

      Beitrag 1924-50
    -

     
     
    H... aus 1924-48:
    Was ist z.B. "Geist". Und wie verdickt sich Geist und kann sogar gerinnen? Und wie damals, als man versucht hat, Gold herzustellen, bildet sich aus Geist "irgendwie" Materie.

    Hi H...,

    was Hans-Peter Dürr, vormals Leiter des Max-Planck-Institutes für Physik und Astrophysik in München, bei seinem Abschied 1995 da sagte, war natürlich nur ein sprachliches Bild. Es liegt an uns, sich zu überlegen, wie man es über anerkannte physikalische Erkenntnisse interpretiert (in diesem Fall über das Pauli-Prinzip, wie der erste Teil von Beitrag 1924-1 doch eigentlich ganz klar zeigt).


    H... aus 1924-48:
     
    Und noch komplizierter für mich: der physische Teil unserer Welt wird durch nur gedanklich Existierendes geschaffen (klingt fast wie die Abschaffung des kopern. Weltbildes).

    Dieses "nur gedanklich Existierende" ist ganz klar die Wellenfunktion der Moleküle (genauer: etwas uns Unbekanntes, das aber — wie sie auch — Implementierung der Platonischen Idee dieser Wellenfunktion ist).

    Dennoch, ich versteh', wenn du dich lieber mit konkreteren Dingen befassen möchtest.

    Beste Grüße,
    grtgrt
     

      Beitrag 1924-58
    Platon genauer verstehen (1)

     
     
    Hallo Henry,

    diesen Artikel in Wikipedia hatte ich schon auch gelesen. Er scheint mir aber nicht so ganz richtig (soweit das jemand sagen darf, der — wie ich — das Original in Griechisch nicht lesen kann).

    Richtig scheint mir davon auf jeden Fall:

    Zitat von Wikipedia:
     
    Die platonische Idee ist – im Unterschied zum modernen Begriff "Idee" ... – kein Einfall oder Gedanke. Platon geht davon aus, dass die Welt, wie sie vom Menschen sinnlich wahrgenommen wird, einem sinnlicher Wahrnehmung entzogenen, aber realen und eigenständig existierenden Reich der Ideen nachgeordnet ist, welches nur auf geistigem Weg erkannt werden kann.


    Nicht richtig aber scheint mir, was in jenem Zitat an der Stelle mit den 3 Pünktchen steht: dass nämlich Platons Ideen kein mentales Erzeugnis seien. Selbst wenn er selbst das so gesehen haben sollte (was ich nicht ausschließen möchte), wissen wir heute, dass dem NICHT so ist.

    Wie ich schon in 1924-38 sagte: Das Bemerkenswerte an Platon war, dass er als erster unterschieden hat zwischen dem (vollkommenen) Idealbild eines Dings und dem (meist eben keineswegs mehr vollkommenen) Ding selbst.

    In der heutigen Sprache der Informatik bedeutet das: Er hat unterschieden zwischen dem Konzept (dem Typ eines Dings) und dessen Implementierungen, die dann das Ding selbst in verschiedenen Instanzen darstellen.

    Auf jeden Fall gilt:
    • Wer heute vor allem Details seiner Auffassung betont, die sich durch neuere Erkenntnisse überholt haben, ist auf dem falschen Dampfer (wenn er nicht gerade Historiker sein sollte).
    • Wichtig ist zu betonen, was Platon richtig sah, dass das was ganz Wesentliches darstellt (von ihm also eine große Leistung war), und dass es deswegen durchaus angebracht ist, seinen Namen in diesem Zusammenhang weiter zu verwenden.

    Beste Grüße,
    grtgrt
     

      Beitrag 1924-61
    Platon genauer verstehen (2)

     
    Stueps aus 1924-59:
    Grtgrt aus 1924-58:
    Wie ich schon in 1924-38 sagte: Das Bemerkenswerte an Platon war, dass er als erster unterschieden hat zwischen dem (vollkommenen) Idealbild eines Dings und dem (meist eben keineswegs mehr vollkommenen) Ding selbst.


    Hallo Gebhard,

    und hier interveniere ich. Es gibt absolut keinen logischen, oder sonstwie für uns ersichtlichen, ja sogar überprüfbaren Grund, zwischen einem Idealbild eines Dinges und dem Ding selbst zu unterscheiden. Das Ding kann dem Idealbild des Dinges vollkommen entsprechen, ja, muss es sogar:
    Denn nach der Logik wäre eine Nichtvollkommenheit ein Umweg, und zwar ein absolut unnötiger, ja sogar ein nicht erklärbarer! -(Und deshalb nach den Regeln der Logik ein verbotener.)

    Alles andere macht für mich jedenfalls momentan wenig Sinn.

    Vielleicht auf den Punkt gebracht: Ein Kreis entspricht vollkommen der Idee eines Kreises. Alles andere zusätzlich anzunehmen, ist mit Logik nicht vereinbar. Wenn wir keinen perfekten Kreis zeichnen können, oder wenn es ihn in unserer Natur nicht gibt:

    Es wäre jedem gelungen, der es versucht hat. Wenn er nicht gestört worden wäre.

    Hi, Stueps!

    Ich könnte dir soweit zustimmen, du solltest aber nicht vergessen, dass der Grund für Platons Vorstellung war, wie wir zu einer Erkenntnis dessen kommen, was ein Kreis ist. Der Kreis ist deshalb nicht das beste Beispiel, weil ein Kreis halt rund ist, und wir nur bei genauer Betrachtung sehen, dass kein Kreis, den wir entwerfen, tatsächlich vollkommen rund ist (zumal es in der Natur überhaupt kein Kreise gibt). Jetzt könnte man sagen, egal, auch wenn der Kreis nur annähernd rund ist, ist es ein Kreis - aber genau das ist der springende Punkt: Wie können wir erkennen, dass Objekte, die immer nur annähernd gleich sind, zu einer Klasse von Objekten gehören? Woran erkennen wir, das ein Nackthund ebenso ein Hund ist, wie ein Bernhardiner? Das ist eine hochmoderne Frage, weil sie nämlich immer noch nicht eindeutig geklärt ist. Und Platon erklärte sie damit, dass es für jedes Objekt, das wir mit unseren Sinnen erfassen, ein Urbild (eine Idee) gibt, dass uns durch unsere Erkenntnisfähigkeit zugänglich ist. Diese Urbild ist ewig und unvergänglich. Wir kennen quasi das Urbild und nehmen darauf Bezug und können nur auf diese Weise einen Hund der Klasse Hund zuordnen.

    Nachtrag, warum der Kreis ein nicht so gutes Beispiel ist: Es ging Platon in erster Linie um Objekte, die wir mit unseren Sinnen wahrnehmen, wie eben z. B. einen Stein, ein Pferd usw., und nicht in erster Linie um Kreise in mathematischem Sinne.
     

      Beitrag 1924-62
    -

     
    Hi Stueps,

    dem, was Henry in Beitrag 1924-61 sagt, stimme ich voll zu (habe es bisher nur nicht derart treffend ausdrücken können).

    Beste Grüße,
    grtgrt
     

      Beitrag 1924-87
    -

     
     
    Henry aus 1924-86:
     
    Ich empfehle dir, schau dir das "Höhlengleichnis" an, dort wirst du sehen, was Platon meint.

    Hi Henry,

    was ich aus Platons Höhlengleichnis mitnehme, findet sich beschrieben in Beitrag 1942-1.

    Es ist, wie du das bei mir jetzt schon gewohnt sein magst, eine Sicht, die dir vielleicht nicht als authentisch "Platon" erscheinen mag. Wenn dem so sein sollte, dann liegt das daran, dass ich häufig zitierte philosophische Erkenntnisse vor allem deswegen schätze, weil sie im Umfeld JEDES Zeitalters sinnvoll — und mit Erkenntnisgewinn — interpretierbar sind. Ich sehe sie deswegen
    • auf keinen Fall als Denkmale, die man bestaunt (aber nicht berühren darf),
    • sondern als Anregungen, die vor allem dann zu Erkenntnisgewinn führen, wenn man sich traut, sie selbst zu interpretieren im Kontext der Gegenwart und unter Verwendung inzwischen hinzugekommener ähnlicher Einsichten. Jene nämlich sind oft wie starke moderne Lampen, mit denen man den alten Schatz noch mal ganz genau begutachten und so in seiner ganzen Schönheit erst so richtig erkennen kann.

    Beste Grüße,
    grtgrt
     

      Beitrag 1924-64
    Nach welcher Kodierungsregel arbeitet die Natur?

     
     
    H... aus 1924-60:
     
    Zu sagen, dass eine W-Welle geistig ist (ja, was denn sonst, "alien???"), ist trivial. Das steckt kein Inhalt hinter.

    Und: "Geistiges: weder Materie, noch Energie."
    Ja selbstverständlich, das sind Zustände der Materie (resp. Energie).

    Hallo H...,

    dein Standpunkt (soweit er sich im ersten Statement und deinen früheren widerspiegelt) scheint mir widersprüchlich: Einerseits stört es dich, wenn ich Begriffe wie "Geist" und "rein Geistiges" benutze, andererseits sagt du jetzt, das sei ja trivial. Ob man etwas als trivial (= natürlich richtig) oder als nackten Unsinn bezeichnet, ist ein großer Unterschied.

    Das mal vorweg gesagt und nicht weiter betrachtet, lass' mich jetzt bitte erklären, warum ich glaube, dass dein rein mechanistisches Weltbild zu kurz greift:


    Wir müssen uns dazu überlegen, wie sich der Begriff "Information" denn nun eigentlich charakterisiert.

    Dein PC, vor dem du eben jetzt sitzt, hat eine Festplatte. Auf der — so denkst du — sei Information gespeichert. Aber stimmt das wirklich?

    Tatsächlich verhält sich die Sache so:
    • Die Oberfläche deiner Festplatte gliedert sich in Kreisringe, deren jeder sich seinerseits gliedert in kleine Abschnitte, deren jeder als ein kleiner Magnet aufgefasst werden kann, der sich in zwei verschiedenen Richtungen ausrichten lässt: Die eine interpretiert man als 1, die andere interpretiert man als 0.
    • Irgendwann wirst du deine Festplatte wegwerfen. Nimm mal an, du hast sie vorher nicht gelöscht und so etwa 2500 n.Chr. findet sie jemand. Aus irgend einem Grund, so lass uns weiter annehmen, sei sie noch ebenso magnetisiert, wie sie war, als du diese Platte zum letzten Mal beschrieben hattest.
    • Der Finder wird fast sicher noch merken, dass, was er da fand, eine sehr lange Folge von Bits darstellt.
    • Er wird aber mit an Sicherheit grenzender Wahrscheinlichkeit nicht mehr erkennen, welcher Code (sprich: mit welchem Betriebssystem aus ferner Vergangenheit) diese Bitfolge erzeugt wurde. Mit anderen Worten: Die Bitfolge wird für ihn keinerlei Information mehr darstellen, da er ja nicht weiß, nach welcher Regel das Gerät, das sie schrieb, damals Information kodiert hat.

    Konsequenz daraus:

    Eine Darstellung D von Information ist noch lange nicht jene Information selbst.

    Erst wer die zur Herstellung von D genutzte Kodierungsregel R kennt, hat im Paar ( D, R) Information vorliegen.



    Auf unseren Fall angewandt bedeutet das:
    • Die Wellenfunktion ist mit D vergleichbar — wir kennen weder den Mechanismus, der D erstellt, noch die Regel R, die uns sagen würde, was D eigentlich genau kodiert. Nur Beobachtungen lassen uns vermuten, dass es sich hierbei um Wahrscheinlichkeiten handelt, die sagen, wo ein Quantum sich zeigen wird, wenn wir versuchen, es zu beobachten.
    • Die Natur selbst aber kennt mehr als nur D: Sie kennt das Paar ( D, R). Wie sie — als Rechenmaschine — es nutzt, um D stets so anzupassen, dass es zu keinem Zeitpunkt zu einem Widerspruch zwischen der Wellenfunktion einerseits und dem Pauli-Prinzip andererseits kommt, wissen wir nicht.

    Nun: Wie ich in Beitrag 1927-28 schon sagte: Als » Geist « bezeichne ich eben diese, uns noch völlig unbekannte Rechenmaschine.

    Würdest du mir wenigstens dahingehend recht geben, dass sie doch eigentlich existieren müsste?

    Wer sonst würde R kennen? Dein "Zustand der Materie" ist ja schließlich nur D.


    Man könnte jetzt auf die Idee kommen zu sagen: R ist Information und kann somit ebenfalls im "Zustand der Materie" kodiert sein. Das würde aber zur Folge haben, dass auch diese Kodierung einer Regel und einer sie durchführenden Rechenmaschine bedürfte.

    Wie also verträgt sich all das mit deinem Weltbild?


    Gruß,
    grtgrt
     

      Beitrag 1914-23
    Wo Wissen endet beginnt — ganz unvermeidlich — Glaube

     
    Gregor Lämmer aus 1914-21:
    U... aus 1914-12:
    Mein Fazit: Glauben beginnt nicht da, wo Wissen aufhört, sondern da, wo Denken fehlt.
    Tja, das könnte man meinen, aber ich habe dazu eine andere Einstellung:

    Glaube ist zwingend notwendig, wenn das Denken an seine Grenzen gekommen ist, wenn es also erkannt hat, wie begrenzt seine Möglichkeiten sind. Denken führt immer zum Glauben, weil Denken zeigt, dass Wissen begrenzt ist und somit begrenzte Erkenntnis liefert.

    Hallo Gregor,

    das sehe ich grundsätzlich auch so. Es hat nur zur Konsequenz, dass jeder glauben kann, was er will. Und dies führt wiederum zur Forderung von Toleranz gegenüber Glaubensinhalten. Auch ein Atheist glaubt; eben nur in einem negativen Sinn, dass er die Existenz eines höheren Wesens verneint.

    Allerdings ist auch zu akzeptieren, dass jemand nicht an etwas konkret Vorgestelltes glaubt, wie es die Agnostiker tun. Deshalb führt die Erkenntnis der Begrenztheit unserer Erfahrungsmöglichkeiten nicht zwangsläufig zu konkreten Glaubensinhalten.

    Zu welchen auch ?

    MfG
    Harti
     

      Beitrag 1914-28
    Glauben kann man auf vernünftige, aber auch auf unvernünftige Weise

     
     
    U... aus 1914-12:
    Mein Fazit: Glauben beginnt nicht da, wo Wissen aufhört, sondern da, wo Denken fehlt.

    Hi U...,

    was du hier meinst, ist blinder ( unkritischer) Glaube.

    Es gibt auch einen Glauben, den man gezielt entwickelt. Von dem kann man dann sicher NICHT sagen, dass er entsteht, wo Denken fehlt.

    Ansonsten finde ich sehr treffend, was Gregor und Harti in Beitrag 1914-23 sagen. Insbesondere ist Gregors Definition von Glauben die schönste, die ich bisher kenne:


    Glaube ist zwingend notwendig, wenn das Denken an seine Grenzen gekommen ist,

    wenn es also erkannt hat, wie begrenzt seine Möglichkeiten sind.


    Gruß,
    grtgrt
     

      Beitrag 1914-31
    Über unzulässige Verallgemeinerung ...

     
     
    U... aus 1914-30:
     
    Richtig, ich meine religiösen Glauben, weil er blind und unkritisch ist.

    Hi U...,

    ob du mit dieser Aussage recht hast oder nicht, hängt vom Menschen ab, den du betrachtest (oft auch noch von seinem Alter — aber ganz sicher nicht davon, zu welcher Konfession er sich denn nun konkret bekennt).

    Gruß,
    grtgrt
     

      Beitrag 1914-44
    Fehlgeleiteter Glaube

     
    U... aus 1914-41:
    Und nun schau mal, was ich weiter vorn geschrieben habe:

    U... aus 1914-12:
    Mein Fazit: Glauben beginnt nicht da, wo Wissen aufhört, sondern da, wo Denken fehlt.

    Vielen Dank für Deine Zustimmung!


    Wie ich schon sagte: Hiermit stimme ich dir NICHT zu. Ich würde dir aber zustimmen, wenn du sagen würdest:

    Fehlgeleiteter Glaube (eine Form des Irrglaubens) beginnt dort, wo Denken fehlt.


    Gruß,
    grtgrt
     

      Beitrag 1926-1
    Notwendige Bedingung (1) für die Eigenschaft » hat Bewusstsein «

     
     
    Es gibt Leute, die behaupten, der Begriff "Bewusstsein" sei nicht in einem Satz definierbar.

    Diese Meinung teile ich nicht, denn ich sage:

    Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.


    Wer widerspricht (auf Grund welcher Argumente) und hat dann bessere Vorschläge?
     

      Beitrag 1999-2
    Was  i s t  Bewusstein?

     
     
    Grtgrt aus 1926-1:
     
    Es gibt Leute, die behaupten, der Begriff "Bewusstsein" sei nicht in einem Satz definierbar.

    Diese Meinung teile ich nicht, denn ich sage:

    Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.


    Wer widerspricht (auf Grund welcher Argumente) und hat dann bessere Vorschläge?
     


    Recht interessant erscheint mir, wie Görnitz den Begriff definiert. Er sagt:

    Bewusstsein ist Information, die sich selbst kennt und erlebt.



     

      Beitrag 1926-12
    Wenigstens einer, der mir da zustimmt

     
    Grtgrt aus 1926-1:
    Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.

    Richtig. Bewusstsein ist, wenn das Sein sich bewusst ist. Ganz einfach und völlig unkompliziert.
     

      Beitrag 1926-26
    -

     
     
    Henry aus 1926-25:
    Wie teilt uns dein nach dir definiertes Bewusstsein mit, das es bewusst ist?

    Kann ich dir nicht sagen —
    • ich weiß ja noch nicht mal, ob jedes sich selbst bewusste Objekt die Tatsache, dass es sich vom Rest der Welt zu unterscheiden versteht, wem auch immer mitzuteilen wünscht.
    • Auch die naheliegende Frage, ob sich selbst bewusste Objekte notwendigerweise disjunkt sind (was ich nicht glaube), ist so ganz einfach nicht beantwortbar.

    Und eben weil ich auf diese und ähnliche Fragen keine Antwort weiß, würde mich schon interessieren, ob es nicht eine Definition von Bewusstsein gibt, die nützlicher als meine und dennoch nicht nur auf Menschen oder Tiere anwendbar ist.


    Henry aus 1926-25:
    Was ist nun mit meiner Behauptung, dass ein Bewusstsein durchaus völlig auf sich selbst bezogen sein und gar nicht erkennen kann, dass es eine Außenwelt gibt, dass es z. B. die Außenwelt als zu sich selbst gehörig betrachtet?

    Wenn es nicht erkennen kann, dass es eine Außenwelt gibt, dann kann es sie auch nicht als Teil seiner selbst betrachten.
    Es könnte dennoch ganz auf sich selbst bezogen sein (sich also selbst kennen).

    Gruß,
    grtgrt


    PS: Statt zu fragen, wie sich Bewusstsein mitzuteilen in der Lage ist, sollte man besser fragen, wie es gelingen könnte, in einem Objekt X vermutetes Bewusstsein nachzuweisen — wie man das Objekt also zwingen könnte, sein Bewusstsein zu offenbaren.

    Und was, wenn es Fälle gäbe, in denen an X be­obachtetes Verhalten — bestimmte Veränderungen oder Reaktionen etwa — auf Bewusstsein hindeuten, stattdessen aber doch durch eine dritte Instanz verursacht werden: durch eine, die X zu steuern in der Lage ist ohne selbst beobachtbar zu sein?

     

      Beitrag 1926-28
    -

     
    Henry aus 1926-27:
     
    ... das es die Außenwelt nicht als Außenwelt erkennen kann, bedeutet nicht, dass es sie nicht nicht als Teil seiner Selbst betrachten kann, sondern einfach nur, dass es sie - die Außenwelt - nicht als außerhalb erkennt. Für Kinder bis zu einem bestimmten Alter trifft das nach meinem Wissen zu (wer dort mehr weiß, mag mich korrigieren, vielleicht ist die Forschung da auf einem anderen Stand), und für sehr narzisstische Personen kann man ebenfalls behaupten, dass sie die Welt bzw, die Personen / Objekte der Außenwelt nicht als eigenständig erkennen.

    Hallo Henry,

    du vergisst, dass genau solche Fälle nicht unter meine Definition fallen.

    Bewusstsein im Sinne meiner Definition hätten die Kinder, von denen du da sprichst, dann eben NICHT, denn sie könnten sich ja, so deine Annahme, nicht unterscheiden von etwas, das nicht Teil ihrer selbst ist.

    grtgrt

    Nebenbei: Habe oben, ohne zu wissen, dass du schon geantwortet hast, meinen Beitrag noch durch ein Postscript ergänzt. Vielleicht willst du ja was dazu sagen.
     

      Beitrag 1926-66
    Wie kann entschieden werden, ob ein Objekt in der Lage ist, auf Information über sich selbst zu reagieren?

     
     
    Zara.t. aus 1926-65:
     
    Hallo Gerhard,
    wenn du eine Größe nicht messen kannst, hat sie in einer wissenschaftlichen Definition ("Bewußtsein ist....") nichts verloren. Machen wir uns also an die Arbeit und versuchen wir obige Frage zu beantworten oder streichen wir deine Definition von Bewußtsein.

    Hi Zara.t,

    wie würdest du denn Bewusstsein definieren?

    Interessant an meiner Definition ist, dass sie Bewusstsein als Selbstbewusstsein definiert. Das vereinfacht einiges, denn:

    Wer sich einer Sache bewusst ist, reagiert auf Information über jene Sache. Leider aber kann man mit rein physikalischen Begriffen wohl gar nicht unterscheiden, ob ein Objekt O auf die Existenz einer Sache S reagiert oder ob umgekehrt jene Sache auf die Existenz von O reagiert: Denk mal nur an Kräfte K, die S und O zueinander ziehen oder voneinander entfernen wollen. Erzeugen S und O so eine Kraft oder reagiert da ein Feld auf die Existenz von O und S? Wer meine Definition zugrundelegt, braucht von K oder einem K erzeugenden Feld gar nicht zu sprechen, da in meiner Definition stets O = S ist.

    Meine Definition zugrundegelegt hätte man also darüber nachzudenken, wie entschieden werden kann, ob ein gegebenes physikalisches Objekt O auf Information über sich selbst reagiert.

    Gruß, grtgrt
     

      Beitrag 1926-22
    Kann wirklich nur Lebendes Bewusstsein haben?

     
    Gregor Lämmer aus 1926-20:
    Grtgrt aus 1926-1:
    Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.


    Wer widerspricht (auf Grund welcher Argumente) und hat dann bessere Vorschläge?

    Ich widerspreche nicht, sondern ergänze:

    Ein Ding hat Bewusstsein, wenn es lebt und denken kann.

    Hi Gregor,

    wenn diese Ergänzung als Ergänzung der Definition von Bewusstsein gemeint ist, gefällt sie mir nicht, da die Gesamtdefinition sich dann auf 3 Begriffe (statt, wie bei mir, auf nur einen) abstützt. Einer davon wäre » Leben «, und der ist noch schwieriger zu definieren.

    Mein Vorschlag also:

    Betrachten wir deine Ergänzung doch einfach als Theorem. Seinen Beweis kann man angehen, sobald anerkannte Definitionen von » Leben « und » denken « vorliegen.

    Einverstanden?

    Beste Grüße,
    grtgrt
     

      Beitrag 1926-37
    -

     
    Hans-m aus 1926-36:
     
    Bewusstsein ist so ziemlich das einzige, was ihm [Stephen Hawking aufgrund seiner Krankheit geblieben ist.

    Glücklicherweise ist ihm ist viel mehr geblieben:

    Er hat einen scharfen Verstand und kann ihn ganz gezielt in diese oder jene Richtung lenken (und kann so "Welten" durchwandern).

    Ob man beides als notwendigen Bestandteil von Bewusstsein sehen sollte, wage ich zu bezweifeln.

    grtgrt
     

      Beitrag 1926-49
    Ist das Gehirn des Menschen wirklich mehr als nur ein Mechanismus, der Information verarbeitet?

     
     
    Grtgrt aus 1926-45:
     
    Irena aus 1926-44:
     
    ... Unterschied zwischen dem Denken eines Menschen und Informationsverarbeitung einer Maschine?

    Ich fürche, es gibt gar keinen prinzipiellen.

    Unsere heutigen Computer sind lediglich noch wirklich SEHR primitiv im Vergleich zu unserem Gehirn.

    E... aus 1926-47:
     
    Es gibt sogar einen sehr großen prinzipiellen Unterschied.

    Was kann ein Rechner "tun" oder "denken" oder an "Informationen verarbeiten" wenn Du die Software entfernst? Er kann nichts.
    Kein Computer ist in der Lage weder sein Betriebssystem noch die benötigten Programme in Eigenregie herzustellen. Ohne von außen zugeführte Software ist ein Computer nur ein unnützer "Stromvernichter"!

    Und genau das ist es, was Irena gemeint hat mit.... >>Selbstorganisation. (Stichworte: Emergenz, Synergie)<<

    Ein Gehirn "schreibt" sich die Software selbst, entsprechend den genetischen Anlagen und der Lernprozesse. Es entscheidet selbst wie und was es mit erlangten Informationen macht, ob sie verworfen werden oder genutzt.

    Damit ist eine reine "Datenverarbeitungsmaschine" in keinster Weise vergleichbar. Ihr fehlt dazu das jeweils passende Programm.
     


    Hi E...,

    sei gegrüßt. Es freut mich, dass du wieder da bist.

    Dein Argument ist ein sehr interessantes. Dennoch bin ich nicht sicher, ob du da wirklich einen wesentlichen Unterschied entdeckt hast. Denn:
    • Wenn ein PC startet, muss da zunächst tatsächlich (als Firmware) eines erstes, wenn auch nur ganz kurzes Programm vorhanden sein. Man nennt es seinen Urlader.
    • Dieser Urlader geht dann zur Systemplatte und holt dort weiteren Code — aber schon den könnte er im Prinzip selbst generieren (es gibt jede Menge von Software, die andere Software zu generieren in der Lage ist — selbst solche, die dann ihrerseits wieder Software generiert).
    • Um zu sehen, ob der durch dich entdeckte Unterschied also wirklich wesentlich ist, müssen wir uns nur überlegen, ob die Natur nicht auch selbst solche "Urlader" erzeugen kann: Schließlich und endlich sind das ja nur kurze Folgen physikalischer Dinge, deren jedes man (als Ding oder als Zustand, in dem es sich gerade befindet) als 0 oder 1 interpretieren kann.

    Gruß, grtgrt
     

      Beitrag 1926-51
    -

     
     
    E... aus 1926-50:
     
    Dein in der Natur vermutete "Urlader" heist DNA. Dieses Biomolekül trägt den kodierten Bauplan für alles was uns (sowie auch alles andere was lebt) ausmacht. Auch den des Gehirns. Nach der Vollendung aller Baustufen funktioniert es. (so man denn gesund ist).

    Die DNA kann man als Urlader sehen, so lange ein entstehendes Wesen aus noch nicht mehr als nur einer Zelle besteht.

    Genau genommen aber ist die DNA (die sich dann ja auch nur in andere, neu hinzukommende Zellen hinein kopiert) schon ein wirkliches Programm. Als sehr komplexes Molekül aber muss sie ja auch erst mal entstanden sein. Das geschieht einerseits aufgrund der Gesetze der Quantenmechanik, Elementarteilchenphysik und Chemie, andererseits aber auch durch Evolution. Jene ist durch Zufall gesteuert und führt nur in Kombination mit Selektion zu Fortschritt:

    Warum also sollte es nicht möglich sein, dass auch sehr mächtige Computer irgendwann versuchen werden, nützliche Programme über Evolution und sinnvolle Selektion zu finden?

    Letztlich passiert das wenigstens teilweise ja auch im Kopf jeden Programmierers. Es ist ja keineswegs so, dass der neuen Code herunterschreibt wie einen Brief. Wenn ich selbst ein Programm schreibe, ist die erste Version noch nicht mal compilierbar, die erste, die der Compiler dann wirklich akzeptiert, läuft nicht selten auf Fehler. Eine spätere — so eine, die mit wenigstens einem Auftrag auch wirklich zurecht kommt — hat erst wenig Funktionalität. Vieles davon wird noch verworfen und durch durch Neues ersetzt werden, bevor ein Programm vorliegt, das als brauchbar bezeichnet werden kann. Entspricht das nicht genau dem, was Evolution auch ist?

    Gruß grtgrt

    PS: Man sollte nicht vergessen, dass es Computer erst so etwa 70 Jahre lang gibt. Der Weg hin zu menschlicher DNA aber hat deutlich über 1 Milliarde Jahre gedauert.
     

      Beitrag 1929-1
    Denkbare Alternativen

     
     
    Wie Beitrag 1926-12 zeigt, bin ich nicht der einzige, der meine Definition von Bewusstsein als sinnig erachtet. Damit aber kommt die nächste Frage:


    Welche physikalischen Objekte sind in der Lage, sich selbst von anderen zu unterscheiden?


    Geistig gesunde Menschen, davon gehe ich aus, haben solches Bewusstsein.

    Könnte es nun aber sein, dass auch andere physikalische Objekte — solche, von denen man es gar nicht vermuten würden — Bewusstseim im Sinne von Beitrag 1926-1 haben?


    Als Beispiel hier (eine mögliche) Konkretisierung dieser Frage:

    Wo Atome eine chemische Bindung eingehen, überlagern sich ihre Wellenfunktionen, führen zu Interferenz, und führen so zur weit komplexeren molekularen Wellen­funktion. Sie ist eine Wahrscheinlichkeitsfunktion, die zu allen Elementarteilchen, aus denen das Molekül besteht, gleichzeitig gehört — also nicht nur zu einem.

    Die Knotenflächen, die durch die Nullstellen jener Wellenfunktion gebildet werden, partitionieren den Raum in sog. Molekül-Orbitale ( MO). Ebenso wie irgendein Orbital AO eines Atoms nur durch maximal zwei Elektronen besetzt sein kann, kann auch jedes MO nur durch maximal zwei Elektronen besetzt sein. Den stabilsten Zustand des Moleküls herzustellen besetzen Elektronen zunächst die energie-ärmsten MOs und dann Orbitale immer höherer Energie — eben solange bis alle Elektronen der Atome des Moleküls einen Platz gefunden haben. Die zahlichen weiteren MOs bleiben leer (bleiben also virtuelle Orbitale, wie die Chemiker sagen).

    Die Menge aller MOs eines Moleküls kann demnach verglichen werden mit einem großen Hotel, in dem immer nur ein kleiner Teil aller verfügbaren Zimmer belegt ist.
    Ganz offensichtlich wird die "Zimmerbelegung" in diesem "Hotel" gezielt gesteuert.


    Wo aber residiert, ganz oder teilweise, diese steuernde Intelligenz?



    Mindestens 6 Möglichkeiten sind denkbar:
    • (1) Die Elektronen könnten Bewusstsein im Sinne von Beitrag 1926-1 haben.
    • (2) Andererseits aber könnten sie auch vergleichbar sein, mit kleinen Kugeln (mit "Schussern", wie Kinder sie früher so gerne benutzt haben), die auf der Erde dahinrollen um dann schließlich in einer Kuhle, vergleichbar einem MO, liegen zu bleiben, weil eine Kraft — bei Schussern die Gravitationskraft — sie nach dorthin steuert.
    • (3) Schließlich und endlich könnte die Intelligenz aber auch eine Art Verwalter des Hotels sein.
    • (4) Oder gar das Hotel selbst, welches sich gummiartig windet und biegt und so jedem Elektron Wege naheliegt bis ins MO hinein, in dem es schließlich residiert.
    • (5) Nachdem die Architektur des Hotels ebenso wie sein sich gummiartiges Winden durch mathematische Gesetze gesteuert werden, könnte es auch sein, dass nur sie Intelligenz darstellen, die Elementarteilchen selbst aber nicht die Spur eines Bewusstseins haben.
    • (6) Und nicht zuletzt könnte es einen Architekten geben, der sich all das ausgedacht hat und dessen Werk kodiert ist in dem, was wir als mathematische Gesetze sehen. Wer ihn nicht GOTT nenne möchte, könnte ihn als kosmisches Bewusstsein sehen — und steht dann erst recht vor der Frage: Wo genau residiert es denn?

    Da Menschen i.A. die Fähigkeit haben, sich von jedem anderen physikalischen Objekt selbst zu unterscheiden, könnte es zudem noch sein, dass nicht nur eine der eben skizzierten 6 bzw 7 Möglichkeiten zutrifft, sondern gleich mehrere davon (es müssten nicht alle sein).

    Das also sind letzlich die spannenden Fragen, die zu entscheiden hat, wer sich — wie U...bus in Beitrag 1924-14 — frägt, wer denn da nun eigentlich denkt.


    Gebhard Greiter (grtgrt)
    einmal mehr angeregt durch ähnliche Ideen von Lothar Schäfer

     

      Beitrag 1929-19
    Das wichtigste aller Naturgesetze: Es muss Raum bleiben für absoluten Zufall und freien Willen.

     
     
    Stueps aus 1964-28:
     
    Grtgrt aus 1964-21:
    Es scheint mir eher so zu sein, dass
    · das wichtigste aller Naturgesetze darin besteht, die Natur zu veranlassen, eben NICHT alles zu regeln.

    Hallo Gebhard, hier drückst du dich m.E. sehr ungenau aus, was mich zum Raten zwingt, und einer Diskussion nicht unbedingt förderlich ist:

    Welches Naturgesetz soll das sein? Die Heisenbergsche Unschärfe?


    Hallo Stueps,

    mit den Freiraum, auf dessen Existenz ich in Beitrag 1964-21 aufmerksam machen wollte, habe ich kein konkretes Naturgesetz gemeint, sondern vielmehr die Tatsache, dass offenbar die Summe ALLER Naturgesetze gar nicht beabsichtigt wirklich ALLES zu regeln.

    Diese Tatsache also ist es, was ich dann "das wichtigste aller Naturgesetze" genannt habe.

    Die Freiheitsgrade, von denen ich dort spreche (und die ich jetzt — weil sich der Begriff "Freiheitsgrad" als schon belegt herausgestellt hat — als "von den Naturgesetzen gelassenen Freiraum" bezeichne), betreffen dann also schlicht und einfach alles, was durch Zufall oder den "freien Willen" von was auch immer geregelt sein kann.

    Als was solche "freier Wille" sich dann letztendlich herausstellen könnte, weiß ich natürlich auch nicht.

    Beste Grüße,
    grtgrt


    PS: Wo ich mich nach deinem Dafürhalten zu ungenau ausdrücke, ist das keine Absicht, sondern vor allem Folge der Tatsache, dass ich es selber nicht so genau weiß. Schließlich und endlich ist sehr viel von dem, was ich hier schreibe, ja einfach nur lautes Nachdenken (!).

     

      Beitrag 1931-1
    Wie nahe kann scheinbares Leben wirklichem Leben kommen?

     
    An alle:

    Wie sinnvoll erscheinen euch folgende Definitionen:


    Ein physikalisches Objekt heiße » scheinbar lebend «, wenn gilt:
    • Das Objekt ist aktiv (in welchem Sinn auch immer).
    • Wenigstens einige seine Aktivitäten sind spontan (d.h. ohne durch Physiker erkennbare Ursache).
    • Das Objekt reagiert (wenigstens hin und wieder) auf sich ändernden Informationsstand.

    Ein physikalisches Objekt heiße » wirklich lebend «, wenn gilt:

    grtgrt
     

      Beitrag 1931-5
    Gibt es wirkliches Leben, das kein biologisches Leben ist?

     
    Hans-m aus 1931-3:
     
    Auch ein Vulkanausbruch oder ein Erdbeben sind spontan und nicht vorhersehbar.

    Hi Hans-m,

    Vulkanausbruch oder Erdbeben fällt nicht unter meine Definition scheinbaren Lebens, denn beide haben durch Physiker (oder Geologen) erkennbare Ursachen.
    Mit der Welt der Quanten aber hast du recht. Zudem gilt:

    Wirklich JEDES aus Materie bestehende Objekt X ist scheinbar lebend im Sinne von Beitrag 1931-1, denn als Quantensystem betrachtet
    • ist X aktiv (viele seiner Teile — Quanten — springen unermüdlich von einem Zustand in einen anderen),
    • das geschieht sehr oft spontan (d.h. durch nichts verursacht, was Physiker als Ursache ausmachen könnten)
    • und zudem ist der Ort, an dem sich so ein Quantum hin und wieder materialisiert durch Wahrscheinlichkeiten gesteuert, die gegeben sind über die Wellenfunktion des Quantensystems — die aber ändert sich, wo sich der Informationsstand über den Quanten mögliche Aufenthaltsorte ändert (was ja in extrem minimalem Ausmaß auch schon immer dann passiert, wenn das Quantensystem sich umkonfiguriert durch einen darin stattfindenden Quantensprung).

    Mein Ziel ist, den Begriff » scheinbar lebend « so zu definieren, dass er NICHT wirkliches Leben impliziert, dem aber so nahe wie nur irgend möglich kommt.

    Biologisches Leben scheint mir (meistens jedenfalls) auch wirkliches Leben zu sein.
    Die spannende Frage aber wäre:

    Gibt es wirkliches Leben, das kein biologisches Leben ist?


    Gruß, grtgrt
     

      Beitrag 1931-7
    -

     
    U... aus 1931-6:
     
    Meinst Du das?

    Nein, U..., das war mir nicht bekannt.

    Bislang schwebt mir auch keine konkrete Möglichkeit vor — dennoch würde mich interessieren, ob es eine gibt.

    Am ehesten könnte es, wie ich denke, so sein, dass man eine exakte Grenze zwischen Leben und Nicht-Leben wohl gar nicht ziehen kann.

    grtgrt
     

      Beitrag 1933-15
    Vergangenheit und Zukunft sind keineswegs nur Illusion

     
     
    An alle:

    Hinter dem ersten Link, auf den Horst uns aufmerksam macht, wird z.B. berichtet, Einstein habe 4 Wochen vor seinem Tod gesagt:

    Zitat von Einstein:
     
    Für uns gläubige Physiker hat die Scheidung zwischen Vergangenheit, Gegenwart und Zukunft nur die Bedeutung einer wenn auch hartnäckigen Illusion.

    Meine Meinung:

    Es gibt sicher keinen Physiker, der mehr geleistet hätte als Einstein (auch wenn ihm einige, was Leistung betrifft, durchaus nahe kommen).

    Dennoch sollte man auch seine Aussagen nicht alle unbesehen glauben. Die eben genannte ist eine, mit der er wohl NICHT recht hat.


    Nach meinem Urteil spricht viel dafür, dass Vergangenheit und Zukunft nicht einfach nur Illusion sind, und das begründe ich so:
    • Es gibt nur einen Weg in die Vergangenheit, und auch den kann man nur gedanklich gehen.
    • Für jeden von uns aber gibt es sehr viele Wege in die Zukunft. Wir wählen einen (oder bekommen von anderen einen aufgezwungen), den aber gehen wir keineswegs nur gedanklich: Wir gehen ihn in aller Realität.

    grtgrt
     

      Beitrag 1933-16
    Warum die Zeit in der Physik ein unentbehrliches Konzept darstellt

     
     
    Gregor Lämmer aus 1933-1:
    wasistzeit.de fragt nach dem Charakter der Zeit.

    Es ist aber auch interessant, zu fragen, warum es Zeit gibt.


    Hi Gregor,

    Einen Grund dafür, dass die Physik ohne den Begriff "Zeit" wohl gar nicht auskommen kann, sehe ich darin, dass die Zeit — der Zeitgraph also (siehe meine Theorie vom Zeitgraphen) — in nur EINER Richtung durchlaufen werden kann: hinein in die Zukunft.

    Das ist so, da ihn rückwärts zu durchlaufen bedeuten würde, Elementarereignisse in eindeutig definierter Reihenfolge, deterministisch also, rückgängig zu machen.

    Auf Quantenebene aber funktioniert rein gar nichts deterministisch.


    Gruß, grtgrt
     

      Beitrag 1933-18
    Warum ich nicht an ein » Blockuniversum « glaube

     
     
    Hi Henry,

    danke für den Hinweis auf den Begriff » Blockuniversum « (ein Stichwort, das ich noch nicht kannte).

    Dennoch ändert auch die Tatsache, dass Einstein sich schließlich zum Inhalt dieses Begriffs bekannte, nichts an meinem Urteil.


    Wenn ich recht habe (was wir natürlich nicht wissen), würde daraus automatisch folgen, dass auch die SCHEIDUNG zwischen Vergangenheit und Zukunft keine Illusion sein kann: Das einfach deswegen, weil dann ja ein Weg zurück in die Vergangenheit ganz andere Qualität hätte als ein Weg nach vorne in die Zukunft.

    Auf jeden Fall gilt: Wer an das "Blockuniversum" glaubt — daran also, dass unsere Zukunft schon ebenso real existiert wie unsere Vergangenheit — käme zwangsläufig zum Schluss, dass der Mensch, auf seinem Weg hinein in die Zukunft KEINEN freien Willen hat. Das zu glauben, lehne ich ab.


    Ich glaube, dass die Gegenwart ein 3-dimensionaler Teilraum der 4-dimensionalen Raumzeit ist,
    der sich durch sie hindurch in Richtung Zukunft bewegt wie die Grenzlinie des Schattens eines Baumes,
    der (sozusagen als "Vergangenheit") immer größer wird, wenn die Sonne hinter dem Baum zu versinken beginnt.


    Natürlich ist dieser "die Gegenwart" genannte 3-dimensionale, sich bewegende Teilraum nicht glatt und durch einen einzigen Zeitwert gegeben (schließlich und endlich ist ja auch die 4-dimensionale Raumzeit KEIN 4-dimensionaler Vektorraum, sondern nur eine 4-dimensionale differenzierbare Mannigfaltigkeit).


    Beste Grüße,
    grtgrt

    PS: Aus welcher (Online-) Quelle stammt dein Wissen übers Blockuniversum? Ist es diese (oder gibt es da noch bessere)?
     

      Beitrag 1968-24
    Existenz an sich existiert nicht — ihre Qualität mit zu betrachten, ist unabdingbar!

     
     
    Hotte aus 1968-14:
     
    Sobald ich philosopisch über ein Nichts nachdenke, mache ich es sofort zu ETWAS.

    Hallo Hotte,

    du übersiehst hier etwas ganz Wesentliches:
      Existenz an sich gibt es gar nicht — es gibt stets nur Existenz in bestimmter Qualität.

    Auf dein Beispiel angewandt bedeutet das:
      Sobald du philosophisch über ein Nichts nachdenkst, machst du es existent: Aber eben leider nur gedanklich (als Idee). Physisch existiert es deswegen noch lange nicht.

    Wie wichtig es ist, diesen Unterschied stets präsent zu halten, geht schon allein daraus hervor, dass es Dinge gibt, die ganz grundsätzlich NUR gedanklich existieren können. Beispiele wären:
      ein Gegenstand, der sich mit Überlichtgeschwindigkeit bewegt
      oder ein exakt kreisförmiger physisch existierender Gegenstand (schon Heisenbergs Unschärfe-Relation schließt aus, dass es ihn geben kann).

    Gruß, grtgrt
     

      Beitrag 1968-28
    Platon richtig verstehen

     
     
    Henry aus 1968-26:
    Gebhard, du kennst deinen Plato nicht - das einzig Reale ist die Idee (das ''Sein an sich") ...

    Hi Henry,

    Wo ich Ideen platonisch nenne, will ich damit betonen, dass ich — wie Platon — auch den Ideen selbst Existenz zubillige (sie existieren gedanklich und dürfen als Gedanke nicht verwechselt werden mit einer ihrer Implementierungen).

    Solltest du Platon so verstehen, dass er jenen Implementierungen selbst keine Existenz zubilligt, so bin ich überzeugt, dass du ihn da falsch verstehst. Und das einfach deswegen, da jeder, der eine Implentierung X einer platonischen Idee Y nicht mit jener Idee verwechselt (sondern sie als Implementierung jener Idee sieht), sie — jenes X also — ja selbst auch wieder zu einer Idee macht: eben zur Idee "Implementierung von Y".

    Kurz: Wer glaubt, dass Platon behaupten wollte, den anfassbaren Dingen — z.B. einem Pferd, auf dem man gerade sitzt — würde keine Existenz zukommen, der versteht ihn falsch.

    Platons Anliegen war, darauf hinzuweisen, dass man oft in Gefahr ist, die Qualität, in der ein Ding X existiert, falsch zu beurteilen: Was eine ganz spezifische Ausprägung einer Idee Y ist, darf eben nicht mit jener Idee Y selbst verwechselt werden.

    Beste Grüße,
    grtgrt


    PS: Den Begriff "Ausprägung" verwende ich hier nur widerstrebend. Er kann hier missverstanden werden. Eben deswegen gibt es heute den genaueren Begriff "Implementierung", aber den kannte Platon ja nicht. Er hätte eher von "Abbild" gesprochen.

    Platon will einfach nur sagen: Der Schatten einer Ziege an der Höhlenwand existiert als Schatten, als Ziege aber existiert er nicht.
    Allgemeiner:

    Um zu sehen, als was ein Ding existiert, muss man es seinem Wesen nach betrachten, nicht aber wie es sich uns zeigt.

    Der Schatten einer Ziege etwa existiert nicht als Ziege (denn Ziege zu sein ist nicht seine wahre Natur).




     

      Beitrag 1968-31
    -

     
     
    Henry aus 1968-30:
     
    Ich habe Platon schon soweit richtig verstanden, dass er die (physikalische) Realität anerkennt, aber sie ist für ihn eine "nachgeordnete" Realität (siehe sein Höhlengleichnis, wir hatten das aber schon).

    Ich habe aber ausgedrückt, dass ich nicht an Platons Ideen glaube.


    Hallo Henry,

    zu sagen, dass Platon die  p h y s i k a l i s c h e  Realität als nachgeordnet sieht, scheint mir so nicht richtig.

    Er sieht die  w a h r g e n o m m e n e  Version der Welt als nachgeordnet: das also, was zu flüchtiges Hinsehen uns als Wirklichkeit nahelegt.

    Auf Seite http://platon-heute.de/ideenlehre.html wird das in folgenden Worten erklärt (womit sich die von ihm als nachgeordnet gesehene Version der Welt dann auch als die der Schattenbilder herausstellt – denk an sein Gleichnis):


    Zitat:
     
    Die Gegenstände der Erfahrung sind durch stetige Veränderung und Wandel geprägt. Noch während von einer Erfahrungsvorstellung gesprochen wird, verschwindet sie und weicht einer anderen. Die in der Wahrnehmung erscheinenden veränderlichen Dinge besitzen also keine wahre, dauerhafte Realität.

    Die Gattungsbegriffe, Formen und Ideen, durch die wir das wahrgenommene Einzelseiende überhaupt erst denken können, sind dagegen nicht der Veränderung unterworfen. Diese sind also das wahrhaft Seiende.


    Dass Schema- und Instanzenebene durch ihn nicht klar auseinander gehalten sind, ist sicher richtig. Andererseits gilt aber auch:

    Die Ideenlehre Platons bleibt immer ein Rekonstruktionsversuch, da es im Werk Platons keine Hauptstelle gibt, in der er die Ideen/Formen behandelt. In den Dialogen werden sie meistens "wie alte Bekannte begrüßt", die man weder einführen muss noch abweisen kann (Dorothea Frede, Platons "Phaidon". Der Traum von der Unsterblichkeit der Seele, Darmstadt 1999, S. 22).

    Ich jedenfalls bin sicher:

    Unter der "Idee" eines Dings versteht Platon, was das Ding seiner wahren Natur nach ist.


     

      Beitrag 1968-37
    -

     
     
    Henry aus 1968-32:
     
    Die berechtigte Frage ist nun, was denn wohl bleibt, wenn man von einem Objekt alles an Eigenschaften abstrahiert?

    Hi Henry,

    Abstraktion bedeutet keineswegs, von allen Eigenschaften eines Objekts zu abstrahieren.

    Abstraktion bedeutet, alle Details zu ignorieren, in denen sich Objekte ein und derselben Klasse (= "Idee") unterscheiden können.

    Zudem gilt: Da jedes Objekt Repräsentant von mehr als nur einer Klasse sein kann, ist Abstraktion stets klassenspezifisch zu verstehen (und vorzunehmen).

    Gruß, grtgrt
     

      Beitrag 1968-39
    -

     
     
    Henry aus 1968-38:
    Jedes Objekt ist Repräsentant einer Klasse? Sogar mehr als einer Klasse? jede Klasse ist Repräsentant von einer Oberklasse? Mehr als einer Oberklasse? Und die Oberklassen? Ober-ober-Klassen?

    Hi Henry,

    diese Fragen habe sehr einfache Antworten — Platon wird man über sie aber nicht besser verstehen (er hat ja garantiert niemals was von objektorientierter Program­mierung gehört). Seine Auffassung scheint mir heute wirklich nicht mehr genauer festzunageln als durch die Feststellung:


    Unter der "Idee" eines Dings versteht Platon, was das Ding seiner wahren Natur nach ist.


    Alles andere wäre reine Vermutung.

    Gruß, grtgrt
     

      Beitrag 1968-41
    -

     
     
    Henry aus 1968-40:
     
    ... Nur deshalb (wieder laut Platon) können wir ein Pferd als Pferd erkennen, wegen der "Idee des Pferdes", die eben NICHT das individuelle Pferd meint, sondern eben sein "ewiges Urbild". Wenn man das verstanden hat, muss man Platon tatsächlich nicht besser verstehen (zumindest in dieser Hinsicht).

    Hi Henry,

    bitte stelle dir mal 3 Personen A, B, C vor und nimm an, dass A dem C erklärt, was ein Pferd ist, und dass weiter kurz danach B mit C über das Pferd des A spricht (über ein konkretes Pferd also).

    Im ersten Fall ist Platons "Idee" die Idee "Pferd", im zweiten Fall aber ist sie das keineswegs. Im zweiten Fall nämlich ist jene "Idee" "das Pferd des A", das seinem "Wesen" nach zwar auch ein Pferd ist, aber über jene zu allgemeine "Idee" eben NICHT richtig charakterisiert wäre.

    Platon hat nicht umsonst seine Ideenlehre durch ein Beispiel erläutert. Wir sollten es ernst nehmen (und das umso mehr, als es die konkreteste von Platon selbst noch stammende Umschreibung seiner Ideenlehre darzustellen scheint). Was er uns sagt ist:


    Geh erst von der Instanz zur "Idee" (dem "Wesen" der Instanz), aber geh zur RICHTIGEN "Idee" (sprich: der wirklich gemeinten bzw. wirklich gegebenen).


    Gruß, grtgrt

    PS: Als Informatiker denke ich zu sehen: Platons Ideenlehre steht für das, was wir heute "Abstraktion" nennen — es geht darum, von den jeweils unwesentlichen Details zu abstrahieren. Was nun aber im konkreten Fall "unwesentlich" ist, hängt davon ab, welches "Wesen" man durch Abstraktion klar machen möchte.

    Vielleicht sind ja die meisten Philosophen noch zu wenig Informatiker, um das zu begreifen: Ich sehe die Disziplin "Philosophie" als eine erste Form der Informatik. Ein Steinmetz von heute arbeitet mit Werkzeugen von heute, also nicht mit Werkzeugen aus der Steinzeit. Philosophen sollten deswegen auch modernes Denkwerkzeug benutzen! Es irritiert mich, dass sie es zu wenig tun.

     

      Beitrag 1968-43
    -

     
     
    Henry aus 1968-42:
     
    es geht im Sinne Platons NICHT darum, "welches Wesen man durch Abstraktion klar machen möchte", sondern nur durch Abstraktion kommt man zu eigentlichen Wesen des Objektes.

    Hi Henry,

    du übersiehst dabei völlig, dass kein Objekt nur EIN Wesen hat.

    Platons Höhlengleichnis zeigt sehr schön, dass es stets darauf ankommt, das in Abhängigkeit von der jeweiligen Situation RICHTIGE (= am ehesten bedeutsame) Wesen des Objekts zu erkennen. Wenn B mit C vom Pferd des A spricht, will er ihm eben NICHT erklären, was ein Pferd ist. Er will ihm vielmehr erklären, in welch bedeutsamen Eigenschaften sich das Pferd des A von anderen Pferden unterscheidet.

    Kurz: B muss Eigenschaften adressieren, die das Pferd von A zum Pferd von A machen (sprich: es von Pferden anderer unterscheiden).

    Das ist völlig analog zu einer Situation, in der du Pferde von anderen Lebewesen unterscheiden möchtest. Da kannst dann auch nicht einfach sagen, die relevante "Idee" sei "Lebewesen", da ja jedes Pferd ein Lebewesen ist.

    Gruß, grtgrt
     

      Beitrag 1968-48
    -

     
    Grtgrt aus 1968-43:
     
    Henry aus 1968-42:
     
    es geht im Sinne Platons NICHT darum, "welches Wesen man durch Abstraktion klar machen möchte", sondern nur durch Abstraktion kommt man zu eigentlichen Wesen des Objektes.

    Hi Henry,

    du übersiehst dabei völlig, dass kein Objekt nur EIN Wesen hat.

    Platons Höhlengleichnis zeigt sehr schön, dass es stets darauf ankommt, das in Abhängigkeit von der jeweiligen Situation RICHTIGE (= am ehesten bedeutsame) Wesen des Objekts zu erkennen. Wenn B mit C vom Pferd des A spricht, will er ihm eben NICHT erklären, was ein Pferd ist. Er will ihm vielmehr erklären, in welch bedeutsamen Eigenschaften sich das Pferd des A von anderen Pferden unterscheidet.

    Kurz: B muss Eigenschaften adressieren, die das Pferd von A zum Pferd von A machen (sprich: es von Pferden anderer unterscheiden).

    Das ist völlig analog zu einer Situation, in der du Pferde von anderen Lebewesen unterscheiden möchtest. Da kannst dann auch nicht einfach sagen, die relevante "Idee" sei "Lebewesen", da ja jedes Pferd ein Lebewesen ist.

    Gruß, grtgrt
     

    HI, Gebhard!

    Ich denke, ich schließe meine Beiträge mit Folgendem ab. Da es immer noch um das Verständnis PLATONS Ideen geht: Es gibt nach Platon nicht verschiedene Wesen eines Objektes, das ist völlig an seiner Lehre vorbei. Es gibt nur DAS EINE WESEN DES PFERDES, an dem jedes individuelle Pferd Anteil hat (um bei unserem Beispiel zu bleiben).

    Du verwechselst den erkenntnistheoretischen Aspekt - das, was wir an einem Objekt durch Wahrnehmung und innere Verarbeitung erkennen können und wie und warum wir es als individuelles Objekt erkennen - mit dem ontologischen Aspekt, das, was das Objekt seinem Wesen nach ist. Noch mal auf deine Beispiele bezogen: Wenn B von A´s Pferd spricht, kann er nur deshalb über dieses individuelle Pferd sprechen, weil dieses konkrete Pferd sich durch bestimmte Eigenschaften von allen anderen Pferden unterscheidet. Um aber an das Wesen des Pferdes zu kommen, müssen sämtliche Eigenschaften abstrahiert werde, die es eben von anderen Pferden unterscheidet. Das Wesen "des Pferdes" ist sein Urbild, seine "Idee", und die hat jedes konkrete Pferd mit allen anderen konkreten Pferden gemeinsam, dass ist das, was die Pferde nicht mehr unterscheidet. (Deshalb meine Frage, was denn übrig bleibt, wenn alle Eigenschaften abstrahiert werden?)

    Und genau auf das oben Erläuterte bezieht sich Platons Höhlengleichnis. Der Weg des Weisen aus der Höhle heraus führt ihn weg von den Schatten (das sinnlich wahrgenommene) zur Sonne (das Wesen der Objekte).
     

      Beitrag 1968-49
    -

     
     
    Zitat von E... Bloch (1885-1977):
     
    Alles Gescheite mag schon sieben mal gedacht worden sein. Aber wenn es wieder gedacht wurde, in anderer Zeit und Lage, war es nicht mehr dasselbe. Nicht nur sein Denker, sondern vor allem auch das zu Bedenkende hat sich unterdes geändert.
     
     

     Beitrag 0-201
    Zeilingers Kritik an Wittgenstein ist unberechtigt

     
     

     
    Zeilingers Kritik an Wittgenstein ist unberechtigt

     
     
    Gleich die ersten drei Aussagen von Wittgensteins Tractatus Logico-Philosophicus lauten:

       
      1   Die Welt ist alles, was der Fall ist.
       
      1.1   Die Welt ist die Gesamtheit der Tatsachen, nicht der Dinge.
       
      1.1.1   Die Welt ist durch die Tatsachen bestimmt und dadurch, dass es alle Tatsachen sind.

     
     
    Ganz offensichtlich entspricht das der Gesamtaussage
     
     
    Die Welt ist alles, was Tatsache ist.

     
     
    In dieser Formulierung scheint mir Wittgensteins Aussage treffender, konkreter und weniger missverständlich als Zeilingers Aussage "Die Welt ist alles, was der Fall ist, und auch alles, was der Fall sein kann."
     
     
    Beweis: Wer sagt, die Welt sei alles, was Tatsache ist, macht klar, dass das, was der Fall sein kann – aber nicht der Fall ist – nur in der Rolle einer  M ö g l i c h k e i t  Teil der Welt ist: Nicht das Mögliche selbst, sondern erst die Tatsache, dass es möglich ist, ist Teil der Welt.
     
    Zeilinger scheint das übersehen zu haben, als er dafür plädiert hat, Wittgensteins Aussage » Die Welt ist alles, was der Fall ist « zu ersetzen durch » Die Welt ist alles, was der Fall ist, und auch alles, was der Fall sein kann «.

     
     
    Siehe auch:
     

     
     
    Über Zeilingers Feststellung

    » Wirklichkeit und Information sind dasselbe «

     
     
    Wenn Zeilinger das Wort » Wirklichkeit « benutzt, denkt er wohl an den Durchschnitt von Realität und Wirklichkeit: an das also, was die Wirklichkeit uns über sich selbst mitteilt. Dieser Teil der Wirklichkeit ist aber tatsächlich einfach nur Information, denn er besteht einzig und allein aus den Antworten JA oder NEIN, welche die Natur uns auf quantenphysikalische Messfragen gibt.
     
    Leider scheint der wichtige Unterschied zwischen Realität und Wirklichkeit den meisten Physikern — vielleicht auch Zeilinger — nur selten präsent zu sein. Warum sonst sprechen sie in ihren Research Papers immer nur von "Reality", aber eigentlich nie von "Actuality"? [ https://arxiv.org/pdf/1502.05311.pdf ]

     

     Beitrag 0-202
    Verständliche Philosophie muss nicht Populärphilosophie sein

     
     

     
    Warum verständlich formulierte Philosophie

    nicht mit Populärphilosophie verwechselt werden darf

     
     
    In der Philosophie-Zeitschrift HOHE LUFT findet sich ein interessante Diskussion zwischen Peter Trawny und Thomas Vašek. Sie beginnt mit Trawnys Artikel » Die Philosophie muss ihre Popularisierung reflektieren « und endet mit Vašeks letzter Replik » Der Markt soll Verantwortung für die Philosophie übernehmen «.
     
    Wie mir scheint, wird in diesem ganzen Diskurs implizit davon ausgegangen, dass verständlich formulierte Philosophie Populärphilosophie sein müsse — eine Form der Philophie also, die Kompromisse machen muss, wenn sie überleben möchte.
     
    Solche Gleichsetzung aber erscheint mir fatal, denn:

       
    • Etwas in populärer Form darzustellen behinhaltet fast immer Vergröberung (oft bis hin zur Unkenntlichkeit): Etwas "populär" zu formulieren, bedeutet, es gezielt so zu formulieren, dass es bereitwillig aufgenommen (bzw. vermarktbar) wird.
       
    • Verständlich formulierte Philosophie aber will und darf keine Kompromisse machen nur um populär zu sein. Im Gegen­teil: Sie bemüht sich um möglichst deutliche, verständliche Formulierung, damit die Einsicht dessen, der sie fand, nicht reduziert werde (teilweise verloren geht) auf dem Weg hin zu seinen Zuhörern.

     
     
    Nebenbei noch: Sicher ist richtig, dass nicht alle gute Philosophie auf Anhieb für alle verständlich sein kann.
     
    Mit der Philosophie - da bin auch ich sicher - ist es wie mit jeder anderen Wissenschaft auch: Es gibt stets große Teile der Argumentation (und auch der Ergebnisse), die man nur als Fachmann wirklich verstehen kann.
     
    Dennoch wird stets ein kleiner Teil so mitteilbar sein, dass auch mit dieser Wissenschaft nicht vertraute Denker ihn verstehen. Es muss Ziel der Wissen­schaftler sein, daran zu arbeiten, diesen Teil möglichst groß zu machen.
     
     
    Das das gelingen kann zeigt
    • einerseits das Beispiel der Theoretischen Physik: Erst nachdem Steven Hawking mit seinem Buch "Eine kleine Geschichte der Zeit" den Anfang gemacht (sozusagen das Eis gebrochen hat), begannen auch andere theoretische Physiker ähnliche Bücher zu schreiben. Vorher gab es, so weit ich sehen kann, gar keine allgemein verständlich dargestellten Teile der theoretischen Physik (höchstens kurze Berichte über spektakuläre, durch die Experimentalphysik oder die Astronomie schon bestätigte Ergebnisse).
       
    • zum anderen aber schreibt Trawny ja selbst, dass "es inzwischen viele Philosophinnen und Philosophen gibt, die sich auf die Befriedigung des philosophischen Bedürfnisses der Menschen verstehen. Sie haben die Fähigkeit, klare Fragen zu stellen und diese auch klar zu beantworten. Das unterscheidet sie von den alten, klassischen Philosophen, die sich scheinbar vorgenommen haben, ganz und gar dunkel zu schreiben. Während diese ältesten Denker dem Ideal der Klarheit nicht genügen, haben die aktuellen Philosophinnen und Philosophen die lang vermisste Fähigkeit zur Verständlichkeit entwickelt. Keine Frage, dass diese Erscheinung zu begrüßen ist". (zitiert aus [1]).

     
    Wenn Verständlichkeit aber gelingen kann, dann muss man sie doch auch anstreben!
    Solchem Bestreben  s i n d  Grenzen gesetzt – bisher aber werden sie selten erreicht (Kants Schriften sind gutes Beispiel hierfür).
     
     
    Man lese auch:

     

     Beitrag 0-518
    Wo Markus Gabriels Philosophie sich zu » Kindergartenphilosophie « macht

     
     

     
    Zur Güte von Markus Gabriels erkenntnistheoretischer Argumentation

     
    Wer daran interessiert ist, sich selbst ein Urteil darüber zu bilden, welcher Wert Gabriels prominentestem Forschungsergebnis "Neuer Realismus und die Existenz der Welt" denn eigentlich zukommt, dem schlage ich vor, ausgehend von folgenden beiden Seiten zu lesen:
     
    Insbesondere Rey — selbst der Philosophie kundig — bringt es gut auf den Punkt im Fazit seiner Analyse:
     
      Markus Gabriel kann schreiben und argumentieren. Bloss vereinfacht er vieles, verwendet unklare Begriffe, ignoriert Widersprüche, verwendet rhetorische Kniffs, weshalb seine Gedanken auf den ersten Blick überzeugend klingen mögen — es aber bei genauerem Hinsehen nicht sind. Folgt man seinen Ausführungen kritisch, wird schnell klar, dass es die Welt eben doch geben muss — zumindest die Aussenwelt, welche von Gabriels Hauptargument gar nicht berührt wird und um die es implizit im Titel seines Buches auch zu gehen scheint.

    Ich, Gebhard Greiter — Mathematiker und Informatiker — sehe das exakt ebenso.
     
    Der renommierte Philosoph Peter Strasser aus Österreich fällt ein noch weit entschiedeneres Urteil in gleicher Richtung.
     
    |
     
    Was mich nachdenklich macht: Seitens deutscher Hochschullehrer für Philosophie ist mir bis zum heutigen Tag (Dez 2020) keine einzige Stellungnahme bekannt geworden, die Gabriels recht fragwürdiges, aber dennoch mit großer Entschiedenheit zur Selbstvermarktung genutztes Denkergebnis auch nur ansatzweise kritisch beleuchten würde. Und so frage ich mich:
     
    Sind all seine deutschen Kollegen stumm geworden? Warum? Fehlt es ihnen an wissenschaftlichem Verantwortungsgefühl, Zivilcourage oder gar an Kompetenz?
     
    |
     
    Wenn ich mich daran erinnere, wie Karl Jaspers die besondere Qualität philosophischen Denkens charakterisiert hat, fällt mir auf:
     
     
     
    Gabriels Philosophie verliert schnell an Wert, wo er denkt,
     
    beweisen zu können, was nicht mehr beweisbar ist.
     
    Ab da wird sie zu » Kindergartenphilosophie « und ist dann nicht mehr ernst zu nehmen.


     

      Beitrag 1376-21
    Identität eines physikalischen Objekts

     
     
    Hi Stueps,

    du hast natürlich völlig recht, wenn du sagst, ein Objekt trage keine Energie sondern sei Energie.

    Andererseits aber lässt sich ja wohl nicht leugnen, dass ich von einem Objekt erst dann sprechen kann, wenn die Energieportion, aus der es besteht, in einer Form vorliegt, die diesem Objekt einen Typ gibt (und die es irgendwie unterscheidbar macht im Meer aller Energie unseres Universums).

    Wir kommen hier wieder auf die schon einmal diskutierte Frage, was genau (bzw. wie konkret genau) ein Objekt denn eigentlich sein muss, um als physikalisches Objekt bezeichnet werden zu können. Reicht eine konzeptuelle Abgrenzung, oder muss das Objekt sich in wirklich beobachtbarer Weise von seiner Umgebung abgrenzen? Wenn jene Abgrenzung aber wahrnehmbar ist, könnte man es dann nicht wirklich auch als Energieträger sehen? In dem Sinne also war meine sprachliche Wendung des "Tragens" von Energie gemeint.

    Wie du ferner schon sagst: Energie altert nicht. Und wie der Energieerhaltungssatz uns lehrt, verbraucht sie sich auch nicht — sie kann sich höchstens umverteilen oder sich in unterschiedlicher Form zeigen.

    Damit ist klar: Als Energie betrachtet, kann ein physikalisches Objekt (z.B. ein Mensch) auf keinen Fall altern. Altern — und sich mehr oder weniger plötzlich verändern — kann nur die Form, in der sich das Objekt beobachtbar macht, und die dazu führt, dass es sich von anderen physikalischen Objekten abgrenzt und so für uns überhaupt erst zu einem wohldefinierten Objekt wird.

    Klar ist auch: Solche Alterung kann nur dann in vielen kleinen Schritten erfolgen, wenn das Objekt kein atomares ist (also kein Elementarteilchen).

    Würdest du mir da zustimmen?

    Beste Grüße,
    grtgrt
     

      Beitrag 1701-16
    Physikalische Objekte: Wie Okotombrok sie versteht.

     
    Hallo Grtgrt,

    Grtgrt aus 1701-15:
     
    Licht ist ein physikalisches Objekt (und als solches unser Modell für einen Teil der Natur).

    Mehr dazu auf Seite Zum Wesen physikalischer Aussagen.
     

    auf deiner oben genannten Homepage schreibst du:
    Zitat:
    Physikalische Objekte sind nichts anderes als gedankliche Modelle, . . .
    So weit kann ich nicht mitgehen. Mit physikalischen Objekten meint man direkt beobachtbare Dinge.
    Tauscht man aber den Begriff "physikalisches Objekt" gegen den Begriff "physikalische Größe" aus, so kann ich nur zustimmen.

    Weiter:
    Zitat:
    . . . die der Mensch sich macht, aus dem Wunsch heraus,
    das Verhalten der Natur verstehbar und vorhersagbar zu machen.
    Auf physikalische Größen bezogen stimme ich dir vollkommen zu.

    mfg okotombrok
     

      Beitrag 1701-18
    Physikalische Größen sind: quantifizierbare Eigenschaften physikalischer Objekte

     
    Grtgrt aus 1701-17:
    Hi Okotombrok,

    ist ein Atom oder ein Elektron in deinen Augen eine physikalisches Objekt oder nur eine physikalische Größe?
    Und ein ganzes Universum: Sollte man es wirklich nur als Größe bezeichnen?

    Ich würde unter einer Größe eher eine Zahl verstehen (etwas ohne Struktur).

    Gruß, grtgrt

    Gebhard,

    verstehst du nicht, was Okotombrok bemerkt? Falls physikalische Objekte unsere gedanklichen Modelle SIND, gibt es keine beobachtbare Außenwelt. Und ob du nun unter einer Größe eine Zahl verstehst oder nicht - in der Physik ist darunter etwas anderes und genau definiertes gemeint (Größen sind messbare Eigenschaften an Objekten). Wenn wir schon diskutieren, wollen wir uns doch bitte an die Begriffe so halten, wie sie allgemein anerkannt sind.
     

      Beitrag 1894-5
    Zu physikalischen Objekten

     
     
    Hi Henry,

    es scheint mir nicht richtig, nur das, was sich schon als Materie zeigt, als physikalisches Objekt elementarster Art zu bezeichnen. Unteilbare Bausteine des Kosmos sind ganz sicher schwingende Energie-Portionen (nur einige davon zeigen sich zeitweise im Zustand Materie).

    Nun zu Ereignissen: Als Position eines Ereignisses kann man nur die Summe aller Punkte verstehen, an denen sich die am Ereignis beteiligten Quanten dann gerade befinden. Es ist aber keineswegs so, dass die Position eines Quantums nur ungenau beobachtbar wäre: Sie ist wirklich auch ungenau definiert.

    Warum das so ist, wird sehr schön erklärt auf Seite Teilchen sind Wellenpakete.

    Damit ist klar: Unter der Position eines Ereignisses muss man sich (aus diesen beiden Gründen) eine kleine Region der Raumzeit vorstellen (eine Punktemenge, die Vereinigung von N Punktemengen ist, wenn am Ereignis N Quanten beteiligt sind) — also nicht einen einzigen Punkt im Sinne der Mathematik, sprich: im Sinne der die Raumzeit modellierenden differenzierbaren Mannigfaltigkeit.

    Nun zur Frage, ob Wahrscheinlichkeitswellen wirklich existieren: Da Interferenz am Doppelspalt zeigt, dass sie interferieren, müssen sie ja wohl existieren. Eine ganz andere Frage ist, was es denn bedeuten mag, zu existieren. Hierzu hat Niels Bohr mal was sehr Treffendes gesagt (siehe meine Seite Zum Wesen physikalischer Aussagen und dem, was man die Realität nennt).

    Zu Stringtheorie (ST) und Schleifen-Quanten-Gravitation (SQG): Zwischen beiden besteht insofern ein ganz gewaltiger Unterschied, als die ST eine hintergrund- abhängige Theorie ist, wohingegen die SQG (ebenso wie die ART) ohne Bezug zu irgend einem Hintergrund formuliert ist. RZQ ist hintergrund- unabhängig, also viel näher an SQG als an ST.

    Ich sehe RZQ als eine Art vergröberte SQG, wobei mir aber nicht klar ist, ob die gröbere oder die feinere Sicht die natürlichere ist.

    Das liegt daran, dass ich die Spin-Networks nicht wirklich verstehe. Als gut verständlich (und "anschaulich") würde ich sie nicht einzustufen. Hast du den Artikel, auf den ich oben verweise, gelesen?

    Gruß, ggreiter
     

      Beitrag 1376-28
    Lebenszklus, Lebensbatterie, Entropie

     
     
    Hi Stueps,

    meine erste Antwort auf deine Anregung das Stichwort Entropie betreffend war falsch: Die Lebensbatterie eines Objektes lässt sich doch über Entropie definieren. Genauer: Sie definiert den — mit Hilfe der Entropiegesetze gut präzisierbaren — Freiraum, den ein Objekt hat, sich fortzuentwickeln, ohne durch diese Fortentwicklung seine Identität aufgeben zu müssen.

    Hier die Argumentationskette, die mich zu dieser Meinung führt:

    Zunächst muss festgestellt werden, dass ich von Objekten spreche, die Ansammlung nur endlich vieler Elementarteilchen sind, und dass ich zunächst davon ausgehe, dass deren Anzahl über die gesamte Lebensdauer des Objekts hinweg begrenzt ist. Dies anzunehmen ist keine Einschränkung, solange wir Objekte bestimmten Typs vorliegen haben (Atome, Moleküle, oder Objekte aus unserem täglichen Leben).

    Sei also N eine positive ganze Zahl und sei X irgendein Objekt, welches während seiner ganzen Existenz — genau genommen ist das die Existenz seiner Identität — aus maximal N Elementartteilchen zusammengesetzt ist. Da N eine endliche Zahl, ist, gibt es auch nur endlich viele Zustände Z, in denen sich diese Elementarteilchen zusammenfinden können: Konfigurationen also, die durch ein kompliziertes Kräftegleichgewicht gebildet und zusammengehalten werden (es ergibt sich als Folge aller vier Grundkräfte).

    Diese endlich große Zahl möglicher Konfigurationen ist nichts anderes als eine obere Grenze für die Entropie, die das Objekt maximal zu unterstützen in der Lage ist (das Maximum an Information also, die dieses Objekt irgendwann in seinem Leben darstellen kann).

    Wo Objekte nicht gerade aus nur einem einzigen Elementarteilchen bestehen, kann man sie gut vergleichen mit Baumkronen, die einem ständigen Luftzug ausgesetzt sind — und hin und wieder sogar einem richtigen Sturm:
    • Die Blätter entsprächen den Elementarteilchen,
    • die Äste und Zweige den sie in bestimmter Konfiguration zusammenhaltenden 4 Grundkräften,
    • und der Luftzug, Wind oder Sturm entspricht den Scharen durchs All streunender Schwärme noch in gar keine Struktur eingebundener Elementarteilchen (Neutronen, Photonen, u.a.). Die meisten von ihnen durchqueren das Objekt so als wäre es gar nicht da, einige wenige aber kollidieren mit dem Objekt zugeordneten Elemenarteilchen und führen so zu einem nächsten Objektzustand.

    So wie jedes Gleichgewicht ist auch ein Kräftegleichgewicht selbstheilend in dem Sinne, dass Störungen, wenn sie denn hinreichend klein sind, sich selbst beheben.

    Dies hat zur Folge, dass, wo das Objekt aus einem Zustand Z1 in einen nächsten Zustand Z2 gestoßen wird, jener dem Z1 recht ähnlich sein wird. Dennoch wird er (so sagt uns der zweite Hauptsatz der Thermodynamik) mit an Sicherheit grenzender Wahrscheinlichkeit von höhere Entropie haben.

    In den extrem wenigen Fällen, wo das NICHT so ist, spricht man von einer Mutation des Objekts. Sie kann den Wert des Objektes vergrößern oder verkleinern (das Objekt also, wenn es denn ein Lebewesen ist, krank machen oder es — ein ganz klein wenig wenigstens — zu einem höher entwickelten Lebewesen machen. In Verbindung mit Darwins Selektionsprinzip ist so erklärt, warum der Zusammenstoß von Elementarteilchen zwar in der Regel, aber eben nicht immer, zu höherer Ordnung führt, also zu weniger Entropie.


    Zusammenfassend lässt sich feststellen:

    Was ich in Beitrag 1376-15 die Lebensbatterie eines Objektes X im Zustand Z nenne, ist nicht anderes als das Paar

    B = ( e(X,Z), e(N) )


    worin e( N) eine obere Grenze für im Objekt enthaltene Entropie bezeichnet und e( X, Z) die Entropie von X im Zustand Z ist.

    Die Differenz   1 – e( X,Z)/ e( N)   ist dann zu deuten als die in der Lebensbatterie noch vorhandene Restladung (so normiert, dass 1 der voll geladenen Batterie entspricht).

    Dem 2. Hauptsatz der Thermodynamik entsprechend wird sie mit an Sicherheit grenzender Wahrscheinlichkeit bei jedem Zustandsübergang kleiner, so dass klar ist: X wird irgendwann sterben, d.h. wird irgendwann so entstellt sein, dass es seine Identität verliert — eben ganz so, wie auch ein Mensch sich mit zunehmendem Alter mehr und mehr verändert, schließlich in einen Sarg gelegt wird, und dort weiter zerfällt, so dass man irgendwann nicht mehr sagen kann, was man da noch vorfindet sei ein Objekt vom Typ Mensch.

    Nachdem man die kleinstmögliche Version der Zahl N nicht kennen kann, wird man auch die Restladung der Lebensbatterie stets nur mit gewisser Unschärfe kennen.


    Also Stueps, danke, denn ohne deine zwei Anregungen wäre ich auf diese Erklärung so schnell nicht gekommen.

    Beste Grüße,
    grtgrt

    PS: Ich habe oben so getan, als würden Zustandsübergänge sich stets ergeben durch Zusammenstoß des Objekts mit streunenden Elementarteilchen. Das ist nicht ganz richtig, denn es gibt in jedem Quantensystem ja auch spontane Zustandsübergänge, sogar solche, von denen Chemiker durchaus wissen, mit welcher Wahrscheinlichkeit in etwa sie eintreten. Am Gesamtergebnis meiner Betrachtung ändert sich dadurch aber rein gar nichts.

     

     Beitrag 0-184
    Womit sich Physiker beschäftigen

     
     

     
    Womit sich Physiker beschäftigen



    Hohnerkamp (2013):
     
    Der berühmte US-amerikanische Festkörperphysiker und Nobelpreisträger Philip Warren Anderson beklagte 1994 dass es in der öffentlichen Aufmerksamkeit für physikalische Forschungsergebnisse ein großes Missverhältnis gäbe:

       
      Kosmologische Fragen sowie das Schicksal für Theorien fundamentaler Wechselwirkungen würden zuhauf in Büchern und Zeitschriften diskutiert, und publikumswirksam würde eine » Theorie für Alles « als Ziel propagiert.
       
      Dabei könnten sich höchstens 20% aller Physiker als Kosmologen oder Teilchenphysiker bezeichnen.
       
      Alle anderen seien mit praktischen Anwendungen der Physik beschäftigt oder mit Phänomenen, die zu komplex sind, um sie direkt aus den Gesetzen für die fundamentalen Kräfte bzw. Wechselwirkungen erklären zu können.

     
    Das Studium der komplexen Systeme ist ein mindestens so großes Gebiet wie die beiden anderen, die sich als Elementarteilchenphysik mit den kleinsten bzw. als Kosmologie mit den größten Objekten unserer Welt beschäftigen.
     
    Keineswegs nur die Physik fester Körper mit ihren ungewöhnlichen Materiezuständen (wie etwa Supraleitfähigkeit) gehört zu ihren Themen, sondern auch Phänomene wie Strukturbildung, Selbstreproduktion, Leben und Bewusstsein.
     
    Hier beginnen die Grenzen zwischen den Fächern zu verschwimmen, wie sich ja auch schon an Namen wie » Physikalische Chemie « oder » Biochemie « zeigt.
     


    Quelle: Josef Hohnerkamp: Was können wir wissen? (Springer, 2013), S. 71-78
     
    Siehe auch, woran Physiker als Ingenieure arbeiten.


     

     Beitrag 0-485
    Wichtige Einsichten berühmter Physiker

     
     

     
    Wichtige Einsichten berühmter Physiker



    Richard Feynman:
     
    » Wir müssen stets Raum für Zweifel lassen: Es kann sonst kein Dazulernen — keinen Fortschritt — geben.
     
    Man kann nichts Neues herausfinden, wo nicht vorher eine Frage gestellt wurde.
     
    Doch um zu fragen, bedarf es des Zweifelns. «

     



    Lee Smolin (2019):
     
    » Die Wissenschaft macht Fortschritte, wo wir falsifizierbare Theorien erfinden
     
    — auch wenn sie dann schließlich widerlegt werden.
     
    Die Wissenschaft fährt sich fest, wo Theoretiker nicht falsifizierbare Theorien in die Welt setzen. «

     



     

      Beitrag 1057-149
    Hat auch die Zeit ein sie erzeugendes "Higgs"-Teilchen?

     
     
    Hi Thanninger,
    • Wenn ich Higgs richtig verstehe, glaubt er, dass Elementarteilchen gewisser Art irgendwie dadurch gebremst werden, dass sie sich ständig durch ein Meer sog. Higgs-Teilchen bewegen (und das eine Art Reibung versursacht, wodurch dann ihre Geschwindigkeit reduziert wird und sie somit etwas bekommen, das wir als ihre Ruhemasse deuten).
      Was ich dabei nicht verstehe: Auch das Higgs-Teilchen selbst hat Masse — man könnte also auf die Idee kommen, dass die Teilchen sich gegenseitig Masse geben.
      Frage an die Physiker also: Worin genau unterscheidet sich das Higgs-Teilchen — seiner Qualität nach — von anderen Teilchen, die ähnlich große Ruhemasse haben?
    • Was auch immer Teilchen gewisser Art verlangsamt, wenn sie sich durch den 3-dimensionalen Raum bewegen (das Higgsfeld etwa?), könnte mit dafür verantwortlich sein, dass auch die Zeit einem Teilchen (oder Objekt) umso langsamer vergeht, je mehr es sich durch den 3-dimensionalen Raum bewegt. Auf jeden Fall wäre das konform zu meiner Theorie, die ja sagt, dass die Zeit genau dort voranschreitet, wo Teilchen zusammenstoßen (also aufgehalten werden).
    • Wenn dem so wäre, könnte man die Zeit, die einem Objekt vergeht, interpretieren als analog zur Abnutzung, die es erfährt, allein dadurch, dass es mit anderen interagiert. Und tatsächlich: Auch das Altern eines Lebewesens ist ja nichts anderes als ein Abnutzungsprozess, der etwas verbraucht, was nicht wieder-erlangbar ist: Zukunft des Lebewesens.
    • Natürlich ist das bisher nicht mehr als eine Frage — es würde mich aber interessieren, ob ihr schon mal jemand nachgegangen ist.

    Gruß, grtgrt

    PS: Wie schon Okotombrok würde auch ich es vorziehen, wenn wir Fragen zum Wesen der Zeit in einem eigenen Thread unterbringen würden. Warum eröffnest du nicht einfach ein Thema Fragen zum Wesen der Zeit ?
     

      Beitrag 1057-187
    Strahlungsdruck

     
    E... aus 1057-182:
    Das Photonen keine Ruhemasse haben erlebst Du täglich. Deine Netzhaut verarbeitet die Informationen die das sichtbare Licht im Sinne des Wortes an sie heran trägt. Dabei genügt die Energie des ankommenden Lichts um die Fotorezeptoren (rot-, grün- und blauempfindlich) so zu reizen das sie die optischen Reize ans Gehirn weiterleiten .....
    .
    ...Wenn Du schon mal ein KFZ gesehen hast mit einem kräftigen Hagelschaden, dann weist Du was Deiner Netzhaut blühen würde, wenn Licht eine Ruhemasse hätte, die mit knapp 300.000 Kilometern pro Sekunde permanent in Deiner Netzhaut einschlägt. Die Netzhaut wäre binnen kurzem unbrauchbar und das Auge würde erblinden.

    Das Beispiel hinkt.

    leg dich mal mit nacktem Bauch in den Regen. jeder Tropfen erzeugt einen Nervenreiz, wenn er Deine Haut "trifft".
    Du wirst davon jedoch nicht durchlöchert, als würdest Du von einer Schrotladung getroffen, obwohl der Regen eine Ruhemasse besitzt. Die Haut ist so "gebaut" dass sie dem Aufschalg des Regens standhält. Auch die Netzhaut hat sich im Laufe der Evolution so entwickelt, dass sie dem "Photonenhagel" ein Leben lang standhält.
    Zudem hat das Photon beim Auftreffen ja noch seine Masse. Es verliert seine Masse genau in dem Augenblick, sobald es seine Existenz aufgibt, und seinen Energiepuls auf die Netzhaut übertragen hat.

    siehe auch Wikipedia : Strahlungsdruck

    Okotombrok aus 1057-180:
    Außerdem hat noch ie jemand beobachtet, dass sich Ruhemassen mit c ausbreiten.

    Du musst das anders definieren:
    Licht bewegt sich immer mit c, wenn wir es messen. Darum können wir auch nur eine Aussage treffen, bei Licht =c
    anders haben wir es nie gesehen, denn wäre es langsamer, dann wäre es nicht existent. und was nicht existiert, darüber kann man keine Aussage machen.

    Harti sagte dazu bereits:
    Harti aus 1057-161:
    Das Photon hat keine Ruhmasse, weil es nicht ruhen kann.

     

      Beitrag 1701-20
    Zum Begriff physikalischer Objekte: seine wohl beste Definition

     
    H... aus 1701-19:
    phys. Objekt: ganz simple ein Sachverhalt, der einer physikalischen Betrachtung unterzogen werden kann. Der Sachverhalt kann wahrnehmbarer oder rein theoretischer Natur sein (z.B. war das Higgs Boson viele Jahre ein rein theor. phys. Objekt,
    seit einigen Wochen besteht Hoffnung, dass nun das Standardmodell komplett ist).

    phys. Größe: eine Eigenschaft des Sachverhalts (=phys. Objekt)

    Gruß H... R.

    An alle:

    Dieser Versuch, den Begriff physikalisches Objekt zu definieren, scheint mir der bisher beste.

    Danke, grtgrt


    Zur Info: Ein Teil dieser Diskussion wurde an anderer Stelle geführt und ist dort beendet worden mit Beitrag 1896-19 und Beitrag 1896-20.
     

      Beitrag 1701-15
    Beispiel eines physikalischen Objekts: Das Licht

     
     
    Licht ist ein physikalisches Objekt (und als solches unser Modell für einen Teil der Natur).

    Mehr dazu auf Seite Zum Wesen physikalischer Aussagen.
     

      Beitrag 1875-107
    Stringtheorie: Ein Beispiel geschickter Kombination zweier Denkwege

     
    Hi E...,

    es freut mich, dass mir mal jemand sagt, wie mein Stil auf ihn wirkt. Danke also.

    Damit Du mich besser verstehst, sei gesagt: Ich bin kein Physiker, die Art meiner Argumentation ist aber sicher dadurch geprägt, dass ich mal Mathematiker war (mit Schwerpunkt auf Algebra und Zahlentheorie), dann aber — seit etwa 1980 — stets als Informatiker gearbeitet habe (als IT-Berater mit Schwerpunkt auf besonders methodischem Software-Engineering).

    Mein Interesse an theoretischer Physik wurde geweckt durch die Beobachtung, dass theoretische Physiker sich von Science Fiction Autoren des Typs Isaac Asimov eigentlich nur dadurch unterscheiden, dass sie versuchen, ihre visionären Gedanken über die Natur und die Struktur unserer Welt nicht nur aufzuschreiben, sondern auch zu beweisen oder zu widerlegen.

    Bester Weg hierfür, da gebe ich Dir recht, wäre die Durchführung geeigneter Experimente. Dieser Weg aber stößt schnell an Grenzen (an prinzipielle, weit vorher aber noch an finanzielle). Wo sie erreicht sind, ist Informationsverarbeitung der einzige Weg, weiter zu kommen. Sie muss erfolgen in geschickter Kombination mathematischer und ingenieurmäßiger Denkwege.

    Wenn man nicht zufällig ein Albert Einstein ist, kann man sich Erfolge dennoch nur erhoffen, wenn man so viel wie möglich auf den Gedanken anderer aufbaut. Wie jeder Promovierte weiß, ist eigene Leistung i.A. ja nur ein nächster kleiner Schritt hin zum Ziel. Man geht ihn in der Hoffnung, dass andere ihn aufgreifen und so ihrerseits in die Lage versetzt werden, die Entfernung zum Ziel weiter zu verkleinern.

    Versetzen wir uns jetzt in die Rolle dieser anderen. Die Wahrscheinlichkeit, dass sie einen noch unvollständigen Weg aufgreifen, wird umso größer sein, je wertvoller er ihnen erscheint (sprich: aus je mehr Schritten er schon besteht). Wenn ich also einen (N+1)-sten Schritt in die Welt setze, tue ich gut daran, nicht zu verbergen, dass er nicht der erste Schritt des langen Weges hin zur Erkenntnis ist, sondern nur ein weiterer, vielleicht aber wirklich notwendiger.

    Das also ist der Grund, warum ich nur ungern isolierte Ideen in die Welt setzte. Mir ist viel wohler, wenn ich die Ideen anderer extrapoliere. Nicht zuletzt gibt das mir und denen, die mir folgen, ja auch eine gewisse Sicherheit, nicht völlig schief zu liegen — solche Sicherheit zu suchen sehe ich nicht als Schwäche sondern als Teil jeder professionellen Vorgehensweise.


    Nun zu den Strings: Sie modellieren ganz klar Elementarteilchen (virtuelle und auch stabile, wie etwa die Elektronen und Positronen). Und die existieren ja nun wirklich. Und dass Elementarteilchen in Schwingung befindliche Energiequanten sind, gilt ja nun auch schon längst als gesichertes Wissen.

    Das Fragezeichen, das man neben die Stringtheorie zu setzen hat, steht also weniger am Begriff der Strings (oder Branen), sondern steht vor allem an den Vorhersagen, die die Stringtheorie in Hinsicht auf Sysmmetrie und Vollständigkeit des Standardmodells der Elementarteilchenphysik macht. Es steht insbesondere an allen Aussagen, die unserem Universum weitere Dimensionen zugestehen wollen oder gar noch bestimmte Krümmung jener.

    Jene Fragezeichen sind den Stringtheoretikern selbst sehr wohl bewusst: Greene etwa schreibt (auf Seite 485 seines Buches The Fabric of the Cosmos): "More and more, ... clues point toward the conclusion that the form of spacetime is an adorning detail that varies from one formulation of a physical theory to the next, rather than being a fundamental element of reality. Much as the number of letters, syllables, and vowels in the word cat differ from those in gato, its Spanish translation, the form of spacetime — its shape, its size, and even the number of its dimensions — also changes in translation."

    Mir ist sehr wohl klar, dass es durchaus Fachleute gibt, die der Stringtheorie sehr skeptisch gegenüber stehen:
    • Mir ist bekannt, dass Peter Woit (mir scheint, er wird wohl nur seines provokativen Buches wegen so oft genannt) so weit geht, zu sagen, dass Fördergelder, die an Stringtheoretiker gegeben werden, Geldverschwendung seien. Nachvollziehbare Argumente hat er in meinen Augen aber nicht, und seine Behauptung, die Stringtheorie sei bisher nicht in der Lage gewesen irgendwelche Vorhersagen zu machen, wirkt nicht so recht glaubhaft, wenn man weiß, dass er sich mehr mit Mathematik als mit Physik beschäftigt (also vielleicht nicht wirklich Fachmann ist) und dass viele Physiker ihm widersprechen: In WikiBooks findet sich eine Liste von 12 Vorhersagen der Stringtheorie, die man durchaus als schon verifiziert ansieht).
    • Andere, wie etwa Roger Penrose, sind skeptisch, versuchen aber dennoch — wie es sich für Wissenschaftler gehört — objektiv zu bleiben und machen sich wenigstens die Mühe, den Stringtheoretikern ernsthaft zuzuhören.
    • Einer von ihnen ist sicher auch Lee Smolin. Der aber sieht vor allem deswegen wenig Sinn darin, Stringtheorie zu betreiben, da sie sich in Bereiche vorwagt, in denen die Experimentalphysik wohl niemals wird Aussagen machen können (siehe dieses Interview mit ihm). So zu argumentieren ist nachvollziehbar, zeugt aber vielleicht doch eher von fehlendem Mut, über bestehende Grenzen hinauszudenken.

    Ich sage: Solange die Stringtheorie keine Aussage macht, die im Widerspruch zu mindestens einem anerkannten Ergebnis der Experimentalphysik steht, kann auf keinen Fall behauptet werden, sie sei ein Irrweg.

    Peter Woit scheint diese Logik zu ignorieren (was mir seine Meinung recht suspekt macht). Smolins Buch dagegen sollte man gelesen haben (aber: Wichtige Erfolge der Stringtheorie, über die Greene 2010 berichtet, scheint Smolin 2006 nicht zu kennen. Ob das Uneinigkeit in der Beurteilung bedeutet oder darauf zurückzuführen ist, dass jene Ergebnisse damals vielleicht noch gar nicht erarbeitet waren, weiß ich nicht).

    Beste Grüße,
    grtgrt = ggreiter = Gebhard Greiter

    Mein Motto: Die beste Praxis ist eine gute Theorie (nach E... Denert, einer der beiden Gründer von sd&m)
     

      Beitrag 1878-7
    Was es bedeutet, in die Zukunft zu reisen

     
     
     
    Wie man (prinzipiell wenigstens) in beliebig ferne Zukunft reisen kann

    Auf Seite Verschieden schnell durch die Zeit reisen wird anhand von drei Beispielen gezeigt, wie man in die Zukunft reisen kann.

    Speziell das dritte Beispiel dort ist interessant.

    Wer es nachgerechnet hat, wird sein Ergebnis vorliegen haben in der Form

              S = F( A, Z )

    wo F eine Formel ist, A der Abstand vom Schwarzen Loch, in dem der Astronaut eine gewisse Zeit Z wartet, bis er umdreht und zur Erde zurückkehrt,
    und S die Zahl der Jahre, die auf der Erde vergangen sein sollen, wenn der Astronaut zurückkehrt.

    Natürlich werden die in der Formel auftretende Koeffezienten davon abhängig sein, welches Schwarze Loch der Astronaut zu besuchen gedenkt, und wie heftig er plant, auf seiner Reise zu beschleunigen oder abzubremsen.

    Interessant aber ist: Da Vergrößern von A den Sprung S in die Zukunft verkleinert, und da umgekehrt Vergrößern der Parkdauer Z den Sprung S vergrößert, lässt sich praktisch jeder Wert von S erreichen.

    Das einzige Problem des Verfahrens ist, dass der Astronaut sterben kann, noch bevor er wieder die Erde erreicht. Man sollte ihn also besser durch einen robusten Roboter ersetzen (oder Raumschiff und Astronaut durch einen Forschungssatelliten).


    PS: Reisen in die Vergangenheit sind grundsätzlich NICHT möglich (da Zeit eine Richtung hat, die von Ursache zu Wirkung führt).

     

      Beitrag 1906-1
    Gravitationskraft, versteckte Raumdimensionen, Locally Localized Gravitation

     
     
    Liasa Randall betont gerne, dass sie sich mehr als Modellkonstrukteur sieht denn als Stringtheoretiker(in). Der Unterschied ist für sie:
    • Stringtheoretiker arbeiten top down, indem sie versuchen, in einer riesigen Menge ihnen vor die Füße gefallener Modelle — man spricht von etwa 10500 — solche zu finden, die keiner durch uns derzeit als zuverlässig anerkannten Beobachtung, die Astronomen oder Experimentalphysiker je gemacht haben, widersprechen.
    • Modellkonstrukteure aber gehen so vor, dass sie — ausgehend von eben jenen Beobachtungen — Modelle bottom up zu konstruieren versuchen, und das ohne jede Rücksicht darauf, ob sie nun zur Stringtheorie passen oder nicht.

    Zwei Beobachtungen scheinen mir interessant:
    • Lisa Randalls Approach ist kreativer, objektiver und weniger naiv als der der Stringtheoretiker.
    • Mindestens eines ihrer Arbeitsergebnisse — ein Modell, das sie Locally Localized Gravitation nennt — bricht sogar mit der gängigen Vorstellung, dass im gesamten Kosmos ein und dasselbe Gravitationsgesetz gelte.

    Genauer:

    In Kooperation mit Andreas Karch betrachtete sie eine 5-dimensionale Raumzeit und darin eine 4-dimensionale Brane flacher Geometrie (sie könnte die Welt sein, in der wir leben). Randall schreibt:

    "[In the theory we developed,] space looks 4-dimensional on or near the brane, but most of the space far from the brane appears higher-dimensional. ... We named our scenario locally localized gravity because localization produces a graviton that communicates 4-dimensional gravitational interactions only in a local region."

    Nachdem die beiden die Brane etwas modifiziert hatten (so dass sie nun etwas negative Energie trug und daher nicht mehr flach, sondern leicht gekrümmt war), ergab sich etwas noch weit Interessanteres:

    " ... we decided to study this model solely because of its fascinating implications for dimensionality: ... [Assuming a] second brane sufficiently far away, we found that there were two different gravitons localized near each of the two branes. Each of the graviton probability functions peaked near one of the two branes, and decreased exponentially quickly as you left it.

    Neither of these gravitons was responsible for 4-dimensional gravity over the entire (5-dimensional) space ... The gravities experienced on the different branes were different. They could even have very different strength. Objects on one brane didn’t interact gravitationally with objects on the other. ...

    The appearance of two different particles that both look like the 4-dimensional graviton was a big surprise to us. General physical principles were supposed to ensure that there is only a single theory of gravity. And indeed, there is a single 5-dimensional theory of gravity, but 5-dimensional spacetime turns out to contain two distinct particles that each communicate a gravitational force that acts as if it is 4-dimensional, each in a distinct region of 5-dimensional space ...

    If this model is correct, we would have to live on the brane to experience 4-dimensional gravity ...

    Of course, we do not yet know whether locally localized gravity applies in the real world."


    Source: Chapter 23 of Lisa Randall’s Book "Warped Passages unraveling the Mysteries of the Universe’s hidden dimensions"(2005).
     

      Beitrag 1911-1
    Absoluter Zufall ist unentscheidbar

     
     

    Einstein war der letzte große Physiker, der dachte, die Natur würde voll deterministisch funktionieren (Gott würfelt nicht).

    Niels Bohr hielt dagegen und war der Meinung: Gott würfelt doch, denn Quantensprünge sind absolut zufällig.

    Ich sage: Wir können es nicht wissen, denn Bohrs Argumentation ist widersprüchlich. Der Beweis dafür kommt aus Bohrs eigenem Credo:


    Zitat von Niels Bohr:
    Die Physik kann nicht ergründen, wie die Natur funktioniert.

    Sie kann nur untersuchen, wie die Natur sich uns zeigt.



    Bohr hätte erkennen müssen, dass — wenn dem so ist — es DREI Arten von Zufall gibt (statt nur deren zwei):
    • scheinbaren Zufall,
    • physikalischen Zufall und
    • absoluten, als solchen dann aber unentscheidbaren Zufall:

    Wer eine Münze wirft, wird das Resultat als zufällig empfinden — das aber nur deswegen, weil er die Ursachen und Umstände, die dieses Resultat herbeiführen, zu wenig kennt: genaueste Modalitäten der Impilsübertragung, den Einfluss des Luftwiderstandes, kleinste Schwankungen der Luftdichte entlang der Flugbahn etc. Deswegen liegt hier nur scheinbarer Zufall vor.

    Im Unterschied dazu sind die Resultate von Quantensprüngen unvorhersagbar. Und das deswegen, weil in der uns erfahrbaren Raumzeit – in dem also, was die Natur uns zeigt — keine Ursachen existieren.

    Wenn aber Bohrs Meinung, die Physik könne nicht ergründen, wie die Natur funktioniert, zutrifft, dann könnte es außerhalb aller denkbaren physikalischen Modelle tatsächlich auch für jeden Quantensprung eine Ursache geben. Es wird uns dann aber nicht gelingen, zu entscheiden, ob dem wirklich so ist. FAZIT also:


    Gott lässt sich nicht in die Karten schauen.


    grtgrt
     

      Beitrag 1915-20
    Quanten-Kollision

     
     
    U...bus aus 1915-15:
     
    jetzt komme ich wieder mit meinen querdenkenden Fragen: ....

    Hi U...bus,

    ich mag querdenkende Fragen: Sie sind die spannendensten und die, die am ehesten zu was Neuem anregen.


    U...bus aus 1915-15:
    Grtgrt aus 1915-3:
     
    Ein Elementarereignis E kann eintreten

    entweder spontan (so dass ohne jede erkennbare Ursache ein Paar virtueller Teilchen entsteht oder vergeht)

    oder durch Kollision existierender Teilchen (Dekohärenz): Zusammenstoßende Quanten nehmen einander wahr und führen so zum Kollabieren ihrer Wahrscheinlichskeitswelle).

    1) spontan = ohne erkennbare Ursache; was sagt das aus? Ohne Ursache oder technisch nicht nachweisbare Ursache?
    Ohne Ursache würde das Kausalitätsprinzip infrage stellen, technisch nicht nachweisbare Ursache wäre die Beschränkung der Physik auf meßbare Wirkungen.

    ANTWORT: Gemeint habe ich (grtgrt): "Ohne Ursache (im Sinne der Quantenphysik".

    Nachdem — wie Niels Bohr uns sagt — die Physik nur zum Gegenstand haben kann, wie die Natur sich uns zeigt (aber nicht, wie sie wirklich ist), können wir nicht ausschließen, dass das, was im Sinne der Quantenphysik OHNE Ursache ist, nicht vielleicht doch eine (uns verborgene) Ursache hat.

    Meine Formulierung war gewählt, dieser Tatsache Rechnung zu tragen.

    Die Quantenphysik übringens hat das Kausalitätsprinzip nicht nur in Frage gestellt, sondern wirklich über Bord geworfen.
    Einstein war der letze Spitzenphysiker, der an das Kausalitätsprinzip glaubte und es NICHT in Frage gestellt sehen wollte. Damit, so denkt man heute, hatte er wohl unrecht.


    U...bus aus 1915-15:
     
    2) Kollision existierender Teilchen: In was stoßen diese Teilchen zusammen? Die Dinger müssen sich ja irgendwo aufhalten, es stellt sich also wieder mal die Frage nach dem "Behälter Raumzeit".

    Wenn jetzt das Universum aus Wellenfunktionen besteht und aus nichts anderem, dann müssen doch diese Wellen den Raum bilden. Und tun sie das, dann bilden diskrete Wellenfunktionspakete räumlich begrenzte Entitäten, sonst könnten sie ja nicht zusammenstoßen, ...

    ANTWORT: Jede Wellenfunktion hat im ganzen Universum Werte, nenneswert von Null verschieden sind die aber nur an (und in einer kleinen Umgebung von) wenigen ausgezeichneten Stellen. Dort, so sagt man, sei das Quantum mit nenneswerter Wahrscheinlichkeit anzutreffen.

    Urbildmenge so einer Wellenfunktionen ist grundsätzlich der gesamte Raum.

    Die Werte jeder Wellenfunktion sind zudem zeitabhängig.


    Unter der Kollision zweier Quanten verstehe ich, dass sich die Stellen, an denen ihre Wellenfunktionen nennenswerten Wert haben, sehr nahe kommen.
    Aus Sicht des Betrachters
    • zeigt die Summe beider Funktionen zunächst an zwei Stellen nennenswerten Wert.
    • Diese beiden Stellen wandern aufeinander zu, werden also zu einer Stelle mit nenneswerten Wert (der aber exponentiell abfällt mit zunehmender Entfernung von dieser Stelle),
    • und diese eine Stelle teilt sich dann in mehrere auseinander wandernde Stellen, an denen sich nennenswert von Null verschiedene Werte zeigen.

    Die Zahl der auseinander wandernden Stellen ist die Zahl der Quanten, in die sich die beiden kollidierenden Quanten neu aufgeteilt haben.

    Gruß, grtgrt
     

      Beitrag 1915-36
    Auf hinreichend kleiner Größenskala verklingt Materie im nur noch gedanklich Existierenden

     
     
    U...bus aus 1915-22:
     
    ... ich versteh bis heute die Physik nicht, warum sich dort die Erfahrung der Makrophysik nicht auch in der Mikrophysik niederschlägt. Jeder, der sich in die Badewanne setzt, verdrängt das Badewasser, warum sollte das im Quantenbereich der Natur nicht genauso sein?

    Gruß

    Hi U...bus:

    Jede Person P, die sich in die Badewanne setzt, ist — aus quantenphysikalischer Sicht — nichts weiter als ein System von Quanten.

    Quanten aber sind — so schrieb Heisenberg — Objekte, die "als Potentia in einer seltsamen Wirklichkeit zwischen der Idee von einem Ding und einem wirklichen Ding existieren". Wie aber soll "Potentia" Wasser verdrängen?


    Die Antwort auf deine Frage also ist:

    Sobald man ein makroskopisches Objekt P in zunehmend kleinere Teile zerlegt, kommt man irgendwann in eine Größenordung, in der die so entstanden extrem kleinen Teilchen — einzeln betrachtet — mehr und mehr nur noch  g e d a n k l i c h  existieren.

    Das klingt verrückt, scheint aber wirklich so zu sein.
    Ich tröste mich da einfach mit Richard Feynman's Feststellung:


    Die Quantenphysik kann man nicht verstehen.

    Wer glaubt, er hätte sie verstanden, der hat sie überhaupt nicht verstanden.


    Gruß,
    grtgrt
     

      Beitrag 1915-43
    Über Dekohärenz (1)

     
     
    E... aus 1915-38:
    Auf ein neues...

    Jede Wechselwirkung, sei es mit anderer Materie oder mit Strahlung, lässt ein isoliertes Quantensystem sofort kollabieren. Dieser Vorgang ist nicht rückgängig zu machen, er ist irreversiebel. Das untersuchte Teilchen wird klassisch. Nicht weil wir es so sehen wollen... sondern weil es so geschieht. ...

    Mir wirst Du wohl diesesmal auch keinen Glauben schenken. Deshalb anbei noch ein Beitrag aus der Reihe alpha-Centauri. Professor Harald Lesch Jahrgang 1960 Astrophysiker, Naturphilosoph und Professor für Physik an der LMU München fragt dort "Was ist Dekohärenz?" und erklärt anschaulich um was es dabei geht.

    http://www.br.de/fernsehen/br-alpha/sendungen/alpha...

    Hi E...,

    zunächst mal danke, dass du dich jetzt doch entschlossen hast, mir zu sagen, woher dein Wissen stammt.

    Ich muss zugeben: Alles, was ich bisher von dir zum Thema "Dekohärenz" gehört habe, gibt korrekt (und fast wörtlich) wieder, was Lesch verkündet.

    Aber verstehen wir ihn richtig?


    Lass uns dazu mal folgendes Beispiel betrachten:

    Nimm ein Wasserstoff-Atom — ein Atom also, das nur ein oder zwei Elektronen hat. Lesch sagt ja nun zweierlei:
    • Erstens: Jedes sich irgendwo im Universum aufhaltende Elektron wechselwirkt ständig mit seiner Umgebung — mindestens mit den Energiequanten, die die allgegenwärtige kosmische Hintergrundstrahlung bilden.
    • Zweitens: Dekohärenz sei nicht rückgängig zu machen, habe also bleibenden Effekt.

    Wenn beide Aussagen (in dieser einfachen Form wenigstens) richtig wären, müsste ja sogar JEDES Elementarteilchen schon kleinste Sekundenbruchteile nach seinem Entstehen klassisch werden. Damit wären sämtliche Atome wirklich wie Sonnensysteme, um deren Kern herum sich die Elektronen in Form klassischer Teilchen bewegen. Deren nicht klassischen Zustand hätten Menschen dann ja wohl gar nie mitbekommen können.

    Wie also löst sich dieser Wiederspruch?

    Dekohärenz ist wie ein Blitz, dessen Wirkung sofort wieder vergeht. Das Stück Kreide, das Lesch uns da zeigt, sehen wir aber dennoch, denn es gibt halt in ununter­brochener Reihenfolge sehr viele solcher Blitze. Mit anderen Worten: Quanten wechseln ständig vom virtuellen (Überlagerungs-) Zustand in einen klassischen und zurück in den virtuellen: Klassisch sind sie nur während einer extrem kurzen Zeitspanne, die mit einem Elementarereignis beginnt, an dem sie teilhaben.

    Lesch hat sich in seiner Sendung wohl einfach nur ungenau ausgedrückt.

    Meine eben dargelegte Interpretation sehe ich auch bestätigt durch eine Aussage, die ich in Lothar Schäfers Buch "Versteckte Wirklichkeit" fand. Er spricht dort vom Orbital­modell der Atome und erklärt, dass die sog. Knotenflächen — bestehend aus der Menge aller Punkte, an denen die Aufenthaltswahrscheinlichkeit für Elektronen zu Null wird — den Raum in getrennte, sich nirgendwo überlappende Bereiche zerlegen, in denen sich dann je ein Elektron finden bzw. nicht finden kann. Das Interessante für unser Problem ist nun, dass, wenn man ein Atom beobachtet, welches mehr solcher Kammern hat als Elektronen, diese Elektronen sich einmal in einer, dann aber in einer anderen Kammer zeigen. Auf ihrem Weg hin von einer zur anderen aber kann man sie NICHT beobachten.

    Das nun sehe ich als einen unwiderlegbaren Beweis dafür, dass so ein Elektron eben NICHT ständig klassisch sein kann.


    Beste Grüße,
    grtgrt
     

      Beitrag 1915-57
    -

     
     
    Grtgrt aus 1915-51:
     
    Henry aus 1915-44:
    Noch was: Ich verfolge Lesch´s Sendungen schon seit Langem, ich kann dir versichern, er meint es genau so und hat sich keines Wegs ungenau ausgedrückt.

    Auch ich schätze Lesch sehr. Dennoch bin ich nicht bereit zu glauben, dass nicht auch ein Meister mal irren kann (z.B. unbeabsichtigt wider besseres Wissen).

    Hallo Henry,

    in "Bedeutende Theorien des 20. Jahrhunderts - Relativitätstheorie, Kosmologie, Quantenmechanik und Chaostheorie", einem Buch von Werner Kinnebrock (Professor für Mathematik & Informatik an der FH Rheinland-Pfalz) findet sich auch ein Kapitel über Dekohärenz. Es schließt mit dem Satz:

    "Daher erfolgt der Wellenkollaps permanent, Superpositionen entstehen, aber sie zerfallen sofort wieder."


    Ist das nicht genau das, was auch ich sage (und als die einzige logisch konsistente Variante des Dekohärenz-Geschehens empfinde)?

    Gruß, grtgrt


    PS: Ganz allgemein bin ich der Meinung, dass man ein Theorem erst dann richtig versteht, wenn man auch seine Begründung kennt und logisch überzeugend findet.
    Die Begründung einzusehen sollte uns als Beleg des Theorems wichtiger sein als irgend ein — vielleicht doch nicht genau genug formuliertes — Statement von Lesch oder sonstwem.

    Würdest du mir da rechtgeben?

     

      Beitrag 1915-66
    Über Dekohärenz (2)

     
     
    Hi E...,

    ich erkläre mir Dekohärenz (= Interaktion eines Quantums mit seiner Umgebung) wie folgt:
    • Wenn ein Quantum Q entsteht, existiert es in seinem Überlagerungszustand.
    • Interaktion mit seiner Umgebung bedeutet, dass das Q mit einem anderen Quantum Q2 verschmilzt, und dass das Ergebnis dieser Verschmelzung sich neu in Quanten Q' aufteilt.
    • So ein Q' kann dem Q mehr oder weniger ähnlich sein.

    Mit anderen Worten:

    Was wir (bzw. unsere Messgeräte) zu Gesicht bekommen ist keineswegs Q in einem konkret gewordenem (Einzel-) Zustand, sondern ist einfach nur der neue, makroskopisch beobachtbare Zustand eines Quantensystems QS, in dessen Zentrum Q und Q2 eben durch neue Quanten Q' ersetzt worden sind. Solche Ersetzung führt zu einer Abänderung der Wellenfunktion von QS, was wiederum chemische Reaktion zur Folge haben kann (z.B. Schwärzung einer Fotoplatte an einer ganz bestimmten Stelle).


    Meine Interpretation beobachtbaren Quantenverhaltens ist demnach:

    Jedes Quantum Q existiert grundsätzlich NUR in dem, was die Kopenhagener Deutung seinen "Überlagerungszustand" nennt.

    In Extrapolation dessen, was Richard Feynman dachte (dass dieses Qantum dann nämlich mehr oder weniger überall gleichzeitig ist), sehe ich seinen Überlagerungs­zustand als das Schwingen einer Energieportion, welches örtlich konzentriert erscheint und mit zunehmender Enfernung von diesem nur grob definierten Punkt im Raum schnell an Intensität abnimmt (ebenso wie durch einen massereichen Körper erzeugte Gravitationswellen dies tun: Auch sie sind 3-dimensional, verklingen schnell mit zunehmender Entfernung von diesem Körper, werden aber dennoch nirgendwo im Universum wirklich komplett zu Null).

    Was wir als die Bewegung eines Quantums durch den Raum interpretieren, ist die Verschiebung des Ortes, an dem dieses Quantum maximale Intensität hat.


    Gruß, grtgrt
     

      Beitrag 1915-86
    Über mikroskopische (virtuelle) und makroskopische (reale) Wirklichkeit.

     
     
    Henry aus 1915-80:
     Der Messvorgang "enthüllt" den realen Zustand.

    Hi Henry,

    die überwiegende Zahl aller Quantenphysiker glaubt heute, dass der Messvorgang den realen (Quanten-) Zustand nicht enthüllt, sondern erst erzeugt.

    Davon ausgehend bin ich der Auffassung, dass
    • mikroskopisch gesehen (d.h. auf der quantenphysikalischen Skala) die Wechselwirkung eines Quantensystems mit seiner Umgebung (Messung ist da nur ein Beispiel) aus Elementarereignissen E besteht, deren jedes das System von einem Zustand Z1 in einen Zustand Z2 überführt. Beide sind — so sehe ich das — virtuell, also Überlagerungszustände.
    • Auf makroskopischer Ebene aber (das sei unsere Beobachtungsebene) ergibt sich in Summe solcher Elementarereignisse eine durch uns registierbarer Effekt (der auch unabhängig von uns, dem Beobachter also, existiert). Nur er ist das, was wir als "eindeutig real" bezeichnen können.

    Werner Kinnebrock schreibt:
      Die Realität der Wellenfunktion [er nennt sie die mikroskopische Realität, die wegen der Unschärferelation nicht weiter auflösbar ist "ist für uns nicht wahrnehmbar. Das, was wir wahrnahmen, ist eine übergeordnete Realität, die aus Beobachtungen und damit aus lauter Zusammenbrüchen der Wellenfunktion besteht. Wenn wir unter » Realität « nur die Form der Wahrnehmungen verstehen, müssen wir feststellen, dass Realität erst durch Beobachten entsteht. Und da wir die Konditionen der Wahrnehmung selbst bestimmen, gehen einige Physiker so weit, dass sie sagen, die Realität wird erst durch uns geschaffen."

    All das fasse ich zusammen zur Feststellung:
    • Die durch unsere Sinne registrierbare Wirklichkeit [ makroskopische Wirklichkeit: unsere Erfahrungswelt existiert unabhängig vom Beobachter — sie ist vom Beobachter trennbar.
    • Im Mikroskopischen aber (dort, wo die Unschärfe-Relation regiert) gibt es nur virtuelle, durch Überlagerungszustände gegebene Wirklichkeit. Sie kennt keine Trennung zwischen Beobachter und Beobachtetem, da beide völlig symmetrisch miteinander interagieren und im Zuge solcher Interaktion als nicht trennbare Teile eines Gesamtsystem modifiziert werden.

    Gruß, grtgrt

    PS: Meine Theorie besteht lediglich in der Deutung des Zusammenbrechens der Wellenfunktion: Was aufhört zu existieren, ist die Wellenfunktion von Zustand Z1 (und das einfach deswegen, weil er durch ein Elementarereignis zerstört wird). Sie wird ersetzt durch die Wellenfunktion des Folgezustandes Z2. Beides sind Zustände des Gesamtsystems, zu dem auch der Beobachter selbst gehört. Die Wellenfunktion des beobachteten Teilchens existiert nur rein rechnerisch — was wirklich regiert ist stets die Wellenfunktion des Gesamtsystems (!).

    Soweit ich erkennen kann, steht diese Deutung in keinerlei Widerspruch zur Dekohärenz-Theorie von Zeh.
    Sie nämlich beweist uns ja gerade, dass kein echtes Teilsystem eines Quantensystems autonom sein kann.


     

      Beitrag 1915-89
    Erst Messung (Quanteninteraktion) erzeugt den konkreten Zustand - und der existiert nur an genau einem Punkt der Raumzeit !!!

     
    Henry aus 1915-80:
    Der Überlagerungszustand (Superposition) ist die Beschreibung von Möglichkeiten und nicht physikalisch real (Schrödingers Katze ist entweder tot oder lebendig). Der Messvorgang "enthüllt" den realen Zustand.

    Wenn "Messvorgang" äquivalent zu Reaktion beliebiger Teilchen miteinander ist – wovon ich ausgehe – also dekoharänt über den gesamten Kosmos betrachtet, so ist unser Kosmos physikalisch real. Wäre die Annahme richtig, der Überlagerungszustand wäre real, so befände sich der Kosmos – uns eingeschlossen – permanent im Zustand der Nichtrealität. Henry

    Hallo Henry,

    da kann ich zustimmen, außer der Bemerkung ’Der Messvorgang "enthüllt" den realen Zustand’.

    Vor der Messung existiert überhaupt kein realer Zustand eines Quantenobjekts, sondern eben nur die Beschreibung von Möglichkeiten durch die Bornsche Wahrscheinlichkeitswelle. Erst nach der Messung wird das Quantenobjekt manifest, z.B. durch die Schwärzung einer lichtempfindlichen Platte. Ein vermeintlich vorher existierender realer Zustand kann nicht enthüllt werden, weil dieser vor der Messung nicht existiert.

    Vermutlich weißt du das, du hast dich nur unglücklich ausgedrückt.

    M.f.G. Eugen Bauhof
     

      Beitrag 1915-90
    -

     
     
    Bauhof aus 1915-89:
     
    Erst nach der Messung wird das Quantenobjekt manifest, z.B. durch die Schwärzung einer lichtempfindlichen Platte. Ein vermeintlich vorher existierender realer Zustand kann nicht enthüllt werden, weil dieser vor der Messung nicht existiert.

    Das Beispiel "Schwärzung einer lichtempfindlichen Platte" empfinde ich als besonders lehrreich, denn es ist Teil unserer ( makroskopischen) Erfahrungswelt
    im Sinne von Beitrag 1915-86.

    grtgrt
     

      Beitrag 1915-107
    -

     
     

    Nochmals zur Funktionsweise von Dekohärenz:


    In Ergänzung meiner Beiträge 1915-66 und 1915-86 sowie Eugen Bauhofs Aufforderung 1915-79 sei festgestellt, dass Andreas Mücklich (promovierter Physiker und Astronom) auf Seite 198 seines 2011 erschienenen Buches "Das verständliche Universum" die Kopenhagener Deutung — den Kollaps der Wellenfunktion betreffend — wörtlich wie folgt beschreibt:

      Vor der Messung [eines Elektrons am Doppelspalt ist sie [die Wellenfunktion des Elektrons ausgedehnt über beide Spalte verteilt, und danach ist sie fast punktförmig an dem Ort lokalisiert, an dem das Elektron gemessen wurde. Wegen dieses anschaulichen Bildes spricht man auch vom "Kollaps der Wellenfunktion", der bei einer Messung stattfindet. Die Wellenfunktion schnurrt dabei auf einen Bereich zusammen, der so groß ist wie die Genauigkeit der Ortsmessung. Ab diesem Zeitpunkt wird das Verhalten der neuen Wellenfunktion wieder durch die Schrödinger-Gleichung beschrieben. Lediglich während der Messung ist sie außer Kraft gesetzt.


    Das, so denke ich, bestätigt meine in 1915-66 und 1915-86 dokumentierte Auffassung, dass


    der Zusammenbruch der Wellenfunktion eben NICHT etwas Bleibendes ist,

    sondern etwas sich ständig Wiederholendes.



    Nebenbei: Mücklich verschweigt nicht, dass bis heute über die Kopenhagener Deutung hinaus weitere Kollaps-Theorien diskutiert werden, u.A.
    • Hugh Everetts Viele-Welten-Theorie und
    • ein Erklärungsvorschlag von Roger Penrose, in dem Gravitationskräfte eine wesentliche Rolle spielen.

    Das letzte Wort also scheint den Physikern noch nicht gesprochen zu sein. Warum also sollten dann nicht auch wir hier weiter nach besonders logischen Erklärungen der ständig stattfindenden Dekohärenz-Prozesse suchen?

    grtgrt

     

      Beitrag 1915-109
    Der Film, der darstellt, was wir als die uns umgebende physikalische Realität empfinden

     
     
    E... aus 1915-108:
     
    5. Durch den Mechanismus der Dekohärenz zerfällt also ein beliebig präpariertes System ohne weiteres Zutun in einen Zustand, der in der Pointer-Basis diagonal ist. Einmal dort angelangt, verbleibt es in diesem "effektiv klassischen", nicht interferierenden Zustand.
    Quelle: https://www.tu-braunschweig.de/Medien-DB/ifdn-physi...

    Hi E...,

    deine Aussage "Einmal dort angelangt, verbleibt es in diesem "effektiv klassischen", nicht interferierenden Zustand" ist eindeutig falsch.

    Das ist keineswegs nur meine Meinung (zu der ich über rein logische Erwägungen kam), sondern auch die im Buch "Das verständliche Universum" (2010) von Andreas Mücklich dargestellte. Er kennt Zeh und seine Theorie sehr gut und hat in Heidelberg studiert: an der Hochschule also, an der Zeh lehrt.

    Tatsache ist:

    Wo ein Quantenobjekt Q mit einem Messgerät (oder mit irgend einem anderen Quantenobjekt) interagiert, modifiziert das die Wellenfunktion beider.
    Eben diese Modifikation ist das, was die Kopenhagener Deutung als den "Kollaps der Wellenfunktion" von Q bezeichnet.

    Dieser "Kollaps" aber ist gleichzeitig der Geburtsmoment einer neuen Version der Wellenfunktion, während dessen die miteinander zusammenstoßenden Quanten durch neue Quanten ersetzt werden (im Extremfall durch solche, die von einigen der vorher existenten gar nicht unterscheidbar sind).

    Beispiel: Wo immer man das Elektron eines Wasserstoffatoms beobachtet, ersetzt diese Beobachtung das Elektron durch ein neues Exemplar (und so ist es kein Wunder, dass jenes sich dann, wenn es wieder beobachtet wird, oft in einem anderen Orbital zeigt).

    Da alle Materie mindestens mit der kosmischen Hintergrundstrahlung ständig interagiert, passieren Vorgänge dieser Art tatsächlich am laufenden Band (bei normalem Luftdruck so etwa alle 10-31 sec).

    Jede Quanteninteraktion produziert eine Art Schnappschuss der Situation beim "Kollaps", und all diese Schnappschüsse zusammen bilden eine Art Film, der uns das zeigt, was wir als die uns umgebende Wirklichkeit wahrnehmen.


    Gruß, grtgrt
     

      Beitrag 1915-112
    Ein SEHR treffender Vergleich

     
     
    Irena aus 1915-111:
     
    Grtgrt aus 1915-109:
     
    Jede Quanteninteraktion produziert eine Art Schnappschuss der Situation beim "Kollaps", und all diese Schnappschüsse zusammen bilden eine Art Film, der uns das zeigt, was wir als die uns umgebende Wirklichkeit wahrnehmen.

    Ich habe es unter Stichwort Fakten gelernt. Die Quantenobjekte erzeugen durch die Wechselwirkungen ständig die Fakten, die unsere Realität bilden. Der Fakt ist eine Äußerung eines Objektes, die in einer Wechselwirkung erzwungen wird. Der Quantenobjekt muss sich für eine der Möglichkeiten entscheiden. Es bildet somit ein Faktum.

    Ob es beim Wellenfunktion ein Kollaps stattfindet ist dahintergestellt. Ich stelle mir jedenfalls eine Analogie mit dem Menschen, dessen Gedankenverlauf ist uns nicht zugänglich, solange er sich nicht äußert.


    Hallo Irena,

    das ist ein sehr treffender Vergleich — ich werde ihn mir gut merken.

    Vielen Dank für diese schöne Idee!

    Mit besten Grüßen,
    Gebhard Greiter (grtgrt)

     

      Beitrag 1963-3
    Zum Effekt sog. » kalter Verschweißung «

     
     
    E... aus 1963-2:
     
    Wenn man zwei Stahlwürfel von zum Beispiel 50 mm Kantenlänge deren Oberflächen gehärtet (60 HRC nach Rockwell) und feinstgeschliffen sind mit sauberen und fettfreien Flächen aneinanderschiebt und so länger als 8 Stunden liegen lässt stellt man fest das die Flächen kalt verschweist sind.

    Ansprengen nennen wir (die Metaller) das. Diese Verbindung kommt dem direkten Schweißen sehr nahe. Die atomaren Strukturen jedes Würfels sind dabei, bedingt durch die hohe Oberflächengüte, in der Lage sich mit den Atomen des jeweiligen gegenüberliegenden Würfels zu einem stabilen Gitter zu verbinden. Ein voneinander Lösen beider Teile ist dann ohne die Zerstörung der Oberflächen und deren Güte nicht mehr möglich.

    Bei den von Dir behaupteten ständigen Dekohärenzprozessen die ja immer vorher Kohärenz erfordern wären solche Eigenschaften des Werkstoffes Stahl nicht möglich. Wie sollten sich Atomgitter vereinigen wenn sie permanent instabil sind?

    Hi E...,
    sei auch du von mir gegrüßt.

    Der Effekt, den du hier beschreibst, ist interessant, darf aber nicht mit dem Dekohärent-Werden der Eisenatome (genauer: ihrer Teile) verwechselt werden.

    Er ist vielmehr Folge der ständigen Störung jener Atome durch den immer wieder passierenden Zusammenstoß ihrer Quanten mit solchen, die die Eisenwürfel zu durchqueren suchen. Genauer:

    Jeder Zusammenstoß führt zu einem leichtem Umbau des Quantensystems an der Stelle, an der so ein Zusammenstoß passiert. Da in Eisenatomen sehr starke Kräfte wirken, sind die in der Lage während der kurzen Zeit eines solchen Umbaus jede sich ihnen bietende Chance, die beiden Eisenwürfel dichter aneinander zu bringen, auch tatsächlich zu nutzen. In der Summe ergibt sich so jene kalte Verschweißung.

    Danke für das schöne Beispiel,
    mit besten Grüßen
    grtgrt
     

      Beitrag 1915-141
    Dekohärenz genau betrachtet

     
     
    E... aus 1915-139:
     
    Natürlich entfaltet sie [die Dekohärenz sich in sehr kurzer Zeit. Das heißt aber nicht, dass sie nur sehr kurze Zeit Bestand hat. Dann wäre sie n i c h t irreversibel.
    Die Dekohärenz ist für ein Quantensystem entgültig und zwar solange bis man das Wellenpaket wieder von allen äußeren Einflüssen befreit, also völlig isoliert.

    Hi E...,

    könnte es sein, dass du dich hier einfach nur zu ungenau ausdrückst? Denn:

    Was nicht sofort rückgängig gemacht wird, ist der neue Zustand des Quantensystems, welcher sich aufgrund seiner Kollision mit einem diesem System zu nahe gekommenen anderen System (dem "Messapparat") eingestellt hat. Das ist eine Sache.

    Eine andere Sache aber ist, dass jener neue Gesamtzustand natürlich wieder nur ein virtueller ist — "zunächst bleibend" geändert hat sich nur die ihn beschreibende Wellenfunktion.

    Was konkret wurde, war ein mit gewisser Wahrscheinlichkeit möglicher Zustand der zusammenstoßenden Quanten zum Zeitpunkt ihres Zusammenstoßes (weswegen ich den als "Schnappschuss" bezeichne). Sein Entstehen ist das, was die Kopenhagener Deutung den "Zusammenbruch" der Wellenfunktion nennt.

    Beste Grüße,
    grtgrt
     

      Beitrag 1916-1
    Wo ist der unseren Verstand modellierende Teil der Physik?

     
     
    Dieser Diskussionsfaden sei der Frage gewidmet, was alles Teil der Differenzmengen K- U oder U- RZ sein könnte, wo
    • K alles im Kosmos Existierende bezeichnet,
    • U alles, dessen Existenz an die Existenz unseres Universums geknüpft ist, und
    • RZ alles, was in der Raumzeit unseres Universums lebt (aber nicht an all ihren Punkten).

    Meine These:
    Wenigstens Teile von uns existieren in K- U (woraus folgt, dass diese Menge nicht leer sein kann).


    Meine Frage:
    Können wir entscheiden, ob auch die Menge U- RZ nicht leer ist?



    Zunächst mal: Über Dinge nachzudenken, die nicht Teil unseres Universums sind, ist den Physikern inzwischen zur zweiten Natur geworden. Denken wir da nur an die Stringtheorie, die ja behauptet, dass jede der etwa 10500 Lösungen eines bestimmten Differentialgleichungssystems den Typ eines potentiell existierenden Universums darstellt.

    Unter der Annahme, das sei richtig, folgt sofort:
    • Alle der Stringtheorie zugrundeliegenden mathematischen Gesetze (einschließlich aller logischen Gesetze und aller ganzen Zahlen) existieren ohne jede Bindung an unser Universum, sind also nicht Teile der Raumzeit unseres Universums.
    • Und sofort wird klar: Unser Verstand kann die Raumzeit, in der wir leben (unser Universum sogar), nach Belieben verlassen und betreten. Damit aber, so denke ich, können auch die Mechanismen, aus denen er besteht, nicht in vollem Umfang Teil unserer Raumzeit sein.
    • Letztlich sind demnach auch wir selbst nicht in vollem Umfang Teil der Raumzeit unseres Universums.
    Was also ist die Physik des Teiles unserer selbst, der nicht Teil unserer Raumzeit ist?

     
    Gebhard Greiter (grtgrt)
     

      Beitrag 1916-4
    Was Mach sagte ...

     
     
    H... aus 1916-2:
     
    Lt. Mach z.B. verschwindet mit dem "Universum" alles, mithin ist K\U={∅}
    In deiner Menge K steckt ja die implizite Vorstellung, dass es mind. einen Sachverhalt gibt, der nicht an die
    Ex. des Univ. gebunden ist. Ausserdem haben wir es mit Prozessen zu tun, d.h. es gibt eine Abhängigkeit
    der Konfiguration zum entsprechenden Punkt im RZ-Kontinuum. Das muss unbedingt Beachtung finden.

    Geht das Ganze in Richtung Esoterik?
     


    Hallo H...,

    Mach lebte in einer Zeit, in der man sich noch nicht vorstellen konnte, dass es im Kosmos mehr als nur ein Universum geben könnte.
    Es war deswegen für ihn K = U, und deswegen natürlich K-U = ∅.

    Die Stringtheoretiker wenigstens sehen das heute das anders, aber wohl nicht nur sie. Denk da mal z.B. an die Theorie der Baby Universes und schau dir die Namen der Physiker an, die darüber schreiben.

    Mit Esoterik will ich NICHTS, aber auch GAR NICHTS zu tun haben.

    Beste Grüße,
    grtgrt

    Nebenbei: {∅} ist eine nicht-leere Menge. Ihr einziges Element ist die leere Menge.
     

      Beitrag 1916-5
    Prämisse ist: Die (mathematische) Logik im Kosmos ist überall diesselbe.

     
     
    E... aus 1916-3:
    Grtgrt aus 1916-1:
    (...)
    Alle der Stringtheorie zugrundeliegenden mathematischen Gesetze (einschließlich aller logischen Gesetze und aller ganzen Zahlen) existieren ohne jede Bindung an unser Universum, sind also nicht Teile der Raumzeit unseres Universums.
     

    Wahrscheinlich hast Du Belege oder Indizien für Deine "klaren" Postulate.
    Ich bin gespannt.
     

    Hi E...,

    ich gehe da — wie alle Physiker, die sich Gedanken über Stringtheorie und damit verwandte Themen machen — davon aus, dass der Physik nichts anderes übrigbleibt, als vorauszusetzen, dass Logik und Mathematik im gesamten Kosmos Gültigkeit haben, also z.B. nicht nur lokal in einem bestimmten Universum (wenn es denn mehr als nur eines geben sollte).

    Gruß,
    grtgrt
     

      Beitrag 1916-11
    Mehr als nur 9 Möglichkeiten, dass unser Universum nicht das einzige ist

     
     
    Okotombrok aus 1916-8:
     
    Grtgrt aus 1916-1:
    Zunächst mal: Über Dinge nachzudenken, die nicht Teil unseres Universums sind, ist den Physikern inzwischen zur zweiten Natur geworden.

    glaub' ich nicht, nenne doch 'mal welche und zitiere.

    ... Zwangsläufig muss etwas außerhalb unseres Universums für immer willkürliche Spekulation bleiben und ist somit weder ein Thema für die Physik, noch hat es irgendeine Bedeutung für uns.


    Hi Okotombrok,

    auf Anhieb fallen mir da mindestens zwei sehr bekannte Physiker ein: Brian Greene und Lisa Randall.

    Nur wenig, von dem, über das ihre Bücher berichten, stammt von ihnen selbst. Man könnte also zahlreiche weitere Namen nennen.


    In seinem Buch "The hidden Reality" (2011) schreibt Greene gleich im Vorwort:

    Zitat von Greene:
     
    What we have found has already required sweeping changes to our pictures of the cosmos. Through physical insight and mathematical rigour, guided and confirmed by experimentation and observation, we have established that space, time, matter, and energy engage a behavioral repertoire unlike anything any of us have ever directly witnessed. And now, penetrating analyses of these and related discoveries are leading us to what may be the next upheaval in understanding: the possibility that our universe is not the only universe.
     

    Das gesamte Buch — gut 400 Seiten — diskutiert jene Möglichkeiten, und auf Seite 355 werden all diese Theorien — insgesamt 9 — in einer Tabelle nochmals aufgelistet und mit jeweils ein bis zwei Sätzen nochmals kurz angerissen. Diese Tabelle trägt den Titel "Summary of various Versions of Parallel Universes".

    Mir ist völlig klar, dass sie alle bisher nur Theorien sind: Theorien aber, über die durchaus renommierte Vertreter der Theoretischen Physik ganz ernsthaft diskutieren — warum also sollten nicht auch wir das tun?


    Insbesondere im letzten Drittel ihres Buches "Warped Passages unravelling the Mysteries of the Universe's Hidden Dimensions" (2005) diskutiert Lisa Randall mehrere Möglichkeiten sog. Brane Universes. Sie vergleicht sie mit Quallen, die in einem Ozean schwimmen, der (in diesem Vergleich) den Kosmos repräsentiert. Sie diskutiert aus der Stringtheorie kommende Möglichkeiten für Gravitons unterschiedlicher Typen sowie (mögliche) Elementarteilchen, die an die Qualle gebunden sind (in dem Sinne, dass ihre Wellenfunktion zwar nirgendwo im Kosmos zu Null wird, aber dennoch nur in und in unmittelbarer Nähe der "Qualle" einen Wert hat, der nicht vernachlässigt werden kann).

    Für mich ergibt sich aus all dem, dass wir derzeit nicht ausschließen können, dass unser Universum mit einer dieser vielen "Quallen" im kosmischem "Ozean" vergleichbar sein könnte.


    Das also ist in etwa der Kontext, in dem ich denke.

    Beste Grüße,
    grtgrt
     

      Beitrag 1916-16
    Erste Überlegungen zur (möglichen) Interaktion unterschiedlicher Universen

     
    H... aus 1916-14:
    Hallo,

    Theorie hin oder her: das ist doch einfach ein Bezug auf eine Domäne, mit einem Satz an Grundannahmen und
    abgeleiteten Grundzusammenhängen (Gesetze). Die Theorie gewinnt an Vertrauen (also nicht: "wir beweisen die
    Richtigkeit der Theorie"), wenn deren Vorhersagen mit der menschlichen Beobachtung (wir haben nur die) übereinstimmen. Sie gilt als widerlegt, wenn mind. eine Beobachtung der Theorie widerspricht.
    That's it!

    Für den interessierten Leser (aber nur für den, es steht ein bisschen Mathematik drin) mal eine Kostprobe zum Thema Viel-Universen:
    multi-universe

    Gruss
    H...

    Hi, H...!

    Ich stimme dir zu, was die Verifizierung bzw. Falsifizierung von Theorien angeht. Aber ebenso richtig ist sicherlich, dass eine neue Theorie nicht wilde Spekulation sein sollte, wenn es eben Grundlagen gibt, auf denen andere Theorien bereits erfolgreich ihre Berechtigung erworben haben. Jedes Experiment ist die Verifizierung bzgl. einer Annahme die Theorie betreffend. Es sei jedem überlassen, über den Kosmos sich seine Gedanken zu machen und zu den abstrusesten Folgerungen zu gelangen. Eine Theorie, die ernst genommen werden will, wird aber die Grundlagen z. B. der ART bzw. der Quantenmechanik akzeptieren. Wenn Karl Popper also die Ansicht vertritt, dass es möglich und nützlich sei, eine Theorie völlig frei zu entwickeln, ist das nur eine Seite seiner Thesen. Die andere ist, dass sich Theorien "evolutionär" entwickeln, sie beruhen stets auf Vorangegangenem, soweit vorhanden.

    Was nun die Multi-Versen angeht, so widerspricht das sicher nicht der Freiheit, die Popper für das Theoretisieren fordert – aber ich vermisse ganz eindeutig die Möglichkeit, diese Hypothese in irgendeiner Hinsicht auch nur durch ein Experiment zu bestätigen oder zu widerlegen, ja, sie entzieht sich nicht nur der Begutachtung, sondern einer grundsätzlichen deiner Forderungen: Wir können nichts beobachten, was mit Multi-Versen zu tun haben könnte. Nicht alles, was gedacht werden kann, muss auch wirklich sein können, und man muss Popper ja nicht in allem folgen.
     

      Beitrag 1916-20
    Existieren z.B. Elektronen teilweise auch außerhalb der 4-dimensionalen Raumzeit?

     
     
    Zurück zum eigentlichen Thema:

    Existieren wir teilweise außerhalb der Raumzeit unseres Universums?


    In einigen atomaren Zuständen (etwa im Zustand 2p des Wasserstoffatoms) zerlegt die Wellenfunktion den Raum in Regionen, die durch unendliche Flächen (sog. Knotenflächen) separiert sind.

    Diese Flächen stellen Lösungen der Schrödunger-Gleichung dar: Flächen also, auf denen die Wahrscheinlichkeit, dass ein Elektron dort gefunden wird, Null ist. Solche Flächen also kann ein Elektron weder berühren noch durchdringen — es ist gezwungen, sie zu meiden.

    Trotzdem kann ein Elektrom mal in der einen dieser Regionen gefunden werden und mal in der anderen. Lothar Schäfer schreibt:


    Wie es von einem Raumteil in den anderen kommt, dazu sollte man schweigen, weil man es nicht beobachten kann.

    Geometrisch jedenfalls, führt jeder Weg aus einem dieser Raumteile in einen anderen durch eine Knotenfläche.


    Schäfer schließt daraus, dass diese Tatsache vermuten lasse, dass "die Wirklichkeit eines Quantenobjekts zwischen zwei Beobachtungen keine normale beobachtbare Wirklichkeit ist". Sie scheint nur über nicht-lokale Phänome erklärbar.

    Er schreibt weiter: "Die Anormalität kommt dadurch zum Ausdruck, dass sich die Elektronen nicht an einen gewöhnliche Zwang von Raum oder Zeit zu halten scheinen, so als seien sie in der Lage, einem solchen Zwang in einem Zustand außerhalb der Raumzeit zu umgehen."

    Die Existenz von Zuständen außerhalb der Raumzeit ist bislang nicht beweisbar, wurde aber dennoch auch von einigen anderen Physikern schon ins Gespräch gebracht, so etwa von
    • Stapp H.P. in: Are Superluminal Connections Necessary? (Nuovo Cimento 40B: 191-199, 1977)
    • Kafatos und Nadeau in: The Consious Universe (Springer Verlag, N.Y., 1990)
    • Goswami A., Reed und Goswami M. in: The Self-Aware Universe (Penguin Putman Inc., N.Y. 1993)
    • Nesteruk A.V. in: Is a Wave Function Collapse a Real Event in Physical Space and Time? (erschienen in: Duffy & Wegener, Hrsg.: Recent Advances in Relativity Theory 2: Material Interpretations, Hodronic Press, pages 169-170, 2000)
     

      Beitrag 1923-1
    Gibt es physikalisches Modelle, die beliebig weit ins Ultra-mikroskopische hinein Sinn machen?

     
     

    Warum wir stets nur eine makroskopische Sicht auf die Natur haben können


    Wo man die Energie eines Quantums (z.B. eines Elektrons oder eines Photons) zu messen sucht, muss man — so wird mir glaubhaft versichert — Energie und Zeit als zueinander konjugierte Größen im Sinne von Heisenbergs Unschärferelation betrachten. Damit gilt die Ungleichung

    Δ E Δ th/4π


    wo h das Plancksche Wirkungsquantum bezeichnet (eine positive Zahl, die man als Naturkonstante kennt).

    Nach gängiger Interpretation beschreibt diese Ungleichung nun aber keineswegs nur eine Unschärfe der Beobachtung, sondern vielmehr auch eine der Natur selbst innewohnende Unschärfe. Wer nun Δ t zunehmend kleiner wählt, erkennt,

    dass mindestens eine der folgenden Thesen wahr sein muss:

    • These 1: Es gibt kleinste Zeitspannen (die Zeit ist also gequantelt).
    • These 2: In jeder noch so kleinen Zeitspanne wächst die Energie des Quantums unendlich oft über jede nur denkbare Grenze.
    • These 3: In jeder noch so kleinen Zeitspanne hört das Quantum unendlich oft auf zu existieren.


    Welche auch immer wahr sein sollte, man kann auf jeden Fall mit Sicherheit behaupten:


    Es gibt eine (ultra-) mikroskopische Sicht auf die Natur, in der mindestens eine der Größen Zeit bzw. Energie keinen Sinn mehr macht.

    Sie macht also nur Sinn aus makroskopischer Sicht.


    Das aber lässt mich fragen:

    Gibt es denn überhaupt ein physikalisches Modell, welches beliebig weit ins Ultra-mikroskopische hinein Sinn macht?



    Letztlich führt das auch auf die Frage, in welchem Ausmaß Elementarteilchen denn überhaupt als "existierend" bezeichnet werden können.

    Heisenberg selbst noch hat das klar erkannt, denn auf Seite 101 seines Buches "Physics and Philosophie" (1958) liest man:

    Zitat von Heisenberg:
     
    Wenn man eine genaue Beschreibung des Elementarteilchens geben will ... erkennt man, dass nicht einmal die Eigenschaft des "Seins"
    — wenn man hier überhaupt von einer Eigenschaft reden will —
    dem Elementarteilchen ohne Einschränkung zukommt.

     


    Gebhard Greiter (grtgrt)
     

     

      Beitrag 1923-35
    Die Wellenfunktion bricht nicht zusammen — sie repräsentiert Informationsstand

     
    C... aus 1923-34:
     
    Die offensichtliche Subjektivität dieser Wertung legt es m.E. nahe, den "Zusammenbruch" der Wellenfunktion (falls es diesen überhaupt gibt) nicht einem Zeitpunkt (Vergangenheit, Gegenwart, Zukunft) zuzuordnen, sondern ihn vielmehr an die Information zu koppeln, die ein Beobachter erhält, wenn er das jeweilige Ereignis beobachtet.
     

    Hi C...,

    mir scheint, deine Vorstellung den "Zusammenbruch" betreffend ist genau die richtige.

    Alles, was ich bisher über Quanten-Experimente gelesen habe, deutet darauf hin, dass die Wellenfunktion nicht zusammenbricht, sondern dass sie sich automatisch jeder neuen Informationslage anpasst (sie ist sozusagen "Spiegelbild" der jeweils vorhandenen Informationslage).

    Als "Zusammenbruch" erscheint das nur dem, der seine Betrachtung auf nur eine gemessene Größe (sprich: auf ein zu messendes Attribut) eines Quantums beschränkt. Schon wer mindestens zwei Quanten gleichzeitig betrachtet — wie man das etwa in einem von Leonard Mandel durchgeführten Experiment tut — sieht, dass z.B. das Unterbrechen eines der dort vorhandenen 4 Lichtwege zu mehr Information führt und sofort zu einer entsprechend modifizierten Wellenfunktion an zwei Detektoren, die Teile eines im Experiment in insgesamt 4 Teile zerlegten Photonstrahls aufzufangen da sind.

    Dieses Experiment beschreibt Lothar Schäfer in seinem Buch in Anhang 17. Im WWW findet sich auch eine Beschreibung, die ist aber etwas gekürzt und daher weniger klar. (So auf die Schnelle habe ich jene Seite eben jetzt auch nicht wiedergefunden).

    Beste Grüße,
    grtgrt


    PS: Eben erfahre ich, dass eine Gruppe um Gerhard Rempe (1998) folgendes Experiment in die Tat umgesetzt hat:

    Rubidiumatome wurden durch einen "Doppelspalt" geschickt, der aus purem Licht bestand (also nicht aus Materie). Genauer:

    In einer komplizierten Anordnung gelang es den Physikern, den Strahl aus Rubidium-Atomen an stehenden Lichtwellen so aufzuspalten, dass 4 Teilstrahlen entstanden:
    Je zwei konnten sich gegenseitig überlagern und so Interferenz bilden.

    Mit einem ganz besonderen Trick versuchten die Forscher nun, den Rubidium-Atomen die Information zu entlocken, auf welchem Weg jedes einzelne die Anordnung durchflogen hatte. Dazu muss man wissen: Rubidium-Atome besitzen in ihrer äußersten Schale ein Elektron, dessen Spin sich nach oben oder nach unten einstellen lässt. (Das Atom wird dadurch nicht verändert.)

    Die Physiker richteten es so ein, dass das Elektron der Atome, die durch Spalt 1 kamen in eine, und das der Atome, die durch Spalt 2 kamen in die andere Richtung eingestellt wurde. An dieser Einstellung lies sich dann feststellen, durch welchen Spalt das Atom gekommen war.

    Wie in ähnlichen Doppelspalt-Experimenten ergab sich auch hier:

    Sobald diese Markierung gesetzt, also Weg-Information vorlag, verschwand die Interferenz zwischen den Atomen.


    Das Besondere hier war, dass dieses Verschwinden allmählich herbeigeführt werden konnte:
    Je mehr Atome man wie beschrieben normiert losschickte, desto mehr verschmierten sich die hellen und dunklen Streifen des Interferenzbildes:

    Atome, deren Weg festgestellbar war,
    bekamen hinter dem Spalt ganz offensichtlich andere Wellenfunktion als jene, deren Weg nicht feststellbar war.

    Und das, obwohl sie sich von den anderen in rein GAR NICHTS unterschieden (!)


     

      Beitrag 1924-10
    Zur Terminologie: Kosmos, Universum, unsere Welt

     
    Okotombrok in 1924-6:
     
    Wiki macht hier keine Unterscheidung zwischen Kosmos und Universum
    Zitat von Wiki:
    Als Universum (von lateinisch universus "gesamt", von unus und versus "in eins gekehrt") wird allgemein die Gesamtheit aller Dinge bezeichnet. Im Speziellen meint man damit den Weltraum (veraltet auch Weltenraum), auch Weltall oder Kosmos (von griechisch κόσμος kósmos "(Welt-)Ordnung", "Schmuck", "Anstand" das Gegenstück zum Chaos) und bezeichnet die Welt bzw. das Weltall sowohl als das sichtbare Universum, als auch als geordnetes, harmonisches Ganzes.
     

    Hi Okotombrok,

    die Definition in Wikipedia scheint mir veraltet. Sie war übrigens auch meine — allerdings nur, bis ich dann Brian Greenes Bücher gelesen hatte.

    Bei Greene findet sich zwar keine explizite Definition für den Begriff » Kosmos «. Dennoch fällt mir auf, dass er die Worte Kosmos bzw. Universum genau dort benutzt, wo ich sie (meiner Definition entsprechend) auch wählen würde.

    Ansonsten: Schon in Beitrag 1916-11 habe ich beschrieben, warum und in welcher Weise,

    die Begriffe Kosmos und Universum einer Unterscheidung bedürfen:


    ... wir können derzeit nicht ausschließen,
    dass unser Universum mit einer dieser vielen "Quallen" im kosmischem "Ozean" vergleichbar sein könnte.


    Gruß,
    grtgrt

    PS: Wo ich hin und wieder von " unserer Welt" spreche, will ich offen lassen, ob dort unser Universum oder der Kosmos insgesamt gemeint ist bzw. gemeint sein sollte.

     

      Beitrag 1938-26
    Zwei noch völlig offene Fragen

     
    Gregor Lämmer aus 1938-25:
    ... ich nehme an, dass es eine kleinste Dauer gibt, der man die Größe 1 zuschreiben kann. Dies hätte dann zur Folge, dass alle Dauern, die wir im Mesokosmos erleben, eine mehrfache Größenordnung dieser kleinsten Dauer darstellen.

    Hi Gregor,

    ob es diese kleinste Dauer (oder ob es unteilbare Zeitquanten) gibt, sind zwei noch völlig offene Fragen.

    Siehe dazu Wikipedia übers Chronon, wo steht (Zitat):

    In der aktuellen Quantenphysik wird die Existenz des Chronon sehr kontrovers diskutiert.


    Gruß, grtgrt
     

      Beitrag 1938-28
    Auch die Frage nach dem, was Zeit eigentlich ist, scheint völlig offen

     
    Horst aus 1938-23:
    Hallo Henry

    Und mit welchem zeitlichen Begriff – der nicht von einer Bewegung abgeleitet wurde – erklärst du es?

    Ich weiß zwar nicht wessen "vorher" und "nachher" du meinst, aber um von "vorher" und "nachher" sprechen zu können, bedarf es doch eines Objektes, da sich "vorher" an einem andern Ort im Raum befunden hat als "nachher".

    Das heißt doch, man kann diese beiden Begriffe auch erklären, ohne irgendeinen zeitlichen Begriff zu verwenden, nämlich indem man den räumlichen Abstand bestimmt.

    So, nun wäre es schon nett von dir auch deine Aussage zu erklären:

    Zitat:
    für mich bedeutet "etwas dauert", dass Zeit vergeht.

    Insbesondere, wie du (und nicht Newton) feststellst, dass und wie "Zeit" vergeht!

    Gruß Horst

    Horst,

    mir war nicht ganz ernsthaft zu Mute, weil das Thema ja nun wirklich nicht zum ersten Male durchkauen. Ich will mich deshalb auch nur noch einmal dazu äußern.

    Also, mit deiner Ansicht, dass Zeit nicht real existiert, stehst du ganz sicher nicht allein, und auch gestandene Physiker sehen das so. Man kann es so sehen, es ist dann unser Verstand, der die Dinge im Raum und in der Zeit ordnet, weil wir sonst nur strukturloses Chaos vorfinden würden. Bliebe dann aber die Frage, wie er – unser Verstand – das fertig bringt. Falls es so wäre, dass Zeit nicht existiert, müsste alles jetzt und hier gemeinsam existieren.

    Da liegt nämlich dein gedanklicher Fehler. Auch Physiker – und sonstige nette Leute -, die Zeit als vom Verstand geschaffen ansehen, bezeichnen das, was du rein der Bewegung zuschreibst, als zeitliche Abfolge. Die Bewegung von hier nach dort hat ein Vorher und Nachher, und völlig gleichgültig, ob ich die Zeit für real halte oder nicht, das ist es, was wir unter dem Vergehen von Zeit verstehen. Die Frage, ob Zeit – oder besser die Raumzeit – real ist, ist erst einmal davon gar nicht betroffen und ein anderes Thema. Die Frage, was Zeit tatsächlich ist, kann niemand beantworten, und das weißt du sehr genau, es ist also schon nervig von dir, ständig darauf rumzuhacken. Und was soll das bedeuten: Nicht auf Links im Internet berufen, sondern auf sich selbst? Willst du, dass wir hier ohne jede physikalische Grundlage diskutieren, alles beiseite lassen, was an Erkenntnis vorliegt?
     

      Beitrag 1938-40
    Zeit in wenigstens 4 unterschiedliche Bedeutungen

     
     
    Gregor Lämmer aus 1938-35:
    Henry aus 1938-28:
     
    Die Frage, was Zeit tatsächlich ist, kann niemand beantworten . . .

    Zeit ist Dauer


    Diese Antwort ist richtig, aber keineswegs vollständig, da der Begriff "Zeit" für uns ja mindestens 4 völlig unterschiedliche Bedeutungen hat:
    • Zeit als Dauer
    • Zeit als etwas Vergängliches
    • Zeit als etwas, das wir durchwandern (sprich: Zeit als transitive 2-stellige Relation auf der Menge aller Ereignisse)
    • Zeit als eine der 4 Dimensionen der RaumZeit der ART

     

      Beitrag 1938-42
    -

     
    H... aus 1938-41:
    Diese Antwort ist richtig, aber keineswegs vollständig, da der Begriff "Zeit" für uns ja mindestens 4 völlig unterschiedliche Bedeutungen hat:
    • Zeit als Dauer
    • Zeit als etwas Vergängliches
    • Zeit als etwas, das wir durchwandern (sprich: Zeit als transitive 2-stellige Relation auf der Menge aller Ereignisse)
    • Zeit als eine der 4 Dimensionen der RaumZeit der ART

    "Zeit ist Dauer" bringt physikalisch keinen Nährwert. Das ist so, als ob ich sage "Geschwindigkeit ist Schnelligkeit"..

    Hallo H...,

    Du hast sicherlich recht, dass der Zeitbegriff im allgemeinen Sprachgebrauch sehr diffus ist. Man könnte noch eine Menge anderer Begriffsinhalte für das Wort "Zeit" finden. Ich nehme mir jetzt die "Zeit" diese Zeilen zu schreiben, bedeutet z:B. sinngemäß nichts anderes als: "ich habe nichts Besseres vor".

    Die Zeit als reine Dauer zu definieren, grenzt allerdings den Zeitbegriff schon mal ein, z.B. auch in dem Sinne, dass damit Zeitpunkte nicht unter diesen Zeitbegriff fallen.

    Ich denke, dass genau dieser Zeitbegriff in der Physik verwendet wird, wobei die Dauer noch normiert wird, nämlich in Form von Sekunden, Minuten, Stunden etc., um die Dauer mathematisch beschreiben zu können. Für diese Art von Zeit = Dauer ist die Richtung eines Vorgangs in Form von kausalem Geschehen gleichgültig. Das Leben eines Menschen dauert von der Geburt bis zum Tod genauso lange, wie rückwärts betrachtet vom Tod bis zur Geburt. Ein Film dauert gleichlang, egal ob ich ihn vorwärts oder rückwärts laufen lasse.

    Du hast auch recht, dass Dauer im Prinzip nur ein anderes Wort für für Zeit(dauer) ist, und damit noch nicht erklärt ist, wie unsere Vorstellung von dieser Dauer zustande kommt.

    Ich denke, dass unser allgemeines "Gefühl" von der Dauer eines Vorgangs dadurch zustande kommt, dass wir aus Erfahrung wissen, dass während eines konkreten Vorgangs unendlich viele weitere Vorgänge stattfinden. Um die Vorstellung der Dauer eines Vorgangs zu bilden, müssen wir diesen Vorgang zu zumindest einem weiteren Vorgang in Beziehung setzen.

    Zeit ist daher dem Wesen nach eine Beziehung (Vergleich) zwischen Vorgängen (Geschehensabläufen).

    MfG
    Harti
     

      Beitrag 1938-66
    Die Plack-Einheiten — Grenze der Anwendbarkeit bekannter physikalischer Gesetze

     
    Grtgrt aus 1938-65:
     
    Wrentzsch aus 1938-63:
     
    Wer hat eigentlich die Plankzeit entdeckt?
    Wie kam man auf die Idee?
     

    Hi Wrentsch,

    in Wikipedia liest man:

    "Die Planck-Einheiten, benannt nach Max Planck, bilden ein natürliches Einheitensystem. Sie werden aus drei Naturkonstanten hergeleitet, nämlich der Gravitationskonstanten G, der Lichtgeschwindigkeit c und dem planckschen Wirkungsquantum h, und markieren teilweise Grenzen der Anwendbarkeit der bekannten Naturgesetze (siehe Planck-Skala)."

    Mit anderen Worten:
    • Die Planck-Zeit ist nicht mehr als eine Zeit-Einheit, die so gewählt ist, dass gewisse Formeln möglichst einfache Form annehmen.
    • Dies zu erreichen, wurde sie ale geeignetes Vielfaches des Planckschen Wirkungsquantums definiert (das in all jenen Gleichungen auftritt).
    • Dass es dieses kleinste Wirkungsquantum gibt, ist das eigentlich Erstaunliche. Seine Entdeckung — durch Max Planck — kann als Geburtsstunde der Quantenphysik betrachtet werden.

    Gruß, grtgrt
     

    Nur zur Ergänzung: Man setzt c, G, h und k als "1", das sind dann die sogenannten "Natürlichen" Konstanten und eine Umrechnung erübrigt sich, kommt ja immer "1" heraus (natürlich nicht in Verbindung mit anderen Einheiten).

    Und das "Wirkungsquant", eigentlich Planck-Konstante, ist die Einheit Energie mal Zeit, wie der Name schon sagt, ebenfalls eine Konstante.
     

      Beitrag 1970-1
    Verwirrendes

     
     
    Da nach Einsteins berühmter Formel E = mc2 Energie und Masse zueinander äquivalent sind, war ich bisher immer der Meinung, dass natürlich auch Energie Gravitationskraft erzeugt.

    Nun lese ich aber im Papier eines Physikers [genauer: bei Robert B. Laughlin in "Abschied von der Weltformel" Seite 189 oben:

    Zitat:
    Reales Licht unterscheidet sich wie realer quantenmechanischer Schall insofern von seinem newtonschen Gegenstück, als es selbst dann Energie enthält, wenn es eiskalt ist. Nach dem Relativitätsprinzip sollte diese Energie Masse erzeugt haben, was wiederum Gravitation hätte hervorrufen müssen.
    Wir haben keine Idee, warum das so ist, und so behandeln wir das Problem, wie das vielleicht eine Regierung machen würde, und erklären einfach, der Raum würde keine Schwerkraft besitzen.


    Wer bitte kann mir jetzt folgende 3 Fragen beantworten:
    • Erzeugt Energie wirklich keine Gravitationskraft?
    • Was versteht man unter eiskaltem Licht?
    • Und was genau ist quantenmechanischer Schall?

    grtgrt
     

      Beitrag 1970-6
    -

     
    Grtgrt aus 1970-1:
    Wer bitte kann mir jetzt folgende 3 Fragen beantworten:
    • Erzeugt Energie wirklich keine Gravitationskraft?
    • Was versteht man unter eiskaltem Licht?
    • Und was genau ist quantenmechanischer Schall?
    Hi grt,

    ich bin der gleichen Meinung wie oberen Schreiber. Der Sinn seiner Sicht ist, dass er Gravitation als emergente Eigenschaft der Entwicklung des Universums sehen will. Übrigens (bin ich stolz darüber) habe ich diese Gedanke schon vor der Lesung dieses Buchs. Sicher ist es nur seine Meinung, mindestens sehe ich bestätigt, dass sie physiklaisch gesehen nicht so abwegig ist.

    Zu deinen Fragen:
    - Was wäre wenn du uns hier deine Definition von Energie lieferst. Da bist du doch ein Weltmeister ;-)
    Meines Erachtens ist die erste Frage nicht logisch korrekt formuliert. Energie erzeugt nicht die Kraft. Energie manifestiert sich durch die Kraftwirkung. Dadurch wird sie auch verändert.
    - Eiskalte Licht ist nach mein Verständnis die s.g. Nullpunktenergie gemeint.
    - Das Teilchen wird oft als Störung eines quantenmechanischen Feldes dargestellt (Welleneingenschaft). Daher kann man über den Schall sprechen.
    Gruß, Irena
     

      Beitrag 1970-8
    -

     
    Grtgrt aus 1970-1:
     
    Da nach Einsteins berühmter Formel E = mc2 Energie und Masse zueinander äquivalent sind, war ich bisher immer der Meinung, dass natürlich auch Energie Gravitationskraft erzeugt.

    Nun lese ich aber im Papier eines Physikers:

    Zitat:
    Reales Licht unterscheidet sich wie realer quantenmechanischer Schall insofern von seinem newtonschen Gegenstück, als es selbst dann Energie enthält, wenn es eiskalt ist. Nach dem Relativitätsprinzip sollte diese Energie Masse erzeugt haben, was wiederum Gravitation hätte hervorrufen müssen.
    Wir haben keine Idee, warum das so ist, und so behandeln wir das Problem, wie das vielleicht eine Regierung machen würde, und erklären einfach, der Raum würde keine Schwerkraft besitzen.


    Wer bitte kann mir jetzt folgende 3 Fragen beantworten:
    • Erzeugt Energie wirklich keine Gravitationskraft?
    • Was versteht man unter eiskaltem Licht?
    • Und was genau ist quantenmechanischer Schall?

    grtgrt
     

    Man könnte definieren, dass Energie die Fähigkeit ist, zu wirken. Damit Energie wirken kann, muss es ein energetisches "Gefälle" geben, Energie (in diesem Sinne, als Wirkfähigkeit) an sich bewirkt gar nichts.

    Physikalisch ist Energie der Masse äquivalent, und Masse ist es, die gravitativ wirkt (die Raumzeit krümmt). Die Krümmung der Raumzeit insgesamt wird immer durch die Gesamtmenge an Masse, also auch der Strahlungsenergie bestimmt. Ein Köper, der beschleunigt wird, erhöht seine Energie und damit seine Masse und krümmt damit stärker die Raumzeit.

    Ich vermute, hinter dem "eiskalten Licht" des Autors steckt ein naives Bild von dem, was Energie ist. Wenn ich nämlich Energie im weiteren Sinne mit Wärmestrahlung gleichsetze, komme ich zur Frage, wie noch Wärme abgestrahlt werden kann, falls sich die Temperatur eines strahlenden Körpers dem absoluten Nullpunkt nähert. Wärme ist aber ein relativer Begriff zum einen und zum anderen kann die Temperatur den absoluten Nullpunkt (Heisenberg!) nicht erreichen, weshalb auf jeden Fall Wärme (Energie) abgestrahlt wird.

    Korrektur: Obigen, letzten Absatz kann ich so nicht stehen lassen, weil ich hier Laughlin wohl ziemlich falsch verstanden habe, denn er sagt ja gerade, dass auch "eiskaltes Licht" noch Energie ist.
     

      Beitrag 1970-13
    Emergenz: Wie die Natur sich selbst organisiert (und dann mehr ist als nur der Summe ihrer Teile)

     
     
    Hallo Irena & Henry:

    Vielen Dank für eure Antworten. Sie bestätigen mich in meinen bisherigen Ansichten.


    Dass Laughlin es offenbar liebt, sich eher burschikos denn genau auszudrücken, finde ich schade. Er könnte anders größere Wirkung erzielen.

    Ich mag seinen Stil nicht, teile aber dennoch seine Ansicht, dass Emergenz zur Kenntnis zu nehmen, wirklich wichtig ist.
    Dass sie in den Mittelpunkt zu stellen Reduktionismus ersetzen kann, wie er zu glauben scheint, ist aber sicher falsch.


    Ich für mich halte fest:

    Emergenz
    — verursacht durch eine Vielzahl zufällig eintretender Elementarereignisse, die den Drang nach Potentialabbau ständig stören —
    ist dafür verantwortlich, dass komplexe Systeme mehr sind als nur die Summe ihrer kleinsten Teile.


    Beste Grüße,
    grtgrt
     

      Beitrag 1970-14
    -

     
    Zara-t schrieb:

    Vielleicht sollte ich vorausschicken, daß in meinem Denken die Welt nicht aus Teilen besteht. Primär ist das Ganze. Primär ist für mich das Phänomen. Für das reduktionistische Denken steht das Phänomen am Ende einer Kette von Wirkzusammenhängen die unten bei den Elementarteilchen oder noch früher (zB Strings) beginnt. Für das reduktionistische Denken ist das Phänomen (= Wahrnehmung = Bewußtsein...) noch nicht erklärbar. Ich bin mir ziemlich sicher, dass es reduktionistisch überhaupt nicht zu erklären ist. Ich gehe lieber den umgekehrten Weg und versuche die Teile vom Ganzen her zu beschreiben. Und dann landen wir beim Stichwort >Emergenz<.

    Emergenz: Teile werden zusammengefügt und bilden eine neue Einheit. Dabei entsteht eine Qualität, die die Teile allein zuvor nicht zeigten und die auch aus der Kenntniss der Teile nicht ableitbar war. Eine neue Qualität. ZB: Nehmen wir an, wir wüßten alles, was es über die Atome Sauerstoff und Wasserstoff zu wissen gibt. Ich behaupte es ist unmöglich aus dieser Kenntnis das Reaktionsprodukt Wasser vorher zu sagen (zu berechnen).
    Oder: Nur aus der Kenntnis einer Eizelle und einem Spermium ist es unmöglich vorherzusagen was für ein Tier daraus entstehen wird. Wenn uns also nur die Eizelle eines Alien gezeigt würde, könnten wir fast nichts über diese Wesen vorhersagen.

    Ein bekanntes Buch trägt den Titel: "Am Anfang war der Wasserstoff." Sobald man diese Aussage ontologisch, reduktionistisch auffaßt hat man innerhalb der diesem Paradigma verhafteten Wissenschaften keine Chance mehr zu der Welt zu gelangen die wir kennen, weil wir in ihr leben.

    Emergenz ist deshalb für mich kein von unten nach oben (kein reduktionistischer) gerichteter Prozess, sondern ein von oben nach unten gerichteter. Und oben steht für mich das Phänomen als solches.
     

      Beitrag 1999-54
    Moleküle, die als solche nicht wirklich existieren (oder: Klassische Modelle sind zu ungenau)

     
     


    Moleküle, die als solche nicht wirklich existieren



    Thomas Görnitz (S. 189 aus "Die Evolution des Geistigen") ist der festen Meinung, dass die Biologen sich demnächst genötigt sehen werden, als Hintergrundtheorie nicht mehr die klassische Sicht der Physik zu verwenden, sondern die weit genauere quantentechnische. Er schreibt:

    Zitat:
     
    In den meisten biologischen Darstellungen fand man bisher als Hintergrundtheorie nur die klassische Physik. Chemische Verbindungen wurden wie eine Verklebung von klassischen Kügelchen geschildert, und die Formelschreibweise [der Chemiker] tut das ihrige dazu, diese Bilder zu verfestigen.

    Dass beispielsweise Kochsalz
    • entweder als Ionenkristall, in dem jedes Ion eine gleichberechtigte Beziehung zu sämtlichen seiner Nachbarn hat,
    • oder als im Wasser gelöste Einzelionen,
    • aber nie als NaCl-Molekül
    auftritt, wird nur selten erläutert.

    Bei einem Molekül liegt eine recht dauerhafte Bindung von genau definierten Atomen vor. In einem Iopnenkristall hingegen hat man eine symmetrische Anordnung der Atome, bei der keinerlei spezielle Bindung zwischen ausgewählten Nachbarn vorliegt, sondern alle Nachbarn sind gleichberechtigt, und die Formel NaCl verdeutlicht lediglich, dass die Anzahl aller Natriumatome im Kristall genau so groß ist wie der der Chloratome.

    Ebensowenig wird in der Regel verdeutlicht, dass Ladungstransport in Elektrolyten vor allem als Informationstransport verstanden werden muss. So werden die Ionen nicht einzeln durch den Elektrolyt geleitet. Stattdessen wird die Informationüber das Einbringen eines Ions an der Eingangselektrode an die Ausgangselektrode geleitet und dort ein identisches Ion abgegeben.

    Auf die aus Sicht der Quanteninformation besonders interessante Rolle des Wassers soll hier nur kurz hingewiesen werden:
    • Wasser ist höchstens als Dampf » H2O « aber bereits in Wolken oder als Flüssigkeit NICHT mehr: Wassermoleküle verbinden sich zu Clustern von vielerlei Größe. [Diese Cluster] können sehr verschiedene räumliche und energetische Struktur besitzen und können auch verschieden auf Biomoleküle reagieren.   Hier erwarten wir noch wesentliche neue Erkenntnisse.


    Im Rahmen der immer genauer werdenden Betrachtung biologischer Prozesse, so Görnitz, werde es immer wichtiger, statt der klassischen physikalischen Sicht die weit genauere quantentheoretische zugrunde zu legen.

    Diese seine Meinung zu belegen zitiert er eine recht bezeichnende Aussage aus Engel, G. et al. "Evidence for wave-like Energy Transfer trough Quantum Coherence in photosynthetic Systems", Nature, Bd. 446 (2007) 782-786:

    Zitat von Engel et al.:
     
    The spectroscopic data clearly document the dependence of the dominant energy transport pathways ... of the excited-state wavefunctions of the wohle bacterio­chlorophyll complex. But the intricate dynamics of quantum coherence, which has no classical analogue, was largely neglected in the analysis — even though
    • electronic energy transfer involving oscillatory populations of donors and acceptors was first discussed more than 70 years ago,
    • and electronic quantum beats arising from quantum coherence in photosynthetic complexes have been predicted and indirectly observed.


    Diese von Görnitz zusammengetragenen, sehr schönen Beispiele belegen recht deutlich, wie ungenau die klassische Sicht sein kann, und wie wenig diese alte Sicht der Tatsache Rechnung trägt, dass ein großes Ganzes eben doch weit mehr als nur die Summe seiner Teile ist (und diese Teile dort ihre eigene Identität sehr weitgehend verlieren können — was kein Wunder ist, wenn man bedenkt, dass sie ja sämtlich nur gedankliche Abstraktionen sind: unser Modell von etwas, das in Wirklichkeit Summe aus Produkten vieler einzelner Wellen ist).


     

     Beitrag 0-384
    Was Quantencomputer versprechen und — selbst als ferngesteuerte Flüssigkeit in einem Glas — schon können

     
     

     
    Um wie viel schneller Quantencomputer zu rechnen versprechen

     
    Was Quantencomputer versprechen ( bzw. nicht versprechenh: https://now.tufts.edu/articles/quantum-leap-computing-power )

     
     
    und warum sie heute noch hinken

     
     
    Nehmen wir zum Vergleich einen klassischen Supercomputer CC aus dem Jahre 2000, der aus 1000 zusammengeschalteter CPUs der Taktfrequenz 100 MegaHertz besteht.
       
    • Um eine ganze Zahl mit 1024 Binärziffern in ihre Primfaktoren zu zerlegen, benötigt CC etwa 100 000 Jahre, ein Quantencomputer aber nur 4,5 Min.
       
    • Um eine ganze Zahl mit 4096 Binärziffern in ihre Primfaktoren zu zerlegen, benötigt CC ein Vielfaches des derzeitigen Alters unseres Universums ein Quantencomputer aber nur 4,8 Minuten.

     
    Note: Im Rahmen heute weit verbreiteter Krypographie-Algorithmen muss man immer wieder möglichst große ganze Zahlen in ihre Primfaktoren zerlegen. Brauchbar sind natürlich nur Zahlen, die hinreichend klein sind, um sich mit aktuell verfügbaren Rechnern innerhalb von maximal wenigen Sekunden zerlegen zu lassen. Je kleiner nun aber die Zahl ist, die man verwendet, desto weniger sicher gegen böswillige Angreifer ist das Verschlüsselungsergebnis.
     
    Aus eben diesen Gründen investieren selbst Großbanken heute schon Geld in die prototypische Entwicklung von Quantencomputern.
     
     
    Was man sonst noch wissen sollte:
       
    • Ein Erfolgserlebnis aus 2016: Nur noch 5 QuBits — statt bis dahin 12 — benötigt ein Team um Thomas Monz von der Universität Innsbruck, um die Zahl 15 in ihre beiden Primfaktoren zu zerlegen. Sie hoffen jetzt, den Shor-Algorithmus auch auf Zahlen größer als 15 anwenden zu können.
       
      Dieses Beispiel zeigt recht gut, wie stark heute selbst noch die Architektur eines Quantencomputers auf das zu lösende Problem zugeschnitten sein muss. Vom Ziel frei programmierbarer Quantencomputer ist man noch sehr weit entfernt.
       
      Die Zahl 15 durch einen Quantencomputer in Primfaktoren zu zerlegen, gelang erstmals IBM in 2001.
       
      Die Zahl der QuBits, aus denen ein Quantencomputer bestehen muss, um eine gegebene Zahl zu zerlegen, steigt mit der Größe der Zahl.
       
       
    • Die beiden wichtigsten Quantencomputer-Chips, die Mitte 2018 existieren, arbeiten mit 49 (Intel) bzw. 72 QuBits (Google).
       
       
    • Besonders schwierig zu lösen ist ein für Quantencomputer typisches Stabilitätsproblem: Qubits reagieren extrem sensibel auf jede Art von Beeinflussung. Wo sie einander stören, kommt es zu Datenverlust. Viele Forschungsgruppen sind deshalb immer noch mit nur zwischen 5 und 17 Qubits unterwegs, da es dann seltener zu gegenseitiger Störung der QuBits untereinander kommt.

     
     
    Über Quantencomputer, die noch keine sind
     
    2014 haben Google und die Nasa sich einen gekauft: einen "Quantencomputer" der kanadischen Firma D-Wave-Systems. Sie haben mit der Zehn-Millionen-Dollar-Investition darauf gewettet, dass die Maschine dank der Gesetze der Quantenphysik bestimmte Aufgaben deutlich schneller löst, als herkömmliche Computerchips es schaffen. Beim bisher fairsten Wettrechnen zwischen dem D-Wave-Computer und einem normalen Rechner gelang dies aber nicht, wie Forscher von Google und der ETH Zürich im Wissenschaftsmagazin "Science" berichten.
     
     
    IBM gelang es schon 2001 — damals mit 7 QuBits — die Zahl 15 in Primfaktoren zu zerlegen. Statt eines Chips nutzte IBM 1018 Moleküle in einem Fläschen aus Glas: Berichtet wird: » IBM chemists designed and made a new molecule that has seven nuclear spins — the nuclei of five fluorine and two carbon atoms — which can interact with each other as qubits, be programmed by radio frequency pulses and be detected by nuclear magnetic resonance instruments similar to those commonly used in hospitals and chemistry labs.
     
    The IBM scientists controlled a vial of 1018 of these molecules to execute Shor's algorithm and correctly identified 3 and 5 as the factors of 15. "Although the answer may appear to be trivial, the unprecedented control required over the seven spins during the calculation made this the most complex quantum computation performed to date", Amer said. «
     
     
     
    IBM Q Experience:
      IBM arbeitet seit 1981 intensiv am Thema Quantentechnologie, um Quantensysteme für Wirtschaft und Wissenschaft zur Verfügung zu stellen. 2016 machte das Unternehmen den weltweit ersten Quantencomputer in der Cloud für die Öffentlichkeit zugänglich. Die IBM Q Experience ermöglicht es jedem registrierten Nutzer, sich über die IBM Cloud mit einem Quantensystem mit 16 Quantenbits (Qubits) zu verbinden, mit den einzelnen Qubits Algorithmen und Experimente durchzuführen, und Tutorials und Simulationen auszuprobieren, um die Möglichkeiten der Quantentechnolgie zu erkunden.
       
      Seit dem Start der Q Experience führten mehr als 75.000 Nutzer über 2.5 Millionen Experimente auf der Plattform durch. Wissenschaftler aus über 100 Ländern haben die Lernangebote genutzt und mehr als 35 wissenschaftliche Arbeiten und Artikel von Dritten wurden dazu bereits veröffentlicht.
       
      Darüber hinaus vergibt IBM Research zukünftig Preise an Professoren, Dozenten und Studenten, die die IBM Q Experience und QISKit, die zugehörige Quanten-Softwareentwicklungsumgebung, in ihren Lehrveranstaltungen sowie im Rahmen ihrer Forschungen nutzen.
       
      Seit Jan 2019 behauptet IBM, einen ersten kommerziell einsetzbaren Quantencomputer zu haben: IBM Q System One basierend auf 20 QuBits: [HB] [CW]

     
    Summary of Current Status:
     
    IBM hatte in der Vergangenheit bereits Systeme mit fünf beziehungsweise 14 Qubits vorgestellt. IBM und andere Anbieter experimentieren aber schon mit mit 50 Qubits.
     
    Google arbeite am Quantencomputer Bristle­cone, der 72 Qubits schaffen soll.
     
    |
     
    Auch wissenswert:
     
    Im Dezember 2020 sorgte China für Schlagzeilen. Der Quantenrechner "Jiuzhang" soll Lösungen für ein mathematisches Problem (Gaußsche Bosonen-Probe) in 200 Sekunden gefunden haben. Klassische Supercomputer würden dafür rund 2,5 Milliarden Jahre brauchen, so die chinesischen Wissenschaftler an der Hefei-Universität.
     
    ABER: All das darf uns nicht vergessen lassen, dass heute selbst noch das Finden von Problemen, die existierende Quantencomputer tatsächlich schon bearbeiten können, nahezu so schwierig ist, wie solche Computer zu entwickeln.

     

     Beitrag 0-123
    Wie man sich — ganz prinzipiell — die Implementierung eines Quantencomputers vorzustellen hat

     
     

     
    Quantencomputer: Wie man sie implementiert

     
     
    Sollte es einmal gelingen, funktionsfähige Quantencomputer zu bauen, werden sie Verfeinerung herkömmlicher Computer im folgenden Sinne sein:
     
    Herkömmliche Computer arbeiten mit Speicherzellen, die boolsche Werte speichern und wiedergeben können: JA oder NEIN. Wird ein solcher Wert in der Zelle Z gespeichert, ist er von außen vorgegeben, d.h. er kommt als aktueller Parameter der Funktion » Zelle Z: speichere boolschen Wert «.
     
    Ein Quantencomputer verallgemeinert diese Idee, indem der Parameter, den man der Funktion mitzugeben hat, nicht der neue Wert der Zelle ist, sondern stattdessen eine Frage, welche nur mit JA oder NEIN beantwortbar ist. Diese Antwort wird dann mit Hilfe quantenphysikalischer Mechanismen gefunden und in der Zelle Z gespeichert.
     
    Mit anderen Worten:
     
    Was man zu bauen versucht sind Computer, in denen jede Speicherzelle Z das ist, was man einen Quantencomputer nennt.

     
     
    Wie sich diese rechnenden Zwei-Niveau-Systeme bauen lassen, ist das große Problem. Als abstrakter Datentyp aber sind sie sämtlich Lösung ein und derselben Spezifikation.
     
    Der große Vorteil hiervon: Man muss nicht mit jeder neuen Technik, sie herzustellen, auch eine neue Theorie des Quanten-Computings erfinden.
     
    Mit anderen Worten: Die Entwicklung von Software und Hardware für Quantencomputer muss nicht aufeinander abgestimmt sein — beides kann parallel zueinander vorangetrieben werden.
     
     
    Zwei-Niveau-Systeme für die mögliche Verwendung als rechnende Zelle Z zu finden, ist nicht wirklich schwierig: Es sind da zahllose Möglichkeiten denkbar.
     
    Wirklich schwierig aber ist, ihnen die als Parameter kommende JA-NEIN-Frage mitzuteilen (Input), sie dann störungsfrei zu halten, und schließlich das Ergebnis (JA oder NEIN) auszulesen.
     
    Bei all diesen Operationen müssen die in jeder dieser Zellen Z arbeitenden Quanten so von ihrer Umgebung abgeschirmt sein, dass es zu keinerlei unerwünschter Dekohärenz oder Verschränkung kommt.
     
    Dies zu erreichen sind heute schon ein gutes Dutzend Verfahren angedacht. Forschungszentren für Quantencomputing erforschen sie und sind auf der ganzen Welt fieberhaft mit dieser Aufgabe beschäftigt.
     
    Betrachten wir hier — beispielhaft — nur zwei solcher Möglichkeiten:
       
    • In Ionenfallen abgeschirmte Quantensysteme Z:
       
      Dieser Ansatz versucht, unerwünschte Effekte durch Isolation der arbeitenden Quanten zu erreichen. Die arbeitenden Quanten sind in diesem Fall Ionen, d.h. Atome, die ein Elektron verloren haben und daher elektrisch geladen sind.
       
       
    • Extrem redundant ausgelegte Implementierungen der rechnenden Zelle Z basierend auf Kernspinresonanz:
       
      Hier verwendet man Moleküle einer ganzen Flasche voller Flüssigkeit — rund 1023 Moleküle —, die alle gleichermaßen agieren. Da es sich um Moleküle gleichen Zustands handelt, wird dieselbe Frage ihnen allen gestellt, was im Hinblick auf Möglichkeiten zur Fehlerkorrektur nahezu ideal ist: Man überlege sich nur, wie viele atomare Fehler sich in einem Reagenzglas voller Flüssigkeit einschleichen müssen, bis sie in der Lage sind, das Gesamtsignal zu verfälschen.

     
    Letztlich ist jede über einer dieser Alternativen realisierte rechnende Zelle Z ein Computer zur Lösung einer Schrödinger-Gleichung auf analogem Wege: Ein System, das sich auf die richtige Antwort einschwingt.
     
     
    Interessant dabei: Das durch Z modellierte System kann ein ganz anderes sein, als das, welches den Analogcomputer Z darstellt.
     
    So kann z.B. ein Stickstoffdioxidmolekül von der Größe eines Nanometers auf einem Kernspinresonanz-Computer simuliert werden, der mit nur Femtometer großen Wasserstoffkernen in einem Flüssigkeitsbehälter arbeitet, auf einer Skala also, die rund 1 Million mal kleiner ist. Siehe Quantum Simulators.
     
    In gewisser Hinsicht simuliert man so komplexe, geheimnisvolle Teile der Natur, indem man sie mit einfacheren, aber ebenso geheimnisvollen vergleicht. Das macht Sinn, denn große Moleküle wie auch winzige Atomkerne folgen denselben quantenmechanischen Gesetzen.
     
    Dies ist ein schönes Beispiel dafür, dass es in der modernen Physik vor allem um die Entwicklung von  M o d e l l e n  geht. Sie müssen nicht kokurrenzlos sein (wie ja z.B. auch die Tatsache zeigt, dass man die gegenwärtige Theorie der Elementarteilchen als » Standardmodell « bezeichnet).
     
     
     
    Quelle: Hans Christian von Baeyer: Das informative Universum, Verlag C.H.Beck 2005, Kap 22.

     
     
    Lies auch:


     

     Beitrag 0-191
    Wie rasch die Entwicklung von Quantencomputern voranschreitet

     
     

     
    Der noch lange Weg hin zum Quantencomputer

     
     
    Wie man Quantencomputer baut lehrt am MIT Seth Lloyd. Er schreibt:
     


    Seth Lloyd (2006):
     
    A quantum computer is a computer that uses quantum effects such as superposition and entanglement to perform computations in ways that classical computers cannot.
     
    The quantum computers we can build today are small, not only in size but also in power. The largest general-purpose quantum computers available at the time of this writing (2006) have 7 to 10 QuBits and can perform thousands of quantum logic operations per second.
     
    By contrast, a conventional desktop computer can register trillions of bits an can perform billions of classical logic operations per second.
     
    We are already good at making computers with atomic-scale components, we are just not good at making big computers with atomic-scale components.
     
    Since the first quantum computers were constructed a decade ago, however, the number if bits they register has doubled almost every 2 years. Even if this exponential rate of progress can be sustained, it will still take 40 years before quantum computers can match the number of bits registered by today's classical computers. Quantum computers are still a long way from the desktop.
     


    Source: Seth Lloyd: Programming the Universe (2007), p. 7-8
     
    The first, very small, quantum computer was created by the Nobel price winner Dave Wineland in 1995 at the US National Institute of Standards.
     
    See also:


     

     Beitrag 0-231
    Unser Gehirn als Quantencomputer

     
     

     
    Gehirne sind Quantencomputer

     
     
    In Thomas & Brigitte Görnitz: Der kreative Kosmos (2002) liest man:

    Görnitz (2002):
     
    Die aus der Quantenphysik bekannte Möglichkeit einer durch den gesamten Raum ausgedehnten Ganzheit im Sinne von Systemen miteinander verschränkter Quanten ist mit Sicherheit auch für das Verstehen der Arbeit des Gehirns von Bedeutung:
     
    Wir dürfen annehmen, dass die Zustände, die zu einem Denkakt gehören, über viele Tausende von Nervenzellen ausgedehnt sind und dennoch eine Einheit darstellen.
     



     

      Beitrag 2038-1
    Wann sagt uns ein Quanten-Computer die Wahrheit?

     
     


    Sind Quantencomputer so eine Art Oracle?



    Im Herbst 2012 (nach Wikipedia aber schon 2001), hätten Quanten-Computer zum ersten Mal eine Aufgabe gelöst: Auf Grundlage von Peter Shors Algorithmus hätten sie die Primfaktoren der Zahl 15 ermittelt.

    Über den Versuch aus 2012, wird weiter berichtet:

    Zitat:
     
    Dazu regten die Forscher ihre Qubits gezielt mit abgestimmten Mikrowellenpulsen an, brachten sie paarweise oder zu dritt in verschränkte Zustände und führten diese Schritte einige Male aus. Da der Prozessor nicht perfekt arbeitete und bei jedem der vielen Rechenschritte des Algorithmus einen winzigen Fehler machte, war die Berechnung unzuverlässig. Deshalb wiederholten die Forscher die Kalkulationen insgesamt 150 000 Mal. Sie fanden heraus, dass ihr Prozessor in 48 Prozent aller Fälle das richtige Ergebnis lieferte: nämlich 15 = 3 • 5.

    Das lag bereits ziemlich nahe am theoretischen Limit. "Das Beste, was wir nach Shors Algortihmus erwarten können, sind 50 Prozent der Fälle mit der richtigen Lösung", sagt Erik Lucero, Mitautor der Arbeit.


    Da frägt sich der staunende Laie:

    Wenn bei so einem Computer schon im theoretisch  b e s t m ö g l i c h e n  Fall nur die Hälfte aller Antworten richtig ist,

    wie kann man dann wissen,  w e l c h e  der gegebenen Antworten eine richtige ist?


     

    Wissenschaftler antworten:

    Die Kunst eines Quantenprogramms besteht unter anderem darin, die Qubits so zu manipulieren, dass das gesuchte Ergebnis am Ende das ist, das am wahrscheinlichsten gemessen wird.

    Lies mehr dazu auf Seite Wie Quantencomputer funktionieren.


    Quantenalgorithmus: seine Eigenschaften





    Wie der im Video skizzierte Wettbewerb gezeigt hat, werden unterschiedliche Quantencomputer — angesetzt auf ein und dasselbe Problem — unterschiedlich oft falsches Ergebnis liefern. Dies zeigt, dass Quantencomputer klassische Rechner möglicherweise niemals werden überflüssig machen.

    Mehr zum Stand der Technik



    Quantenfehlerkorrektur ist eine große Herausforderung:

    Experten gehen derzeit (2018) davon aus, dass man hundert bis tausend zusätzliche Qubits braucht, um aus einem realen Qubit ein präzise arbeitendes logisches Qubit zu machen.

    Und das, obgleich gilt: Ein Quantencomputer verdoppelt sein Potential mit jedem zusätzlichen Qubit.


     

     Beitrag 0-371
    Was man sich unter einem QuBit vorzustellen hat

     
     

     
    Was man sich unter einem QuBit vorzustellen hat

     
     
    Jedes Qubit existiert als sog. Überlagerungszustand eines gegebenen Quantensystems und kann deswegen aufgefasst werden als eine unendlich große Menge von Variablen des Typs Bit, deren Werte zunächst noch undefiniert sind.
     
    Wird dem Quantensystem nun aber eine Messfrage gestellt, erhält man als Ergebnis einzig und allein eine der Antworten JA oder NEIN (mit anderen Worten: ein Bit). Was dieses Bit bedeutet ist abhängig von der gestellten Messfrage.

     
    Man kann das Qubit deswegen auffassen als die Menge aller Sinn machenden Messfragen, die man dem Quantensystem stellen kann,
    erweitert um eine Funktion, die jeder dieser Messfragen die Wahrscheinlichkeit zuordnet, dass man auf sie als Antwort ein JA erhält.

     
    Jede Messung — genauer: jede Interaktion des Quantensystems mit einem anderen — führt zu einer Abänderung jener Wahrscheinlichkeiten.

     

     Beitrag 0-10
    Das Qubit (= QBit) verstehen: Wie erhält man seinen Wert, und warum ist der nur ein Bit?

     
     

     
    QBits (= Qubits) besser verstehen

     
     
    Was sich in einem sog. Überlagerungszustand eines Quantensystems überlagert sind Zustandsmöglichkeiten, deren jede genau einer Position auf der Oberfläche einer Kugel entspricht ( Stichwort: Blochkugel ).
     
    Wird ein QBit ausgelesen, kollabiert sein Zustand — nur durch absoluten Zufall gesteuert — hin zu einem ganz konkreten, der genau einer dieser Möglichkeiten M entspricht; nennen wir ihn den Zustand k(M). Der wiederum führt dann zu genau einem Bitwert, den man das Messergebnis nennt.
     
    Die Wahrscheinlichkeit, dass sich dieser Wert zu 1 ergibt, ist Funktion der geographischen Breite von k(M) auf der Blochkugel:
     
    • Ist M ihr Nordpol, so wird sich mit Sicherhet 1 ergeben (TRUE),
    • ist M ihr Südpol, so wird sich mit Sicherheit 0 ergeben (FALSE),
    • wenn M auf ihrem Äquator liegt, ergibt sich mit gleicher Wahrscheinlichkeit 1 oder 0 (d.h. TRUE oder FALSE),
    • und für Punkte M anderer geographischer Breite wird die Wahrscheinlichkeit, dass sich 1 bzw. 0 ergibt, verschieden groß, aber doch ihrem Wert nach wohldefiniert sein.

    Der Breitengrad auf der Kugel entspricht der Auslenkung einer Welle, der Längengrad der Phase, beides zusammen also der Position eines Punktes, der auf der Welle reitet.
     
     
    Nebenbei:
     
    Dass ein Überlagerungszustand i.A. nicht als fehlende Information über einen uns unbekannten, aber doch schon  v o r  der Messung vorliegenden konkreten Zustand M interpretiert werden darf — den man dann als Wert einer sog."verborgenen Variablen" interpretieren müsste —, lässt sich beweisen anhand der so genannten Bellschen Ungleichung und entsprechender Experimente, die als erster Alain Aspect durchgeführt hat (1981, 1982).
     
    Erst dieser beiden Forscher wegen wissen wir heute ganz genau, dass der konkrete, durch eine Messung M festgestellte Zustand k(M) sich i.A. wirklich erst im Zuge der Messung einstellt. Erst sie also macht aus einer Möglichkeit Wirklichkeit (und verwirft jede der vielen anderen Möglichkeiten).
     
     
    Und wie stabil sind Quantenbits?
     
    Ungewollte, aber kaum ausschließbare Dekohärenz ist der Feind aller Variablen vom Typ QBit. Recht bemerkenswert aber ist, dass es Forschern in 2013 immerhin schon gelang, für QBits spezieller Implementierung eine Lebensdauer von sage und schreibe 39 Min zu erreichen.
     
     
    Fassen wir zusammen:

     
    Ein QBit p(o,m) ist die Wahrscheinlichkeit dafür, dass ein Quantenobjekt o auf die Messfrage m mit JA antwortet.
     
    Wird einem mit o verschränkten Objekt v die Frage m gestellt, so nimmt gleichzeitig damit p(o,m) einen der Werte 0 oder 1 an
     
    ( auf welchen genau hängt davon ab, wie v geantwortet hat und über welche Eigenschaft o und v verschränkt waren ).
     
    Sobald die Frage m dem Objekt o selbst gestellt wird, hört das QBit p(o,m) auf zu existieren.

    Insbesondere gilt:

    Ein QuBit ist genau dann ein Bit, wenn es den Wert 0 oder 1 hat.

     
    Wer den Wert eines QBits bestimmt, zerstört ihn. Von einem unbekannten Quantenzustand, z.B. von einem QBit, dessen Wert man nicht kennt, eine exakte Kopie herzustellen ist prinzipiell unmöglich (sog. No Cloning Theorem). Wäre es nämlich möglich, könnte man an zwei identischen Kopien des QBits durch komplementäre Messungen den Längen- und den Breitengrad seines Wertes exakt bestimmen, was Heisenbergs Unschärferelation widerspräche.
     
     
     
    Die durch einen Überlagerungszustand gegebene Menge an Information kann gewaltig groß sein. Sie bleibt unverändert, solange keine Messung erfolgt und auch keine unbeabsichtigte Dekohärenz eintritt. Nur ein Quantenereignis kann sie abändern oder gar auf genau ein Bit klassischer Information reduzieren. Was dieses Bit dann aussagt, ist Funktion der jeweils gestellten Messfrage.
     
    Konsequenz daraus: Alle durch ein Überlagerungszustand gegebene Information auf einen Schlag zu extrahieren und dann als klassische Information verfügbar zu haben ist unmöglich, genauer: ist nur stückweise möglich durch Befragen vieler Exemplare identisch produzierter Zustände.
     
    Die Operationen, die mit einem Überlagerungszustand ausgeführt werden können, sind seine Abänderung, sein Transfer und seine Teilnahme an Operationen, die durch ihn gegebene QuBits mit anderen QuBits zusammenführen.
     
     
     
    Lies mehr dazu in Juan G. Röderer: Information and its Role in Nature (Springer, 2005).

     

      Beitrag 2038-18
    2013: Erstmals recht robuste Quantenverschränkung konstruiert

     
     
    Vielleicht wird's ja doch mal was mit den Quanten-Computern:

    Im Juni 2013 wird berichtet

    Zitat:
    Die Forscher ... um Lin Li sperrten eine Wolke aus ultrakalten Rubidium-Atomen in eine optische Falle, in der sie mit Laserstrahlen fixiert waren. Dann regten sie ein Atom in dieser Wolke mit einem anderen Laser genau passend so an, dass das Atom in einen sogenannten Rydberg-Zustand geriet. Diese Zustände kennzeichnen extrem hochangeregte Atome, die dadurch um ein Vielfaches größer und nebenbei sehr empfänglich für die Wechselwirkung mit Licht werden.

    Die Forscher konnten mit Hilfe einer ausgeklügelten Analysemethode nachweisen, dass die Atome in der Rubidiumwolke und das Laserlicht tatsächlich eine Verschränkung eingingen. Diese war auch sehr robust: Die fluktuierende Anzahl von Teilchen in der Rubidiumwolke hatte keinen Effekt auf ihre Messungen.
     


    Siehe auch Grundsätzliches zu Rydbergatomen:

    Zitat:
    Am Max-Planck-Institut für Quantenoptik in Garching befassen sich Wissenschaftler ebenfalls mit Rydbergatomen. Der Arbeitsgruppe von Immanuel Bloch ist es gelungen, Rydbergatome durch gezielte Bestrahlung mit Laserlicht so anzuordnen, dass sich quasi eine kristallförmige Struktur herausbildete.

    Auch dies ließe sich für logische Gatter in einem Quantencomputer nutzen.

    ... Das Bemerkenswerte an den Rydbergatomen ist, dass sie gewissermaßen eine Brücke schlagen zwischen den frühen Anfängen der Atomphysik und der heutigen Hochtechnologie, die auf der Quantenmechanik basiert. Rydbergatome sind gewissermaßen eine besonders deutliche Verkörperung des Korrespondenzprinzips, weil sich an ihnen die klassischen Gesetze und die Quantengesetze gleichermaßen zeigen.
     

     Beitrag 0-11
    Quantencomputer wären  k e i n e  Alleskönner

     
     

     
    Quantencomputer wären keineswegs Alleskönner

     
     
    Soweit man derzeit sehen kann, würden Quantencomputer das Rechentempo keineswegs für alle Rechenaufgaben drastisch steigern:
    • Sie wären extrem schnell für Suchaufgaben, für das Auffinder der Primfaktoren einer Zahl, für Ver- und Entschlüsselungsaufgaben, für Aufgaben also, die sich als Menge gleichartiger, zeitlich parallel abzuarbeitender Teilaufgaben sehen lassen.
    • Bei anderen Aufgaben aber — dem Schachspielen etwa, dem Aufstellen von Flugplänen oder der Durchführung der meisten mathematischen Beweise — dürften Quantencomputer an die gleichen algorithmischen Grenzen stoßen wie heutige Rechner.

     
     
    Scott Aaronson, Dozent für Elektrotechnik und Computerwissenschaft am MIT, etwa schrieb:

    Aaronson (2010)
     
    Falls Quantencomputer jemals funktionieren, wird ihre Hauptaufgabe wohl weniger das Knacken von Codes sein, als vielmehr etwas so Offensichtliches, dass es kaum erwähneswert wirkt: die rechnerische Simulation quantenphysikalischer Prozesse.
     
    Sie ist fundamentales Problem in Teilchenphysik, Chemie und Nanotechnik; sogar für Teilfortschritte wurden hier schon Nobelpreise verliehen.
     


    Siehe auch sein Buch » Quantum Computing since Democritus « (2013).
     
    Wie Aaronsons Blog und seine Publikationslisten zeigen, scheint der Mann unglaublich produktiv zu sein.
    Siehe auch sein Teaching Statement

     
     
    Wie gegen Ende des Artikels Superrechner für Spezialanwendungen ein Fachmann uns sagt, wird 2012 weltweit schon an etwa 15  v e r s c h i e d e n e n  Ansätzen zum Bau von Quanten-Computern geforscht.
     
    Parallel dazu versucht man heute schon, mögliche Programmiersprachen für Quantencomputer zu finden.

     

     Beitrag 0-55
    Wie schnell klassische Rechner noch werden können (und vielleicht bald schon sein werden)

     
     

     
    Die Grenze elektronischer Schaltgeschwindigkeit

     
     
    Erfolge der Femto- und Attosekundenphysik zeigen:
     
     
    Mehr dazu in:

     

     Beitrag 0-247
    Quantengravitation — Was genau versteht man darunter?

     
     

     
    Wozu brauchen wir eine

    Theorie der Quantengravitation?

     
     
    Das Standardmodell der Elementarteilchen — ja die gesamte Quantenphysik — krankt daran, dass beide die Existenz der Gravitationskraft völlig ignorieren. Eben deswegen versagt die Quantenphysik, wenn es darum geht, den Urknall oder das Zentrum Schwarzer Löcher zu betrachten — Situationen also, in denen Quantenfluktuation und Gravitation gleichermaßen dominant wirken.
     
    Newtons Formel für die Stärke der Gravitationskraft gleicht dem Abstandsgesetz für die Coulomb-Kraft zwischen elektrischen Ladungen. Dennoch ist es bisher nicht gelungen, eine Theorie zu finden, in der beide Kräfte gleich gut beschrieben sind.
     
    Die elektrische Kraft zwischen geladenen Teilchen ist Folge eines ständigen Austausches von Photonen, den zu beschreiben vor flachem Hintergrund gut gelingt. Bei extrem kleinen Distanzen aber stellt sich die Situation anders dar: Der ständigen, dort zunehmend mehr ins Gewicht fallenden Quantenfluktuation wegen, kann man bei geringen Entfernungen nicht mehr von einem glatten, nicht störenden Hindergrund ausgehen: Man spricht dort von Quantenschaum (was aber nur andeuten will, dass jede Portion von Energie, die zwischen Teilchen ausgetauscht wird, auf dem Weg zwischen ihnen ständig mit virtuellen Teilchen kollidiert, ihr Weg also nicht schnurgerade sein kann).
     
     
    Die Auswirkungen solcher Störung werden erst bei Distanzen von weniger als einer Plancklänge bedeutsam.
     
    Sie zu beschreiben, benötigen wir eine Theorie, welche man heute die Theorie der Quantengravitation nennt, aber noch nicht verfügbar hat.
     
    Erst auf gröberer Skala — aus gröberer Sicht heraus — relativieren sich die Effekte der Quantenfluktuation so stark, dass man sie vernachlässigen kann.


     
     
    Bisher diskutierte Ansätze für eine Theorie der Quantengravitation:

     

     Beitrag 0-253
    Nur eine Theorie der Quantengravitation könnte uns auch noch das Geschehen im » Quantenschaum « beschreiben

     
     

     
    Wo beginnt sog. » Quantenschaum « ?

     
     
    Ab etwa 10-6 sec nach dem Urknall können Einsteins Gravitationstheorie und das Standardmodell der Elementarteilchenphysik den Zustand der Raumzeit bzw. das Verhalten der Elementarteilchen recht genau beschreiben ohne einander berücksichtigen zu müssen.
     
    Noch näher am Urknall aber sind Quanteneffekte so dominant, dass hier nur noch eine Theorie der Quantengravitation zuverlässige Aussagen liefern könnte.
     
    Mit zunehmender Energiedichte nämlich verliert zunächst das Standardmodell seine Gültigkeit und auch die Aussagen von Einsteins Theorie werden mit höheren Temperaturen schnell ungenauer, da Quanteneffekte dann einfach nicht mehr ignorierbar sind.
     
    Jörg Resag schreibt, man könne sich das so vorstellen, dass bei extrem hoher Energiedichte Quantenfluktuation derart energiereiche Teilchen erzeugen könne, dass sie mit steigender Temperatur immer häufiger zu extrem kleinen Schwarzen Löchern werden. Wie Hawking gezeigt hat, verdampfen die aber auch extrem schnell wieder, so dass sie sich dann im wie Blasen verhalten, die schnell entstehen, schnell wieder vergehen, in die man aber nicht hineinsehen kann.
     
    Raum in solch "brodelndem" Zustand nennt man man Quantenschaum (wieder einer der so plastischen Begriffe, die der einfallsreiche John Archibald Wheeler geprägt hat. Seine Ideen und die seiner vielen Schüler haben die Physik zwischen 1930 und 1990 am deutlichsten voran gebracht).
     
     
    Konkreter noch:
     
    Bei erst 100 000 Milliarden Kelvin hätten bei der Kollision von Teilchen enstehende Schwarze Löcher einen Schwarzschildradius von nur 10-39 fm, wären also 39 Zehnerpotenzen  k l e i n e r  als die Wellenlänge der bei dieser Temperatur noch existierenden Materieteilchen.
     
    Je weiter wir aber dem Urknall kommen, desto schwerer müssen nach Einsteins Theorie die bei Kollision entstehenden Schwarzen Löcher werden. Zudem wird die Wellenlänge der Strahlung kleiner. Zwischen 1032 und 1033 Grad schließlich werden die schwarzen Mikrolöcher ebenso groß wie die Wellenlänge der Plasmateilchen, nämlich rund 10-20 fm — was dann etwa der Plancklänge entspricht ( 1.6 • 10-20 fm = 1.6 • 10-35 m ).
     
     
    Das also ist die Grenze, jenseits der heute existierende physikalische Modelle einfach nichts mehr aussagen können.

     
     
    Siehe hierzu auch Beitrag 0-289.
     
    Der erste, der dies einsah, war Matwei Bronstein, ein sehr begabter russischer Physiker, der durch Stalins Regime 1938 sein Leben verlor.

     

     Beitrag 0-213
    Raum und Zeit in der Quanten-Gravitations-Theorie

     
     

     
    Quantengravitation, Raum und Zeit

     
     
    Die klassische Physik kennt Raum und Zeit als einen absoluten, für sich selbst Sinn machenden Rahmen, in dem sich alles physikalische Geschehen abspielt.
     
    Erst Einsteins Relativitätstheorie hat gezeigt, dass Zeit und Raum eher nur schattenartig existierende Sichten auf die Raumzeit sind.
     
    Bis heute allerdings wird kontrovers diskutiert, ob die Raumzeit ohne die Dinge, die sie beherbergt, denn überhaupt existiert.
     
    Mit anderen Worten: Man frägt sich, ob der Raum wirklich eine Art Behälter ist, in dem sich die Dinge (als Energie tragende Objekte) aufhalten oder ob er nicht vielleicht nur aus der Gesamtheit aller Beziehungen zwischen ihnen besteht (wie schon Leibniz dachte). Genauer:
       
    • Als pseudo-Riemannsche Mannigfaltigkeit ist die Raumzeit nur eine gestaltlose Menge von Punkten ergänzt um eine Topologie, die auf eine Metrik zurückführbar ist, d.h. auf eine bewertete Realtion zwischen den Dingen. Man könnte daraus folgern, dass Raumzeit und Materie (verteilte Energie) ein und dasselbe sind.
       
      Einstein jedenfalls war dieser Meinung. Im Vorwort zu Max Jammers Buch Concepts of Space (1953) schrieb er:
       
      Die Überwindung des absoluten Raumes ... wurde erst dadurch möglich, dass der Begriff des körperlichen Objekts als Fundamentalbegriff der Physik allmählich durch den des Feldes ersetzt wurde. Unter dem Einfluss der Ideen von Faraday und Maxwell entwickelte sich die Idee, dass die gesamte physikalische Realität sich als Feld darstellen lasse, dessen Komponenten von vier raumzeitlichen Parametern abhängen. Sind die Gesetze dieses Feldes allgemein kovariant, d.h. an keine besondere Wahl des Koordinatensystems gebunden, so hat man die Einführung eines selbständigen Raumes nicht mehr nötig: Was den räumlichen Charakter des Realen ausmacht, ist dann einfach die 4-Dimensionalität des Feldes. Es gibt dann keinen leeren Raum, d.h. keinen Raum ohne Feld.
       
      Und doch hatte Einstein schon 1918 einräumen müssen, dass Willem de Sitter recht hatte mit seiner Beobachtung, dass Einsteins Feldgleichung auch leere Raumzeiten — die sogar dynamisch sein können — nicht ausschließt.
       
       
    • Zudem ist die Natur der Zeit noch ungeklärt — und erscheint heute rätselhafter als jemals zuvor:
         
      • Im Präsentismus sieht man sie einzig nur existent als Gegenwart,
         
      • der Eternalismus sieht sie als unverändlich eingeprägt ins Blockuniversum,
         
      • und der Possibilismus glaubt an fixe Vergangenheit, aber offene Zukunft.
         
      • In vielen Ansätzen der Quantengravitation lösen sich Zeit und Raum sogar förmlich auf.

     
    Quantengravitation ist der Sammelbegriff für alle bislang vorhandenen, teils recht unterschiedlichen Ansätze, die Relativitätstheorie und die Quantentheorie zu vereinheitlichen, d.h. beide als Grenzfälle einer dann insgesamt widerspruchsfreien Theorie der Quantengravitation zu erkennen.
     
    Mit ihr — so hofft man — werden dann viele der heute noch offenen brennenden Fragen der Physik geklärt sein.
       
    • Wegen der durch Heisenberg entdeckten Unbestimmtheitsrelation lässt sich nun aber feststellen, dass es keinen Sinn zu machen scheint, von beliebig kleinen zeitlichen oder räumlichen Abständen zu sprechen (weswegen denn auch die Planckzeit und die Plancklänge als Abstände gelten, unterhalb derer man nur noch von » Prägeometrie « und » Quantenschaum « sprechen kann (Schlagworte, die John Archibald Wheeler vorschlug).
       
      So wie Einsteins Theorie zeigt, dass Raum und Zeit nicht klar auseinander zu halten sind (weswegen man die » relativ « nennt), so zeigt Heisenbergs Unschärferelation, dass sich auch Energie und Zeit bzw. Ort und Impuls auf zunehmend kleinerer Skala immer weniger klar unterscheiden lassen.

     
    Und so steht fest: Eine Theorie der Quantengravitation zu finden, wird zwingend notwendig sein.
     
    Sie wird zeigen, aus welch fundamentaleren Entitäten Raum und Zeit zusammengesetzt sind. Ob es nun Spin-Netzwerke oder Strings und Branen, oder andere ein- oder zweidimensionale Gebilde sind, mit Hilfe derer man jene Entitäten am besten wird modellieren können, ist heute noch völlig offen).
     
    Absehbar scheint nur, dass sich Raum und Zeit unterhalb der Planckskala in einer Art Rauschen auflösen, worin es eindeutige regelmäßige Oszillationen nicht mehr gibt — und somit auch keine » Uhren « mehr.
     
    Die Einsicht der Relativitätstheorie jedenfalls, nach der es keine Hintergrund-Raumzeit zu geben scheint, und auch keine lineare Zeit, entlang der alles fließt, dürfte sich bestätigen.
     
    Es wird sich wohl zeigen, dass selbst der Raumzeit nur eine schattenhafte, emergierende Existenz zukommt.

     
     
    Carlo Rovelli — Mitentwickler der Schleifengravitationstheorie — drückt es so aus:

    Carlo Rovelli (Zitat):
     
    Auch wenn ich es nicht beweisen kann, bin ich überzeugt, dass Zeit nicht existiert:
     
    Ich denke, dass es eine Möglichkeit gibt, das Funktionieren der Natur zu beschreiben, ohne die Begriffe Raum und Zeit zu verwenden. Raum und Zeit werden nur  n ä h e r u n g s w e i s e  sinnvoll bleiben — ganz so, wie auch der Begriff » Wasseroberfläche « nur grob Sinn macht (wie erkennt, wer versucht, sich die Wassermoleküle vorzustellen: Sieht man genau hin, gibt es keine klar definierte Wasseroberfläche).
     
    Ganz ähnlich verhält es sich mit Zeit und Raum: Beide sind nur makroskopische Näherungen — Illusionen, die unser Bewusstsein geschaffen hat, sich die Realität zu erklären.
     


     
     
    Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 258-277.


     

     Beitrag 0-327
    Über Zeit und die Theorie der Quantengravitation

     
     

     
    Carlo Rovelli: » Zeit ist uns fehlende Information «

     


    Carlo Rovelli (2014):
     
    Unser Zeitbegriff — der thermodynamische Zeitpfeil — entspringt der Tatsache, dass wir stets nur mit makroskopischen Variablen als Mittelwert sehr vieler mikroskopischer Variablen interagieren.
     
    Sobald wir den Mikrozustand eines Systems betrachten, existiert das System — als eben dieser Zustand — zeitlos.
     
    Doch kaum beschreiben wir das System anhand von Mittelwerten zahlreicher Variablen, verhalten sich diese Wert so, als existiere Zeit im Sinne unserer Alltagserfahrung. [ Aber warum? Weil unvollständige Kenntnis Raum für's Dazulernen lässt und wir ständig Neues erfahren? ]
     
     
    Die Zeit ist folglich kein Grundbestandteil der Welt, aber gleichwohl allgegenwärtig, da die Welt riesig ist und wir sie stets nur aus makroskopischer Sicht kennen.
     
     
     
    Wörtlich schreibt Rovelli:
     
     
    » Die Zeit ist eine Auswirkung der Tatsache, dass wir die physikalischen Mikrozustände der Dinge außer Acht lassen.
     
    Die Zeit ist uns fehlende Information — sie ist unser Unwissen.

     
     
    In Kapitel 7 habe ich gezeigt, dass sich der Begriff der Zeit für eine physikalische Beschreibung [ im Modell der Schleifen-Quanten-Gravitation ] erübrigt und es letztlich sogar besser ist, ganz auf ihn zu verzichten. Hat man dies erst mal erkannt, wird es einfacher, die Gleichungen der Quantengravitation aufzustellen. «
     
     
     
    In Kapitel 7 schreibt er:
     
     
    Die Forschung der Quantengravitation drehte sich lange nur um Fragen des Raumes, ehe sie den Mut aufbrachte, sich der Zeit zuzuwenden. Erst ab etwa 2000 hat sich das Verständnis der Zeit etwas geklärt.
     
    Der Raum als ein amorpher Behälter für die Dinge verschwindet mit der Quantengravitation aus der Physik. Die Dinge (Quanten) liegen nicht im Raum, sondern im Umfeld der jeweils anderen Quanten. Der Raum ist das Gewebe ihrer nachbarschaftlichen Beziehungen.
     
    Die Gravitationsquanten entwickeln sich nicht in der Zeit, es entsteht vielmehr die Zeit als Folge ihrer Wechselwirkungen.
     
    Wie sich in der Wheeler-DeWitt-Gleichung zeigt, ist die Zeit aus den Gleichungen verschwunden.
     
     
     
    Wie der Raum sich als ständig ausgetauschtes Spin-Netzwerk darstellt (S. 191-195):
     
     
    Die Graphen, die die Quantenzustände des Raumes, d.h. des Gravitationsfeldes, beschreiben, nennt man Spin-Netzwerke. Sie sind durch ein Volumen V für jeden Knoten und ein ganzzahliges Vielfaches von 1/2 für jede Verbindungslinie gekennzeichnet (Spin).
     
    Der Raum [ als Summe dieser Volumina V ] ist diskret. Diese Einsicht bildet den Kern der Theorie der Quantengravitation.
     
    Zwischen den Photonen, d.h. den Quanten des elektromagnetischen Feldes, und den Raumquamten V besteht ein entscheidender Unterschied: Photonen existieren im Raum, während Raumquanten den Raum selbst ausmachen.
     
    Photonen sind durch ihre Position, ihr » Wo sie sich befinden, d.h. welche Raumquanten sie verbinden « charakterisiert, Raumquanten aber haben keinen Aufenthaltsort. Die charakterisieren sich durch die Information, neben welchen anderen Raumquanten sie liegen.
     
    Ich kann mir vorstellen, mich von einem Raumkörnchen an einem Link entlang zu einem anderen zu begeben. Wenn ich so Körnchen um Körnchen weiterschreite, bis ich zum Ausgangskörnchen zurückgekehrt, d.h. einen Rundweg gegangen bin, habe ich eine Schleife — einen » Loop « — abgeschritten. Dies sind die ursprünglichen Loops der Theorie.
     
    In Kapitel 4 habe ich gezeigt, dass sich die Krümmung des raumes messen lässt, indem man bestimmt, ob ein Pfeil, den man über den ganzen Weg mitgeführt hat, in seine ursprüngliche Zeigerichtung oder gedreht an den Ausgangspunkt des Weges zurückkommt. Die Mathematik der Theorie bestimmt die Krümmung für jeden geschlossenen Weg im Spin-Netzwerk. Die ermöglicht eine Einschätzung der Krümmung des Raumes und damit der Stärke des Gravitationsfeldes.
     
    Es sei noch daran erinnert, dass
       
    • die Art, wie sich ein Spin-Netzwerk entwickelt, zufallsgetrieben ist (wir können nur Wahrscheinlichkeiten berechnen).
       
    • Auch müssen wir und den Austausch der Spin-Netzwerke als Auswirkung des Raumes auf die Dinge denken: So wie sich ein Elektron etwa an keinem bestimmten Ort, sondern als Wahrscheinlichkeitswolke an allen Orten befindet, so ist auch der Raum kein spezifisches Spin-Netzwerk, sondern eine Wahrscheinlichkeitswolke über sämtliche möglichen Spin-Netzwerke.

    Damit stellt der Raum sich — unterhalb der Planckskala — dar als ein waberndes Gewimmel aus Gravitationsquanten, die
       
    • wechselseitig aufeinander einwirken,
       
    • alle gemeinsam auf die Dinge einwirken
       
    • und sich in dieser Wechselwirkung als ständig durch Quantenfluktuation umgebautes Spin-Netzwerk manifestieren.

     
     
    Quelle: Carlo Rovelli: Die Wirklichkeit, die nicht so ist, wie sie scheint (2016), S. 276-281 und ab S. 196 bzw. 191

     


     
     
    Rovellis Argumentation, die Zeit sei uns fehlende Information, wird wohl nicht jeden überzeugen. Vielleicht sollte man es besser so sagen:
     
     
     
    Was wir als Zeit wahrnehmen, ist die nicht aufhaltbare Modifikation unserer Welt durch Quantenfluktuation.
     
    Zeit wird uns bewusst, da jedes Entstehen oder Vergehen von Quanten unsere Realität ein klein wenig verändert.

     

     

     Beitrag 0-481
    Die Idee der Schleifen-Quantengravitation verstehen

     
     

     
    Zur Idee der
     
    Schleifen-Quantengravitation

     
     
    Loop Quantum Gravity (= Schleifen-Quantengravitation) ist eine von Carlo Rovelli mit Hilfe von Abhay Ashtekar und Lee Smolin ins Leben gerufene Theorie, deren Grundidee er skizziert wie folgt:
     


    Carlo Rovelli (2014):
     
    In der Quantenphysik sind viele Messgrößen » quantifiziert « (was bedeutet, dass sie nur bestimmte diskrete Werte annehmen können). Sie zu berechnen nutzt man eine Methode, welche man » Berechnung des Spektrums eines Operators « nennt. Wir — Smolin, Ashtekar und Rovelli — hatten uns zum Ziel gesetzt, ein Modell für die Quantifizierung des Raumes, d.h. der Größe » Volumen « zu finden.
     
    Nach Einsteins Theorie existiert der Raum nur als Gravitationsfeld. Die Wahrscheinlichkeit ist groß, dass die Messgröße » Volumen « auf kleinster physikalischer Skala tatsächlich nur diskrete Werte aufweisen kann, es dann also Volumen- bzw. Raum-"Körnchen" gibt.

       
      Grundidee: Das Gravitationsfeld kann man sich vorstellen als gegeben durch die Menge seiner Feldlinien im Sinne Faradays. Es ist Summe von Teilfeldern, deren jedes erzeugt wird durch 2 Fermionen. Jede Feldlinie dieses Teilfeldes ist — als 3-dimensionales Gebilde — gut vergleichbar mit der Haut eines Apfels, welche die Wurzel seines Stiels mit der Wurzel seiner Blüte verbindet. Die im Teilfeld betrachteten Feldlinien zerlegen den Raum ihn ähnlicher Weise wie die Schalen einer Zwiebel das Innere der Zwiebel partitionieren.
       
      Nun erzeugt aber jedes Paar von Fermionen eine solche Partition des Raumes. Sie alle überlagern sich zu einer Partition, welche den Raum auspflastert mit winzig kleinen "Pflastersteinchen", deren Seitenlängen so in etwa 1 Plancklänge betragen. [ "Zwiebelschalen" mit noch geringerer Dicke zu betrachten, scheint keinen Sinn mehr zu machen, da man davon ausgeht, dass all unsere Physik nur bis hin zur Planckskala Sinn machen kann. ]

     
    Die Berechnungen erwiesen sich als kompliziert, wir beschlossen, Roger Penrose um Rat zu fragen, und zusammen erkannten wir, dass das Konzept der » Spin-Netzwerke «, welche Penrose schon 20 Jahre früher entwickelt hatte, uns einen gangbaren Weg wies.
     
    Die Schleifen existieren nach wie vor: Sie verbinden Ecken der "Pflastersteine", die den Raum partitionieren, und stellen so Kanten jener "Pflastersteine" dar. Jede dieser krummen Kanten gehört zum Rand von mindestens 2 Seitenflächen solcher Pflastersteine (= Raumquanten), kann also auf mehreren Faraday-Linien liegen.
     
    Die Zahl der Farady-Linien, zu denen dieselbe "Kante" gehört, ist eine ganze Zahl, die man als ihren » Spin « bezeichnet. [Aus komplizierten historischen Gründen halbiert man sie, so dass jeder Spinwert ganzzahliges Vielfaches von 1/2 ist.]
     
     
    Quelle: Carlo Rovelli: Und wenn es die Zeit nicht gäbe? (2018), S. 97-104

     


     
     
    Man beachte:
     
    Bemerkenswert ist, dass Rovelli nicht die "Pflastersteine" (wie man denken könnte), sondern kleine Umgebungen ihrer Ecken als » Raumkörnchen ansieht. Im Sinne der Feldtheorie muss man sie sich wohl von gleicher Qualität und Ausdehnung vorstellen wie Elektronen im Elektronfeld: Sie sind nur i.W. an bestimmter Stelle des Raumes. Der Knoten im Spin-Netzwerk ist sozusagen nur » die Stelle deutlichster Präsenz des Raumkörnchens «.
     
     
     
    Ausschnitt aus einem Spin-Netzwerk

     
     
    Zu dieser Graphik (gefunden auf Seite 101 seines Buches) schreibt Rovelli:

       
      Ein Spin-Netzwerk (links), gebildet aus Abschnitten von Faraday-Linien des Gravitationsfeldes:
       
      Jedes Linienelement gehört zu einer oder mehrerer Schleifen, die
      [ minimale ] geschlossene Graphen bilden. Die Schnittpunkte sind die Knoten des Netzes. Sie stellen die » Raumkörnchen « dar (symbolisiert durch ausgedehnte Gebilde (rechts). Die Verbindungslinien stellen die Nachbarschaftsbeziehungen zwischen den Raumkörnchen dar.
       
      Wenn wir sagen, dass das » Volumen « einer Schachtel einen Kubikmeter beträgt, zählen wir in Wirklichkeit, wie viele "Quanten" des Gravitationsfeldes (= Knoten des Spin-Netzwerks) es in der Schachtel gibt (es ist eine Zahl mit etwa 100 Dezimalstellen).
       
      In analoger Weise gilt: Wenn wir erklären, dass die Fläche einer Seite in diesem Buch 200 Quadratzentimeter beträgt, bestimmen wir in Wirklichkeit die Zahl der Verbindungslinien im Netzwerk oder die Zahl der elementaren Schleifen, welche sich auf dieser Seite finden (eine Zahl mit etwa 70 Dezimalstellen).
       
      Die Spin-Netzwerke liefern so eine präzise mathematische Beschreibung der
      [ von der Theorie vorhergesagten ] Quantenstruktur des Raumes.
       
      Genauer gesagt: Da es um Quantenmechanik geht — und damit um Wahrscheinlichkeiten —, ist die Theorie in Form von Wahrscheinlichkeitswolken formuliert
      [ Gemeint ist Wahrscheinlichkeit für das tatsächliche Auftreten jeweils eines, ganz bestimmten Spin-Netzwerks ].
       
      Man muss sich so vorstellen, dass jedes konkrete Spin-Netzwerk einen möglichen Zustand unserer Welt beschreibt und seiner Qualität nach an den Zustand des aus weißen und schwarzen Punkten bestehenden Bildes auf dem Schirm eines Analogfernsehers erinnert, wenn kein konkreter Sender angesteuert ist.
       
      Dass Penrose solche die Spin-Netzwerke allein durch seine Vorstellungskraft » erfunden « hat, als er zu beschreiben suchte, wie quantisierter Raum aussehen könnte, ist höchst erstaunlich.

     
    In einer Veröffentlichung auf arxiv.org beschreibt Rovelli das der Loop Quantum Gravity zugrunde liegende Spin-Netzwerk so:

       
      Das Spin-Netzwerk bildet einen Graphen in einem Hilbertraum. Jeder Knoten und jede Verbindungslinie erhalten Quantenzahlen. Die schwarzen Knoten werden als Quanten der Gravitation bzw. des Raumes betrachtet. Das Volumen dieser Raumquanten ist diskret. Die Fläche, die zwei Knoten trennt, ist auch diskret.
       
      Die elementaren Raumquanten haben keine scharf voneinander abgegrenzte Geometrie. Volumina und Flächen müssen nicht notwendigerweise die Geometrie festlegen, können sich also überlappen. Es handelt sich ja auch um eine Theorie, die — wie alle Quantentheorien — mit Wahrscheinlichkeiten arbeitet.
       
      Im Falle von grossen Quantenzahlen gibt es Zustände im abstrakten Hilbertraum, die sich an die 3D-Geometrie des Raumes beliebig exakt annähern, ebenso wie es Photonen-Zustände bei der Annäherung an ein klassisches elektromagnetisches Feld tun ...

     
    Zwischenbilanz daraus:
     
    Jedes Spin-Netzwerk lebt in einem abstrakten Hilbertraum und nennt die Wahrscheinlichkeit, mit der es Zustand des 3-dimensionalen Raumes sein kann. Der tat­sächliche 3D-Raum (im Sinne Einsteins) emergiert daraus — so die Theorie (für die es bisher aber noch keine Bestätigung gibt).
     
    Mit abstrakten Hilberträumen arbeiten alle Quantenfeldtheorien. Die Verbindungslinien des Netzwerks sind abstrakt zu verstehen; Sie haben keine Längen.
     
    |
     
     
    Wie aber kommt man vom Raum zur Raumzeit?
     
    In der bisherigen Betrachtung wurde die Zeit vernachlässigt (genauer: Veränderung, welche Zeit generiert).
     
    Man muss sich das so vorstellen, dass jedes Quantenereignis einen lokalen Umbau des Spin-Netzwerks bewirkt. Was daraus an Folge von Zuständen des Netzwerks resultiert, nennt man Spinschaum (spin foam): Durch diese — nun als zeitlich zu interpretierende — Entwicklung werden die Knoten des Spin-Netzwerks zu Linien im Spinschaum, ebenso werden die Linien im Spin-Netzwerk zu Flächen im Spinschaum.
     
    Insbesondere ist der Fluss der so entstehenden Zeit nicht kontinuierlich, sondern eher vergleichbar mit dem Ticken einer Uhr:
     
     
    Wie der Zeiger auf dem Ziffernblatt einer Uhr macht auch die Zeit Sprünge!

     
    Bei solchen Sprüngen — deren jeder Resultat eines Quanten-Ereignisses ist — ändert sich die Gestalt des Spin-Netzwerkes schlagartig, d.h. instantan.
     
    Spinschaum kann lokal als Folge von Zuständen des Spin-Networks gesehen werden. Mit jedem Quantenereignis reformiert sich das Spin-Netzwerk. Oder anders gesagt: Überall dort, wo sich das Gravitationsfeld als Spin-Netzwerk neu formiert, kann man das als den Tick einer Uhr interpretieren.
     
    Man lese mehr dazu in: Space and Time in Loop Quantum Gravity (Rovelli, 2018).

     

     Beitrag 0-57
    Martin Bojowalds quantenkosmologische Entdeckung

     
     

     
    Quantenkosmologie

     
     
    Als Quantenkosmologie bezeichnet man den Zweig der modernen Kosmologie, der neben Einsteins Theorie auch die Gesetze der Quantentheorie mit dazu heranzieht, das Universum als Ganzes zu beschreiben. Siehe etwa Zehs Vortrag Warum Quantenkosmologie?
     
    Kurz gesagt:
     
     
    In der ersten Hälfte des 20. Jahrhunderts hat die Theoretische Physik gelernt, auf zwei großen, starken Beinen zu stehen:
    • Quantentheorie beschreibt sehr zutreffend das Verhalten von Objekten im subatomaren Bereich,
    • wohingegen Einsteins Allgemeine Relativitätstheorie (sprich: seine Gravitationstheorie) sich als Experte für das Verhalten astronomisch großer Objekte erwiesen hat.

    So zutreffend die Vorhersagen beider Theorien für den jeweils genannten Größenbereich sind, sie widersprechen sich, wo man Objekte betrachtet, die weder extrem klein noch extrem groß sind. Man denkt deswegen, dass beide Theorien unterschiedliche Grenzfälle einer noch nicht entdeckten allgemeineren Theorie sein müssen. Sie zu finden sieht die Theoretische Physik seit etwa 1950 als ihre vordringlichste Aufgabe.
     
    Es gibt bisher zwei Ansätze zu jener Theorie zu kommen:
    • die eher zufällig entdeckte Stringtheorie einerseits (an der während der letzten Jahrzehnte stets etwa 1000 Physiker arbeiteten)
    • und eine Theorie, die man als Schleifen-Quantengravitation bezeichnet (an der aber wohl nie mehr als 150 Forscher ernsthaft arbeiteten).
    Seit nun aber der junge deutsche Physiker Martin Bojowald — so etwa 2002 — einen Weg fand, ausgehend vom Modell der Schleifenquantengravitation die Mathematik danach zu befragen,
    • wie es zum Urknall gekommen sein könnte
    • und welche physikalischen Gesetze gegolten haben könnten,  b e v o r  es zum Urknall kam,
    scheint ein Verfolgen des Ansatzes der Schleifenquantengravitation mindestens so wichtig zu sein wie weitere Arbeiten zur Stringtheorie, denn:
     
    Die Urknalltheorie kann nur die  F o l g e n  des Urknalls zu erklären, nicht aber dessen  U r s a c h e . In dieser Hinsicht nun hat Bojowald der Physik einen völlig neuen Weg gewiesen. Seine Erkenntnis:
     


    Bojowald ( S. 306, etwas gekürzt ):
     
    Die Schleifen-Quantengravitation liefert  i m m e r  eine Zeit vor dem Urknall (nicht aber einen Startpunkt des Universums vor endlicher Zeit).
     
    Sie scheint demnach klar parteiisch zu sein in der Frage, ob physikalische Prinzipien eher ein lineares oder eher ein zyklisches Weltbild favorisieren.
     
    Sie bringt zudem etwas völlig Neues mit ins Spiel: kosmische Vergesslichkeit:

       
      Für viele Größen (wie etwa die Gesamtgröße des Universums oder die Expansions- und Kontraktionsraten) durchläuft das Universum einen deterministischen Prozess, der frei von Singularitäten ist und eine eindeutige Geschichte liefert.
       
      Wenn man aber frägt, ob man im Prinzip von allen Eigenschaften des Universums im Vorgängerzyklus im Nachhinein durch Beobachtung Kenntnis erlangen kann, so wird man enttäuscht:
       
      Es gibt Eigenschaften — wie etwa die Größe von Quantenfluktuationen —, die man später im Folgezyklus nicht mehr aus Beobachtungen rekonstruieren kann.
       
      Hierin als besteht das neue Element [ kosmische Vergesslichkeit ], das überraschenderweise in der Schleifen-Quantenkosmologie auftritt. Damit ist das Bild nicht rein zyklisch, sondern hat auch einen nicht zyklischen Anteil.

         
      • Es gibt also Eigenschaften, die nach jedem Urknall einen frischen Neustart bedeuten,
      • und es gibt andere Eigenschaften, die jeden solchen Knall durchwandern  o h n e  vergessen zu werden.

       
      Mathematisch hergeleitete Details der Quantenkosmologie ergeben damit neue Prinzipien (in diesem Fall eine Mischung aus zyklischem und linearem Weltbild), die trotz aller Phantasie [ der Vertreter von Philosphie und Physik über die letzten 2.500 Jahre hinweg ] vorher nie aufgetaucht sind.

     
    Der weitere Ausbau dieser Bilder — so schreibt Bojowald — sei zur Zeit in rasantem Fortschritt begriffen und das insbesondere auch im Hinblick auf mögliche Beobachtungen.
     


     
    Quelle:
     
    Gebhard Greiter meint dazu:
    • Sollte Bojowalds Theorie kosmischer Vergesslichkeit richtig sein, würde das bedeuten, dass Universen, wenn sie sterben und neu geboren werden, sich transformieren wie bilologische Lebewesen, die ja auch zahlreiche ihrer Eigenschaften — wenn nicht sogar die meisten (wie mindestens grob ihr Aussehen und ihre Funktionsweise) — auf jeden Fall an ihre Nachkommen vererben, die aber doch auch stets über Eigenschaften und Fähigkeiten verfügen, die sie nur als Exemplar, aber nicht als Gattung haben.
       
       
       
      Vor Bojowald waren kosmogonische Vorstellungen (Vorstellungen darüber, wie unsere Welt entstanden sein könnte) nur in der Mythologie vorzufinden.
       
      Im Lichte von Quantenkosmologie werden sie nun Gegenstand wissenschaftlicher Betrachtung. Man wundere sich also nicht, dass Bojowald entsprechende alte Texte
      zu lesen scheint und gelegentlich daraus zitiert — ganz so, wie im Zuge jeder gründlichen Diskussion der modernen Atomtheorie ja auch stets darauf hingewiesen wird, dass an sie erinnernde Ideen bis auf die Vorsokratiker, in dem Fall Leukippos und seinen Schüler Demokrit (etwa 500 v.Chr.), zurückzuverfolgen sind.


       

     Beitrag 0-64
    Ist unser Universum durch Quantenfluktuation entstanden (und dann also endlich)?

     
     

     
    Quantenkosmologie:

    Die Idee der Quanten-Universen

     
     
    Es ist dies ein Versuch der Physiker, die Quantentheorie auf die letzte Domäne anzuwenden, die der Quantisierung bisher standgehalten hat: das Universum selbst.

     


    Michio Kaku (2008):
     
    Das Konzept der » Quantenkosmologie « scheint zunächst ein Widerspruch in sich selbst zu sein: Es bezieht sich ja die Quantentheorie auf die winzige Welt der Atome und Elementarteilchen, wohingegen die Kosmologie das ganze Universum umfasst.
     
    Doch beachten Sie Folgendes: Im Augenblick des Urknalls war das Universum [ wenn es denn endlich sein sollte ] wesentlich kleiner als ein Elektron. Wenn nun aber Elektronen quantisiert werden müssen und das Universum einmal kleiner als ein Elektron war, dann muss auch das Universum in Überlagerungszuständen existieren können.
     
    Die Kopenhagener Deutung aber erzeugt Komplikationen, wenn man sie auf das gesamte Universum anzuwenden versucht, da sich nach ihr nur etwas konkretisieren kann, was einen "Beobachter" hat, der seine Wellenfunktion "kollabieren" lässt. Dieser Beobachtungsprozess ist absolut notwendig, die makroskopische Welt zu definieren ...
     
    Aber wie kann dass ein "Beobachter" von "außen" die Wellenfunktion des Universums zum Einstrurz bringen?
     


     
    Hier zeigt sich, dass Kaku nicht so recht verstanden hat, was man unter dem sog. "Kollaps" der Wellenfunktion denn eigenlich zu verstehen hat. Zudem berücksichtigt er nicht, dass « falls ein Universum durch Quantenfluktuation entstehen kann « natürlich gleich mehrere so entstehen können und die einander dann "Beobachter" wären.
     
    Kakus anschließende Behauptung, dass nur Everetts Viele-Welten-Theorie eine Lösung des Problems darstelle, ist demnach grundfalsch.
     
     
    Und er schreibt ja selbst:

    Michio Kaku (2008):
     
    In der Quantenkosmologie begann das Universum als eine Quantenfluktuation des Vakuums, als eine winzige Blase im Raumzeitschaum. Die meisten Baby-Universen im Raumzeitschaum entstehen mit einem Urknall (Big Bang) und enden fast sofort wieder mit einem Riesenkollaps (Big Crunch): Wir sehen sie nie, weil sie so nur extrem klein und extrem kurzlebig sind. Sie tanzen ins Vakuum hinein und wieder heraus, so dass selbst das Nichts von Baby-Universen nur so brodelt — in einem Maßstab allerdings, der zu klein ist, um ihn mit unseren Instrumenten aufspüren zu können.
     
    Aus irgend einem Grund aber existieren einige dieser Blasen länger und werden dann, wie etwa unser Universum, sehr groß, was Alan Guth veranlasst hat zu fragen » Is the Universe a Free Lunch? «.
     
    In der Quantenkosmologie betrachten die Physiker statt der Schrödinger Gleichung die Wheeler-deWitt-Gleichung: So wie erstere die Wahrscheinlichkeit beschreibt, dass ein Objekt — ein Elektron etwa — sich an der oder jener Stelle im Raum beobachtbar macht, so beschreibt letztere die Wahrscheinlichkeit dafür, ein Universum wie das unsere in diesem oder jenem Zustand vorzufinden.
     
    Besonders energisch hat Steven Hawking diesen Standpunkt vertreten: Unser Universum — so denkt er — sei ein ganz besonderes. Die Wellenfunktion des Universums mache es ganz besonders wahrscheinlich, die meisten anderen aber extrem unwahrscheinlich.
     
    Im Grunde versucht Hawking, auf diese Weise die Inflationstheorie abzuleiten: Ein Universum, das sich inflationär ausdehnt sei wahrscheinlicher als andere.
     


    Nun aber das eigentlich Interessante:

    Michio Kaku (2008):
     
    Die Theorie, unser Universum sei aus dem » Nichts « entstanden, mag ganz und gar unüberprüfbar erscheinen, ist aber gut verträglich aber mit den folgenden drei einfachen Beobachtungen:

       
    • Viele Physiker haben darauf hingewiesen, wie erstaunlich es sei, dass der Gesamtbetrag der positiven und negativen Ladungen sich in unserem Universum auf exakt Null summiert. Das aber wäre nicht verwunderlich, wenn es aus dem Nichts entstanden wäre (denn auch das Nichts hat ja keine Ladung).
       
    • Unser Universum hat Spin null. Kurt Gödel war viele Jahre bemüht, die Spins bekannter Galaxien zu addieren, um so zu sehen, ob unsere Welt nicht vielleicht doch Spin habe. Er fand kein Anzeichen dafür, und so glauben die Astronomen heute, dass sich der Gesamtspin unseres Universums auf null belaufe (was auch zur Folge hat, dass es kein Gödel-Universum sein kann).
       
      Und tatsächlich: Das Nichts hat keinen Spin, und so sollten auch Universen, die aus dem Nichts entstehen, keinen haben.
       
    • Wäre unser Universum tatsächlich aus dem Nichts entstanden, würde dies auch erklären, weshalb darin die Summe aller Energie, soweit man bisher messen konnte, scheinbar Null ist (wenn man die mit der Gravitation verbundene Energie als negativ sieht). Und tatsächlich: Sollte unser Universum endlich sein, müsste sich der Allgemeinen Relativitätstheorie zufolge, tatsächlich Null als Summe aller Energie ergeben. Auch die Inflationstheorie scheint darauf hinzudeuten, dass die Summe aller Energie unseres Universums erstaunlich gering, wenn nicht sogar Null ist.
       

    Wir sehen also:
     
     
    Es gibt etwas, das darauf hindeutet,
     
    dass unser Universum tatsächlich nur endliche Größe haben könnte.

     
     
    Quelle:
    • M. Kaku: Die Physik des Unmöglichen, Rowohlt 2008, Seite 310-313


     

     Beitrag 0-230
    Durch Information (bzw. Naturgesetze) gesteuerte Energie — nur das ist die gesamte Schöpfung

     
     

     
    Die gesamte Schöpfung ist

    durch Information gesteuerte Energie

     
     
    Information existiert in zweierlei Form:
       
    • Als  a b s t r a k t e  Information ist Information weder Bedeutungsträger noch Nachricht, sondern einfach nur etwas, das zur Kenntnis genommen werden kann.
       
    • Als  k o n k r e t e  Information ist Information eine Nachricht, der sich Sender und Empfänger zuordnen lassen.

    Eventuell gegebene Bedeutung konkreter Information ist stets durch den Empfänger konstruierte Bedeutung.
     
     
    Wie die Quantenphysik uns zeigt, ist Energie ein durch abstrakte Information (die Wellenfunktion des Universums) gesteuerter Drang, Veränderung zu bewirken.
     
    Diese Wellenfunktion nämlich legt fest, wie stark jener Drang in Abhängigkeit von Zeit und Ort zu sein hat.
     
    Und wie wir wissen, ist jedes Elementarteilchen — jede Portion von Kraft oder Materie — einfach nur solcher Drang: Summe von Feldanregungen, die ihn periodisch auf- und abbauen.
     
     
    Wenn der Drang zu wirken sich entlädt, nennt man das einen Kollaps der Wellenfunktion. Er ersetzt die Wellenfunktion schlagartig durch eine neue Version ihrer selbst. Es sind dies die einzig möglichen Ereignisse — die kleinsten Schritte —, in denen die Welt sich verändert.
     
     
    Interessant ist, dass zwischen abstrakter und konkreter Information zu unterscheiden uns auch das Verhältnis von Geist zu Materie klar macht:
     
     

     
    Was ist Schnittstelle zwischen Geist und Materie?

     
    Alle in der Raumzeit möglichen Bewegungen lassen sich mathematisch durch die sog. Poincaré-Gruppe darstellen.
     
    Dieser Darstellung lässt sich entnehmen, wie Objekte sich unter Bewegung verändern. Unveränderliche Eigenschaften (sog. Quantenzahlen) machen die Objekte unterscheidbar.
     
    Wie die Mathematik der Poincaré-Gruppe zeigt, muss jedes Objekt Energie und Spin haben.
     
    Hieraus folgt, dass jede in Zeit und/oder Raum bewegbare Information — schon aus mathematischen Gründen — an einen energetischen Träger gebunden ist.
     
    QuBits stellen abstrakte, also nicht bewegbare Information dar. Sie sind  n i c h t  an energetische Träger gebunden.
     
     
    Auf Seite 144 des Buches Thomas & Brigitte Görnitz: Der kreative Kosmos finden sich diese Tatsachen zusammengefasst wie folgt:


    Görnitz (2002)
     
    Konkrete (und somit auch jede durch Messung gelieferte) Information ist aus mathematischen Gründen an energetische Träger gekoppelt.
     
    Nur rein abstrakte Information — Quanteninformation etwa, welche ja erst durch Messung zu klassischer Information wird — ist an nichts gebunden [ und ist daher reiner Geist ].
     


    Hieraus wird klar:
     
    Schnittstelle zwischen Geist und Materie ist der Kollaps der Wellenfunktion.

     
    Alles Reale ist einfach nur Bedeutung.

     
     
    Und tatsächlich: Unsere Sinne nehmen nur Ergebnisse quantenphysikalischer Messvorgänge wahr.
     
     
    Fußnote 1: Hier wird verständlich, warum Hans-Peter Dürr Materie gelegentlich auch als geronnenen Geist bezeichnet hat.
     
    Fußnote 2: Wie die Poincaré-Gruppe zeigt, sollte es über Objekte mit Energie und Spin hinaus noch genau ein weiteres geben. Ihm sind weder Energie noch Spin zugeordnet. Sein Zustand wird durch keinerlei Bewe­gung verändert. Man nennt diese Lösung das Vakuum.


     
     
    Note: Wo immer eingehender Information Bedeutung zugeordnet wird, geschieht dies durch eine Verknüpfung der eingehenden Information mit schon vorhandener
    k o n k r e t e r  Information. Sie kann nur vorhanden sein, wenn der Empfänger der eingehenden Information über ein Gedächtnis verfügt.
     
    Gedächtnisinhalte können sein:
       
    •   genetische Information (in früheren Evolutionsschritten gewonnene Erfahrung),
       
    •   im Nervensystem gespeicherte Erfahrung (rein individuelle Erfahrung) und — nur beim Menschen —
       
    •   kulturell überlieferte Erfahrung.


     

     Beitrag 0-224
    Unterschiede zwischen Quantenphysik und klassischer Physik

     
     

     
    Unterschiede zwischen

    Quantenphysik und klassischer Physik

     
     
    Basis der klassischen Physik ist die Annahme, dass jedes System durch seine Einzelbestandteile vollständig bestimmt sei. Erst Quantenphysik hat uns gelehrt, dass das nicht so sein muss:
     
    Wenn etwa ein Elektron auf ein Positron trifft, so kann aus diesem System ein Paar von Lichtquanten werden. Mit anderen Worten: Ein System von zwei Fermionen, die beide Ruhemasse haben und sich nicht mit Lichtgeschwindigkeit bewegen können geht über in ein System von zwei Bosonen, die sich nur mit Lichtgeschwindigkeit bewegen.
     
    Dieses Beispiel zeigt, dass die Teile, in die ein Quantensystem zerfallen kann, derart unterschiedlicher Art sein können, dass die naive Vorstellung, das Quantensystem  b e s t e h e  aus, sich von selbst verbietet.
     
    In diesem Sinne besteht auch ein Tisch nicht aus Atomen oder Elementarteilchen, sondern kann lediglich in sie zerlegt werden. Er ist ein Ganzes, welches Eigenschaften hat, die auf Basis der kleinsten Teilchen, aus denen er aufgebaut scheint, noch nicht einmal formulierbar sind.
       
    • Der große Unterschied der Quantenphysik gegenüber der klassischen Physik besteht also darin, dass quantenphysikalische Objekte nur selten so verstanden werden können, dass sie aus den Teilchen bestehen, durch deren Verschmelzung sie entstanden oder in die es möglich ist, sie zu zerlegen.

     
    Trotzdem also die Quantenphysik uns zeigt, dass naiver Reduktionismus Grenzen hat, gilt dennoch:
       
    • Die Quantentheorie ist die bisher genaueste Theorie, welche der Physik zur Verfügung steht.
       
    • und zudem noch die einzige, deren Vorhersagekraft bisher noch an keinerlei Grenzen gestoßen ist.

    Die Quantentheorie beinhaltet einen ausgereiften mathematischen Formalismus, mit dem sich sehr gut arbeiten lässt (und das ohne Rücksicht darauf, ein wie tiefes oder auch nur einheitliches philosophisches Verständnis die zusammen arbeitenden Physiker erlangt haben).
     
    Thomas Görnitz schreibt, es zeige sich hier, dass etwas zu  b e h e r r s c h e n  und etwas wirklich zu  v e r s t e h e n , zwei unterschiedliche Dinge sind:
       
    • Wir beherrschen die Quantenphysik über ihren zuverlässigen mathematischen Formalismus, und das obgleich einige ihrer bedeutendsten Mitentwickler — ja sogar die, welche diesen Formalismus schufen — der Meinung waren, die Theorie sei "unverstehbar".

     
    Note: Schon im Jahr 2000 ging man davon aus, dass etwa 1/4 des Bruttosozialproduktes hochentwickelter Industriestaaten auf Anwendungen der Quantenphysik beruhe: Die gesamte Festkörperphysik, die Halbleitertechnologie, Computer, Laser, Solarzellen, Kernkraftwerke, aber auch viele medizinische Untersuchungs- und Behandlungsmethoden und -werkzeuge (man denke z.B. an Kernspintographen oder die Positronen-Emissions-Spektrographie).
     
    Supraleitung und Suprafluidität gelten als besonders spektakuläre Quantenzustände, da sie sogar  m a k r o s k o p i s c h e  Phänomene sind.
     
    Man sollte also nicht glauben, die Quantentheorie sei nur auf den Bereich der Mikrophysik beschränkt.
     

     
     
    Elementarteilchen sind emergente Phänomene

     
    Die Tatsache, dass sich Quantensysteme der reduktionistischen Methode entziehen, scheint mir darin begründet zu sein, dass selbst Elementarteilchen nicht wirklich unzerlegbar sind, sondern — als Buckel von Wellenpaketen — ja nur  e m e r g e n t e  Phänomene darstellen:
     
     
    Jedes Elementarteilchen ist Summe extrem vieler Wellen, deren Menge ständigem Wandel unterliegt.

     
    Den Beweis hierfür liefert die Quantenfeldtheorie. Sie nämlich sieht jedes Elementarteilen als Summe von Feldanregungen, deren jede — einzeln für sich — Welle genau einer Frequenz ist. Die Zeitspanne, über die hinweg so eine Welle existiert, kann beliebig kurz sein, muss aber — nach Heisenbergs Ungleichung für die Unbestimmtheit von Lebensdauer und Energie — umso größer sein, je kleiner die Frequenz (und damit die Energie) der Welle ist.
     

     
     
    Jede klassische Systembeschreibung ist unvollkommen, da ...

     
    ... sie das betrachtete System
       
    • ausschließlich als Summe seiner Teile beschreibt,
       
    • hierbei selbst festlegt, was genau sie als seine kleinsten, nicht weiter zerlegbaren Teile sehen möchte,
       
    • und zudem noch sämtliche Bezüge ignoriert, die das beschriebene System hin zu seiner Umwelt hat oder haben könnte.

     
    Henadische Gesamtheiten — vor allem lebendige Systeme — sind auf diese Weise nur völlig unzureichend beschrieben.
     
    Dies erkennt sofort, wer sich vor Augen führt, dass kein einziges Lebewesen – ähnlich wie ein Uhrwerk – erst in kleinste Teile zerlegt und dann verlustfrei daraus wieder zusammengesetzt werden kann.

     
     
    System-Isolation

     
    Aus Sicht klassischer Physik sind Systeme nur dann isoliert, wenn sie sich räumlich nicht durchdringen, noch besser: wenn sie rämlichen Abstand von einander haben.
     
    Ganz anders in der Quantenphysik: Hier gelten zwei Systeme als isoliert voneinander, wenn ihnen Wechselwirkung unmöglich (bzw. weitgehenst unmöglich) gemacht wurde. Dies kann auch dann der Fall sein, wenn sie sich räumlich durchdringen. Bestes Beispiel hierfür ist durch eine Glasfaser gesandtes Licht.
     
    Nur isolierte Quantensysteme werden sich nicht miteinander verschränken, denn: Jede Wechselwirkung erzeugt Verschränkung.

     

     Beitrag 0-63
    Quantenmechanik — keine andere physikalische Theorie macht genauere Aussagen

     
     

     
    Quantenmechanik — unsere bisher genaueste Theorie

     
     
    Seltsamerweise ist die Quantentheorie — obgleich sie für alles von ihr Vorhergesagte doch nur Wahrscheinlichkeiten nennt — das erfolgreichste und genaueste je von Menschen ersonnene physikalische Modell. Seine Vorhersagen sind oftmals bis auf den zehnmilliardsten Teil akkurat.
     
    Erst diese Genauigkeit macht die technischen Wunder der heutigen Zeit möglich: Laser, Computer, Mobilfunk, Mikrowellenherd und vieles mehr.
     
    Und nicht zuletzt auch ganz unglaublich genau gehende Uhren ( jetzt und demnächst ).
     
     
    Da solche Uhren den Fluß der Zeit anhand der Schwingungen von Quanten zeigen, wird klar:
     
     
    Durch die Natur konstant gehaltene Schwingungen des Energiefeldes liefern uns die Zeit.
     
    Diese scheint der Grund dafür zu sein, dass für zueinander nicht beschleunigte Beobachter die Zeit gleich schnell voranschreitet.


     

     Beitrag 0-535
    Quantisierung — Was Quantenphysiker darunter verstehen

     
     

     
    Quantisierung

    — Was Quantenphysiker darunter verstehen —

     
     
    In der Quantenphysik versteht man unter Quantisierung (auch Quantelung) den Übergang einer klassischen Theorie der Physik in die entsprechende quantentheoretische Darstellung, siehe Quantisierung (Physik).
     
    Dieser Übergang beinhaltet unter anderem, dass Energie zwischen Systemen nur in Quanten ausgetauscht werden kann und dass stationäre Systeme diskrete Energieniveaus aufweisen. Bislang sind Quantisierungen bekannt für: Materie, Licht, Energie, Ladung, Impuls, Drehimpuls, Widerstand.
     
    Genauer: Es wird unterschieden zwischen
       
    • 1. Quantisierung: Es ist dieses der Übergang von Vorstellungen der klassischen Physik hin zum teilchen-theoretischen Modell der Quantenphysik: Statt Fermionen — Elektronen etwa — als Kügelchen aufzufassen, werden sie gesehen als Materiewellen im Sinne von de Brouglie.
       
    • 2. Quantisierung: Es ist dies der Übergang vom als allzu naiv erkannten Teilchen-Modell hin zu einer quantenfeld-theoretischen Beschreibung im Sinne der Erkenntnis: "There are no particles, there are only fields."
       
      Ergebnis der 2. Quantifizierung ist, dass man "Teilchen" nun erkannt hat als Wellenpakete im Potentialfeld der 4 physikalischen Grundkräfte (Fermionen stellen sich dort dar als mehr oder weniger stehende Wellen). Per Fourier-Zerlegung erkennt man jedes Elementarteilchen als Summe harmonischer Wellen, sog. QuBits. Erst sie sind nicht weiter zerlegbar.

     
    An Methoden Quantisierung zu erreichen, gibt es
       
    • zunächst mal kanonische Quantisierung als das direkteste Verfahren. Leider hat es den Nachteil, dass Lorentz-Invarianz nicht nachweisbar ist (einer notwendigen Auszeichnung der Zeit wegen).
       
    • Alternativ dazu kann man den sog. Gupta-Bleuler-Formalismus anwenden. Er garantiert Lorentz-Invarianz, hat aber mit sog. Geisterfeldern zu kämpfen (es sind dies unphysikalische Zustände mit negativer Norm, die in der Quantenfeldtheorie im Fall bedingter Quantisierung vorkommen).

     
     
    Ein theoretischer Physiker, hat mir erklärt, wie sich die Strings der Stringtheorie quantisieren lassen:


    Gesprächsnotiz (2021):
     
    Die Quantisierung der Strings basiert auf der algebraischen Methode, die zur Lösung des Eigenwertproblems des quantenmechanischen Harmonischen Oszillators (HO) von Dirac entwickelt wurde.
     
    Angeregte Zustände des HO werden durch Einwirkung eines Erzeugungsoperators a+ auf den Grundzustand erzeugt. Entsprechend vernichtet der Operator a einen besetzten Zustand. Aufgrund des Pauli-Prinzips müssen die Erzeuger (E.) und Vernichter (V.), die einen besetzten Zustand mit Fermionen erzeugen anderen algebraischen Bedingungen genügen als bosonische E. und V.
     
    In der Quantenfeldtheorie sind die E. und V. die Fourier-Koeffizienten der Quantenfeldoperatoren.
     
    Die Quantisierung des Strings behandelt man ebenso. Man erzeugt also einen angeregten Zustand eines Strings, indem man die Fourier-Koeffizienten der Moden-Entwicklung des Strings wie Erzeugungs-und Vernichtungsoperatoren behandelt.
     
    Der dieser algebraischen Quantisierungsmethode zugrundeliegende Hilbert-Raum ist der Fock-Raum. Die darauf induzierte Norm muss positiv definit sein.
     
    Verbindet man nun die Notwendigkeit der positiven Definitheit des Fock-Raumes als Zustandsraum mit gewissen Eigenschaften die die Vernichter und Erzeuger haben müssen (sie werden durch die Generatoren der Virasoro-Algebra ausgedrückt), so ergibt sich durch Analyse der möglichen Fälle, dass die Dimension D der der Stringtheorie zugrundeliegenden Minkowski-Raumzeit genau 26 betragen muss. Dabei muss ein zusätzlicher Parameter a gleich eins sein.
     
    Für ( D > 26 und a > 1 ) sowie ( D < 26 und a < 1 ) ergäben sich Zustände mit negativer Norm (etwas Nicht-Physikalisches also, sog. "Geisterzustände").
     
    Daher: Quantifizierung offener und geschlossener, freier bosonischer Strings erfordert D = 26.
     



     

     Beitrag 0-34
    Jedes Quantensystem ist einfach nur zeit- und ortsabhängiges Wirkpotential

     
     

     
    Jedes Quantensystem ist ein Feld von Wirkpotential

     
     
    Da jedes Quantensystem — Bosonen, Elementarteilchen, Atome, Moleküle, usw. — Summe von Wellen ist, deren jede schwankendes Kraftpotential beschreibt, muss jedes Quantensystem als ein Feld von  W i r k p o t e n t i a l  gesehen werden, welches zeit- und ortsabhängig durch seine Wellenfunktion ψ beschrieben ist.
     
    Unter Dekohärenz versteht man die Tatsache, dass sich durch ständig spontan eintretende atomare Entladung des Potentials (kleinste Portionen von Wirkung) diese Wellenfunktion laufend im Kleinen neu konfiguriert. Jede Konfiguration, die sich dadurch ergeben könnte, entspricht einem möglichen Zustand des Quantensystems.
     
    Die modernste, aussagekräftigste Form unserer Atom-Modelle beschreibt die möglichen Zustände des Atoms über seine Orbitale.

     

     Beitrag 0-33
    Beispiele: Elektron und Elektronenhülle eines Atoms

     
     

     
    Warum Elektronen tatsächlich Welle — statt Kügelchen — sind

     
     
    Auf Seite 97 seines Buches Auf dem Holzweg durchs Universum - Warum die Physik sich verlaufen hat werden wir durch Alexander Unzicker daran erinnert, dass selbst eine bewegte Ladung erst dann eine elektromagnetische Welle erzeugt, wenn die Bewegung  b e s c h l e u n i g t  ist.
     
    Umgekehrt: Wo immer elektrische Ladungen beschleunigt werden,  m ü s s e n  sie — so zeigen Maxwells Gleichungen — elektromagnetische Wellen aussenden, also Energie abstrahlen.


    Unzicker
     
    Daher musste man die zu simple Vorstellung aufgeben, im Atom umkreise ein Elektron den Kern — denn allein schon durch die Beschleunigung aufgrund der Zentripetalkraft käme es zu einer Abstrahlung und somit zu Energieverlust.
     


     
    Demzufolge erinnert unser aktuellestes Modell der Atome auch nicht mehr an ein Planetensystem (in dem die Elektronen den Atomkern umkreisen würden wie Planeten die Sonne), sondern ist stattdessen ein Modell aller denkbaren  Z u s t ä n d e  des Atoms.
     
    Jeder Zustand wird beschrieben durch sog. Orbitale, wobei man unter einem  O r b i t a l  eine Raumregion versteht, in der die Wahrscheinlichkeit, dort ein Elektron des Atoms zu beobachten (wenn es registrierbare Wirkung verursacht), mindestens 90% beträgt.
     
    Versucht man die Orbitale eines Atomzustandes graphisch zu visualisieren, so kommt man zu Bildern wie hier errechnet, siehe insbesondere dieses Beispiel und die Bedeutung der Farben.
     
     
    Weitere Beispiele: Zwei Zustände des Wasserstoffatoms:
     
     
     
    Zwei Zustände des Wasserstoffatoms
     
    Quelle: Bernd Thaller: Visionen des UnSEHbaren – Impressionen aus der Welt der Quanten


     

     Beitrag 0-76
    Relativistische Quantenfeldtheorie

     
     

     
    Relativistische Quantenfeldtheorie

     
     
    In der Schrödinger-Gleichung und in aus ihr kommenden Wellenfunktionen wird nicht berücksichtigt, was Spezielle Relativitätstheorie uns lehrt.
     
    Dies ist akzeptabel, solange man Teilchen betrachtet, die sich deutlich langsamer als das Licht bewegen (Elektronen in einem Molekül etwa).
     
    Nach Schrödingers Gleichung kann ein Teilchen sich mit ganz beliebig hoher Geschwindigkeit bewegen, insbesondere auch mit Überlichtgeschwindigkeit. Da dies an der Wirklichkeit vorbeigeht, wird klar, dass Schrödingers Gleichung einer Verfeinerung bedarf.
     
    Dei beiden prominentesten Vertreter entsprechend genauerer Gleichungen sind
     
    • die Dirac-Gleichung — für Teilchen mit Spin 1/2 — und
       
    • die Klein-Gordon-Gleichung für spinlose Teilchen.

     
    Beide beschreiben die relativistische Dynamik von Teilchen korrekt, denen sich eine Bahn im klassischen Sinne zuordnen lässt (sog. f r e i e r  Teilchen).
     
    Auch haben beide in jedem nicht-beschleunigten Bezugssystem (Inertialsystem) die gleiche mathematische Form, welche die Geschwindigkeit sämtlicher Teilchen begrenzt durch die Lichtgeschwindigkeit. Beide führen zur relativistisch genauen Beziehung
     
     
    E2  =  ( mc2 )2  +  ( pc )2

     
    zwischen Impuls p, Ruhemasse m und relativistischer Gesamtenergie E des Teilchens.
     
     
    Wenn nun aber solche Teilchen einer äußeren Kraft ausgesetzt sind oder miteinander kollidieren, treten Probleme mit diesen Gleichungen auf. Insbesondere haben beide auch Lösungen mit negativer Energie. Ignorieren oder uminterpretieren kann man die nur, wenn nicht auch Wechselwirkung der Teilchen mit im Spiel ist. Wo man sie nicht ignorieren kann, verhindert das eine physikalische Interpretation der Lösung als Wellenfunktion.
     
    Kern dieser Probleme ist auf jeden Fall, dass die spezielle Relativitätstheorie Umwandlung von Masse in Energie (oder Energie in Masse) zulässt, die Gleichungen dies aber nicht berücksichtigen.
     
     
    Man stößt hier auf ein interessantes Phänomen, das in der Physik immer wieder auftritt: Erst wenn eine physikalische Theorie alle für ihren angestrebten Geltungsbereich wesentlichen Aspekte konsistent berücksichtigt, zeigt auch der zugehörige mathematische Formalismus Abgeschlossenheit und Eleganz.
     
    Umgekehrt erweisen Schönheitsfehler am mathematischen Gebäude sich immer wieder als Anzeichen dafür, dass wesentliche Aspeke noch unberücksichtigt sind. In einer entsprechend erweiterten Theorie verschwinden diese Schönheitsfehler oder lassen sich neu interpretieren als bislang übersehene völlig neue Phänomene.
     
     
     
    Quelle: Jörg Resag: Die Entdeckung des Unteilbaren (2010), Kap. 5.1

     

     Beitrag 0-97
    Spezielle Quantensysteme: Das Einstein-Bose-Kondensat

     
     

     
    Selbst komplexe Atome können Bosonen sein:
     
    das Bose-Einstein-Kondensat

     
     
    Wer das Standardmodell der Elementarteilchenphysik betrachtet könnte (bei etwas ungenauem Hinsehen) auf die Idee kommen, dass alle Teilchen mit Ruhemasse Fermionen sind. Das aber wäre falsch, denn einzig und allein der Gesamtspin eines Teilchen bestimmt, ob es Boson oder Fermion ist.
     
    Rubidium-Atome etwa sind ausgesprochen große, komplexe Atome (sog. Rydbergatome), haben aber ganzzahligen Spin und sind daher Bosonen:
     
    Die Elektronen des Rubidiumatoms — sein Kern besteht aus 87 Protonen — können auf bis zu 43, zudem noch weit auseinanderliegende Schalen (Energieniveaus) verteilt sein.
     
    Kühlt man ein Gas aus angeregten Rubidiumatomen stark ab (bis fast zum absoluten Nullpunkt), so kommen sich seine Atome derart nahe, dass sich ihre Wellen­funktion fast vollständig überlappt in dem Sinne, dass für jeden Punkt X und jedes Atom A die Wahrscheinlichkeit, A am Punkt X anzutreffen, gleich groß wird.
     
     
    Es ist dies ein Quantenzustand, in dem die einzelnen Bosonen (hier Rubidium-Atome) vollständig delokalisiert sind.

     
     
    Daraus ergibt sich u.A., dass so ein Gas dann eine perfekt suprafluide Flüssigkeit darstellt.
     
    Man nennt diesen Zustand ein Bose-Einstein-Kondensat, denn dass es ihn geben kann wurde 1924 von Bose und Einstein vorausgesagt auf Basis rein theoretischer Überlegungen. Erst 71 Jahre später, 1995, konnte er dann erstmals im Laber hergestellt werden:
     
    Eric Cornell, Wolfgang Ketterle und Carl Wiemann erhielten 2001 hierfür den Nobelpreis. Von ihnen produzierte Bose-Einstein-Kondensate bestanden aus Rubidium- bzw. aus Natrium-Atomen.
     
     
    Siehe auch: Rydberg-Zustand, Rydberg-Atome
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S.69

     

     Beitrag 0-98
    Spezielle Quantensysteme: Festkörper

     
     

     
    Festkörper

     
     
    Verantwortlich für den Zusammenhalt fester Körper sind elektromagnetische Kräfte:
     
     
    Mit Hilfe von Röntgenstrahlen oder einem Elektronenmikroskop lässt sich die innere Struktur jeden Festkörpers einsehbar machen. Und man erkennt:
    • Sie besteht in aller Regel aus einer großen Zahl positiv geladener Atomrümpfe, die im Festkörper periodisch angeordnet sind. Ihr Abstand voneinander kann von Fall zu Fall unterschiedlich sein, liegt aber i.A. zwischen einigen wenigen und mehreren taused Angström (1 Angström = 10-10 Meter).

    Zwischen den positiv geladenen Atomrümpfen finden sich negativ geladene Elektronen, die den Festkörper zusammenhalten wie Klebstoff.
    • Sie können sich in vielen Fällen fast frei zwischen den Atomrümpfen hin und her bewegen (was den Stoff dann elektrisch leitfähig und zu einem Metall macht).
       
    • Sie können aber auch weitgehend unbeweglich sein, so dass es keine freien Ladungströger gibt; in diesem Fall ist der Stoff ein Isolator.

    Als Teilchen gleicher Ladung stoßen Elektronen einander ab, und eben diese Kraft ist der Grund für die gegenseitige Undurchdringlichkeit fester Körper.
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S.69-70

     

     Beitrag 0-311
    Je massereicher ein Objekt, desto weniger relevant ist quantenphysikalische Unschärfe von Ort und Geschwindigkeit

     
     

     
    Warum Heisenbergs Unschärferelation

    nur für besonders leichte Objekte nennenswerte Unschärfe prognostiziert

     
     
    Heisenbergs Unschärferelation für das Paar Ort und Impuls gilt unabhängig von der Masse m des betrachteten Teilchens:
     
     
    h  <  Δ( Ort ) • Δ( Impuls )  =  Δ( Ort ) • Δ( Geschwindigkeit ) • m

    und somit
    h/m  <  Δ( Ort ) • Δ( Geschwindigkeit )

     
     
    Da Plancks Konstante h objektunabhängig ist, erkennt man hieraus, dass das Produkt der Unbestimmtheit von Ort und Geschwindigkeit nur dann stets groß sein wird, wenn die Masse des Objekts sehr klein ist.

     

     Beitrag 0-99
    Nichts kann in wirklich vollkommener Ruhe verharren

     
     

     
    Konsequenzen aus
     
    Heisenbergs Unschärfe-Relation

     
     
    Wenn eine Kugel vom Berg ins Tal rollt, dann rollt sie auf der anderen Seite bis zu einer gewissen Höhe wieder bergauf. Reicht ihre Energie nicht aus, den nächsten Hügel zu überwinden, so wird sie auf halber Höhe umkehren und erneut ins Tal rollen. Der Vorgang wiederholt sich hin und her bis die Kugel schließlich in der Tal­sohle zum Stillstand kommt.
     
    Ein Quantenteilchen, kann sich so nicht verhalten. Denn käme es zum Stillstand, wäre sein Impuls konstant Null und sein Ort — als ein tiefster Punkt im Tal — genau bestimmt. Das aber würde Heisenbergs Unschärferelation (für Ort und Impuls) widersprechen.
     
    Genau genommen kommt auch eine Kugel nie exakt zum Stillstand. Man merkt das nur nicht, da die Schwingungsamplituten verglichen mit der Größe der Kugel viel zu klein sind.
     
    Wir sehen also: Nichts kann wirklich in vollkommener Ruhe verharren.
     
     
    Heisenbergs Unbestimmtheitsrelation gilt auch für das Paar Zeit und Energie:
     
     
    ΔE • Δt  ≥  h/4π

     
    Dies hat Konsequenzen für recht unterschiedliche Phänomene:
     
     
    Beispiel 1: Die Energie angeregter Zustände von Atomen und Molekülen:
      Wenn ein Atom ein Photon schluckt, dann bringt dessen Energie das Atom in einen angeregten Zustand. Der aber hat nicht beliebig lange Lebensdauer: Schon nach kurzer Zeit fällt das Atom spontan wieder in seinen Grundzustand zurück, wobei die so freigesetzte Energie E zu einem abgestrahlten Photon wird, dessen Frequenz f sich aus der Formel  E = h • f  errechnet.
       
      Wenn nun aber die Lebensdauer Δt des angeregten Zustands sehr kurz ist, muss nach Heisenbergs Unschärferelation E entsprechend groß sein. Mit anderen Worten: Die Zustandsenergie ist unbestimmt, und für jeden noch so großen Betrag gibt es ein kleines Zeitintervall, in dem sie diesen Betrag überschreitet.
       
      Aus diesem Grund sind die Frequenzen der emittierten Photonen keineswegs immer gleich. Sie streuen um einen Durchschnittswert. Dies wird in der Spektroskopie tatsächlich als Linienunschärfe beobachtet. Je kurzlebiger ein beteiligter Energiezustand ist, desto deutlicher der Effekt. Sämtliche Faktoren, die die Energiezustände von Systemen destabilisieren — bei Gasen etwa jede Erhöhung von Druck und/oder Temperatur — führen zu unschärferen Linien.

    Beispiel 2: Objektpermanenz
      Wenn ein Masseteilchen nur extrem kurze Zeit beobachtet werden kann, wird seine Masse m = E/c2 so unbestimmt, dass man gar nicht mehr sicher sein kann, als was es denn nun eigentlich existiert.
       
      Aus diesem Grund ist die Objektpermanenz, die ununterbrochene Identität von Dingen wie wir sie aus unserem täglichen Leben kennen, der Unschärferelation wegen nicht wirklich gegeben.
       
      Sie existiert — von ganz bestimmter Qualität — stets nur als vorherrschender, aber immer wieder zerstörter und neu hergestellter Zustand über längere Zeit.
       
      Schlimmer noch: Betrachtet man die Energie eines Quants als Funktion der Zeit, so gibt es kein noch so kleines Zeitintervall, in dem diese Funktion nicht auch beliebig hohe Werte hätte.


     

     Beitrag 0-109
    Jedes Teilchen ist einfach nur eine Feldanregung (d.h. Welle oder Wellenpaket)

     
     

     
    Teilchen sind in Wirklichkeit Wellen (= Anregung eines Feldes)

     
     
    Es ist erstaunlich, wie viele Physiker heute noch allzu sehr so argumentieren, als könnten Teilchen, die sich wie Quanten verhalten, tatsächlich (wie klassische Teilchen) nur einen Weg nehmen.
     
    Sogar Anton Zeilinger schreibt in einem seiner Aufsätze unter Bezugnahme auf das Doppelspalt-Experiment:


    Zeilinger (2008):
     
    Wir müssen uns in Erinnerung rufen: Quanteninterferenzen treten nur dann auf, wenn keinerlei Information darüber vorliegt, welchen Weg das Teilchen genommen hat. Es geht nicht darum, ob ein Beobachter tatsächlich diese Information besitzt, sondern ob es im Prinzip überhaupt möglich ist, den Weg zu wissen …
     


    Tatsache aber ist: Wenn beide Spalten geöffnet waren, hat das Teilchen (als Feldanregung, d.h. als durch eine Welle oder ein Wellenpaket getragene Energieportion) tatsächlich  b e i d e  Wege genommen.
     
     
     
    Lies auch: There are no particles, there are only fields

     

     Beitrag 0-126
    Was die Quantenphysik unter einem  »  T e i l c h e n  «  versteht

     
     

     
    Was ist ein » Teilchen « im Sinne der Quantenphysik?

     
     
    Man kann sich das Vakuum vorstellen als einen See von Wirkpotential, in dem sich — durch Quantenfluktation — ständig Wellen bilden oder auch gegenseitig zerstören.
     
    Hierin ist Wirkpotential einfach nur ein anderes Wort für Energie, denn Energie ist ja nichts anderes als ein Drang, Wirkung hervorzurufen. Wie Max Planck entdeckt hat, kann sich Wirkpotential aber nur portionsweise in Wirkung wandeln (diese Portionen nennt man Quanten, Hans-Peter Dürr nannte sie  W i r k s  ).
     
    Was Physiker ein  T e i l c h e n  nennen ist eine Energieportion gegeben durch
    • entweder  e i n e  solche Welle
    • oder gar ein ganzes  P a k e t  solcher Wellen (dies auf jeden Fall dann, wenn das Teilchen Ruhemasse hat).

    Jede Welle — aber nicht der Schwerpunkt eines Wellenpakets — breitet sich um den Ort ihres Entstehens herum mit Lichtgeschwindigkeit aus (ver­gleichbar der Oberfäche eines Luftballons, die sich vom Zentrum des Ballons entfernt, wenn er sehr schnell aufgeblasen wird). Wo die Welle auf Hindernisse trifft, wird sie um jedes solche Hindernis herum gebeugt, aber nicht abgebremst.
     
    Wo Wellen aufeinander treffen, kann es vorkommen, dass sie — als Energiepakete — miteinander verschmelzen, zunächst eine einzige Welle höherer Frequenz bilden, die aber dann, meist schon nach extrem kurzer Zeit, in eine ganze Menge neuer Wellen zerfällt. Viele dieser neuen Wellen sind Lichtwellen, so dass wir glauben, an der Stelle dieses Geschehens ein » Teilchen « beobachtet zu haben.
     
    Wo eine Welle aufhört, in ihrer bisherigen Form zu existieren, entspricht das im Bild des Luftballons dem schlagartigen Verschwinden des den Ballon darstellenden Gummis (er stand für die Menge aller Punkte, an denen die Welle eben noch als Wirkpotential präsent war).
     
    Wir sehen:
     
    Solange die Welle nicht zusammenbricht, kann sie praktisch beliebig ausgedehnt im Raum präsent sein
    ( als Oberfläche eines um Hindernisse herum gedrückten, daher also stark verbeulten "Ballons", dessen Radius sich mit Lichtgeschwindigkeit vergrößert ).
     
    Bricht sie aber zusammen, wird sie schlagartig zu etwas, das von einem bestimmten Punkt im Raum aus neue Wellen aussendet,
    ansonsten aber nicht mehr vorhanden ist.

     
    Dem Energie-Erhaltungssatz entsprechend, wird die Summe der Energien aller aus dieser Quelle kommenden Wellen gleich der Energie der zusammenbrechenden Energieportion sein. Die wiederum kann kurz zuvor noch existiert haben als ein Paar von Wellen oder ganzer Pakete solcher Wellen.
     
     
    Teilchenbeschleuniger dienen dem Ziel, eben solche Ereignisse gezielt herbeizuführen unter der Nebenbedingung, die zusammenbrechenden Energieportion so groß wie nur irgend möglich zu machen (um so die Wahrscheinlichkeit zu erhöhen, Zerfallsprodukte — "Teilchen" — möglichst hoher Energie zu bekommen).

     

     Beitrag 0-128
    Was sind Quantenfelder? Und was versteht man unter Quantenfeldtheorie?

     
     

     
    Die seit Mitte des 20. Jahrhunderts wichtigste Methodik zur Beschreibung von Elementarteilchen nennt sich
     
     
    Quantenfeldtheorie

     
     
    Sie entstand als krönender Schlusspunkt der durch Dirac eingeleiteten Versöhnung der Quantenmechanik mit der Speziellen Relativitätstheorie und bescherte uns ein neues, tieferes Verständnis dessen, wie der Begriff » Teilchen « denn eigentlich verstanden werden muss.
     


    Gian Francesco Giudice (2009):
     
    Werfen wir einen Stein in die Mitte eines Sees, so können wir beobachten, wie die durch den Stein verursachte Störung sich auf der Wasseroberfläche als kreisförmige Welle fortpflanzt.

       
      Erreichen diese Wellen eine entfernte Boje, so wird diese in Auf- und Abbewegung versetzt.
       
      Die Wirkung des Steins auf die Boje kommt nicht als Fernwirkung zustande, sondern durch die sich fortpflanzende Welle.
       
      Auf eben diese Weise transportieren Felder die Information von Kräften durch den Raum.
       
      Ein System reagiert ausschließlich auf die Wirkung solcher Feldanregungen in seiner Nähe.

     
    Wir können uns das Quantenfeld als ein riesiges, den gesamten Raum bedeckendes Meer vorstellen. An verschiedenen Stellen türmen sich Wellen auf, Wogen und Dünungen, die sich entlang seiner Oberfläche fortpflanzen. Einzeln betrachtet erscheinen sie uns wie isolierte Einheiten. Tatsächlich aber sind alle Teil derselben Substanz: des Meeres.
     
    Ebenso enthält das Quantenfeld Energieportionen, die sich im Raum ausbreiten und jeweils dem entsprechen, was wir als Teilchen bezeichnen.
     
    Tatsächlich aber sind Teilchen nur eine Manifestation der Grundsubstanz, die den Raum ausfüllt — eine Energie tragende Anregung des Quantenfeldes.
     
     
    Teilchen sind Lokalisierung der Feldenergie, ebenso wie Wellenkämme im Meer lokalisierte Anstiege des Wasserspiegels sind.

     
     
    So gesehen wird die Dualität von Teilchen und Welle — für die Pioniere der Quantenmechanik noch recht unerklärlich — vor dem Hintergrund der Feldquantisierung nun gut verstehbar.
     
     
    Nehmen wir z.B. Elektronen: Wir halten sie für diskrete Teilchen, tatsächlich aber sind sie Energieanhäufungen im Quantenfeld, welches sich über den gesamten Raum erstreckt.

     
     
    Jede Teilchensorte hat ihr eigenes Quantenfeld — es gibt das Feld der Elektronen, das Feld der Neutrinos, usw.
     
    Und ebenso gibt es Felder für sämtliche Wechselwirkungen.

     
    Zwei Beispiele wären:
    • Bei geladenen Teilchen entspricht das Quadrat der Feldwerte der lokalen Ladungsdichte.
       
    • Beim Photon entspricht das Feld dem elektromagnetischen (Vektor)-Potential.

    In einer menschlichen Population ist jedes Individuum einzigartig. In Quantenfeldern ist das anders: Sämtliche Elektronen gleichen einander wie ein Ei dem anderen: Jedes Elektron ist exaktes Abbild all seiner Artgenossen, denn ein einziges Gebilde — das Elektronenfeld — beschreibt sie alle. Dieses Feld ist gepulst und konzentriert seine Energie in bestimmten Punkten des Raumes. Wir nehmen solche Energieanhäufungen als einzelne Elektronen wahr.
     
    In einer stürmischen See entstehen zahlreiche Wogen und Wellen, manche riesig, mache winzig — doch sie alle bestehen aus derselben Substanz: Wasser. Ebenso können Elektronen unterschiedliche Geschwindigkeit haben; manche bewegen sich schnell, andere langsam — und doch haben alle Masse und Ladung, denn sie sind Manifestation desselben Feldes: Ein einziges Feld beschreibt sämtliche Elektronen im Universum.
     
     
    Aus Sicht der Quantenfeldtheorie ist die elektromagnetische Kraft das Ergebnis der Wechselwirkung zwischen dem Feld der Elektronen und dem der Photonen.
     
    Es ist als wäre das Meer in unserem Bild mit Wassermengen unterschiedlicher Farbe gefüllt (Farbe = Elementarteilchenart). Treffen Wellen unterschiedlicher Farbe aufeinander, sind die Auswirkungen wechselseitig: Manche Wellen verlieren sich, manche nehmen die Energie anderer Wellen auf und schwellen an, oder es entstehen neue Wellen. Stets jedoch ist die Wechselwirkung streng lokal.
     
    Die Teilchenwelt ist einen unablässigen Wandel unterworfen, in der ständig Energieportionen neue Ausprägung annehmen, entstehen und vergehen wie Wellen in stürmischer See. Ein Teilchenbeschleuniger — wie etwa der LHC am CERN — verursacht sozusagen einen "Sturm" gewaltiger Kraft, bei dem zwei gigantische Riesenwellen aufeinander krachen und so hoffentlich auch neue, bisher noch nicht beobachtete Wellen hervorbringen.
     
     
    Eine bedeutende Konsequenz der Quantenfeldtheorie war die erfolgreiche begriffliche Vereinigung von Strahlung, Materie und Kraft (drei Erscheinungs­formen der Energie, die wir für gewöhnlich als etwas völlig Unterschiedliches erleben).
     


     
    Quelle: Gian Francesco Giudice: Qdyssee im Zeptoraum — Eine Reise durch die Physik des LHC, Springer 2012, S. 62-67.


     

     Beitrag 0-131
    QED — die Quantenelektrodynamik

     
     

     
    Quantenelektrodynamik (QED) und Renormierung

     
     
    Die QED — eine Anwendung der Quantenfeldtheorie — wurde um 1940 am Caltech von Julian Schwinger und Richard Feynman entwickelt zur Beschreibung sämtlicher Phänomene, die mit elektrisch geladenen Elementarteilchen zu tun haben. Zusammen mit Shin-Ichiro Tomonaga (der in Japan unabhängig von ihnen einen damit vergleichbaren Ansatz entwickelt hatte) wurde ihnen hierfür 1965 der Nobelpreis zuerkannt.
     
    Schon bald nach ihrer Geburt hatte die QED mit der Schwierigkeit zu kämpfen, dass entsprechende Berechnungen dort neben vielen offensichtlich richtigen Ergebnissen sehr häufig auch unendlich große Summen produzierten. Die Haltung vieler Physiker bestand zunächst darin, die erfolgreichen Resultate beizubehalten, die absurden aber einfach zu ignorieren.
     
    Die Wende kam auf der Konferenz von Shelter Island (1947), die von allen Teilnehmern als befreiend und äußerst erfolgreich empfunden wurde: Von der Angst des Krieges erlöst konnte man erstmals wieder ohne die Fessel des Manhatten-Projekts miteinander reden ohne fürchten zu müssen, von militärischer Seite des Verrats von Staatsgeheinmissen verdächtigt zu werden.
     
    Insbesondere präsentierten hier gleich zwei Experimentalphysiker interessante Ergebnisse:
    • Willis Lamb (1913-2008, Nobelpreis 1955) hatte zwei Spektrallinien des Wasserstoffatoms vermessen, die der Dirac-Gleichung zufolge zusammenfallen sollten, durch Lamb aber doch aufspaltbar waren. Diese Aufspaltbarkeit ist heute als Lamb-Verschiebung bekannt.
       
    • Isidor Isaac Rabi (1898-1988, Nobelpreis 1944) hatte die Intensität des magnetischen Moments in Verknüpfung mit dem Spin des Elektrons gemessen und einen Wert festgestellt, der 0.1% über dem durch die Dirac-Gleichung vorhergesagten lag. Diese Korrektur nach oben nennt man heute den anomalen g-Faktor g-2 des Elektrons oder auch den Landé-Faktor.

    Lambs Ergebnisse zwangen die Theoretiker, sich den Unendlichkeiten im offenen Kampf zu stellen — sie einfach zu ignorieren, war nun nicht mehr möglich, denn die QED sagte tatsächlich so etwas wie die Lamb-Verschiebung voraus, erzeugte hierfür allerdings unendlich große Werte.
     
    Noch auf der Heimreise von der Konferenz entstanden Vorschläge für die Lösung des Rechenproblems, und kurz darauf gelang es Julian Schwinger für g-2 einen Wert zu errechnen, der dem durch Rabi gemessenen sehr genau entsprach.
     
    Kurz vor 1950 konnten Feynman, Schwinger und Tomonaga dann beweisen, dass sich mit Hilfe der QED unter Anwendung des sog. Renormierungsverfahrens (einer mathematisch recht dubios anmutenden Methodik) tatsächlich alle Unendlichkeiten beseitigen ließen. Nicht zuletzt dieses Ergebnis hat ihnen den Npbelpreis eingebracht.
     
     
    Der Kernphysiker Giudice erklärt das Prinzip der Renormierung so:


    Gian Francesco Giudice (2009):
     
    Beispielsweise ergeben sich aus der QED gigantische, gegen unendlich strebende Korrekturen für die Masse und die Ladung des Elektrons und auch der Lamb-Verschiebung.
     
    Sobald man nun aber die Lamb-Verschiebung in Relation zur Elektronenmasse formuliert, heben diese riesigen Korrekturen einander auf und übrig bleibt eine vollkommen vernünftige Zahl.
     



    Gian Francesco Giudice (2009):
     
    In Kombination mit dem Renormierungsverfahren erlaubt die QED ganz erstaunlich präzise Vorhersagen über die elektromagnetischen Prozesse in der Teilchenwelt.
     
    Man kann heute die magnetischen Eigenschaften in Zusammenhang mit den Bewegungen von Myon und Elektron mit einer relativen Genauigkeit von 6 • 10-10 bzw. 3 • 10-13 messen. Das ist — um diesen phantastischen Genauigkeitsgrad mal anschaulich zu machen — so als würde man den Erdumfang mit einer Genauigleit von 10 Mikrometern messen können.
     
    Erstaunlicher noch: All diese Messergebnisse stimmen mit auch heute noch extrem beeindruckender Genauigkeit überein mit den Rechenergebnissen der QED.
     
    Dennoch sah man lange Zeit das Renormierungsverfahren als mathematische Trickserei zur Vertuschung eines verborgenen, noch unerkannten konzeptuellen Problems und hat daher nach Alternativen zur QED gesucht. Julian Schwinger formulierte das später so: Die Sorge der meisten beteiligten Physiker bestand nicht darin, die bekannt relativistische Theorie der verknüpften Elektronen- und elektromagnetischen Felder zu analysieren und sorgfältig anzuwenden, sondern darin, sie [die QED] zu ändern.
     
    In der modernen Beschreibung der Elementarteilchen allerdings spielen jene neueren Theorieansätze (S-Matrix, Bootstrap, Nichtlokalität oder Fundamental­länge, um nur einige zu nennen) kaum eine Rolle. In den 1950-er und 1960-er Jahren aber lagen sie voll im Trend als Versuche, die QED zu entzaubern.
     


     
    Quelle: Gian Francesco Giudice: Qdyssee im Zeptoraum — Eine Reise durch die Physik des LHC, Springer 2012, S. 67-73.


     

     Beitrag 0-441
    Renormierungsmethodik — Dirac hat sie nie akzeptiert

     
     

     
    Zur — recht fragwürdigen — Renormierbarkeit der QED

     
     
    Die QED (= Quantenelektrodynamik) bewährt sich auf gerade sensationelle Weise, trotzdem sie sich einer recht fragwürdigen — durch Richard Feynman vorgeschlagenen — mathematischen Methodik bedient, die man Renormierung (= Beseitigung unendlicher Größen) nennt.
     


    Pedro G. Ferreira erklärt, wie das funktioniert:
     
    Die Masse eines Elektrons ist in Laborversuchen höchst genau bestimmt worden und beträgt dieser Messung zufolge 9,1 • 10-27 Gramm.
     
    Wendet man jedoch die Gleichungen der QED an, so gelangt man zu einem unendlich großen Wert für die Masse des Elektrons. Das liegt daran, dass
       
    • einerseits die QED das ständige Entstehen und Vergehen extrem kurzlebiger Elektron-Positron-Paare durch Quantenfluktuation nicht vorsieht,
       
    • andererseits aber diese virtuellen Teilchen, wenn in der Rechnung berücksichtigt, die Masse des Elektrons unendlich groß machen.

    Somit führt die QED, wenn wörtlich genommen, an vielen Stellen zu Unendlichkeiten, d.h. zu falschen, undefinierten Rechenergebnissen.
     
     
    Feynman, Schwinger und Tomonaga haben das Problem gelöst, indem sie argumentierten: Weil wir ja wissen, dass die Masse des Elektrons endlich ist (und weil wir sie kennen), macht es Sinn, das offenbar falsche errechnete Ergebnis zu » renormieren «, indem man es ersetzt durch den bekannten, gemessenen Wert.
     
     
    Für Mathematiker klingt das so, als würde man im Zuge der Rechnung gewisse nicht konvergente Teilsummen willkürlich durch eine endlich Zahl ersetzen.
     
    Paul Dirac erklärte sich als » mit dieser Situation sehr unzufrieden «. Er argumentierte, man weiche hier einem grundlegenen, noch unverstandenen Problem aus, indem man einen » Taschenspielertrick « vorführe. Seiner Überzeugung nach halte genau diese Trickserei die Physiker davon ab, mit Hilfe der allgemeinen Relativitätstheorie zu einer Vereinigung aller vier physikalischen Grundkräfte zu kommen.
     
     
     
    Historische Notiz:
     
    In den 1970-er Jahren wurde gezeigt, dass hierzu analoge Renormierungsverfahren auch noch in anderem Kontext mit Erfolg anwendbar sind.
     
    Die als » das Standardmodell der Elementarteilchen « bekannt gewordenen Theorie verwendet sie heute noch und liefert mit ihrer Hilfe exakte, sehr brauchbare Vorhersagen. Dennoch hat Dirac diese Methodik nie als zulässig akzeptiert, sich ihres Erfolges wegen aber zunehmend in seiner Fakultät in Cambridge isoliert. Er gab 1969 seinen Lehrstuhl auf und übernahm eine Professur in Florida.
     


    Quelle: Pedro G. Ferreira: Die perfekte Theorie (2014), S. 166-169


     

     Beitrag 0-134
    Quantensysteme sind orts- und zeitabhängige Wahrscheinlichkeitsamplituden — Schrödingers Wellenmechanik

     
     

     
    Schrödingers Wellenmechanik

     
     
    In Schrödingers Wellenmechanik wird jedes physikalische System — z.B. das System der Elektronen eines Atoms — vertreten durch eine Wellenfunktion ψ, die man als Wahrscheinlichkeitsamplitude aufzufassen hat: Ihr Wert ist stets eine komplexe Zahl, und das Quadrat ihres Absolutbetrags ist proportional zur Wahrscheinlichkeit, mit der jenes System sich an einem gegebenen Ort der Raumzeit bemerkbar macht.
     
    Mathematische Operationen an ψ erzeugen numerische Werte, Eigenwerte, die den Resultaten physikalischer Operationen am System entsprechen (sog. Messwerte).
     
    Damit vertreten mathematische Operatoren die dynamischen Attribute physikalischer Systeme wie Energie, Impuls, Drehimpuls, Orientierung der Drehachse usw.
     
    Der Eigenwert, den ein Operator durch seine Anwendung auf ψ erzeugt, hängt von seiner Form und der von ψ ab.
     
    Jeder Zustand des Systems hat seine eigene Wellenfunktion: eine ganz bestimmte  W e l l e n f o r m  also.
     
     
      Wichtiges Beispiel: Die Schrödingergleichung für ein Elektron, das sich im Kraftfeld eines Atomkerns aufhält:
       
      Sie ist eine Differentialgleichung, deren Lösungen den möglichen Zuständen des Elektrons entsprechen. Diese Lösungen bilden eine Schar von Wellenformen ψn,l,m ( R ), wo

         
      • Vektor R für jede denkbare Richtung im 3-dimensionalen Raum stehen kann,
         
      • Quantenzahl n eine beliebige positive ganze Zahl ist (Energie des Elektrons),
         
      • Quantenzahl l eine ganze Zahl mit n ≤ l ≤ n-1 (Bahnmoment des Elektrons) und
         
      • Quantenzahl m eine ganze Zahl mit -l ≤ m ≤ l (Komponente des Bahnelements in einer gegebenen Richtung).

       
      Jede erlaubte Kombination ( n, l, m ) definiert eine dem Elektron mögliche Wellenform (d.h. einen ihm möglichen Zustand): eine stehende Welle, die sich mit abnehmender Intensität um den Atomkern herum beliebig weit in den Raum hinaus erstreckt.
       
      Jeder Zustandsübergang ersetzt schlagartig die eben noch vorgelegene Wellenform durch eine andere — und das überall im Universum, denn jede der Wellenformen erstreckt sich, wie schwach auch immer, beliebig weit in den Raum hinaus.
       
      Um zu betonen, dass Quantenzahl m sich auf die Orientierung des Bahnelements bezieht, schreibt man dafür oft genauer ml (um es so von der Komponente ms des Spinelements in der gleichen Richtung zu unterscheiden).
       
      Da die Schrödingergleichung sich nur auf die Bewegung des Schwerpunkts des Elektrons im Kraftfeld des Atomkern bezieht, kennen ihre Lösungen auch nur drei der vier Quantenzahlen n, l, ml und ms, die zur vollständigen Beschreibung des quantenmechanischen Zustandes benötigt werden.

     
     
    Ein wichtiges Prinzip der Quantenmechanik besagt, dass gleichartige Elementarteilchen im selben quantenmechanischen Zustand ununterscheidbar sind — sich aber dennoch unterschiedlich verhalten insofern, als nicht vorhersagbar ist, wann sie aus einem angeregten Zustand wieder zurück in den Grundzustand ψ1,0,0 fallen:
      Gewöhnlich geschieht das (z.B. bei Wasserstoffatomen) schon nach wenigen Femtosekunden (10-15 sec), es kann aber auch erst sehr viel später — vielleicht nach einer millionenfach längeren Zeit — der Fall sein. Möglicherweise springen sie auch gar nicht direkt in den Grundzustand, sondern nach Belieben erst einmal in andere Zustände jeweils niegrigeren Energieniveaus.

     
    Auf die Frage, was nach Art und Zustand ununterscheidbare Wellenformen veranlasst, sich verschieden zu verhalten, sagt die Quantenmechanik: Es gibt keine Ursache hierfür.
     
    Genauer müsste man sagen: Quantensprünge haben keine raumzeitliche Ursache. Ob es Wirkursachen gibt, die außerhalb der Raumzeit liegen, wissen wir nicht.
    Auf jeden Fall kann freier Wille nur existieren, wenn selbst die Wirklichkeit NICHT streng deterministisch funktioniert.
     
     
     
    Quelle: Lothar Schäfer: Versteckte Wirklichkeit, Hirzel 2004, S. 243-246


     

     Beitrag 0-170
    Wie sich Wellenfunktionen von Quantenfeldern unterscheiden

     
     

     
    Wellenfunktion vs Quantenfeld

     
     
    Die Wellenfunktion ψ eines Quantensystems zeigt uns zeit- und ortsabhängige Wirkwahrscheinlichkeit (ein Quantensystem zeigt Wirkung, d.h. wird beobachtbar, wo es mit einem anderen Quantensystem, z.B. einer Messapparatur, in Interaktion tritt).
     
    Ein Quantenfeld nennt Wahrscheinlichkeiten dafür, dass es (als Feld) in der einen oder anderen Konfiguration vorliegt.
      Berechnet werden diese Wahrscheinlichkeiten durch Aufsummieren möglicher Quantenereignisse (deren jedes dann durch ein Feynman-Diagramm dargestellt wird).
       
      Problem dabei ist, dass die entsprechende Summe — als Summe mit unendlich vielen Summanden — nicht notwendig konvergiert. Man nutzt Renormierungsverfahren, dieses Problem in den Griff zu bekommen.

     
    Situationen, in denen man Quantenfelder betrachtet, sind:
      (1)  Man hat sehr hohe Energien, so dass die Zahl der Teilchen nicht eindeutig ist und sich ändern darf (z.B. Streuprozesse am CERN).
       
      (2)  Man hat sehr viele Teilchen, deren Zahl sich auch ständig ändern kann (z.B. Elektronen oder Schwingungszustände in Kristallen).

     
    Quelle ...

     

     Beitrag 0-208
    Im Gleichschritt schwingende Quanten

     
     

     
    Quantenkohärenz (Bose-Einstein-Kondensation)



    Roger Penrose (1994):
     
    Der Begriff Quantenkohärenz (Synonym: Bose-Einstein-Kondensation) bezieht sich auf Situationen, in denen sehr viele Teilchen kollektiv so zusammenwirken, dass sie insgesamt einen einzigen Quantenzustand bilden, der i.W. nicht mit dem seiner Umwelt korreliert ist.
     
    Note: Physiker sprechen von Kohärenz wo sich Schwingungen zeigen, die an verschiedenem Ort in Phase sind und deswegen gleichsam "im Takt" schwingen.
     
    Bei Quantenkohärenz geht es um die Schwingungseigenschaften der Wellenfunktion, und Kohärenz bezieht sich auf die Tatsache, dass wir es mit einem einzigen Schwingungszustand zu tun haben.
     
    Solch kohärente Quantenzustände können verursachen
       
    • Supraleitung (der elektrische Widerstand wird zu Null) oder
       
    • Suprafluidität (die innere Reibung oder Viskosität der Flüssigkeit verschwindet).

    Ein charakteristisches Merkmal jeder solchen Situation ist eine Energielücke, die von der Umwelt überbrückt werden muss, diesen Quantenzustand zu stören.
     
    Wenn die Temperatur der Umwelt zu hoch wird, so dass die Energie vieler dort vorhandener Teilchen ausreicht, die Energielücke zu überspringen und sich mit dem Quantenzustand zu verschränken, geht die Quantenkohärenz verloren.
     
    Supraleitung und Suprafluidität treten deswegen meist nur bei sehr niedriger Temperatur auf (nur wenige Grad über dem absoluten Nullpunkt). Dennoch hat man inzwischen auch Stoffe entdeckt, die bei sehr viel höherer Temperatur supraleitend sein können: bis hinauf zu 115 K, ja sogar bis zu Kältegraden, die sogar der Mensch gerade noch aushalten könnte (-12 Grad unter Null).
     
    Man spricht hier von Hochtemperatur-Supraleitung, und die könnte sogar in biologischen Lebewesen eine Rolle spielen:
     
    Der Physiker Herbert Fröhlich (der zwischen 1930 und 1940 bahnbrechend zum Verständnis der Niedrigtemperatur-Supraleitung beitrug), hatte schon lange vor der erst 50 Jahre später erfolgten Entdeckung der Hochtemperatur-Supraleitung vermutet, dass in biologischen Systemen kollektive Quanteneffekte eine Rolle spielen könnten. Diese Vermutung stützt sich auf ein schon 1938 in biologischen Membranen beobachtetes Phänomen.
     
    Lars Onsager, unabhängig davon auch Oliver Penrose, sagen voraus, dass Quantenkohärenz in aktiven Zellen zu Schwingungen führen sollten, die Resonanz mit eletromagnetischer Mikrowellenstrahlung von 1011 Hz zeigen sollten.
     



     

     Beitrag 0-210
    Quantenphysikalischer Zufall unterliegt Restriktionen

     
     

     
    Quantenphysikalischer Zufall

     
     
    Wie die Mathematik der Quantentheorie sowie ihre experimentelle Bestätigung zeigen,
       
    • sind die  M ö g l i c h k e i t e n  eines Systems vollkommen festgelegt,
       
    • es bleibt aber offen, welche dieser Möglichkeiten dann tatsächlich zu  F a k t e n  werden:

    Fakten ergeben sich, wenn Quantenereignisse eintreten.
     
    Die sich so ergebenden Auswahl der eintretenden Fakten ist objektiv zufällig, denn die Annahme, welche der Möglichkeiten Fakt wird, sei vorweg schon bestimmt, konnte experimentell widerlegt werden.
     
     
    Da jene Fakten sich stets nur im Rahmen naturgesetzlich festgelegter Möglichkeiten realisieren können,
     
    unterscheidet sich der quantenphysikalische Zufall von rein strukturloser Willkür.


     

     Beitrag 0-229
    Das No-Cloning-Theorem der Quantenphysik

     
     

     
    Das No-Cloning-Theorem der Quantenphysik

     
     
    stellt fest, dass sich  k e i n  Quantensystem — wie klein und einfach es auch immer sein mag — seinem  k o m p l e t t e n  Zustand nach vervielfältigen lässt:
     
    Ein Quantenzustand kann immer nur vervielfältigt werden bezüglich seiner Antworten auf eine  e i n z e l n  vorgegebene Messfrage.

     
     
    Konsequenz daraus:
     
    Ein aus Energie bestehendes physikalisches Objekt ist stets nur kopierbar hinsichtlich seines klassischen Zustandes — niemals aber einschließlich seiner Wellenfunktion (d.h. einschließlich der Möglichkeiten, die es hat, sich fortzuentwickeln).
     
    Sein klassischer Zustand ist gegeben durch die Fakten, die der zuletzt stattgefunde "Kollaps" seiner Wellenfunktion geschaffen hat.

     

     Beitrag 0-234
    Kein Quantensystem kann als wohldefinierte Summe kleinster Teile gesehen werden

     
     

     
    Warum sich kein Quantensystem

    als Summe wohldefinierter Teile verstehen lässt

     
     
    Immer wieder weisen Naturphilosophen darauf hin, dass die Methodik, ein System dadurch verstehen zu wollen, dass man es als Summe seiner Teile sieht, nur in der klassischen Physik, auf keinen Fall aber in der Quantenphysik zum Ziel führt.
     
    Warum aber ist das so?
     
    Zweifel an dieser Aussage könnte bekommen, wer sich vor Augen führt, dass jedes Quantensystem Summe von Feldanregungen ist, d.h. Wellenpaket, und Fourier-Transformation jedes Wellenpaket in eindeutig definierte kleinste Feldanregungen zu zerlegen gestattet.
     
    Andererseits muss berücksichtigt werden:
       
    • Jede Feldanregung beginnt an einer beliebigen Stelle der Raumzeit und breitet sich von ihr als Kugelwelle mit maximal Lichtgeschwindigkeit aus.
       
    • Wo diese Kugelwelle auf ein Hindernis trifft, wird sie entweder um dieses Hindernis herum gebeugt (verformt)
       
    • oder die beiden aufeinander treffenden Feldanregungen hören auf zu existieren und werden durch neue ersetzt.
       
    • Noch wesentlicher aber ist die Tatsache, dass Ereignisse, die Feldanregungen zerstören und hierfür neue schaffen — oder als Quantenfluktuation Quelle neuer Feldanregungen sind — in der Raumzeit dicht liegen und dies bedeutet, dass in jeder noch so kleinen Umgebung eines raumzeitlichen Punktes unendlich viele Quellen neuer Feldanregungen liegen.

    Mit anderen Worten: Ein Quantensystem kann nur deswegen nicht als Summe seiner Teile verstanden werden, weil die Menge dieser Teile an keiner Stelle der Raumzeit wohldefiniert ist: Anders als die kleinsten Bestandteile einer Fourierentwicklung ändern sich seine kleinsten Bestandteile ständig.
     
    Kurz gesagt:
     
    Der quantenmechanischen Unbestimmtheit wegen lässt sich kein Quantensystem zu irgendeiner Zeit
     
    als wohldefinierte Summe kleinster Teile sehen.


     

     Beitrag 0-237
    Quantisierung erster und zweiter Art bedeutet ...

     
     

     
    Was man » Quantisierung « nennt



    Thomas Görnitz (2002):
     
    Man versteht darunter den Übergang von einer Beschreibung durch den ständigen Kollaps der Wellenfunktion geschaffener Fakten — der sog. klassischen Beschreibung materieller Objekte — hin zu einer Beschreibung der Fülle aller Möglichkeiten, welche die Wellenfunktion eines Quantensystems uns nennt. Mit anderen Worten:
       
    • Mit der Quantisierung (1. Art) ist der Austausch der klassischen Beschreibung eines Objekts durch seine quantenphysikalische gemeint.
       
       
    • Wo Physiker von der zweiten Quantifizierung sprechen, meinen sie damit den Übergang hin zur feldtheoretischen Formulierung.
       
      Sie berücksichtigt, dass von Teilchen einer bestimmten Art eben nicht nur eines, sondern sehr viele existieren. Ihre wellentheoretische Summe nennt man das Quantenfeld der entsprechenden Art.
       
      So ist z.B. das elektromagnetische Feld nichts anderes als die Summe aller Lichtwellen im Universum.
       
      Sein Zustandsraum ist das Tensorprodukt der Zustandsräume sämtlicher Photonen (ein sog. Fock-Raum, wie man auch sagt). Er hat unendlich viele Dimensionen, denn es entstehen ja ständig neue Photonen.

     



     

     Beitrag 0-542
    Das Doppelspalt-Experiment interpretiert im Lichte der Feldthorie

     
     

     
    Zum Doppelspalt-Experiment:

    Wie sogar Materieteilchen — ein Elektron etwa — durch beide Spalten fließen

    und dahinter Interferenz mit sich selbst zeigen

     
     
    Von Quantenverschränkung mal abgesehen, ist das sog. Doppelspalt-Experiment Grundlage all unseres Wissens über die wahre Natur von Quanten:
     
    Insbesondere ist das Doppelspalt-Experiment (in all seinen Varianten) Beweis für die Tatsache: "There are no Particles — there are only Fields".
     
     
    Als ganz besonders informativ empfinde ist die beiden folgenden Aspekte des Experiments:
       
    • Den sog. "Quantenradierer" einerseits und
       
    • die im Video » How Big is a Photon « uns klar gemachte Tatsache, dass durch die Doppelspalt stets die Summe aller QuBits im Feld kommt (statt nur die eine von uns gerade erzeugte zusätzliche Welle, so dominant sie zunächst auch sein mag).

     
     
    Insgesamt zeigt sich im Lichte der Feldtheorie:
       
    • Jedes Quant — sei es Boson (z.B. ein Photon) oder Fermion (z.B. ein Elektron oder ein aus 60 Atomen bestehendes Fulleren-Molekül) — ist Anregung des Potentialfeldes der physikalischen Grundkräfte.
       
    • Die orts- und zeitabhängige Amplitude des Feld ist Summe solcher Feldanregungen.
       
    • Wo also vor dem Doppelspalt ein hin zu ihm gesandtes Quant entsteht, addiert es sich zum Feld und darf ab da nicht mehr einzeln betrachtet werden (selbst dann nicht, wenn sie das derzeit dominanteste Wellenpaket darstellt, denn:
       
      Genau genommen ist das, was durch den Doppelspalt kommt, nicht einfach nur das durch die Apparatur vor dem Doppelspalt erzeugte Photon oder Elektron, sondern stets die Summe aller Wellen des Feldes.
       
    • Jeder Teil dieser Schwingung des Feldes, der durch eine der Spalten kommt, wird dahinter polarisiert sein in der durch den Spalt bestimmten Richtung, so dass — wenn beide Spalten parallel zu einander sind — die beiden durch die Spalten kommenden Teilwellen der Gesamtanregung des Feldes in gleicher Ebene polarisiert sind und daher interferieren.
       
      |
       
    • Wenn nun jemand denkt, sich Pfadinformation besorgen zu müssen mit dem Ziel, zu erkennen, durch welche der beiden Spalten das Photon oder Elektron in seiner Rolle als sog. "Teilchen" kam, muss er hinter die Spalten Polarisationsfilter setzen mit dem Ziel, an der Polarisierung der auf dem Schirm hinterm Doppelspalt kommenden Schwingung erkennen zu können, durch welchen der beiden Spalten sie kam.
       
      Sobald nun aber die beiden durch die Splaten kommenden Teilschwingungen senkrecht zu einander polarisiert sind, werden sie genau deswegen nicht mehr interferieren können — einfach deswegen, da senkrecht auf einander stehende Amplituden sich als Vektoren ja ganz grundsätzlich nicht zu Null addieren können.
       
      Das also ist der Grund, warum Interferenz verschwindet, sobald man versucht, Pfadinformation zu bekommen.
       
      |
       
    • Unter dem sog. Quantenradierer-Experiment versteht man das Doppelspalt-Experiment so aufgebaut, dass hinter den Spalten Polarisationsfilter mit senkrecht zu einander stehenden Polarisationsebenen aufgebaut sind, weiter hinten — direkt vor dem Schirm — dann aber ein dritter Polarisationsfilter steht, der alles durch die Spalten Gekommene dann wieder gleich polarisiert.
       
      Ergebnis: Ein Schirm hinter den Doppelspalt wird,
         
      • wenn er noch vor den dritten Polarisationsfilter eingefügt wird, keine Interferenz zeigen,
         
      • wenn hinter ihn gesetzt wird, aber doch Interferenz zeigen.
         
        Wenig kompetente Sachbuchautoren schreiben das der dort hinten wieder fehlenden "Pfadinformation" zu, tatsächlicher Grund aber ist die hinter dem dritten Filter nun wieder einheitliche Polarisierung der beiden durch den Doppelspalt gekommenen Teilschwingungen.

       
    • Was die bis etwa 1960 erarbeitete Quantenmechanik ein "Teilchen" nannte, ist — wie Quantenfeldtheorie nun zeigt — nichts weiter als die durch eine Feldanregung dargestellte Portion von Energie. Sie ist genau dann unteilbar, d.h. genau dann nur ganz oder gar nicht auf andere Teilchen übertragbar, wenn sie harmonische — und somit auch durch Fourier-Transformation nicht mehr zerlegbare — Welle ist.

     
    Note: Wenn man sagt, die Apparatur vor dem Doppelspalt erzeuge genau ein Photon, so ist das natürlich nur fast richtig. Tatsächlich wird die Feldanregung, die hier erzeugt wurde, sich als Fourier-Reihe darstellen, deren dominanter Term nahezu schon die gesamte Energie der Welle repräsentiert. Der Rest wird Summe nur noch virtueller — d.h. einzeln gar nicht mehr beobachtbarer — Photonen sein, die nach Heisenbergs Unbestimmtheitsrelation so eine Art sich ständig selbst modifizierender Wolke um das eigentliche Photon herum darstellen.
     
    Man könnte das jetzt bestätigt sehen durch die Tatsache, dass die Energie eines einzeln zum Doppelspalt gesandten Photons selten ebenso groß ist wie die an den Schirm hinterm Doppelspalt abgegebene.
     
    Aber natürlich lässt sich diese Beobachtung auch dadurch erklären, dass durch den Doppelspalt stets die Gesamtschwingung des Feldes fließt (statt nur die vor dem Doppelspalt erzeugte zusätzliche Feldanregung, die wir » das im Experiment zum Doppelspalt geschickte Quant « nennen).

     

     Beitrag 0-536
    SUSY, Supergravitation und Stringtheorie — Wie sie sich zur Superstringtheorie ergänzen

     
     

     
    SUSY,  SUGRA  und Stringtheorie

     
     
    Ein theoretischer Physiker, hat mir den Zusammenhang zwischen
       
    • Supersymmetrie (SUSY),
       
    • den 5 Varianten heute bekannter Stringtheorie
       
    • und der 11-dimensionalen Supergravitationstheorie (SUGRA)

    nahezu wörtlich folgendermaßen erklärt:


    Gesprächsnotiz (2021):
     
    Der SUSY liegt die Vorstellung zugrunde, dass Fermionen (F) und Bosonen (B) zwei unterschiedliche Zustände eines einzigen Superteilchens sind.
     
    Dies ist ganz analog zu verstehen zur Isospin-Symmetrie in der Kernphysik, wonach man sich das Proton und das Neutron als zwei unterschiedliche Zustände des Nukleons vorzustellen hat. Sie unterscheiden sich nur durch die 3-Komponente I3 des Isospins I, der mathematisch eine drehimpuls-artige Größe ist. Dem Proton ordnet man die Isospinkomponente I3 = 1/2 und dem Neutron I3 = -1/2 zu. Der zugrundeliegende Raum ist dann der Isospinraum.
     
    Im sogenannten Superraum, dem Zustandsraum der SUSY, liegen Fermionen und Bosonen, als unterschiedliche Realisierungen eines Superteilchens, nebeneinander. Nebeneinander heißt, dass wenn man ein Fermion mit Spin J hat, man immer auch einen Superpartner mit Spin J + 1/2 oder J - 1/2 finden kann.
     
    Mittels einer SUSY-Transformation im Superraum kann ein gegebenes Fermion F mit Spin J in ein benachbartes Boson B mit Spin J -1/2 oder J +1/2 überführt werden. Dadurch sind Fermionen und Bosonen ineinander transformierbar und hinsichtlich dieser Eigenschaft symmetrisch, 'supersymmetrisch', wie man sagt.
     
    Führt man die SUSY-Transformation nochmals durch, erhält man das ursprüngliche Fermion zurück, allerdings hat sich dieses nun in der 4-dimensionalen Raumzeit verschoben. Eine Verschiebung eines Punktes in der Raumzeit wird aber durch die Translationsgruppe der Poincare-Gruppe beschrieben. Die SUSY hat deswegen zur Folge, dass man von globalen zu lokalen Eichtransformationen übergehen kann, was aber die Einführung von Eichfeldern notwendig macht.
     
    Da die lokale Poincare-Invarianz eine notwendige Eigenschaft der ART ist, besteht ein Zusammenhang zwischen der ART und SUSY.
     
    Das Graviton mit Spin J = 2 kann im Rahmen der lokalen SUSY sinnvoll eingeführt werden, wenn sein SUSY-Partnerteilchen ein Fermion mit Spin J = 3/2 ist, Diese Partnerteilchen bezeichnet man als Rarita-Schwinger-Feld (RSF): Es versteht sich als Eichfeld zum Graviton. Die Feldgleichung des RFS ist die Rarita-Schwinger-Gleichung. Man kann nun verschiedene Fälle der SUSY untersuchen, indem man die Anzahl N der Generatoren der Superalgebra variiert. N = 1 heisst dann einfache Supergravitation (SUGRA), und N > 1 erweiterte SUGRA.
     
    Man kann zeigen, dass die SUGRA in der 4-dimensionalen Raumzeit nur für maximal N = 8 möglich ist. Die Zahl N der Generatoren der SUSY-Algebra spielt eine wichtige Rolle in der Klassifikation der unterschiedlichen Varianten der Superstringtheorien.
     
     
    Übergang zu 11-dimensionaler Raumzeit:
     
    Die bisher beschriebene SUGRA ist auf einer 4-dimensionalen Raumzeit definiert. Die SUGRA ermöglicht die Einbeziehung von Fermionen in die ART. Edward Witten konnte zeigen, dass zur Einbeziehung der elektromagnetischen, schwachen und starken Wechselwirkung man die ursprüngliche Kaluza-Klein-Theorie um 7 Dimensionen erweitern muss. und dass es unterhalb 11 Raumzeit-Dimensionen unterschiedliche Versionen der SUGRA gibt. SUGRA wird erst dann eindeutig, wenn die Dimension der Raumzeit genau 11 ist.
     
    Dass sich in Raumzeiten mit mehr als 11 Dimensionen keine konsistente SUSY-Theorie mehr formulieren läst, wurde 1977 erkannt durch W. Nahm in: Supersymmetries and their representations, Nuclear Physics B135 (1978).
     
    Der Anschluss der SUGRA an die Stringtheorie erfolgte, als erkannt wurde, dass auch die 11-dimensionale SUGRA störungstheoretisch nicht zu renormieren ist. Die Stringtheorie wurde aber ja gerade deswegen entwickelt, weil sie die Unendlichkeiten vermeidet, die bei Wechselwirkungen auftreten.
     
    Aus diesem Grund sind die Superstringtheorien Typ I, Typ IIA und Typ IIB supersymmetrisch. Ebenfalls supersymmetrisch sind die beiden heterotischen Stringtheorien E8xE8 und SO(32) .
     
     
    Interessant auch: Strings der Theorie vom Typ I sind offene Strings. Alle anderen Varianten der Stringtheorie haben in sich geschlossene Strings zum Gegenstand.
     



     

      Beitrag 1911-4
    Überlagerungszustand

     
     
    Bernhard Kletzenbauer aus 1911-3:
     
    Ab und zu hörte, oder las, ich vom "echten" Zufall innerhalb der Quantenwelt. Was hat es damit auf sich?

    Das ist so, Bernhard:

    In der quantenmechanischen Charakterisierung eines physikalischen Systems ist der momentane Zustand des Systems ein mathematisches Objekt, welches uns
    • für jede am System mögliche (fehlerfreie) Messung und
    • für jedes dabei mögliche Messergebniss
    die Wahrscheinlichkeit liefert, mit der eben dieses Messergebnis erhalten wird. Man nennt diesen Zustand deswegen einen Überlagerungszustand.

    Wird nun so eine Messung tatsächlich vorgenommen, so wird man genau eines dieser möglichen Messergebnisse beobachten — welches aber, kann man nicht vorhersagen: Die Quantenmechanik geht davon aus, dass die Natur es absolut zufällig auswählt.

    Gruß, grtgrt
     

      Beitrag 1911-9
    Über den Zufall im Sinne der Quantenphysik (1)

     
    Harti aus 1911-7:
    ...schon die Tatsache, dass die Quantenmechanik Wahrscheinlichkeitsvoraussagen machen kann, widerspricht der Annahme eines absoluten Zufalls hinsichtlich der Ursachen für ein Ereignis. Bei Annahme absoluten Zufalls könnte sie nämlich überhaupt keine Voraussagen machen.

    Hallo Harti,

    es ist genau umgekehrt, als du es hier formulierst. Es ist so:
    Weil bei Quanten-Ereignissen der absolute Zufall vorliegt, deshalb kann die Quantenmechanik nur Wahrscheinlichkeitsvoraussagen machen.

    Harti aus 1911-7:
    Falls man eine Wahrscheinlichkeitsaussage treffen kann, kennt man die Ursachen für ein Ereignis eben nur ungenau.

    Du unterstellst dabei stillschweigend, dass für jedes Auftreten eines einzelnen Quantenereignisses immer auch eine Ursache existiert. Dem ist nicht so. Denn wenn dem so wäre, könnte man mit immer präziseren Messmethoden diese Ursachen zutage treten lassen. Das haben bereits viele Physiker versucht, sind aber in den letzten 100 Jahren immer gescheitert. Die Grundannahmen der Quantenmechanik wurden bei allen Experimenten bis heute stets glänzend bestätigt.

    Bitte lese noch mal den Beitrag 1911-4 von ggreiter, darin wird die Sache bereits zutreffend geschildert. Nur eine kleine Einschränkung möchte ich dazu machen: Die Natur wählt nicht aus, sondern das quantale Geschehen findet ganz einfach statt und zwar absolut zufällig. Aber das ist vermutlich nur Sprach-Kosmetik.

    M.f.G. Eugen Bauhof
     

      Beitrag 1911-10
    Über den Zufall im Sinne der Quantenphysik (2)

     
    Bauhof aus 1911-9:
    Harti aus 1911-7:
    Falls man eine Wahrscheinlichkeitsaussage treffen kann, kennt man die Ursachen für ein Ereignis eben nur ungenau.

    Du unterstellst dabei stillschweigend, dass für jedes Auftreten eines einzelnen Quantenereignisses immer auch eine Ursache existiert.

    Hallo Eugen Bauhof,

    das will ich eigentlich nicht unterstellen. Ich bin lediglich der Überzeugung, dass wir nicht mit absoluter Sicherheit wissen können, ob es für ein Ereignis eine oder keine Ursache gibt.
    Sowohl die positive Aussage "es gibt immer eine Ursache für ein Ereignis" wie die negative Aussage "ein Ereignis hat absolut keine Ursache" sind uns aufgrund eingeschränkter Erkenntnisfähigkeit verwehrt. Die Planck- Größen sprechen m.E. dafür, dass wir absoluten Zufall weder bejahen noch ausschließen können.

    Zitat:
    Die Natur wählt nicht aus, sondern das quantale Geschehen findet ganz einfach statt und zwar absolut zufällig. Aber das ist vermutlich nur Sprach-Kosmetik.

    Die Frage ist, ob mit dem Begriff "absolut zufällig" eine Aussage gemacht werden soll, die jeder wissenschaftlichen Überprüfung entzogen ist. Wenn dem so ist, handelt es sich um eine Glaubensfrage und die Wissenschaft wird zur Religion.

    MfG
    Harti
     

      Beitrag 1911-12
    Über den Zufall im Sinne der Quantenphysik (3) - was Zeilinger sagt

     
    Harti aus 1911-10:
    ... Sowohl die positive Aussage "es gibt immer eine Ursache für ein Ereignis" wie die negative Aussage "ein Ereignis hat absolut keine Ursache" sind uns aufgrund eingeschränkter Erkenntnisfähigkeit verwehrt. Die Planck- Größen sprechen m.E. dafür, dass wir absoluten Zufall weder bejahen noch ausschließen können.

    Hallo Harti,

    ich bezeichne den absoluten Zufall lieber als objektiven Zufall. Ich kenne deine Lernresidenz ja schon seit langer Zeit, aber ich gebe die Hoffnung noch nicht auf. Wenn du schon von mir und von ggreiter nichts annehmen willst, dann vielleicht von einem anerkannten Experten. Anton Zeilinger schreibt auf Seite 46 seines Buches [1 folgendes:

    Zitat:
    Diesen Überlegungen zufolge tritt der Zufall in der Quantenphysik nicht etwa deshalb auf, weil wir zu dumm sind, um die Ursache für das Einzelereignis zu kennen, sondern weil es einfach keine Ursache für das Einzelereignis gibt, weil das Teilchen einfach keine Information tragen kann, wo es auf dem Interferenzschirm auftreffen soll.

    Der Zufall in der Quantenphysik ist also nicht ein subjektiver, er besteht nicht deshalb, weil wir zuwenig wissen, sondern er ist objektiv. Ganz im Sinne Heisenbergs ist es nicht unser Unwissen, von dem wir hier also sprechen, sondern die Natur selbst ist in solchen Situationen in keiner Weise festgelegt, ehe das einzelne Ereignis auftritt.

    Mit freundlichen Grüßen
    Eugen Bauhof

    [1 Zeilinger, Anton
    Einsteins Schleier. Die neue Welt der Quantenphysik.
    München 2003. ISBN=3-406-50281-4
     

      Beitrag 1911-14
    Über den Zufall im Sinne der Quantenphysik (4) - im Vergleich zum online Konto

     
    Laevicula aus 1911-13:
    Das ist aber doch ein Unterschied. Beim Bankkonto könnte man das theoretisch vorher wissen; da weiß man, dass der Kontostand eine Ursache hat.
    Könnte!
    Das heißt theoretisch könnte man - aber praktisch kann man nicht.

    Wenn irgendeine Fehlbuchung zu meinen Gunsten oder zu meinem Nachteil vorgenommen wird, kann ich das nicht wissen, bevor es auf dem Kontoauszug erscheint. Ich kann erst nach dem Lesen des Ausdrucks der Sache nachgehen und vielleicht feststellen, daß ich es hätte wissen können, wenn ich den Brief der Lotteriegesellschaft nicht ungeöffnet weggeworfen hätte.
    Meiner Meinung nach gilt in der Quantenwelt und auf dem Konto, daß ich erst dann etwas darüber erfahre, wenn ich nachsehe.
    Das heißt aber nicht, daß in der Quantenwelt und auf dem Konto absoluter Stillstand herrscht, wenn ich nicht nachsehe -
    und daß sich erst in dem Moment wenn ich nachsehe *hokuspokus* "zufällig" irgendetwas ohne Ursache ereignet.
    In diesem Forum ereignen sich auch dann neue Einträge, wenn ich nicht online bin. Es ist nicht so, daß es innerhalb von 24 Stunden eine bestimmte Anzahl "n" Möglichkeiten gibt, von denen *schwuppdiwupp* "zufällig" erst dann eine Realität wird, sobald ich online gehe.
    Von all den Möglichkeiten, die bestehen, wird diejenige Realität, die sich aus dem vorherigen Zustand und den wirksamen Naturgesetzen (-Kräften) entwickelt. Eine vom Tisch fallende, gefüllte Tasse kann unter bestimmten Umständen unzerbrochen am Boden ankommen, ohne daß etwas vom Inhalt verschüttet wird. Wenn diese Umstände aber nicht gegeben sind, wird die Tasse am Boden zerbrechen und der Inhalt wird verschüttet.
    Der Haken bei der Quantenwelt ist aber, daß jedes Nachschauen die Vorgänge selbst verändert.

    Gruß
    Bernhard Kletzenbauer
     

      Beitrag 1911-16
    Über den Zufall im Sinne der Quantenphysik (5) - Zufall kann weder subjektiv noch objektiv sein

     
     
    Liebe Mitdenker,

    es macht mich immer wieder traurig, beobachten zu müssen, wie wenig das Volk der Dichter und Denker heute darüber nachdenkt, welches Wort in welcher Situation am besten passt:
    • Das Attribut subjektiv signalisiert dem Leser, dass es um eine subjektspezifische Sicht geht. Wenn also irgendwo von subjektivem Zufall die Rede ist, so macht das nur dann Sinn, wenn klar ist, von genau welchem Subjekt man denn jetzt eigentlich spricht.
    • Da das Attribut objektiv ein Synonym für vorurteilslos ist, ergibt der Ausdruck objektiver Zufall in meinem Augen keinerlei Sinn (auch wer objektiv denkt und vorurteilslos beobachtet, hat noch lange nicht entschieden, ob das, was da Gegenstand seiner Beobachtung ist, nun scheinbarer, physikalischer oder absoluter Zufall ist).
    • Andererseits ist ein absolut zufälliges Geschehen, doch sicher eines, das wirklich keinerlei Ursache hat.
    Mit besten Grüßen,
    grtgrt
     

      Beitrag 1915-116
    Quantensysteme und die Born-Oppenheimer-Näherung

     
     
    E... aus 1915-114:
     
    Noch ist kein natürlich entstandenes Quantensystem beobachtet worden.

    Doch E..., es gibt jede Menge solcher Systeme,

    denn wirklich JEDES Molekül ist ein Quantensystem, dessen Teile einzeln zu betrachten nicht immer Sinn macht (jeder Chemiker wird dir das bestätigen).

    Wo man — weil eine Gesamtbetrachtung allzu schwierig und allzu teuer werden würde — das Molekül dennoch nur als Summe seiner Teile sieht, nutzt man meist die sog. Born-Oppenheimer-Näherung. Sie führt zu ganz passablen Ergebnissen für Moleküle im Grundzustand, insbesondere bei denen mit schweren Kernen. Für angeregte Moleküle und geladene Ionen allerdings führt sie zu sehr schlechten, oft kaum brauchbaren Ergebnissen, was man besonders für Anwendungen im Bereich der Photoelektronenspektroskopie zu beachten hat.

    Mit anderen Worten: Die Photoelektronenspektroskopie beweist, dass ein Molekül eben doch  n i c h t  nur die Summe seiner Teile ist, sondern in der Tat ein wirkliches Quanten-SYSTEM.


    Zitat von E... :
     
    Ebenso ist bei allen Experimenten an und mit Quantensystemen nie beobachtet (oder gemessen) worden das die Präperate wieder in den Kohärenzzustand zurückfallen.

    Als Ganzes tun sie das tatsächlich nicht, da ja ständig irgend ein Quantenobjekt, welches Teil des Systems ist — z.B. eines Moleküls — mit Quanten, die das System durchqueren wollen, kollidiert. Denk an die kosmische Hintergrundstrahlung!


    Gruß, grtgrt
     

      Beitrag 1915-117
    -

     
     
    Wrentzsch aus 1915-115:
     
    Also alles, was wir nicht messen, ist keine Tatsache!

    Das ist falsch. Richtig wäre, zu sagen:

    Was NIEMALS mit seiner Umgebung interagiert, ist keine Tatsache (kann also nur als Möglichkeit existieren).

    grtgrt
     

      Beitrag 1915-120
    Was Quantensysteme charakterisiert

     
     
    Gregor Lämmer aus 1915-118:
     
    Grtgrt aus 1915-1:
     
    Meine These 1:
    • Das Universum ist ein Quantensystem definiert durch seine Wellenfunktion.
    Meine These 2:
    • Es kann mir niemand beweisen, dass diese Sicht falsch ist.
     
    Kannst Du beweisen, dass sie richtig ist?

    Hi Gregor,

    ob der Beweis möglich ist, hängt vor allem davon ab, wie du den Begriff "Quantensystem" definiert siehst.
    Vorschlag also: Nenne mir deine Definition, so werde ich dann versuchen, den Beweis zu finden.

    Nebenbei: Solange meine These nicht als falsch nachweisbar ist, kann sie nicht schlechter sein als irgend eine andere, deren Richtigkeit man auch nicht beweisen (sondern höchstens vermuten) kann.

    Ich selbst verstehe unter einem "Quantensystem"


    eine Gruppierung von Quanten,
    die dicht genug ist, dass die Wahrscheinlichkeiten, mit denen sich mindestens eines jener Teilchen an einem bestimmten Punkt befindet,
    durch seine eigene Wellenfunktion nicht mehr genau genug beschrieben sind.



    Gruß, grtgrt
     

      Beitrag 1915-124
    -

     
     
    E... aus 1915-121:
     
    Grtgrt vertritt die Auffassung, quantenphysikalische Eigenschaften der Materie würden sich permanent und ungeachtet der bestehenden Wechselwirkungen mit der Umgebung realisieren. Überall und jeder Zeit.

    Da geht es nicht um Wechselwirkungen zwischen einem Präparat und dem Messinstrument oder der Laboreinrichtung.
     

    An alle,

    was E... mir hier — in Form der Aussagen, die ich im Zitat rot zeige, unterstellt, ist UNSINN und etwas, das ich NIE behauptet habe. Ganz im Gegenteil:

    Wer meine Ausführungen oben (z.B. in 1915-109) gelesen hat, wird erkennen, dass das, was ich dort als Zusammenstoß von Quantenobjekten bezeichne, eben jene Wechselwirkung ist.


    Ich weise explizit darauf hin, dass ich die beiden folgenden Aussagen für absolut zutreffend halte:
    • Der einfache Grundgedanke der Dekohärenz, daß ein System nicht isoliert von seiner natürlichen Umgebung betrachtet werden darf, hat sich als überraschend fruchtbar erwiesen.
    • Alle Systeme werden mit einer ständig wachsenden Umgebung verschränkt und können somit normalerweise keine reinen Quantenzustände für sich selber besitzen. Quantenzustände sind grundsätzlich nicht einfach nur lokale Zustände.

    grtgrt
     

      Beitrag 1999-8
    Was Quantensysteme von klassischen Systemen unterscheidet

     
     

    Was Quantensysteme von sog. "klassischen" Systemen unterscheidet


    Unter einem System versteht man in Bezug zueinander gesetzte Objekte. Man nennt das System klassisch, wenn das System allein unter Berücksichtigung der örtlichen Position seiner Teile untereinander – und natürlich der Teile selbst – ausreichend gut beschrieben ist.

    Jedes System wird erst durch Abstraktion klassisch, macht in dieser Form aber nicht immer Sinn, insbesondere dann nicht, wenn zwischen seinen Teilen Kräfte wirken oder andere, noch kompliziertere Abhängigkeiten bestehen (wie etwa Quantenverschränkung). Abhängigkeiten nämlich haben eine Aufweichung der Identität der Teilobjekte des Systems zur Folge, die so weit gehen kann, dass einige der Teile ihre Identität völlig verlieren – jene also undefiniert wird. Zwei Beispiele machen das klar:

    • Ein Kochsalzkristall ist eine Gruppierung von Natrium- und Chlorionen, die so lose ist, dass der Kristall, wenn man ihn ins Wasser wirft, sich einfach auflöst in eine Menge eben genau solcher Ionen: Sie gehen auseinander mit derselben Identiät, die sie hatten, als sie zusammenfanden.
    • Ganz anders, wenn sich ein Elektron und ein Positron zu einem System mit der Gesamtladung Null zusammenfanden. Es kann sich zerlegen in zwei Gammaquanten, und man wird sich kaum etwas Verschiedeneres vorstellen können als ein Elektron und ein Positron bzw. zwei Photonen (die Gammaquanten): Ein Elektron besitzt elektrische Ladung, Ruhemasse und ein magnetisches Moment. Ein Photon dagegen hat keine Ruhemasse, bewegt sich stets mit Lichtgeschwindigkeit, und besitzt weder Ladung noch ein magnetisches Moment.

    Wir sehen:

    Gibt es zwischen Systemteilen hinreichend starke Abhängigkeiten (z.B. durch Kräfte gegebene), so bewirken die,
    dass die Eigenexistenz der Teile ganz oder teilweise aufgehoben wird
    und damit ein neues, qualitativ anderes Ganzes entsteht.


    Interessant ist nun:

    Ausgedehnte Ganzheiten — der menschliche Körper ist ein Beispiel, die Gesellschaft ein anderes — machen NUR Sinn, wenn man sie im eben definierten Sinn als Quantensysteme begreift: als Systeme, die gut vergleichbar sind mit Mengen zueinander verschränkter Quanten.

    Quantensysteme sind also nicht notwendig mikroskopisch klein: Sie können jede nur denkbare Ausdehnung haben. Sebst Systeme verschränkter Photonen mit einer Ausdehnung von gut 100 km können heute gezielt erzeugt und kontrolliert werden.



    Der wesentliche Unterschied zwischen klassischer Physik und Quantenphysik besteht darin, dass
    • die klassische Physik durch Abstraktion und Reduktion zu exakten (dann aber nur näherungsweise gültigen Lego-) Modellen kommt,
    • während die Quantenphysik genau sein möche und so sogar noch entdeckt, wo die Natur unbestimmt wird (und jene Unbestimmtheit zu untersuchen und zu quantifizieren gestattet).
      Dies führt zu Systemmodellen, die berücksichtigen, dass die Teile jeden Systems nur noch mehr oder weniger unscharf definierte Identität haben und diese Unschärfe Folge der Tatsache ist, dass zwischen ihnen Kräfte wirken, die — und deren Wirkung — man in Modellen, die genau sein wollen, nicht vernachlässigen darf.


    Was » exakt « von » genau « unterscheidet:


    Ein Kreis im Sinne der Mathematik ist  e x a k t , in der Natur real auftretende Kreise dagegen sind es nicht (schon allein der Unbestimmtheitsrelation wegen). Dass und in welchem Ausmaß sie NICHT exakt sind, wird erst klar, wenn man sie  g e n a u  betrachtet.

     
    grtgrt (einer Argumentation von Thomas Görnitz folgend)

     

      Beitrag 1999-83
    -

     
     
    Grtgrt in 1999-8:
     

    Was Quantensysteme von sog. "klassischen" Systemen unterscheidet


    Unter einem System versteht man in Bezug zueinander gesetzte Objekte. Man nennt das System klassisch, wenn das System allein unter Berücksichtigung der örtlichen Position seiner Teile untereinander – und natürlich der Teile selbst – ausreichend gut beschrieben ist.

    Jedes System wird erst durch Abstraktion klassisch, macht in dieser Form aber nicht immer Sinn, insbesondere dann nicht, wenn zwischen seinen Teilen Kräfte wirken oder andere, noch kompliziertere Abhängigkeiten bestehen (wie etwa Quantenverschränkung). Abhängigkeiten nämlich haben eine Aufweichung der Identität der Teilobjekte des Systems zur Folge, die so weit gehen kann, dass einige der Teile ihre Identität völlig verlieren – jene also undefiniert wird.
    Wir sehen:

    Gibt es zwischen Systemteilen hinreichend starke Abhängigkeiten (z.B. durch Kräfte gegebene), so bewirken die,
    dass die Eigenexistenz der Teile ganz oder teilweise aufgehoben wird
    und damit ein neues, qualitativ anderes Ganzes entsteht.



    Hans Dieter Zeh drückt das so aus:

    Zitat von H. D. Zeh (1993):
     
    Die Kinematik der Quantentheorie erlaubt Quantenkorrelationen ("Verschränkungen") zwischen zwei beliebigen Systemen mit möglichen Zuständen φi und phi;k in der Form von Superpositionen der Art


    psi;   =   Σ ci,k φi phi;k .


    Diese  n i c h t l o k a l e  Kinematik beschreibt den wohl wichtigsten Unterschied zur klassischen Physik, indem


    der Gesamtzustand eines zusammengesetzten Quantensystems im allgemeinen  k e i n e  Zustände der Teilsysteme mehr definiert.

    Er kann dann also seinerseits auch nicht durch solche bestimmt sein.


    Trotz der bewährten statistischen Aspekte der Quantenmechanik sind diese Korrelationen nicht als rein statistisch bedingt zu deuten. Sie bestimmen vielmehr auch eindeutig objektiv nachprüfbare ("reale") Eigenschaften des individuellen Gesamtzustands (wie z.B. einen Gesamtdrehimpuls).
     

     

     Beitrag 0-106
    Entanglement and Time: Quantenverschränkung kennt weder Ort noch Zeit

     
     

     
    Quantenverschränkung kennt weder Ort noch Zeit

     
     
    Ein interessantes Papier eines Schweizer Wissenschaftlers (quant-ph/0311004) schließt mit der Feststellung:
     


    Antoine Suarez (2003):
     
    In conclusion the experiments testing quantum entanglement rule out the belief that physical causality necessarily relies on observable signals.
     
    Quantum entanglement supports the idea that the world is deeper than the visible, and reveals a domain of existence, which cannot be described with the notions of space and time.
     
    In the nonlocal quantum realm there is dependence without time, things are going on but the time doesn’t seem to pass here.
     


     
    Lies auch:
       
    • Raumzeit-unabhängige Korrelationen
       
    • Quantenverschränkung in Pflanzen
       
    • When particles are entangled, they can no longer be thought of as having separate properties. Imagine I have two particles with properties that I cannot know before I take measurements of them. But if the particles are entangled, then a measurement of just one out of the pair instantly establishes what a measurement on the other would produce. This is true even if the particles are separated by a distance so large that there would be no chance for them to communicate in the time it would take to measure one and then the other. In this way, entangled particles seem to form a coherent whole across space and time.
       
      Entanglement is exactly the kind of “spooky action at a distance” that Einstein was famously concerned about in quantum mechanics. It’s why he felt quantum theory was somehow incomplete, meaning there must be something about it we have yet to understand.


     

     Beitrag 0-228
    Spukhafte Fernwirkung kann keine Information transportieren

     
     

     
    Warum die bei verschränkten Quanten beobachtete spukhafte Fernwirkung
     
    kein Informationstransport sein kann

     
     
    Unter einem Biphoton versteht man ein Paar miteinander verschränkter Photonen gesehen als in unterschiedliche Richtung gesandte Lichtwellen w1 und w2.
     
    Ihrer Verschränkung wegen müssen diese beiden Lichtwellen zueinander korrelierten Spin haben bzw. zueinander korrellierte Polarisation.
     
    Wenn nun z.B. w1 in bestimmte Richtung polarisiert wird, so kann man die durch Messung von w2 dennoch nicht feststellen, denn jede Messung bringt — einer damit verbundenen Projektion des Zustandsvektors wegen — Informationsverlust mit sich (wie recht schön beschrieben durch Thomas Görnitz).
     
     
    Mit anderen Worten:
     
    Gibt es keine Absprache über die gestellte Messabfrage, so kann Messung von w2 nicht feststellen, welchen Zustand von w2 zuvor erfolgte Polarisierung von w1 hergestellt hat. Insbesondere würde die durch Polarisierung von w1 dem w2 aufgeprägte korrespondierende Polarisierungsrichtung i.A. kein Ergebnis der Messung von w2 sein (denn dazu müsste man wissen, welche Polarisationsrichtung genau dem w1 gegeben wurde).
     
    Man bedenke: Man kann die Lichtwelle w2 nicht fragen, wie sie polarisiert ist. Man kann lediglich eine Richtung R  v o r g e b e n  und dann danach fragen, ob w2 in Richtung R polarisiert ist. Nach dieser Frage wird w2 entweder in Richtung R polarisiert oder durch die Messapparatur verschluckt worden sein.
     
    Mit welcher der — unendlich vielen — möglichen Polarisationsrichtungen w2 zur Messapparatur kam, bleibt daher unklar. Ausschließbar ist stets nur eine einzige (die zu R senkrechte bzw. R selbst).

     

     Beitrag 0-272
    Die Grenzen echten Zufalls haben nicht-lokale Ursache

     
     

     
    Quantenverschränkung offenbart nicht-lokale Ursache für echten Zufall

     
     
    Der Quantenphysiker Nicolas Gisin hat sich besonders viel mit denkbaren Varianten der Bellschen Ungleichung befasst und beschreibt in seinem Buch Der unbegreifliche Zufall (2014) etwas, das er das Bell-Spiel nennt.
     
    Mit Hilfe diesen Spiels lässt sich zeigen, dass es nicht-lokalen Zufall gibt und der Ergebnisse haben kann, die selbst absoluter (lokaler) Zufall — wie etwa die Zufälligkeit eines konkreten Ergebnisses einer lokalen quantenphysikalischen Messung — nicht abdecken kann:


    Gisin (S. 68-69):
     
    Für digitale Simulation verwenden Ingenieure häufig sog. Pseudozufallszahlen, so etwa in der Entwicklungsphase eines Flugzeugs:
     
    Statt zahlreiche Prototypen herzustellen und auf ihr Flugverhalten hin zu testen, simulieren sie diese Prototypen auf Großrechnern unter Verwendung von Pseudozufallszahlen.
     
    Solcher Zufall ist simulierter Zufall ähnlich dem Zufall des Würfelspiels (dessen Ergebnisse ja auch nur deswegen zufällig aussehen, weil die wirklichen Gründe für das Ergebnis eines Wurfs des Würfels — wie man sich per Chaostheorie erklären kann — zu kompliziert sind, um noch durchschaubar zu sein).
     
    Grundsätzlich könnte man meinen, dass es beim Test von Flugzeugprototypen keinen Unterschied machen sollte, ob man Pseudozufallszahlen oder echt zufällige Folgen von Zahlen verwendet. Das stimmt aber nicht:
     
    Es gibt Prototypen, die sehr schlecht fliegen, obgleich ihre Simulation mit Pseudozufallszahlen keinerlei Schwächen fand. Solche Fälle sind selten — aber es gibt sie, egal wie einfallsreich das die Pseudozufallszahlen erzeugende Programm auch war:
       
    • Ferrenberg, Landau, Wong: Monte Carlo Simulations: Hidden errors from "good" number generators, Phys. Rev. Letters 1992, 69, 3382.
       
    • Ossola, Sokal: Systematic errors due to linear congruential random-number generators with the Swendsen-Wang algorithm: A Warning, Phys. Review E, 2004, 70, 027701.

     
    Verwendet man aber durch einen nicht-lokalen Quantenprozess erzeugte Zufallszahlen, so gibt es solche Störfälle nicht.
     
    Es besteht also ein Unterschied zwischen dem scheinbaren Zufall des Würfelspiels und dem echten Zufall, ohne den es nicht möglich ist, im Bell-Spiel zu gewinnen (wenn keine Kommunikationsmöglichkeit besteht).
     


     
     
    Das Bell-Spiel  S = ( n, A, B )

     
    Sei n ein natürliche Zahl und seinen A und B zwei Abbildungen der Zahlen 1 bis 4n auf Paare ( e,a ) binärer Zahlen.
     
    Ist A(i).e = B(i).e = 1, so wird S um 1 erhöht, wenn A(i).a ungleich B(i).a ist, andernfalls aber wird S um 1 erhöht, wenn A(i).a = B(i).a ist.
     
    Wie man nachrechnen kann, wird auf diese Weise S zur Zahl aller i, für die bei binärer Addition und Multiplikation gilt:   A(i).e + B(i).e = A(i).a • B(i).a  .
     
     
    Wir denken uns jetzt A (= Alice) und B (= Bob) als zwei Personen, welche in jedem Schritt i ein zufällig gewähltes Paar ( e,a ) = ( Eingabe, Ausgabe ) = ( quantenphysikalische Zustandsabfrage, Ergebnis der Abfrage ) produzieren.
     
    Unter der Annahme, dass in jedem Schritt i die beiden Eingaben A(i).e und B(i).e unkorreliert sind, wird S/4n für große n gegen 3/4 konvergieren.
     
    Stellt man sich jetzt aber vor, dass in jedem Schritt
       
    • A(i).e eine von A ersonnene quantenphysikalische Messfrage ist, auf die das von A befragte Quant Q(i,A) mit A(i).a anwortet,
       
    • B(i).e eine von B ersonnene quantenphysikalische Messfrage, auf die das von B befragte Quant Q(i,B) mit B(i).a antwortet,
       
    • und Kommunikation zwischen A und B unmöglich ist,

    so zeigt sich im Experiment, dass für hinreichend große n der Bruch S/4n gegen eine Zahl strebt, die deutlich größer als 3/4 ist, wenn stets Q(i,A) und Q(i,B) zwei miteinander verschränkte Quanten sind.
     


    Gisin (S. 34):
     
    Echter Zufall hat — anders als der Zufall im Sinne des Würfelspiels bzw. der klassischen Physik — keine Ursache:

     
    Ein echt zufälliges Ergebnis ist in keiner Weise vorbestimmt — doch muss man diese Behauptung nuancieren:
     
    Die Wahrscheinlichkeit der möglichen Ergebnisse  i s t  vorbestimmt.

     


     
    Die Tatsache, dass das Bell-Spiel bei nicht verschränkten Quanten nur mit Wahrscheinlichkeit 0,75 (= 3/4) gewonnen wird, bei miteinander verschränkten Quanten aber mit der deutlich größeren Wahrscheinlichkeit von etwa 0,85 (= 3,41/4), zeigt, dass — gegeben ein Quantensystem Q, eine Messfrage M und eine darauf mögliche Antwort A — die Wahrscheinlichkeit dafür, dass Q die Frage M mit A beantwortet nicht alleine nur von Q's Zustand abhängt, sondern zudem noch vom Zustand aller mit Q verschränkten Quantensysteme.
     
    Zudem ist damit bewiesen, dass diese abgeänderte Wahrscheinlichkeit aus nur lokaler Sicht heraus nicht begründbar ist.
     
    Widerlegt sei inzwischen auch,
    — so schreibt Gisin —, dass sie auf Ursachen zurückführbar sein könnte, die sich — ausgehend vom Schicksal eines oder aller der mit Q verschränkten Quantensysteme mit endlicher Geschwindigkeit — etwa einer größer als die des Lichts — hin zu Q ausbreiten.
     


    Gisin (ab S. 194):
     
    Ich habe keinen Zweifel daran, dass die Nichtlokalität — ebenso wie die Relativität — unseren vertrauten Zeitbegriff aushöhlt.

     


    Dennoch will Gisin — anders als etwa Zeilinger — nicht von Retrokausalität sprechen — von einer in die Vergangenkeit gerichteten Kausalität.
     
    Sein Erklärungsansatz beruht auf dem Konzept des nichtlokalen Zufalls, der sich an mehreren Orten unabhängig von deren Entfernung manifestieren kann.
     
    Gisin kann und will nicht ausschließen, dass kommende Generationen von Physikern eine noch ganz andere Erklärung finden.
     


    Gisin (2014) zur Historie der Idee quantenphysikalischer Nichtlokalität:
     
    Noch in den 90-er Jahren lehnten es viele Physiker ab, an Quanten-Nichtlokalität zu glauben — und das, obgleich doch schon 1935 Einstein und Schrödinger mit voller Überzeugung die Meinung verfochten, dass eben dieser Aspekt das Hauptmerkmal der Quantenwelt sei.
     
    Erst ab etwa 1995 begann auch die riesige Gruppe der Festkörperphysiker an Nicht-Lokalität zu glauben und Begriffe wie "nichtlokale Korrelation", "echter Zufall" und "Bellsche Ungleichung" ernst zu nehmen. Nur die ebenfalls recht große Gruppe der Hochenergiephysiker gibt sich nach wie vor skeptisch. Sie scheinen der Meinung zu sein, dass nur ihre Physik fundamentale Fragen aufgreife und die Arbeit aller anderen Physiker nicht mehr als ein weit entwickeltes Ingenieurwesen darstelle.
     



    Was ist ein Quantensystem? Gisin (2014):
     
    Heute gilt die Verletzung einer Bell-Ungleichung als Kennzeichen eines Quantensystems.

     



     

      Beitrag 1999-45
    Warum das Zwei-Teilchen-Bild nicht ganz richtig ist

     
     

    Quantenverschränkung:

    Warum das Bild von » zwei Teilchen « die Situation allzu stark vereinfacht



    Das Bild der » zwei Teilchen « sei, so sagt Görnitz, eine Irreführung:

    Zitat von Görnitz, S 105, auszugsweise:
     
    Viel besser verständlich wird der durch ERP angesprochene Sachverhalt, wenn von einem einzigen, ausgedehneten [nicht-lokalen] Objekt ausgeht.
    Erst im Vorgang der "Messung" wird dieses Ganze durch die Wechselwirkung mit einem "Messapparat" in zwei Teile zerlegt.

    Solange das Ganze als ein aus 2 Objekten zusammengesetztes System betrachtet wird, ist der Vorgang fast nicht zu verstehen: Die Physiker sprechen zwar von deren "Ver­schränkung", aber höchstens der Fachmann weiß, dass dabei etwas ganz anderes gemeint ist als diese beiden konkreten Teile, nämlich die gleichzeitige Existenz aller quantenphysikalisch möglichen Zerlegungen des Ganzen. Dabei sind die Ausgangsteile verschwunden, ihr Zustand undefiniert.

    Historische Notiz: Das Wort "Verschränkung" stammt aus der Holzverarbeitung und bezeichnet eine besonders stabile Verbindung zweier Bretter, die verzahnt und verleimt werden. Aber natürlich bleiben es immer zwei Bretter — und genau dies legt die unzutreffende Vorstellung nahe, dass zwei Teile vorhanden sein würden.
     


    Was wirklich passiert ist:

    Zitat von Görnitz, S. 106-108 (stark gekürzt, alle Bilder weggelassen):
     
    Durch eine Messung wird das ausgedehnte Objekt zerlegt, und zwar sofort und als Ganzes. An dem einen, der erst hierbei entstehenden Teile wird ein Faktum erzeugt, der andere Teil gelangt in einen eigenen Quantenzustand, ist aber noch nicht gemessen.

    Während der Zustand des gemessenen Teile als Faktum vorliegt, ist das Wissen über den Zustand des ungemessenen Teiles lediglich Wissen über eine Quanten­möglichkeit und gerade kein Wissen über ein Faktum.

    Man kann daher mit Gewissheit vorhersagen, was unmöglich sein wird, aber nicht, welches konkrete Faktum sich innerhalb des Möglichen ergeben wird. [Nur

    Stellt man dem zweiten Teil aber eine andere Messfrage, so wird man stattdessen ein Messergebnis erhalten, das zu dieser neuen Fragestellung passt. Die Wahrscheinlichkeit, dass es — als Vektor betrachtet — in die eine oder die entgegengesetzte Richtung weist, wird nur dann gleich groß sein, wenn die neue Fragestellung "orthogonal" zur alten ist.
     


    ERP ist Beispiel für eine Verschränkung, bei der es um Nicht-Lokalität hinsichtlich des Ortes geht.

    Nicht-Lokalität kann aber z.B. auch hinsichtlich der Zeit auftreten (Görnitz: Quanten sind anders, S. 168).


    Stets aber geht es bei Verschränkung darum, dass eine Handlung an einem Ganzen sich auf all seine Teile auswirken kann
    ( und zwar  o h n e  dass die alle sofort in den Zustand "gemessen" übergehen ).



     

      Beitrag 1995-80
    Quarks - eines der größten noch ungelösten Probleme der Elementarteilchenphysik

     
     
    E... in 1995-78:
     
    Was dann "ins Auge springt", ist die Tatsache, dass dort, also in der Quantenphysik, nie die Rede von Quarks ist. Warum eigentlich nicht?


    Wikipedia sagt:

    Die Tatsache, dass bisher noch keine freien Quarks gemessen werden konnten, stellt eines der größten ungelösten Probleme der Teilchenphysik dar.
    Dieses als Confinement bekannte Phänomen ist eines der sog. Millennium-Probleme .


    Görnitz gibt zu bedenken (S. 139 in Der kreative Cosmos, 2002):

    Die fast überall anzutreffende Vorstellung über die Quarks ist die, dass Neutronen und Protonen aus drei Quarks "bestehen".
    Richtiger aber wäre wohl zu sagen, dass die Nukleonen innere Freiheitsgrade haben, die sich mit Hilfe des Quark-Modells recht gut beschreiben lassen.


     

      Beitrag 2085-3
    Wie die Zeit entsteht und der Kosmos sich wandelt

     
     
    In Ergänzung von Beitrag 2085-1 würde man heute vielleicht allgemeiner sagen:


    Wie die Zeit entsteht



    Zeit entsteht, wo sich  V e r ä n d e r u n g  ergibt.

    Veränderung ergibt sich überall dort, wo der Kosmos — als Summe von Potentialwellen gesehen — seinen Wert ändert.

    Mit andere Worten:

    Zeit entsteht  ü b e r a l l ,

    aber genau besehen nicht überall in exakt gleichem Ausmaß oder exakt gleicher Ausprägung.


    Der Kosmos in Vergangenheit und Gegenwart ist die Summe dessen, was alle Wirkungsquanten, die ihre Wirkung schon entfalten konnten, bewirkt haben

    ( Wirkung, so eine Axiom der Quantenphysik, ist grundsätzlich gequantelt )



    Gebhard Greiter (2013)

    siehe auch:  [ Gequantelte Zeit ]  und  [ Die Raumzeit der Quanten ]

     

      Beitrag 2085-14
    Doch wie definiert sich die Zeit aus Sicht der Natur (aus Sicht von Einsteins Feldgleichungen)?

     
     
    Harti in 2085-9:
     
    Unsere Vorstellung von Zeit kommt deshalb letztlich dadurch zustande, dass wir Vorgänge (Geschehensabläufe) zueinander in Beziehung setzen, miteinander vergleichen.
    Dieser Vergleich hat sich verselbständigt und zu einem allgemeinen Gefühl entwickelt, dass Vorgänge nicht instantan erfolgen, sondern dauern. Wir meinen sogar, dass Zeit im Sinn von Dauer eine objektive, außerhalb unserer Vorstellung existierende Naturerscheinung ist. Dies sehe ich aus den dargelegten Gründen anders. Es gibt nicht nur dort, wo es keine Objekte/Veränderung gibt keine Zeit, sondern auch dort, wo es keine Menschen gibt.


    Hallo Harti,

    wenn es um den » Zeitbegriff im Sinne der Menschen « geht, sehe ich das ganz genau so.

    Da nun aber Einsteins Gleichungen der ART ebenfalls einen Zeitbegriff kennen und der ganz offensichtlich  n i c h t  in der von dir beschriebenen Weise zustande gekommen sein kann, muss es über den Zeitbegriff der Menschen hinaus wohl doch auch einen der Natur selbst geben. Wie sonst könnte es sein, dass Einsteins Gleichungen die Geometrie des Raumes ebenso wie die Geschwindigkeit des Alterns unterschiedlich beschleunigter Objekte derart verlässlich und genau beschreiben?


    Bernhard Kletzenbauer in 2085-11:
    Hans-m in 2085-10:
     
    Zeit ist die Distanz in der Raumzeit zwischen zwei Ereignissen.(würd´ ich mal so definieren)
     
    Das habe ich schon etliche Male hier geschrieben. Zeit ist der Abstand zwischen Zuständen und Ereignissen.


    Ja, Bernhard & Hans-m,

    auch ich bin dieser Meinung (und habe das sogar hier im Forum und anderswo ja auch schon präzisiert in dem Sinne, dass die Ereignisse, um die es hier geht, die nicht mehr teilbaren sind (die sog. Elementarereignisse im Sinne der Quantenphysik, siehe 2001-6 und 1986-1).


    Bauhof in 2085-12:
     
    Die Länge der Weltlinie, die eine Person beim Flug von Ereignis zu Ereignis zurücklegt, entspricht der in der Raumzeit ’zurückgelegten’ Eigenzeit der Person.
    Und dabei spielt es keine Rolle, ob diese Weltlinie gekrümmt ist oder nicht.

    Ungekrümmte Weltlinie: Flug ohne Beschleunigung.
    Gekrümmte Weltlinie: Flug mit Beschleunigung.


    Das Problem mit diesem Definitionsversuch scheint mir zu sein, dass die Begriffe » Weltlinie « und » Eigenzeit « den Begriff der Zeit ja schon voraussetzen, d.h. sie bauen auf ihm auf und können deswegen schon rein technisch  n i c h t  Teil seiner Definition sein.


    Gruß, grtgrt
     

      Beitrag 2085-42
    Das nie aufhörende Ticken der Zeit: Ursache, Wirkung, Ursache, Wirkung, Ursache, Wirkung ...

     
     
    Quante in 2085-40:
     
    Im Kausalen gilt, Ursache-Wirkung. Ursache-Wirkung ...

    und die Wirkung wird zugleich ja auch, im Moment ihres Eintretens, zu einer neuen Ursache. Das geht dann immer so weiter, und so weiter... usw.


    Richtig, Quante,

    und genau der Gedanke hat mich zu meinem Modell RZQ netzartig gestrickter Zeit geführt (siehe hier und anderswo und alles dazu). In ihm ist
    • Ursache = Quantenfluktuation oder die Kollision von Elementarteilchen
    • Daraus sich ergebende Wirkung = das (durch ein Elementarereignis bewirkte) Entstehen eines Paares virtueller Teilchen bzw. das Ersetzen miteinander kollidierender Elementarteilchen durch eine Menge neuer, mit Impuls versehener Elementarteilchen.

    Gruß, grtgrt
     

      Beitrag 2085-58
    Warum die Zeit uns Menschen modifiziert

     
     
    Stueps in 2085-56:
     
    Das Zwillingsparadoxon: Unterschiedliches Vergehen von Zeit ist nicht eine subjektive Empfindung, sondern kann sich objektiv manifestieren.


    Hi Stueps,

    im Sinne meines Modelles RZQ netzartig angelegter Zeit (auf das ich in Beitrag 2085-42 hinwies) wäre die Zeit, die einem an zwei Ereignissen E1 und E2 beteiligten Objekt X zwischen diesen beiden Ereignissen vergeht — und seine Alterung bewirkt — die Menge aller Elementarereignisse, die wenigstes ein Elementarteilchen erzeugt oder zerstört haben, welches nach E1 und vor E2 mit ein Teil von X war.

    Die Modifikation, die X zwischen den beiden Ereignissen E1 und E2 erfährt (sein Wachsen, sein Schrumpfen, kurz: sein  A l t e r n ) wäre so wohl recht gut erklärt.

    Wie gefällt Dir diese Idee?


    Gruß,
    grtgrt
     

      Beitrag 2085-98
    Sind Zustandsänderung und Zeitenstehung ein und dasselbe?

     
     
    Bernhard Kletzenbauer in 2085-96:
    Stueps in 2085-93:
     
    Sind Zustandsänderung und Zeitentstehung synonym?
    Ja


    Ja, Stueps,

    auch nach meinem Modell RZQ netzartig gestrickter Zeit — siehe die Links in Beitrag 2085-42 — sind Zustandsänderung und Zeitentstehung ein und dasselbe.

    Gruß, grtgrt
     

      Beitrag 2085-105
    Was kennzeichnet den als Gegenwart zu bezeichnenden Zustand des Universums?

     
     
    C... in 2085-95:
     
    Folgende Fragen nagen m.E. weiter an unseren bisherigen Definitionsversuchen:

    — Was genau ist das "Jetzt"? (Die Gegenwart allein kann es nicht sein, da diese nur ein Zeitpunkt wäre, den man nicht wahrnehmen könnte).
    — Warum ist das "jetzt" ausgerechnet "jetzt" und nicht z.B. gestern?
     


    Hallo C...,

    mein Modell RZQ netzartig gestrickter Zeit — siehe die 3 Links in Beitrag 2085-42 — beantwortet deine Frage so:


    Das "Jetzt" ist der Zustand unseres Universums, der aus genau den Elementarteilchen besteht, für die gilt:
    • Sie kennen die Ursache ihres Entstehens (sprich: das Elementarereignis, das sie hervorgebracht hat),
    • wissen aber nicht, mit welch anderen Elementarteilchen sie verschmelzen werden, ihre Existenz zu beenden.

    Plakativer ausgedrückt könnte man sagen:


    Das » Jetzt « ist ein Zustand des Universums, der als Gewissheit existiert,

    ohne dass auch nur einer seiner möglichen Nachfolgezustände ebenfalls Gewissheit ist.



    Note: Hier wird vorausgesetzt, dass jeder Zustand des Universums jedem Elementarteilchen eine Wahrscheinlichkeit seiner Existenz zuordnet. Genau dann, wenn diese Wahrscheinlichkeit den Wert 1 hat, spricht man von Gewissheit.

    Es würde mich interessieren, was man — und Du, C..., speziell — an dieser Definition des "Jetzt" unbefriedigend finden könnte.


    Beste Grüße,
    grtgrt

    PS: Bitte siehe auch Hans-Peter Dürrs Meinung zu diesem Thema (zitiert in Beitrag 1213-21) sowie 1992-4 und 1992-1.

     

      Beitrag 2085-114
    -

     
     
    C... in 2085-108:
     
    Anmerkung: Die Relativität der Gleichzeitigkeit deutet dabei darauf hin, dass jedes "Jetzt" ein subjektives Jetzt sein muss.


    Hallo C...,

    deine Argumentation

    » ... deutet dabei darauf hin, dass jedes "Jetzt" ein subjektives Jetzt sein muss. «


    kann ich als zwingend nur anerkennen unter der Voraussetzung, dass die Zeit linear voranschreitet.
    Mein Modell RZQ aber geht davon aus, dass die Zeit sich netzartig ausbreitet (wie ein Kristall, der an jeder Stelle seiner Oberfläche wachsen kann).

    Nach RZQ sind Vergangenheit und Gegenwart der Teil des Netzes, der schon geknüpft ist, wohingegen die Zukunft die Menge aller möglichen Varianten für den Teil des Netzes "Zeit" darstellt, über den noch nicht entschieden ist.

    In meiner Theorie wird jedes Elementarereignis das Netz weiterknüpfen und so die Menge aller Möglichkeiten, Zukunft zu gestalten, reduzieren. Die Menge möglicher Varianten von Zukunft bleibt dennoch stets unendlich groß (aber natürlich nur dann, wenn man annimmt, dass tatsächlich kein Elementarereignis alles zu Nichts machen kann — und genau das scheint uns der Energie-Erhaltungssatz ja tatsächlich zu garantieren).


    Gruß, grtgrt
     

      Beitrag 2085-117
    -

     
     
    C... in 2085-115:
    Hallo Grtgrt,

    folgende Frage zu deiner "Netzstruktur" der Möglichkeiten stammt nicht von mir, sondern von einem anderen Zeitphilosophen ;-) :

    Wenn die Zukunft viele Möglichkeiten hat, diese Zukunft jedoch irgendwann zur (unabänderlichen) Vergangenheit geworden sein wird, welche dann eine (und nur eine) kausale Abfolge besitzt - wohin sind dann die anderen Möglichkeiten entschwunden?


    ANTWORT: Es gibt diese anderen Möglichkeiten dann einfach nicht mehr.

    BEWEIS (durch Analogie):
      Wenn ein Steinmetz beginnt, einen Stein zu einem Kunstwerk zu machen, hat er extrem viele Möglichkeiten, diese Plastik zu gestalten — aber stets nur solange er den Stein noch nicht allzu gründlich bearbeitet hat. Es gibt also Gestaltungsspielraum, aber er reduziert sich mit jedem Schlag auf den Meißel.

     

      Beitrag 2085-123
    Wie aus dem Netz der Möglichkeiten (für Zukunftsgestaltung) das ausgedünnte Netz vorhandener Tatsachen wird

     
     
    C... in 2085-120:
     
    wenn die Zeit objektiv ein "Netz der Möglichkeiten" darstellen soll, muss gelten: Wenn es das Netz "vorher" gegeben hat, muss es doch auch dann bestehen bleiben, wenn die zukünftige Zeit subjektiv zur vergangenen geworden ist. Die Möglichkeiten müssen, weil gleichwertig, irgendwo verblieben sein.

    Oder es muss einen "Mechanismus" dafür gegeben haben, der die anderen Möglichkeiten beim Übergang in die Vergangenheit zerstört.


    Nicht die Zeit ist ein Netz von  M ö g l i c h k e i t e n , sondern nur die Zukunft ist es (der Teil der Zeit also, der noch nicht "gestrickt" wurde).

    Natürlich hat auch die Zeit im Bereich Gegenwart und Vergangenheit netzartige Strukrur: Diese Version des Netzes aber ist eine ausgedünnte, die dadurch zustande kam, dass der Kollaps der Wellenfunktion des Universums, zu dem es lokal mit jedem Elementarereignis E kommt, aus den vielen Möglichkeiten für output(E) genau eine ausgewählt hat. Alle anderen sind ersatzlos gestrichen. Eben dies ist der Mechanismus, den Du vermisst.

     

     Beitrag 0-112
    Imaginäre Zeit — Ist Hawkings Euklidische Quantengravitation eine Sackgasse?

     
     

     
    Euklidische Quantengravitation

     
     
    Unter der Theorie Euklidischer Quantengravitation versteht man die Idee von Hartle und Hawking, die Zeit der Raumzeit statt durch reele durch imaginäre Zahlen zu messen.
     
    Der Vorteil dieses Ansatzes besteht darin, dass dann
    • die Minkowski-Metrik der Raumzeit zur euklischen Metrik wird
       
    • und die Zeit dann einfach nur als eine weitere Raumdimension gesehen werden kann.

    Mit anderen Worten: Hawking und Hartle wollen die Sonderrolle die Zeit beseitigen.
     
    Dies gelang ihnen zunächst durch einen mathematischen Trick, dem sie dann aber auch physikalische Bedeutung zumessen. Hawking erklärt das wörtlich so:


    Hawking (Zitat):
     
    Die Erkenntnis, dass sich die Zeit wie eine weitere Raumdimension verhalten kann, bedeutet, dass wir uns der Frage, ob die Zeit einen Anfang hat, auf ähnliche Weise entledigen können wie derjenigen, ob die Welt einen Rand hat ...
     
    Wenn wir die Allgemeine Relativitätstheorie mit der Quantentheorie kombinieren, wird die Frage, was vor dem Anfang des Universums geschah, zu einer sinnlosen Frage.
     


    Hartle und Hawking nannten dies die kein-Rand-Bedingung.
     
     
    Raum und Zeit als von gleichem Wesen zu sehen, führt dann aber leider auch zu recht unangenehmen Konsequenzen: Die Theorie bekommt Lösungen, welche das ansonsten in der Physik stets unterstellte Postulat der Kausalität verletzen (Wurmlöcher und geschlossene Zeitkurven).
     
    Hawking und Hartle denken, dass sich die mikroskopischen Quanteneffekte — also z.B. auch mikroskopische Wurmlöcher — in makroskopischer Sicht wieder herausmitteln und somit in der klassischen Physik bedeutungslos seien.
     
    Andere Physiker geben zwar zu, dass die Theorie der Euklidschen Quantengravitation von ihrem mathematischen Ansatz her aussichtsreich erscheint, meinen dann aber doch, dass sie eher eine Sackgasse sei, da nicht klar ist, wie man von der imaginären Sicht wieder zurück in die reelle findet (mehr dazu in Euclidean Gravity: A lost cause).
     
    Dieter Lüst betont, dass der Ansatz Euklidischer Quantengravitation weder in Konkurrenz zur kanonischen Schleifenggravitation noch zur Stringtheorie steht: Er lasse sich problemlos kombiniert mit beiden anwenden.
     
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 245-246
     
     
    Nebenbei: Die Idee, die Zeit mit der imaginären Einheit zu multiplizieren, um so die Raumzeit mit der euklidischen Metrik auszustatten, mag künstlich und unmotiviert erscheinen. Entscheidend aber ist, dass das dieses Rezept — es geht zurück auf Richard Feynman — die richtigen Antworten für die Wahrscheinlichkeiten von Teilchenreaktionen liefert. Das lässt sich sogar exakt beweisen, wie zwei mathematische Physiker, der Schweizer Konrad Osterwalder und der Deutsche Robert Schrader zeigen konnten: Die Eigenschaften einer herkömmlichen Quantentheorie, die auf der Raumzeit der Speziellen Relativitätstheorie definiert ist, lassen sich exakt aus dem Feynman-Rezept für eine korrespondierende, imaginärzeitige Raumzeit rekonstruieren.


     

     Beitrag 0-498
    Wie steif ist die Raumzeit unseres Universums?

     
     

     
    Wie steif ist die Raumzeit?



    Günter Spanner (2016):
     
    Gravitationswellen nachzuweisen ist extrem schwierig, da die Raumzeit extrem steif ist:
     
    Unter dem Elastizitätsmodul eines Stoffes versteht man eine Zahl, welche charakterisiert, wie stark sich aus diesem Stoff bestehende Objekte einer Verformung widersetzen.
     
    Gewöhnlicher Gummi z.B. kann leicht gedehnt oder zusammengedrückt werden. Hartgummi zu verformen ist schon weit schwieriger. Holz erreicht bereits den 100-fachen Wert von gewöhnlichem Gummi und ist somit kaum mehr komprimierbar. Bei Stahl ist es das 2000-fache, bei Diamant sogar das 12000-fache.
     
    Dennoch ist die Härte von Diamant nichts im Vergleich zur » Härte « der Raumzeit:
     
     
    Der Elastizitätsmodul der Raumzeit entspricht dem 1022-fachen der Härte von Diamant.

     


     
     
    Die Arme des Gravitationswellen-Detektors LIGO sind 4 km lang, und man kann noch registrieren, wenn sich diese Länge auch nur um 1 Tausendstel des Protonen­durchmessers ändert. Das ist so, als würde man die Entfernung zwischen Alpha Centauri und unserer Sonne (4,3 Lichtjahre) millimetergenau bestimmen können.
     
     
    Quelle: Günter Spanner: Das Geheimnis der Gravitationswellen, Kosmos-Verlag (2016), S. 73


     

      Beitrag 1209-25
    Ist die Natur der Raumzeit wirklich schon voll verstanden?

     
     
    Bernhard Kletzenbauer in 1209-22:
     
    Raum ist für mich das imaginäre, leere (unendlich große, nicht von Wänden begrenzte) Gefäß.

    RaumZeit ist für mich der Inhalt, der das Gefäß vermutlich völlig ausfüllt (zusätzlich zu Materie und Strahlung). Dieser Inhalt ist auf direktem Weg bisher mit keinem Mittel meßbar.

    Genauer habe ich es hier beschrieben:
    Beitrag 52-42

    Der Vergleich hinkt gewaltig, aber ich sehe Raum als das leere Trinkglas - und RaumZeit als das Bier.


    Hi Bernhard,

    mir scheint, dein » Inhalt, der das Gefäß ausfüllt « könnte  Kraftpotential  sein: das Potential des Vakuums, Potentialwellen zu erzeugen — das also, was Quanten­fluktuation hervorruft.

    Die Raumzeit scheint vergleichbar mit der Oberfläche eines Sees: Sie/er kann Wellen bilden, hat dieses Potential aber nur deswegen, weil es unter der Oberfläche Tiefe gibt.

    Was die entsprechende » Tiefe « ist, über der die Raumzeit — als das, was verformbare Oberfläche ist — sitzt, wäre sicher überlegenswert.

    Die Summe aller in unserem Universum vorhandenen Energie könnte dem Volumen des Sees unter seiner Oberfläche entsprechen.

    Gruß, grtgrt

     

      Beitrag 2110-27
    Zeit und Raum aus Sicht der Lebewesen (Hartis Argumentation)

     
    Hallo Grtgrt,

    um der Frage, was das Wesen der Zeit ausmacht, näher zu kommen, könnte man auch von der Entwicklung des menschlichen Geistes ausgehen.

    Was die Menschen von der Natur zunächst wahrgenommen haben, waren Veränderungen. Bäume wachsen, die Sonne wandert über den Himmel, es wird hell und dunkel. Im Laufe ihrer geistigen Entwicklung haben sie gelernt, diese Veränderungen mit zwei Kategorien ( Vorstellungen) zu erfassen und zu beschreiben.
    Sie haben die Vorstellung entwickelt, dass Veränderungen dauern. Diese Vorstellung entsteht dadurch, dass während eines Vorgangs zahlreiche andere Vorgänge stattfinden. Daraus ist eine allgemeines Gefühl für Dauer (Zeitgefühl) entstanden.
    Sie haben aufgrund ihrer dreidimensionalen Sehfähigkeit eine Vorstellung für Distanzen entwickelt und dies als Raum bezeichnet.
    Die Vorstellungen von Raum und Zeit sind zunächst vollkommen unabhängig voneinander entwickelt worden und werden auch heutzutage bei Veränderungen meist unabhängig von einander betrachtet.
    Beispiel: Veränderung eines Neugeborenen zu einem Erwachsenen. Zeitliche Veränderung ca. 20 Jahre, räumliche Veränderung ca. 140 cm.
    Es ist nicht üblich, die Beziehung zwischen räumlicher und zeitlicher Veränderung (Wachstumsgeschwindigkeit) in diesem Beispiel zu Gegenstand von
    von Überlegungen zu machen.
    Es ist allerdings so, dass jede Veränderung, genau genommen, die Betrachtung mit beiden Kategorien erfordert; denn nichts passiert instantan und absolute räumliche Ruhe ist eine Fiktion (mathematische Idealvorstellung). Die getrennt Betrachtung der Kategorien von Raum und Zeit erfolgt also lediglich aus Zweckmäßigkeitsgründen, weil die eine oder andere Kategorie in dem jeweiligen Zusammenhang nicht interessiert.
    Dies ist bei Bewegungen grundsätzlich anders, weil diese nur mit ihrem räumlichen und zeitlichen Anteil vollständig beschrieben werden können.

    Aus diese Überlegungen folgere ich, dass die Aussage, Raum und Zeit seien mit dem Urknall entstanden nicht zutreffend ist. Mit dem Urknall hat das Universum begonnen sich zu verändern. Die Vorstellungen von Raum und Zeit sind erst im Laufe der geistigen Entwicklung der Menschen zur Beschreibung der Veränderungen in der Natur entwickelt worden.
    MfG
    Harti
     

      Beitrag 2094-1
    Raum, Zeit und Raumzeit existieren nur auf gedanklicher Ebene — konkret sind nur Ereignisse (Raumzeitpunkte)

     
     
    Hans-Peter Dürr sagt uns klar, dass Materie nur eine sich makroskopisch ergebende Illusion ist. Ähnliches gilt auch für Raum und Zeit sowie ihre Summe, die Raumzeit.

    Die Tatsache nämlich, dass zueinander unterschiedlich schnell bewegte Beobachter stets die gleiche Lichtgeschwindigkeit messen, kann der Relativitätstheorie nach nur so gedeutet werden, dass man feststellt:


    Den als » Raumzeit « bezeichneten Hintergrund, auf dem sich alles physikalische Geschehen abspielt,

    gibt es nur in Form beobachterspezifischer Illusionen R(B).



    Hierbei bezeichnet B den Beobachter, welcher R(B) als eine (n+1)-dimensionale Umgebung seiner selbst sieht, deren Struktur durch Geodäten und deren Abstandsbegriff durch die Minkowski-Metrik gegeben ist.

      Die Geodäten verhalten sich wie Schienen durch den Raum. Jedes sich bewegende Objekt bewegt sich — in R(B) — grundsätzlich mit Lichtgeschwindigkeit1 und stets nur entlang dieser Schienen. Das Objekt zu beschleunigen bedeutet, die Schienen zu verbiegen (eine wichtige Erkenntnis Albert Einsteins).
      In der SRT, die ja grundsätzlich nur unbeschleunigte Bewegungen betrachtet, ist jede dieser Schienen eine Gerade im üblichen (euklidischen) Sinne, und genau des­wegen hat die Raumzeit der SRT auch keine Singularitäten: Ihre Struktur ist die eines euklidischen Vektorraumes.
      Beobachter B, so kann man sich vorstellen, ruht hinsichtlich eines geeignet gewählten Koordinatensystems K für R(B) im Ursprung von K, und K macht R(B) zu einem Bezugssystem R(B,K), in das sich alle durch B grundsätzlich beobachtbaren Ereignisse (Synonym: Raumzeitpunkte) einordnen.
      Eine der n+1 Dimensionen von R(B,K) modelliert, was B als seine » Uhrzeit « sieht. Über die in Beitrag 2089-45 beschriebene Regel lässt die sich verallgemeinern zu einem wohldefinierten Uhrzeitbegriff auf der Menge  a l l e r  dem B grundsätzlich bekannt zu machender Ereignisse (Raumzeitpunkte).

    SRT und ART sagen uns, welche Eigenschaften die durch diese Bezugssysteme R(B,K) erzeugten Sichten haben und wie sich raumzeitliche Entfernungen beim Wechsel von einem ins andere transformieren in Abhängigkeit davon, wie schnell sich die ihnen zugeordneten Beobachter relativ zueinander bewegen und welcher Beschleunigung jeder einzelne unterliegt.

    FAZIT also:


    Raum, Zeit und Raumzeit existieren nur als rein gedankliche Konstruktion.

    Von konkreterer Existenz sind lediglich Ereignisse (auch Raumzeitpunkte genannt),
    die sich über beobachterspezifisch gedachte, mathematisch präzisierbare Netze verbiegbarer Geodäten relativ zueinander angeordnet sehen.

    Soweit diese Ereignisse unteilbare Wirkung haben, erzeugen oder vernichten sie Elementarteilchen.

    Jedes Elementarteilchen ist einfach nur Potentialwelle.




    1 Siehe Seite 50 in Brian Greenes Buch The Elegant Universe, wo man liest:

    Zitat:
     
    When an object moves throgh space relative to us, its clock runs slow compared to ours. That is, the speed of its motion through time slows down. Here’s the leap: Einstein proclaimed that all objects in the universe are always travelling through spacetime at one fixed speed — the speed of light.

    This is a strange idea; we are used to the notion that objects travel at speeds considerably less than that of light. We have repeatedly emphasized this as the reason relativistic effects are so unfamiliar in the everyday world. All of this is true.

    We are presently talking about an object’s combined speed through all four dimensions — three space and one time — and it is the object's speed in this generalized sense that is equal of the speed of light.
     


    Gebhard Greiter, Okt..2013
     

      Beitrag 2094-10
    -

     
     
    Haronimo in 2094-7:
    Hallo grtgrt,

    Deiner Darstellung ähnelt die des Holografischen Universums-Theorie. Wolltest du in etwa dahin?


    Nein, Haronimo,

    daran habe ich nun wirklich nicht gedacht.

    Ich sollte aber darauf hinweisen, dass meine Feststellungen in Beitrag 2094-1 bestätigen, was Stueps zu glauben scheint. Er nämlich schrieb:


    Stueps in 2085-251:
     
    Ich wollte ausdrücken, dass Raumzeit ohne Energie (die sich in physikalischen Entitäten und Wirkungen ausdrückt) ein sinnfreies Konstrukt ist. Ein Raumzeit-Koordinatensystem sagt ohne von uns in ihm eingebettete Objekte gar nichts aus.


    Wer sich vor Augen führt, dass jedes Elementarteilchen einfach nur Potentialwelle ist, kommt zwangsläufig zur Einsicht, dass der gesamte Kosmos — als Gesamtheit von allem, was die nur gedanklich existierenden "Räume" bewohnt — schlicht und einfach » brodelnde Energie « ist.


    Gruß, grtgrt
     

      Beitrag 2094-5
    -

     
     
    Horst in 2094-3:
    Grtgrt in 2094-1:
     
    Hans-Peter Dürr sagt uns klar, dass Materie nur eine sich makroskopisch ergebende Illusion ist.
     
    Na dann sagt der esoterisch angehauchte Hans-Peter Dürr ja klar, dass er selbst auch nur eine sich makroskopisch ergebende Illusion ist. ;-)
    Mit allen Konsequenzen?


    Richtig, Horst,

    Hans-Peter Dürrs Aussage bedeutet nichts anderes als dass er auch sich selbst letztlich nur als ein Paket von Potentialwellen sieht, welches Leute, die weniger genau hinschauen, Materie nennen.

    Aber was soll daran so falsch oder unmöglich sein?



    Zitat von Horst bezugnehmend auf eine Aussage grtgrts in 2094-1:
     
    Aha, gedachte Ereignisse ... sind also von konkreter Existenz?

    Hier hast du nicht genau genug gelesen, denn ich sage ja gerade, dass Ereignisse  K o n k r e t e r e s  darstellen als nur rein gedankliche Konstruktion.



    Horst in 2094-3:
    Grtgrt in 2094-1:
     
    Soweit diese Ereignisse unteilbare Wirkung haben, erzeugen oder vernichten sie Elementarteilchen.

    Wie denn das? Elementarteilchen sind doch Materie und Materie ist doch nach Dürr reine Illussion!
    Sozusagen Kampf der Illusionen?


    Erstens gibt es Elementarteilchen — Photonen etwa —, die wahrscheinlich nicht mal Du als Materie einordnen würdest,
    und zum Anderen sind ja selbst jene Elementarteilchen, die sich des Higgs-Feldes wegen als Materie zeigen, letztlich doch nur Potentialwelle.

    Mit anderen Worten: Du argumentierst, als würdest Du z.B. auch jedes in einer Karnevalsitzung auftretende Mitglied des Mainzer Karnevalvereins für einen Narren halten, nur weil er oder sie sich 5 Stunden lang als solcher darzustellen versucht.


    Gruß, grtgrt
     

      Beitrag 2094-11
    -

     
     
    Horst in 2094-9:
     
    Das bedeutet aber doch noch lange nicht, dass ihn auch der Rest der Welt, außer dir vielleicht, genau so sehen muß – wenn man genau hinschaut!


    Na dann lies doch mal bitte den Artikel » It's confirmed: Matter is merely vacuum fluctuations «.



     

      Beitrag 2094-13
    Die 3 Grundformen aller Existenz

     
     
    Haronimo in 2094-12:
     
    Deine, und Stueps seine, durch einige Beispiele nachvollzogene Gedanken, werden nur unter den Hinweis auf experimentell durchgeführte Wissenschaft, Akzeptanz erlangen. Wir müssen vielleicht, die Assoziationen zwischen manche Theorien intensiver betrachten.


    Vor allem sollten wir klar unterscheiden
    • Dinge und Phänomene, die allein nur logischer Verstand konstruiert (z.B. Raum, Zeit, Raumzeit),
    • Dinge und Phänomene, deren Existenz wir unseren Sinnen verdanken (z.B. anfassbare Objekte, Lärm, Wärmegefühl, Gefühle) und
    • Dinge und Phänomene, die keines von beidem sind, aber doch in der Natur vorkommen (Energie, Wellen, atomar eintretende Wirkung).


    Dinge, die nur unser Verstand konstruiert, werden auch Experimente uns  n i e  zeigen können.


     

      Beitrag 2094-15
    -

     
     
    H... in 2094-14:
    Grtgrt in 2094-13:
     
    Vor allem sollten wir klar unterscheiden
    • Dinge und Phänomene, die allein nur logischer Verstand konstruiert (z.B. Raum, Zeit, Raumzeit),
    • Dinge und Phänomene, deren Existenz wir unseren Sinnen verdanken (z.B. anfassbare Objekte, Lärm, Wärmegefühl, Gefühle) und
    • Dinge und Phänomene, die keines von beidem sind, aber doch in der Natur vorkommen (Energie, Wellen, atomar eintretende Wirkung).

    Dinge, die nur unser Verstand konstruiert, werden auch Experimente uns  n i e  zeigen können.
     

    Grtgrt, ich weiss, das Thema ist schwierig zu beherrschen. Aber man muss ganz exakt bleiben:
    Alles, was du aufgezählt hat, verdanken wir den Sinnen! Das ist die einzige Möglichkeit, zu interagieren. Die Wahrnehmung wird als real wahrgenommen (jetzt wird es auch noch rekursiv...).

    Du kannst es drehen und wenden wie du willst - du wirst auf diesem Weg nicht erklären können, ob etwas da ist auch ohne die Wahrnehmung.


    Ja, auch ich sehe das so.

    Und genau deswegen bin ich ja der Meinung, dass man im Zweifelsfall eher von einer Illusion auszugehen hat als von der Annahme, dass das entsprechende Ding oder Phänomen wirklich in genau der Form existriert, in der wir es wahrnehmen.


    Die moderne Physik findet mehr und mehr die schon recht alte Vermutung bestätigt, dass ALLES um uns herum nur Vorstellung und Illusion sei:

    Zitat von Parmenides (geboren etwa 530 v. Chr.). Er lehrte:

    Die Welt, in der wir zu leben glauben,

    ist die vermeintliche Welt der Sinneswahrnehmungen — die Welt ist nur Meinung ...



    Und genau so sehen es im 20. Jahrhundert ja auch Kant (als Philosoph) und Niels Bohr (als Physiker), wenn sie sagen:

    Zitat von Kant:
    Es gibt die Dinge der Erscheinungen und die Dinge an sich.

    Wir kennen die Dinge nur so, wie sie auf uns wirken.

    Zitat von Bohr:

    Die Physik kann  n i c h t  ergründen, wie die Natur funktioniert.

    Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

     

      Beitrag 2094-17
    Fiktion, Illusion — nicht wirklich passende Worte

     
     
    Horst in 2094-16:
     
    So ein Schalk aber auch der Schöpfer, gaukelt uns lauter Illusionen vor .......wenn er nicht selbst auch nur ne Illusion ist!:smiley9:


    Hallo Horst,

    nur für den — wie mir scheint recht unwahrscheinlichen — Fall, dass Du doch mal den Wunsch haben solltest, wirklich zu verstehen, sei gesagt:

    Worte wie » Illusion « (oder ersatzweise » Fiktion «) gebrauche ich, wenn ich über Physik spreche, nur widerwillig — einfach nur deswegen, weil mir kein besserer Begriff einfällt.

    Was ich sagen möchte, wenn ich davon spreche, dass Materie, Raum oder Zeit nur Fiktion (Illusion) seien, ist einfach nur:

    Unsere Sinne täuschen uns eine wesentlich konkretere Existenz dieser Dinge vor als tatsächlich vorhanden.



    Unsere Sinne glauben zu verstehen, und doch verstehen sie die wahre Natur solcher Dinge einfach nur falsch.

    So lange es um so einfache Dinge wie Pakete von Potentialwellen geht, bemerken Physiker das irgend wann. Was aber, wenn es um ein so komplexes Wesen geht, wie unser Schöpfer es ist?

    Gruß, grtgrt
     

      Beitrag 2094-20
    -

     
     
    Horst in 2094-19:
    Grtgrt im Beitrag 2094-17

    Zitat:
    Unsere Sinne glauben zu verstehen, und doch verstehen sie die wahre Natur solcher Dinge einfach nur falsch.

    Hallo Grtgrt
    Hierzu besteht Erklärungsbedarf:

    Woher weißt du denn, was  die wahre Natur der Dinge  tatsächlich ist und nach welchen Kriterien stellst du fest, dass wir sie falsch verstehen?


    Wenn jemand etwas betrachtet und später — nachdem er es genauer betrachtet hat — feststellt, dass es seiner Natur nach was ganz anderes ist als das, was er zunächst dachte, dann bezeichne ich diese zweite Natur des Betrachteten als die, die der Wahrheit näher kommt. (Ob das dann schon wirklich die  l e t z t e  Wahrheit ist, bleibt natürlich stets offen).

    Dass die zweite, die  w a h r e r e  Natur, die wir so entdeckt haben, tatsächlich das wirkliche Wesen dessen, was wir da betrachten, treffender beschreibt, ist bewiesen, sobald man verstanden hat, wie sich der ursprüngliche Eindruck aus dem, was das Ding jetzt auf den zweiten Blick darstellt, ableitet.


    Zitat:
    Zitat von grtgrt:
     
    So lange es um so einfache Dinge wie Pakete von Potentialwellen geht, bemerken Physiker das irgend wann.
    Was aber, wenn es um ein so komplexes Wesen geht, wie unser Schöpfer es ist?

    Und wieso besteht so ein komplexes Wesen aus Liebe zu Physikern nicht auch aus Paketen von Potentialwellen?:confused:


    Diese Frage, Horst, wird dir nur jenes Wesen selbst beantworten können. Und deinen Weg, es zu fragen, wirst du selber finden müssen.

    Gruß, grtgrt
     

      Beitrag 2094-22
    -

     
     
    Horst in 2094-21:
    Grtgrt im Beitrag 2094-20

    Zitat:
    Wenn jemand etwas betrachtet und später — nachdem er es genauer betrachtet hat — feststellt, dass es seiner Natur nach was ganz anderes ist als das, was er zunächst dachte, dann bezeichne ich diese zweite Natur des Betrachteten als die, die der Wahrheit näher kommt. (Ob das dann schon wirklich die  l e t z t e Wahrheit ist, bleibt natürlich stets offen).

    Hallo Grtgrt

    Thema verfehlt,
    denn ich habe dich im Verdacht, dass du diese Erkenntnisse bei der genauen Betrachtung deiner, oder der Frauen im Allgemeinen gewonnen hast? :smiley32:

    Gruß Horst


    Hi Horst,

    die Tatsache, dass aus dir ein solch wahrhaft philosophischer Vergleich kommt, scheint mir das erste überzeugende Argument dafür zu sein, dass Du wohl doch mehr sein musst als nur ein kompliziertes Paket von Potentialwellen ...

    Aber wie ich schon sagte: Der wirklich  l e t z t e n  Wahrheit können wir uns nie sicher sein.

    Beste Grüße,
    Gebhard
     

      Beitrag 2080-40
    Blockuniversum und Eternalismus

     
    Grtgrt in 2080-35:
     
    Henry in 2080-33:
     
    ... er [Einstein] war später der Ansicht, seine Raumzeit sei real, was ihn sogar soweit brachte, ein Blockuniversum als wahrscheinlich anzunehmen.


    Hallo Henry,

    es würde mich sehr wundern, wenn es eine Literaturstelle gäbe, in der Einstein selbst den Begriff "Blockuniversum" in den Mund nimmt.




    Zeitpunkte im Sinne der ART machen stets nur  l o k a l  Sinn,

    und so sind Zeitscheiben im Sinne des Blockuniversums gar keine wohldefinierten Konzepte.


     

    Hallo, Gebhard!

    "Später hatte sich Einstein den – damals noch nicht so genannten – Eternalismus ebenfalls zu eigen gemacht. 1952 betonte er im 5. Anhang zur 15. Auflage seines Buchs "Relativity: The Special and General Theory", dass es natürlicher erscheint, die physikalische Realität als eine vierdimensionale Existenz zu denken statt wie bisher als Entwicklung einer dreidimensionalen Existenz." ist ein Zitat über Einstein aus Focus online, ich kannte den Zusammenhang aus anderer Quelle, mir ist aber nicht mehr klar, woher.

    "Für uns gläubige Physiker hat die Scheidung zwischen Vergangenheit, Gegenwart und Zukunft nur die Bedeutung einer wenn auch hartnäckigen Illusion." ist ein Zitat von Albert Einstein aus dem Jahre 1955 und bezieht sich auf den Eternalismus, der als philosophiisches Konzept eine Konsequenz der SRT ist.

    Beide Zitate beziehen sich auf das "Blockuniversum".

    Was stets übersehen wird, ist, dass die Raumzeit als GESAMTHEIT real ist, und nur in diesem Zusammenhang macht auch die Auffassung des Universums als Blockuniversum tatsächlich Sinn, denn nur, wenn Vergangenheit, Gegenwart und Zukunft gleichberechtigt real sind, macht es Sinn, von einem "Blockuniversum" zu sprechen. Das hat nichts mit der "Lokalität" zu tun, sondern damit, dass unterschiedliche Beobachter sich nicht über die Gleichzeitigkeit von Ereignissen einigen können (was natürlich nicht wörtlich zu nehmen ist, denn wenn sie über die Hintergründe wissen, können sie sich auch einigen, Lorenz-Transformation) bzw. wegen der verschiedenen Weltlinien der Beobachter, die sich aus der Bewegung der Beobachter zueinander ergeben.
     

      Beitrag 2080-42
    -

     
     
    Henry in 2080-40:
     
    Was stets übersehen wird, ist, dass die Raumzeit als GESAMTHEIT real ist, und nur in diesem Zusammenhang macht auch die Auffassung des Universums als Blockuniversum tatsächlich Sinn, denn nur, wenn Vergangenheit, Gegenwart und Zukunft gleichberechtigt real sind, macht es Sinn, von einem "Blockuniversum" zu sprechen.


    Hallo Henry,

    wenn die Raumzeit als GESAMTHEIT real wäre, müssten doch vergangene und zukünftige Zustände ebenso real sein, wie der (rein örtlich) hinter mir und vor mir liegende Raum. Dann aber, so scheint mir, müsste auch Hugh Everetts Viele-Welten-Theorie richtig sein (!).

    Wer nun aber (wie z.B. ich)  n i c h t  an eine wie immer geartete Realität von Parallelwelten im Sinne Everetts glaubt, wird eher Heisenberg zustimmen, der der Meinung war, dass unsere Welt aus Vergangenheit, Gegenwart und Varianten  m ö g l i c h e r  Zukunft besteht, von denen jeweils nur  e i n e  erst zu realer Gegen­wart und dann zu einem Teil der Vergangenheit wird.

    Parallelwelten existieren dann nur als  M ö g l i c h k e i t e n  für zukünftige Formen unserer Welt, und so können sie nicht ebenso reale Existenz haben wie der Zustand der Gegenwart.

    Kurz: Eternalismus scheint mir ein gedanklicher Irrweg. Es tut mir leid zu hören, dass Einstein ihm gegen Ende seines Lebens auch anhing.

    Beste Grüße,
    und danke für deinen Hinweis auf dieses Stichwort,

    Gebhard
     

      Beitrag 2080-44
    -

     
     
    Hallo Horst,

    danke für die Blumen.

    Auch ich finde die gefundene Antwort recht überzeugend.
    Ohne dein hartnäckiges immer-wieder-Nachfragen wäre ich aber nicht dorthin gelangt.

    Danke also,
    mit besten Grüßen,
    Gebhard
     

      Beitrag 2077-2
    Raum — was genau ist das?

     
     
    Quante in 2077-1:
     
    Der Raum ist, so paradox es zunächst auch klingen mag, die gehäufte Ansammlung des Nichts!


    Von einem Raum, so denke ich, spricht man überall dort, wo es einen  A b s t a n d s b e g r i f f  gibt.

    Natürlich ist dann auch die Zeit ein Raum.

     

      Beitrag 2077-4
    -

     
     
    U...2 in 2077-3:
     
    Noch ist die Frage nicht geklärt, ob Zeit nicht einfach eine Illusion ist. Wenn dem so ist, wären all die Fragen von Quante gegenstandslos.


    Ich würde die Zeit nicht nicht als Illusion bezeichnen, wohl aber als etwas, das möglicherweise nur rein  b e g r i f f l i c h  existiert.

    Aber selbstverständlich gibt es auch Räume, die nur Modell sind (so dass man kann sich darin nicht physisch bewegen kann, sehr wohl aber gedanklich).

    Beispielsweise ist
    • das Weltall ein Raum, in dem man sich physisch bewegen kann,
    • wohingegen die Raumzeit (als physikalisches Modell des Weltalls) ein mathematisches Konstrukt ist: ein genau genommen nur begrifflich existierender Raum.


    PS: Das Beispiel » Weltall vs Raumzeit « macht uns klar, dass gerade besonders wichtige Räume oft in mindestens zwei Versionen existieren: Die eine kann man physisch durchwandern, die andere nur gedanklich. Da jedes Lebewesen altert — sprich: sich seinem Tode nähert — ist die Zeit wohl doch etwas, das man auch physisch durchwandert.

    Aber natürlich sind Quantes Fragen auch — und insbesondere — für alle interessant, die die Zeit nur als gedankliche Hilfskonstruktion sehen. Wie sonst könnten wir sicher sein, unser Modell der Zeit so gewählt zu haben, dass es uns maximal viel hilft?


     

      Beitrag 2077-18
    -

     
    Grtgrt in 1595-40:
     
    Bauhof in 1595-39:
    Hallo Grtgrt,

    1. Durch eine Theorie kann niemals "die Wahrheit herauskommen". Warum? Weil keine (physikalische) Theorie beweisbar ist, sondern nur widerlegbar. Auch wenn 1000 Experimente eine Theorie belegen, ein einziges Experiment kann sie später widerlegen.

    2. Der Bayesche Ansatz mag zwar gut geeignet sein, herauszufinden, welche Theorie am wahrscheinlichsten die bessere Theorie ist. Aber primäre Grundvoraussetzung für die Wissenschaftlichkeit ist, dass eine (physikalische) Theorie an der Erfahrung scheitern können muss.


    Im Prinzip, Eugen, gebe ich dir recht.

    Aber was genau wäre denn nun wirklich ein Beweis? Wo immer man (auch in der Mathematik) zu "Beweisen" kommt, ist die Wahrscheinlichkeit, dass sich ein nicht entdeckter Fehler eingeschlichen hat, nicht wirklich Null — sie kann nur beliebig klein gemacht werden.

    In anderen Wissenschaften, etwa der Physik, ist dieses Verkleinern der Irrtumswahrscheinlichkeit viel schwieriger, und so spricht man dort nicht vom Beweisen der Theorie, sondern nur vom Belegen ihrer Richtigkeit: Man sammelt Indizien, die die Wahrscheinlichkeit erhöhen, dass sie unter gewissen Voraussetzungen richtige Vorhersagen macht. Auch hier aber git, dass die Wahrscheinlichkeit für das Zutreffen der Theorie, dem Wert 1 beliebig nahe kommen kann, ihn aber natürlich nie erreicht (was umge­kehrt bedeutet, dass die Wahrscheinlichkeit dafür, dass die Theorie falsche Aussagen macht, zwar beliebig klein, aber niemals zu Null gemacht werden kann).

    Der Unterschied zwischen Beweisen und Belegen ist demnach nur ein gradueller — aber natürlich dennoch ein ganz gewaltiger!

    Gruß,
    grtgrt
     

    Wenn das so ist, dann kann ich für die Endlichkeit des Raums auch nur die Richtigkeit belegen, bzw widerlegen.
    letzten Endes dürfte ich die Aussage auch auf SRT, ART, die absolute Konstanz der Lichtgeschwindigkeit etc. anwenden, oder ?!?
    Ich kann nur Indizien sammeln, die die Richtigkeit belegen.

    Zitat von Bauhof:
    Auch wenn 1000 Experimente eine Theorie belegen, ein einziges Experiment kann sie später widerlegen.

     

      Beitrag 2077-19
    -

     
     
    Hans-m in 2077-18:
     
    Wenn das so ist, dann kann ich für die Endlichkeit des Raums auch nur die Richtigkeit belegen, bzw widerlegen.
    letzten Endes dürfte ich die Aussage auch auf SRT, ART, die absolute Konstanz der Lichtgeschwindigkeit etc. anwenden, oder ?!?

    Ich kann nur Indizien sammeln, die die Richtigkeit belegen.

    Ja, das stimmt.

    In der Physik und manchen Beispielen — wie etwa SRT und ART — kommt natürlich noch dazu, dass solche Theorien bis zu gewisser Genauigkeit hin durchaus richtig, im wirklich genauen Sinne dann aber doch falsch sein können.

     

     Beitrag 0-532
    Lebewesen sind — noch unvollkommene — Sinnesorgane der Wirklichkeit

     
     

     
    Lebewesen sind Sinnesorgane der Wirklichkeit,

    mit denen sie sich selbst beobachtet

    wie durch winzige schmutzige Fensterscheiben

     
     
    Das einzige, von dem wir wissen können, dass es existiert — da wir ja damit umgehen — ist unsere Vorstellung von Wirklichkeit.
     
    Ob diese Vorstellung nun aber uns selbst oder anderes so zeigt, wie wir oder es tatsächlich sind, ist keineswegs garantiert.
     
    Jedes Lebewesen (jedes Gehirn) ist sozusagen Sinnesorgan der Wirklichkeit, mit dessen Hilfe sie sich selbst — in jeweils nur kleinen Ausschnitten — wahrnimmt.

      Etwas wahrzunehmen aber bedeutet, von ihm ausgesandte Signale zu empfangen und zu interpretieren.
       
      Wie zutreffend diese Interpretation ist, bleibt offen, wird aber mindestens davon abhängig sein, wie viele der ausgesandten Signale ein Sinnesorgan tatsächlich erreichen und von ihm zur Kenntnis genommen werden können: Meist ist das zur Kenntnis Genommene nur kleiner Prozentsatz aller tatsächlich ausgesandten Signale, so dass jedes Bild B(G), das ein Gehirn G sich von Teilen T der Wirklichkeit macht, immer nur grob zutreffend sein kann.
       
      Das gilt auch, wenn G selbst Teil von T ist (ein Lebewesen sich also selbst beobachtet).
       
      Hinzu kommt noch, dass nicht alle Gehirne gleich gut darin sind, empfangene Signale zutreffend genug zu interpretieren.

     
    Fazit also:
     
    Wir kennen die Welt nur über gedankliche Modelle, die wir selbst uns von ihr machen.

      Hawking schrieb: Wir haben kein modellunabhängiges Verständnis der Wirklichkeit.
       
      Er hat recht: Für uns existiert alles nur in Form der gedanklichen Modelle, welche Signalinterpretation uns nahe legt. Konkreter als diese gedanklichen Bilder existiert nur der Absender der Signale: eine uns unbekannte Wirklichkeit, von der wir einzig und allein wissen, dass wir selbst Teil davon sind und das einschließlich all unserer — nicht selten widersprüchlichen — Vorstellungen von ihr: Bilder, wie sie entstehen, da wir uns und unsere Umgebung nur an Hand unserer noch recht unvollkommenen Sinne (verschmutzten Spiegeln vergleichbar) betrachten und beobachten können.
       
      Diese Einsicht ist genau das Gegenteil von dem, was Markus Gabriel uns weis zu machen versucht in seinem Buch » Warum es die Welt nicht gibt (2013) «.


     

     Beitrag 0-429
    Zur wahren Natur der Realität, in der wir leben

     
     

     
    Zur Natur der Realität, in der wir leben

     
     
    Die Realität, in der ein Mensch lebt, ist nichts anderes als die Summe aller Bedeutung, die sein Gehirn Nachrichten zuordnet, die ihm zugestellt werden.
     
    Das Interessante dabei ist:
       
    • Nachrichten entstehen als Nachrichten der Wirklichkeit (d.h. als abstrakte Information),
       
    • wurden dann aber — auf dem Weg hin zu unserem Gehirn — oft schon durch viele andere Gehirne vorinterpretiert ( und teilweise auch uminterpretiert ).

    Damit ist die Realität, in der ein Mensch lebt, nicht nur durch die Wirklichkeit bestimmt, sondern stets auch mit geprägt durch Gehirne, die nicht sein eigenes sind:
     
    Die Realität, in der wir leben, gleicht demnach einem Ameisenhaufen, der ja auch nicht das Werk einer einzelnen Ameise ist, sondern das Werk der Gemeinschaft aller Ameisen, mit denen sie zusammenlebt.
     
    Warum wird dann Rupert Sheldrake so stark angefeindet, wenn er die Frage in den Raum stellt, ob es nicht ein kollektives Gedächtnis gibt und unsere Gehirne lediglich die Werkzeuge sind, mit denen es aufgebaut, verwaltet, befragt und über den Tod einzelner Gehirne hinaus existent erhalten wird?

     

     Beitrag 0-448
    Realität ist die Sprache, in der wir die Natur befragen

     
     

     
    Realität — konstruiert durch unser Denken — ist die Sprache,

    in der wir die Natur befragen

     


    Ilya Prigogine (1980, 1986):
     
    Es muss unterschieden werden zwischen
       
    • den unmittelbaren Eindrücken, die wir von der Außenwelt empfangen, und
       
    • der objektiven, » rationalen « Erkenntnis.

    Letztere ist nicht passiv: Sie schafft sich ihre Gegenstände.
     
    Wenn wir ein Phänomen zum Gegenstand der Erfahrung machen, nehmen wir a priori vor jeder wirklichen Erfahrung an, dass es einer Reihe von Prinzipien gehorcht (z.B. denen, die wir als Naturgesetze sehen).
     
    Insofern das Phänomen als möglicher Erkenntnisgegenstand wahrgenommen wird, ist es Produkt der synthetischen Tätigkeit unseres Geistes.
     
    Wir sind vor den Gegenständen unserer Erkenntnis da, und der Wissenschaftler ist selbst Quelle der universellen Gesetze, die er in der Natur entdeckt.
     
     
    Die Natur insgesamt wird zu Recht jenen Gesetzen unterworfen, welche Wissenschaftler in ihr entziffern.
     
    Die Wissenschaft wird zwar nicht immer dieselbe Antwort, aber doch immer die gleiche Form der Antwort erhalten.
     


     
    Quelle: Ilya Prigogine, Isabelle Stengers: Dialog mit der Natur — Neue Wege naturwissenschaftlichen Denkens, Serie Piper, S. 93-96


     

     Beitrag 0-269
    Beispiele für die Unwirklichkeit aller Realität

     
     

     
    Beispiele für die Unwirklichkeit von Realität

     
     
    Der Neurowissenschaftler Karl Pribram argumentierte so:


    Pribram (1989):
     
    Die wahrnehmbare Glätte feinen Porzellans und das Gefühl des Sandstrands unter unseren nackten Füßen entstehen ebenso wie Phantomschmerz.
     
    Dies bedeutet aber nicht, dass es da draußen keine Porzellantassen oder Sandkörner gäbe. Es bedeutet nur, dass eine Porzellantasse unter­schiedliche Wirklichkeitsaspekte hat:
       
    • Gefiltert durch das "Linsensystem" unseres Gehirns manifestiert sie sich als Tasse.
       
    • Könnten wir uns aber von diesem Linsensystem befreien, würden wir sie als Interferenzmuster wahrnehmen [ gegeben
      als Summe aller Feldanregungen, die Elementarteilchen darstellen ].

    Welche dieser beiden Gestalten ist real und welche nur Illusion? Für mich sind beide real oder, wenn Sie so wollen, keine von beiden.
     


    Die Erkenntnis, dass erst unser Gehirn Objekte konstruiert — im oben erklärten Sinne — verblasst neben einer Schlussfolgerung, die der Quantenphysiker Bohm gezogen hat: Er nämlich ist davon überzeugt, dass wir sogar Raum und Zeit konstruieren. Die Relativität beider scheint das zu bestätigen.

     
     
    Quelle: M Talbot: Das holographische Universum (1992), S. 65-66


     

     Beitrag 0-21
    Das Wesen physikalischer Realität

     
     

     
    Zum Wesen physikalischer Realität

     
     
    John Archibald Wheeler — ein besonders visionärer Vertreter der Theoretischen Physik im 20. Jahrhundert — war der Meinung, eines Tages würde sich die gesamte Physik in der Sprache der Information verstehen lassen.
     
     
    Das durch ihn geprägte Schlagwort » It from Bit « steht für die Idee, dass jeder Gegenstand der physikalischen Welt an seiner Basis eine nicht-materielle Quelle und Erklärung hat. Was wir Realität nennen entstehe letztlich aus Ja-Nein-Fragen und dem Glauben an die Richtigkeit der von der Natur darauf erhaltenen Antworten.
     
    Auf dieses Weise, so Wheeler, seien alle physikalischen Dinge ihrem Ursprung nach informationstheoretischer Art und das in einen partizipatorischen Universum (womit er eine Welt meint, die nicht nur uns hervorbringt und formt, sondern die umgekehrt auch wir hervorbringen und mit gestalten).
     
    Anton Zeilinger — der mit Sicherheit erfolg­reichste und produktivste Quantenphysiker der Gegenwart — konkretisiert diesen Gedanken, indem er sagt
     
    » Jedes der elementarsten Systeme trägt genau ein Bit an Information «.

     
    Mit anderen Worten:

     
    Was wir als die reale Welt erleben, in der wir leben, ist nichts anderes als durch uns als wahr eingestufte Information.
     
    Wir erhalten sie als
     
     u n s e r e  Interpretation von Nachrichten (= Bitfolgen),
     
    deren jede die Natur uns als Antwort zustellt, wenn wir sie beobachten, d.h. ihr eine Ja-Nein-Frage stellen.
     
    Jedes dieser Bits entsteht durch Kollabieren eines QuBits, so dass sein Wert sich zufällig,
    aber doch unter Verträglichkeit mit gewissen Wahrscheinlichkeiten ergibt:
    Zu Realität wird genau eine von zwei durch unsere Frage noch offen gelassener Möglichkeiten.

     
     
    Man könnte es auch so sagen:
     
     
    Was wir als Realität empfinden, ist eine Menge mit JA oder NEIN beantworteter Fragen.

     


    Der Quantenphysiker Hans-Peter Dürr schrieb:
     
    Alles, was wir durch Beobachtungen oder durch Abstraktion unserer Wahrnehmungen als Wirklichkeit betrachten und in der Naturwissenschaft als (stoffliche) Realität beschreiben, darf in dieser Form nicht mit der eigentlichen Wirklichkeit gleichgesetzt werden.
     



     

     Beitrag 0-37
    Zeit, Mathematik und Realität

     
     

     
    Zeit, Mathematik und Realität



    Harti in 2155-13
     
    Hallo Okotombrok und Hans-m
     
    Man kann natürlich den 2.Haupsatz der Thermodynamik (Entropiesatz) zum Inhalt des Begriffs der Zeit machen; dann hat die Zeit eine Richtung in dem Sinn, dass sie sich in Richtung Zunahme der Entropie bewegt. Dies ist aber nicht besonders praktisch und spielt wohl bei der Bestimmung von "vorher" (Vergangenheit) und "nachher" (Zukunft) normalerweise keine Rolle. "Vorher" und "Nachher" ( Richtung der Zeit) werden im allgemeinsprachlichen Verständnis allein durch die kausalen Geschehensabläufe bestimmt. Die Kindheit eines Menschen ist "vorher" und das Erwachsenenalter "nachher".
     
    Die Vorstellung von Zeit hat sich derartig verselbständigt, dass uns nicht bewußt ist, dass wir Vergangenheit und Zukunft im Prinzip über kausales Geschehen definieren. Dies ist allgemeinsprachlich kein Problem, führt aber naturwissenschaftlich zu Verwunderung, indem man nicht versteht, warum die mathematisch formulierten Naturgesetze "zeitinvariant" sind. Die Zeit hat in diesen Naturgesetzen eben keine Richtung. Richtiger müsste es deshalb heißen:
     
    Die Naturgesetze sind kausalitätsinvariant. Sie schließen z.B. prinzipiell nicht aus, dass die zerbrochene Tasse sich wieder zusammensetzt und auf den Tisch springt.
     



    Kletzenbauer darauf in 2155-14
     
    Eher ist die Mathematik kausalitätsinvariant und realitätsinvariant. Wenn sich nämlich in einem Raum 3 Leute aufhalten, und 5 Leute verlassen ihn, dann müssen 2 Leute reingehen, damit der Raum leer ist.
     



    Stueps darauf in 2155-15
     
    Mathematik hat mit Realität fast nichts zu tun. Das wird jeder Informatiker unterschreiben.
     


     
    Stueps liegt da aber falsch, denn ich — der ich ja Informatiker und Mathematiker bin — weiß, dass mathematische Gesetze uns Wirkliches beschreiben:
    Wir sind gewohnt, durch sie beschriebene Wirklichkeit als Realität anzuerkennen ( wohingegen wir wissen, dass i.A. Reales eben  n i c h t  auch Wirkliches ist ).
     
    Mein Verdacht:
     
    Mathematische Gesetze könnten die einzigen Naturgesetze sein
     
    ( oder wenigstens die einzigen, die uns Wirkliches als Realität zu zeigen in der Lage sind ).


     

     Beitrag 0-5
    Es gibt mathematischen, aber sicher keinen physikalischen Realismus

     
     


    Rebecca Goldstein
     
    Gödels Auffassung, dass die mathematische Wirklichkeit objektiv existiert, wird als Begriffsrealismus, als
     
     
    Mathematischer Realismus

     
    oder mathematischer Platonismus bezeichnet.
     
    Viele Mathematiker sind mathematische Realisten gewesen, und selbst jene, die sich nicht als solche bezeichnen, bekennen sich implizit zum Realismus, indem sie ihre Arbeiten als » Entdeckungen « beschreiben.
     
    Der hoch angesehene Mathematiker G.H. Hardy (1877-1947) formulierte seine platonische Überzeugung in seinem Klassiker A Mathematician's Apology sehr deutlich so:


    G.H. Hardy
     
    Ich glaube, dass die methematische Wirklichkeit außerhalb unseres Geistes existiert, dass es unsere Aufgabe ist, sie zu entdecken bzw. zu beobachten, und dass die Theoreme, die wir beweisen und hochtrabend unsere » Entdeckungen « nennen, schlicht Aufzeichnungen unserer Beobachtungen sind. ...
     
    Diese realistische Anschauung ist für die mathematische Wirklichkeit viel plausibler als für die physikalische, da bei mathematischen Objekten Schein und Sein weitgehend zusammenfallen:
    • Ein Stuhl oder ein Stern sind nicht im mindesten, was sie zu sein scheinen: Je gründlicher wir darüber nachdenken, um so verschwommener werden ihre Konturen im Dunstschleier der Sinnesempfindungen, der sie einhüllt.
    • Aber » 2 « oder » 317 « haben nichts mit Empfindungen zu tun; Ihre Eigenschaften treten um so deutlicher hervor, je gründlicher wir sie untersuchen. 317 ist eine Primzahl, nicht weil wir das meinen oder weil dies den Strukturen unseres Denkens entspräche, sondern weil es so ist, weil mathematische Wirklichkeit nun einmal so beschaffen ist.
       


    Ein Mathematiker nach dem anderen hat — wie Hardy — seine platonische Auffassung bekräftigt, wonach mathematische Wahrheiten entdeckt und nicht erfunden werden ...
     
    Gödels metamathematische Anschauung, sein fester Glaube an die objektive, vom menschlichen Denken unabhängige Existenz der mathematischen Wirklichkeit, stellt vielleicht die Qintessenz seine Lebenswerkes dar ...
     

    Quelle: Rebecca Goldsteins Gödel-Biographie ( Piper Taschenbuch 2005, S. 43-46 )

     
     
     
     
    Es gibt keinen physikalischen Realismus (!)

     
     
    Dass zu dieser Überzeugung zunächst Parmenides, später aber auch Kant und Niels Bohr kamen, wusste ich. Gerade eben aber lese ich bei Josef Honerkamp, dass es auch auch Hawking so sieht und Honerkamp — selbst ein Physiker — derselben Meinung ist:

    Honerkamp (2010)
     
    Ein wichtiger Punkt, den Hawking in aller Klarheit betont, ist der, dass es seiner Meinung nach keinen theorieunabhängigen Realitätsbegriff gibt.
     
    Diese Aussage beschreibt genau das, was Physiker im Umgang mit den physikalischen Theorien immer wieder erfahren.
     


    Note: Honerkamp ist emeritierter Professor für Theoretische Physik und Autor einiger sehr lesenswerter Bücher.
    Für jeden verständlich ist mindestens Die Entdeckung des Unvorstellbaren: Einblicke in die Physik und ihre Methode (2010).


     

     Beitrag 0-424
    Wie sich Realität von Wirklichkeit unterscheidet — 2 Beispiele

     
     

     
    Die Realität, in der wir leben ...
     
    ... ist die Summe aller Bedeutung, die wir Signalen zuordnen, die uns erreichen.

     
     
    Wie wenig wir in wirklicher Welt leben zeigen folgende Beobachtungen:
       
    • Farbe das beste Beispiel dafür, dass wir die Welt eben NICHT so wahrnehmen, wie sie ist:
       
       
      Was unser Auge erreicht, ist elektromagnetische Strahlung gewisser Wellenlänge.
       
      Erst unser Gehirn setzt die ankommende Wellenlänge um in einen Farbeindruck.

       

       
    • Materie das andere wichtige Beispiel: Wie die Quantenphysik zeigt, existiert z.B. jeder Stein (und auch jeder Beobachter des Steins) physisch nur als unglaublich kompliziertes Paket harmonischer Wellen im Feld der physikalischen Grundkräfte. Hans Peter Dürr hat das auf den Punkt gebracht, indem er schrieb:
       
       
        Ich habe als Physiker 50 Jahre lang — mein ganzes Forscherleben — damit verbracht zu fragen, was eigentlich hinter der Materie steckt.
         
        Des Endergebnis ist ganz einfach:
         
        Es gibt keine Materie!

       
      Gemeint damit hat er natürlich:
       
      Was ihr als Materie wahrzunehmen glaubt, ist etwas ganz anderes, als ihr denkt:
       
       
      Jedes Stück Materie ist einfach nur ein hoch kompliziertes Feld physikalischer Kräfte.

       
      Lies mehr dazu in: Warum Hans-Peter Dürr zu Unrecht der Esoterik verdächtigt wurde.


     

      Beitrag 2060-4
    Wo beginnt schützenswertes (menschliches) Leben?

     
    Es geht hier letztendlich um die Frage: Wann beginnt das Leben.
    Da streiten sich Theologen, Politiker und sonstige, die meinen ein Mitspracherecht zu haben.
    Ist ein Embryo bereits ein Mensch, der recht auf Leben hat?
    Was ist, wenn ich ein Kondom benutze? Habe ich nicht dann bereits einem Menschen das Recht auf Leben verwehrt?
    Was ist mit der "Pille danach"? Kurz gesagt: Wo beginnt das Recht des neuen Lebens?

    Vielleicht wäre eine offizielle Legalisierung der Babyklappe die Lösung, die bisher noch eine rechtliche Grauzone ist.
    Dann würden Abtreibungen überflüssig, denn jedes Leben könnte geboren werden und ein angemessenes Leben in einer Pflege- oder Adoptivfamilie führen.
    Dann aber würde die Verantwortung zur Verhütung für manche Nebensache und es kämen Kinder am laufenden Band. Das wäre auch keine Lösung.

    U...2 in 2060-3:
    Zitat:
    ich möchte nicht in der Lage einer Frau sein, die sich einer solchen Entscheidung stellen muss.

    Ich auch nicht. Genau so wie ich hoffe, dass ich niemals gefragt werde, ob ich Sterbehilfe leiste.
    dem Stimme ich zu.
     

      Beitrag 2060-6
    Welches Recht auf Leben hat Leben welcher Art?

     
     
    Hans-m in 2060-4:
     
    Was ist, wenn ich ein Kondom benutze? Habe ich nicht dann bereits einem Menschen das Recht auf Leben verwehrt?


    Sicher NICHT, denn hierdurch wird ja nur beeinflusst, welche der potentiell möglichen Varianten von Zukunft tatsächlich mal real werden wird.

    Von zueinander konkurrierenden Varianten kann stets nur genau  e i n e  zu realer Gegenwart werden, und was sie für noch weiter in der Zukunft liegende Varianten bedeutet, ist völlig unklar. Beispiel: Wie vielen Menschen wäre Tod und noch Schlimmeres erspart geblieben, wenn Hitler oder Stalin niemals geboren worden wären?

    Kurz: Meiner Ansicht nach beginnt das Problem erst dort, wo sich zwei Zellen zusammengefunden haben in der Absicht, ein Lebewesen werden zu wollen.
    Ich sage absichtlich "Lebewesen", denn so ganz selbstverständlich erscheint es mir nicht, dass nur Lebewesen vom Typ Homo Sapiens ein Recht auf Leben haben sollten.

    Vielleicht ist ja die Portion Leben, die irgendein Lebewesen darstellt aus Sicht der Natur vergleichbar mit einer Münze in einem großen Berg von Geld, in dem sich kleinere und größere Münzen oder sogar Scheine verschiedenen Wertes finden können. Die Tatsache, dass derartige Stücke unterschiedlichen Wert haben bedeutet ja nicht, dass sie von grundsätzlich verschiedener Qualität sind (in ihrer Rolle als Zahlungsmittel oder als Besitz, den es zu erhalten gilt).

    Und wer sagt uns, dass es nicht irgendwo im Universum Leben geben könnte, aus dessen Sicht Homo Sapiens ebenso unbedeutend ist wie ein Bakterium aus Sicht von Homo Sapiens? Und warum sollte sich der Wert unterschiedlichen Lebens denn überhaupt in eine lineare Ordnung "steigender Wert" bringen lassen? Würden wir einem Menschen auf einen Schlag all seine Darmbakterien nehmen können, würde er doch wohl gar nicht mehr lebensfähig sein - oder?

    In der Summe gilt:

    Homo Sapiens denkt, einen Maßstab zu haben, nach dem bestimmtes Leben mehr oder weniger wert ist. Leider ist dieser Maßstab noch viel zu wenig bedacht und definiert worden — bisher besteht er ja in kaum mehr als der Annahme, dass allein menschliches Leben, das schon bewegungsfähig ist, ein Anrecht auf Leben hat. Und genau dieser Grundsatz geht auf Religion zurück, hat also eine Wurzel, die heute ein Großteil aller Menschen gar nicht mehr so richtig ernst nehmen möchte.

    Wo also bleibt die Logik in dieser ganzen Diskussion um den Wert bestimmten Lebens?

    In der Vergangenheit jedenfalls hat man immer gehandelt nach dem Prinzip: » Ein Recht auf Leben hat nur, was mir hinreichend ähnlich ist. «
    Machen wir es heute wirklich besser?

     

      Beitrag 2060-15
    Das gängige und das (vielleicht?) bessere Prinzip unseres Handelns

     
     
    Hans-m in 2060-8:
    Grtgrt in 2060-6:
     
    In der Vergangenheit jedenfalls hat man immer gehandelt nach dem Prinzip: » Ein Recht auf Leben hat nur, was mir hinreichend ähnlich ist. «

    Den negativen Höhepunkt hatte dieses "Maßstabnehmen" in der Nazizeit.


    Ja, das ist ein sehr treffendes Beispiel dafür, was der Ansatz » Ein Recht auf Leben hat nur, was mir hinreichend ähnlich ist. « alles anrichten kann.

    Das darf uns aber nicht glauben lassen, dass es nicht auch Situationen gäbe, in denen er vernünftig ist: Wir dürften sonst ja z.B. keinerlei Fleisch essen oder keinen Hund, der kaum noch gehen kann, einschläfern lassen.


    Was uns der Vergleich dieser beiden Beispiele zeigt, ist demnach:

    Jenes Prinzip zum Kern der Richtschnur unseres Handelns zu machen, ist falsch — wir brauchen einen ganz anderen Denkansatz, z.B. den, der Hans-Peter Dürr vorschwebt, wenn er den dringenden Verdacht äußert, dass alles, was in unserer Welt existiert — uns eingeschlossen — als Extremität eines einzigen großen Ganzen gesehen werden muss: als ein kleiner Teil jenes Ganzen, der stets so handeln sollte, dass das Ganze nicht beschädigt wird (weil man sich sonst ja letztlich auch selbst beschädigt).

      Mir fällt da folgender Vergleich ein: Keiner von uns würde sich selbst ein Auge ausstechen, aber jeder von uns schneidet sich hin und wieder die Haare oder die Fingernägel.
      Es kommt also letztlich darauf an, dass man einen Teil des großen Ganzen umso weniger beschädigen darf, je mehr dieser Teil für das Ganze wichtig ist oder werden könnte. Und wie wichtig ein Mitmensch für andere oder vielleicht sogar die gesamte menschliche Gemeinschaft werden kann (möglicherweise erst durch irgendwelche seiner Nachfahren), ist überhaupt nicht abschätzbar.

    Vielleicht also könnte man es so sehen:

    Der Wert eines Menschen für die Gemeinschaft,
    auch eines noch ungeborenen oder eines extrem schwer behinderten Menschens,
    ist vor allem darin zu sehen, dass er das  P o t e n t i a l  hat, für andere — wie indirekt auch immer — wertvoll zu sein.


    Natürlich entspricht auch dieses Prinzip letztlich nur dem selbstsüchtigen Wunsch, möglichst gut wegzukommen — er geht in diesem Fall aber  n i c h t  auf Kosten anderer! Und genau das ist der Unterschied, auf den es ja auch aus moralischer Sicht heraus ankommt.

     

      Beitrag 2060-20
    -

     
     
    Stueps in 2060-18:
    Hallo Leute,

    interessant finde ich, dass sich hier ausschließlich Männer über dieses Thema auslassen.

    Nichts und niemand ist in der Lage, sich in eine werdende Mutter (Geschlecht: weiblich) hineinzuversetzen, außer eine werdende Mutter (Geschlecht: weiblich).
    Wir Männer (Geschlecht: männlich, jedenfalls auf dem Papier so definiert) werden niemals, nie und auch so gar nicht, also überhaupt im ganzen Leben nicht, nie, und auch nochmals so gar nicht niemals vor so eine Entscheidung gestellt.

    Und weil wir dahingehend niemals, also gar nicht, wirklich niemals mitreden können, halten wir doch mal so ganz gepflegt die Klappe. Denn wir akzeptieren die Frau, so wie sie ist, in ihren wichtigsten Lebensentscheidungen.
    Oder sind wir Männer etwa doch klüger, reiner und wertvoller in unseren Entscheidungen als die Frau? Na denn...
     


    Hi Stueps,

    was Du sagst, ist sicher richtig. Dennoch sollte man nicht übersehen, dass es da noch einen dritten Beteiligten gibt — die Person nämlich, der man verwehrt, überhaupt erst eine zu werden. Wenn so was passiert nach dem Grundsatz

    » Ein Recht auf Leben hat nur, was nicht droht, mir im Wege zu stehen. «


    dann finde ich das schon problematisch.

    Womit ich aber keineswegs andeuten möchte, dass jede Frau, die abtreibt, nach diesem Prinzip handelt.
    Abtreibung grundsätzlich auszuschließen, scheint mir nicht richtig.


     

      Beitrag 2060-21
    -

     
    Stueps in 2060-18:
    Nichts und niemand ist in der Lage, sich in eine werdende Mutter (Geschlecht: weiblich) hineinzuversetzen, außer eine werdende Mutter (Geschlecht: weiblich).
    Wir Männer (Geschlecht: männlich, jedenfalls auf dem Papier so definiert) werden niemals, nie und auch so gar nicht, also überhaupt im ganzen Leben nicht, nie, und auch nochmals so gar nicht niemals vor so eine Entscheidung gestellt.

    Wir können aber durch unser Verhalten auf die Frau einwirken.
    Wir können unsere Unterstützung und unsere Verantwortung für das neue Leben übernehmen, oder aber die Frau mit einem womöglich ungewollten Nachwuchs im Stich lassen.
    Somit hat der Mann zumindest eine moralische, wenn auch keine rechtliche (Mit-)Verantwortung wenn die Frau sich für oder gegen eine Abtreibung entscheidet
     

      Beitrag 2060-31
    -

     
     
    Hans-m in 2060-27:
     
    Gezielt beenden heisst für mich töten, und das Recht hat wohl niemand.

    Richtig: Genau das heißt es — und deswegen finde ich die Formulierung » Wo beginnt unser Recht, noch ungeborendes Leben gezielt zu beenden « viel deutlicher als die gängige Fornulierung von der Abtreibung bzw. dem Schwangerschaftsabbruch.

     

      Beitrag 2060-37
    Noch Mensch oder schon weitgehend ein Computer?

     
     
    U...2 in 2060-36:
    Hans-m in 2060-35:
     
    Der Mensch als Ware, mir graut vor dem Gedanken, was noch alles machbar sein wird.


    Ja, Hans mir graut es auch. Aber was hilft es? Alles was möglich ist, wird gemacht. Wichtig ist, dass man sich selber nicht moralisch verbiegen lässt und solche Praktiken für sich selbst ausschließt.


    Es könnte gut sein, dass in einigen hundert Jahren Menschen, die  n i c h t  per Gentechnik "verbessert" wurden, den anderen gegenüber gar nicht mehr konkurrenz­fähig sind.

    Gleiches wird für Menschen gelten, die sich (als Individuum) weigern, zum großen Teil aus elektonischen bzw. elektronisch gesteuerten Ersatzteilen zu bestehen oder aus künstlich erzeugten, regelmäßig austauschbaren Organen oder Körperteilen.

    Der Mensch, das zeichnet sich ab, wird — sofern er Wert auf einen bestmöglich funktionierenden Körper legt (und wer tut das nicht?) — wohl wirklich mit dem Computer verschmelzen.

     

     Beitrag 0-246
    Was ist Religion?

     
     

     
    Was ist Religion?
     
     
    Religion ist der — stets individuell geprägte — Versuch,
     
    selbst dort noch Antworten zu finden, wo Wissenschaft und nackte Logik sie ganz prinzipiell nicht geben können.


     

     Beitrag 0-273
    Wie sich — nach Heisenberg und Planck — Religion von Naturwissenschaft unterscheidet

     
     

     
    Was Religion von Naturwissenschaft unterscheidet

     
     
    Auf der Solvay-Konferenz 1927 — so erinnert sich Heisenberg — wurde er einmal von gleichaltrigen Kollegen gefragt:
     
    Es gibt doch Äußerungen von Planck über das Verhältnis von Religion und Naturwissenschaft, in denen er die Ansicht vertritt, dass es keinen Widerspruch zwischen beiden gebe — sie also sehr wohl miteinander vergleichbar seinen.
     
    Heisenberg erinnert sich, darauf in etwa wie folgt geantwortet zu haben:


    Werner Heisenberg:
     
    Ich vermute, dass für Planck Religion und Naturwissenschaft deswegen vereinbar sind, weil sie, wie er voraussetzt, sich auf ganz verschiedene Bereiche der Wirklichkeit beziehen:
       
    • Die Naturwissenschaft handelt von der objektiven materiellen Welt. Sie stellt uns vor die Aufgabe, richtige Aussagen über die objektive Wirklichkeit zu machen und ihre Zusammenhänge zu verstehen.
       
    • Die Religion aber handelt von der Welt der Werte. Hier wird von dem gesprochen, was sein soll, was wir tun sollen, nicht von dem, was ist.

     
    In der Naturwissenschaft geht es um richtig oder falsch,
     
    in der Religion aber um gut oder böse, um wertvoll oder wertlos.

     
     
    Die Naturwissenschaft ist die Grundlage des technisch zweckmäßigen Handelns, die Religion aber die Grundlage der Ethik.

     


     
    Quelle: Werner Heisenberg: Der Teil und das Ganze (1969), S. 116-117.


     

     Beitrag 0-274
    Objektiv, subjektiv, und Religion: Wie Niels Bohr darüber dachte

     
     

     
    Niels Bohr über

    objektiv, subjektiv und Religion

     
     
    Bohr warnte davor, der Wissenschaft absolute Objektivität zu bescheinigen oder — umgekehrt — religiöse Darstellungen als Märchen abzutun:

     


    Niels Bohr ( 1927 in einem Gepräch mit Heisenberg nach dessen Erinnerung ):
     
    Man muss sich vor allem darüber klar sein, dass in der Religion die Sprache in einer ganz anderen Weise gebraucht wird als in der Wissenschaft. Die Sprache der Religion ist mit der Sprache der Dichtung näher verwandt als mit der Sprache der Wissenschaft.
     
    Man ist zwar zunächst geneigt zu denken, in der Wissenschaft handle es sich um Informationen über objektive Sachverhalte, in der Dichtung um das Erwecken subjektiver Gefühle. In der Religion ist objektive Wahrheit gemeint, also sollte sie den Wahrheitskriterien der Wissenschaft unterworfen sein. Aber mir scheint die ganze Einteilung in die objektive und die subjektive Seite der Welt hier viel zu gewaltsam.
     
    Wenn in den Religionen aller Zeiten in Bildern, Gleichnissen und Paradoxien gesprochen wird, so kann das kaum etwas anderes bedeuten, als dass es eben keine anderen Möglichkeiten gibt, die Wirklichkeit, die damit gemeint ist, zu ergreifen.
     
    Aber das heißt nicht, dass sie keine echte Wirklichkeit sei.
     
    Mit einer Zerlegung dieser Wirklichkeit in eine objektive und eine subjektive Seite wird man nicht weit kommen.
     
    Daher empfinde ich es als eine Befreiung unseres Denkens, dass wir aus der Entwicklung der Physik zu Beginn des 20. Jahrhunderts gelernt haben, wie problematisch die Begriffe » objektiv « und » subjektiv « sind.
     
    Das hat ja schon mit der Relativitätstheorie angefangen: Früher galt die Aussage, dass zwei Ereignisse gleichzeitig seien, als objektive Feststellung. Heute aber wissen wir, dass zwei Ereignisse, die in den Augen eines Beobachters gleichzeitig stattfinden, für zu ihm bewegte Beobachter keineswegs gleichzeitig stattfinden müssen.
     
    Und doch ist die relativistische Beschreibung insofern objektiv, als jeder Beobachter durch Umrechnung ermitteln kann, was ein anderer Beobachter wahrnehmen wird bzw. wahrgenommen hat.
     
    Immerhin, vom Ideal einer objektiven Beschreibung im Sinne der klassischen Physik, ist das ja nun schon ein Stück weit entfernt.
     
     
    Die objektive Welt der Naturwissenschaft vor 1900 war — wie wir jetzt wissen — ein idealer Grenzbegriff, aber nicht Wirklichkeit.
     
    Es wird zwar auch in Zukunft bei jeder Auseinandersetzung mit der Wirklichkeit notwendig sein, die objektive und die subjektive Sicht zu unterscheiden, d.h. einen Schnitt zwischen beiden Seiten zu machen. Aber die Lage dieses Schnittes kann von der Betrachtungsweise abhängen und kann bis zu einem gewissen Grad willkürlich gewählt werden.
     
    Daher scheint es mir auch durchaus begreiflich, dass über den Inhalt von Religion nicht in einer objektivierenden Sprache gesprochen werden kann. Die Tatsache, dass verschiedene Religionen solchen Inhalt in unterschiedlichen geistigen Formen zu gestalten versuchen, bedeutet keinen Einwand gegen den wirklichen Kern der Religion.
     
    Es sind eher komplementäre Betrachtungsweisen, die — wenn wörtlich genommen — einander ausschließen, die aber doch erst in ihrer Gesamtheit einen Eindruck vom Reichtum vermitteln, der von der Beziehung der Menschen zu einem größeren Zusammenhang ausgeht.

     


     
    Quelle: Werner Heisenberg: Der Teil und das Ganze (1969), S. 122-124.

     
     
    Note: Bohr hat — wie Einstein auch — an keinen persönlichen Gott geglaubt. Umso erstaunlicher ist, dass er — im Gegensatz zu Atheisten — religiöse Aussagen nicht grundsätzlich als sinnlos verwarf. Er glaubte an einen umfassenden Sinnzusammenhang, der sich in solchen Aussagen äußern könne.
     
    Konkret hat er das (1927, Heisenberg gegenüber) ausgedrückt wie folgt:
     
      "Von jeder bewusst vollzogenen Entscheidung geht für den Einzelnen eine Kraft aus, die ihn in seinem Handeln leitet, ihm über Unsicherheiten hinweghilft und ihm, wenn er leiden muss, den Trost spendet, den das Geborgensein in dem großen Zusammenhang gewähren kann. So trägt die Religion zur Harmonisierung des Lebens in der Gemeinschaft bei, und es gehört zu ihren wichtigsten Aufgaben, in ihrer Sprache der Bilder und Gleichnisse an den großen Zusammenhang zu erinnern." ( S. 117)
       
      "Auch dieser Sinnzusammenhang gehört zur Wirklichkeit, ebenso wie die naturwissenschaftliche Bedingtheit, und es wäre wohl eine viel zu grobe Vereinfachung, wenn man ihn ausschließlich der subjektiven Seite der Wirklichkeit zurechnen wollte."
      (S. 118)


     

     Beitrag 0-276
    Die Metaphysik des Niels Bohr (auch anwendbar auf religiöse Aussagen)

     
     

     
    Zur Metaphysik des Niels Bohr

     
     
    Niels Bohr — Mitbegründer der Quantenphysik — liebte besonders den Schluss von Schillers Gedicht » Spruch des Konfuzius «, der da lautet:
     
     
    » Nur die Fülle führt zur Klarheit, und im Abgrund wohnt die Wahrheit. «

     
     
    Bohr erklärte wie folgt, warum der diesen Spruch so treffend findet:


    Niels Bohr (1952, wie Heisenberg sich erinnert):
     
    Die Fülle ist hier die Fülle der Erfahrung, aber auch die Fülle der Begriffe, die wir verwenden, um quantenphysikalische Phänomene zu beschreiben und zu deuten:
     
    Nur dadurch, dass man über die merkwürdigen Beziehungen zwischen den formalen Gesetzen der Quantentheorie und den beobachteten Phänomenen immer wieder mit verschiedenen Begriffen spricht, sie von allen Seiten beleuchtet, ihre scheinbaren inneren Widersprüche sich bewusst macht, kann die Änderung in der Struktur des Denkens bewirkt werden, die Voraussetzung für ein Verständnis der Quantentheorie ist.
     
    Es wird doch z.B. immer wieder gesagt, dass die Quantentheorie unbefriedingend sei, weil sie nur gestattet, Quanten anhand der sich doch eigentlich ausschließenden Begriffen » Welle « und » Teilchen « zu beschreiben.
     
    Und so ist die Quantentheorie Beispiel dafür, dass man einen Sachverhalt in völliger Klarheit verstanden haben kann und gleichzeitig doch weiß, dass man nur in Bildern und Gleichnissen von ihm reden kann.
     
    Die Bilder und Gleichnisse sind — im Fall der Quantentheorie — klassische Begriffe wie etwa » Welle « und » Korpuskel «. Sie passen nicht genau und widersprechen einander. Und trotzdem kann man, da man bei der Beschreibung der Phänomene im Raum der natürlichen Sprache bleiben muss, sich nur mit diesen Bildern dem wahren Sachverhalt nähern.
     
    Wahrscheinlich ist es bei anderen Problemen der Philosopie ganz ähnlich:
     
    Wir sind gezwungen, in Bildern und Gleichnissen zu sprechen, die nicht genau das treffen, was wir meinen. Wir können gelegentlich sogar Widersprüche nicht vermeiden, aber wir können uns doch mit diesen Bildern dem wirklichen Sachverhalt nähern: Der Wahrheit, die im Abgrund wohnt [wie im unendlich tiefen Trichter eines Schwarzen Lochs].
     


     
    Quelle: Werner Heisenberg: Der Teil und das Ganze (1969), S. 284-285.


     

     Beitrag 0-302
    Was Wissenschaft über Religion zu sagen weiß (bzw. heute sagt)

     
     

     
    Was Wissenschaft über Religion zu sagen weiß

     
     
    Einige Gelehrte behaupten, schon in den ersten Anfängen des Judentums habe man Gott vorrangig als zukünftiges Sein betrachtet. Dies ginge zurück auf die Stelle in der Bibel, in der Gott aus dem brennenden Dornbusch zu Moses sprach und der ihn nach seinem Namen fragte. Die in Hebräisch formulierte Antwort Gottes soll gelautet haben: » Ehyeh Asher ehyeh. « (wörtlich ins Deutsche übersetzt: ICH WERDE SEIN, DER ICH SEIN WERDE) und weiter: » So sollst du zu den Iraeliten sagen: Der ICH WERDE SEIN hat mich zu euch gesandt. «
     
    Der deutsch-jüdische Philosoph Ernst Bloch ebenso wie der katholische Schweizer Theologe Hans Küng wiesen beide darauf hin, dass dies die korrekte Übersetzung darstellt und der Gott Mose somit als "End- und Omega-Gott" aufzufassen sei.
     
    Heutige Theologen neigen zur Ansicht, die Physik könne sich nur mit endlich absehbarer Realität befassen, während die endgültige Realität — sollen wir sagen die Wirklichkeit? — ihrem Wesen nach unendlich sei (vergleichbar dem Grenzwert einer konvergenten unendlichen Reihe von Zahlen).
     
     
    Frank J. Tipler ist einer der ganz wenigen Physiker, die dies nicht gelten lassen wollen und glauben, dass die Physik sich durchaus ebenfalls mit dem Unendlichen — d.h. dem Grenzwert von allem, was absehbar ist, befassen könne.
     
    Die Mehrzahl zeitgenössischer Naturwissenschaftler aber möchte sich auf so eine Diskussion gar nicht erst einlassen, wie sich recht deutlich daran zeigt, dass das Council of the US National Academy of Sciences in einer Resolution vom 25.8.1981 festhielt:

     
     
    » Religion und Wissenschaft sind getrennte, einander ausschließende Bereiche des menschlichen Denkens,
     
    deren Darstellung in ein und demselben Zusammenhang zu einem falschen Verständnis
     
    sowohl der wissenschaftlichen Theorie als auch des religiösen Glaubens führt. «

     
     
    Tipler unterstellt Wissenschaftlern, die sich zu dieser Aussage bekennen, sie würden Religion als Gefühlsduselei einordnen, die bei so manchem einfach nur Ausdruck seiner Furcht vor dem Tode sei. [ Meiner Ansicht nach geht Tipler mit diesem Vorwurf zu weit — es gibt ja schließlich auch tief religiöse Naturwissenschaftler, die aber dennoch nicht glauben, dass religiöse und naturwissenschaftliche Aussagen von vergleichbarer Qualität seien.]
     
     
    Dennoch scheint mir, dass Tipler Recht haben könnte mit seiner Ansicht, dass auch dieser Beschluss der Akademie sich als eine Theorie erweisen könnte, die irgendwann — und dann auch aus gutem Grunde — aufgegeben werden muss.
     
    Er weist ganz richtig darauf hin, dass Antworten, die die Wissenschaft gibt, immer nur wahrscheinlich wahr sind.
       
    • Das bekannteste Beispiel ist die heliozentrische Theorie des Sonnensystems: Erstmals in der Antike vom griechischen Astronomen Aristarchos von Samos entwickelt, wurde sie zu Beginn der christlichen Epoche zugunsten des geozentrischen Modells des Ptolemäus verworfen — bis Nikolaus Kopernikus (1543) sie dann doch wieder als die richtige erkannte.
       
    • Ein weiteres Beispiel liefert die Medizin des 19. Jahrhunderts: Sie hat eine ältere Theorie — wie man damals dachte für alle Zeiten — verworfen; eine Theorie der Entstehung von Entzündungen, deren Ächtung der Chirurgie in ersten Hälfte des 19. Jahrhunderts massive Rückschläge beschert hat. Die postoperative Sterblichkeitsrate stieg sprunghaft an, nachdem man Ausbrennen der Wunden mit dem Brenneisen oder Desinfektion mit kochenden Flüssigkeiten als Irrweg erkannt zu haben glaubte. Erst Pasteur, Lister und andere griffen schließlich wieder auf die ältere, richtigere Theorie zurück.

     
    Ob nun allerdings Tiplers Versuch, eine Physik der Unsterblichkeit zu begründen, Sinn macht, scheint mir mehr als fraglich: Immerhin denkt Tipler, seine — wie er glaubt rein physikalische — Theorie würde implizieren, dass eine hohe Wahrscheinlichkeit dafür besteht, dass Er, Gott, existiert (als Grenzwert der Evolution des Universums), wir einen freien Willen haben und Er uns ewiges Leben nach dem Tode schenken könne.
     
    Sein Buch: Frank J. Tipler: The Physics of Immortality (1994), in Deutsch: Die Physik der Unsterblichkeit, DTV (1995).
     
     
    Note: Tipler ist ein durchaus anerkannter Physiker und Kosmologe. Seine Vorhersagen über der Menschen Möglichkeit, das gesamte Universum zu besiedeln, scheinen mir dennoch mehr Science Fiction denn ernsthafte Wissenschaft. Er scheint theoretische Konstrukte wie die Von-Neumann-Sonde — eine von John v. Neumann erdachte, hypothetische Maschine, die jede andere Maschine, auch weitere von-Neumann-Sonden, ohne fremde Hilfe nur aus im All vorgefundenen Rohstoffen herstellen kann — für etwas noch im 21. Jahrhundert wirklich Realisierbares zu halten (und das sogar noch in Form von Nanotechnologie).
     
    Diese Vision beschreibt er ab S. 73 der deutschen Ausgabe seines Buches.
     


     

      Beitrag 2016-63
    Warum Himmelskörper sich drehen

     
     
    Rockdee aus 2016-62:
     
    Wie kommt es, dass Galaxien und Planeten am rotieren sind, liegt das an der Gravitation?

    Hier der  V e r s u c h  einer Antwort:

    Da es für die Geschwindigkeit der Ratation eines Himmelskörpers — sei er Mond, Planet, oder ganze Galaxie — keine Regel zu geben scheint, könnte ich mir gut vorstellen, dass so ein Himmelskörper dann in Rotation gerät, wenn ein anderer, ihn stark anziehender, sehr schnell an ihm vorbeiwandert (ohne ihn mitzunehmen).

    Diese nur kurzzeitig wirkende Kraft scheint mir vergleichbar, mit der, die ich auf einen Globus ausübe, wenn ich mit dem Finger kurz drüberwische, damit er mir die Seite zuwendet, die ich gerade betrachten möchte: Der Globus gerät so in Rotation (und dass die nur kurz anhält, liegt daran, dass dort, wo er mit seiner Aufhängung verbunden ist, Reibungskraft wirkt — bei Himmelskörpern ist die nicht vorhanden, weswegen dort die Rotation anhält, bis sie durch ein ähnliches Ereignis, welches ja recht selten ist, nach Richtung und Geschwindigkeit mehr oder weniger deutlich neu festgesetzt wird).

    Dass auch Astrophysiker scheinbar keine bessere Erklärung haben, zeigt der Artikel Warum dreht sich die Erde?.

     

     Beitrag 0-192
    Schwarze Löcher sind extrem komprimierte Himmelskörper

     
     

     
    Was ist ein Schwarzes Loch?

     
     
    Als Schwarzes Loch bezeichnet man jeden Himmelskörper, dessen tatsächlicher Radius kleiner als sein Schwarzschild-Radius ist.
     
    Was nun bedeutet das?
     
    Wer einen Ball in die Höhe wirft, wird sehen, dass er zurück auf die Erde fällt, der Scheitelpunkt seiner Flugbewegung aber umso höher liegt, je größer die Anfangsgeschwindigkeit ist, mit der er hochgeworfen wird.
     
    Unter der Fluchtgeschwindigkeit eines Himmelskörpers versteht man die Geschwindigkeit, mit der ein Objekt die Oberfläche des Himmelskörpers verlassen muss, damit es sich von ihm befreien kann. Diese Geschwindigkeit — im Fall der Erde etwa 40.000 km/h — ist
       
    • umso größer, je größer die Masse des Himmelskörpers ist
       
    • und auch umso größer, je kompakter der Himmelskörper, d.h. je kleiner (bei gleicher Masse) sein Radius ist.

     
    Unsere Erde etwa hat einen Radius von ca. 6.000 km, und in dieser Entfernung von ihrem Schwerpunkt beträgt die Gravitationskraft 1 G.
     
    Würde unsere Erde so zusammengepresst, dass ihr Radius sich halbiert, so würde auf ihrer Oberfläche eine Gravitationskraft von 4 G wirken, woraus sich eine um den Faktor 1,4 höhere Fluchtgeschwindigkeit ergäbe (dann etwa 56.000 km/h).
     
    Die Fluchtgeschwindigkeit würde auf Lichtgeschwindigkeit anwachsen, wenn man die Masse der Erde so weit komprimieren könnte, dass der Radius der Erde nur noch knapp 1 cm betrüge. Das also ist ihr Schwarzschild-Radius ( meist auch ihr Ereignishorizont ).

     
     
    Ein Himmelskörper ist genau dann ein Schwarzes Loch,
     
    wenn er so stark komprimiert wurde, dass seine Fluchtgeschwindigkeit nun größer ist als die Lichtgeschwindigkeit.

     
     
    Es kann dann nichts mehr aus ihm herauskommen — sein Inneres wurde eine eigene, in sich abgeschlossene Welt (auf Quantenfluktuation zurückführbare Effekte mal ausgenommen).
     
    Unsere Sonne würde ein Schwarzes Loch sein, wenn sie bei heutiger Masse nur einen Radius von etwa 3 km hätte.
     
     
    Wie Harald Lesch sagt, ist der Schwarzschildradius direkt proportional zur Masse des Himmelskörpers.
     
     
    Lies auch:

     

     Beitrag 0-54
    Schwarze Löcher sind nur in zeitlicher Hinsicht singulär — sie haben weder Radius noch Mittelpunkt

     
     

     
    Zur Natur der Singularität Schwarzer Löcher

     
     
           

    Die Gummibran-Analogie ( nach H.G.Klug )

     
     
    Die Gummibran-Analogie (siehe das Bild oben) suggeriert uns, dass die Singularität im Inneren eines Schwarzen Lochs ein einziger Punkt sei, an der die Raumzeit undefiniert sei. Tatsächlich aber gilt:
     
     
     
    Die Singularität, von der man hier spricht, ist nur eine  z e i t l i c h e , aber keine  r ä u m l i c h e . Genauer:
     
     
    Die Singularität eines Schwarzen Lochs

    ist ein Bereich des Raumes, in dem die  Z e i t  singulär (undefiniert) ist.

     
     
    So jedenfalls erklärt uns das der Physiker Martin Bojowald auf den Seiten 213-223 seines Buches » Zurück vor den Urknall « (Fischer Taschenbuch, 2012).
     
    Seine Beweisführung nutzt Penrose Diagramme, die ich persönlich aber nicht wirklich verstehe (ebenso wenig wie die eines anderen Fachmanns, der schreibt:
    A Black Hole is a Waterfall of Space).
     
     
    Insbesondere würde ich gerne wissen,
    • ob der Raumbereich, in dem die Zeit nicht mehr existiert, wirklich  a l l e s  umfasst, was sich innerhalb des Ereignishorizonts des Schwarzen Lochs befindet,
       
    • und ob die Zeit dort vielleicht nur aus der Sicht von Beobachtern nicht existiert, die sich  a u ß e r h a l b  des Horizonts befinden.
       
      Die meisten Physiker glauben, dass sich für einen Raumfahrer, der von außen kommend den Ereignishorizont überquert (d.h. ins Loch fällt), rein gar nichts ändern würde: Sein Eintreten ins Schwarze Loch würde er selbst gar nicht bemerken.
       
      Aus seiner eigenen Sicht heraus wird er auch im Schwarzen Loch normal weiter altern, denn erst in der Singulariät (am unteren Ende des unendlich tiefen Trichters) existiert keine Zeit mehr. Eine ganz andere Sache ist, dass die an ihm zerrende Gravitationskraft umso stärker wird, je tiefer im "Trichter" er sich schon befindet. Sie wird ihn schließlich zerreißen, da er Ausdehnung hat und die Kraft an seiner der Singularität zugewandten Seite bald deutlich größer sein wird als an seiner ihr abgewandten Seite.
       
      Das Trichterbild macht auch klar, warum Schwarze Löcher nur von außen gesehen einen endlich großen Radius haben — von innen gesehen wäre er unendlich groß, der Weg hin zur Singularität unendlich weit.
       
      Dass Joe Plochinskis Firewall Theorie — siehe [1] und [2] — richtig ist, kann ich, wie so viele andere auch, eher nicht glauben, denn:
       
      Dass der Raumfahrer seinen Fall ins Schwarze Loch selbst nicht wahrnehmen kann, ist — so die üblicherweise gegebene Begründung — eine Folge von Einsteins Äquivalenzprinzip: Schließlich fällt er ja entlang einer Geodäte im All, was bewirkt, dass er sich schwerelos fühlt.

     
    Note: In der allgemeinen Relativitätstheorie ist der Radius des Ereignishorizonts eines Schwarzen Lochs nicht als Abstand zur inneren Singulaität definiert, sondern über die Oberfläche von Kugeln. Ein kugelförmiger Ereignishorizont mit Radius r hat dieselbe Fläche wie eine Kugel vom gleichen Radius im euklidischen Raum. Aufgrund der Raumzeitkrümmung im Schwarzen Loch sind die radialen Abstände im Gravitationsfeld vergrößert (sprich: der Abstand zweier Kugelschalen mit – über die Kugeloberfläche definierten – Radialkoordinaten r1 und r2 ist größer als die Differenz dieser Radien). [ Quelle: Wikipedia ]
     
    Nebenbei: Punktförmig ist die Singularität eines Schwarzen Lochs nur, wenn das Loch nicht rotiert. Bei rotierenden, so schreibt Rüdiger Vaas, ist sie ein unendlich dünner Ring.
     
     
    Weiterführende Literatur:
     
     


    Günter Spanner (2016):
     
    Das Gummituch-Modell hinkt

     
    Häufig wird die gekrümmte Raumzeit mit einem Gummituch-Modell verdeutlicht: anhand einer massiven Kugel, die man auf eine mehr oder weniger gespannte elastische Membran legt, deren Krümmung man dann mit der Krümmung der Raumzeit vergleicht.
     
    VORSICHT aber: Dieses Modell ist als Veranschaulichung der durch die Anwesenheit von Masse lokal gekrümmten Raumzeit nur sehr bedingt geeignet:
     
    Die Krümmung des Raumes alleine zu betrachten ist nämlich keineswegs ausreichend, die Bewegung von Massen im All zu erklären:
     
    Weder massive Objekte noch Lichtstrahlen bewegen sich dort auf Bahnen, die im gekrümmten 3-dimensionalen Raum kürzest möglichen Strecken entsprechen: Genau genommen werden Bahnen durchlaufen, bei denen das 4-dimensionale, raumzeitliche Wegelement minimal wird — man nennt sie Geodäten der Raumzeit.
     
    Im Gummibran-Modell bleibt die Zeitdehnung unberücksichtigt. Aus Einsteins Feldgleichung folgt aber, dass von einem Gravitationsfeld nicht nur räumliche, sondern auch zeitliche Abstände beeinflusst werden.
     
     
    Quelle: Günter Spanner: Das Geheimnis der Gravitationswellen (2016), S. 22

     


     
    Wie auf
    Einstein Online erklärt, muss man innerhalb des Horizonts eines Schwarzen Lochs die Richtung "tief hinunter" als die räumliche und die Richtung senkrecht dazu als die zeitliche Dimension begreifen. Der Weg hin zum Zentrum (der Singularität) ist somit unendlich weit nach Raum und Zeit.

     

     Beitrag 0-408
    Hadronen und Schwarze Löcher "haben keine Haare"

     
     

     
    Schwarze Löcher – ebenso wie Hadronen – haben keine Haare

     
     
    Etwa 1960 konnten Stephen Hawking und Roger Penrose zeigen, dass jeder Stern mit einer gewissen Mindestmasse irgendwann zu einem perfekten Schwarzen Loch wird: zu einem Objekt, das nur 3 Eigenschaften haben kann: Masse, Spin und Ladung.
     
    John Wheeler — einer der bedeutendsten Physiker des 20. Jahrhunderts — hat das ausgedrückt in der Form: "Schwarze Löcher haben keine Haare".
     
     
    Interessant ist, dass eben das (geeignet präzisiert) auch für die Teilchen gilt, welche man heute als die Bausteine sämtlicher Materie versteht. genauer:
     
    Alle Teilchen, die der starken Wechselwirkung unterliegen — die sog. Hadronen — haben etwas, das man, je nach Art der Teilchen,
     
     
    Baryonenzahl, Seltsamkeit, Teilchen-Antiteilchen-Eigenschaft oder elektrische Ladung

     
    nennt (= verallgemeinerte Ladung). Damit gilt:

     
    Auch Elementarteilchen — ja sogar sämtliche » Hadronen « — haben keine Haare:
     
    Sie haben nur Masse, Spin und verallgemeinerte Ladung.


     
     
     
    Quelle: Helmut Satz: Gottes unsichtbare Würfel — die Physik an den Grenzen des Erforschbaren (2013), S. 113-114.


     

     Beitrag 0-113
    Warum Einsteins ART im Inneren Schwarzer Löcher — ebenso wie direkt nach dem Urknall — versagt

     
     

     
    Warum Einsteins Theorie im Zentrum Schwarzer Löcher versagt

     
     
    Wie genau lässt sich in Streuexperimenten die Position einzelner Teilchen bestimmen?

       
      Die Quantenmechanik — ja selbst Heisenbergs Unbestimmtheitsrelation — setzen der Genauigkeit solcher Beobachtung keine Grenzen. Unter Mit­berücksichtigung der Gravitations­kraft allerdings, stellt sich das schnell ganz anders dar.
       
      Betrachten wir dazu ein Experiment, in dem z.B. zwei Elementarteilchen miteinander kollidieren:
       
      Kommen sich die beiden Teilchen sehr nahe, so wird unterhalb eines bestimmten Abstands die Gravitationskraft stärker sein als alle anderen Kräfte.
      Schlimmer noch: Bei hinreichend kleinem Abstand Amin werden die beiden Teilchen zu einem Schwarzen Loch verschmelzen.
       
      Dies gilt für Teilchen jeder Art, also z.B. auch für Photonen oder Gravitationswellen.

     
    Damit ist Amin der kleinste Abstand, den ein Teilchenbeschleuniger noch aufzulösen gestattet.
     
    Versucht man, die Energie noch weiter zu erhöhen, so wird das erzeugte Schwarze Loch größer — da es dann ja mehr Energie besitzt —, und sein Ereignishorizont wächst an. Dadurch aber wird die bestmögliche Ortsauflösung, die wir erzielen können, sogar wieder schlechter.
     
    Dieses Verhalt steht nicht im Widerspruch zur Quantenmechanik, zeigt uns aber, dass wir bei sehr kleinen Abständen unsere Vorstellung von Raum und Zeit neu formulieren müssen. Dies zu tun wurde die Theorie der Quantengravitation geschaffen.
     
     
    Zunächst aber ist interessant, wie klein die Abstandsgrenze Amin denn nun eigentlich ist.
     
    Dazu betrachtet man die Situation, in der die gravitative Anziehung zwischen zwei Elektronen ebenso groß wird wie die sie von einander abstoßende elektromagnetische Kraft.
     
    Auflösung der entsprechenden Gleichung liefert die Plancksche Energie EPlanck und die dazu äquivalente Plancksche Masse
     
    MPlanck  =  2.176 • 10-8 kg

     
    Dies ist eine relativ große Masse, die 1016 mal so groß wie die des top-Quarks, des schwersten Elementarteilchen. Noch anschaulicher: Ein Floh wiegt ungefähr 4000 Planckmassen. Um ein Elementarteilchen auf diese riesige Energie zu beschleunigen, wäre ein Ringbeschleuniger mit dem Durchmesser unseres Sonnensystems notwendig.
     
    Da Energie und Länge i.W. zueinander invers proportional sind, gibt es im Einheitensystem von Max Planck auch die Plancksche Länge
     
    LPlanck  =  1.6 • 10-35 Meter

     
     
    Dies ist ein extrem kurzer Abstand: Die uns bekannte Welt des Standardmodells der Elementarteilchenphysik spielt sich bei 1016 mal so großen Abständen ab.
     
    Zur Planckschen Länge gehört schließlich noch die Plancksche Zeit
     
    tPlanck  =  5.4 • 10-44 sec

     
    das besondere an diesen 3 Planckschen Größen ist, dass sie gerade Ausdehnung und Energiedichte unseres Universums zum Zeitpunkt des Urknalls beschreiben.
     
    Insbesondere lässt sich der Urknall mit Hilfe von Einsteins Theorie zeitlich nicht genauer als durch tPlanck eingrenzen.
     
    Man kann lediglich noch die Temperatur angeben, die beim Urknall geherrscht haben muss. Man nennt sie die Plancksche Temperatur:
     
    TPlanck  =  1.4 • 1032 Kelvin

     
     
    Die Planckschen Größen markieren die Grenzen der Anwendbarkeit der Allgemeinen Relativitätstheorie. Sie muss jenseits dieser Grenzen als undefiniert gelten, da dort die Wirkung von Quanteneffekten den Einfluss der Gravitationskraft als vergleichsweise unbedeutend dastehen lässt.
     
    Theorien, die speziell diese Lücke zu schließen versuchen, nennt man
     
     
    Quantengravitation

     
     
    Da Raum und Zeit in der Quantengravitation diskret sind, erwartet man, dass die Singularitäten der Einsteinschen Theorie dort nicht mehr gegeben sein werden.
     
    Die kanonische Theorie der Quantengravitation — auch Schleifen-Quanten-Gravitation genannt — wurde in den 90-er Jahren entwickelt.

       
      Sie wird kanonisch genannt, da man annimmt, dass unter ihr die Metrik von Raum und Zeit wohldefinierte Quanteneigenschaften hat und die Ortskoordinate — ganz wie in der normalen Quantenmechanik — der Heisenbergschen Unschärfe-Relation gehorcht.
       
      Sie führt zu einer diskreten, schaumartigen Raumzeit, ohne dass man hierfür die Einsteinsche Theorie fundamental abändern müsste.
       
      Die "Schleifen" der Theorie sind gravitative Kraftlinien analog den elektromagnetischen (durch Faraday entdeckten).

     
    Die Schleifen-Quanten-Gravitation sagt die Existenz von Raumzeitatomen voraus, welche ein dichtes, sich ständig wandelndes Gewebe darstellen. Das Quanten-Vakuum besteht aus der paarweisen Erzeugung und Vernichtung solcher Raumzeitatome. Somit sind Raum und Zeit in dieser Theorie keine vorgegebenen Größen: Sie ergeben sich aus dem quantenmechanischen Verhalten des Quanten-Vakuums.
     
     
    Der Schleifen-Quanten-Gravitation zufolge sollten weder der Urknall noch die Schwarzen Löcher singulär sein, denn die Lösungen der Gleichungen dieser Theorie weisen keinerlei Unendlichkeiten auf.
     
    Und tatsächlich hat Martin Bojowald 2008 ein sehr einfaches Modell vorgeschlagen, welches den Urknall durch einen sog. » bounce « ersetzt. In diesem Modell zieht das Universum sich unter dem Einfluss der Gravitation erst zusammen bis hin zu einem Punkt, an dem seine Dichte so groß wird, dass die Quanteneigenschaft der Gravitation zu einer abstoßenden Kraftkomponente führt. Dies sei dann der Augenblick des » bounce « (des Urknalls also, der so zu einer Folge der zuvor stattge­fundenen Implosion wird). Die darauf folgende Ausdehnung, so zeigt die Theorie, wird durch Quanteneffekte verursacht.
     
    In Bojowalds Version der Schleifen-Quanten-Gravitation gibt es deswegen eine Zeit vor dem Urknall.
     
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 226-232

     

     Beitrag 0-284
    Der Gravitationskollaps — wie er sich aus unterschiedlicher Perspektive darstellt

     
     

     
    Wie sich ein Gravitationskollaps dem Beobachter darstellt

     
     
    Wegen der enormen Konzentration der Masse in einem kleinen Volumen sind auch die Gezeitenkräfte in der Nähe eines Schwarzen Lochs größer als bei noch nicht kollabierten Sternen. So würde beispielsweise ein Forscher, der in ein Schwarzes Loch von etwa Sonnenmasse (1 M) fällt, schon außerhalb des Horizonts durch die Gezeitenkräfte verzerrt, gleichzeitig aber auch zusammengedrückt werden.
     
    Die Spannungen, die dabei entstehen, sind am Horizont sehr groß — bis zu 100 000 Atmosphären für ein Loch mit etwa einer Sonnenmasse –, fallen aber mit dem Quadrat der Masse ab. Die Gezeitenkräfte wirklich großer Schwarzer Löcher lassen sich deswegen — an ihrem Horizont — gut auszuhalten.
     
    Ein Stern großer Masse, der den Kernbrennstoff in seinem Inneren verbraucht hat, zieht sich unter dem Einfluss seiner Schwerkraft zusammen und schrumpft durch den Horizont in Richtung Singularität.
       
    • Für einen Beobachter auf der Sternoberfläche geschieht dies in der Zeit, die er im freien Fall bis hin zum Horizont brauchen würde: einige wenige Sekunden für einen Stern von wenigen Sonnenmassen.
       
    • Aus Sicht eines Beobachters im Außenraum aber nähert sich die Sternoberfläche dem Horizont immer langsamer und erreicht in nie. Dies hängt mit der Ausbreitung der Strahlung in der Nähe des Horizonts zusammen.
       
      Sendet ein Objekt beim Fall ins Loch in regelmäßigen Abständen Strahlungsblitze aus, so empfängt der Beobachter im Außenraum sie in immer größeren Zeitabständen. Ein direkt am Horizont ausgesandtes Signal erreicht ihn gar nicht mehr bzw. » erreicht ihn erst nach unendlich langer Zeit « wie die Physiker sagen.
       
      Das ist im Prinzip so richtig, praktisch aber wird der Stern plötzlich unsichtbar, denn die Wellenlänge des nahe am Horizont ausgesandten Lichts erreicht den Beobachter nur mit extrem großer Rotverschiebung exponentiell anwachsend mit dem schrumpfenden Abstand der Quelle zum Horizont.
       
      Die Zeit, die das Licht braucht, den Schwarzschild-Radius einmal zu durchlaufen, beträgt etwa n • 10-5 Sekunden für einen Stern mit n-facher Sonnenmasse — und in genau dieser Zeitspanne verschwindet der kollabierende Stern aus Sicht des außen verweilenden Beobachters.


     
    Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 107-109


     
     
    Ganz grundsätzlich ist jedes Schwarze Loch schon durch Angabe seiner Masse, seines Drehimpulses und seiner Ladung komplett beschrieben.
     
    Schwarzschild-Lösungen haben weder Drehimpuls noch Ladung. Da aber fast alle Sterne rotieren, muss sich - wegen der Erhaltung von Drehimpuls - durch ihren Kollaps ein rotierendes Schwarzes Loch ergeben. Sein Horizont hat nicht ganz so einfache Struktur wie der einer Schwarzschild-Lösung.
     
    Interessant auch: Schwarzschild konnte zeigen, dass der Radius einer Kugel mit konstanter Dichte stets größer als ihr Schwarzschild-Radius ist.
     
     
    Im Inneren des Horizonts stürzt die gesamte Masse übrigens unaufhaltsam weiter zusammen. Bei ihrer Kompression zu immer größerer Dichte wird irgendwann die Beschreibung der Raumzeit durch Einsteins Theorie immer ungenauer und schließlich ungültig, denn auch ein anfangs großer, ausgedehnter Stern wird dann in gewissem Sinne zu einem Quantenobjekt. Schließlich - so vermuten die Physiker - wird auch die Beschreibung der klassischen Raumzeit als ein Kontinuum, in dem beliebig kleine Abstände zwischen zwei Punkten möglich sind, nicht weiter gelten. Sie muss irgendwann in eine quantisierte Struktur, vielleicht mit einer fundamentalen, kleinsten Länge übergehen.

     

     Beitrag 0-283
    Raum und Zeit im Schwarzen Loch

     
     

     
    Raum und Zeit im Schwarzen Loch

     
     
    In populärwissenschaftlichen Büchern und Schriften, die Schwarze Löcher erklären (z.B. auf Seite 114 in Gerhard Börner: Schöpfung ohne Schöpfer?) wird auch von Physikern oft behauptet, dass im Inneren eines Schwarzen Lochs Zeit und Raum ihre Rollen tauschen würden.
     
    Diese Erklärung allerdings ist allzu grob und sollte nicht ernst genommen werden (wie ja wenigstens im letzten Abschnitt der Seite Einstein Online: Space and Time inside a Black Hole angedeutet wird).
     
     
    Was genau passiert, kann viel besser so beschrieben werden:
     
    Man kann sich jedes Schwarze Loch vorstellen wie einen unendlich tiefen Trichter in der Raumzeit. Objekte, die hineingeraten rutschen sozusagen die Innenwand des Trichters hinunter und verlieren — sofort nach Überschreiten der Linie, die den Schwarzschild-Horizont des Lochs darstellt — jede Möglichkeit zurückzukehren, denn ab da verliert der Raum zunehmend deutlicher seine Eigenschaft, in mehr als nur einer Richtung durchquerbar zu sein.
     
    Er bekommt also eine Eigenschaft, die anderswo nur die Zeit hat.
     
    Schuld daran sind Gezeitenkräfte, die mit zunehmender Tiefe im Trichter schnell stärker werden und schon ab dem Schwarzschild-Radius keine Umkehr, ja bald sogar kein sich Umdrehen mehr erlauben.

     
     

     
     
    Nach H.G. Klug:
     
    Der rot eingezeichnete Kreis markiert die Lage des Schwarzschild-Radius.
     
    Von außen in den schwarzen Bereich hineinzusehen ist umöglich.
     
     
    Note: Dieses Bild vergleicht die 4-dimensionale Raumzeit mit der 2-dimensionalen Oberfläche einer aus Gummi bestehenden Membran.
     
    Mulden und Trichter darin sind Orte, an denen sich Masse, bzw. extrem viel Energie konzentriert.
     
    Treffender als der Künstler A.H. Klug hat das bisher niemand darstellen können.

     
     
     
    Wichtig: Als Zentrum des Schwarzen Lochs bezeichnet man die Spitze des Trichters,
    also NICHT den Mittelpunkt des kugelförmigen Horizonts des Schwarzen Lochs, der in der Zeichnung dem dort rot eingezeichneten Kreis entspricht.

     
     
     
    Interessant auch:
     
    Je geringer der Radius eines Schwarzschild-Horizonts, desto größer ist die Schwerkraft auf dem Horizont. Daraus folgt, dass ein Loch mit nur wenigen Sonnenmassen schon außerhalb seines Horizonts dort befindliche Objekte zu spaghettifizieren beginnt: Schon dort nimmt die Stärke der Schwerkraft mit jedem Meter näher am Horizont so dramatisch zu, dass ein Mensch dort zerrissen würde.
     
    Nur bei riesigen Schwarzen Löchern — bei solchen mit Millionen Sonnenmassen — unterscheiden sich die Tidenkräfte kurz außerhalb und kurz innerhalb des Horizonts kaum von einander.
     
    Wenn man also davon spricht, dass für einen Raumfahrer beim Fall ins Schwarze Loch nichts besonderes passiert, so ist das — was die Tidenkräfte betrifft — eine recht relative Aussage: Ob er schon weit vor dem Horizont oder erst weit im Loch zerrissen wird, hängt davon ab, wie massereich das Loch ist. Irgendwo auf dem Weg hin zum Zentrum wird der Raumfahrer aber auf jeden Fall zerlegt werden.
     
    Es wird so auch klar, dass niemand unbeschadet ein Wurmloch durchqueren kann.
     
     
     
    Für einen Körper der Masse M ist
     
    R = 2GM/c2   sein Schwarzschild-Radius   und   V = 4πR3/3   sein Schwarzschild-Volumen.
     
    Somit ist die durchschnittliche Dichte innerhalb des Horizonts proportional zu 1/M2.


     

     Beitrag 0-159
    Warum Weiße Löcher einfach nur extrem kleine Schwarze Löcher sind

     
     

     
    Steven Hawking ist überzeugt:

    Weiße und Schwarze Löcher sind ein und dasselbe

     
     
    Penrose aber denkt: Es gibt keine Weißen Löcher.

     
     
    Tatsache ist: Bisher kennt nur die Theorie Weiße Löcher:
     
    Es handelt sich dabei im Prinzip um "zeitumgekehrte" Versionen Schwarzer Löcher, d.h. um Bereiche der Raumzeit, in die nichts von außen hineingelangen, aber aus denen Materie und Licht entkommen kann. Es sind rein hypothetische, mathematische Lösungen der Gleichungen von Einsteins allgemeiner Relativitätstheorie. Man kennt bisher keinen physikalischen Prozess, durch den ein Weißes Loch entstehen könnte.
     


    Hawking ( 1996 im Streitgespräch mit Penrose ):
     
    Ich habe in meinen Vorträgen bereits dargelegt, warum meiner Meinung nach der Keine-Rand-Vorschlag den beobachteten Zeitpfeil in der Kosmologie ohne CPT-Verletzung erklären kann.
     
    Nun werde ich erläutern, warum ich im Gegensatz zu Roger [Penrose] meine, dass es auch bei Schwarzen Löchern keine zeitliche Asymmetrie gibt.
     
    In der klassischen ART wird ein Schwarzes Loch als ein Gebiet definiert, in das Objekte zwar eindringen, dann aber nicht mehr herauskommen können.
     
    Warum, so mag man sich fragen, gibt es anscheinend keine Weißen Löcher: Gebiete also, aus denen Objekte kommen, dann aber nicht mehr hineingelangen können? Meine Antwort lautet, dass Schwarze und Weiße Löcher zwar sehr verschieden sind aus Sicht klassischer Theorie, aus Sicht der Quantentheorie aber doch ein und dasselbe darstellen.
     
    Schwarze Löcher können emittieren, Weiße vermutlich absorbieren.
     
    Ich schlage vor, dass wir ein Gebiet als Schwarzes Loch bezeichnen, wenn es groß [massereich] ist und nicht viel emittieren kann. Andererseits verhält sich ein kleines Loch, das große Mengen an Quantenstrahlung [ sog. Hawking-Strahlung ] aussendet, doch gerade so, wie wir es von einem Weißen Loch erwarten würden.
     
    ...
     
    Schließlich will ich zu meiner Behauptung Stellung nehmen, dass Schwarze und Weiße Löcher ein und dasselbe seien:
     
    Roger brachte den Einwand vor, dass die entsprechenden [ die Löcher beschreibenden ] Carter-Penrose-Diagramme sehr verschieden sind. Dem stimme ich zu, doch meine ich, dass sie nur ein klassisches Bild darstellen. Ich behaupte, dass in der Quantentheorie Schwarze und Weiße Löcher für einen äußeren Beobachter identisch sind.
     
    Was gilt, so könnte Roger einwenden, für jemanden, der in ein Loch fällt? Würde er oder sie das Carter-Penrose-Diagramm des Loches wahrnehmen?
     
    Ich sehe den Schwachpunkt dieses Arguments darin, dass angenommen wird, es gebe — wie in der klassischen Theorie — nur eine einzige Metrik.
     
    In der Quantentheorie aber muss man ein Pfadintegral über alle möglichen Metriken ausführen [ der Unschärferelation wegen? ]. Nun ergeben sich aber für unterschiedliche Fragestellungen unterschiedliche Sattelpunktsmetriken. Insbesondere werden sich jene für die Fragestellung eines äußeren Beobachters von denen eines ins Loch fallenden Beobachters unterscheiden.
     
    Auch dass das Schwarze Loch einen Beobachter ausstößt, ist möglich (wenn auch nur mit extrem kleiner Wahrscheinlichkeit). Vermutlich entspräche die Sattelpunktsmetrik für einen solchen Beobachter dem Carter-Penrose-Diagramm eines Weißen Lochs.
     
    Meine Behauptung, dass Weiße und Schwarze Löcher ein und dasselbe sind, ist demnach in sich konsistent.
     
    Es handelt sich um die einzige Möglichkeit, die Quantengravitation CPT-invariant zu machen.

     


     
     
    Quelle: Hawking und Penrose: Raum und Zeit, Rowohlt 1998 (hier als eBook), Seite 169-170 und 182-183
     
    Titel der Originalausgabe: The Nature of Space and Time, Princeton University Press (1996)


     

     Beitrag 0-285
    Wie man Schwarze Löcher finden und – stets nur indirekt – beobachten kann

     
     

     
    Wie man Schwarze Löcher entdecken und beobachten kann

     
     
    Es gibt hierfür mindestens 3 Wege:
       
    • Schwarze Löcher emittieren — die extrem schwache Hawking-Strahlung ausgenommen — kein Licht. Wenn sie jedoch Materie aufsammeln, wird die bei ihrem Fall ins Loch stark aufgeheizt. Diese Wärmestrahlung kann registriert werden.
       
       
    • Absuchen des Himmels nach Röntgenlichcht hat Hinweise auf die Existenz von Doppelsternsystemen erbracht, in denen ein sichtbarer Stern und eine kompakte Röntgenquelle einander umkreisen. In einigen dieser Fälle kam man zum Schluss, dass die Röntgenquelle ein Schwarzes Loch sein müsse. Diese Folgerung beruht auf Schätzungen der Masse, die möglich sind, wenn das System mit Hilfe der periodischen Schwankungen der optischen und der Röntgenstrahlung genau vermessen wird. Stellt sich dabei heraus, dass die Masse der Röntgenquelle deutlich größer als die maximal mögliche Masse eines Neutronenstern ist, so muss es sich um ein Schwarzes Loch handeln.
       
      Berühmtester Kandidat hierfür ist der Röntgenstern Cygnus X-1, der 9 bis 16 Mal so schwer wie unsere Sonne ist.
       
       
    • Genaue Beobachtung der Zentren aktiver Galaxien zeigt, dass sich dort i.A. hohe Konzentrationen von Masse und Energie in relativ kleinen Regionen sehr schnell bewegen.
       
      Schönes Beispiel ist die Galaxie M87. In ihrem inneren Bereich — Durchmesser etwa 500 Lichtjahre — findet sich eine Gasansammlung, die mit einer Geschwindigkeit von etwa 750 km/s rotiert. Diese schnelle Rotation lässt sich am plausibelsten als Bewegung um ein Schwarzes Loch von etwa 109 Sonnenmassen deuten.
       
      Sogar im Zentrum unserer Milchstraße scheint es ein Schwarzes Loch zu geben: Messungen im infroroten Spektralbereich ergaben nämlich, dass die Sternbewegungen innerhalb eines Radius von 0,3 Lichtjahren durch eine Masse von etwa 106 Sonnenmassen beeinflusst werden. Die Annahme, dass es sich dabei um ein Schwarzes Loch handelt, liegt nahe, denn jede andere denkbare Konfiguration wäre instabil und würde sich in wenigen Millionen Jahren ohnehin zu einem Schwarzen Loch entwickeln.


     
    Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 109-110


     

     Beitrag 0-175
    Wirkung und Schicksal Schwarzer Löcher

     
     

     
    Wirkung und Schicksal Schwarzer Löcher

     
     
    Man geht heute davon aus, dass sich im Zentrum jeder nicht allzu kleinen Galaxis ein Schwarzes Loch findet.
     
    Das im Zentrum der Milchstraße heißt Sagittarius A* ( kurz: Sgr A* ).
     


    Uteausmuenchen, Experte für Astrophysik auf gutefrage.net, schrieb (2016):
     
    Nein, das Schwarze Loch in der Mitte der Milchstraße hält die Milchstraße nicht zusammen. Das macht die Schwerkraft der 100 Milliarden Sterne in der Milchstraße vermehrt um die der Dunklen Materie. Im Vergleich dazu ist die Masse von Sgr A* von gut 4 Millionen Sonnenmassen nicht die dominante Masse in der Milchstraße.
     
    Schwarze Löcher sind auch keine Staubsauger. So ein Loch schluckt nur, was ihm zu nahe kommt. In seiner unmittelbaren Umgebung verlieren die Sterne wegen der hohen Gasdichte Bewegungsenergie und nähern sich deshalb allmählich dem Ereignishorizont des Schwarzen Loches an.
     
    Im Moment und noch für einige Zeit muss Sgr A* hungern, da derzeit kein Stern nahe genug an seinem Ereignishorizont ist. Genauer:
      Messungen im Röntgenbereich haben, dass Sgr A* neben noch aktiven Sternen auch von bis zu 20.000 Neutronensternen und kleineren Schwarzen Löchern im Abstand von bis zu 70 Lichtjahren umkreist wird. Man geht davon aus, dass alle paar Millionen Jahre eines dieser Objekte der zentralen Gravitationsfalle zu nahe kommt und dann von dieser wirklich verschluckt wird. Lies auch, wie uteausmuenchen erklärt, warum alles darauf hindeutet, dass im Bereich SGR A tatsächlich ein Schwarzes Loch Sgr A* existiert:

     
    Sagittarius A im Zentrum der Milchstraße

     
     
    Theoretisch, wenn das Universum sehr, sehr, sehr, sehr ..... sehr lange besteht, dann, ja dann könnte Sgr A* die Milchstraße irgendwann ganz verschlungen haben. Möglicherweise, denn Vorhersagen über solche Zeiträume sind entsprechend ungenau.
     
    Im Falle des Big Freeze — dem allmählichen Auskühlen des Universums — hätte das Universum diese Zeit.
    Schätzungen zufolge würden die Schwarzen Löcher dann in grob 101026 bis 101076 Jahren ihre Galaxien verschlungen haben.
     
    Bis derart vollgefressene Schwarze Löcher — ihrer sog. Hawking-Strahlung wegen — verdampft sind, vergeht dann zusätzlich noch ein Vielfaches dieser Zeit.
     
    Die Sonne existiert noch rund 5 Milliarden Jahre, das ist eine 5 mit 9 statt mit 1026 Nullen.
     


     
    Mehr zu SGR A* findet sich auf Seite 19 von Gerhard Graw: 2004 wurde nachgewiesen, dass SGR A* zu 4,31 Mio Sonnenmassen äquivalent ist.

     

     
    Schwarze Löcher sind keineswegs selten

     
    Man geht heute davon aus, dass es im All vor Schwarzen Löchern nur so wimmelt:
     
    2004 etwa hat man gleich neben Sagittarius A eine zweites, kleineres Schwarzes Loch entdeckt: IRS 13E.
     
    Im Januar 2005 wurden mit Hilfe von Chandra, einem Röntgen-Teleskop-Satelliten, Helligkeitsausbrüche in der Nähe von Sagittarius A beobachtet, die darauf schließen lassen, dass dieses supermassive zentrale Schwarze Loch in einem Umkreis von etwa 70 Lichtjahren von sogar tausenden Schwarzer Löcher umkreist wird (man spricht von 10 bis 20 Tausend).
     
    Das bisher kleinste Schwarze Loch — nur etwa 3,3 Sonnenmassen schwer — war in 2019 entdeckt worden, da es umkreist wird von einen sog. roten Riesen.
     
    Das bisher größte bekannte Schwarze Loch (auch entdeckt in 2019) ist etwa 40 Milliarden Sonnenmassen schwer.

     

     Beitrag 0-513
    Zur Sternendichte im Zentrum unserer Milchstraße

     
     

     
    Zur Sternendichte im Zentrum der Milchstraße

     
     
    Im Zentrum unserer Milchstrße findet sich Sagittariis A* ein gut 4 Millionen Sonnenmassen schweres Schwarzes Loch.
     
    Dennoch ist es im Herz unserer Milchstraße (der Umgebung Sagittariis A*) nicht finster, ganz im Gegenteil:
      Wäre man dort, wäre der Himmel "unfassbar hell", sagt Tuan Do, ein noch junger Astronomieprofessor aus Los Angeles.
      Er arbeitet seit Jahren eng mit Andrea Ghez zusammen, die 2020 zusammen mit Reinhard Genzel und Roger Penrose den Nobelpreis bekam.
       
      Die Helligkeit des Himmels um Sagittarius A* veranschaulicht Do im Vergleich zu unserer Nachbarschaft:
      Der unserem Sonnensystem nächste Stern, Proxima Centauri, ist rund vier Lichtjahre entfernt, so dass das der Radius einer kugelförmigen Regium um uns herum ist, in der sich als Stern nur unsere Sonne findet. "Im Zentrum der Galaxie aber gibt es im selben Volumen etwa eine Million Sterne", erklärt Do.

     
    Note: Der Blick in dieses Zentrum unserer Milchstraße erforderte eine technische Meisterleistung und jahrzehntelange Fleißarbeit. Von der Erde aus gesehen, liegt es hinter einem dichten Schleier aus Gas und Staub, denn unser blauer Planet befindet sich im äußeren Bereich, auf einem Spiralarm der Milchstraße.
     
    Das bisher größte bekannte Schwarze Loch — entdeckt 2019 — ist mit etwa 40 Milliarden Sonnenmassen gut 4000 Mal schwerer als Sagittarius A* (und hat daher, wie Do sagt, selbst schon den Durchmesser einer kleinen Galaxie) [ Pressebericht dazu ].
     
    Allerdings enthält auch der Quasar (ein aktiver Galaxienkern) TON 618 eines der massivsten bekannten Schwarzen Löcher. Seine Masse wird auf 66 Milliarden Mal mehr als jene der Sonne geschätzt und führt daher eigentlich die Rangliste dieser Entdeckungen an.
     
     
    Nebenbei noch: Wie unglaublich genau und zuverlässig Astrophysiker heute selbst noch Raumzeitverwirbelung messen können, zeigen Berichte zweier zu einander konkurrierender Teams [A] und [B].
     
    In [A] liest man: Die Stanford-Forscher maßen eine Abweichung der Gyroskope um 0,000011 Grad, was in etwa der Breite eines menschlichen Haars betrachtet aus einer Entfernung von 400 Metern entspreche.
     
    Die Messergebnisse, über die hier berichtet wird, so sagen die Forscher, bestätigen mit einer Genauigkeit von 99% entsprechende Vorhersagen von Einsteins Theorie.
     
    Dass Einsteins Feldgleichung — Mathematik also — selbst so kleine Differenzen somit noch mit vergleichbarer Genauigkeit voraussagt, wie wir sie messen können, kann nur als Wunder bezeichnet werden. Es scheint mir guter Beleg dafür zu sein, dass letzlich auch alles durch Physik Betrachtbare durch reinen Geist (= mathematische Zusammenhänge) gesteuert wird.

     

     Beitrag 0-196
    Schwarze Löcher können rotieren und pulsieren

     
     

     
    Schwarze Löcher können rotieren und pulsieren

     
     
    Der Horizont nicht rotierender Schwarze Löcher hat exakt die Form einer Kugel. Wenn sie aber rotieren, erzeugen sie nicht nur einen Strudel im Raum, sondern auch eine Verzerrung ihres Horizonts (ähnlich der Verzerrung der Erdoberfläche aufgrund der Rotation der Erde. Zentrifugalkräfte wölben den Äquator der Erde gegenüber den Polen um 22 km nach außen): Der Horizont bekommt dann die Form eines Ellipsoids.
     
    Kein Schwarzes Loch kann beliebig schnell rotieren: Seine maximale Rotationsgeschwindigkeit ist dadurch gegeben, dass sie auf dem Ereignishorizont stets kleiner als die Lichtgeschwindigkeit sein muss.
     
    So benötigt z.B. ein Schwarzes Loch mit der Masse unserer Sonne wenigstens 0,62 Microsekunden für eine Umdrehung. Ein 1000 Mal so schweres Scwarzes Loch hätte einen 1000-fach größeren Umfang, würde also mindestens 62 sec für eine Umdrehung benötigen.
     
     
    1971 hatten Comutersimulationen ebenso wie andere Rechnungen gezeigt, das die Raumzeit sich in naher Umgebung rotierender Schwarzer Löcher kräuselt. Man hat diese Kräuselung interpretiert als Gravitationswellen, sah dann aber, dass diese hin und her wogenden Kräuselungen sich auch als ein Pulsieren des Lochs auffassen lassen — als Schwingungen seines Ereignishorizonts.
     
    Da Glocken und Sterne natürliche Eigenfrequenzen haben, mit denen sie bevorzugt schwingen, hat man sich gefragt, ob das nicht vielleicht auch für Schwarze Löcher gilt. Und in der Tat: Computersimulation bewies, dass das so ist.
     
    Wenn ein schlecht ausgewuchteter Autoreifen sich zunehmend schnell dreht, entzieht die hierbei entstehende Vibration seiner Drehbewegung Energie. Hierdurch wird die Vibration stärker, und im Extremfall kann der reifen sich losreißen. Physiker bezeichnen dieses Phänomen als » instabile Vibration «.
     
    Da man sich einer ähnlichen Erscheinung bei rotierenden Sternen bewusst war, dachte man zunächst, auch der Drehbewegung eines Schwarzen Lochs könne so Energie entzogen werden bis hin zu dem Ausmaß, dass das Loch schließlich zerbersten könnte.
     
    Wie Rechnungen und Computersimulation dann aber gezeigt haben, ist das nicht der Fall. Es gilt vielmehr: Ganz gleich, wie schnell ein Schwarzes Loch rotiert, seine pulsierende Bewegung bleibt stabil und klingt langsam ab: Zwar entziehen die Schwingungen dem Loch in der Tat Rotationsenergie, doch sie strahlen auch Energie in Form von Gravitationswellen ab. Die Rate, mit der sie Energie ausstrahlen ist jedoch stets größer als die, mit der sie Energie aus der Rotation des Lochs gewinnen.
     
    Ihr Pulsieren wird deswegen ständig schwächer, so dass ein Schwarzes Loch durch sein Pulsieren niemals entzweigerissen werden kann.

     
     
    Quelle: Kip S. Thorne: Gekrümmter Raum und verbogene Zeit (1995), S. 335-338


     

     Beitrag 0-198
    Warum es heute kaum noch extrem kleine Schwarze Löcher geben kann

     
     

     
    Extrem kleine Schwarze Löcher in großer Zahl

    kann es heute nicht geben

     
     
    Je größer ein Schwarzes Loch ist, desto geringer sind seine Temperatur und seine Hawking-Strahlung und desto langsamer wird es verdampfen.

     
    Seine Lebensdauer ist proportional zur 3-ten Potenz seiner Masse.
     
    Nach Rechnungen aus 1975 beträgt die Lebensdauer eines Schwarzen Lochs mit doppelter Sonnenmasse etwa 1067 Jahre.

     
    Beides zusammen zeigt uns, dass im Urknall entstandene Schwarze Löcher (sog. primordiale – urzeitliche –) nur dann heute noch existieren können, wenn sie damals mindestens die Masse eines mittelgroßen Berges hatten.
     
    Derart kleine Schwarze Löcher können im heutigen Universum nicht entstehen, da der Entartungsdruck sowie der Druck aufgrund von Kernreaktionen den Gravitationskollaps solch kleiner Massen verhindern. Sie könnten aber im Urknall entstanden sein, da alle Materie damals einem Druck unterworfen war, der den im Inneren eines heutigen Sterns bei weitem übertraf.
     
    Rechnungen — durchgeführt von Hawking und unabhängig davon seitens russischer Wissenschaftler — zeigen, dass winzige Klumpen in der aus dem Urknall entstandenen Materie kleine Schwarze Löcher gebildet haben könnten, wenn die Zustandsgleichung dieser Klumpen » weich « war, d.h. wenn der Druck bei Volumenverminderung nur langsam anstieg.
     
    Wenn solche Klumpen dann nämlich durch sie umgebende Materie stark komprimiert wurden, könnten sie zu Schwarzen Löchern geworden sein (eine Vorgang, der vergleichbar wäre mit dem Entstehen von Diamanten, wenn gewaltige Kräfte Kohlenstoff zusammen drücken).
     
     
    Heute noch existierende primordiale Schwarze Löcher müssten in hohem Maße Teilchen abdampfen — Teilchen jeder Art, also z.B. auch Gammastrahlung (d.h. hochenergetische Photonen, die auf zufälligen Bahnen den Raum durchqueren).
     
    Solche Gammastrahlung existiert, doch lässt sie sich in der beobachteten Intensität durch andere Prozesse erklären. Da also nicht mehr beobachtet wird, folgt aus Rechnungen von Hawking und Page, dass jedes Kubik-Lichtjahr unseres Universums höchstens 300 heute noch nicht verdampfter primordialer Schwarzer Löcher enthalten kann.
     
     

    Quelle: Kip S. Thorne: Gekrümmter Raum und verbogene Zeit (1994), S. 512-513


     

     Beitrag 0-263
    Schwarze Löcher » verdampfen « mit wachsender Geschwindigkeit und explodieren schließlich

     
     

     
    Wie stark strahlen Schwarze Löcher?

     
     
    Hawking wurde bekannt durch seine Entdeckung, dass auch Schwarze Löcher Strahlung, ja sogar Materie abgeben, sozusagen "verdampfen".
     
    Ein Schwarzes Loch mit n-facher Sonnenmasse wird in 1064n3 Jahren verdampft sein.



    Hawking schrieb dazu (1977 im Scientific American):
     
    Inzwischen ist die mathematische Evidenz dafür, dass Schwarze Löcher thermisch emittieren können, durch einige andere Forscher mittels verschiedenster Verfahren bestätigt worden. Ich will nur eine Möglichkeit beschreiben, wie man sich das erklären kann:
     
    Die Quantenmechanik sagt, dass der Raum mit Paaren virtueller Teilchen erfüllt ist, die ständig paarweise entstehen (als Teilchen und ihm zugeordnetes Antiteilchen), um sich dann aber schnell wieder – durch Zusammenkommen – gegenseitig zu vernichten. Man kann sie nicht direkt, einzeln also, beobachten, wohl aber über indirekte Effekte messen (die sog. Lamb-Verschiebung, welche sie im Lichtspektrum angeregter Wasserstoffatome hervorrufen, bestätigt ihre Existenz).
     
    In Gegenwart eines Schwarzen Lochs kann nun ein Partner so eines Paares virtueller Teilchen ins Loch fallen. Das im Stich gelasse Teilchen oder Antiteilchen kann ihm entweder folgen oder kann ins Unendliche entwichen, wo es dann den Eindruck hervorruft, es sei vom Schwarzen Loch emittierte Strahlung.
     
    Dieser Prozess lässt sich aber auch so verstehen, dass der ins Schwarze Loch fallende Partner – nehmen wir an, das Antiteilchen – in Wirklichkeit ein Teilchen ist, das sich in der Zeit rückwärts bewegt, also aus dem Schwarzen Loch herauskommt. Wenn es den Punkt erreicht, an dem sich das Paar ursprünglich materialisiert hat, wird es vom Gravitationsfeld gestreut, so dass es sich nun vorwärts durch die Zeit bewegt.
     
    So ist es nach der Quantenmechanik einem Teilchen möglich, aus dem Inneren eines Schwarzen Lochs zu entweichen – etwas, das die klassische Mechanik nicht zulässt. Die Atom- und Kernphysik kennt noch viele andere Situationen, in denen es eine Art Barriere gibt, die nach klassischen Prinzipien für Teilchen undurchdringlich ist, welche sie dank quantenmechanischer Prinzipien aber dennoch durchtunneln können.
     
    Die Dicke der Barriere um ein Schwarzes Loch ist proportional zu seiner Größe, so dass ein massereiches Schwarzes Loch nur wenig, ein extrem kleines aber sehr stark strahlen kann:
       
    • Ein Schwarzes Loch mit Sonnenmasse hat eine Temperatur von nur etwa 10-7 Kelvin,
       
    • eines mit etwa einer Milliarde Tonnen — d.h. ein urzeitliches Schwarzes Loch von etwa der Größe eines Protons — aber hat eine Temperatur von etwa 120 Milliarden Kelvin. Es ist deswegen in der Lage, Elektron-Positron-Paare und masselose Teilchen zu erschaffen, beispielsweise Photonen, Neutrinos und Gravitonen und würde Energie so viel freisetzen wie etwa 6 große Kernkraftwerke zusammen.

    Solcher Teilchenemission wegen verliert ein Schwarzes Loch ständig an Masse und Größe, wird sich also irgendwann verflüchtigen.
     
    Bei großen Schwarzen Löchern wird dieser Prozess sehr viel Zeit in Anspruch nehmen — etwa 1066 Jahre, falls so ein Loch Sonnenmasse hat.
     
    Je kleiner das Loch wird, desto mehr beschleunigt sich der Verdampfungsprozess, und so sollten urzeitliche Schwarze Löcher von [ damals? ] Protonengröße sich heute fast völlig aufgelöst haben. Sie müssten jetzt harte Gammastrahlen von etwa 100 Mio eV emittieren.
     
    Nach Berechnungen von Don N. Page, die auf Messungen des kosmischen Gammastrahlenhintergrunds durch den Satelliten SAS-2 beruhen, sollte die durchschnittliche Dichte urzeitlicher (man sagt: primordaler) Schwarzer Löcher heute bei etwa 200 pro Kubiklichtjahr liegen, so dass das der Erde nächstgelege von uns etwa so weit entfernt sein könnte wie Pluto.
     
    Das letzte Stadium der Auflösung eines Schwarzen Lochs würde sich so rasch vollziehen, dass es in einer gewaltigen Explosion mündet. Wie stark sie sein würde, hinge ab von der Zahl der vorhandenen Elementarteilchen-Familien:
       
    • Bestünden alle Teilchen aus — wie wir heute (1977) annehmen — sechs Arten von Quarks, würde die abschließende Explosion ein Energieäquivalent von etwa 10 Mio Wasserstoffbomben zu je einer Megatonne aufweisen.
       
    • Andererseits hat Rolf Hagedorn (CERN) eine Theorie vorgeschlagen, derzufolge es unendliche viele Familien von Elementarteilchen mit immer größerer Masse geben muss. Während das Schwarze Loch dann also immer kleiner würde, würde es zunehmend mehr Elementarteilchen — und auch zunehmend mehr Arten von Elementarteilchen — emittieren und schließlich in einer Explosion enden, die womöglich 100 000 Mal heftiger sein könnte als die nach der Quark-Hypothese.

    Und so könnte Beobachtung der Explosion eines Schwarzen Lochs sehr wichtige Information über die Physik der Elementarteilchen liefern — Information, die möglicherweise auf keinem anderen Weg zu beschaffen ist.
     
    Ein vorläufiges Experiment von Neil A. Porter und Trevor C. Weekes (Dublin) deutet darauf hin, dass — wenn Hagedorns Theorie zutreffen sollte — es pro Jahrhundert und Kubiklichtjahr in unserer Region der Milchstraße ein bis zwei Explosionen Schwarzer Löcher geben könnte. Von ihnen ausgesandte Elektronen und Positronen würden eine Stoßwelle im elektrischen Feld verursachen: sog. Cherenkov-Strahlung, die von der Erde aus als Lichtblitz wahrnehmbar wäre.
     


     
    Quelle: Stephen Hawking: Einsteins Traum, Expeditionen an die Grenze der Raumzeit, Rowohlt 1993, S. 104-110

     


    Hawking erklärte dort weiter:
     
    Die von einem Schwarzen Loch emittierten Quanten kommen aus einer Region heraus, die ein außen weilender Beobachter nur nach Masse, Drehimpuls und elektrischer Ladung kennen kann. Alle aus ihr kommenden Konfigurationen emittierter Teilchen, welche [ als Konfiguration ] gleiche Energie, gleichen Drehimpuls und gleiche Ladung haben, sind gleich wahrscheinlich. Tatsächlich könnte es sich dabei — allerdings nur mit ganz extrem geringer Wahrscheinlichkeit (d.h. nur rein theoretisch) — auch um einen Fernsehapparat oder Prousts Werke in 10 Lederbänden handeln. Die wahrscheinlichsten Konfigurationen aber entsprechen einer Emission mit nahezu thermischem Spektrum.
     
    Prinzipiell gilt: Das Schwarze Loch wird vorzugweise Teilchen emittieren, deren Ladung das gleiche Vorzeichen hat wie seine eigene, wird also an Ladung verlieren. Gleiches gilt für Drehimpuls.
     
    Das Schwarze Loch "erinnert sich" sozusagen an die elektrische Ladung, den Drehimpuls und die Masse der kollabierten Materie — aber an nichts sonst, da nur diese drei Größen an fernwirkende Felder gekoppelt sind: Ladung ans elektrische Feld, Masse und Drehimpuls ans Gravitationsfeld.
     
    Experimente von Robert H. Dicke (Princeton) und Wladimir Braginskij (Moskau) deuten darauf hin, dass kein fernwirkendes Feld mit der Quanteneigenschaft Baryonenzahl verknüpft ist. Deshalb würde ein Schwarzes Loch, das seine Existenz dem Zusammensturz einer Ansammlung von Baryonen verdankt (Proton und Neutron gehören dazu) seine Baryonenzahl "vergessen" und somit Baryonen und Antibaryonen in gleicher Zahl abstrahlen. Durch sein Verdampfen würde es daher gegen eines der heiligsten Gesetze der Quantenphysik verstoßen: das Gesetz der Baryonenerhaltung. Es lautet: Wo in einem Quantenereignis Teilchen verschmelzen und neu entstehen, bleibt die Anzahl der Baryonen minus die Anzahl der Antibaryonen konstant. Gleichbedeutend damit ist, dass die Zahl der Baryonen erhalten bleibt [1].
     


     
     
    Warum Schwarze Löcher umso stärker strahlen, je kleiner sie sind
     
    Die Hawking-Temperatur, so schriebt Claus Kiefer, ist umgekehrt proportional zur Masse des Schwarzen Lochs.

     
    Der Astrophysiker Günter Hasinger erklärt es so:



    Hasinger in Das Schicksal des Universums, 2007, S. 207-208:
     

    Hawking rechnete aus, dass
       
    • die Wellenlänge der durch ihn entdeckten Strahlung stets in etwa so groß sein wird wie der Schwarzschild-Radius des Lochs:
       
      Der Grund hierfür: Bei einem wesentlich weniger oder wesentlich mehr Energie darstellenden Paar virtueller Teilchen ist es unwahrscheinlich, dass nur einer der beiden Partner ins Loch fällt.

    Konsequenzen daraus:
       
    • Je kleiner die Masse eines Schwarzen Lochs, desto energiereicher seine Hawking-Strahlung.
       
    • Je größer ein Schwarzes Loch ist, desto länger lebt es: Ein Schwarzes Loch mit 1 Sonnenmasse etwa lebt 1067 Jahre. Umgekehrt leben kleine Schwarze Löcher nur kurz und verdampfen schließlich in einem Gammablitz. Aus eben diesem Grund, können uns in Teilchenbeschleunigern oder in kosmischer Strahlung entstehende winzige Schwarze Löcher auch nicht gefährlich werden.
       
      Eines der wichtigen wissenschaftlichen Ziele am CERN ist mittlerweile der Nachweis der Hawking-Strahlung der im Beschleuniger künstlich erzeugten Schwarzen Löcher.
       
    • Im heutigen Universum scheint es sehr kleine Schwarze Löcher kaum mehr zu geben — wir müssten sonst ihr Gammaleuchten sehen.
       



    Claus Kiefer in Quantenkosmos (2008), S. 132:
     
    Damit ein Schwarzes Loch nur noch 10 Mrd. Jahre benötigt, um ganz "verdampft" zu sein, muss es schon auf die Größe eines Atomkerns geschrumpft sein (und eine Masse von nur noch etwa 500 Mio Tonnen haben — das ist etwa die Masse eines kleinen Asteroiden).
     



     

     Beitrag 0-291
    Zum Schicksal Schwarzer Löcher

     
     

     
    Zum Schicksal Schwarzer Löcher



    Rüdiger Vaas ( in Hawkings Kosmos einfach erklärt, 2011, S. 172-175 ):
     
    Bekenstein konnte zeigen, dass die Entropie eines Schwarzen Lochs proportional zur Fläche seines Ereignishorizonts ist. Doch was Entropie hat, besitzt auch Temperatur und muss daher Wärme abgeben. Dies — so hat Hawking erkannt — bedeutet, dass selbst Schwarze Löcher nicht völlig schwarz sein können: Sie müssen Strahlung abgeben — wie wenig auch immer.
     
    Hawkings Argumentation nach entzieht die Unschärferelation dem Gravitationsfeld eines Schwarzen Lochs Energie: Quanteneffekte an seinem Ereignishorizont sorgen dafür, dass Schwarze Löcher Energie abgeben — und zwar umso mehr, je kleiner und masseärmer sie sind. Ab einer hinreichend kleinen Größe explodieren sie dann förmlich.
     
    Ihre Temperatur ist im Normalfall winzig — bei einem stellaren Schwarzen Loch beträgt sie noch nicht mal 10-7 Kelvin —, doch wenn der Raum ständig expandiert und das Universum beliebig alt werden kann, werden irgendwann sämtliche Schwarzen Löcher tatsächlich verdampfen. Gegenwärtig allerdings gewinnen sie schon allein durch die kosmische Hintergrundstrahlung noch mehr dazu als sie verlieren.
     
    Bis ein stellares Schwarzes Loch verdampft ist, dauert das etwa 1066 Jahre. Für eines der besonders großen, wie sie sich im Zentrum von Galaxien finden, sogar bis zu 10100 Jahre.
     
    Nun lässt zwar das Ende gewöhnlicher Schwarzer Löcher ja noch lange auf sich warten, aber vielleicht kann man solche Explosionen dennoch schon heute beobachten: Hawking und andere halten es nämlich für möglich, dass Dichteschwankungen während des Urknalls kleine Schwarze Löcher geschaffen haben, die so klein waren, dass sie heute nahezu verdampft sein müssten (man nennt sie primordale Schwarze Löcher).
     
    Einige von ihnen könnten noch heut durchs All schwadronieren und intensive Gammastrahlung abgeben. In der Größe eines Protons hätten sie eine Masse vergleichbar des des Mount Everest (fast 1 Mrd. Tonnen). Im Zuge ihrer Explosion freigesetzte Energie entspräche der Sprengkraft, welche der simultanen Detonation einiger Millonen Atombomben entspräche.
     
    Gammastrahlen-Teleskope haben zwar noch keine solchen Blitze erspäht, aber vielleicht nur deswegen, weil sie relativ selten sein müssten: Man rechnet mit höchstens einem pro Jahrhundert und Kubik-Lichtjahr.
     



     

     Beitrag 0-292
    Können Schwarze Löcher Information exportieren?

     
     

     
    Können Schwarze Löcher Information exportieren?
     
    Welche genau?

     
     
    Hawkings Argumentation, dass Schwarze Löcher Strahlung abgeben und daher irgendwann "verdampft" sein werden, wird allgemein anerkannt und gilt — obgleich experimentell noch nicht nachgewiesen — als eine der wichtigsten Erkenntnisse Theoretischer Physik.
     
    Doch steht seitdem die Frage im Raum, ob — und wenn ja, in welchem Sinne genau — das Verdampfen Schwarzer Löcher Information zerstört.
     
    Hawking selbst war ursprünglich der Meinung, die von ihm entdeckte Strahlung sei zu 100% thermisch, würde als keinerlei Information aus dem Schwarzen Loch heraustragen können. Da ins Schwarze Loch fallende Materie aber auf jeden Fall Informationsträger ist, müsste — spätestens nachdem das Loch verdampft ist — Information aus unserem Universum verloren gegangen sein.
     
    Viele Physiker — insbesondere Susskind und Preskill — widersprachen ihm heftig und sind fest davon überzeugt, dass Information nicht verloren gehen kann. Dies hat zu zwei wichtigen Fragen geführt:
       
    • Gibt es einen Erhaltungssatz für Information?
       
    • Wenn ja: Auf welche Art von Information genau bezieht er sich?

    Die zweite dieser Fragen findet man seltsamerweise nirgendwo wirklich diskutiert. Man scheint anzunehmen, dass es sich um genau die Information handelt, welche codiert ist durch die Wellenfunktion des Universums:
      A fundamental postulate of the Copenhagen interpretation of quantum mechanics is that complete information about a system is encoded in its wave function up to when the wave function collapses. The evolution of the wave function is determined by a unitary operator, and unitarity implies that information is conserved in the quantum sense.
       
      Man kann bezweifeln, ob das Argument, die Evolution sei wenigstens prinzipiell umkehrbar, hier Sinn macht: Die Umkehrung könnte ja schließlich nur dann gedacht werden, wenn die Natur für jeden Kollaps der Wellenfunktion festhalten würde, welcher Operator ihn bewirkt hat.
       
      Glaubwürdiger erscheint: Wenn ein Schwarzes Loch ein Raumschiff verschluckt, in dem jemand gerade eben ein Gedicht schrieb oder einen zündenden Gedanken hatte, wird dieses Gedicht oder dieser Gedanke ein für alle Mal verloren sein.

     
    Im Juli 2004 hat Hawking sich zur Meinung seiner Kritiker bekehrt und auf der 17. Internationalen Konferenz für Allgemeine Relativitätstheorie und Gravitation Argumente vorgetragen, die ihn zu seinem Sinneswandel bewogen hatten. Seine Beweisführung allerdings scheint niemand verstanden oder gar als ausreichend nachvollziehbar eingestuft haben.
     
    Erst Jahre später, in 2016, hat Hawking auf ArXiv erneut ein Papier dazu veröffentlicht, das zu einem Beweis führen könnte. Es schließt mit den Worten:
      We have reconsidered the black hole information paradox in light of recent insights into the infrared structure of quantum gravity. An explicit description has been given of a few of the pixels in the holographic plate at the future boundary of the horizon. Some information is accessibly stored on these pixels in the form of soft photons and gravitons. A complete description of the holographic plate and resolution of the information paradox remains an open challenge, which we have presented new and concrete tools to address.

     
    Letztlich hat Hawking damit zugegeben, dass die Frage, ob Schwarze Löcher nicht vielleicht doch Information vernichten, bis heute noch nicht zuverlässig genug beantwortbar ist:

     
    Obgleich die Mehrheit der Physiker nicht bereit ist, an Informationsverlust zu glauben, gibt es noch keinen wirklichen Konsens.
     
    Insbesondere ist völlig unklar, wie Hawking-Strahlung Information aus dem Loch heraustragen könnte.


     

     Beitrag 0-315
    Können Schwarze Löcher Information vernichten?

     
     

     
    Können Schwarze Löcher Information vernichten?

     
     
    Physiker denken, Information könne nicht zerstört werden (wobei sie aber nirgendwo sagen, was genau sie hierbei unter "Information" verstehen). Auf jeden Fall behaupten sie, die Gesetze der Quantenmechanik würden garantieren, dass Information — auch solche, die wir Entropie nennen — nicht verloren gehen könne.

      Note: Entropie, so definiert Susskind, ist Information, die — obgleich von der Natur geliefert — uns verborgen ist, da sie gespeichert ist in Dingen,
      die zu klein und deutlich zu zahlreich sind, als dass wir sie uns einzeln und im Detail ansehen könnten.

     
    Nachdem Hawking entdeckt hatte, dass Schwarze Löcher "verdampfen" (Stichwort: "Hawking-Strahlung"), schloss er daraus, dass ins Schwarze Loch "gefallene" Information nicht auf ewig erhalten bleiben kann.
     
    Der Großteil aller theoretischen Physiker hat damals sein Argument als schlüssig empfunden — einige aber, allen voran Leonhard Susskind und Gerardus 't Hooft — waren anderer Meinung.
     
    Wie Susskind in seinem Buch Der Krieg ums Schwarze Loch: Wie ich mit Stephen Hawking um die Rettung der Quantenmechanik rang ausführlich berichtet, schien eine Anfang der 1990-er Jahre gemachte stringtheoretische Entdeckung von Maldacena dann schließlich zu zeigen, dass selbst das Verdampfen Schwarzer Löcher nicht zur Vernichtung von Information führen kann.

       
      Hawking, so schreibt Susskind, gab sich schließlich öffentlich geschlagen (2004, 2007).
       
      Roger Penrose allerdings war der Meinung, Maldacenas Argument könne nicht schlüssig sein.
      Niemand reagierte auf seinen Einwand.
       
      Inzwischen kamen aber nicht nur Hawking, sondern auch anderen Physikern erneut Zweifel an der Erhaltung ins Loch gefallener Information.

     
    Der derzeitige Stand der Diskussion — der noch keine endgültige Antwort kennt — ist skizziert in

     
    Zeeya Merali: Astrophysics: Fire in the Hole (2013) und W.G. Unruh, R.M. Wald: Information Loss (2017).

     
    Wahrscheinlich wird erst eine allgemein anerkannte, gut ausgearbeitete Theorie der Quantengravitation die Frage entscheiden können.

     

     Beitrag 0-345
    Wichtige Lösungen der Einsteinschen Feldgleichung Allgemeiner Relativitätstheorie

     
     

     
    Relativitätstheorie im Sonnensystem

     
     
    Wo immer man eine konkrete Region im All mit Hilfe von Einsteins Allgemeiner Relativitätstheorie untersuchen möchte, benötigt man dazu eine passende Lösung seiner Feldgleichungen.
     
    Wer etwa in unserem Sonnensystem argumentieren möchte, für den reicht die einfachste aller Lösungen: die sog. Schwarzschild-Raumzeit.
     
    Die Schwarzschild-Lösung ist eine exakte Lösung und zudem — so konnte bewiesen werden — die einzige Lösung, die eine statische Raumzeit liefert: ein Raumzeitmodell also, in dem der Raum über die Zeit hinweg weder expandiert noch schrumpft.
     
     
    Ließe sich die Sonnenmasse so stark komprimieren, dass der Sonnenradius nur noch etwa 3 km groß wäre (er ist heute etwa 700 000 km groß), würde aus der Sonne ein Schwarzes Loch (ein nicht rotierendes im Modell der Schwarzschild-Raumzeit).
     
    Während im Sonnensystem Einsteins Gravitationstheorie gegenüber der von Newton nur kleine Korrekturen bringt, dominieren solche Korrekturen nahe am Ereignishorizont eines Schwarzen Lochs das Geschehen:
     
    Uhren, die sich dem Ereignishorizont nähern, gehen aus Sicht entfernter Beobachter immer langsamer: Die gravitative Zeitverzögerung wird direkt am Ereignishorizont unendlich groß. Wie ein Raumfahrer in einem Schwarzen Loch verschwindet, kann deswegen nie beobachtet werden. Der Raumfahrer selbst wird jedoch keine Änderung seines Uhrengangs beobachten. Das folgt direkt aus dem Äquivalenzprinzip.
     
    Signale, die er kurz vor dem Ereignishorizont noch absetzt, werden dem Beobachter zudem stark rotverschoben erscheinen. Dies bewirkt, dass jedes ins Schwarze Loch fallende Objekt sehr schnell unsichtbar wird — auch wenn seine Bewegung von außen her gesehen am Rande des Ereignishorizonts zum Stillstand kommt.
     

     
     
    Noch eine exakte Lösung der Einstein-Gleichungen

     
    Sie beschreibt ein rotierendes Schwarzes Loch, wurde 1963 vom Neuseeländer Roy Kerr entdeckt und ist eindeutig gegeben durch die beiden Parameter Masse und Drehimpuls.
     
    Im Unterschied zu Schwarzschilds Lösung ist die von Kerr nicht mehr kugelsymmetrisch. Sie ist aber rotationssymmetrisch in Bezug auf die Drehachse.
     
     
     
    Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 67-70.


     

      Beitrag 2024-1
    Was abgeht, wenn Schwarze Löcher zusammenstoßen ...

     
     
    Auf Wissen ist MAX — einem Wissensportal der Max-Planck-Gesellschaft — findet sich ein kurzer Artikel


    über die Gewalt des Zusammenstoßes Schwarzer Löcher,


    aus dem sehr schön klar wird, warum es so schwierig ist, Gravitationswellen zu messen, also nachzuweisen.

     

      Beitrag 2084-6
    -

     
     
    Hans-m in 2084-3:
     
    Was wäre, wenn 2 SL mit enormer Geschwindigkeit zusammenprallen würden?
    Wäre die dabei auftretende Energie ausreichend, eines, oder auch beide SL auseinderzureissen, zu "zerbröseln", ...?


    Diese Frage findet sich beantwortet auf Seite What would happen if two black holes collided?

     

      Beitrag 1955-183
    Was im Schwarzen Loch erhalten wird

     
     
    Hans-m aus 1955-181:
     
    Was ich damit sagen will ist, dass auch das, was uns das Schwarze Loch vorenthält, z.B das Licht, das darin verschwindet, uns Informationen liefern kann. So deutet die Tatsache, dass Licht in einem SL "rückstandslos verschlungen" wird, auf eine extreme Gravitation hin. Es sagt uns auch, dass die Fluchtgeschwindigkeit des SL grösser sein muss, als die Lichtgeschwindigkeit.

    Henry aus 1955-177:
    Die Information, die in einem SL verschwindet, ist danach nicht für alle Zeit verloren.

    Informationen sind nicht verloren, sondern quasi darin konserviert. Ein aussen stehender hat darauf keinen Zugriff, was aber nicht bedeutet, dass die Information nicht mehr in unserem Universum existiert.


    Hallo Hans & Henry:

    was ihr beide hier mit "Information" bezeichnet, ist meiner Ansicht nach nur die Kapazität, jene Information zu speichern.

    Wenn nämlich z.B. ein Heft, in dem sich jemand Telefon-Nummern notiert hat, in ein Schwarzes Loch fällt, wird das Wissen über jene Telefonnummern ganz sicher niemals mehr aus dem Schwarzen Loch rauskommen.

    Gruß, grtgrt

     

      Beitrag 1955-185
    -

     
     
    Henry aus 1955-177:
     
    Die Information, die in einem SL verschwindet, ist danach nicht für alle Zeit verloren.

    Henry aus 1955-184:
     
    Ich verstehe darunter elektrische Ladung, Spin, Masse, Drehimpuls, Impuls usw., kurz das, was im Wesentlichen z. B. ein Teilchen beschreibt.

    Nachdem ein Schwarzes Loch ganz  e x t r e m  dicht gepackte Materie darstellt, werden die Teilchen darin doch auch besonders oft zusammenstoßen, sich in ihrem Zustand gegenseitig also ständig neu definieren (mindestens – aber wohl keineswegs nur – hinsichtlich Impuls, Drehimpuls, und Spin).

    Unverändert erhalten bleiben kann eigentlich nur die Summe aller ins Loch gewanderten Energie und Ladung.

     

      Beitrag 1955-189
    -

     
     
    Henry aus 1955-188:
     
    Ein SL hat einen inneren Aufbau (wie die mathematischen Modelle zeigen). Die Grenze zum Rest der Welt bildet der Ereignishorizont, abhängig vom Schwarzschild-Radius, das ist die Fläche, die keinerlei Materie oder Information mehr überwinden kann, wenn sie in das SL hineingefallen ist. Die Größe eines SL bemessen danach kann durchaus einige Astronomische Einheiten betragen. Was du ansprichst, ist der "Punkt" innerhalb des SL, wo die Dichte gegen unendlich geht, oder anders gesagt, wo die ART ihre Aussagefähigkeit einbüßt.

    Guten Morgen, Henry,

    was du mir hier erklärst, sehe ich auch so.
    Ich kann aber NICHT erkennen, wieso daraus ein Widerspruch zu meiner Argumentation aus Beitrag 1955-185 folgen soll.

    Was im Inneren des Schwarzen Loches liegt (d.h. schon hinterm Ereignishorizont) wird dort ja sicher mindestens so stark in Richtung der Singularität gezogen, wie etwas, das sich kurz vor dem Ereignishorizont — oder auf ihm — befindet. "Etwas" in diesem Sinne ist alles, was der Gravitationskraft unterliegt, d.h. alles, was Energie trägt, auf jeden Fall also alle Elementarteilchen. Andere Informationsträger aber kann ich nicht erkennen.

    Nachdem nun aber all dieses Teilchen auf denselben Punkt hin beschleunigt werden, können sie gar nicht anders, als zuzusammenzustoßen — und zu solchen Zusammenstößen wird es allein schon der Unschärfe-Relation wegen nicht erst in der Sigularität selbst kommen.

    Gruß, grtgrt

    PS: In Wikipedia steht explizit:

    Zitat:
     
    None of the special particle physics pseudo-charges (baryonic, leptonic, etc.) are conserved in the black hole.

     

      Beitrag 1955-191
    Was auf dem Ereignishorizont codierbar ist (natürlich nur in Gedanken)

     
     
    Henry aus 1955-190:
    Übrigens gibt es eine These (weiß im Moment nicht, von wem), die besagt, dass die Information im Ereignishorizont "codiert" ist.

    So ist es. Wikipedia nennt Details:

    Zitat:
     
    Der Ereignishorizont, als vom Schwarzschildradius gebildete Grenzfläche des Schwarzen Loches, ist ein direktes Maß für die Entropie oder den Informationsgehalt des eingeschlossenen Raumvolumens und damit der darin enthaltenen Massen.

    Ein Schwarzes Loch stellt immer die maximal mögliche Materiekonzentration eines Raumgebietes dar und somit auch die Obergrenze an möglicher Entropie oder Information in dem von ihm eingenommenem Raumvolumen (Bekenstein-Grenze).

    Das holografische Prinzip postuliert, dass jede Information, die den Ereignishorizont eines Schwarzen Loches überschreitet, auf der vom Schwarzschildradius aufgespannten Grenzfläche vollständig codiert wird, ähnlich einem zweidimensionalen Hologramm, das eine dreidimensionale Bildinformation enthält.

    Da der Schwarzschildradius eines Schwarzen Loches lediglich direkt proportional zu dessen Masse ist, wächst das codierbare Volumen mit dem Quadrat der Oberfläche. Um das vierfache Volumen zu codieren ist so lediglich eine Verdoppelung der Grenzfläche vonnöten, oder anders ausgedrückt, die Informationsdichte eines Raumgebietes nimmt mit dessen Volumen ab (wie analog, mit der Größe eines Schwarzen Lochs auch dessen mittlere Massendichte abnimmt). Oder knapper: Information gleich Fläche.
     

    PS: Dass jene Info auf dem Ereignishorizont kodiert ist, darf man wohl nicht wörtlich nehmen. Wirklich gemeint ist, dass sie dort kodiert sein  k ö n n t e  (denkt man sich jene Fläche nämlich zerlegt in Quadrate, deren Seitenlänge gerade ein Planck-Länge ist, so ist die Zahl dieser Quadrate gleich der Zahl der Bits, die notwendig sind, die maximal im Schwarzen Loch vorhande Information binär zu kodieren).

     

      Beitrag 1955-195
    Wie konkret das Holographische Prinzip (theoretischer Physik) wirklich ist

     
     
    Henry aus 1955-192:
     
    ... gemeint ist die Äquivalenz der Beobachtung direkt am Horizont und weit weg davon. Der Beobachter am Ereignishorizont sieht die Information der Materie "codiert" im Ereignishorizont.

    Durch die Hawking-Strahlung wird die Information (sehr viel später) wieder freigesetzt. Susskind heißt der Mensch übrigens.

    Hallo Henry,

    mir scheint, wir haben beide das sog.   holographische Prinzip (im Sinne der Physik)  konkreter verstanden, als es bisher ist:
    • Du denkst » Der Beobachter am Ereignishorizont  s i e h t  die Information der Materie "codiert" im Ereignishorizont «.
    • Ich dachte bisher, es sei eine » mathematisch exakte Isomorphie des 3-dimensionalen Raumes innerhalb des Ereignishorizonts eines materie-behafteten physikalischen Objekts auf seinen 2-dimensionalen Ereignishorizont «.

    Wir liegen da wohl beide falsch, denn
    • zum einen ist der Ereignishorizont ist eine nur gedachte Kugeloberfläche (auf der man deswegen nichts wirklich sehen kann),
    • und zum anderen liest man in Wikipedia, dass das holographische Prinzip "in Theorien der Quanten-Gravitation" nur eine  V e r m u t u n g  sei (statt mathematisch exakter Isomorphie also nur eine  A n a l o g i e ).

    Mit anderen Worten: Wer, wie wir beide, die Stringtheorie nicht wirklich versteht, für den bleibt das Ganze nur ein Wort, dessen Sinn man nicht wirklich verstehen kann.
    Schade — aber wohl nicht zu ändern.

    Beste Grüße,
    grtgrt

     

      Beitrag 2009-5
    Was man unter dem » Verdampfen « Schwarzer Löcher versteht

     
     
    Henry aus 2009-4:
    Rockdee aus 2009-3:
     
    Habe mal ne Frage ...
    Die Hawking-Strahlung besagt doch, dass SL Strahlung emittieren.
    Würde das nicht heißen, dass der Kosmos doch noch Zugang zu Informationen des SL habe?
    Oder muss ich hier den informationsbegriff anders verstehen?

    Diese Strahlung entsteht dadurch, dass direkt am Ereignishorizont so genannte "virtuelle Teilchen" entstehen. Die entstehen immer als Teilchen-Paare, Teilchen - Antiteilchen. Die Teilchen-Paare Vernichten sich gewöhnlich sofort wieder - deshalb "virtuell" -, aber am Ereignishorizont kann eins der Teilchen im SL verschwinden, und das andere entweicht ins All - und aus diesen Teilchen besteht die Strahlung.

    Es ist also keine Information über das SL, außer, das sich seine Masse vergrößert.


    Nein Henry,

    es ist keineswegs so, dass die Masse des Schwarzen Lochs sich so vergrößert —  genau das Gegenteil ist richtig: Sie  v e r k l e i n e r t  sich  ( weswegen man denn auch sagt, das SL "verdampfe" ).

    Folgende Erklärung auf ThinkQuest.org begründet das:

    Zitat:
     
    Da virtuelle Teilchen überall, sogar im Vakuum auftauchen können, stellen wir uns vor, dass ein Paar virtueller Photonen direkt vor dem Ereignishorizont eines schwarzen Loches mit entgegengesetztem Spin und Impuls auftauchen. Stellen wir uns nun vor, dass die Gezeitenkräfte des Loches es schaffen, in der kurzen Verweildauer von nur das virtuelle Photonenpaar zu trennen und sich ein Photon einzuverleiben, während das andere Photon den Gezeitenkräften des schwarzen Loches entkommt. (Dies kann nur an der Grenze geschehen, an der die Fluchtgeschwindigkeit des schwarzen Loches die des Lichts (300000 km/s) übersteigt, d.h. am Ereignishorizont.)

    Während sich das eine Photon also wieder in die Weiten des Alls begibt, ist das andere Photon unwiderruflich hinter dem Ereignishorizont verschwunden und somit vom restlichen Universum für immer abgeschnitten. Nun ist es aber so, dass der Energieerhaltungssatz nach der Heisenbergschen Unschärferelation nur sehr kurz verletzt werden darf. Die Energie, die dem System "Vakuum und Schwarzes Loch" durch das Auftreten des virtuellen Photonenpaares entzogen wurde, muß ihm wieder zurückgegeben werden. Das ist in diesem Fall die Energie zweier Photonen.

    Vom entkommenden Photon kann allerdings keine Energie zurückgegeben werden, denn es wechselwirkt nicht mehr mit dem schwarzen Loch. Durch den Verlust seines Partners wurde es in ein reelles Photon umgewandelt. Dieses Photon ist in den Weltraum entflohen. Aber auch das vom schwarzen Loch eingefangene Photon kann seine Energie an das Vakuum nicht zurückgeben, denn es ist für immer aus dem Universum verschwunden. Also muß das schwarze Loch sich dazu bereit erklären, dem Vakuum seine Energie zurückzugeben, damit der Energieerhaltungssatz wieder zutrifft. In diesem Fall muß es die Energie des eingesogenen und des entkommenen Photons zurückgeben. Da es die Energie des eingesogenen Photons für sich gewinnen konnte, büßt es dennoch die Energie des ent­kommenden Photons ein. Durch diesen Energieverlust verliert es Masse. Das schwarze Loch "verdampft" also.

    Da Photonen nicht nur Energie, sondern auch Impuls und Drehimpuls besitzen, behält das schwarze Loch nicht nur die Energie des eingefangenen Photons (die es dem Vakuum aber wieder zurückgeben mußte), sondern auch dessen Impuls und Drehimpuls. Dadurch, dass das reelle Teilchen entkommt, erscheint es einem äußeren Beobachter, als ob das schwarze Loch strahle.
     
     

      Beitrag 2009-7
    -

     
     
    Henry aus 2009-6:
     
    Das SL verdampft, das ist richtig, aber erst dann, wenn die Temperatur der Umgebung, also des gesamten Kosmos unter die Temperatur des SL gefallen ist, in 10 hoch 100 Jahren, und damit ist überhaupt nicht gesagt, dass die Information, die in das SL gefallen ist, verloren ist - Hawking hat seine Ansicht darüber geändert, die Information ist nicht verloren.


    Der erste Teil dieser Aussage ist absolut falsch.

    Tatsache ist, dass ein Schwarzes Loch erst dann Masse zu verlieren beginnt, wenn seine Temperatur unter eine — von seiner Masse abhängige — Schwelle sinkt.
    Falsch aber ist, dass es dazu erst mal 10100 Jahre alt geworden sein muss. In Wikipedia liest man:

    Zitat:
     
    Quantentheoretische Überlegungen zeigen, dass jedes Schwarze Loch auch Strahlung abgibt. Es findet dabei kein Materie- oder Energietransport aus dem Inneren des Schwarzen Lochs statt. Tatsächlich entstehen Paare von virtuellen Teilchen in der unmittelbaren Umgebung (Casimir-Effekt), von denen manchmal nur eines in das Schwarze Loch gerät und dort anschaulich als negative Energie verrechnet werden muss und somit die Gesamtenergie des Schwarzen Lochs vermindert. Dem außerhalb verbliebenen Teilchen wird gleichzeitig Energie zugeführt und dieses wird letztlich real.

    Durch theoretische Betrachtungen kann diesem Teilchen eine Wellenlänge und damit auch eine Temperatur zugeordnet werden. Von außen betrachtet sieht es also so aus, als würde das Schwarze Loch "verdampfen" und somit langsam kleiner werden. Die beobachtbare Temperatur bzw. Strahlungsfrequenz hängt umgekehrt proportional von der Masse ab. Dies bedeutet für sehr kleine primordiale Schwarze Löcher, dass sie sehr heiß sein und dementsprechend stark strahlen müssten, aber auch schnell verdampfen sollten, eventuell sogar so schnell, dass die beim Urknall entstandenen bereits alle zerstrahlt sein könnten.

    Die dabei entstehende Strahlung wäre aber sehr charakteristisch und könnte vielleicht als Nachweis solcher Löcher dienen. Andererseits gibt die Tatsache, dass man diese Strahlung bisher nicht gesehen hat, eine Obergrenze für ihre Anzahl. Umgekehrt gilt jedoch schon für Schwarze Löcher stellarer Größe, dass sie sehr kalt sein müssen und damit nur sehr langsam an Masse verlieren würden. Ein Schwarzes Loch mit einer Masse von zehn Sonnenmassen hat eine Temperatur von nur wenigen Milliardstel Kelvin und ist damit viel kälter als seine Umgebung (rund 4 K). Effektiv würde es also sogar von seiner Umgebung aufgewärmt und gewänne daher Masse hinzu. Die Lebensdauer eines stellaren Schwarzen Lochs, die durch die Hawking-Strahlung begrenzt ist, ist größer als das bisherige Alter des Universums (rund 14 Milliarden Jahre).

     

     Beitrag 0-52
    Warum Hawking-Strahlung nur kleine Schwarze Löcher schrumpfen (verdampfen) lassen kann

     
     

     
    Warum (noch lange) nur kleine Schwarze Löcher verdampfen können

     
     
    Wie Steven Hawking 1973 entdeckt hat, kann Strahlung — können virtuelle Teilchen einzeln — aus der Umgebung eines Schwarzen Loches verschwinden.
     
    Genauer: Die überall gegenwärtige Erzeugung und Vernichtung virtueller Teilchen durch Quantenfluktuation findet natürlich auch beliebig nahe am Ereignishorizont jeden Schwarzen Loches statt. Virtuelle Teilchen entstehen stets paarweise als Teilchen und entsprechendem Antiteilchen, wobei aufgrund der Energieerhaltung der eine Partner negative und der andere Partner positive Energie haben wird. Virtuelle Teilchen mit negativer Energie können ins Schwarze Loch fallen, womit es dann von seinem Partner durch den Ereignishorizont des Lochs getrennt wird und so als reales Teilchen in den freien Raum entkommen kann.
     
    Das hineinstürzende Teilchen mit negativer Energie setzt dabei eben so viel potenzielle Energie frei, wie für eine Paarbildung sowie das Hinauskatapultieren des anderen Teilchens aus dem Gravitationsfeld nötig ist.
     
    Nach Einsteins Gleichung E = mc2 sind Masse und Energie ein und dasselbe. Fließt also negative Energie in das Schwarze Loch, so verringert das seine Masse.
     
    Diejenigen Teilchen, die dem Schwarzen Loch als reelle Teilchen entkommen, nennt man die Hawking-Strahlung. Bei großen schwarzen Löchern handelt es sich dabei fast ausschließlich niederenergetische Photonen. Der Grund hierfür: Je kleiner ein Schwarzes Loch ist, desto näher ist seine Hülle seinem singulären Mittelpunkt und entsprechend größer sind dann die Kraftdifferenzen in unmittelbarer Umgebung der Hülle.
     
     
    Nur bei hinreichend kleiner Masse des Schwarzen Loches ist die Hawking-Strahlung intensiver als die kosmische Hintergrundstrahlung,
     
    und so können nur  k l e i n e  Löcher mehr Energie durch Hawking-Strahlung verlieren als sie durch Aufsaugen von Hintergrundstrahlung gewinnen.

     
     
    Wo nun aber die Hawking-Strahlung intensiver als die kosmische Hintergrundstrahlung ist, wird die Hülle ständig näher an die Singularität heranrücken, was ständig intensiver werdene Hawking-Strahlung zur Folge hat. Der Verdampfungsprozess schaukelt sich demnach von selbst auf.
     
    Was schließlich im Grenzfall genau passiert, weiß man heute nicht wirklich; die Möglichkeiten — so schreibt Martin Bojowald — reichen von kompletter Verdampfung bis hin zu einem Verschwinden der Hülle. Träte letzteres ein, würde sich das als Explosion bemerkbar machen, in der ein Teil der vorher kollabierten Materie wieder zum Vorschein kommt — eben der Teil, der noch nicht durch Hawking-Strahlung verloren ging.
     
     
    Nebenbei: Obgleich die kosmische Hintergrundstrahlung heute schon auf -270 Grad Celsius abgekühlt ist, ist sie intensiver als die Hawking-Strahlung sämtlicher durch Astronomen heute beobachtbaren Schwarzen Löcher. Erst in sehr ferner Zukunft wird sich der Mikrowellen-Hintergrund infolge der Expansion des Raumes so weit verdünnt haben, dass (erst ab dann) auch schwere Schwarze Löcher buchstäblich "verdampfen". Die sich dadurch ergebenden Phänomene werden wir Menschen sicher nicht mehr beobachten können.

     

      Beitrag 2009-86
    Zur Temperatur Schwarzer Löcher (nach Lisa Randall)

     
     
    Henry aus 2009-10:
     
    ... habe mich leider durch dich in die Irre führen lassen, denn wenn ein SL "verdampft" ist das ein termischer Prozess, und ein Objekt kann nur verdampfen, wenn es WÄREMER ist als die Umgebung. Die Temperatur eines SL ist aber nahe dem absoluten Nullpunkt. Erst in Äonen wird die Temperatur des Alls darunter gefallen sein (Expansion, kosmische Hintergrundstrahlung).


    Hallo Henry,

    ob das "Verdampfen" eines Schwarzen Lochs wirklich ein thermischer Prozess ist, sei mal dahingestellt (ich denke, es handelt sich hierbei eher um einen quanten­mechanischen Prozess, und das Wort "verdampfen" signalisiert nur eine Analogie: das Schrumpfen infolge des Prozesses).

    So richtig klar wir das aber auch bei Lisa Randall nicht.

    Völlig falsch aber ist deine Aussage, die Temperatur Schwarzer Löcher sei grundsätzlich eine nahe dem absolutem Nullpunkt. Hierzu wenigstens ist Lisas Aussage ganz klar.


    Sie schreibt (aus Seite 201-202 ihres Buches "Die Vermessung des Universums"):

    Zitat von Lisa Randall:
     
    Die Oberfläche eines schwarzen Loches ist » heiß « und besitzt eine Temperatur, die von der Masse abhängt. Schwarze Löcher strahlen wie heiße Kohlen und geben Energie in alle Richtungen ab.

    Sie saugen zwar immer noch alles auf, was ihnen zu nahe kommt, aber die Quantenmechanik sagt uns, dass Teilchen von der Oberfläche eines schwarzen Lochs als sog. Hawking Strahlung freigesetzt werden und dadurch Energie abtransportieren, so dass es sich langsam wieder auflöst. Dieser Prozess ermöglichst selbst einem großen schwarzen Loch, alle seine Energie letztlich abzustrahlen und zu verschwinden.

    Da der LHC [ der Large Hadron Collider im CERN ] bestenfalls gerade genug Energie zur Erzeugung eines schwarzen Lochs hätte, wären die einzigen schwarzen Löcher, die er überhaupt bilden könnte, klein.
      Wenn ein schwarzes Loch zu Beginn klein und heiß wäre — wie z.B. eines, das möglicherweise im LHC erzeugt werden könnte — würde es höchstwahrscheinlich sofort verschwinden: Der auf die Hawking-Strahlung zurückgehende Zerfall würde es auf sehr wirksame Wiese auf nichts zurückschrumpfen lassen.
      Selbst wenn sich höher-dimensionale schwarze Löcher bildeten (unter der Annahme, dass [es zusätzliche Dimensionen wirklich gibt und diese Überlegung über­haupt richtig ist), würden sie daher nicht lange genug existieren, um irgendwelchen Schaden anzurichten.

    Große schwarze Löcher verdampfen zwar langsam, aber winzige schwarze Löcher sind extrem heiß und verlieren ihre Energie beinahe augenblicklich.

    In dieser Hinsicht sind schwarze Löcher recht merkwürdig: Die meisten Gegenstände, z.B. Kohlen, kühlen sich ab, wenn sie strahlen. Schwarze Löcher dagegen werden heißer. Die kleinsten sind die heißesten und strahlen daher am stärksten.
     

     

     Beitrag 0-111
    Zur Temperatur Schwarzer Löcher (nach Dieter Lüst)

     
     

     
    Temperatur und Zerfallszeit Schwarzer Löcher

     
     
    Beim Betrachten des Energiespektrums der sog. Hawking-Strahlung Schwarzer Löcher stellt sich heraus, dass jedes Schwarze Loch eine Temperator besitzt, die umgekehrt proportional zur Masse des Lochs ist:
     
    T  ≅  ( h/2π ) c3/M

     
     
    Demnach strahlen schwere Löcher weniger als leichte.
     
    Der Grund hierfür: Je geringer der Schwarzschild-Radius eines Schwarzen Lochs ist, desto stärker ist die Raumzeit an seinem Horizont gekrümmt. Eben diese Krümmung aber begünstigt das Entstehen von Hawking-Strahlung.
     
    Dass die Hawking-Strahlung Schwarzer Löcher quantenmechanischer Natur ist, beweist die Tatsache, dass in die Formel zur Berechnung ihrer Temperatur das Plancksche Wirkungsquantum eingeht.
     
     
    Ein 1012 kg schweres Scharzes Loch hat eine Temperatur von etwa 1012 Kelvin, eines, dessen Masse der unserer Sonne enspricht, eine von nur 10-18 Kelvin.
     
     
     
    Die Zerfallszeit eines Schwarzen Lochs steigt mit der dritten Potenz seiner Masse.

     
     
    Ein Schwarzes Loch mit der Masse der Sonne hat eine Lebensdauer von 1064 Jahren.
     
    Entspricht die Masse eines Schwarzen Lochs aber der eines Elementarteilchens, so wird es schon in Bruchteilen einer Sekunde verdampft sein.
     
    Aus eben diesem Grund muss man nicht fürchten, dass in Beschleuniger-Experimenten (am CERN etwa) entstehende Schwarze Löcher irgend welchen Schaden anrichten oder gar unkontrolliert wachsen könnten.
     
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 208-209

     

      Beitrag 2009-90
    -

     
     
    Henry aus 2009-89:
     
    Und was das Zerstrahlen angeht - natürlich ist die Hawking-Strahlung ein quantenmechanischer Effekt, aber die Strahlung ist eben nichts anderes als Wärmestrahlung (Photonen), also thermisch.


    Virtuelle Teilchen können ganz grundsätzlich von jedem Typ sein.
    Es wird lediglich so sein, dass der weitaus größte Prozentsatz davon wirklich Photonen sind.

     

      Beitrag 2009-24
    Könnte unser Universum Schwarzes Loch eines größeren Universums sein?

     
     
    Hans-m aus 2009-22:
    Grtgrt aus 2009-20:
     
    Was du [ Henry zu sagen versuchst, scheint zu sein:

    Das SL (als Ganzes, als "Black Box" sozusagen) ist sehr wohl Teil des Universums,
    dessen Raumzeit aber ist was anderes als die Raumzeit im INNEREN des SL.

    War das so gemeint?

    Ich denke je näher ich dem Zentrum des SL komme, desto mehr weichen die Bedingungen von den normalen Raumzeitbedingungen des Universums ab.
    Im Zentrum vermute ich die maximale Abweichung.


    Hallo Hans,

    da die ART im Zentrum des Schwarzen Loches singulär wird, kann man eigentlich nur sagen: Ihren Aussagen ist umso weniger zu trauen, je näher man jenem Zentrum kommt.

    Wenn ich mal unterstelle, dass Henry mit seinen Gegenfragen in Beitrag 2009-21 einfach nur "JA" meint, scheint mir, was er sich da vorstellt, vor allem deswegen interessant, da man dann jedes Schwarze Loch (als Black Box) auch als besonders großes Elementarteilchen unseres Universums sehen kann.

    Das brächte mich dann zur Frage:

    Kann es sein, dass der gesamte Kosmos eine Menge ineinander geschachtelter Raumzeiten ist?

    Jedes Universum also Schwarzes Loch eines noch größeren Universums?


    Gruß, grtgrt
     

      Beitrag 2009-49
    -

     
     
    Henry aus 2009-32:
     
    Noch eine Frage an Gebhard:
    Wie kommst du auf die absurde Idee, Schwarze Löcher seien "die Elementarteilchen" des Kosmos?

    Auf diese Idee komme ich gar nicht, denn was ich tatsächlich schrieb, war ja:


    grtgrt aus 2009-24:
     
    Wenn ich mal unterstelle, dass Henry mit seinen Gegenfragen in Beitrag 2009-21 einfach nur "JA" meint, scheint mir, was er sich da vorstellt, vor allem deswegen interessant, da man dann jedes Schwarze Loch (als Black Box) auch als besonders großes Elementarteilchen unseres Universums sehen kann.

    Und an was ich dabei dachte war:


    Seinem Typ nach wird
    • jedes Elementarteilchen,
    • ebenso wie auch jedes Schwarze Loch
    eindeutig charakterisiert durch nur 3 seiner Eigenschaften: Masse, Ladung, und Spin.


    Beweis: SM und

    Zitat von Brian Greene, page 281 of "The Hidden Reality":
     
    According to the [no hair theorems, any two black holes that have the same mass, charge, and angular momentum (rate of rotation) are identical.

    Was Greene hier mit "are identical" meint, muss man wohl korrekt übersetzen als "ununterscheidbar".


    Abstrakt gesehen kann demnach jeder konkrete Wert eines Tripels ( Masse, Ladung, Spin ) als Typ eines Objekts gesehen werden, welches entweder Elementarteilchen oder Schwarzes Loch sein kann —  o h n e  dass wir mit Sicherheit sagen könnten, welcher der beiden Fälle denn nun tatsächlich vorliegt, wo man so ein Objekt beobachtet.

    Auch Thomas Görnitz scheint Schwarze Löcher als Elementarteilchen einzuordnen (so jedenfalls suggeriert der letzte Satz des in Beitrag 2009-1 abgedruckten Zitats).

     

      Beitrag 2009-27
    -

     
     
    Hans-m aus 2009-26:
    Grtgrt aus 2009-24:
     
    Hallo Hans,

    da die ART im Zentrum des Schwarzen Loches singulär wird, kann man eigentlich nur sagen: Ihren Aussagen ist umso weniger zu trauen, je näher man jenem Zentrum kommt.

    Meinen und umschreiben wir hier nicht das gleiche, lediglich mit anderen Worten?
    unter normalen Raumzeitbedingungen verstehe ich die Gesetzmässigkeiten von ART und SRT, sowie sonstige allgemeingültige Naturgesetze


    Das sehe ich differenzierter:
    • N a t u r g e s e t z e  (wie etwa die Konstanz und die Größe der Lichtgeschwindigkeit) gelten wohl auch noch im Inneren eines Schwarzen Lochs.
    • ART und SRT aber sind lediglich  M o d e l l e  — Bilder also, die die Folgen gegebener Naturgesetze beschreiben. Und das keineswegs überall mit gleicher Genauigkeit.

     

      Beitrag 2009-41
    -

     
     
    Henry aus 2009-32:
     
    Wenn gesagt wir, die Aussagekraft der ART verliert ihre Gültigkeit, ist damit die (angenommene) Singularität im Zentrum des SL gemeint, und nur die.
    Dafür gibt es einen ganz simplen Grund: Die Singularität ist dimensionslos, also schlich null, und eine Division durch null ist nicht gestattet.

    Nein, Henry,

    das Modell versagt keineswegs nur im singulären Punkt selbst — dort also, wo es gar nicht mehr definiert ist.

    Die Tatsache, dass ein für das Modell singulärer Punkt existiert, bedeutet, dass dieses Modell auch in kleinen Umgebungen jenes Punktes schon ungenau ist (und zunehmend ungenauer wird, je näher man ihm kommt). Wie singulär die Natur selbst sich in jenem Punkt verhält, bleibt dabei weitgehend offen.

    Gruß, grtgrt
     

      Beitrag 2009-48
    -

     
     
    Henry aus 2009-47:
    Grtgrt aus 2009-46:
     
    Wir dürfen NICHT davon ausgehen, dass physikalische Modelle die Natur mit letzter Genauigkeit beschreiben.

    Wir haben aber nur die "Modelle". Alles andere ist müßige Spekulation.


    Alles andere ist keineswegs müßige Spekulation sondern guter Grund dafür, dass wir ständig nach besseren Modellen suchen.

    Nebenbei: Von der ART weiß man, dass sie spätestens unterhalb der Planck-Skala keine sinnvollen Aussagen mehr macht (und damit auch in keiner Umgebung einer Singularität mehr, deren Radius kleiner als 10-33 cm ist).


    Rüdiger Vaas schreibt:

    Zitat:
    At this scale, Einstein′s theory of general relativity fails.
    Its subject is the connection between space, time, matter and energy. But on the Planck scale it gives unreasonable values — absurd infinities and singularities.

    It carries therefore — as the American physicist John Wheeler, who knew Einstein personally, used to say — the seeds of its own destruction.
    That means the theory indicates the limitations of its own applicability.

    This is a restriction, but at the same time also an advantage: physicists cannot avoid looking for a better and more complete theory for the laws of nature at this fundamental level.

     

      Beitrag 2009-53
    -

     
     
    Stueps aus 2009-52:
    Hallo Gebhard,

    ich persönlich bin sehr vorsichtig, Elementarteilchen mit schwarzen Löchern zu vergleichen, aus folgenden Gründen:

    1. Zeige mir ein schwarzes Loch mit Spin 1/2.
    2. sind Spin eines Elementarteilchens und Drehimpuls eines SL anscheinend nicht das selbe:
     

    Hi Stueps,

    dein Argument 1 würde ich nicht gelten lassen,
    dein Argument 2 aber sehr wohl.

    Im übrigen bin auch ich keineswegs davon überzeugt, dass ein Schwarzes Loch sich wirklich in  j e d e r  Hinsicht wie ein (echtes) Elementarteilchen verhält.
    Mir fällt nur auf, dass einige Physiker — mindestens Greene und Görnitz — das so andeuten.
    Man müsste sie vielleicht mal explizit darauf ansprechen, wie ernst sie das meinen.

    Auf jeden Fall gilt (siehe Abschnitt 7 eines Aufsatzes von Bertram Köhler):

    Zitat:
     
    Schwarze Löcher können in der M-Theorie als Schwingungszustände eines 3-Bran dargestellt und damit als Elementarteilchen mit Masse, Ladung und Spin aufgefaßt werden.

    Zwei Physiker — Coyne und Cheng — gehen noch weiter:
    Sie halten es für nicht unmöglich, dass sogar  j e d e s  Elementarteilchen einfach nur ein Schwarzes Loch sein könnte.

    Gruß, grtgrt

     

      Beitrag 2068-1
    Fragen zur Relativität Schwarzer Löcher

     
     

    In Jukka Maalampis Buch » Die Weltlinie – Einstein und die moderne Physik (2008) « liest man:

    Zitat von Maalampi (S. 128):
     
    Ein Schwarzes Loch ist ein extremes Beispiel für die von der Relativitätstheorie vorhergesagte Gravitations-Rotverschiebung: Je näher sich das in Bewegung setzende Licht am Ereignishorizont befindet, desto größer wird seine Wellenlänge. Die Wellenlänge des vom Horizont ausgehenden Lichtes dehnt sich ins Unendliche aus. So etwas ist gar keine Welle mehr, und auch die Energie geht gegen Null, so dass dort Strahlung aufhört Strahlung zu sein.


    Da frägt man sich nun unwillkürlich, wie sich denn dort Längen und Horizont (des Schwarzen Loches) relativieren:

    FRAGEN also:

    Wenn wir uns einen Beobachter vorstellen, der direkt vor dem Ereignishorizont eines Schwarzen Loches sitzt,
    • wie groß ist seiner Wahrnehmung nach der Radius des Schwarzen Loches bzw. sein Horizont?
    • Ist es richtig, dass aus Sicht eines sich dem Horizont näherenden Beobachters beide gegen Null gehen?
    • Und was genau sieht die ART als singulär (nur den Mittelpunkt des Schwarzen Lochs oder tatsächlich die gesamte Region im Inneren seines Horizonts)?

    Schon auf dem Horizont jedenfalls steht die Zeit offenbar still, denn:

    Zitat von Maalampi (S. 129, gekürzt, nicht wörtlich):
     
    Wenn jemand frägt, wie man die Zeit anhalten — bzw. aus Sicht anderer ewig jung bleiben — könne, gibt es mindestens eine Antwort: Man begebe sich an den Horizont eines Schwarzen Loches. Wenn für jemand in unmittelbaren Nähe eines solchen Horizonts Wochen, Tage, oder gar nur Stunden vergehen, entspricht das auf der Erde Jahrtausenden.
     

     

      Beitrag 2084-11
    Was passiert, wenn Schwarze Löcher kollidieren?

     
    Grtgrt in 2084-6:
     
    Hans-m in 2084-3:
     
    Was wäre, wenn 2 SL mit enormer Geschwindigkeit zusammenprallen würden?
    Wäre die dabei auftretende Energie ausreichend, eines, oder auch beide SL auseinderzureissen, zu "zerbröseln", ...?


    Diese Frage findet sich beantwortet auf Seite What would happen if two black holes collided?

     

    Dort werden mögliche Szenarien beantwortet, aber nicht wenn sich die SL auf absolutem Kollisionskurs befinden.
    Die SL werden nur abgelenkt, oder aus ihrer Bahn geworfen, wenn sie nicht exakt aufeinander zufliegen.
    Dabei entsteht eine resultierende Kraft, von denen eine Komponente eine Bahnveränderung bewirkt.
    Im übertragenen Sinne könnte man dies als "Streifschuss" bezeichnen, und nicht als "Volltreffer"
    Bei absolutem Kollisionskurs, also Zentrum auf Zentrum des SL gibt es keine resultierenden Querkräfte, sondern nur die beschleunigende Gravitationskraft, die sich auf das Zentrum des jeweils anderen SL bezieht.
     

      Beitrag 2084-12
    -

     
    Hans-m in 2084-3:
    Mir kommt dabei aber eine andere Frage:
    Was wäre, wenn 2 SL mit enormer Geschwindigkeit zusammenprallen würden. Wäre die dabei auftretende Energie ausreichend, eines, oder auch beide SL auseinderzureissen, zu "zerbröseln", so dass die Masse der einzelnen "Trümmer" wieder niedriger wäre als die eines SL.
    Somit würde alles, was sich im Lauf der Zeit im SL angesammelt hatte, auch das Licht, wieder freigegeben.

    Hallo Hans-m,

    soweit ich weiß, treffen die SL immer mit extremer Geschwindigkeit aufeinander, aufgrund der zunehmenden Beschleunigungskraft, je näher sie sich kommen. Sie verschmelzen dann meines Wissens nach innerhalb von Millisekunden. Auseinandergerissen werden kann meinem Kenntnisstand nach nichts.

    Hab eben mal nach Quellen gesucht. Vielleicht beantwortet folgender Link deine Fragen (habe das Video nicht angeschaut). Der zweite Teil findet sich glich rechts oben neben dem Video:
    http://www.youtube.com/watch?v=pVaa9ArdBQc


    Grüße
     

      Beitrag 2084-13
    Hubble zeigt uns zwei fast schon kollidierene Schwarze Löcher

     
     
    Hier Bilder, die Hubble 2009 lieferte:

    2 Schwarze Löcher, die demnächst verschmelzen werden ( und ganz hell strahlen (!) )


     

      Beitrag 2084-15
    -

     
    Ozcrates in 2084-8:
    Die Masse der Sonne wiegt 1,989·1030 kg. Der äußerste Planet Neptun dagegen wiegt 1,0243 · 1026 kg. Kann es ein Schwarzes Loch geben, das die Sonne nicht einsaugen kann, aber trotzdem den äußersten Planeten anziehen kann, der 4,5 Milliarden Kilometern von der Sonne entfernt ist? Wie berechnet man sowas?

    Ozcrates,


    lass doch mal alles Geheimnisvolle bzgl. SL´s weg, dann bleibt das, was ein SL auf seine Umgebung bewirken kann, und das ist in der Hauptsache Gravitation. Sollte die Sonne urplötzlich zum SL werden, würden wir das überhaupt nicht bemerken - jedenfalls nachts nicht, denn dann ist es sowieso dunkel. Womit ich sagen will: Die Masse eines SL von der Masse der Sonne wirkt sich nicht anders aus als die Sonne selbst, nur ist diese Masse auf einen viel kleineren Raum konzentriert, für die Sonne wären das etwas drei Kilometer im Durchmesser(!). Das Extreme ergibt sich einfach aus der physikalischen Gesetzmäßigkeit, dass die Gravitation mit dem Quadrat der Entfernung abnimmt, wie es so schön heißt. Logischer Weise ist die Gravitation anderthalb Kilometer von einem Massezentrum VIEL größer, als siebenhundert Millionen Kilometer davon entfernt.

    Ansonsten tun zwei SL, wenn sie einander begegnen, nichts anderes als zwei Planeten oder zwei Sterne, die einander begegnen - sie werden einander umkreisen, dabei durch ihre große Masse Energie durch "Gravitationswellen" verlieren, sich einander annähern und dann letztlich verschmelzen. Die Vorstellung, sie würden quasi "auseinander platzen" und das "Licht in ihrem Inneren wieder freigeben" ist völlig absurd. SL sind nicht kompakt wie Planeten oder Sonnen, was ihren "äußere Grenze", den Ereignishorizont, angeht, das ist materiell betrachtet eine fiktiver Grenze, sie zeigt einfach die Fläche an, hinter der es kein Zurück mehr gibt, auch für das Licht nicht.

    Die Masse eines SL ist - so die Vorstellung - auf einen winzigen Bereich im inneren beschränkt (ich vermeide bewusst den Begriff der "Singulariät", das ist einfach nur ein Hinweis darauf, dass die Mathematik hier ihre Gültigkeit verliert).

    Ob SL schon einmal einen Stern "verschlungen" haben? Aber ja klar, davon leben die, und von jeder Art anderer Materie sowie Energie natürlich. Das ist doch genau der Grund, warum man SL in fernen Galaxien beobachten kann sie hießen ja nicht "Schwarze Löcher", wenn man sie nur anzuschauen bräuchte. Das SL in unserer Milchstraße hat auch einigen Millionen Sonnenmasse, alles Materie, die es sich im Laufe von Milliarden Jahren vereinnahmt hat. Das Licht, aus dem man auf das Vorhandensein eines SL schließen kann, stammt selbstverständlich nicht von ihm selbst oder gar aus seinen Inneren, sonder von ultrahoch erhitzten Gasen, die auf dem Weg ins Innere des SL Strahlung abgeben.

    Die Vermutung, dass es "Mini-Black-Holes" geben könnte, ist bislang eben nur eine Vermutung. Wenn es sie gäbe, gäbe es sie nur äußerst kurz, denn die "Lebenserwartung" eines SL hängt von seiner Größe ab, je kleiner, deso kürzer; würde im CERN tatsächlich ein SL erzeugt werden, würde es nur Millisekunden existieren - wenn überhaupt. Das Universum existiert - wie wir uns täglich überzeugen können - nach wie vor, und Prozesse, wie sie im CERN ablaufen, vollziehen sich auf natürliche Weise milliardenfach in ihm, es besteht also nicht der geringste Grund, sich über CERN deshalb Sorgen zu machen.

    Was IST eigentlich ein Schwarze Loch? Es ist Materie, die ihren inneren Halt verloren hat, die sich der Gravitation beugen musste, die sich letztlich über die abstoßenden Kräfte im inneren der Atomkerne durchsetzte. Genau genommen ist die Vorstellung, ein Atom oder auch ein Atomkern wäre etwas Festes eine Illusion, es sind Kräfte, die uns Festigkeit vorgaukeln. Wir fallen nicht durch den Fußboden, weil sich Elektronen abstoßen, und nicht, weil Materie etwas undurchdringliches wäre.

    Nun ja, bis denn, es wir spät!
     

      Beitrag 1985-351
    Schwarze Löcher haben  u n d e f i n i e r t e n  Radius (aber kugelförmige Oberfläche)

     
     
    Bauhof in 1985-346:
     
    Und darin kommt der "Einstein-Widerleger" fälschlicherweise zu dem Schluss, dass beide Eigenzeiten gleich seien.


    Weder er noch ich wollen Einstein widerlegen.

    Wir wollen nur Leute widerlegen, die gewissen Halbwissens wegen Einsteins Theorie nicht richtig verstehen.


    Nebenbei: Es freut mich zu lesen, dass jener Herr — ein an Naturwissenschaften interessierter Laie wie wir alle hier — sogar begriffen hat, dass die Region, die im Inneren des Ereignishorizontes eines Schwarzen Lochs liegt, zwar einen Umfang, aber keinen Radius hat.

    Das sollte allen zu denken geben, die versucht sind, ihn einfach als » Einstein-Widerleger « zu diffamieren.


      Nebenbei: Wer verstehen will, warum Schwarze Löcher keinen wohldefinierten Radius haben, der lese

      Beitrag 1997-134
    Wo selbst Physikern die Grenzen der SRT nicht so ganz klar zu sein scheinen

     
     
    Bauhof in 1997-122:
     
    Grtgrt in 1997-121:
    Hi Eugen,

    wenn du mir Links auf jene Stellen geben kannst — oder sie in Büchern zu finden sind, auf die ich Zugriff habe — werde ich sie mir ganz bestimmt ansehen.

    Hallo Grtgrt,

    gut, ich mache mir mal die Mühe und gebe dir die entsprechenden Hinweise als Zitate aus meinen Büchern. Keiner der aufgeführten Autoren gibt einen Hinweis darauf, dass das Zwillingsparadoxon nur mit Hilfe der ART gelöst werden könnte. Sie argumentieren alle mit Hilfe der SRT.


    Hallo Eugen,

    erst mal vielen Dank für Deine Mühe. Ich weiß sie sehr zu schätzen!

    Nun aber lass mich dazu Stellung beziehen (Ausgangspunkt können heute nur die Zitate selbst sein, denn keines jener Bücher habe ich zu Hause):

    Zunächst mal ist festzustellen, dass wir beide hier etwas sehr Interessantes entdeckt haben:


    Die unterschiedliche Überzeugung, die hier im Forum die beiden Gruppen an Physik interessierter Laien


    {  Bauhof, Stueps, Henry, Okotombrok  } vs {  Grtgrt, Harti  }


    auseinander dividiert, besteht offenbar auch zwischen den beiden folgenden Gruppen von Physik-Professoren:


    D.Giulini & T.Filk  +  C.Kiefer  +  E.Rebhan  } vs {  W.Greiner & J.Rafelski  }.



    Um zu sehen, wer recht hat, müssen wir jetzt also tatsächlich die Argumentation aller viel genauer als bisher betrachten, um zu sehen, wo die eine oder andere lückenhaft oder nicht nachvollziehbar ist. Tun wir das:

    Allen — den Professoren ebenso wie uns hier im Forum — ist gemeinsam, dass wir wissen: Wo die Situation, die zum sog. Zwillingsparadoxon führt (kurz: SZw), in der Wirklichkeit nachgestellt wird, werden die beiden Zwillinge mindestens zeitweise unterschiedlichen Beschleunigungskräften ausgesetzt sein. Schon allein deswegen wird jeder Logiker uns sagen: Da die SRT Situationen, in denen es zu beschleunigter Bewegung kommt, gar nicht vorgibt, noch behandeln zu können, kann sie auf Situation SZw auch gar nicht anwendbar sein.

    Nun könnte man aber argumentieren, dass die SRT, wenn man genauer hinsieht, vielleicht auch beschleunigte Situationen noch behandeln könnte (dass also Einstein und Minkowski, die Einschränkung, nur gleichförmige Bewegung zuzulassen, vielleicht gar nicht hätten machen müssen).

    Jeder, der behauptet, auch die SRT würde beweisen, dass die Zwillinge, wenn sie sich wieder treffen, unterschiedlich alt sind, geht — implizit oder explizit — von dieser Annahme aus — hat dann aber auch die Pflicht, sie zu beweisen.

    Die Zitate [1] und [2] skizzieren den Ansatz solcher Beweisversuche, sind aber nicht detailliert genug, mir zu zeigen, ob jene "Beweise" auch wirklich schlüssig sind.

    Im Zitat [3] wird durch Rebhan explizit versucht, die SRT so zu erweitern, dass sie auch noch auf beschleunigte Bewegung anwendbar ist. Dies, so wird behauptet, gelänge über Anwendung eines mathematischen Grenzprozesses. Zwei Aussagen aus diesem Beweisversuch aber finde ich nicht wirklich nachvollziebar. Es sind die jetzt im Zitat rot hervorgehobenen Teile:

    Zitat:
     
    Wir betrachten noch die kurzen Beschleunigungsphasen der Rakete im Inertialsystem der Erde. Diese können wir stückweise aus Teilen zusammensetzen, während deren die Geschwindigkeit annähernd konstant ist. Da diese jeweils kleiner als die Fluggeschwindigkeit v ist, ergibt sich für die Dauer einer ganzen Beschleunigungs­phase im Mittel eine kleinere Zeitdilatation als für eine gleich lange Flugphase mit der konstanten Reisegeschwindigkeit. Lassen wir jetzt die Beschleunigung gegen unendlich und die Beschleunigungsdauer gegen null gehen, so geht auch die diktierte Beschleunigungsdauer gegen null.

    Man könnte vermuten, dass dem Effekt der SRT auch noch Effekte der ART überlagert sind. Wir werden später allerdings sehen, dass das nur der Fall ist, wenn Schwerefelder involviert sind, ansonsten bleibt die oben angestellte Überlegung richtig. Man kann sich aber auch schon, ohne Genaueres über ART-Effekt zu wissen, darüber klar werden, dass diese bei einer langen Raumfahrt keine Rolle spielen. Um das einzusehen, nehmen wir an, für den Zwilling auf der Erde sei die Dauer einer Beschleunigungsphase dt, für den im Raumschiff unter Einbezug von ART-Effekten dt'. Aus der Homogenität der Zeit folgt, dass der Quotient dt'/dt nur von der Art des Beschleunigungsprozesses abhängt, nicht aber von dem Zeitpunkt, zu dem er durchgeführt wird. Die Raumfahrt enthält vier gleichartige Beschleunigungsprozesse, die Geschwindigkeit des Raumschiffes geht von

    0 → vmax → 0 → vmax → 0

    Damit ergibt sich als Altersunterschied der Zwillinge

    D = ( T – T' ) + 4( dt – dt' )

    Der Anteil ( T – T' ) wächst mit der Dauer der Raumfahrt, während der Anteil 4( dt – dt' ) konstant ist. Er kann durch ein Differenzexperiment zum Verschwinden gebracht werden; in einem Einzelexperiment wird er vernachlässigbar, wenn die Raumfahrt hinreichend lange dauert. Für unsere weiteren Überlegungen machen wir die letzte Annahme.


    Zitat [4] schließlich begündet die Meinung der Autoren nur in Form einer (als "offensichtlich wahr" hingestellten)  V e r m u t u n g  (und ist deswegen nicht ernst zu nehmen. Die Autoren scheinen Gymnasiallehrer zu sein, Personen also, die wohl auch nicht kompetenter sind als an Relativitätstheorie ernsthaft interessierte Laien.

    Dem Zitat aus [5] schließlich kann ich gar nicht entnehmen, dass der Autor — Ulrich Schröder — es für zweifelsfrei erwiesen hält, dass die SRT auf die Situation beschleunigter Bewegung in irgendeiner sinnvollen Verallgemeinerung ihrer selbst (der SRT) anwendbar wird. Er weist lediglich mit Bestimmheit darauf hin, dass in der realen Wirklichkeit unser Welt (wie Hafele & Keating zeigen konnten) es tatsächlich zu unterschiedlich schneller Alterung zweier Objekte kommen kann.


    [1] Giulini, Domenico und Filk, Thomas: Am Anfang war die Ewigkeit. Auf der Suche nach dem Ursprung der Zeit.
    München 2004
    ISBN=3-406-52187-8

    [2] Kiefer, C...: Der Quantenkosmos.
    Frankfurt am Main 2008
    ISBN=978-3-10-039506-1

    [3] Rebhan, Eckhard: Theoretische Physik. Band 1: Mechanik, Elektrodynamik, Spezielle und Allgemeine Relativitätstheorie, Kosmologie
    Heidelberg 1999
    ISBN=3-8274-0246-8

    [4] Beyvers, Gottfried und Kusch, Elvira: Kleines 1 x 1 der Relativitätstheorie. Einsteins Physik mit Mathematik der Mittelstufe.
    Berlin 2009
    ISBN=978-3-540-85202-5

    [5] Schröder, Ulrich E.: Spezielle Relativitätstheorie (Vierte Auflage)
    Frankfurt am Main 2005
    ISBN=3-8171-1724-8


    Wenn wir uns jetzt im Gegenzug auch mein Argument aus Beitrag 1997-114 nochmals vornehmen, so wird klar:

    Meine Argumentation benötigt, um gültig zu sein, nur eine einzige Voraussetzung:
    Die Konstanz und Endlichkeit der Lichtgeschwindigkeit.


    Sie ist deswegen sogar noch auf beschleunigte Bewegungen anwendbar und zwar ganz unabhängig davon, ob beide Zwillinge oder nur einer beschleunigt wird.

    So lange mir also in eben dieser Argumentation niemand einen Fehler aufzeigen kann, sehe ich sie als wunderbar einfache Bestätigung der Meinung von W.Greiner und J.Rafelski.

    Auch wenn man nachsieht, wie renommiert die einzelnen Professoren sind, stehen da W.Greiner & J.Rafelski mit Sicherheit an der Spitze.

    Damit, Eugen, bleibt mir vernünftiger Weise gar nichts anderes übrig, als zunächst mal zu glauben, dass diese beiden — und damit auch ich — recht haben.


    Mit besten Grüßen,
    Gebhard (grtgrt)

     


    Hallo Grtgrt,

    lass Dich durch das Etikett "Einstein-Widerleger" nicht ins Boxhorn jagen. Selbstverständlich kann man das Zwillingsparadoxon nur mit Hilfe der ART lösen.


    Hallo Harti,

    auch nachdem Okotombrok das Thema 1997 für jede weitere Äußerung gesperrt hat, bin ich der Frage, ob das Zwillingsparadoxon per SRT lösbar ist, weiter nachgegangen und weiß nun, dass Du und ich — aber dennoch auch die anderen — recht hatten.

    Es gilt nämlich:

    Obgleich Einstein selbst im Rahmen der SRT niemals auch beschleunigte Bewegung diskutiert hat, hat man das — so etwa um das Jahr 2000 herum — dennoch versucht und hierbei schnell festgestellt, dass die Lorentztransformation der SRT auch zutreffende Aussagen darüber machen kann, wie Beschleunigung sich auf das beschleunigte System auswirkt (siehe etwa ein durch Joachim Schulz beschrie­benes Gedankenexperiment).

    Dass solche auf dem Hintergrund der Raumzeit der SRT errechneten Ergebnisse tatsächlich (grob wenigstens) mit denen der ART übereinstimmen, wird — wenigstens für die dem Zwillingsparadoxon zugrunde liegende Situation — explizit nachgerechnet von Bernd Sonne und Reinhard Weiß in ihrem Buch Einsteins Theorien: Spezielle und Allgemeine Relativitätstheorie für interessierte Einsteiger und zur Wiederholung (Springer, 2013). Ihre Rechnung auf Seite 111 bis 129 des Buches zeigt zudem sehr klar, dass auch die SRT den für die Zwillinge entstandenen Altersunterschied

    ausschließlich auf jene Phasen der Reise zurückführt, in denen die beiden Zwillinge unterschiedlich beschleunigt waren.


    Damit steht fest:
    • Wer von der SRT (in Einsteins Fassung) ausgeht, geht von einer Theorie aus, die zu beschleunigten Bewegungen nichts aussagen will und demnach auf die Situation des Zwillingsparadoxon gar nicht anwendbar ist.
    • Seit etwa 2000 aber geht man nicht mehr davon aus, dass die SRT — wenn man versucht, sie auch auf beschleunigte Bewegung anzuwenden — falsche Aussagen macht. Soweit man nämlich Beispiele in SRT  u n d  ART durchgerechnet hat, kam man zum gleichen Ergebnis (was aber nicht heißt, dass wirklich alles, was die ART sagt, auch mit Mitteln der SRT nachrechenbar wäre).
      Es kommt hier wohl die Tatsache zum Tragen, dass in jeder hinreichend kleinen Umgebung eines nicht singulären Punktes P der Raumzeit der ART die SRT sehr gute Approximation der ART ist.

    Hierbei allerdings muss berücksichtigt werden:
      Wer im Rahmen der SRT auch beschleunigte Bewegungen betrachtet, sieht die Beschleunigung einfach nur als erste Ableitung der Geschwindigkeit nach der Zeit — er sieht sie dann also noch nicht — wie die ART es tut — auch als physikalisches Phänomen äquivalent zu einer Krümmung der Raumzeit.

    Diesen wesentlichen Unterschied nicht zu übersehen, macht es schon Sinn, über beschleunigte Bewegungen tatsächlich nur mit Hilfe der ART nachzudenken. Siehe dazu auch Bemerkungen auf gutefrage.net.

    Man sieht hier sehr schön, dass unterschiedlich genaue physikalische Modelle — SRT und ART — eben auch unterschiedlich genaue Aussagen machen.


    Beste Grüße,
    grtgrt
     

      Beitrag 2053-61
    Kann man die SRT zu einer VSRT verallgemeinern?

     
     
    Bauhof in 2053-52:
     
    Das Größerwerden der Abstände zwischen den Galaxien ist weder eine relative Bewegung noch eine absolute Bewegung. Sie ist überhaupt keine Bewegung.
    Es ist nur ein Auseinanderdriften aufgrund der Raumdehnung infolge der Universum-Expansion.

    Na ja, Eugen,

    warum soll man ein Auseinanderdriften zweier Objekte nicht auch als  r e l a t i v e  Bewegung dieser Objekte zueinander sehen können?
    Fakt ist doch:

    Die ständige Änderung des Abstandes zweier Galaxien geht auf zwei Bewegungskomponenten zurück, die einfach nur unterschiedliche Ursache haben.
    • Bewegungskomponente B1 wird durch Gravitationspotential verursacht und führt zu einer Geschwindigkeitskomponente v1, die stets kleiner als c ist.
    • Bewegungskomponente B2 wird durch Raumexpansion verursacht und führt zu einer Geschwindigkeitskomponente v2, die auch größer als c sein kann.

    Einsteins SRT ist eine Theorie, die sich auf den Spezialfall v2 = 0 beschränkt.

    Warum aber sollte sie nicht verallgemeinert werden können zu einer Theorie VSRT, die im Spezialfall v2 = 0 zu SRT wird?

    Wahrscheinlich muss man dazu einfach nur in allen Formeln der SRT die Größe c (an der einen oder anderen Stelle, nicht an allen) durch c+v2 ersetzen.
    Verifiziert habe ich das noch nicht — aber wir könnten es ja mal versuchen.


    PS: Sollte es so eine Verallgemeinerung VSRT der SRT wirklich geben, kann sie nur anwendbar sein auf Situationen, in denen auch v2 < c ist (andernfalls nämlich würde von einer Galaxie G1 in Richtung der anderen ausgesandte Information jene ja niemals erreichen). Andererseits erfüllt der Fall v2 < c ja selbst schon alle Voraussetzungen der SRT — dann jedenfalls, wenn man die Expansionsgeschwindigkeit des Alls als unbeschleunigt annimmt (was über Zeiträume von weniger als 1 Mrd. Jahren ja eine ganz brauchbare Annäherung der Wirklichkeit darstellt).

    Wenn wir jetzt annehmen, wir hätten Galaxien G1, G2, G3, derart, dass sich G2 genau in der Mitte zwischen G1 und G3 befindet, so ist die Geschwindigkeit v, mit der sich G1 und G3 auseinanderbewegen genau doppelt so groß wie die Geschwindigkeit, mit der G1 und G2 bzw. G2 und G3 sich voneinander entfernen.

    Was würde das im Fall  v/2 < c < v  bedeuten?


    Gruß,
    grtgrt
     

      Beitrag 2053-71
    -

     
     
    Grtgrt in 2053-61:
     
    Sollte es so eine Verallgemeinerung VSRT der SRT wirklich geben, kann sie nur anwendbar sein auf Situationen, in denen auch  v2 < c  ist (andernfalls nämlich
    würde von einer Galaxie G1 in Richtung der anderen ausgesandte Information jene ja niemals erreichen). Andererseits erfüllt der Fall  v2 < c  ja selbst schon alle Voraussetzungen der SRT — dann jedenfalls, wenn man die Expansionsgeschwindigkeit des Alls als unbeschleunigt annimmt (was über Zeiträume von weniger als 1 Mrd. Jahren ja eine ganz brauchbare Annäherung der Wirklichkeit darstellt).

    Wenn wir jetzt annehmen, wir hätten Galaxien G1, G2, G3, derart, dass sich G2 genau in der Mitte zwischen G1 und G3 befindet, so ist die Geschwindigkeit v, mit
    der sich G1 und G3 auseinanderbewegen genau doppelt so groß wie die Geschwindigkeit, mit der G1 und G2 bzw. G2 und G3 sich voneinander entfernen.

    Was würde das im Fall   v/2 < c < v  bedeuten?
     


    Könnte es bedeuten, dass der Begriff » Zeit aus unserer Sicht « überhaupt nur wohldefiniert sein kann in dem durch uns beobachtbaren Teil unseres Universums?


     

      Beitrag 2053-103
    Die einzigen Voraussetzungen der SRT

     
     
    Bauhof in 2053-102:
     
    Schnecke A verkündet nun:
    "Keine hat sich bewegt, also kann nur eine höhere Macht die Entfernungen zwischen den Schnecken im Zeitraum (t’ – t) vergrößert haben!"

    Schnecke C erwidert:
    "Ich sehe es zwar, aber ich glaube es nicht! Wir haben uns trotzdem irgendwie bewegt!"
     


    Hallo Eugen,

    nimmt bitte mal an, wir hätten ein Gummiband, in das wir zwei Knoten gemacht haben.

    Wenn ich jetzt das Gummiband an beiden Enden nehme und in die Länge ziehe, wird jeder sagen: "Die beiden Knoten  b e w e g e n  sich auseinander".

    Du scheinst einen anderen Bewegungsbegriff zu haben (denn meinen Knoten geschieht ja nichts anderes als deinen Schnecken).

    Mit anderen Worten: Du knüpfst den Begriff "sich bewegen" an eine bestimmte Ursache der Bewegung — andere Ursachen, so sagst Du, seien nicht erlaubt.

    Die die SRT darstellenden Argumente sind aber doch gar nicht davon abhängig, welche  U r s a c h e  betrachtete Bewegungen haben. Kern der SRT ist doch einfach nur das Axiom, dass Information sich niemals schneller oder langsamer als mit Lichtgeschwindigkeit ausbreitet (und nichts sonst sich so schnell fortbewegt). Nur in Situationen, in denen die Information über eintretende Ereignisse zu unterschiedlichen Beobachtern hin unterschiedlich lange unterwegs ist, werden jene Beobachter unterschiedlichen Eindruck davon haben, wie lang eine Strecke oder ein Zeitabschnitt ist.

    Sich beim Betrachten von Bewegungen auf ein bestimmtes Koordinatensystem zu beziehen, dient lediglich dem Zweck, Bewegung als solche feststellen zu können.

    Mit anderen Worten: Die Welt und ihre Qualität ändern sich nicht in Abhängigkeit davon, ob wir sie gedanklich in ein bestimmtes Koordinatensystem einordnen — dem Koordinaten­system wird niemals mehr als nur gedankliche Existenz zukommen.

    Wo die Geschwindigkeit v, mit der zwei Galaxien aufgrund der Expansion des Raumes auseinander driften, konstant und kleiner als c ist, wird die SRT ganz sicher auch für diese Art von Bewegung richtige Aussagen liefern.

    Gruß, grtgrt
     

      Beitrag 2053-105
    -

     
     
    Bauhof in 2053-104:
     
    Denke erst mal darüber nach, bevor du immer so schnell antwortest.

    Unter der Annahme, dass die Geschwindigkeit v, mit der zwei Galaxien sich aufgrund von was auch immer voneinander entfernen, konstant und kleiner als c ist, sind sämtliche Voraussetzungen der SRT erfüllt — genau deswegen werden in diesem Fall dann auch all ihre Schlußfolgerungen zutreffend sein.

     

      Beitrag 2051-6
    -

     
    Es wird gesagt, die SRT gelte dort näherungsweise, wo die Gravitation vernachlässigbar sei – im intergalaktischen Raum fernab von Galaxien oder lokal begrenzt.
    Ich wage zu behaupten, sie gilt dort exakt, wo keine Gravitationspotentialdifferenzen durchschritten werden.
    Also entlang der Erdoberfläche, aber nicht senkrecht zu ihr.

    mfg okotombrok
     

      Beitrag 2016-34
    Minkowskis Integration der Konzepte Zeit und Raum erhält ihr unterschiedliches Wesen

     
     
    Henry aus 2016-33:
    Grtgrt aus 2016-32:
     
    Hi Henry,

    sehr viele Leute, so auch Du, sagen, die Raumzeit würde den Raum von der Zeit nicht trennen.

    Das hat mir nie so richtig eingeleuchtet, denn auch dort ist ja der Raum 3-dimensional, die Zeit aber 1-dimensional.
    Warum also wagst du zu behaupten, sie seien in der ART — als zwei unterschiedliche Konzepte — nicht klar voneinander getrennt?

    Gruß, grtgrt
     

    Die Raumzeit ist vierdimensional. Ich "wage" überhaupt nicht zu behaupten.
    Sie  s i n d  in der ART nicht als zwei unterschiedliche Konzepte klar voneinander getrennt.

    Sie sind doch voneinander getrennt, denn:

    Da sich selbst nach Minkowskis Theorie Zeit nicht in Raum (und Raum auch nicht in Zeit) verwandeln kann, sind auch in seiner Theorie beide Konzepte ganz klar auseinandergehalten. Er selbst präzisiert das, indem er sagt (FOCUS Online, der Artikel, auf den auch Du dich beziehst):

    Zitat:
     
    Mit Minkowskis Worten: "Die dreidimensionale Geometrie wird zu einem Kapitel in der vierdimensionalen Physik." Diese Minkowski-Raumzeit lässt sich entweder als ein vierdimensionaler mathematischer Raum interpretieren, der die Zeitentwicklung der dreidimensionalen Welt repräsentiert, oder als mathematisches Modell einer vierdimensionalen Welt, in der die Zeit die vierte Dimension ist....

    So — und NUR so — ist seine Aussage "Die Tendenz ist eine radikale. Von Stund’ an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken, und nur noch eine Art Union der beiden soll Selbstständigkeit bewahren." zu verstehen. Gemeint war also nur: Wir haben jetzt  e i n  Modell, in das Raum  u n d  Zeit sich gleichermaßen gut einfügen.

    Ich bleibe also dabei:

    Die Relativitätstheorie — Einstein und Minkowski — formalisieren die enge Beziehung zwischen Zeit und Raum,

    können aber dennoch nicht wegdiskutieren, dass beide unterschiedliches Wesen haben.


     

      Beitrag 2016-35
    -

     
     
    Interessant ist auch:

    Die beiden Hauptvertreter der Theorie der Schleifen-Quantengravitation — Lee Smolin und Carlo Rovelli — sind sich nicht einig, welcher Natur die Zeit denn nun eigentlich ist:
    • Smolin denkt, sie sei wesentlich und müsse Teil der Theorie sein,
    • Rovelli aber tendiert dazu, sie für eine nur gedanklich existierende Hilfskonstruktion zu halten (und will sie deswegen nicht als Teil der Theorie sehen).
     

      Beitrag 2016-37
    -

     
     
    Henry aus 2016-36:
    Ich halte mich an die Übereinkunft der Physikerzunft, die die Raumzeit für unteilbar nimmt (wenn sie sich auf die Relativitätstheorie bezieht).

    Wer nicht weiß, was "unteilbar" in diesem Sinne bedeutet, weiß dann also gar nichts.

    Ich ziehe es vor, zu klären, was "unteilbar" in diesem Sinne heißt, und komme so zum Schluß, dass auch Physiker darunter nicht mehr verstehen, als dass die Zeit eine der Dimensionen der Raumzeit ist (im mathematischen Sinne des Begriffs der "Dimension"), was weder mehr noch weniger bedeutet, als dass man ein und denselben Ort zu verschiedener Zeit betrachten kann.

     

      Beitrag 1991-1
    Kernaussagen der Speziellen Relativitätstheorie

     
    Hallo zusammen,

    bitte hier keine Beiträge einstellen!

    Warum? Es soll nur der erste Beitrag hier verbleiben, den ich immer auf den neuesten Stand nach Absprache mit Zara.t. bringe. Er soll eine Wissensplattform zur SRT für alle werden, damit jeder darauf zurückgreifen kann, wenn Fragen entstehen. Hier eingehende Beiträge werden weder von mir noch von Zara.t. beantwortet.

    Wenn ihr darüber diskutieren möchtet, dann bitte im Thread Basics spezielle Relativitätstheorie! Vielen Dank im Voraus.

    M.f.G. Eugen Bauhof




    Forenteilnehmer, deren Beiträge bis jetzt hier eingebracht wurden (in alphabetischer Reihenfolge):
    Bauhof, Grtgrt, Henry, Okotombrok, Zara.t.



    Themen, die demnächst in den SRT-Basics diskutiert werden sollen:

    (A) Begriff des Beobachtens.
    (B) Maxwellsche Gleichungen.
    (C) E = mc2.
    (D) Die Lorentz-Transformationen, hergeleitet allein aus dem Relativitätsprinzip.
    (E) Transformationen, die das Linienelement ds2 = (c dt)2 - dx2 - dy2 - dz2 invariant lassen.


    Arbeitsplattform SRT



    Inertialsysteme
    1. Verschiedene Inertialsysteme bewegen sich gegeneinander geradlinig und gleichförmig. Alle Inertialsysteme bewegen sich relativ zueinander mit einer Geschwindigkeit v<c.

    2. Sich drehende oder anderweitig beschleunigte Bezugssysteme sind keine Inertialsysteme.

    3. Auch gleichförmig beschleunigte Systeme sind keine Inertialsysteme. Eine gleichförmige Beschleunigung ist keine gleichförmige Bewegung und somit nicht der Ruhe äquivalent.

    4. Ein Teilchen, das sich mit Lichtgeschwindigkeit bewegt, hat keine Ruhemasse. Deshalb gibt es kein Inertialsystem, in dem Photonen in Ruhe wären.

    5. Ein System, in dem sich jeder kräftefreie Körper gleichförmig geradlinig bewegt, wird als Inertialsystem bezeichnet.

    6. Das Zusammentreffen von Kräftefreiheit und gleichförmiger Geradlinigkeit sämtlicher Bewegungen gibt es nur in Inertialsystemen.

    7. Es kann kein Inertialsystem geben, das sich relativ zu einem zweiten Inertialsystem mit c bewegt. Grund: alle lichtartigen Weltlinien haben die Länge Null.

    8. Wenn ein Lichtstrahl im Koordinatenursprung O(0,0,0) startet. dann gilt:
    S2 = (ct)2 - x2 - y2 - z2 ; für Licht gilt: x2 + y2 + z2 = (ct)2 ==> S2 = (ct)2 - (ct)2 = 0; S = 0
    Wichtig: S ist für alle (also auch für die nicht lichtartigen) Weltlinien invariant unter Lorentztransformationen. Das heißt: die Eigenzeit eines Systems ist eine absolute Größe, sie ist die Zeit, die eine mit diesem System fest verbundene Borduhr anzeigt.

    Relativitätsprinzip
    1. Die Gesetze, nach denen sich die Zustände der physikalischen Systeme ändern, sind unabhängig davon, auf welches von zwei relativ zueinander in gleichförmiger Translationsbewegung befindlichen Koordinatensystemen diese Zustandsänderungen bezogen werden.

    2. Alle Inertialsysteme sind gleichberechtigt, wenn es gilt Naturgesetze zu formulieren. Naturgesetze müssen kovariant formuliert werden können.

    3. Alle Beobachter, die sich mit gleichförmiger Geschwindigkeit relativ zueinander bewegen, sind gleichermaßen zu der Behauptung berechtigt, sie befinden sich in Ruhe.

    Absolute Ruhe
    Die Physik kennt keine absolute Ruhe. Die Gesetze der Physik lauten in allen Inertialsystemen gleich und zeichnen keines aus (Relativitätsprinzip). Es gibt nur relative Ruhe, Ruhe in bezug auf ein spezielles Inertialsystem, das momentane Ruhsystem.

    Absolutgeschwindigkeit
    Mit keinem Experiment kann eine Absolutgeschwindigkeit eines Inertialsystems bestimmt werden; kein Experiment lässt die Unterscheidung von Ruhe und gleichförmiger Bewegung zu. Damit war auch das vor Einstein der als absolut ruhendes Lichtwellen-Trägermedium angesehene "Lichtäther" gegenstandslos, den "Lichtäther" gibt es nicht.

    Beobachten
    Unter Beobachten versteht man die Feststellung der Koordinaten von Ereignissen in einem Inertialsystem. Wenn man das wirkliche Beobachten meint, muss man die endliche Laufzeit des Lichtsignals vom Gegenstand zum Betrachter berücksichtigen.
    Den Begriff des Beobachtens möchte Zara.t. noch diskutieren. Er ist von zentraler Wichtigkeit um das Denken und die Arbeitsweise Einsteins zu verstehen.

    Lichtgeschwindigkeit
    1. Die Lichtgeschwindigkeit ist eine physikalische Naturkonstante und hat einen exakt definierten Wert.

    2. Man kann c=1 setzen. Um hier im Forum Missverständnisse zu vermeiden, wird folgendes vereinbart:

    Lichtgeschwindigkeit im Vakuum (im SI-System): c = 299 792 458 m/s

    3. Die Existenz einer invarianten Grenzgeschwindigkeit folgt aus dem Relativitätsprinzip. Der Wert dieser Grenzgeschwindigkeit wird von den Maxwellschen Gleichungen festgelegt und durch alle Messungen bisher bestätigt.

    4. Aus den Maxwellschen Gleichungen ergibt sich die Ausbreitungsgeschwindigkeit c elektromagnetischer Wellen aus zwei experimentell herausgefundenen Konstanten:
    c = 1/sqrt(ε0 • ε0)
    ε0 = magnetische Feldkonstante.
    ε0 = elektrische Feldkonstante.

    Eigenzeit einer Uhr
    Die Eigenzeit einer Uhr entspricht immer der Länge ihrer Weltlinie.

    Länge der Weltlinie eines bewegten Objekts
    Die Länge der Weltlinie eines ruhenden Objekts (keine Änderung der Ortskoordinaten) ist die abgelaufene Zeit. Das bleibt auch bei einer Bewegung des Objekts so, wir müssen uns nur darauf beschränken, wieder nur die Uhr abzulesen, die das Objekt unmittelbar begleitet. Dieses Zeitmaß heißt Eigenzeit... Der Ablauf der Eigenzeit wird nun nicht mehr nur von der Änderung der Zeitkoordinate, sondern auch von der Änderung der Ortskoordinate bestimmt.

    Maxwellsche Gleichungen
    Die Maxwellschen Gleichungen sagen in einfachen Worten: Die Änderung eines elektrischen Feldes induziert ein magnetisches Feld, die Änderung des magnetischen Feldes induziert ein elektrisches Feld, das sich ändernde elektische Feld induziert ein Magnetfeld, usw....dieser ständige Wechsel breitet sich wellenförmig mit c (im Vakuum) aus. Die Maxwellschen Gleichungen sind früher als die SRT unabhängig von der SRT entstanden. An ihrem Beispiel könnten wir zeigen, was eine kovariante Formulierung ist. So wie Maxwell seine Gleichungen formulierte, waren sie nämlich noch nicht kovariant. Man kann ihnen aber eine kovariante Form verpassen.

    Energie-Impuls-Beziehung
    Die Energie-Impuls-Beziehung ist eine invariante Größe:

    E2 – (pc)2 = (mc2)2 || = constant

    E..................Gesamtenergie, sie ist bezugssystemabhängig.
    p...................Impuls, er ist bezugssystemabhängig.
    mc2:=E0.......Ruheenergie sie ist bezugssystemunabhängig.

    Nachdem die Ruheenergie bezugssystemunabhängig ist, ist auch die Masse m invariant.




    SRT-Glossar

    Äther
    Ein Medium, in dem sich Licht und andere elektromagnetische Wellen fortpflanzen sollten. Diese Vorstellung wurde, vor allem nach der Entdeckung der Speziellen Relativitätstheorie, durch eine Feldbeschreibung ersetzt, nach der sich elektromagnetische Wellen auch ohne jedes Medium im leeren Raum fortpflanzen können. Die Vorstellung vom Äther wurde durch die Relativitätstheorie widerlegt.

    Beobachter
    Idealisierte Person oder Apparatur, oft hypothetischer Natur, die relevante Eigenschaften eines physikalischen Systems misst. Jeder Beobachter, der sich inertial bewegt, darf annehmen, dass er selbst in Ruhe sei. Er beobachtet lediglich, dass alle anderen Beobachter sich relativ zu ihm bewegen oder in Ruhe sind. Mehr kann er nicht beobachten, insbesondere kann er keine Eigenbewegung aus den Bewegungen anderer ableiten. Für ihn sieht es so aus, als würde er ruhen und alle anderen Beobachter bewegen sich.

    Beschleuniger
    Ein Instrument, das die Geschwindigkeit, und damit die Energie, geladener Teilchen erhöht. Beschleunigt werden können stabile Teilchen wie Elektron, Proton und Ionen.

    Beschleunigung
    Eine Veränderung der Geschwindigkeit, das heißt des Geschwindigkeitsbetrags und/oder der Bewegungsrichtung eines Objekts.

    Bezugssystem
    Die räumliche Beschreibung von Vorgängen braucht ein Bezugssystem (Koordinatensystem, Koordinaten) In einem Bezugssystem kann man die Bewegung eines Körpers beschreiben, ebenso aber auch die Bewegung eines anderen Bezugsystems, z. B. eine gradlinig gleichförmige Bewegung eines Bezugssystems in einem anderen, oder auch eine Drehung, eine krummlinige Bewegung oder eine beliebige Beschleunigung. Die Spezielle Relativitätstheorie diskutiert die Frage, wie sich zwei Beschreibungen desselben Vorgangs zueinander verhalten, die zu Bezugssystemen gehören die gegeneinander gleichförmig bewegt sind. Alle Bezugsysteme, die sich relativ zu einem Inertialsystem gleichförmig und geradlinig bewegen, sind ebenfalls Inertialsysteme.

    Dilatation
    Das Auseinanderziehen, die Verlängerung. Hier gebraucht im Zusammenhang mit Zeitdilatation, d.h. die Verlängerung der Zeiten in einem bewegten System gemäß der Speziellen Relativitätstheorie.

    Doppler-Effekt-Verschiebung
    Verschiebung der Spektrallinien einer Strahlung durch die Bewegung ihrer Quelle relativ zur Sichtlinie. Annäherung verursacht Blauverschiebung, Entfernung Rotverschiebung.

    Eigenzeit
    Eigenzeit ist die Zeit, gemessen von einer Uhr, welche die Bewegung eines Beobachters mitmacht. Uhren in relativer Bewegung zu einem Beobachter messen, dass seine und die Eigenzeit verschieden schnell vergehen. Die Länge der Weltlinie eines ruhenden Objekts (keine Änderung der Ortskoordinaten) ist die abgelaufene Zeit. Das bleibt auch bei einer Bewegung des Objekts so, wir müssen uns nur darauf beschränken, wieder nur die Uhr abzulesen, die das Objekt unmittelbar begleitet. Dieses Zeitmaß heißt Eigenzeit. Der Ablauf der Eigenzeit wird nun nicht mehr nur von der Änderung der Zeitkoordinate, sondern auch von der Änderung der Ortskoordinate bestimmt.

    Elektrodynamik
    Theorie der elektrischen und magnetischen Erscheinungen, zusammengefasst in der einheitlichen Elektrodynamik am Ende des 19. Jahrhunderts durch Maxwell. Dazu gehört vor allem die Theorie der elektromagnetischen Wellen, wie z. b. Radiowellen, Licht oder Gammastrahlen.

    Elektromagnetische Welle
    Eine wellenartige Störung in einem elektromagnetischen Feld. Alle diese Wellen breiten sich mit Lichtgeschwindigkeit aus. Sichtbares Licht, Röntgenstrahlen, Mikrowellen und Infrarotstrahlung sind Beispiele dafür.

    Energie
    Physikalische Grundgroße, für die ein strenger Erhaltungssatz gilt. Sie kann verschiedene Formen annehmen, z. B. die potentielle Energie eines im Schwerefeld hochgehobenen Gewichts, die kinetische Energie eines bewegten Körpers, die Wärmeenergie, in die schließlich jede Energie anderer Formen übergeht, oder die als Masse vorhandene Energie gemäß der Speziellen Relativitätstheorie. ("Trägheit der Energie")

    Ereignis
    Ein Weltpunkt in der Raumzeit. Beschrieben durch vier Koordinaten: {x, y, z. t}.

    Frequenz
    Die Zahl vollständiger Wellenzyklen, die eine Welle pro Zeiteinheit durchläuft.

    Grobes Missverständnis der SRT.
    Etliche Kritiker der SRT in den letzten 100 Jahren glaubten, die relativistische Zeitdilatation sei ein rein "perspektivischer" Beobachtungs-Effekt und allein durch die Lichtlaufzeiten zum Beobachter zu erklären. Ein ganz grobes Missverständnis der SRT.

    Geschwindigkeit
    Der Geschwindigkeitsbetrag und die Bewegungsrichtung eines Objekts, zu einer Größe zusammengefasst. Die Geschwindigkeit ist differentiell definiert als Ortsänderung pro Zeiteinheit.: v = dx/dt. Wenn eine punktförmige Lichtquelle angeschaltet wird, entsteht eine Kugelwelle, deren Radius sich mit 299 752 458 m/sec vergrößert. Ihr Durchmesser aber vergrößert sich doppelt so schnell. Das ist kein Widerspruch zur SRT, da die Rate, mit der sich ein Abstand vergrößert, nicht als Ortsveränderung eines physikalischen Objekts verstanden werden kann. Diese Vergrößerung des Durchmessers kann nicht mit der Einsteinschen Geschwindigkeitsadditions-Formel berechnet werden, weil es sich bei der Verdoppelung des Durchmessers nicht um eine Geschwindigkeit im Sinne der SRT handelt.

    Gleichzeitigkeit
    In der klassischen Mechanik ist die Gleichzeitigkeit von Ereignissen unabhängig von jedem Bewegungszustand und von der Entfernung definiert. In der speziellen Relativitätstheorie hängt die Definition der Gleichzeitigkeit von der Relativ-Geschwindigkeit und von der Entfernung ab (Einsteins Relativität der Gleichzeitigkeit).

    Gleichzeitigkeits-Definition von Einstein
    "Die für A und B gemeinsame Zeit kann so definiert werden, indem man durch Definition festsetzt, dass die Zeit, welche das Licht braucht, um von A nach B zu gelangen, gleich ist der Zeit, welche es braucht, um von B nach A zu gelangen."

    Für entfernte Punkte kann man zu einer Gleichzeitigkeits-Definition also überhaupt nur gelangen auf dem Wege eines konstruktiven Postulats, in dem gefordert wird, dass die Ausbreitung des Lichtes, gemessen in der noch zu definierenden gemeinsamen Zeit, ein Vorgang mit konstanter Geschwindigkeit ist. Dieses Postulat ist entscheidend an der Konstruktion des Begriffs der gemeinsamen Zeit beteiligt.

    Ideale Uhren.
    Zur Herleitung der Theorien (der SRT und der ART) legt man sogenannte "ideale" Uhren zugrunde. So eine ideale Uhr wird realisiert durch Atomuhren. Reale Experimente, welche die SRT belegen, werden mit den Taktraten von Atomuhren durchgeführt

    Inertialsystem.
    Ein Inertialsystem ist ein Bezugssystem, in dem sich kräftefreie Körper geradlinig gleichförmig bewegen. Das bedeutet, dass es sich bei einem Inertialsystem um ein nicht rotierendes und nicht beschleunigtes Bezugssystem handelt. Alle Bezugsysteme, die sich relativ zu einem Inertialsystem gleichförmig und geradlinig bewegen, sind ebenfalls Inertialsysteme. Somit bewegen sich Körper, auf die keine Kräfte wirken, in allen Inertialsystemen auf Geraden. Eine gleichförmige Rotationsbewegung wäre demzufolge nichtinertial. Jeder nichtrotierende Beobachter, der sich gleichförmig und unbeschleunigt bewegt, befindet sich in einem Inertialsystem. Auf ihn wirken keine Kräfte.
    Es gibt kein ausgezeichnetes Inertialsystem, von dem man behaupten könnte, es sei absolut ruhend. Es gibt keinen Punkt im Universum, von dem man sagen könnte, das sei allein der "absolut ruhende Pol", auf dem man jede andere Bewegung beziehen könnte. Insbesondere gibt es auch keinen "absoluten Raum", auf dem man alle Bewegungen beziehen könnte. Sowohl in der klassischen Mechanik wie in der Speziellen Relativitätstheorie sind alle Inertialsysteme für die Beschreibung gleichberechtigt.

    Isotropie
    Unabhängigkeit von Richtung oder Winkel. In einem isotropen Universum sind sämtliche messbaren Größen in allen Richtungen gleich.

    Invarianz
    Die Unveränderlichkeit bestimmter Größen oder Beziehungen, auch wenn andere Charakteristika transformiert werden. Invarianz-Überlegungen der Physik beziehen sich gewöhnlich auf die Invarianz von Größen gegenüber Transformationsgruppen.

    Invarianz der Lichtgeschwindigkeit.
    Unter der Invarianz der der Lichtgeschwindigkeit versteht man z.B. folgendes: Für das Licht wird immer die gleiche Geschwindigkeit gemessen, unabhägig davon, ob sich die Lichtquelle auf uns zu- oder von uns fortbewegt. Das sehen alle Beobachter so, gleichgültig, ob sie auf der Lichtquelle sitzen oder ob sie sich außerhalb befinden und die Lichtquelle als bewegt wahrnehmen. Daraus folgt: Die Lichtgeschwindigkeit ist in allen Inertialsystemen gleich groß.

    Kinematik der Relativitätstheorie
    Die Grundlagen der Relativitätstheorie können durch geometrische Intuition erschlossen werden. Die Kinematik der Relativitätstheorie kann daher als die Geometrie der Raumzeit-Union angesehen werden.

    Kinetische Energie
    ist die mit der Bewegung verknüpfte Energie; sie ist gleich der Arbeit, die geleistet werden muss, um einen Körper der Masse m aus dem Ruhezustand in einen Bewegungszustand mit der Geschwindigkeit v zu bringen. Sie beträgt in der klassischen Mechanik 1/2•m•v2.

    Konstanz der Lichtgeschwindigkeit
    Darunter versteht man die Unabhängigkeit von der Ausbreitungsrichtung und die Unveränderlichkeit ihrer Größe bei Zusammensetzung.
    Unabhängigkeit von der Ausbreitungsrichtung heißt zum Beispiel: Wenn ein Lichtstrahl senkrecht auf eine Spiegelfläche mit der Geschwindigkeit v=c trifft, dann hat auch der reflektierte Strahl die Geschwindigkeit v=c. Strahlen, die nicht senkrecht auftreffen, werden ebenfalls mit der Geschwindigkeit v=c reflektiert.

    Kovariant
    Die Beschreibung eines physikalischen Systems ist kovariant, wenn bei einer Transformation des Systems die transformierte Beschreibung des transformierten Systems dieselben Ergebnisse liefert wie die ursprüngliche Beschreibung des ursprünglichen Systems.

    Lichtlaufzeiten.
    Mit den Lichtlaufzeiten zum Beobachter sind die relativistischen Effekte nicht erklärbar. Das schließt nicht aus, dass man zum besseren Verstehen Gedankenexperimente macht, in denen die Lichtlaufzeiten mit einbezogen werden.

    Lichtuhr
    Eine hypothetische Uhr, welche die verstrichene Zeit misst, indem sie zählt, wie viele vollständige Rundreisen ein einzelnes Photon zwischen zwei Spiegeln zurücklegt.

    Lorentz-Kontraktion
    Besonderheit, die sich aus der speziellen Relativitätstheorie ergibt. Ein bewegtes Objekt erscheint einem ruhenden Beobachter, der dessen Länge misst, in Richtung der Bewegung verkürzt.

    Minkowski-Raumzeit
    Minkowski erkannte, dass die Kinematik der SRT graphisch darstellbar wird, wenn man neben den altbekannten kartesischen Koordinatenachsen x, y, z noch die vierte Achse ict einführt und sich bei der Veranschaulichung relativistischer Raum-Zeit-Verhältnisse auf jeweils zwei Achsen, typischerweise die Achsen x und ict, beschränkt. Für die Abstände zwischen Weltpunkten, die jetzt Raum- und Zeitkoordinaten hatten, galt die alte euklidische Regel quadrierter Koordinaten-Differenzen, allerdings mit einem durch i2 = –1 veränderten Vorzeichen des zeitlichen Anteils:

    ds2 = dx2 + dy2 + dz2 + d(ict)2

    Die Lorentztransformationen konnten dann als Drehung in dieser vierdimensionalen Raumzeit verstanden werden, bei der diese Größe ds2 invariant blieb ebenso wie bei Drehung im dreidimensionalen Raum der dreidimensionale Abstand zweier Körper unverändert bleibt. Effekte wie die Lorentzkontraktion und die Zeitdilatation konnten nun als durch Projektion von Längen- und Zeitanteil von eigentlich längen- und zeitbehafteten Größen auf zueinander um den Winkel ß = arctan(v/c) gedrehte Koordinatenachsen anschaulich interpretiert werden.

    Mittelpunkt im Universum.
    Im Universum ist kein Ort feststellbar, der als Mittelpunkt im Universum bezeichnet werden könnte.

    Newtonsche Bewegungsgesetze
    Gesetze, welche die Bewegung von Körpern unter Kräfteeinfluss beschreiben, wobei sie voraussetzen, dass Raum und Zeit absolut und unwandelbar sind. Diese Gesetze galten unverändert, bis Einstein die spezielle Relativitätstheorie entdeckt hatte, die zeigt, dass die Newtonsche Theorie nur eine Näherung für den Grenzfall kleinerer Geschwindigkeiten ist.

    Photon
    Kleinstes Paket des elektromagnetischen Felds. Botenteilchen der elektromagnetischen Kraft. Kleinstes Lichtpaket.

    Pseudoeuklidische Geometrie
    Während in einem euklidischen Raum das Quadrat des Abstandes zweier verschiedener Punkte P1 und P2 stets größer als Null ist, kann es in der Minkowski-Welt auch kleiner oder gleich Null sein. Die Raumzeit-Union der Relativitätstheorie besitzt also keine euklidische Maßbestimmung. Vielmehr ist die Maßbestimmung die vierdimensionale Verallgemeinerung der pseudo-euklidischen Geometrie. Dies ist der mathematische Ausdruck dafür, dass die Zeitkoordinate eine andere Qualität als die 3 Raumkoordinaten besitzt.

    Raum und Zeit als untrennbare Einheit.
    Man kann die SRT nicht auf der Grundlage der klassischen Betrachtung mit Trennung von Raum und Zeit verstehen. Man kann die SRT erst dann verstehen, wenn man Raum und Zeit als untrennbare Einheit ansieht.

    Raumzeit
    Die drei physikalischen Dimensionen des Raums werden mit der Zeit, die als vierte Dimension aufgefasst wird, verknüpft und ergeben so das Raum-Zeit-Kontinuum, das den grundlegenden Rahmen in der Relativitätstheorie darstellt.

    Relativgeschwindigkeit.
    Jede Geschwindigkeit (eines Körpers oder eines Inertialsystems) ist immer nur eine Relativgeschwindigkeit.

    Relativität der Bewegung
    Relativ bedeutet, dass die Bewegung nur in Bezug auf ein anderes Objekt festgestellt werden kann. Die Relativität der Bewegung gleichförmig bewegter Objekte ist keine Entdeckung der SRT, sondern wurde bereits von Galileo erkannt.

    Relativität der Gleichzeitigkeit.
    Das ist die erste Konsequenz der Konstanz der Lichtgeschwindigkeit. Einstein argumentierte etwa wie folgt: Auch die Zeit ist relativ. Es gibt keine absolute Zeit, die für alle Inertialsysteme gültig ist. In jedem Inertialsystem läuft die Zeit anders ab, abhängig davon, wie schnell sich die Inertialsysteme relativ zueinander bewegen. Und das ist ein totaler Umsturz unseres Weltbildes, weil seit Newton die Zeit "überall gleich verfließt". Und genau das tut sie nicht.

    Was für einen Beobachter gleichzeitig ist, ist für einen anderen bewegten Beobachter nicht gleichzeitig. Ob zwei räumlich getrennt liegende Ereignisse gleichzeitig sind oder nicht, kann nicht dadurch entschieden werden, dass man mit Hilfe einer Messung die Gleichzeitigkeit zweier Ereignisse feststellen könnte. Der Gleichzeitigkeits-Begriff getrennt liegender Ereignisse erlangt erst durch eine Definition seine Bestimmtheit. Gleichzeitigkeit ist objektiv unbestimmt.

    Relativitätsprinzip
    Zentraler Begriff der Relativitätstheorie, nach der die physikalischen Gesetze für alle Beobachter, die mit konstanter Geschwindigkeit relativ zueinander bewegt sind, die gleiche Form haben; daher ist jeder dieser Beobachter gleichermaßen zu der Behauptung berechtigt, er befinde sich in Ruhe. Dieses Prinzip wird in der allgemeinen Relativitätstheorie zum Äquivalenzprinzip erweitert. Bereits in der Newtonschen Mechanik waren alle Inertialsysteme gleichberechtigt. Die Newtonschen Axiome der Mechanik zeichnen kein Inertialsystem gegenüber dem anderen aus. Der Übergang von einem Inertialsystem in ein anderes Inertialsystem wird in der Newtonschen Mechanik durch eine Galilei-Transformation vollzogen.

    Relativistischer Dopplereffekt
    Der relativistische Dopplereffekt hängt nur von der Relativgeschwindigkeit von Sender und Empfänger ab.

    Ruheenergie
    ist die aus der Beziehung E0 = mc2 berechnete Energie , wobei m die Masse des Teilchens und c die Lichtgeschwindigkeit ist. Die Ruhenergie wird nur dann vollständig freigesetzt, wenn ein Teilchen mit seinem Antiteilchen zerstrahlt.

    Ruhesystem.
    Man kann sich als Beobachter in jedes beliebige Inertialsystem gedanklich hineinsetzen kann, um dieses Inertialsystem dann zum Ruhesystem zu erklären.

    Spezielle Relativitätstheorie
    Einsteins Gesetze von Raum und Zeit in Abwesenheit von Gravitation.

    SRT als Sonderfall der ART
    Die SRT lässt sich als Sonderfall der ART interpretieren, sie ist gültig für einen massefreien Raum. Bei einem masseerfüllten Raum lässt sich die SRT lokal näherungsweise anwenden.

    Teilchenbeschleuniger
    Anlage, die Teilchen fast auf Lichtgeschwindigkeit beschleunigt und sie dann mit anderen Teilchen zusammenstoßen lässt, um ihren materiellen Aufbau zu ermitteln.

    Vektorraum
    In der Mathematik eine Gesamtheit von Vektoren, d.h. Objekten, die sich addieren und mit Zahlen multiplizieren lassen. Vektorräume unterscheiden sich nach der Art dieser Zahlen (z. b. reelle oder komplexe Zahlen) und nach ihrer Dimensionszahl. Zum Beispiel bilden die möglichen Geschwindigkeiten im Raum einen dreidimensionalen reellen Vektorraum.

    Vierdimensionaler Abstand zwischen zwei Ereignissen.
    Für alle inertialen Beobachter ist der vierdimensionale Abstand zwischen zwei Ereignissen in der Raumzeit verbindlich. Alle messen den gleichen Wert. Man sagt, dieser Abstand ist das "Raumzeit-Intervall" und dieses ist invariant für alle Beobachter. Wenn man die zwei Raumdimensionen y und z weglässt und nur eine Raumdimension x und die Zeitdimension t betrachtet, dann ergibt sich das Raumzeit-Intervall s2 zwischen zwei Ereignissen für zwei verschiedene Systeme wie folgt:

    s2 = (ct')2 - (x')2 = (ct)2 - (x)2.

    Wellenlänge
    Elektromagnetische Strahlung wird durch ihre Wellenlänge oder ihre Frequenz charakterisiert, deren Produkt gleich der Lichtgeschwindigkeit ist. Die Wellenlänge ist die Entfernung zwischen aufeinanderfolgenden Wellenfronten, und die Frequenz ist die Zahl der Wellenfronten, die an einen gegebenen Punkt in einer Sekunde vorbeilaufen. Im sichtbaren Bereich hat das Licht eine Wellenlänge von 400 bis 700 Nanometer und eine Frequenz von 7 x 1014 bis 4 X 1014 Hertz.

    Weltlinie
    Eine Abfolge von Weltpunkten.

    Weltpunkt
    Ein Ort in der Raumzeit. Er ist bestimmt durch vier Koordinaten: {x, y, z, t}

    Zwillingsparadoxon.
    Gegen Einsteins Zwillingsexperiment wird meist mit der Symmetrie der Zeitdilatation argumentiert:

    Wenn Zwilling B einerseits die Uhr von Zwilling A langsamer gehen sieht, dann muss umgekehrt doch Zwilling A auch die Uhr von B langsamer gehen sehen. Das ist zwar richtig, gilt aber nur, solange sich Zwilling A und B jeweils in einem Inertialsystem bewegen. Doch Zwilling B muss umkehren, um zu A zurückkehren zu können, d. h., er beschleunigt und befindet sich daher nicht in einem Inertialsystem, im Gegensatz zu B.

    Diese Antwort wiederum hat dazu geführt, dass oftmals die Beschleunigungsphasen von B für die Verjüngung verantwortlich gemacht werden. Aber auch das ist nicht richtig, wie sich leicht zeigen lässt, indem man aus dem Zwillingsparadoxon ein Drillingsparadoxon macht. In der nachstehenden Skizze sind die Weltlinien der Drillinge A, B und C dargestellt, wobei C identische Beschleunigungsphasen (gekrümmte Kurvenstücke, durchgezogen gezeichnet) durchläuft, allerdings ist seine Reise kürzer.



    Nach Zusammenkunft aller drei ist A älter als C und C älter als B. Die Beschleunigungsphasen können also nicht für den Altersunterschied verantwortlich gemacht werden. Es ist die physikalische Geometrie der relativistischen Raumzeit: Der Weg von B ist kürzer als der von C, und dieser wiederum ist kürzer als der Weg von A.

    Zwillingsexperiment als Quintessenz mehrerer Fach-Autoren.
    1. Die Symmetrie der Zeitdilatation wird gebrochen, sobald der reisende Zwilling umkehrt.

    2. Die Umkehr ist gleichbedeutend mit einem Inertialsystemwechsel.

    3. Der Inertialsystemwechsel bei der Umkehr lässt die auf seiner Reise erarbeitete Zeitdilatation des reisenden Zwillings manifest werden.

    4. Die verflossene Eigenzeit, die der jeweilige Zwilling auf seiner Uhr abliest, entspricht der jeweiligen Länge der Weltlinie im Minkowski-Raum.

    5. Die Beschleunigungsphasen des reisenden Zwillings sind nicht die Ursache der Zeitdilatation. Man kann die Beschleunigungsphasen durch ein Differenzexperiment zum Verschwinden bringen. Die Zeitdilatation tritt dann trotzdem auf. Die Zeitdilatation ist im wesentlichen abhängig von der Reisedauer und der Reisegeschwindigkeit des reisenden Zwillings.

    6. Manche meinen, dass nur die ART das scheinbare Paradoxon auflösen könnte, weil Beschleunigungen im Spiel sind. Mal ganz abgesehen davon, dass man mit der SRT auch Beschleunigungen beschreiben kann, ist die ART zu Auflösung des Zwillingsparadoxons nicht notwendig. Es kann allein mit Mitteln der SRT gelöst werden. Die ART wird nur dann benötigt, wenn die Gravitation ins Spiel kommt.



    Herleitung der Lorentz-Transformationen mit Hilfe einer Koordinatensystemdrehung im Minkowski-Raum.

    Zunächst wird die gewöhnliche Koordinatentransformation im euklidischen Raum in Skizze 1 dargestellt, so wie sie in jeder Formelsammlung zu finden ist:


    Skizze 1


    Der Mathematiker Hermann Minkowski Minkowski ging von der Invarianz des Linienelementes aus und suchte allgemeine Transformationsgleichungen, die dies gewährleisten. Er hat dabei herausgefunden, dass allgemein jede Transformation zwischen relativ zueinander bewegten Inertialsystemen durch eine Koordinatensystemdrehung um einen imaginären Winkel in einem vierdimensionalen Raum darstellbar ist.

    Gegeben sind zwei Inertialsysteme S und S', die sich relativ zueinander mit der Geschwindigkeit v bewegen. Ersetzt man w durch ict und ß durch den imaginären Winkel (iß), dann wird aus der reellen Drehung im euklidischen Raum eine imaginäre Drehung im Minkowski-Raum (x, w=ict). Die imaginäre Einheit in w=ict gewährleistet die pseudoeuklidische Metrik der Minkowski-Raumzeit.

    Das ist vorläufig eine willkürliche mathematische Festsetzung ohne physikalische Begründung. Durch diese Festsetzung wird auch der Drehwinkel imaginär. Einstein stand ursprünglich den mathematischen Ideen Minkowskis zur SRT reserviert gegenüber: Er sagte: "Das bringt doch physikalisch nichts Neues!" Später erwies sich Minkowskis imaginärer Ansatz als sehr hilfreich zur späteren mathematischen Herleitung der ART-Gleichungen. Einsteins ursprüngliche Herleitung der ART-Gleichungen war nämlich sehr kompliziert und für einen mathematischen Laien nicht nachvollziehbar. Siehe Skizze 2:


    Skizze 2

    Der Raumzeit-Abstand O-E bleibt durch die Drehung invariant. Das Ereignis E, das im System S durch den Weltpunkt E(x, ict) dargestellt wird, ist im System S’ der Weltpunkt E(x’, ict’). Bei dem Weltpunkt E handelt sich im System S und im System S’ um das gleiche Ereignis, nur die Koordinaten dieses Ereignisses haben im System S andere Werte als im System S’.

    Die Transformationsgleichungen nehmen deshalb folgende Gestalt an:

    (3) x' = x•cos(iß) + ict•sin(iß); i2 = – 1
    (4) ict' = ict•cos(iß) – x•sin(iß)

    Zu jedem Zeitpunkt bewegt sich S' mit der Geschwindigkeit v = x/t in Richtung der positiven x-Achse; daraus folgt:

    (5) x = v•t

    Betrachtet man im 2. Quadranten des Systems S einen beliebigen Punkt (– x, ict), der auf der auf der Ordinate w=ict' liegt, dann lässt sich für den Winkel (iß) der Tangens bestimmen:

    (6) tan(iß) = – x/ict; mit x=v•t ergibt sich:
    (7) tan(iß) = – v•t/ict
    Für alle t ungleich Null ergibt sich:
    (8) tan(iß) = – v/(ic); quadriert ergibt:
    (9) tan2(iß) = – v2/c2

    Der imaginäre Drehwinkel (iß) repräsentiert somit – über den Tangens dieses Winkels – die Relativgeschwindigkeit zwischen den beiden Inertialsystemen S und S' als Bruchteil der Lichtgeschwindigkeit. Aus einer Formelsammlung entnehme ich die Umformungen (10) und (11):

    (10) sin(iß) = tan(iß)/sqrt[1 + tan2(iß)
    (11) cos(iß) = 1/sqrt[1 + tan2(iß)
    Mit der Kurzschreibweise G = 1/sqrt[1 + tan2(iß) ergibt sich:
    (12) sin(iß) = G•tan(iß)
    (13) cos(iß) = G; (12) und (13) in (3) eingesetzt ergibt:
    (14) x' = x•G + ict•G•tan(iß); mit tan(iß) = – v/(ic) ergibt sich:
    (15) x' = x•G + ict•G•[– v/(ic)
    (16) x' = x•G – t•G•v
    (17) x' = G(x – v•t); aus (4) und (12) und (13) ergibt sich:
    (18) ict' = ict•G – x•G•tan(iß); mit tan(iß) = – v/(ic) ergibt sich:
    (19) ict' = ict•G – x•G•[ – v/(ic)
    (20) ict' = G[ ict – x•[ – v/(ic) ]
    (21) ict' = G[ict + x·v/(ic); dividiert durch (ic) ergibt:
    (22) t' = G(t – x•v/c2)

    Wenn man die Beziehung (9) in die Kurzschreibweise
    G = 1/sqrt[1 + tan2(iß) einsetzt, dann ergibt sich:

    (23) G = 1/sqrt(1 – v2/c2)

    Diese Gleichung in (17) und (22) eingesetzt ergeben die speziellen Lorentz-Transformationen:

    x' = (x – v•t) / sqrt(1 – v2/c2)
    t' = (t – v•x/c2) / sqrt(1 – v2/c2)


    Neue Ergänzungen



    13.03.2013, 19:99 Die Lorentz-Transformationen, hergeleitet aus der Drehung eines Koordinatensystems in der Minkowski-Raumzeit {x, y, z, w=ict}.
    06.04.2013, 11:34 Relativistische Masse gelöscht.
    06.04.2013, 11:34 Energie-Impuls-Beziehung neu eingebracht.
    16.04.2013, 14:25 Lichtgeschwindigkeits-Defintion.
    21.04.2013, 17:45 Relativität der Bewegung + SRT als Sonderfall der ART.
    02.05.2013, 16:40 Begriff der Geschwindigkeit ergänzt.
    05.10.2013, 11:34 Zwillingsexperiment als Quintessenz mehrerer Fach-Autoren.




    Beitrag zuletzt bearbeitet von Bauhof am 05.10.2013 um 11:35 Uhr.

     

      Beitrag 1985-355
    -

     
     
    Hallo Eugen,

    in Arbeitsplattform SRT schreibst du:

    Zitat von Bauhof:
     
    4. Ein Teilchen, das sich mit Lichtgeschwindigkeit bewegt, hat keine Ruhemasse. Deshalb gibt es kein Inertialsystem, in dem Photonen in Ruhe wären.


    Diese Argumentation finde ich nicht schlüssig. Meiner Meinung nach sollte da stehen:

    Zitat von Grtgrt:
     
    4. Für jedes Objekt X, welches sich in einem Inertialsystem gleichförmig mit einer Geschwindigkeit v < c bewegt, gibt es ein Inertialsystem, in dem X ruht.

    Note: Da sich ein Photon aus Sicht anderer Objekte in  j e d e m  Bezugssystem mit Lichtgeschwindigkeit bewegt, gibt es kein Bezugssystem – und insbesondere kein Inertialsystem –, in dem ein Photon ruht.


    Gruß, grtgrt
     

      Beitrag 1985-229
    Erste Frage

     
     
    Bauhof aus 1991-1:
     
    Inertialsysteme
    Verschiedene Inertialsysteme bewegen sich gegeneinander geradlinig und gleichförmig.
    Alle Inertialsysteme bewegen sich relativ zueinander mit einer Geschwindigkeit v<c.


    Frage an Dich, Eugen (bzw. an alle):

    Ist die SRT auch noch anwendbar auf Bezugssysteme, die sich geradlinig und gleichförmig mit Lichtgeschwindigkeit zueinander bewegen?

    Mir ist zwar klar, dass die Formeln der Lorentz-Transformation dann undefiniert werden. Aber könnte man sie nicht als Grenzwert v gegen c an der Stelle v = c dennoch irgendwie sinnvoll anwenden?

    Gruß,
    grtgrt

    Siehe dazu auch die mögliche, in Beitrag 2035-1 skizzierte Anwendung.
     

      Beitrag 1985-230
    -

     
    Grtgrt aus 1985-229:
    Ist die SRT auch noch anwendbar auf Bezugssysteme, die sich geradlinig und gleichförmig mit Lichtgeschwindigkeit zueinander bewegen?

    Definitiv nein.
    Es ist kein Inertialsystem denkbar, in dem das Licht ruht.

    mfg okotombrok
     

      Beitrag 1985-15
    Inertialsystem und das Relativitätsprinzip der SRT

     
     
    Bauhof aus 1985-8:
     
    Relativitätsprinzip
    Die Unabhängigkeit der Erscheinungen vom Inertialsystem bezeichnet man als das Relativitätsprinzip.

    Bessere Formulierng von Zara.t.:
    Das Relativitätsprinzip sagt, dass alle Inertialsysteme gleichberechtigt sind, wenn es gilt Naturgesetze zu formulieren. Naturgesetze müssen kovariant formuliert werden können.
     

    Ich schlage vor, das so zu formulieren:

    • Relativitätsprinzip : Man versteht darunter die Tatsache, dass die Wahrnehmungen des Beobachters i.A. abhängig von seinem Bezugssystem sind.
    • Inertialsystem : Ein Koordinatensystem, in dem sich jeder Körper, auf den keine Kraft wirkt, mit konstanter Geschwindigkeit geradlinig bewegt. Konsequenz daraus: Jedes Koordinatensystem, welches sich relativ zu einem Inertialsystem gleichförmig und geradlinig bewegt, ist ebenfalls ein Inertialsystem.
    • Naturgesetz : Ein Sachverhalt, der sich dem Beobachter in jedem Inertialsystem gleich darstellt.

    Gruß, grtgrt
     

      Beitrag 1985-20
    -

     
     
    Zara.t. aus 1985-19:
     
    Relativitätsprinzip: alle Inertialsysteme sind gleichberechtigt, wenn es gilt Naturgesetze zu formulieren.

    woraus folgt: Naturgesetze müssen kovariant formuliert werden.


    Das Relativitätsprinzip ist der Kern der SRT.

    Hi Zara,

    deine Formulierung sagt einerseits Richtiges, hat aber andererseits den Schönheitsfehler, einem Unkundigen rein gar nichts zu sagen (da sie auf Fachbegriffen aufsetzt, die sie selbst nicht definiert: "Inertialsystem" und "kovariant").

    Einsteins eigene Formulierung scheint mir da viel hilfreicher zu sein. Er formulierte das Relativitätsprinzip der SRT so:

    Zitat von Albert Einstein in: Annalen der Physik. 322 Nr 10, 1905, S. 891-921 :
     

    Die Gesetze, nach denen sich die Zustände der physikalischen Systeme ändern, sind unabhängig davon,
    auf welches von zwei relativ zueinander in gleichförmiger Translationsbewegung befindlichen Koordinatensystemen diese Zustandsänderungen bezogen werden.

     


    Mein Formulierungsvorschlag aus 1985-15 war zudem gedacht, eine missverständliche Formulierung zu beseitigen, die Eugen auch in seiner korrigierten Version von 1985-8 noch stehen hat. Er sagt dort

    Zitat von Bauhof:
    Die Unabhängigkeit der Erscheinungen vom Inertialsystem bezeichnet man als das Relativitätsprinzip.

    meint damit aber:

    Die Unabhängigkeit der Formulierbarkeit von Naturgesetzen vom Inertialsystem bezeichnet man als das Relativitätsprinzip.


    Denn dass die Erscheinungen eben NICHT vom Bezugssystem des Beobachters unabhängig sind (auch wenn es ein Inertialsystem ist), zeigt die Tatsache, dass nach der SRT zwei zueinander gleichförmig bewegte Beobachter die Uhr des jeweils anderen langsamer gehen sehen.

    Gruß, grtgrt
     

      Beitrag 1985-214
    -

     
     
    Okotombrok aus 1985-213:
     
    Vielleicht kann man folgende Formulierung noch mit einbringen:

    "Für das Licht wird immer die gleiche Geschwindigkeit gemessen, unabhägig davon, ob sich die Lichtquelle auf uns zu- oder von uns fortbewegt."


    Vielleicht sollte man in diesem Zusammenhang besser von der "Invarianz der Lichtgeschwindigkeit" sprechen.

    Die erste kursiv gedruckte Aussage scheint auch mir sehr wichtig (da ich selbst lange Zeit nicht sicher war, ob andere das wirklich so sagen wollten).

    Statt von "Invarianz der Lichtgeschwindigkeit" sollte man deutlicher von der "Nicht-Relativität der Lichtgeschwindigkeit" sprechen.

     

      Beitrag 2000-20
    Gebhard Greiter's Deutung scheinbarer Überlichtgeschwindigkeit

     
     

    Anzunehmen, dass im Quantentunnel die SRT versagt, ist NICHT notwendig


    In Tunneling Confronts Special Relativity schreibt Günter Nimtz:

    Zitat:
     
    Experiments with evanescent modes and tunneling particles have shown that (i) their signal velocity may be faster than light, (ii) they are described by virtual particles, (iii) they are nonlocal and act at a distance, (iv) experimental tunneling data of phonons, photons, and electrons display a universal scattering time at the tunneling barrier front, and (v) the properties of evanescent, i.e. tunneling modes are not compatible with the special theory of relativity.

    Was Nimtz da schreibt, ergab sich als seine Deutung der Ergebnisse von Experimenten, die er zusammen mit Alfons Stahlhofen durchgeführt hatte.

    Die beiden Physiker betonen, dass die SRT nicht im Tunnel gilt, der einen "Raum ohne Zeit" darstelle. Denn die gemessene Tunnelzeit entsteht an der Barrierenfront, während in der Barriere, im "Tunnel" also, keine Zeit verloren geht – Raum ohne Zeit. Einer Vermutung von Richard Feynman folgend lasse der Tunneleffekt sich mit virtuellen Photonen erklären, die sich am Ende der Tunnelbarriere wieder in reelle Photonen zurückverwandeln.


    Wie mir auffällt, ist diese Deutung aber nicht zwingend.

    Die Ergebnisse der Experimente von Nimtz und Stahlhofen ebenso wie die noch genaueren einer anderen Forschergruppe können auch so gedeutet werden, dass die Wahrscheinlichkeit, das Quant im Tunnel — genauer noch: in der Barriere — anzutreffen Null ist (im Widerspruch zu dem, was die Wellenfunktion des Quants zu sagen scheint; sie genau zu errechnen — und auch noch in relativistischer Fassung — ist bisher wohl ohnehin noch niemand gelungen (!)).

    Diese meine Deutung scheint mir der von Nimtz und Stahlhofen vorzuziehen, da sie die SRT unangetastet lässt.


    Gebhard Greiter (grtgrt), siehe auch Blog


     

      Beitrag 2005-16
    Für Dinge, die sich mit Lichtgeschwindigkeit bewegen, steht die Zeit still

     
     
    Gerhard245 aus 2005-14:
     
    Wenn Du Lichtgeschwindigkeit erreichen würdest, würde die Zeit lediglich am langsamsten vergehen, aber sie vergeht. Der Zug und Du, ihr würdet beide bei Lichtgeschwindigkeit älter werden, wenn auch viel langsamer.

    Das ist falsch, denn;

    • Gemäß SRT wird der Abstand s zweier Objekte nach Raum und Zeit gemessen über die sog. Minkowski-Metrik, die den üblichen Abstandsbegriff im 3-dimensionalen euklidischen Raum in die Zeitdimension hinein verallgemeinert:
              ds2 = c2dt2 – ( dx2 + dy2 + dz2 )
      Hier steht c für die im 3-dimensionalen Raum beobachtete Lichtgeschwindigkeit.
    • Ignoriert man in 4-dimensionalen Vektoren die Zeitkomponente, so reduziert das unser Raum-Zeit-Gefüge auf einen 3-dimen­sionalen Raum. Insbesondere wird hierdurch jede Geschwindigkeit durch den 4-dimensionalen Raum auf den durch uns beobachtbaren Geschwindigkeitsanteil durch den 3-dimensio­nalen Raum projeziert.
    • Wendet man obige Formal für ds2 auf Photonen an (aufs Licht also), so zeigt sie, dass
      • Licht sich niemals durch die Zeit bewegt und
      • jeder sich nur durch die Zeit bewegende Körper dort Lichtgeschwindigkeit hat.

    Natürlich zeigt diese Argumentation ganz allgemein:


    Für Dinge, die sich mit Lichtgeschwindigkeit bewegen, steht die Zeit still.



    Gruß, grtgrt
     

      Beitrag 2035-7
    Wann ist ein Bezugssystem ein sog. Inertialsystem

     
     
    Okotombrok aus 2035-2:
    Hallo Grtgrt,

    der Ursprung eines Inertialsystems muss an irgendetwas "festgemacht" werden, von dem aus beobachtet werden kann.
    Zwei Inertialsysteme, die sich mit LG voneinander entfernen, würde bedeuten, zwei Beobachter entfernen sich mit LG voneinander.
    Das macht keinen Sinn weil geht nicht.

    mfg okotombrok


    Nun, Okotombrok, es geht doch:

    wie Henry ganz richtig bemerkt, kann es Sterne geben (und gibt sie wohl auch), die sich — der Expansion des Universums wegen — mit einer Geschwindigkeit auseinander bewegen, die größer als die Lichtgeschwindigkeit ist.

    Nun kann man ja ganz sicher jeden dieser beiden Sterne als Ursprung eines Bezugssystems sehen. Da der Begriff "Inertialsystem" offenbar ein SRT-spezifischer ist, wird man diese beiden Systeme nicht Inertialsysteme nennen können. Das aber zeigt ja nur, dass eine allgemeinere Theorie her muss.

    FRAGE also: Gibt es eine Theorie, die selbst im Beispiel dieser zwei Sterne noch Aussagen machen kann?


    Nebenbei: Auf Einstein online wird definiert:

    Zitat:
     
    Ein Inertialsystem ist ein Bezugssystem, in dem  das Trägheitsgesetz der Mechanik  gilt:

    Körper, auf die keine Kräfte wirken, befinden sich in Ruhe oder laufen mit konstanter Geschwindigkeit auf geraden Bahnen.

     


    Nach dieser Definition müssten selbst meine zwei Sterne im Beispiel oben noch ein Inertialsystem begründen. Dass die SRT auf sie nicht anwendbar ist, liegt wohl einfach daran, dass die davon ausgeht, dass sich kein Körper relativ zu einem anderem mit einer Geschwindigkeit höher als c bewegen kann.

    Nun: Auch die ART geht davon aus. Warum aber sagen ihre Gleichungen uns dann, dass der Raum sich sehr wohl mit höherer Geschwindigkeit ausdehnen kann?


    Bin sehr gespannt auf Deine Antworten,
    Gruß, grtgrt

     

      Beitrag 2032-54
    -

     
     
    Hans-m aus 2032-51:
     
    Jedes Objekt, dass sich irgend wo im Universum befindet, unterliegt der Gravitation, mal mehr, mal weniger, je nachdem wie viel Masse sich in der Umgebung befindet. Nach [dieser Definition gäbe es überhaupt keine Inertialsysteme.

    Hallo Hans-m,

    das ist ganz richtig: Inertialsysteme existieren nur in der Theorie.

    Genauer: Die SRT ist nur auf Inertialsysteme anwendbar, die aber existieren real nur annähernd (und so werden die Aussagen der SRT auf real Existierendes angewandt eben auch nur annähernd das beschreiben, was wirklich passiert).

    Gruß, grtgrt
     

      Beitrag 2035-59
    -

     
     
    Frage an dich, Okotombrok:

    Da die Geschwindigkeiten v1 und v2 in der Formel deines Beitrags 2035-25 nur Zahlen zu sein scheinen (statt 3-dim Vektoren), stellt sich mir die Frage:

    Wie addiert die SRT Geschwindigkeiten, die — ihrer Richtung nach —
    • senkrecht aufeinander stehen
    • oder deren Richtung einen spitzen oder stumpfen Winkel zwischen sich hat?

    Anders gefragt: Wie lautet die Formel der SRT, mit der man Geschwindigkeiten beliebiger Richtung (Geschwindigkeitsvektoren) addiert?

    Gruß,
    grtgrt
     

      Beitrag 2035-70
    Lese Eckhard Rebhans Buch zur SRT

     
    Grtgrt aus 2035-59:
    Wie addiert die SRT Geschwindigkeiten, die — ihrer Richtung nach senkrecht aufeinander stehen oder deren Richtung einen spitzen oder stumpfen Winkel zwischen sich hat? Anders gefragt: Wie lautet die Formel der SRT, mit der man Geschwindigkeiten beliebiger Richtung (Geschwindigkeitsvektoren) addiert?

    Hallo Grtgrt,

    das habe ich bisher nur in einem einzigen Buch gesehen (bei Eckhard Rebhan). Da muss man die Lorentz-Transformationen vektoriell herleiten. Das ist (auch für mich) sehr kompliziert. Das sollten wir lieber lassen. Oder benötigst du es unbedingt? Für was?

    M.f.G. Eugen Bauhof
     

      Beitrag 2035-73
    -

     
    Grtgrt aus 2035-72:
    ...werde mal versuchen, das Buch zu finden. Meine Frage ist zunächst reine Neugier.

    Hallo Gebhard,

    hier ist das Buch:

    Rebhan, Eckhard
    Theoretische Physik.
    Band 1: Mechanik, Elektrodynamik, Spezielle und Allgemeine Relativitätstheorie, Kosmologie
    Heidelberg 1999. ISBN=3-8274-0246-8

    M.f.G. Eugen Bauhof
     

      Beitrag 2035-113
    -

     
     
    Bauhof aus 2035-104:
     
    Die Formel aus Beitrag 2035-25 für die Geschwindigkeitsaddition ist korrekt, aber ich bezweifle, dass sie auch für v=c aussagekräftig ist. Warum? Weil die Geschwindigkeitsadditions-Formel aus der Lorentz-Transformation hergeleitet wurde und diese gilt nur für Relativgeschwindigkeiten v<c.


    Nachdem v = c Grenzfall von v < c ist ( und die Formel für alle v < c gilt ), gilt sie mit Sicherheit auch für v = c .


     

      Beitrag 2035-62
    Geschwindigkeit ist Ortsveränderung — nicht Vergrößerung von Abstand !!!

     
     
    Stueps aus 2035-57:
     
    Auf die Möglichkeit des Informationsaustausches kommt es also vielleicht nicht unbedingt an.

    Ich ahne, dass sich dieser Gedankengang noch ausbauen lässt, ich hoffe, mir fällt dazu noch etwas ein.

    Was meint ihr dazu?


    Hallo Stueps,

    bis vor kurzem verstand ich unter "Geschwindigkeit" u.A. auch das "Ausmaß, in dem sich Abstand pro Zeiteinheit verändert".

    Das aber scheint falsch zu sein. Man muss darunter "Ortsveränderung pro Zeiteinheit" verstehen. Die Lichtgeschwindigkeit ist dann nichts anders als


    die maximale Geschwindigkeit, mit der sich eine Wellenfront ausbreiten kann.



    Beispiel: Wenn eine punktförmige Lichtquelle angeschaltet wird, entsteht eine Kugelwelle,
    • deren Radius sich mit 299 752 458 m/sec vergrößert.
    • Ihr Durchmesser aber vergrößert sich  d o p p e l t  so schnell (und das ist kein Widerspruch zur SRT, da die Rate, mit der sich ein  A b s t a n d  vergrößert, nicht als Ortsveränderung eines physikalischen Objekts verstanden werden kann).

    Mit besten Grüßen,
    grtgrt
     

      Beitrag 2035-71
    -

     
    Hallo zusammen,

    ein weiteres Beispiel dafür, dass die Rate, mit der sich ein Abstand vergrößert nicht als Ortsveränderung eines physikalischen Objekts verstanden werden kann, ist die Universum-Expansion.

    Wenn die Expansionsrate so groß ist, dass von einer Galaxie A zur Galaxie B kein Lichtstrahl mehr gelangen kann, dann liest man oft, A und B fliehen voneinander mit Überlichtgeschwindigkeit.

    Die Wahrheit ist, dass die Galaxien stillstehen und nur der Raum dazwischen dehnt sich aus, was dann eine Abstandsvergrößerung zur Folge hat. Ein Lichtstrahl von A nach B "verhungert", weil die Abstandsvergrößerung schneller erfolgt, als das Licht folgen kann.

    M.f.G. Eugen Bauhof
     

      Beitrag 2035-84
    Bezugssysteme, die sich mit Lichtgeschwindigkeit zueinander bewegen

     
     
    Hans-m aus 2035-82:
    Zurück zu Bauhofs Beispiel:

    Der neutrale Beobachter "sieht" dass beide Lichtteilchen nach 1 Sekunde 2 Lichtsekunden voneinander entfernt sind, und somit eine Geschwindigkeitsdifferenz von 2 C zwischen beiden besteht.

    Da aber Licht selbst nicht als Bezugsystem definiert werden darf (so zumindest wurde es hier mehrfach gepostet) kann ich nicht behaupten, dass aus Sicht von Lichtteilchen 1 das Lichtteilchen 2 eine Geschwindigkeit von 2 C hat.

    Oder liege ich hier falsch?


    Hallo Hans,

    dass die Geschwindigkeit genau c ist, kann nicht die Ursache sein, denn:

    Da c die Lichtgeschwindigkeit im Vakuum ist, nehme ich an, dass das Licht sich durch Glas etwa mit etwas geringerer Geschwindigkeit v bewegt. Wenigstens dann also müssten die Formeln der SRT doch anwendbar sein.

    Das aber bedeutet, dass sie auch im Grenzfall v gegen c anwendbar sind,  w e n n  der Limes rein mathematisch existiert.


    Der wirkliche Grund, warum die Formeln auf unser Beispiel nicht anwendbar sind, muss demnach ein anderer sein:

    Würden wir unter den — als Teilchen so natürlich gar nicht existierenden — Objekten Beobachter verstehen, die von der Lichtwelle vor sich her geschoben würden, müsste aus deren Sicht (nach meiner eben vorgebrachten Argumentation) ihre Relativgeschwindigkeit wirklich c — und nicht 2c — sein.

    Dass dem nicht so ist, erkläre ich mir das so:


    Die SRT beschreibt, mit welcher Geschwindigkeit sich die  B e o b a c h t e r  gegeneinander bewegt sehen.

    In dem Fall aber sehen die beiden Beobachter einander gar nicht ( und so ist hier die SRT eben nicht anwendbar ).



    Gruß, grtgrt
     

      Beitrag 2035-87
    -

     
     
    Stueps aus 2035-77:
     
    Wenn Photonen physikalische Objekte im Sinne der SRT sind, dann müsste für sie das Gleiche gelten, wie für zwei entsprechende Raumschiffe:

    Diese fliegen von uns entgegengesetzt mit 0,9c los. Aus unserer Sicht sind sie dann nach einer Sekunde voneinander 1,8 Ls entfernt. Aus Sicht der jeweiligen Raumschiffbesatzung jedoch ist das andere Raumschiff nach einer Sekunde nur (ungefähr) 0,94 Ls entfernt.

    Oder?


    Hallo Stueps,

    Photonen sind keine Teilchen, die durch den Raum sausen. Es sind Wellen, die sich ausbreiten, und die sich nur dort, wo sie mit einer Messvorrichtung oder einem anderem Wellenpaket interagieren, als Teilchen "verkleidet" zeigen.

    Was Du mit deinen "Photonen" also wirklich meinst, sind Beobachter, die sich immer genau dort befinden, wo die Wellenfront sich befindet (Beobachter, die — wie ich in Beitrag 2035-84 sage — von der Welle "vor ihr hergeschoben" werden).

    Kurz: Beitrag 2035-84 beantwortet deine Frage insofern, als er dir sagen soll:
    • Ja, Du hast im Prinzip recht,
    • aber wo Beobachter sich gegeneinander ebenso schnell bewegen wie das Licht (sei es im Vakuum oder im Glas), macht die SRT gar keine Aussage — sie ist nur anwendbar auf Initialsysteme, die sich relativ zueinander langsamer als das Licht bewegen (so dass Information über den einen den anderen erreichen kann).

    Gruß, grtgrt
     

      Beitrag 2035-92
    -

     
    Stueps aus 2035-77:
    Wenn Photonen physikalische Objekte im Sinne der SRT sind, dann müsste für sie das Gleiche gelten, wie für zwei entsprechende Raumschiffe...

    Hallo Stueps,

    für Photonen gilt nicht das gleiche wie für Raumschiffe. Ich kann da nur Grtgrt zustimmen, wenn er schreibt:

    Zitat:
    ...aber wo Beobachter sich gegeneinander ebenso schnell bewegen wie das Licht (sei es im Vakuum oder im Glas), macht die SRT gar keine Aussage — sie ist nur anwendbar auf Initialsysteme, die sich relativ zueinander langsamer als das Licht bewegen (so dass Information über den einen den anderen erreichen kann).

    M.f.G. Eugen Bauhof
     

      Beitrag 2035-96
    -

     
     
    Henry aus 2035-89:
     
    Systeme, die sich mit Lichtgeschwindigkeit zueinander bewegen, können keine Information austauschen.

    Es ist außerdem völlig sinnlos, nach einer Längenkontraktion oder Zeitdilatation in solchen Systemen zu fragen.


    Völlig richtig — das sehe ich auch so.

     

      Beitrag 1985-288
    -

     
     
    Henry aus 1985-287:
     
    Die Geschwindigkeiten v von Photonen, die sich entgegengesetzt voneinander entfernen, lassen mit der Formel aus obigem Theorem addieren. Ihre Geschwindigkeiten betragen – genau, wie gefordert – für jedes Photon aus der jeder Sicht c. Photonen SIND physikalische Objekte, und wenn sie sich voneinander entfernen, lassen sich ihre Geschwindigkeiten wie beschrieben addieren.


    Hallo Henry,

    wie ich in Beitrag 2035-113 und Beitrag 2035-84 schon sagte, bin auch ich der Meinung, dass die Formel sich auch noch auf den Fall v1 = v2 = c anwenden lässt — aber eben NUR aus der Sicht der beiden "Photonen".

    Aus Sicht der punktförmigen Lichtquelle kann man v1 und v2 so aber NICHT addieren.

    Die SRT beschäftigt sich halt stets nur mit 2 (statt 3) gegeneinander bewegter Beobachter.

    Gruß, grtgrt
     

      Beitrag 1985-290
    -

     
     
    Henry aus 1985-289:
     
    Das ist nicht richtig!


    Doch, Henry, das ist richtig, denn
    • die Aussage, dass der Radius einer elektromagnetischen Kugelwelle sich mit Lichtgeschwindigkeit vergrößert ist äquivalent zur Aussage, dass ihr Durchmesser sich mit der doppelten Rate vergrößert.
    • Das aber bedeutet NICHT, dass sich da irgendetwas schneller als das Licht bewegt.

    Gruß, grtgrt

    PS: Was all das damit zu tun haben soll, dass Elektronen eines Atoms von einem Energieniveau in ein anderes springen können (ein Übergang, der keine Zeit kostet), verstehe ich nicht.

     

      Beitrag 1985-296
    -

     
     
    Henry aus 1985-295:
     
    ... die Kugelwelle, die du ansprichst, ein ganz spezieller und idealisierter Sonderfall ist und mit dem, was gewöhnlich physikalisch geschieht, nichts zu tun hat.

    Photonen, die im normalen, physikalischen Leben erzeugt werden, bewegen sich nicht wie eine Kugelwelle, um es deutlicher zu sagen.


    Da bin ich völlig anderer Ansicht:

    Wo immer eine Welle entsteht, ist sie Kugelwelle bis hin zu dem Punkt, an dem sie mit einer anderen zusammenstößt (die beiden verschmelzen und teilen sich neu auf in mehrere Wellen, deren Lebenszyklus ebenso verläuft). Mit anderen Worten: Sie verschmelzen zu einem Wellenpaket.

    Die Tatsache, dass — mindestens der Quantenfluktuation wegen — ständig neue Wellen entstehen, hat zur Folge, dass es entsprechend oft Zusammenstöße von Wellen gibt. Wo immer ein solcher Zusammenstoß passiert, denken wir, ein Teilchen zu sehen (z.B. ein Photon). Was wir da sehen, ist aber nur Strahlung, die als Ergebnis des Zusammenstoßes entsteht. Allgemeiner:


    Was wir wahrnehmen, ist  F o l g e  so eines Zusammenstoßes (z.B. die Reaktion unseres Gehirns auf den Zusammenstoß einer Lichtwelle mit unserem Auge).

    Solche Folge ist  W i r k u n g , und da Wirkung gequantelt ist, denken wir, ein "Teilchen" registriert zu haben.


    Zudem sollte man sich klar machen, dass das, was wir sehen bzw. was unsere Messgeräte registrieren i.A. ganze Wellenpakete sind.

    Eine stehende Welle etwa kann als Überlagerung zweier gegenläufig fortschreitender Wellen gleicher Frequenz und gleicher Amplitude aufgefasst werden.

    Während jede Welle Sinusform hat, kann ein Wellenpaket praktisch jeden Funktionsgraphen darstellen (z.B. einen recht schmalen Peak, der steht oder sich gleichförmig, mit beliebig kleiner Geschwindigkeit, maximal aber mit Lichtgeschwindigkeit, voranbewegt).



    Mathematisch gesehen ist jedes Wellenpaket Linearkombination von Produkten aus Funktionen, deren jede eine Welle darstellt.


    Jede Welle beschreibt gleichförmige Potentialschwankung eines Feldes.

    Jedes Wellenpaket ist Überlagerung von Wellen in diesem Sinne.



    Wo Wellenpakete umkonfiguriert werden, glauben wir Teilchen (oder Zerfallsprodukte davon) zu sehen,

    obgleich wir in Wirklichkeit nur Stellen verfolgen, an denen — als Abfallprodukt — elektromagnetische Strahlung entsteht.


    Was die Quantenphysik entdeckt hat, war u.A. auch die Tatsache, dass, wo die Frequenz einer Welle sich ändert, das nicht stetig geschieht, sondern nur in einem gewissen Raster. Die Stringtheorie interpretiert das so, dass der "String", der da schwingt, gewisse Länge hat. Da sie stets nur ganzzahliges Vielfaches der Wellenlänge sein kann, ist es nicht möglich, dass der String in jeder beliebigen Frequenz schwingt. Die Frequenz, in der er schwingt, kann sich aber spontan ändern (es ist ihm keineswegs nur eine Frequenz möglich).

     

      Beitrag 2089-21
    -

     
     
    H... in 2089-18:
    Grtgrt in 2089-17:
     
    Mit der Struktur des Raumes oder gar der Raumzeit hat all das rein gar nichts zu tun.

    Ein ganz kleines bisschen schon.


    Nein, auch nicht ein ganz klein bisschen, denn:

    Die Raumzeit der SRT ist ein 4-dimensionaler Vektorraum, Abstände darin sind über die Minkoski-Metrik definiert, und in deren Definition gehen Begriffe wie Beobachter und Inertialsystem ja gar nicht ein.

    Richtig aber ist deine Aussage, dass in der SRT jeder Beobachter einen eigenen Maßstab hat, und diese Maßstäbe eben nicht übereinstimmen, da — der Endlichkeit der Lichtgeschwindigkeit wegen — kein Ereignis von zwei zueinander bewegten Beobachtern zum selben Zeitpunkt (im Sinne des 4-dimensionalen Raumes und seiner Metrik) wahrgenommen wird.

    Die Unterschiede in den beobachterspezifischen  S i c h t e n  (die Unterschiede der Maßstäbe also) kommen dadurch zustande, dass jeder Beobachter davon aus­geht, das Ereignis trete ein, wenn  e r  es eintreten sieht. In Wirklichkeit ist es aber schon vorher eingetreten, da die Signalgeschwindigkeit endlich ist.

    Die Zeitdifferenz, um die es hier geht, ist proportional zum Abstand der sich beobachtenden Objekte. Sie wächst, wenn der Abstand sich vergrößert, und sie schrumpft, wenn er sich verkleinert.


    Gruß, grtgrt
     

      Beitrag 2089-29
    -

     
     
    Hallo H...,

    interessant ist, dass es im Raum (der SRT) global einheitliche Zeit gibt.

    So erinnert uns etwa Josef Honerkamp auf Seite 224-225 seines Buches Die Entdeckung des Unvorstellbaren (Spektrum Verlag, 2009) daran, dass noch Einstein selbst einen Algorithmus angegeben hat, die Uhren sämtlicher Orte im Raum zu synchronisieren:

    Zitat von Honerkamp:
     
    Die Bewegung eines Bezugssystems relativ zum anderen verursacht ... unterschiedliche Auffassung von Gleichzeitigkeit. Bleibt man in einem einzigen Bezugssystem, so kann man schon den Begriff der Gleichzeitigkeit einen Sinn geben; man könnte überall Uhren aufhängen und diese synchronisieren. Einstein hat eine einfache Vorschrift für die Synchonisation zweier Uhren angegeben:

    Man schicke, wenn die Uhr A die Zeit t1 anzeigt, einen Lichstrahl von ihr nach Uhr B, dieser werde reflektiert und komme zur Zeit t2 zur Uhr A zurück.

    Unterstellt man, dass die Laufzeit dt des Lichtes von A nach B die gleiche ist wie die von B nach A, so ist  dt = ( t2 – t1 )/2 , und muss man die Uhr B nur so einstellen, dass die Zeit  t1 + dt = ( t1 + t2 )/2  anzeigt, wenn der Lichtstrahl bei ihr ankommt.
     

    Gruß, grtgrt

     

      Beitrag 2089-31
    -

     
     
    Henry in 2089-30:
     
    Gebhard, wenn es eine einheitliche Zeit gäbe, müsste man die Uhren nicht synchronisieren.


    Hallo Henry,

    es wird ja auch nicht behauptet, dass es für  a l l e  Beobachter einen einheitlichen Zeitbegriff gäbe. Er existiert aber durchaus, wenn man nur ein einziges Bezugssystem betrachtet. (Zur Erinnerung: Der zweite Satz Honerkamps beginnt mit einer wichtigen Voraussetzung. Er lautet nämlich: "Bleibt man in einem einzigen Bezugssystem, so kann man schon dem Begriff der Gleichzeitigkeit einen Sinn geben ...").

    Und das obgleich dem nicht so ist über mehrere Bezugssysteme hinweg, was Honerkamp ja auch feststellt:

    Zitat von Honerkamp, S. 224:
     
    Im Rahmen der Speziellen Relativitätstheorie gibt es kein universelles Jetzt, keine Weltuhr, die im gesamten Universum die Zeit angibt und damit keine Einigung über Gleichzeitigkeit von räumlich getrennten Ereignissen für alle Beobachter, wie immer sie sich auch bewegen.
     


    In diesem Unterschied kommt halt wieder sehr schön zum Ausdruck, dass Gegenstand der SRT eben nicht die  S t r u k t u r  der Raumzeit ist, sondern nur, wie sich die  
    S i c h t e n  unterschiedlicher Beobachter unterscheiden,  w e n n  jene Beobachter relativ zueinander (gleichförmig) bewegt sind.


    Bitte auch beachten: Während die ART kein einziges Bezugssystem kennt, welches den gesamten Raum zum Gegenstand hat, ist in der SRT  j e d e s  Bezugssystem eines für den gesamten Raum.

    Gruß, grtgrt
     

      Beitrag 2089-34
    Einsteins Uhrensynchronisation — und eine Frage dazu

     
     
    Henry in 2089-32:
     
    Ich darf dich zitieren: "interessant ist, dass es im Raum (der SRT) global einheitliche Zeit gibt." Du redest also nicht von einem einheitlichen Zeitbegriff, sondern von einheitlicher Zeit. ... Du argumentierst vollkommen inkonsequent und unlogisch. Es gibt immer nur zwei Beobachter, die sich miteinander auf Gleichzeitigkeit einigen können, für alle anderen Beobachter ist das jeweils aufs Neue zu bestimmen. Hat sich was mit einer globalen Zeit.


    Hallo Henry,

    vielleicht reden wir ja nur aneinander vorbei. Ich sehe es wie folgt:

    Nach Einsteins Definition (1905) wird zum Zeitpunkt t1 ein Lichtsignal von Uhr 1 zur Uhr X gesandt, die dann sofort — beispielsweise durch einen Spiegel — ein Lichtsignal zurücksendet; dieses erreiche Uhr 1 zum Zeitpunkt tX .

    Die Einstein-Synchronisation besteht nun darin, Uhr X so zu stellen, dass der Zeitpunkt der Reflexion ( t1 + tX )/2 ist.

    Wenn wir uns jetzt vorstellen. dass die Quelle des von Uhr 1 ausgehenden Lichtsignals eine punktförmige Lichtquelle ist, breitet sich das Signal als kugelförmige elektro­magnetische Welle aus, erreicht also  a l l e  Uhren X im gesamten 3-dimensionalen Raum. Eingestellt nach Einsteins Regel, sind dann also  a l l e  Uhren im Raum zu Uhr 1 synchron.

    Warum bitte soll man das dann nicht als einen global einheitlichen Zeitbegriff sehen können

    ( nutzbar durch alle, die dasselbe Bezugssystem wie Uhr 1 nutzen )?


    Gruß, grtgrt
     

      Beitrag 2089-35
    -

     
    Grtgrt in 2089-34:
    Wenn wir uns jetzt vorstellen. dass die Quelle des von Uhr 1 ausgehenden Lichtsignals eine punktförmige Lichtquelle ist, breitet sich das Signal als kugelförmige elektro­magnetische Welle aus, erreicht also  a l l e  Uhren X im gesamten 3-dimensionalen Raum. Eingestellt nach Einsteins Regel, sind dann also  a l l e  Uhren im Raum zu Uhr 1 synchron.

    Warum bitte soll man das dann nicht als einen global einheitlichen Zeitbegriff sehen können

    ( nutzbar durch alle, die dasselbe Bezugssystem wie Uhr 1 nutzen )?

    Hallo Grtgrt,

    Einsteins Uhrensynchronisation hat überhaupt nichts mit einem "global einheitlichen Zeitbegriff" zu tun.

    Alle Uhren im gesamten 3-dimensionalen Raum können zwar erreicht werden, aber nicht alle zur gleichen Zeit, denn das Signal braucht verschiedene Zeiten, bis es alle Uhren erreicht hat. Es sei denn, dass sich alle übrigen Uhren genau auf einer Oberfläche einer 3-D-Kugel befinden. Und im Mittelpunkt der Kugel befände sich Uhr 1.

    M.f.G. Eugen Bauhof
     

      Beitrag 2089-42
    Gleichzeitigkeit

     
     
    Bauhof in 2089-40:
    Hallo Henry,

    es ist sinnlos, von der Gleichzeitigkeit von zwei Ereignissen zu sprechen, solange man keine Gleichzeitigkeits-Definition besitzt.

    Denn die Gleichzeitigkeit von zwei Ereignissen kann nicht gemessen, sondern nur definiert werden. Dies ist eine Erkenntnis von Einstein. Die Einsteinsche Uhrensynchronisation ist ein Beispiel für eine Definition der Gleichzeitigkeit.

    Diese ist aber nicht zwingend, es sind auch andere Definitionen der Gleichzeitigkeit möglich.


    Ja, Henry, da kann ich Eugen Bauhof nur aus ganzem Herzen zustimmen.

     

      Beitrag 2089-45
    Gleichzeitigkeit aus Sicht einer bestimmten Uhr

     
     
    Bauhof in 2089-35:
    Hallo Grtgrt,

    Einsteins Uhrensynchronisation hat überhaupt nichts mit einem "global einheitlichen Zeitbegriff" zu tun.


    Das wiederum sehe ich völlig anders, denn:

    Gegeben ein Bezugssystem, in dem sich eine ausgezeichnete Uhr 1 befindet, lässt sich gemäß Einsteins Uhrensynchronisation für jede Stelle X im 3-dimensionalen Raum
    d e f i n i e r e n  :

    Uhrzeit(X) = Uhrzeit(1) – c • A(1,X)


    wo c die Lichtgeschwindigkeit bezeichnet, A(1,X) den euklischen Abstand der Stelle X von Uhr 1, und Uhrzeit(1) die von Uhr 1 angezeigte Uhrzeit.

    Damit ist — solange man nur dieses eine Bezugssystem nutzt — ganz offensichtlich über die Uhr 1 ein für den gesamten Raum wohdefinierter Zeitbegriff gegeben.

    Dieser Zeitbegriff ist übrigens genau der, den wir alle zugrundelegen, wenn wir sagen: Unser Blick auf einen beliebig weit entfernten Himmelskörper zeigt uns diesen Himmelskörper, wie er war, als das Licht, das wir von ihm empfangen, seine Reise von dort hin zu uns angetreten hat: Uhrzeit(X) ist der Zeitpunkt, der aus unserer Sicht (genauer: aus Sicht der Uhr 1) das Ende der Vergangenheit von Stelle X bezeichnet und gleichzeitig den Beginn ihrer noch unbekannten Zukunft.


    Einmal mehr wird hier klar, dass sich alle Überlegungen Einsteins, die sich der SRT zuordnen, nur auf beobachterspezifische  S i c h t e n  beziehen (niemals aber auf Raumstruktur).

     

      Beitrag 2089-47
    Selbst Einstein macht gelegentlich eine absolut inhaltsleere Aussage

     
     
    Bauhof in 2089-35:
    Hallo Grtgrt,

    Einsteins Uhrensynchronisation hat überhaupt nichts mit einem "global einheitlichen Zeitbegriff" zu tun.


    Hallo Eugen,

    wie ich annehme, wolltest Du wohl sagen:


    Einsteins Uhrensynchronisation hat überhaupt nichts mit einem global  e i n d e u t i g e n  (konkurrenzlosen) Zeitbegriff zu tun.


    Damit nämlich hättest Du auch nach meinem Verständnis recht.

    Gruß, grtgrt


    Nebenbei: Wie in Beitrag 2089-45 dargelegt, definiert jeder Ort im Raum einen eigenen, durchaus sinnvollen (Uhr-)Zeitbegriff — aber keine zwei dieser Zeitbegriffe sind identisch. Damit wird sehr schön klar, wie inhaltsleer Einsteins Aussage » Zeit ist, was man von der Uhr abliest « doch eigentlich ist.

     

      Beitrag 2068-50
    Wie der Beobachter den Zeigerstand einer relativ zu ihm bewegten Uhr errechnet

     
     
    Henry in 2068-49:
     
    Dein Zitat: » Die beobachterspezifische Sicht ist — per definitionem — stets die, die der Beobachter von seiner eigenen Uhr abliest.
    Und das muss auch so sein, da sie sonst ja gar nicht eindeutig wäre (sie würde abhängig vom Objekt, auf dessen Uhr er blickt).
    «

    Lassen wir das Extrem des Photons selbst mal beiseite, es geht hier auch gar nicht in erster Linie um das Photon, sondern darum, dass es bzgl. der Zeitdilatation immer um die Sicht der Uhr aus einem System heraus in ein anderes geht, DAS stellt der jeweilige Beobachter fest und es geht NICHT um die eigene Uhr des jeweiligen Beobachters, sondern darum, welche Zeit er auf der Uhr des jeweils anderen System abliest.

    Das war der Grund, warum ich den Link eingestellt habe.


    Du scheinst mir ausweichen zu wollen, Henry, denn:

    • Es ging durchaus um das Extrem des Photons.
    • Dennoch gebe ich Dir recht: Es geht auch darum, wie denn nun genau die Wahrnehmungen von Beobachter (einerseits) und beobachtetem Objekt (andererseits) sich unterscheiden.
      Hierzu aber gilt:
      • Der Beobachter kann die Uhr des beobachteten Objekt gar nicht einsehen.
         
      • Die SRT allerdings sagt ihm, wie er deren Zeigerstand herrechnen kann aus dem Zeigerstand seiner eigenen Uhr und der durch ihn beobachteten Geschwindigkeit des Objekts.
         
      • Die entsprechende Regel lautet:
         
        Eine aus Sicht des Beobachters mit Geschwindigkeit v bewegte Uhr geht – aus seiner Sicht – um den Faktor  (1 – v2/c2)–1/2  langsamer als seine eigene.


    Mit besten Grüßen,
    grtgrt
     

      Beitrag 1997-111
    Wer Spezielle Relativitätstheorie (SRT) verstehen will, muss sich klar gemacht haben ...

     
     

    Wer die SRT verstehen will, sollte wissen:


    An Okotombrok, Eugen, Henry, Horst und Stueps:

    Euch scheint nicht bewusst zu sein, dass die SRT — anders als die ART —
    • gar nicht darüber spricht, wie schnell ein Objekt a l t e r t ,
    • sondern n u r  darüber, wie schnell andere, zu ihm gleichförmig bewegte Objekte es altern  s e h e n.

    Und speziell für Horst, sei gesagt, dass das Wort "sehen" hier nicht allzu wörtlich verstanden werden darf:
    Es steht für "sehen könnten unter der Voraussetzung, dass jedes Objekt die Fähigkeit hat, beliebig weit absolut genau zu sehen".


    In moderner Terminologie kann man das Szenario, in dem die SRT argumentiert, ohne Beschränkung der Allgemeinheit beschreiben wie folgt:
    • Betrachtet wird ein 3-dimensionaler Raum, in dem sich Personen (sog. Beobachter) befinden.
    • Jeder Beobachter trägt eine Uhr mit sich, und all diese Uhren sind von absolut gleicher Bauart.
    • Jeder Beobachter X hat einen PC, dessen Bildschirm stets zwei Uhren zeigt: Die eigene und die eines anderen Beobachters Y.
    • Jede Uhr sendet bei jedem ihrer Ticks ein Signal aus, welches all diese Computer empfangen und so die auf ihren Bildschirmen gezeigten Uhrenbilder aktualisieren.
    • Der Zeitbegriff eines Beobachters X ist stets der, den das Bild seiner  e i g e n e n  Uhr ihm erzeugt.
    • Zeit (in diesem Sinne) sieht X als eine vierte Dimension des Raumes, in dem er und alle anderen existieren.
    • Wo zwei Beobachter sich relativ zueinander bewegen, geschieht dies mit konstanter Geschwindigkeit v < c.

    KONSEQUENZ all dessen ist ( jeder überlege sich das auch selbst ):
    • Genau dann, wenn zwei Beobachter sich voneinander entfernen, sieht jeder auf seinem Bildschirm die Uhr des jeweils anderen  l a n g s a m e r  gehen als seine eigene (der Endlichkeit der Signalgeschwindigkeit wegen).
    • Genau dann, wenn zwei Beobachter sich auf einander zu bewegen, sieht jeder auf seinem Bildschirm die Uhr des jeweils anderen  s c h n e l l e r  gehen als seine eigene (wieder der Endlichkeit der Signalgeschwindigkeit wegen).

    Erst wer das verstanden hat, hat die SRT  w i r k l i c h  verstanden.

    Beste Grüße,
    grtgrt
     

      Beitrag 1997-140
    Die Geometrie der Raumzeit der SRT ist  nicht  euklidisch (!)

     
     

    Was ich noch nicht wusste ...


    Da in der Definition der Minkowski-Metrik ein Minus-Zeichen auftritt, ist die Raumzeit – auch die ungekrümmte der SRT – nicht euklidisch (!).


    Quelle: Wikipedia

     

     Beitrag 0-387
    Das heute (noch) vorherrschende Weltbild ist eine Sackgasse

     
     

     
    Unser makroskopisch orientiertes Weltmodell ist eine Sackgasse

     
     
    Unter dem sog. klassischen Weltmodell (auch das materialistische genannt) versteht man die um 1900 als unumstößlich richtig eingestufte Aussage, dass alles in unserer Welt determinisch verlaufe. Erst die dann aufkommende Quantenphysik — die Physik des Allerkleinsten — hat uns eines Besseren belehrt.
     
    Richtig ist auf jeden Fall, dass physikalische Prozesse in makroskopischer Hinsicht deutlich deterministischer ablaufen als auf Ebene der Quantenphysik, wo — wie man inzwischen weiß — wirklicher Zufall eine ganz zentrale Rolle spielt.
     
    Welche philosophischen Konsequenzen aber hat das denn nun?
     


    Günter Ewald ( in Gehirn, Seele und Computer (2006) S. 109-110, nicht ganz wörtlich ):
     
    Als mit Gehirn und Geist ausgestattete Wesen stehen wir zwischen
       
    • der Unermesslichkeit des Kosmos im Großen — den Billionen von Sternen — und
       
    • der Unermesslichkeit unseres inneren Kosmos — den Billionen von Synapsen unter unserer Schädeldecke.

    Beide vermitteln uns beides gleichermaßen: die Kleinheit und die Größe des Menschen.
     
    Dies geschieht bereits auf materieller Ebene, die zu verstehen uns Relativitätstheorie und Quantenphysik geholfen haben. Der Kosmos — so zeigt sich da — ist nicht einfach nur ein Behälter, in dem sich Staubwolken kleiner Kügelchen, Atome genannt, zu Gestirnen verklumpen um dann auf mindestens einem Planeten exotische Maschinen wie etwa unser Gehirn hervorzubringen.
     
     
    Was da wirklich existiert und abläuft zeigt sich allerdings nur dem physikalisch geschulten Geist — und selbst ihm nur in noch schwer zu deutenden Umrissen.
     
    Dennoch:
     
    Beim Verstehen der ganz großen Körper und Zusammenhänge sind wir die letzten Jahrzehnte schon recht weit gekommen: Begriffe wie Urknall, Schwarzes Loch oder Baby-Universum kennt heute fast jeder.
     
     
    Beim Verstehen des ganz Kleinen aber stehen wir vor großen Hindernissen, die das sog. klassische Denken vor uns aufgebaut hat.
     
    Quantenphysikalische Einsichten, welche zunehmend mehr Forschern nach ihrem Ausscheiden aus dem "aktiven Dienst" zu reflektieren und zu deuten versuchen, werden von Vielen immer noch ignoriert oder gar als "zu esoterisch" bekämpft.
     
    Penrose und Hameroff sind einsame Propheten, die auf Kommendes hinweisen, aber noch viel zu wenig Gehör finden.
     
    Der Ausbruch aus der Vorstellung eines geschlossenen Hirnsystems ebenso wie einem ultradarwinistischen Lebensverständnisses geschieht möglicherweise erst aufgrund methodischer Probleme.
     
    Konvergenz der Evolution wie Conway Morris sie beobachtet und herausarbeitet, und auf die — in ganz anderen Worten und mit ganz anderen Beispieln — auch Rupert Sheldrake hinweist —, werden noch lange nicht erst genommen, und daraus resultierende philosopische Überzeugungen werden noch allzu oft als wissenschaftsfremdes, esoterische "Geschwurbel" eingestuft.
     
    Einzig und allein Carl Gustav Jung (als renommierter Psychoanalytiker) und Wolfgang Pauli (in seiner 26-jährigen Diskussion mit Jung über Synchronicity und Archetypen) haben — bisher leider nur unter Phsychologen und ihnen nahestendenen Medizinern — erste Schranken des klassischen Denkens niedergerissen.
     
    Öffnung ist somit das gemeinsame Kennzeichen eines eben erst keimenden Verstehens des äußeren wie auch des inneren Kosmos ( Universum und Gehirn als die nur schwerpunktmäßig lokalisierte Wohnung von Geist ).
     


     

     
    Gibt es etwas, das hinausreicht über alles, was Physik zu modellieren versteht?

     
     
    Wer nicht bei allzu naiven Religionsvorstellungen stehen bleiben möchte, muss sich diese Frage stellen ohne jede Furcht, dann der "Esoterik" verdächtigt zu werden (wie es Hans-Peter Dürr — völlig zu Unrecht — ja leider passiert ist).
     
    Sich auf solch unerforschtes, für uns aber wichtiges Gebiet zu wagen ist mehr als nur Spekulation: Es ist uns dämmerndes, noch viel zu ungenaues Wissen, welches sich hinter einem gedanklichen Stoppschild findet, das so manch etablierter Wissenschaftler dem suchenden Denken anderer entgegenzuhalten versucht.
     
    Unbestechliche Denker aber drängt eine in ihnen entstehende Überzeugung, die legitim ist, solange zwei Bedingungen erfüllt bleiben:
       
    • Sie darf wissenschaftlichen Erkenntnissen, die man selbst als gesichert ansieht, nicht widersprechen,
       
    • und sie muss ihren Überzeugungscharakter offen legen, darf also nicht in Form von "Erleuchtung" oder auf Basis nur pseudowissenschaftlicher Argumentation daher kommen.

     
    Sogar religiöse Aussagen über Transzendentes können auf diese Weise in große Nähe zur Wirklichkeit rücken, mindestens aber kritisch-wissenschaftlich reflektiert werden.

     

      Beitrag 2023-3
    Zur Schleifen-Quanten-Gravitation: Skizze und Status

     
     
    Mirko 8 aus 2023-1:
    Hallo zusammen !
    Wenn Zeit bei geringer Gravitation schneller vergeht,wie schnell vergeht dann die Zeit in Quantensystemen?
    Gibt es eine Quantengravitationstheorie ?

    Hi Mirko,

    es gibt (nur) den  A n s a t z  einer solchen Theorie: die sog. Schleifen-Quanten-Gravitation.

    Carlo Rovelli und Lee Smolin — die beiden Hauptvertreter der entsprechenden Ideen — skizzieren die Grundzüge des Modells in den beiden folgenden Papieren:

    Liest aber man zudem noch den letzten Abschnitt VI eines an die Physiker gerichteten Papiers vom Jan. 2012 (Seite 18-20), so bekommt man den Eindruck, dass man mit dieser Theorie derzeit wohl ähnlich wenig vorankommt, wie mit der dazu konkurrierenden Stringtheorie.

    Lee Smolin hat gar mal geschrieben (ich weiß nicht mehr wo):

    Zitat:
     
    Wenn die Stringtheorie oder die Schleifen-Quanten-Gravitation die Lösung selbst wären,
    würden wir es inzwischen wissen.

    Sie mögen Anhaltspunkte sein, kleine Teile der Antwort, sie mögen wichtige Erkenntnisse enthalten, sind aber keinesfalls mehr.

     

    Wenn in Richtung Schleifen-Quanten-Gravitation in naher Zukunft was vorangehen sollte, dann wohl am ehesten, wenn ein Buch, an dem der Zeitforscher Julian Barbour gerade schreibt, fertiggestellt ist.

    Von mathematischer Seite her wird ganz sicher relevant werden, was in einem fast schon fertigen Buch von Connes und Marcolli zusammengestellt ist.

    Gruß, grtgrt

    PS: Dass im Inneren eines beliebigen Quantensystems die Zeit besonders schnell vergeht (weil einzelne Quanten kaum Masse haben) ist natürlich NICHT zu erwarten, denn so wie um uns herum Objekte großer Masse existieren, existieren die natürlich auch um jenes Quantensystem herum.

     

     Beitrag 0-101
    Kennt die Natur ein kollektives Gedächtnis?

     
     

     
    Gibt es — wie Sheldrake vermutet — ein uns unbewusstes
     
    kollektives Gedächtnis?
     
     
    Und ist es möglich, dass wir dort abgelegtem Wissen hin und wieder als zunächst nur  e r a h n t e r  Wahrheit begegnen?

     
     
    Wer Rupert Sheldrakes These morphogenetischer (genauer: morphischer) Felder kennt und darüber hinaus auch zahlreiche Beobachtungen, die uns nahelegen, seine These nicht allzu vorschnell als esoterische Spinnerei einzustufen, wird an sie erinnert, wo wir uns vor Augen führen, dass die Grundaussagen der Quantenphysik uns eine Realität ganz anderer Art nahelegen als sämtliche Beobachtungen aus unserem Alltagsleben.
     
    Wie der durchschlagende Erfolg moderner Technologie — insbesondere der heute so zahlreichen elektronischen Produkte — uns beweist, muss richtig sein, was die Quantenphysik uns sagt.
     
    Erstaunlicher Weise aber zählen hierzu auch eine ganze Reihe von Vorstellungen, die sich in bis zu 2500 Jahre alten philosophischen Lehren finden, aber damals — wie wir heute denken — durch keine zutreffende Beobachtung begründbar scheinbar völlig aus der Luft gegriffen waren. Hier einige Beispiele:

       
    • Die Quantenphysik und alle auf ihrer Basis erzielten technologischen Errungenschaften beweisen uns, dass die Welt der elementaren Systeme (Quanten, Atome, Moleküle ...) anders beschaffen sein muss als unsere Sinne sie uns ausmalen.
       
      Aber schon Anaximander (etwa 600 v.Chr.) war hiervon überzeugt. Er schrieb: Alle Dinge sind aus einer Ursubstanz entstanden, aber sie — das Apeiron — ähnelt keiner Substanz, die wir kennen. Anaximander sah das Apeiron als unendlich, alle Welten umfassend und dauernd neue Wirklichkeit schaffend.
       
       
    • Die Quantenphysik sieht die Elektronen in Atomen als mathematische Formen, die stehende Wellen darstellen und deren Interferenz die sichtbare Ordnung des Universums erschafft.
       
      Doch schon Platon (etwa 350 v.Chr.) schrieb: Die Atome der Elemente sind nicht Dinge, sondern mathematische Formen.
       
      Die Wellenfunktionen der Quantenphysik sind tatsächlich nur Platonische Ideen: Sie unterscheiden sich von der gewöhnlichen Wirklichkeit, enthalten aber alle Wirklichkeit.
       
       
    • In jeder quantenphysikalischen Messung bzw. Interaktion vollzieht sich, nach Heisenberg, der Übergang vom Möglichen zum Faktischen, ganz so als würde die Wirklichkeit erst durch Beobachtung geschaffen.
       
      Doch es war schon Bischof Berkeley (um 1700) überzeugt: Zu sein heißt, beobachtet zu werden ... Alle wirklichen Dinge sind Ideen ....
       
       
    • Die Phänomene der Quantenwirklichkeit deuten darauf hin, dass die Natur des Universums die einer Ganzheit ist. Nichtlokale Quanteneffekte sind wesentliche Züge dieser Wirklichkeit. Der Quantenphysiker Hans-Peter-Dürr wurde nicht müde, uns dies immer wieder zu sagen, und auch Bohm schrieb (1980): Die Wirklichkeit ist ein ungebrochenes Ganzes, einschließlich des ganzen Universums mit all seinen Feldern und Teilchen.
       
      Aber auch schon Parmenides (etwa 500 v.Chr.) hat sich so geäußert. Er schrieb: Alles ist eins.
       
       
    • Und wie konnte es kommen, dass schon Leukippos und sein Schüler Demokrit (vor rund 2400 Jahren) zur Überzeugung kamen, dass sich alle Materie aus kleinsten, unteilbaren Bausteinen aufbaut (damals Atome genannt)? Wirklich bewiesen hat uns das jedenfalls erst die moderne Kernphysik.
       
       
    • Noch erstaunlicher ist, dass Lukrez (etwa 55 v.Chr.) in seinem Werk Über die Natur der Dinge schrieb: Und so muss es von Allem einen kleinsten Teil geben, jenseits der Erkenntnis unserer Sinne. Dieser kleinste Teil ist unzerlegbar, ist die kleinstmögliche Einheit. Er kann nie für sich allein existieren, sondern immer nur als Unterbestandteil eines größeren Körpers, von dem keine Kraft ihn je trennen kann.
       
      Diese Aussage trifft, wie wir heute wissen, exakt so auf die Quarks zu — die kleinsten Bausteine der Materie. Die "größeren Körper", von denen Lukrez spricht, sind nach heutiger Erkenntnis die Nukleonen (Protonen und Neutronen).

     
    FRAGE also: Wie konnte es kommen, dass derart alte Theorien fast genau das beschrieben, was erst die Quantenphysik — und das tadellose Funktionieren auf ihr aufbauender hochkomplexer Produkte — uns beweisen konnten?
     
    Wäre es denn wirklich unmöglich, dass all diese alten Vorstellungen Ahnungen waren, die jene Philosophen einem der gesamten Natur gemeinsamen kollektiven Wissensspeicher unbewusst entnommen haben?
     
     
     
    Siehe auch: Erahnte Prinzipien, 19. Anhang in Lothar Schäfers Buch Versteckte Wirklichkeit, Hirzel 2004.
     
    Es findet sich dort noch ein weiteres Beispiel, über das sich nachzudenken lohnt:



    Lothar Schäfer, Prof. für physikalische Chemie (Zitat):
     
    Die These der Alchemisten, dass auch die  F o r m  eines Reaktionsgefäßes den Verlauf einer chemischen Reaktion beeinflusst, scheint völlig unberechtigt.
     
    Wenn sich die Abmessungen des Reaktionsgefäßes nun aber molekularen Dimensionen nähern, so ergibt die quantenmechanische Analyse, dass die Aufent­haltswahrscheinlichkeit und die Energiezustände von Substanzen — beides Eigenschaften, die die chemische Reaktivität direkt beeinflussen — tatsächlich entscheidend von der Form des Gefäßes abhängen.
     
    Selbst in großtechnischen Verfahren, in denen chemische Produkte tonnenweise hergestellt werden, können chemische Reaktionen aus den verschiedensten Gründen von der Form des Reaktionsbehälters beeinflusst werden.
     
     
    Aus all diesen Beispielen lässt sich folgern: Im Voraus erahnte Prinzipien enthalten oft einen wahren Kern. Historische Fehler sind immer dann unterlaufen, wenn man nicht vorsichtig genug war, die wesentlichen Aussagen erahnter Prinzipien von nebensächlichen Einzelheiten zu trennen.
     
    Note: Man wende diese Überlegungen einmal auf die verschiedenen religiösen Systeme an und frage sich, ob sich daraus Konsequenzen ergeben.
     



     

     Beitrag 0-265
    Was Quantenphysik uns über die wahre Natur aller belebten und unbelebten Dinge im Universum sagt

     
     

     
    Die genaueste Sicht auf uns und unsere Welt

     
     
    Wie die Quantenphysik uns nahelegt, kann man sich den gesamten Inhalt des Universums durch ein Vektorfeld » Drang nach Wirkung « beschrieben denken.

       
      Nach Schrödingers Wellenmechanik ist der Drang nach Wirkung gerichteter Drang beschrieben durch Vektoren eines unendlich-dimensionalen Vektorraums.
      Seiner Stärke nach aber ist dieser Drang – wie Born fand – quantifiziert durch das Quadrat der Länge dieser Vektoren.

     
    Der Drang nach Wirkung — das also, was unsere Welt belebt — ist Summe von aus dem Vakuum kommender Feldanregungen, deren jede sich, ein reales oder virtuelles Elementarteilchen darstellend, als Kugelwelle genau bestimmter Frequenz um den Ort ihres Auftauchens herum ausbreitet.
     
     
    Zeit und Veränderung ergeben sich durch in ständiger Folge eintretender Quantenereignisse.
     
    Man versteht darunter das spontane Eintreten kleinster, einzeln für sich  u n t e i l b a r e r  Portionen von Wirkung, deren jede eine kleine Menge M1 jener Wellen (Synonym: Elementarteilchen) schlagartig durch eine Menge M2 anderer solcher Wellen ersetzt — aber stets unter der Nebenbedingung, dass die Wellen aus M1 insgesamt ebenso viel Energie darstellen wie die aus M2.
     
     
    Ein konkretes Weltbild der Physik ergibt sich nun stets dadurch, dass man zur Beschreibung des Vektorfeldes und seiner Komponenten — der einzelnen Wellen ebenso wie der quantitiven Eigenschaften der Summe sämtlicher Wellen bzw. Feldanregungen — stets nur Zahlen einer ganz bestimmten begrenzten Genauigkeit benutzt. Man rundet sozusagen. Dies macht unser Bild der Welt zu einem pixelartigen Bild, so dass jeder der würfelartigen Pixel seiner Farbe nach durch genau ein Bit beschrieben ist (schwarz = unterhalb, weiß = oberhalb des Amplitudenquadrates der Wellenberge).
     
     
    Wenn wir uns dieses Bild nun als 2-dimensional vorstellen — die waagrechte Dimension mit der Raumzeit, die senkrechte mit der Amplitude des Vektorfeldes identi­fizieren —, so können wir uns vorstellen, dass das Bild senkrecht auf einer Ebene steht, welche wir als » die Oberfläche des Meeres aus Energie, welches wir als das Vakuum bezeichnen « deuten können.
     
    Da aus dieser Sicht alle Pixel Quadrate darstellen, deren Seitenlänge durch unsere maximale Rechengenauigkeit bestimmt ist, werden alle Wellen ignoriert, deren Maximalamplitude kleiner als die halbe Seitenlänge der Pixel ist (korrekte Rundung von Rechenergebnissen vorausgesetzt).
     
    Dies vereinfacht unsere Sicht auf die Welt, verfälscht sie aber auch etwas:
     
    Da unser Blick dann nicht mehr bis hinunter zur Oberfläches des Vakuums reicht (des Meeres aus Energie) — da unser Bild auf der halben Höhe der untersten Pixelreihe abgeschnitten erscheint —, ist dadurch der Inhalt unseres Universums zu einer Menge von Wellenbergen geworden, die sich nicht mehr alle überlappen: Für viele nämlich ist der Drang, gemeinsam Wirkung zu entfalten — ihr Überlappungsbereich also — seiner Amplitudenhöhe nach kleiner als die halbe Pixelhöhe. Sie erscheinen uns dann im Bild als Objekte, deren Drang zu wirken, sich nirgendwo mehr gegenseitig beeinflusst, obgleich das doch — mit letzter Genauigkeit — gar nicht so ist.
     
    Bilder der Physik, die nur Objekte bis hinunter zu einer bestimmten minimalen Größe zum Gegenstand haben wollen, ergeben sich einfach dadurch, dass man die Pixelbreite entsprechend größer wählt.

     
     
    Je größer man sie aber wählt, desto weniger werden — dem Bild nach — die gezeigten Objekte gemeinsam verantworteten Drang nach Wirkung aufweisen.

     
     
    Daher kommt es, dass aus unserer normalen Alltagssicht heraus — oder auch aus der Sicht von Ärzten und Psychologen — keine Wechselwirkung zwischen einander unbekannten oder weit von einander entfernt weilenden Personen denkbar ist (vorausgesetzt natürlich, sie stehen nicht gerade über moderne elektronische Kommunikationsmittel miteinander in Kontakt).
     
    Nicht vergessen sollten wir, dass auch jeder von uns — jede einzelne Person — eines dieser Objekte ist, und dass wir alle uns — in der untersten Schicht der Pixel im Bilde — dennoch sämtlich miteinander überlappen (!).
     
    Letztlich also stellt jeder von uns — aber auch jedes andere Lebewesen, ja sogar jedes uns als unbelebt eingestufte materielle Objekt — seinem wahren Wesen nach nur einen der vielen lokalen Schwerpunkte des überall vorhandenen Vektorfeldes Drang nach Wirkung dar.

     
     
    So also wird verständlich und als wahr erkennbar, was


    die Wissenschaftsjournalistin Lynne McTaggert im Vorwort ihres Buches » Das Nullpunktfeld « 2002 schrieb:
     
    Einige Jahrzehnte lang haben angesehene Wissenschaftler verschiedener Disziplinen überall in der Welt gut geplante Experimente durchgeführt, deren Ergebnisse für die konventionelle Biologie und Physik einen Schlag ins Gesicht darstellen. Zusammengenommen liefern diese Untersuchungen uns eine Fülle von Informationen über die zentrale organisierende Energie, die unseren Körper und den Rest des Kosmos steuert.
     
    Was sie entdeckt haben, ist nichts weniger als erstaunlich:
     
    Auf letzte elementare Grundlagen zurückgeführt, sind wir nicht chemische Reaktion, sondern energetische Ladung.
     
    Menschliche Wesen und alle lebenden Geschöpfe sind energetische Einheiten in einem Feld aus Energie, verbunden mit allem und jedem auf dieser Welt. Dieses pulsierende Energiefeld ist der zentrale Motor unseres Daseins und Bewusstseins — das Alpha und das Omega unserer Existenz.

     


     
    Jene Wissenschaftler — Rupert Sheldrake etwa oder z.B. auch den weltweit anerkannten Quantenphysiker Hans-Peter Dürr — solcher Schlussfolgerung wegen als
    der Esoterik deutlich zu nahe stehend einzuordnen, wäre sicher falsch.

     

     Beitrag 0-375
    Warum Rupert Sheldrake zu Unrecht der Esoterik verdächtigt wird

     
     

     
    Es ist klar, was Sheldrakes formgebende Felder sein müssen

     
     
    Auf die Frage "Sind die morphischen Felder nur formal und abstrakt oder besitzen sie auch eine Art Energie?" antwortet Sheldrake hier auf Seite 60:
      "Sie ordnen Energie: Alle Felder ordnen Energie. Nehmen Sie das Elektronen-Feld in der Quantenfeldtheorie her: [Es] ordnet die Energie und Elektronen sind Vibrationen in einem solchen Feld.
       
      Ist das Elektronen-Feld also Energie? Nicht wirklich. Es ist ein Feld, das Energie beinhaltet und organisiert, wie auch das morphische Feld.
       
      Mein morphisches Feld etwa beinhaltet und ordnet die Energie innerhalb meines Körpers. Die Energie selbst kommt von der Essenszufuhr bei den Mahlzeiten."

     
    Sheldrake hätte es genauer auch so ausdrücken können:
      Ein Feld ist eine in der Raumzeit existierende, ganz bestimmte Verteilung von Energie: Energie, die Form angenommen hat.
       
      Wenn man das so sieht und sich vor Augen führt, dass ja auch Lebewesen Energie benötigen, um "in Form" zu bleiben, könnte man vielleicht auch auf die Idee kommen zu sagen, dass jede Art von Objekt — nicht nur Elementarteilchen — ein für diese Art typisches Feld darstellt, jedes einzelne Objekt dieser Art also ein Teil dieses Feldes ist, das — wie schwach auch immer — sich im gesamten Universum ausbreitet einschließlich seiner Gedanken, denn:
       
      Dass Felder, die Elementarteilchen darstellen, nicht-lokal sind, gilt Quantenphysikern heute als selbstverständlich. Da nun aber jedes materielle Objekt Summe von Elementarteilchen ist, muss auch das Objekt nicht-lokal sein ( wenn man es ganz genau nimmt ).
       
      Führt man diesen Gedanken weiter und betrachtet Objekte, die denken können, so wird ja sicher auch zum Denken Energie notwendig sein. Die Energie im Feld muss dann ja wohl auch die Gedanken der denkenden Objekte der jeweils betrachteten Art » in Form « halten - und damit im Universum tatsächlich überall irgendwie präsent machen, wie unendlich schwach auch immer.
       
      So betrachtet kommt man dann zum Schluss, dass Sheldrakes morphische (= formgebende) Felder wohl nichts anderes sein können als die Summe sämtlicher Elementarteilchenfelder — so dass dann insbesondere auch das Feld Dunkler Materie ein Teilfeld davon wäre und jedes Lebewesen einschließlich seiner Gedanken als Wellenpaket im Feld der physikalischen Grundkräfte beschreibbar sein muss. Die Quantenfeldtheorie beschreibt Elementarteilchen als Anregungszustände eines entsprechenden Feldes.
       
      Anregungszustand eines Feldes ist (so lehrt uns seine Fourierentwicklung) eine Summe von Wellen, deren jede sich – man denke z.B. an elektromagnetische Wellen – kugelförmig mit Lichtgeschwindigkeit um die Stelle ihres Entstehens ausbreitet und erst aufhört zu existieren, wenn sie im Rahmen eines Quanten­ereignisses ihre Energie abgibt. Wenn also ein Stück Materie — und sei es auch nur ein Stein — Summe von Elementarteilchen ist, stellt er sich im Modell der Quantenfeldtheorie dar als Wellenpaket, welches sich in ständiger Ausbreitung befindet. Was wir makroskopisch wahrnehmen ist nur sein Schwerpunkt. Extrem schwach existiert jenes Wellenpaket aber auch noch weit über ihn hinaus: überall dort nämlich, wohin sich wenigstens eine der Wellen, aus denen es besteht, bereits ausgebreitet hat. Selbst dort noch kann sie Wirkung entfalten — dass sie es nur mit extrem kleiner Wahrscheinlichkeit wirklich tun wird, ist eine andere Sache.

     
    Damit sollte klar sein: Wer Sheldrake der Esoterik verdächtigt, weil er nach irgendwelch aus der Luft gegriffenen Feldern oder physikalisch nicht erklärbarer nach Fernwirkung suche, tut ihm unrecht. Sheldrake versucht einfach nur die Frage zu beantworten, ob das Quantenfeld — das Feld aller Materie und Strahlung, welches sich ja in ständiger Schwingung befindet — sog. morphische Resonanz kennt, Resonanzerscheinungen also, die dafür verantwortlich sein könnten, dass Evolution sich weit schneller vollzieht als aus rein wahrscheinlichkeitstheoretischer Überlegung heraus möglich erscheint.
     
    Wie mächtig Resonanz sein kann, zeigt das Beispiel von Soldaten, die im Gleichschritt über eine Brücke gehen. Es kann dann sein, dass die Brücke in Resonanz gerät, die sich immer weiter aufschaukelt und schließlich zum Zusammenbrechen der Brücke führt. Kann Evolution sind in ähnlicher Weise als eine immer stärker werdene Kraft darstellen?
     
     
     
    Nebenbei noch: Das Konzept Energie ist das wichtigste Konzept in der Physik überhaupt. Und doch kann kein Physiker uns erklären, wie es zur Existenz von Energie kam oder was genau sie denn eigentlich ist. Wie Einstein zeigen konnte, ist jede Quantifizierung von Energie relativ, womit klar sein sollte, dass die wahre Natur von Energie sich unserem Verstand ebenso entzieht wie die wahre Natur des biblischen Gottes.
     
    Die Physik kann nur Formen auflisten, in denen Energie uns begegnet, und sich Gedanken darüber machen, wie diese Formen auseinander hervorgehen, durch welche Gesetze solche Umwandlung gesteuert wird und wie all das erklärt, was wir in unserer Alltagswelt beobachten.
     
    Das mit Abstand am besten geeignete Werkzeug, zu solchen Erklärungen zu kommen, ist die Mathematik — erst als das erkannt wurde, war aus Naturphilosophie Physik geworden.
     
    Das Begriffspaar Energie und mathematische Wahrheit, so könnte man sagen, ist für Physiker das, was für gläubige Menschen Gott und unser Gewissen sind. Denn: Unser Gewissen bzw. mathematische Wahrheit sind im Zweifelsfall die letzte Instanz, die zu befragen wäre, wo Zweifel bestehen.

     

     Beitrag 0-516
    Was man als Manager großer IT-Projekte unbedingt wissen sollte

     
     

     
    Wie schwierig kann Software-Sanierung sein?

     
     
    KONSENS: Die 2007 begonnene Vereinheitlichung der Software der deutschen Steuerbehörden:
      Ziele des Vorhabens KONSENS (Koordinierte neue Software-Entwicklung der Steuer-verwaltung) sind die Entwicklung und der Einsatz einer bundesweit einheitlichen Software für die Steuerverwaltung.
       
      Bund und Länder arbeiten hierzu seit 2007 zusammen. Bis 2019 sind dabei Ausgaben von rund 1,2 Mrd. € angefallen, sie werden sich bis zum Jahr 2024 auf 2 Mrd. € erhöhen.
       
      Bund und Länder wollen mit KONSENS ihre Steuereinnahmen von jährlich 638 Mrd. Euro (Stand 2020) besser verwalten als bisher möglich ist.
       
      Derzeit (2020) werden für KONSENS 19 (Haupt-)Verfahren entwickelt. Obgleich fertiggestelle Module weitestgehend sofort zum Einsatz kommen, werden in den Ländern in unterschiedlichem Umfang immer noch insgesamt 193 Nicht-KONSENS-Anwendungen mit z.T. recht ähnlichem Funktionsumfang betrieben. Für zunächst nur 118 hiervon ist eine Ablösung durch ein KONSENS-Verfahren vorgesehen. Nach derzeitigen Planungen (Stand 2020) wird man dieses erste wichtige Teilziel aber sicher nicht vor 2029 erreicht haben.
       
      Quelle: Bayerischer Oberster Rechnungshof (eine beratende Äußerung vom Nov. 2020)

     
     
    Die "Autobahn GmbH" des Bundes wird nicht am 1. Januar 2021 im Regelbetrieb starten können. Der Grund: fehlende IT-Infrastruktur und juristische Probleme bei laufenden Projekten.
      Zwar geht die Autobahngesellschaft mit zehn Niederlassungen und 41 Außenstellen zum Jahresbeginn an den Start, dennoch ist die neue Mammutbehörde mit Zentrale in Berlin bis auf weiteres nicht allein zuständig für die 13.000 Kilometer Autobahnen in Deutschland. Grund sind ungelöste Probleme. So dauere die Harmonisierung von 1.400 Softwaresystemen der Landesstraßenbauverwaltungen noch bis Anfang 2024, so das Verkehrsministerium.
       
      Quelle: Scheuers Fehlstart - noch lange kein Regelbetrieb für "Autobahn GmbH" (Bericht im ZDF, Dez 2020)

     
     
    Über bisher erfolglose Versuche, Gehaltsabrechnungssysteme auf neue Technologie zu portieren:
     
    Wie schnell man beim Versuch, Gehaltsabrechnungssysteme der öffentlichen Hand auf aktuelle Technologie zu portieren Dollarbeträge zwischen 0,4 und 1,2 Milliarden Dollar in den Sand setzen kann (und das ganz ohne, dass man dann ein brauchbares neues System hätte), zeigen Projekte in Kalifornien einerseits und Australien andererseits:

      (1) Kaliforniens Payroll System, mit dessen Hilfe 250.000 Bedienstete monatlich neu ihr Gehalt berechnet und überwiesen bekommen, versucht man schon seit 1999 neu zu implementieren: Bisher ohne jeden Erfolg — aber mit Kosten, die sich 2020 schon auf gut 400 Mio. US Dollar Lehrgeld aufsummiert haben.
       
      Man lese: Nun hin zum dritten Anlauf
       
       
      (2) Noch dramatischer schief gelaufen ist zwischen 2010 und 2018 — da hier nicht nur Software-Entwickler, sondern vor allem auch Politiker ganz unglaublich naiv gehandelt haben — in Queensland (Australien) ein erster Versuch, das Payroll System für den Gesundheitssektor (ca. 85.000 Bedienstete) neu zu implementieren.
       
      Der Auftragnehmer (IBM Australia) hatte sich nur 2 Wochen Zeit genommen, die Sollfunktionalität der Anwendung zu dokumentieren. Kein Wunder also, dass die neue Lösung jede dritte Gehaltsabrechnung mit z.T. höchst gravierenden Fehlern errechnet hat. Die zuständigen Entscheidungsträger haben die Anwendung — aus politischen Gründen — dennoch in Betrieb genommen. Konsequenz: Man hat hinterher über längere Zeit hinweg 1600 Beschäftigte benötigt, die vielen ständig vom neuen System errechneten Fehler mit Hilfe manueller Work Arounds zu korrigieren oder zu viel bezahlte Gelder wieder zurückzufordern und einzusammeln. Zahlreiche Angestellte haben gekündigt, da sie wochenlang der fehlerhaften neuen Anwendung wegen gar kein Gehalt erhielten.
       
      Auf diese Weise ist — bei einem Auftragswert von nur knapp 7 Mio. australischer Dollar — später (in den 3 Jahren nach dem fahrlässigen Rollout) für den Steuerzahler ein Gesamtschaden von ingesamt 1.2 Milliarden australischer Dollar entstanden. [ Man ist an das 2019 mindestens so fahrlässige Handeln des deutschen Verkehrsministers Andreas Scheuer in Sachen PKW-Maut erinnert. ]
       
      Quelle: The Queensland Health Payroll Fiasco + /short + /BPr
       
       
      Note: Dass in Kalifornien und Queensland eine erfolgreiche Portierung der Altanwendung auf SAP scheiterte, wird wohl daran gelegen haben, dass die SOLL-Funktionalität des jeweiligen Altsystems nicht ausreichend genug dokumentiert war.
       
      Bei Lidls abgebrochenem Versuch, das eigene Warenwirtschaftssystem nach SAP zu portieren, war der Grund aber (mindestens teilweise) ein ganz anderer: Basis aller Kalkulation in SAP sind Einkaufspreise. Lidls propietäres System aber kalkuliert auf Basis der Verkaufspreise. Am alten Geschäftsprozess konnte man mit Standard-SAP-Software also gar nicht festhalten. Man hat sozusagen eine zweite Variante der SAP-Plattform benötigt. Sie fertig zu implementieren erachtete Lidl dann aber als zu teuer.
       
      Details hier: 7 Jahre, 500 Millionen EUR — mehr wollte man nicht riskieren + /M

     
     
    Man lese auch:
       
    • Beispiele schiefgelaufener großer IT-Projekte (auch solche einzelner Unternehmen)
       
    • Understanding and Managing Your Project’s Complexity
       
    • Project Failure Case Studies — Lessons learned
       
    • The following excuses for total project failure will never work in court:

       
        " I thought the buyer or supplier knew what they were doing " or
         
        " I thought the buyer or supplier was doing it, not me ".

       
      If you are the buyer and you do not have all the necessary skills and experience to be able to define and control important projects (which is perfectly understandable as in most companies they don’t happen very often), there is an easy fix for this problem:
       
      Hire a very experienced interim executive to act on your behalf, even if the supplier will still do most of the project management and other work. You can delegate authority for doing the project management to the supplier but you cannot delegate responsibility.
       
      But keep in mind: Responsibility for the project — including responsibility for it failing — always rests ultimately with you, the buyer.
       
      And never forget:

    Risk are  known  unknowns
     
    Uncertainty are  unknown  unknowns.


     

      Beitrag 1957-18
    Erste Anzeichen einer neuen Software-Krise?

     
     


    Payroll Systeme in Kalifornien und New York zeigen

    völlig unerwartete Grenzen moderner Software-Entwicklungs-Methodik



    Mitte 2006 vergab der Staat Kalifornien ein Projekt, dessen Inhalt es sein sollte, ein damals schon 30 Jahre altes Payroll System auf SAP-Basis neu zu implementieren.
    Solche Neuentwicklung sollte das Problem beseitigen, dass kaum noch Programmierer zu finden waren, die die alte Technologie gut genug verstanden, volle Funktionsfähigkeit der Anwendung auf Jahre hinaus zu garantieren.

    Die Kosten für die Neuentwicklung wurden auf 69 Mio. US-Dollar geschätzt,
    und nach einer immerhin 3-jährigen Projektlaufzeit sollte das neue System 2009 einsatzfähig sein:

    Zitat:
     
    BearingPoint Inc. will put in place a new payroll and personnel system for California under a $69 million contract awarded by the state controller's office.

    The McLean consulting company will work with SAP Public Services Inc. on an initiative the state calls the 21st Century Project.
    The goal is to replace a 30-year-old system with one that is state of the art.

    SAP will furnish software, maintenance and training for state employees to run the software, while BearingPoint will adapt SAP's software and implement it in state agencies.

    The state selected SAP in April 2005 for the payroll and personnel software, and subsequently picked BearingPoint to handle the implementation. BearingPoint signed the contract in June 2006.

    The system is scheduled to be online by November 2007, with full implementation expected by June 2009.


    Nachdem sich dann aber 2009 (zum ursprünglich geplanten Projektende) herausstellte, dass BaringPoint mit dem Projekt hoffnungslos überfordert war, hat der Staat Kalifornien das Projekt abgebrochen und es dann erneut direkt an SAP vergeben.

    Inzwischen vorsichtig geworden, sollte das Projekt unter dem neuen Auftragnehmer — SAP — in 5 Schritten implementiert werden. Schon der erste von ihnen — die sog. Pilotphase — ging so gründlich daneben, dass auch SAP gefeuert werden musste: Der durch SAP abgelieferte Prototyp versagte völlig, obgleich er doch nur etwa 5% der Gesamtfunktionalität abzudecken hatte:


    Der Umfang, in dem selbst SAP versagt hat, macht sprachlos:

    Zitat von State Controller John Chiang:
     
    One fact is particularly troubling with respect to SAP’s lack of progress:

    The pilot phase only covers 1,300 SCO employees and two bargaining agreements with fairly simple payroll requirements. After eight months and little progress, the SCO cannot responsibly proceed to the second phase as requested by SAP and expose thousands more State employees to payroll errors. Nor can the SCO have any confidence that SAP can scale the failed system to cover the State’s 240,000 employees, operating out of 160 different departments, under 21 different bargaining units.

    The errors in the SAP system affect everyday lives: Not only have SCO employees been paid too much, or too little, they and their family members also have been denied medical services despite paying for the insurance coverage. Payments to the State’s dental, vision and deferred compensation partners have been incorrect and delivered late. Improper deductions have been taken, payments have been made to the wrong payee, payroll and pensionable wages have been incorrectly calculated, and union deductions incorrectly determined.

    To stabilize payroll for its employees, the SCO is rolling back its 1,300 employees to the legacy system that is currently and reliably paying all other 240,000 State employees.


    Es ist noch nicht mal klar, ob irgend ein Teil von SAPs Projektergebnis im neuen System Verwendung finden kann:

    Zitat von State Controller:
     
    On February 8, 2013, the State Controller’s Office (SCO) terminated its contract with SAP as the system integrator for the MyCalPAYS system, the largest payroll modernization effort in the nation.

    At the same time, the Secretary of the California Technology Agency (CTA) suspended further work until ... an independent assessment of SAP’s system to determine whether any of SAP’s work can be used in the SCO’s go-forward plan to address the State’s business needs.


    Dieses Projekt-Fiasko erinnert an einen ganz ähnlichen Fall in New York, in dem sich IBM fast so überfordert sah, wie SAP oben:

    Zitat von März 2011:
     
    ... the New York CityTime project was planned in 1998 to cost around $63 million and take five years to complete.

    It is now (March 2011) estimated to cost some $720 million before it is finished sometime this summer

    Zitat von 2012:
     
    CityTime originally had a $63 million budget, but costs since skyrocketed astonishingly, with total estimates reportedly reaching $760 million.


    An beiden Fällen ist interessant, dass hier lediglich existierende, schon Jahrzehnte alte Systeme neu implementiert werden sollten, und dass
    • im einen Fall gleich 8 Jahre mehr als geplant benötigt wurden (mit 12 mal so hohen Kosten wie geplant),
    • man im anderen aber nach nunmehr 7 Jahren immer noch genau dort steht, wo man begonnen hat (obgleich schon jetzt 254 Mio USD ausgegeben wurden, also schon fast das 4-fache des ursprünglich angesetzten Bugdets).


    Wie also kommt es, dass so extrem schwierig erscheint,

    mit heutiger Technologie und Methodik zu erreichen, was man mit längst überholter doch schon mal erreicht hatte?



    Muss man da nicht glauben, dass moderne Projektteams nicht mehr systematisch genug arbeiten?


    Ein drittes Beispiel, dort mit IBM als Hauptverantwortlichen, scheint diesen Verdacht zu bestätigen.

    Ein viertes Beispiel (2019) — hier mit Microsoft als Auftragnehmer.

    Liste einiger in Deutschland mit SAP schief gelaufender Projekte — Gesamtschaden bei knapp 1 Milliarde:

    Gescheitert mit ERP-System-Erneuerung sind z.B. Lidl, Deutsche Post, Deutsche Bank und Otto.

    Noch mehr ERP-Katastrophen aus der ganzen Welt

     

    Wie die beiden Zusammenstellungen » 10 biggest ERP Software Failures of 2011 « und » Six shocking ERP Failures « (2015) zeigen,

    sind solche Beispiele keineswegs nur seltene Ausnahmen.


    The biggest IT failure ever seen so far, was originally estimated to be £6.4 bn (6,4 Mrd. britische Pfund).

    Auch allzu unvorsichtiger Update von Software hat schon Schäden in Millionenhöhe verursacht.




    Lies auch:

     

     Beitrag 0-74
    Warum Software-Tester in Konkurrenz zu einander eingesetzt sein sollten

     
     

     
    Wie sich der Wert von Software-Testern optimieren lässt

     
     
    Projekte, die eine Modernisierung unternehmenskritischer Software-Applikationen großer Unternehmen zum Ziel haben, werden größer und größer (und verursachen heute Kosten, die gar nicht so selten 3-stellige Millionenhöhe erreicht).
     
    Einen ganz beträchtlichen Teil solcher Kosten verursacht der Test der neuen Lösungen: Typischerweise arbeitet daran ein großes Team (in den Fällen, die ich beobachten konnte, bis zu 50 Personen) über Jahre hinweg. Natürlich versucht der CIO des Auftraggebers dann hin und wieder, kostengünstigere Dientleister zu finden. Das gängige Verfahren: Eine neue Ausschreibung aufgesetzt mit dem Ziel, zu prüfen,
    • ob der gegenwärtige Dienstleister nicht zu teuer oder zu wenig kreativ geworden ist
       
    • oder ob es konkurrierende Anbieter gibt, die ihn zu unterbieten in der Lage sind.

    Sehr oft steht am Ende einer solchen Ausschreibung der Austausch des Anbieters, d.h. der Austausch des gesamtem Teams von Testern und Testmanager.
    Dies aber kann gefährlich sein, denn
    • erstens geht dabei eine große Menge von Knowhow verloren (die neuen Tester müssen sich ja erst wieder mit den zu testenden Applikationen bekannt machen)
       
    • und zweitens ist zunächst noch völlig offen, wie effektiv das neue Team denn nun wirklich arbeiten wird.

    Mit anderen Worten: Die Wahrscheinlichkeit, dass der Befreiungsschlag gelingt, ist ebenso groß wie die Wahrscheinlichkeit, dass er misslingt. Rechnet man die Kosten der notwendigen Einarbeitung des neuen Teams hinzu — Kosten also, die gar nicht anfielen, wenn man beim alten Team geblieben wäre —, so ist die Wahrschein­lichkeit, dass solcher Wechsel unterm Strich eher Verlust denn Gewinn bedeutet, ziemlich hoch.
     
    Andererseits:
     
    Das Team über Jahre hinweg einfach arbeiten zu lassen, ohne zu versuchen, die Effektivität des Dienstleisters zu maximieren,
     
    wäre ganz sicher auch nicht richtig.

     
    Was also sollte man tun?
     
     
     
    Die naheliegenste Lösung ist folgende:
     
    Sobald ein Testteam über längere Zeit hinweg eine gewisse Größe haben muss, sollte man es aufteilen in zwei etwa gleich große Teams,
    • unter der Regie zueinander konkurrierender Dienstleister
       
    • u n a b h ä n g i g  voneinander  d i e s e l b e  Software testen.
       
    • Wenigstens eines dieser Teams sollte seine Testwerkzeuge selbst wählen dürfen.
    Ihre Effektivität sollte einem strengen Monitoring durch den Auftraggeber unterliegen, so dass der z.B. alle 6 Monate beiden Teams mitteilen kann, wie effektiv jedes von ihnen im Vergleich zum jeweils anderen gearbeitet hat (Effektivität = Kosten dividiert durch die Summe der Gewichte vom Team aufgedeckter Fehler in den zu testenden Applikationen).
     
     
     
    Vorteile dieser Lösung:
    • Keiner der beiden Auftragnehmer kann sich leisten, unerfahrende Leute einzusetzen oder ungeeignetes Werkzeug zu nutzen (denn täte er das, würde sofort erkennbar werden, wie seine Effektivität verglichen mit der seines Konkurrenten zurückgeht).
       
    • Sobald eines der beiden Teams deutlich weniger effizient arbeitet als das andere, sieht man, dass es höchste Zeit wird, es auszutauschen.
       
    • Kosten für den Neuaufbau von Knowhow werden so minimiert, und nie entsteht eine Situation, in der zu wenig gut eingearbeitete Tester verfügbar sind.
       
    • Schon im jeweils eigenen Interesse wird so jedes Team sich optimale Werkzeuge aussuchen und wird bestrebt sein, das eigene Vorgehen ständig zu überdenken und effektiver zu gestalten.
       
    • Diese Lösung ist kostenneutral.
       
    • Sie minimiert die Wahrscheinlichkeit, dass gelegentlicher Austausch des Dienstleisters zu einer gravierenden Fehlentscheidung wird.

     
    Man bedenke: Da die Zahl beim Test gefundener Fehler nicht nur davon abhängt, wie geschickt die Tester vorgehen, sondern auch davon, wie gut die Entwickler gearbeitet haben, dürfte diese Lösung der einzige Weg sein, über den ein CIO erreichen kann, dass die Gelder, mit denen er den Test finanziert, optimal eingesetzt sind.

     

     Beitrag 0-415
    Mit welcher hoher Inkompetenz von Software-Entwicklern muss man rechnen?

     
     

     
    Wie unbeschreiblich inkompetent Software-Entwickler sein können

     
     
    Wem diese Aussage als zu stark erscheint, betrachte folgendes Projektdesaster, bei dem es um eine Aufgabenstellung ging, die als gar nicht so schwierig anmutet:
     


    Die COMPUTERWOCHE berichtet (Feb 2017):
     
    Nach sieben Jahren Entwicklung hat die Bundesagentur für Arbeit das 60 Millionen Euro schwere IT-Projekt ROBASO gestoppt. Die Fehler ließen sich weder zeitnah noch wirtschaftlich genug beheben.
     
    Ziel des 2010 begonnenen IT-Projekts ROBASO (Rollenbasierte Oberflächen) war es, den Mitarbeitern in den Arbeitsagenturen das Arbeiten auf einer einzigen IT-Plattform ohne Doppeleingaben und Programmwechsel zu ermöglichen und zu vereinfachen. Dazu sollte ROBASO die diversen IT-Verfahren SOA-basiert miteinander verbinden mit dem Ziel, den Anwendern eine medienbruchfreie Oberfläche mit genau den Informationen und Inhalten bieten, die für die jeweiligen Aufgaben und Rollen notwendig sind.
     
    Im praktischen Einsatz im Kundengeschäft zeigte sich dann allerdings, dass die Software zu wenig flexibel war, um der Komplexität der Kundenanliegen gerecht zu werden. Medienberichten zufolge sei es in dem System nicht einmal möglich gewesen, nachträgliche Änderungen wie die Korrektur einer Kontonummer vorzunehmen. Vielmehr hätte man für eine solche kleine Änderung sämtliche Leistungs- und Vermittlungsdaten neu eingeben müssen, hieß es.
     
    Die Schwachstellen der Software seien erst bei ihrer Verwendung unter realen Bedingungen erkannt worden, erklärte die BA, immerhin Betreiberin einer der größten IT-Landschaften Deutschlands, in einer Stellungnahme. Nachdem die Defizite nicht zeitnah und wirtschaftlich behoben werden können, habe man sich entschlossen, das Projekt,
     
     
    in welches seit seinem Start 2010 insgesamt 60 Millionen Euro investiert wurden,

    aufzugeben
    .
     


     
    Quelle: Bericht der COMPUTERWOCHE vom Feb 2017


     

     Beitrag 0-414
    Über Programmierer, Informatiker und Software — Warum hervorragene Informatiker so notwendig gebraucht werden

     
     

     
    Wie charakterisiert sich der Beruf des Software-Entwicklers?

     
     
    Software-Entwickler sind Personen, die Software entwerfen, implementieren testen und modifizieren. Sie sehen sich — je nach Fähigkeit —
       
    • vorwiegend als Programmierer
       
    • oder vorwiegend als Informatiker.

    Worin aber liegt denn nun der Unterschied zwischen beiden — und warum ist die Grenze zwischen ihnen so fließend? Warum gibt es solche, die nur eine Mindest­ausbildung haben (sog. Fachinformatiker) und andere, die studiert oder sogar promoviert haben (und nicht selten vorher Physiker oder Mathematiker waren)?
     
    Nun, das ist einfach so:

     
    Programmierer codieren, testen oder reparieren Code, den Software Designer (Informatiker) verantworten und spezifiziert haben.
     
    Damit sind Programmierer — sofern sie sich ausschließlich für Code verantwortlich fühlen — sozusagen das Fußvolk in der IT-Branche.

     
     
    Studierte Informatiker werden i.A. nur wenige Jahre nach Eintritt ins Berufsleben programmieren — anfangs, so 2-3 Jahre, aber auf jeden Fall.
     
    Später werden sie vor allem Konzeptpapiere schreiben, d.h. Spezifikationen gewünschter Software erarbeiten oder Kunden helfen, ihre IT-Systeme neuen Anforderungen anzupassen. Sofern sie das auf Dauer nicht können — was leicht passieren kann, wenn sie sich zu wenig mit Softwartechnik beschäftigen —, werden sie vor allem als Manager arbeiten, d.h. als jemand, der organisiert, Kunden akquiriert und Budget verwaltet.
     
    Manche enden als die Sorte von IT-Beratern, die nur noch sinnloses Zeug erzählen, was niemand mehr nützt. Das sind jene Personen, die zu wenig Management-Talent haben um als Manager zu arbeiten, sich aber auch technisch nicht mehr wirklich auskennen, da sie nur zu selten gezwungen waren, sich tatsächlich auch mit Code und praktischer Software-Architektur auseinanderzusetzen.
     
    Studierte Informatiker sollten sich als Software-Ingenieure verstehen, d.h. als jemand, der beides beherrscht: Die Kunst des Programmierens, ebenso wie die Kunst des Konzipierens und Spezifizierens umfangreicher IT-Landschaften.
     
    Von Informatikern erwartet man, dass sie problemlos umfangreiche Papiere in Deutsch ebenso wie in Englisch schreiben können und nie verlernt haben, auch mit Code gut umgehen zu können. Optimalerweise sollten sie sich zudem noch fließend in Englisch mit Ausländern unterhalten können.
     
    Sie sollten sich nie zu fein dafür sein, auch selbst mal bei Bedarf ein kleines Hilfswerkzeug zu implementieren mit dem Ziel, ihre eigene Arbeit effizienter und fehlerfreier zu gestalten. Ja, und Management-Talent sollten sie darüber hinaus auch noch haben.
     
    Auf jeden Fall sollten Informatiker die Fähigkeit haben, sich extrem schnell in jedes nur denkbare Anwendungsfeld von Software einzuarbeiten — mindestens dann, wenn sie nicht erwarten, lebenslang nur ein und dasselbe Unternehmen bedienen zu müssen. Wer für IT-Beratungs-Unternehmen arbeitet, muss damit rechnen, dass es Zeiten geben wird, wo er alle paar Monate in ein neues Projekt kommt, in dem es um Anwendungsproblematik geht, die er vorher noch nie angetroffen hat.
     
     
     
    Wer hat das Zeug zum idealen Informatiker?

     
    Wenn an IT interessierte Abiturienten sich überlegen, ob sie eine Lehre (eine sog. "Ausbildung") als Fachinformatiker machen oder doch besser gleich Informatik studieren sollen, sollten sie folgendes berücksichtigen:
     
    Als Informatiker erfolgreich werden vor allem Menschen, denen es leicht fällt, auch sehr abstrakt zu denken (so abstrakt wie Mathematiker, aber anders als sie nicht nur in formaler Notation).
     
    Man sollte Freude daran haben, Konzepte auch aufzuschreiben (zu spezifizieren und zu dokumentieren) und ständig neu zu verbessern, denn:
     
    Gute Dokumentation (und durchdachte Dokumentationstechnik) sind ebenso wichtig wie Code. [ Wem das nicht kler ist, oder wer dem nicht Rechnung trägt, wird nie ein wirklich wertvoller Software-Entwickler sein. ]
     
    Gute Informatiker können Code schreiben — aber bevor sie das tun, überlegen sie sich erst mal, welchen Teil davon man generieren könnte (statt ihn von Hand zu schreiben). Der generierbare Teil von all dem, was man bis vor wenigen Jahren noch von Hand schrieb, ist i.A. erstaunlich groß: typischerweise zwischen 50 und 60 Prozent.
     
    Wird er wirklich generiert — also  n i c h t  von Hand geschrieben – erhöht das deutlich die Wartbarkeit des entstehenden Systems, senkt seine Entstehungskosten und macht den Code auch deutlich verständlicher, auf jeden Fall aber weit schneller neuen Anforderungen anpassbar.
     
     
    Leider gibt es nur wenige Programmierer, die sich gute Code-Generatoren ausdenken und sie dann auch noch geschickt genug zu implementieren verstehen. Viele von ihnen denken zu projektspezifisch oder werden durch hohen Zeitdruck dazu gezwungen, wirklich immer nur Wege zu gehen, die zwar kurzfristig Sinn machen, aber schon mittelfristig eher Sackgasse sind.
     
    In der Summe gilt:
     
     
    Informatiker sind Software-Ingenieure:
     
    Ihr Umgang mit Software ist theoretisch fundiert, zielgerichtet und weitsichtig

     
    Es sind Personen, die
       
    • den Umgang mit sich ständig weiter entwickelnden, hoch komplexen Softwaresystemen souverän beherrschen,
       
    • projektübergreifend denken und handeln
       
    • und Detailwissen mit strategischer Weitsicht verbinden:

    Sie wissen um den Wert guter, stets aktueller Dokumentation, bestehen auf ihrer Existenz, erhalten ihre Qualität, und können daher stets ganz genau zu sagen, was die von ihnen verantworteten Anwendungen an SOLL-Funktionalität zu welchem Zeitpunkt haben bzw. haben sollten. [ Insider wissen: Personen mit solchem Wissen in ausreichender Genauigkeit sind selten. Wo sie fehlen, kann die IT-Landschaft auf Dauer nicht gesund bleiben. ]

     

     Beitrag 0-145
    Warum SCRUM — und undurchdachtes "Agile" — uns in den Abgrund führen

     
     

     
    Was SCRUM
     
    — von nur wenigen Ausnahmen abgesehen —
     
    verdammenswert macht

     
     
    In Reaktion auf die Ende der 60-er Jahre eingetretene Software-Krise kam es — zur immerhin ganze drei Jahrzehnte währenden — Blütezeit des Software Engineerings.
     
    Ich bin heute noch dankbar, dass ich sie miterleben durfte als jemand, der einige ihrer Pioneere gut gekannt hat: Insbesondere F.L. Bauer und Ernst Denert.
     
    Wofür ich sie — aber auch Parnas, Dijkstra und Boehm — heute immer noch bewundere, ist, welche unglaublich große, wirklich durchschlagende Wirkung sie mit ihren Lösungsvorschlägen erzielten:
     
      Jede dieser fünf Personen hat eine wichtige Schlüsselidee erfolgreichen Software Engineerings in die Welt gesetzt bzw. wurde — wie z.B. Ernst Denert —
      nicht müde, sie zu propagieren.
       
      Welch gewaltige, nachhaltige Wirkung gerade Denert damit erzielt hat, das Prinzip der Datenabstraktion auch in der Praxis hoch zu halten, konnte ich als damaliger Mitarbeiter von Softlab hautnah miterleben: Denert war nur etwa 5 Jahre für Softlab tätig (so etwa 1975-1980), hat jene Firma durch sein Wirken
      aber auf die richtige technologische Schiene gesetzt, was bewirkt hat, dass sie noch bis hin zur Jahrtausendwende deutlich erkennbar davon profitiert hat — natürlich auch in Mark und Pfennig, wie man so schön sagt.
       
      Denerts Prinzip » Die beste Praxis ist eine gute Theorie « fand und finde ich immer wieder bestätigt.

     
    Gegeben also die großen Methodiker der Jahre 1965-2000, war es kaum zu verstehen, dass keiner von ihnen — ausgenommen vielleicht Tom Gilb — irgendwelche Versuche unternahm, die beispiellose Naivität des Agilen Manifests und all derer, die es wörtlich nehmen, als  p u r e s  G i f t  zu identifizieren.

       
      Sie alle haben tatenlos — und wohl sprachlos vor Verwunderung — zugesehen, wie alles, was sie an methodischem Fortschritt über gut 30 Jahre hinweg erarbeitet hatten, plötzlich unter Berufung auf das Agile Manifest als nicht weiter akzeptabel erklärt wurde.
       
      Unangetastet blieb nur, was schon eingeflossen war in die Konzepte moderner Programmiersprachen.
       
      Erst heute, etwa 20 Jahre nachdem die Agilisten, die Erfinder von SCRUM und die vielen Trainer, die "Agile" und SCRUM zu propagieren als ihre persönliche Goldgrube entdeckt haben, wird so manchem langsam klar, in welch beispiellose Sackgasse uns die unausgegorenen Ratschläge der Agilisten bereits geführt haben:

      Die agile Bewegung nämlich hat bewirkt, dass ein Großteil dessen, was in der Blütezeit des Software Engineerings an methodischem Fortschritt erarbeitet worden war — insbesondere das Wasserfallmodell — heute unter jungen Software-Entwicklern geradezu als  A n t i p a t t e r n  gilt.
       
      Ihnen wird nicht mehr klar, dass Kritik am Wasserfallmodell sich nicht auf das Modell selbst bezieht, sondern lediglich auf seine allzu starre Anwendung, die dann gegeben ist, wenn man sich weigert, einmal abgenommene Teilergebnisse bei Bedarf noch  v o r  Projektende zu revidieren.
       
      Die durch die agile Bewegung in ihrer Naivität verursachte "Entsorgung" methodischen Knowhows geht so weit, dass selbst die Vertreter der jungen Generation, die SCRUM inzwischen als  k o n t r a p r o d u k t i v  erkannt haben — der niederländische Informatik-Dozent Erik Meijer etwa, der mehrfach für seine gute Arbeit als Systemarchitekt bei Microsoft ausgezeichnet wurde —, heute genau das als Abhilfe propagieren, was Mitte der 60-er Jahre die damalige Softwarekrise ausgelöst hatte: der Glaube nämlich, dass es genüge und wünschenswert sei, einfach nur Code zu schreiben.

     
    Michael O. Church — heute Manager von Entwicklungsteams bei Google — hat es geschafft, treffend zu charakterisieren, was speziell SCRUM — von seltenen Notfallsituationen mal abgesehen —  v e r d a m m e n s w e r t  macht. Er schreibt (im Juni 2015):
     
      So what are Scrum and “Agile”? I could get into the different kinds of meetings (“retrospective” and “backlog grooming” and “planning”) or the theory, but the fundamental unifying trait is violent transparency, often one-sided. Programmers are, in many cases, expected to provide humiliating visibility into their time and work, meaning that they must play a side game of appearing productive in addition to their actual job duties.
       
      Instead of working on actual, long-term projects that a person could get excited about, they’re relegated to working on atomized, feature-level “user stories” and often disallowed to work on improvements that can’t be related to short-term, immediate business needs (often delivered from on-high). Agile eliminates the concept of ownership and treats programmers as interchangeable, commoditized components.
       
      In addition to being infantilizing and repellent, Scrum induces needless anxiety about microfluctuations in one’s own productivity. The violent transparency means that, in theory, each person’s hour-by-hour fluctuations are globally visible– and for no good reason, because there’s absolutely no evidence that any of this snake oil actually makes things get done quicker or better in the long run. For people with anxiety or mood disorders, who generally perform well when measured on average long-term productivity, but who tend to be most sensitive to invasions of privacy, this is outright discriminatory.

     
    Seine ausführliche, das Problem genau identifizierende Analyse schließt mit der Feststellung:
      It’s time for most of "Agile" and especially Scrum to die. These aren’t just bad ideas. They’re more dangerous than that, because there’s a generation of software engineers who are absorbing them without knowing any better. There are far too many young programmers being doomed to mediocrity by the idea that business-driven engineering and "user stories" are how things have always been done. This ought to be prevented; the future integrity of our industry may rely on it. "Agile" is a bucket of nonsense that has nothing to do with programming and certainly nothing to do with computer science, and it ought to be tossed back into the muck from which it came.


     

     Beitrag 0-Agile
    Agilität ist unverzichtbar — in Form vom "Agile" und SCRUM aber sicher gefährlich

     
     

     
    Über falsch verstandene "Agile" Methodik

     
     
    Wer mich kennt der weiß:
     
    Ich bin ein erklärter Gegner der im Manifesto postulierten Methodik
    und der daraus entstandenen — völlig ungeeigneten — Software-Entwicklungs-Modelle,
    für die heute SCRUM schon fast als repräsentativ gilt.

     
     
    Am deutlichsten habe ich meine Warnung vor solch verwerflichen Formen von Agile wohl zusammengefasst auf den beiden Seiten
     
     
    Man darf daraus nun aber nicht schließen, dass ich ein Gegner heute notwendig gewordener Agilität wäre. Ganz im Gegenteil: Mir ist klar, dass spätestens ab der Jahrtausendwende agiles Vorgehen unverzichtbar geworden ist — die im Manifesto vorgeschlagene Lösung allerdings kann nur ins Verderben führen (denn sie ist undurchdacht und beispiellos naiv).
     
    Meine Ansicht darüber, wie Agilität verstanden und gelebt werden sollte, ist definiert auf den beiden Seiten:
     
     
    Um zu zeigen, dass ich keineswegs der einzige bin, der "Agile" und SCRUM für absolut ungeeignet — ja sogar gefährlich — hält, seien hier Links hin zu Meinungen Dritter aufgelistet, die ebenso denken wie ich und die — das zählt wirklich — aus negativer Erfahrung heraus zu dieser Einstellung kamen:
     
    Historisch gesehen, gilt:
     
    Die extrem bürokratisch angelegten Vorgehensmodelle, die
     
    • zunächst in den USA durchs DoD (Department of Defence) zur Pflicht gemacht wurden,
       
    • dann aber — in Nachahmung davon — auch in Deutschland als sog. V-Modell (entwickelt von der IABG) sogar Behördenstandard wurden,

    m u s s t e n  irgendwann zu einer Gegenreaktion führen. Sie kam in Form der Agilen Bewegung, war aber nicht durch entsprechende Forschung unterstützt, und hat daher zu einem geradezu lächerlichen Modell geführt, desssen Aushängeschild sich SCRUM nennt.
     
    Erst nach 2000 wurde einigen wenigen klar, wie ernst man die Gefahren dieser neue Bewegung nehmen muss. Weltweit anerkannte Methodiker des Software-Engineerings, die ihre Stimme hätten erheben können, waren da aber just schon alle aus dem aktiven Berufsleben ausgeschieden. Nur so ist erklärbar, dass diesem ganzen Unsinn bis heute kein Einhalt geboten wurde ...
     
     
     
    Gebhard Greiter, Jan 2016


     

     Beitrag 0-182
    What is — and how long can you be — a competent Software Architect?

     
     

     
    What is a Software Architect?

     
     
    We agree with the opinion presented in Every Developer Should Be an Architect where we read:
     
    Consider programmer/software engineer versus architect as a study in contrasts (I used this post by Simon Brown as a research point for what people perceive to be the differences between architects and developers).
       
    • Focus scope: Programmers focus on details while architects focus on "the big picture".
       
    • Leadership: Programmers are led, architects lead.
       
    • Seniority: Architects have been doing it longer than programmers.
       
    • Cachet: Architects are important visionaries while programmers do relative grunt work.
       
    • Tech Selection: Architects choose while programmers live with the choices.
       
    • Skill: Architects are more technically skilled than most programmers.
       
    • Organizational interaction: architects deal more with “the business” in meetings than programmers.
       
    • Pay: Architects make more than programmers.
       
    • Value: Architects understand why an architect is more valuable than a programmer.

    This is how the industry at large perceives this distinction:
     
    Architects are more tenured, more important, more valuable — they are technical people in high demand, but are often seen as being too important to do the things that earned them their stripe (writing code).
     
    This is why compentent architects have to fight for time to keep up to date:
     
     
    As soon as they do not write code anymore ( prototyping new solutions ),
     
    they will no longer be competent architects (!).

     
     
    Erik Dietrich & Gebh. Greiter, Jan 2016


     

     Beitrag 0-183
    Why an Application Architect is more that just a competent Requirements Manager (Product Owner)

     
     

     
    What is a compentent Solution Architect?

     
     
    He/she should be
       
    • a competent Requirements Manager
       
    • as well as
       
      • a creative Software (Black Box) Architect
      • and end-to-end test designer.

    Testability of an application, e.g., is something a perfect solution architect will have to guarantee.
     
    Maintainability of the solution to be created — until far into the future — is important as well.
     
     
    For this to achieve, the architect is to establish
       
    • a process to garantee an always up to date specification of requiremments as well as black box interface design,
       
      Both documents are to be implemented in a form showing clearly all the differences between the implemented and the not yet implemented version of the requirements and as well as the black box interface of the system. [ New text shown in red might be a suitable soltion. ]
       
    • a process to guarantee an always up to date regression test suite as well as nice, complete documentaion of the results of each end-to-end test run,
       
    • a bug tracking system with suitable reporting functionality,
       
    • documentation of all budget consumed so far for what purpose (in order to have reliable data on which cost estimates for the implementation of not yet implemented, though later on required changes or functionality can be based on).

     
    Note: Creating documents showing only the difference between two versions of the system is definitely NOT a good thing (because then, to get a complete picture, readers will always have to consult documentaion of all the versions implemented so far.

     

     Beitrag 0-519
    Beispiele im Notfall versageneder IT-Systeme im deutschen Bildungsbereich

     
     

     
    Beispiele zu wenig professioneller deutscher IT-Systeme

       
    • Die Lernplattformen deutscher Bundesländer:
       
      Sie erwiesen sich, als man sie erstmals auf breiter Basis nutzen wollte, als für Schüler wie Lehrer kaum zumutbar:

       
      Ihre Qualität beim ersten Versuch, sie wirklich einzusetzen, war kaum die typischer Prototypen — Zu wenig professionall konfiguriert, allzu häufiger stundenlanger Ausfall ... und das bei so gut wie allen dieser länderspezifischen Lösungen.
       
      Bei all diesen Pannen drängt sich die Frage auf, ob ein einheitliches bundesweites System nicht besser und zuverlässiger wäre?
       
      Doch vor solch einer Kooperation scheuen die meisten Bundesländer zurück. Dennoch beauftragte das Bundesbildungsministerium 2017 das Potsdamer Hasso-Plattner-Institut (HPI) damit, eine nationale Cloud für Schulen zu entwickeln, mehrere Millionen Euro flossen.
       
      Der Zuspruch aus den Ländern war zunächst aus politischen, dann aber auch aus technischen Gründen gering, nachdem das Bundesbildungs­ministerium früher als geplant Corona-bedingt im Frühjahr allen 40 000 Schulen in Deutschland erlaubte, die HPI-Cloud zu nutzen. Denn auch dieses Renommierprojekt hatte — als es im Mai 2020 der COVID-19-Pandemie wegen seine große Chance bekam, sich zu bewähren — mit schier unglaublichen Datenschutzlücken zu kämpfen:
      Schon nach wenigen Klicks waren Namen von Schülern und Lehrern frei im Netz zu lesen (!).

       
      Neben der Politik haben also ganz klar auch die Software-Entwickler und das IT-Personal der Systembetreiber versagt.
       
      Klaglos funktionieren nur die entsprechenden Systeme der Hochschulen, welche US-amerikanische Software nutzen.


       

     Beitrag 0-520
    Beispiele erfolgreicher, großer IT-Migrationsprojekte

     
     

     
    Beispiele erfolgreicher, großer IT-Migrationsprojekte

     

     Beitrag 0-544
    Woran sich zeigt, dass die IT-Industrie noch nicht gelernt hat, Software professionell genug zu testen

     
     

     
    Was es bedeuten kann, wenn Software-Tester versagen

     
     
    In ausgesprochen dramatischer Weise wird uns das vor Augen geführt durch den sog. "Postmaster-Skandal" in Großbritannieren.
     
    Was war passiert:
     
    Fast genau zur Jahrtausendwende hat die britische Post-Behörde ein neues ERP-System in Betrieb genommen: Das durch Fujitsu entwickelte Horizon-System.
     
    Was — wegen damals ganz offenbar viel zu schlampig durchgeführtem Test — als Systemtest auf Seite des Herstellers, aber auch als Abnahmetest auf Kundenseite — damals nicht aufgedeckt worden ist war, dass dieses System im Rahmen automatisierter Buchhaltung ganz unglaublich viele gravierende Fehler gemacht hat.
     
    Dieses Fehlverhalten des Systems hat dazu gefühtrt, dass man — über ganze 14 Jahre hinweg — immer wieder Postangestellte des Betrugs bezichtigt, angeklagt, znd verurteilt hat: < 2 Genauer. Im Durchschnitt ist fast jede Woch einer der Postmaster in diesem Sinne auf ganz dramatische Weise ungerecht behandelt worden:
       
    • Mindestens 70 von ihnen sind deswegen sogar zu längeren Haftstrafen verurteilt worden.
       
    • Erst ab 2019 gelang es einigen von ihnen, ihren Fall vor Gericht nochmals aufgerollt zu bekommen.
       
    • Derzeit (Ende 2021) sind 72 der weit mehr als 700 damals verurteilten Postmaster rehabilitiert worden.
       
    • Es wird erwartet, dass viele weitere ebenfalls reahabilitiert werden müssen.
       
    • Wie sich jetzt offenbart, hat man (als Folge der Fehler des Systems) wahrscheinlich mehr als 2400 Postbeamte zu Unrecht beschuldigt.

     
     
    Dieser Bericht basiert auf folgenden Presseberichten:
     
    Fragen wir uns jetzt aber, es zu dieser schrecklichen Situation kommen konnte:
     
    Offensichtlich erscheint:
       
    • Im Zuge der Übergabe des ERP-Systems vom Hersteller (Fujitsu) an den Auftraggeber (die Post-Behörde in UK) ist jene Software ganz offensichtlich viel zu wenig und deutlich zu inkompetent getestet worden.
       
    • Der erst Jahre später zugegebenen ganz gravierenden Fehler des Systems wegen (von denen einige bis heute nicht behoben sein sollen) haben entweder die Tester oder die verantwortlichen Manager oder gar alle zusammen grob versagt.
       
    • An Testern müssen beteiligt gewesen sein:
         
      • ein Test-Team auf Seiten des Auftragnehmers
         
      • dann aber auch ein Test-Team, das im Auftrag des Auftraggebers (der Post) Abnahmetest durchzuführen hatte.
         
      • Wie soll man von der Kompetenz beider denken, nachdem sie derart gravierend versagt haben?
         
      • Und wie soll man die Aufrichtigkeit und Kompetenz der verantwortlichen Manager beider Seiten beurteilen, nachdem sie sich mindestens 14 Jahre geweigert haben, Fehler des Systems anzuerkennen, aber stattdessen Hunderte von kleiner Angestellten des Betrugs bezichtigt haben – was schließlich zu deren Verurteilung geführt hat? Und in Folge davon zum Auseinanderbrechen ganzer Familien.
         
        |
         
      • Dass man auch der Justiz den Vorwurf machen muss, nicht hinreichend genau ermittelt zu haben, ist natürlich ebenfalls richtig, hat jetzt aber nichts mit viel zu wenig professioneller Software-Entwicklung zu tun.
         
        In diesem Zusammenhang ist interessant, dass einigen Managern der Post der Vorwurf gemacht wird, Unterlagen geschreddered zu haben, um deren Einsicht von ihnen angeklagte Untergebene gebeten hatten mit dem Ziel sich verteidigen zu können. Das Prinzip "ImZweifel für den Angeklagten" scheint hier nicht funktioniert zu haben, da die Richter entweder befangene Gutachter zu Rate zogen oder niemand auch nur auf den Gedanken kam, dass ein nun schon über Jahre hinweg genutztes IT-System derart falsch arbeiten könnte.

     
     
    Was ergibt sich hieraus an Anforderungen für
     
    ausreichend professionell organisierten Software-Test?

     
     
    Können die Kunden von Software-Entwicklern, insbesondere deren Großkunden, es wirklich noch länger akzeptieren, dass niemand versucht (und es bisher auch keine Methodik dafür gibt), die Effektivität von Software-Testern — angefangen bei einzelnen Personen bis hin zu ganzen auf Test spezialisierten Teams — irgendwie zuverlässig und aussagekräftig quantifizieren zu können?
     
    Viel spricht dafür, dass es heute ausreichenden Test nur für Software gibt, die durch das sie implementierende Unternehmen selbst genutzt werden soll.
     
    In jedem anderen Fall – so meine Beobachtung – gilt:
       
    • Erstens wird durch die Entwickler der Software viel zu wenig getestet, insbesondere, was die Korrektheit von System zu errechnender Daten betrifft.
         
      • Das liegt vor allem daran, dass sie für die Behebung auftretender Fehler nur bis hin zum Ende der Gewährleistungsfrist zur Kasse gebeten werden, danach aber an jedem Fehler verdienen, da sie ihn zu reparieren ja extra bezahlt werden.
         
      • Es liegt aber auch daran, dass sie stets nur für ihren Code verantwortlich zeichnen, aber niemals für Schäden, die sein falsches Funktionieren verursacht hat.

       
    • Zum zweiten aber ist der Kunde des Software-Entwicklers nicht selten mit Abnahmetest überfordert, ohne dass er sich dessen bewusst ist.
       
      Gerade bei ERP-Systemen ist das ganz offensichtlich.

     
    Angesichts dieser Problematik bleibt zu fragen:
     
    Warum gibt es bis heute – soweit ich sehen kann – nicht einen einzigen Lehrstuhl für Informatik, der sich dieser Problematik annimmt, sie also zu seinem wichtigsten Forschungsgegenstand macht?

     

     Beitrag 0-149
    Microservices: The most extreme SOA Solution

     
     

     
    What are Microservices?

     
     
    The concept of microservices is probably best defined here or by Martin Fowler, or at any of the first google results for "microservices".
     
    Mircoservices are separately deployable modules that communicate with each other in order to complete a business goal, and each microservice is limited to just a small, well-defined scope:
     
    Product purchasing is one microservice, user registration is another one, "Current Promotions" may be a third one, and so on.
     
    But Martin Fowler also says:

     
     
    Don’t even consider microservices unless you have a system that’s too complex to manage as one piece.
     
     
    The majority of software systems should be built as a single monolithic application.
     
    If you pay attention to good modularity within that monolith, this may be enough.


     
     
    Universally, if you are sure that the network and coordination overhead of microservices will be negligible compared to the amount of work being done and the flexibility gained, then microservices are a valid approach. But that may be rare. Martin Fowler talks about complexity vs productivity, so, in theory, if you know in advance how complex your project is going to be, you  m a y  have a valid microservices use case.
     
    Separating a piece of functionality into a service of its own and communicating with it through web services should not be something that deserves so much attention. But apparently we have to say » No, it’s not for every project « and » Yes, the approach is not dumb by itself, there are cases when it is useful «.

     

      Beitrag 2027-8
    Zur Fehlerdichte in durchaus brauchbarer Software

     
     
    Bauhof aus 2027-6:
    Grtgrt aus 2027-5:
     
    Für beide Arten von Fehlern gilt, dass hinreichend ausführlicher Test sie entdeckt haben sollte, so dass man sie beseitigen konnte, noch bevor das Programm dem Anwender übergeben wurde.

    Hallo Grtgrt, ...

    Vor langer Zeit habe ich mal gelesen, dass die vollkommene Fehlerfreiheit einer hinreichend komplexen Software niemals bewiesen werden kann. Ist dir das nicht bekannt?


    Ja, Eugen, das ist mir bekannt.

    Und das ist schon allein deswegen so, weil die SOLL-Funktionalität gegebener Software i.A. gar nicht bis ins allerletzte Detail hinein vorweg definiert wurde (jedenfalls nicht hinsichtlich von Details, die man zunächst als nicht wichtig erachtet hat).

    Aber ich schrieb ja auch "Für beide Arten von Fehlern gilt, dass hinreichend ausführlicher Test sie entdeckt haben  s o l l t e  ..." (womit dann klar sein sollte, dass es durchaus Fehler geben kann, die man nicht entdeckt  h a t ... Es werden i.A. aber nur wenige sein, oder solche, die ganz selten auftreten, so dass man mit ihnen leben kann).

    Wissenschaftliche Untersuchungen (z.B. eine der Carnegie Mellon University aus 2003) belegen, dass moderne Software, wenn sie in Betrieb genommen wird, i.A. immer noch bis zu fünf Fehler pro 1000 Lines of Code enthält; sprich: etwa 1 Fehler auf je 3 DIN A4 Seiten manuell erstellten Source Codes. Selbst in den besten aller je untersuchten (größeren) Programme fand sich immer noch 1 Fehler in je 7500 Zeilen Code (durchschnittlich).

    Beispiele von anderer Seite bestätigen das: Als Windows 2000 auf den Markt kam, enthielt sein Code — nach Microsofts eigener Schätzung — etwa ein wirkliches, aber zu dem Zeitpunkt noch gar nicht genau unter­suchtes Problem in je 1000 Lines of Code. Dennoch war Windows 2000 ein wirklich brauchbares System.


    Gruß, grtgrt
     

      Beitrag 1057-83
    Denkmodell Salatkopf

     
     
    Hi Henry,

    Zitat von Henry:
    Die Theorie des Urknalls wurde aufgestellt, weil die Beobachtung des Kosmos auf einen Anfang desselben hindeutet, die Daten sind es also, die am Anfang standen und nicht die Theorie . Diese Beobachtungen beinhalten unter anderem, dass es keinen Mittelpunkt des Universums gibt.

    Ein Widerspruch würde sich ergeben, weil .... Das aber würde jede Angabe über ein Alter des Kosmos als Ganzes unmöglich machen, die gesamte Kosmologie, die auf dem Urknall aufbaut, wäre nicht mehr haltbar.

    Hi Henry,

    hier eine Argumentationskette, welche mir mindestens die unterstrichenen Teile deiner Meinung zu widerlegen scheint:

    George Smoot (der Vater des COBE Satelliten, Nobelpreisträger) schrieb 2010: "Die wahrscheinlichste Topologie des 3-dimensionalen Raumes ist einfach zusammenhängend wie ... eine komplette Himmelskugel, bei der kein Teil des Volumens fehlt."

    Er schreibt weiter: "Die Beobachtung des ersten Lichtes [durch COBE] zeigt, dass die Ausdehnung des Universums unglaublich groß ist, dass es mindestens zwei Drittel unseres Hubble-Horizonts einnimmt, und sehr wahrscheinlich noch viel mehr."

    Was Smoot hier unseren Hubble-Horizont nennt ist die Grenze des durch uns beobachtbaren Universums — die Grenze eines kugelförmiger Bereiches um uns herum also, der einen Radius von etwa 13.75 Mrd. Lichtjahren hat.

    Es ist inzwischen gängige Meinung aller Astrophysiker, dass unser Universum flach (also unendlich groß) oder fast flach ist (d.h. endlich, aber nur extrem wenig gekrümmt). Genauer: Damit der Raum flach sein kann, müsste seine kritische Dichte Omega exakt 1 sein. Die genauesten bisher vorliegenden Messungen (erst 2010 vom WAMP-Team publiziert) zeigen, dass der wirkliche Wert von Omega mit großer Wahrscheinlichkeit irgendwo zwischen 0.991 und 1.173 liegt.

    Es wird deswegen vermutet, dass unser Universum — als ein 3-dimensionaler Raum gesehen — fast flach ist, also endlich, dass aber dennoch keine durch uns denkbare Entfernung mit Gewissheit größer als sein Durchmesser ist.

    Noch genauer: Man geht davon aus, dass der Raum lokal (also in vergleichsweise kleinen Teilen) durchaus flach sein kann, dass dies aber keineswegs global (also auf das ganze Universum bezogen) zutreffen muss.

    Damit ist die wahrscheinlichste Form unseres Universums (betrachtet als 3-dimensionales Gebilde) wohl die eines mehr oder weniger verbeulten Fußballs, der — das ist nicht auszuschließen — einen Durchmesser haben könnte, der um Größenordnungen größer ist als die Kugel BU, die den vom Menschen im Prinzip beobachtbaren Teil des Universums darstellt.

    Berücksichtigt man die Tatsache, dass unser Universum U einen Nebel darstellt, dessen Tröpfen Galaxien sind (ebenso wie jede Galaxie einen Nebel darstellt, dessen Tröpfen Sterne oder Sonnensysteme sind) und geht man jetzt mal davon aus, dass der Durchmesser von U z.B. um einen Faktor 101000 größer ist als der Durchmesser des durch uns maximal beobachtbaren Teils BU von U, so scheint mir nicht ausgeschließbar, dass U nach Form und Wachstumsverhalten einem Salatkopf vergleichbar sein könnte. BU wäre dann — von seiner Größe her — noch deutlich kleiner als ein einziges Atom in einem Blatt dieses Salatkopfes.

    Interessant an dieser Perspektive ist, dass, wenn der Salatkopf wächst, er von seiner Wurzel her wächst, man das als Bewohner von BU aber nicht mehr wahrnehmen kann: Wer sich, wie wir Menschen, im Zentrum von BU befindet und über seinen Hubble-Horizont (den Rand von BU) nicht hinauszusehen in der Lage ist, der wird das Anschwellen von BU, das dem Wachsen des Salatblattes geschuldet ist, tatsächlich so sehen und beurteilen, wie wir die Expansion des Alls sehen und beurteilen: als reine Skalierung also.

    Dieses Beispiel zeigt: All unsere Beobachtungen, die uns dazu führen, an einen Big Bang zu glauben und dennoch daran, dass das Universum NICHT von einer einzigen Stelle aus wächst (die man dann sein Entstehungszentrum nennen könnte), sondern durch Schwellung, sind durchaus verträglich mit dem Bild eines Gesamtuniversums, welch entstanden, gewachsen sein könnte, und immer noch wachsen könnte wie ein Salatkopf.

    Beste Grüße,
    grtgrt


    PS: Treibt man die Analogie weiter, so könnte man BU vergleichen mit einem atomartigen winzigen Teil einer pflanzlichen Zelle, die ihrerseits Teil eines Blattes des Salatkopfs ist. Sie wächst tatsächlich durch Schwellung (also nicht von einem Zentrum her), der Salatkopf als Ganzes aber wächst von seiner Wurzel her durch Bilden von immer mehr pflanzlicher Zellen.

    Könnte ein durch einen Big Bang entstandenes Universum also vergleichbar sein mit einer Pflanze?

    Zu versuchen, diese These zu untermauern oder zu widerlegen, könnte spannend sein.
     

      Beitrag 1057-88
    Nochmals: Denkmodell Salatkopf

     
     
    Hi Henry,

    zunächst einmal habe ich einen kleinen Fehler gemacht, indem ich sagte, das Salatkopfmodell widerlege deine Schlußfolgerung. Was ich sagen wollte (und immer noch will) ist:

    Ein Beispiel gefunden zu haben, bei dem man nicht ausschließen kann, dass U von einer bestimmten Stelle her wächst (eben so wie ein Salatkopf von seiner Wurzel her wächst) — und ohne dass das aus BU heraus erkennbar wäre — zeigt eine Beweislücke deiner Argumentation. Der Versuch, sie zu beheben, könnte dazu führen, dass das Ergebnis deiner Überlegung sich ins Gegenteil kehrt.

    Desweiteren: Den Stand gegenwärtiger Erkenntnis (teilweise in Form von Zitaten) habe ich nicht beschrieben, weil ich denken würde, er sei dir unbekannt — nein: ich habe ihn skizziert als Ausgangspunkt meiner Betrachtung (die ja sonst völlig aus der Luft gegriffen erschiene).

    Mit Ausgangspunkt meiner Betrachtung ist die Annahme, dass U tatsächlich in einem Big Bang zur Welt kam. Wie wahrscheinlich das ist, möchte und brauche ich nicht zu diskutieren, da ich ja nur nach einer Situation suche,
    • die man einerseits nach gegenwärtigem Wissensstand nicht ausschließen kann,
    • und die andererseits, wenn sie denn zuträfe, dein Denkergebnis als falsch zeigen würde.

    Kurz: In der Diskussion, die wir hier führen, siehst du alles aus den Augen eines Physikers, während ich alles aus den Augen eines Logikers sehe (bescheidener: aus den Augen eine Informatikers).


    Nun aber zur Sache selbst. Du sagst:

    Zitat von Henry:
    In deiner Schlussfolgerung vergisst du eins: Dein Salatkopf hat viele Brüder, nämlich alle anderen Beobachter in welchen Galaxien auch immer. Das heißt, viele Bezugsräume, wenn man so will, die aber letztlich auch nur darauf zurückzuführen sind, dass es keinen universellen Mittelpunkt gibt.

    Es ist richtig: Neben dem atomartig kleinen BU irgendwo in einem der Blätter des Salatkopfes gibt es Abermillionen weiterer mit BU vergleichbarer kugelförmiger Teilregionen von U. Sie können sich beliebig überlappen, denn sogar um JEDEN Punkt von U herum kann man sich so eine Kugel denken. Interessant sind natürlich nur jene dieser BU, in deren Mittelpunkt sich tatsächlich ein Beobachter findet. Seine Position in U ist sein Bezugspunkt.


    Zitat von Henry:
    Es geht nicht darum, was jeder Beobachter von seinem Bezugspunkt her wahrnehmen – messen – kann, sondern was allgemeingültig ausgesagt werden kann.

    NEIN, denn Kern meiner Argumentation ist ja gerade, dass wirklich relevant ist, was jener Beobachter wahrnehmen und messen kann (genauer noch: was er NICHT wahrnehmen und daher auch NICHT messen kann).

    Ich sage nämlich: Da in meinem Beispiel das betrachtete Universum U um eine Faktor von grob 101000 größer als BU ist, kann der Beobachter aus BU heraus nicht mehr erkennen, dass U von einer Stelle X her wächst, die extrem weit außerhalb seines Horizonts liegt — möglicherweise 101000 Mrd. Lichtjahre von ihm entfernt (!).

    Diese besondere Stelle X in U könnte man dann sehr gut als das Zentrum Z( U) von U bezeichnen und als das Loch sehen, aus dem alles kam, was ein Beobachter zu beobachten und zu messen in der Lage ist, sofern es ihm hinreichend nahe kommt.

    Gruß, grtgrt


    Das U in meinem Sinne ist übringens noch lange nicht der gesamte Kosmos (oder muss es jedenfalls nicht sein). Ich betrachte U einfach nur als ein aus einem Big Bang heraus entstandenes oder entstehendes Universum. Es scheint mir nicht ausschließbar, dass der gesamte Kosmos vergleichbar sein könnte mit einem nie sterbendem Feuerwerk, derart dass jeder einzelne Funken darin einem Big Bang entspricht und ein U ist.

     

      Beitrag 1376-1
    Was ist Zeit?

     
    Auch wenn ich absolut fasziniert von dieser Seite bin ( ein Kompliment an die Verantwortlichen ), habe ich mir schon oft die Frage gestellt: "Was ist Zeit eigentlich?"
    Mit den bisher veröffentlichen Theorien und wissenschaftlichen Meinungen kann ich aber leider nicht besonders viel anfangen.
    Ich bin dann irgendwann zu meiner persönlichen Erkenntnis gekommen, daß es Zeit NICHT gibt, sondern daß sie nur eine Erfindung der Menschen ist.
    Alles bleibt so wie es ist. Der Mensch hat die Zeit erfunden, um sichtbare Veränderungen zu beschreiben, um seinen Tagesablauf zu gestalten oder einfach nur um sein Dasein zu definieren.
     

      Beitrag 1894-1
    RZQ — die Raumzeit der Quanten: die Zeit als gerichteter Graph

     
     

    Wie die Allgemeine Relativitätstheorie uns lehrt, entwickeln physikalische Objekte — sobald sie sich relativ zueinander mit unterschiedlicher Beschleunigung bewegen — einen unterschiedlichen Zeitbegriff. Siehe hier Details dazu.

    Daraus, so denke ich, ergibt sich zwingend, dass man die Zeit als einen in die 4-dimensionale Raumzeit der Allgemeinen Relativitätstheorie eingebetteten gerichteten Graphen aufzufassen hat, dessen Knoten Ereignisse im Sinne der Quantenmechanik sind (sprich: Punkte der Raumzeit, an denen Elementarteilchen entstehen, zerfallen, oder sich neu aufteilen in Folge einer Kollision).

    Genauer beschrieben findet sich diese Idee auf folgenden Seiten (man sollte sie in eben dieser Reihenfolge lesen):

    (1)   Vergangenheit und Zukunft genauer definiert

    (2)   RZQ: Die Raumzeit der Quanten (Teil 1)
    (3)   RZQ: Die Raumzeit der Quanten (Teil 2)

    Ich würde mich freuen, wenn Physiker diese meine Ansicht kommentieren könnten (insbesondere dann, wenn sie glauben, Argumente dagegen zu haben).

     

      Beitrag 1894-9
    RZQ — die Raumzeit der Quanten: Definition des Zeitgraphen

     


    Entsprechen Quantenereignisse dem Ticken einer Uhr?


    Zeit — so sagt man — fließt, indem sich Veränderung ergibt. Nimmt man das ernst, muss jeder Kollaps der Wellenfunktion einen kleinsten Zeitschritt bedeuten.

     
    Nach allem, was die Theoretische Physik heute weiß, könnte man unser Universum auffassen als ein Paar ( B, E ), für das gilt:
    • B ist eine Menge elementarer Energiequanten ( Schwingungszustände von Strings im Sinne der Stringtheorie) und
    • E ist eine Menge atomarer Ereignisse, deren jedes sich auffassen lässt als ein Paar X( V,Z), derart dass V und Z Teilmengen von B sind.

    Jedes Ereignis X = X( V,Z ) kann als Tor aufgefasst werden, welches aus seiner direkten Vergangenheit V = X.V in seine direkte Zukunft Z = X.Z führt.

    Man beachte: X.V ist Input von Ereignis X, wohingegen X.Z seinen Output darstellt.

    Da die Menge aller Paare ( v, z ) mit v und z aus E derart, dass der Durchschnitt von v.Z und z.V nicht leer ist, eine zweistellige Relation auf E ist, kann man ihre transitive Hülle bilden. Sie ist ebenfalls zweistellige Relation auf E. Man nennt sie die Zeit (und kann sie sehen als einen gerichteten Graphen, dessen Knoten Ereignisse und dessen Kanten Branen sind).


    Die Zeit als Pfeil zu sehen wäre nur dann gerechtfertigt, wenn die sie darstellende transitive Relation eine lineare Ordnung (im Sinne der Mathematik) wäre. Sie scheint aber lediglich Ordnung zu sein.


    Frage an alle Physiker unter Euch: Wie kann der so definierte gerichtete Graph — man sollte ihn die Struktur der Zeit nennen — mathematisch mit Einsteins Gleichungen der Allgemeinen Relativitätstheorie verschmolzen (oder zu ihnen in Bezug gesetzt) werden?

     

      Beitrag 1823-146
    RZQ — die Raumzeit der Quanten: Zum Motor der kosmischen Uhr

     
    Okotombrok aus 1823-7:
    Bernhard Kletzenbauer aus 1823-6:
    Keine Prozesse, keine Vergleichsmöglichkeiten = keine Zeit
    So klar hab' ich das für mich noch nicht.
    Wenn wir das Gedankenexperiment weiterdenken, und annehemen, es bewegt sich wieder was, heißt das dann, die Erstarrung hätte gar nicht stattgefunden?

    Ja, Zeit ist Veränderung. ABER: Der Fall, dass es keine Prozesse gibt, existiert gar nicht. Genauer:

    Einstein sagt:

    Zitat:
    Die Zeit ist, was man von der Uhr abliest.

    Dazu kommt, was ich gelernt zu haben glaube (siehe Zur Struktur der Zeit):

    Zitat von grtgrt:
    Die einzige umfassende Uhr ist der Kosmos selbst.


    Jeder Tick dieser Uhr ist ein atomares Ereignis, in dem eine kleine Portion schwingender Energie entsteht, vergeht, oder mit anderen solcher Portionen kollidiert (was zu einer Verschmelzung und Neuaufteilung dieser Portionen noch im Ereignis selbst führt).

    Dass diese kosmische Uhr niemals stehen bleibt, ergibt sich aus dem, was Lisa Randall (auf Seite 238 und 225 ihres Buches Warped Passages ...) schreibt:

    Zitat:
    Quantum contributions to physical processes arise from virtual particles that interact with real particles.

    Virtual particles, a consequence of quantum mechanics, are strange, ghostly twins of actual particles. They pop in and out of existence, lasting only the bares moment. They borrow energy from the vacuum — the state of the universe without any particles.

    Da virtuelle Partikel spontan entstehen (ohne beobachtbaren Grund also), ist nicht damit zu rechnen, dass das jemals endet. Sie also sind der Motor, der die kosmische Uhr treibt und die Zeit vergehen lässt.

    Mfg, grtgrt
     

     Beitrag 0-68
    Warum keine dem Menschen vergleichbare Spezies auf nur einem Planeten lange überleben kann

     
     

     
    Warum der Mensch — wenn er an die Erde gebunden bleibt —
     
    als hochentwickelte Zivilisation sicher keine 50.000 Jahre lang existieren kann

     
     
    Gegenwärtig (2007), so schreibt Michio Kaku, entdecken die Astronomen pro Monat durchschnittlich 2 Planeten, die um eine Sonne in der Milchstraße kreisen.
    Zudem wird schon lange versucht, im All Spuren anderer intelligenter Wesen zu finden — bisher allerdings vergeblich.
     
    Wie hoch also könnte die Wahrscheinlichkeit sein, dass gleichzeitig zu uns z.B. in der Milchstraße eine wenigstens so hoch entwickelte Spezies wohnt?
     
    Wo seriöse Wissenschaftler sich überlegen, wie viele nach unseren Maßstäben bewohnbare Planeten es in der Milchstraße geben könnte, kommen sie auf ein Zahl, die zwischen 10.000 und 100.000 liegt. Die Wahrscheinlichkeit aber, dass dort gleichzeitig zu uns hochentwickeltes Leben existiert, muss als recht gering einge­schätzt werden, da man sich leicht überlegen kann, wie dramatisch gering die Chancen sind, dass eine an einen Planeten gebundene Zivilisation wesentlich mehr als einige zehntausend Jahre überlebt.
     
    Da solches kaum möglich ist, müssten mit uns vergleichbare Zivilisationen sogar noch  zu etwa derselben Zeit wie wir entstanden  sein.
     
    Hier die gesamte Argumentationskette dafür:
     
     
    Erstens:
      Flüssiges Wasser scheint bei der Entstehung von Leben eine wesentliche Rolle zu spielen. Als universelles Lösemittel kann es eine ganz erstaunliche Zahl von Chemikalien auflösen und ist somit ideale Ursuppe, in der es zur Entwicklung komplexer Moleküle kommen kann.
       
      Zudem ist Wasser im Universum weit häufiger zu finden als jedes andere Lösungsmittel.

    Zweitens:
      Kohlenstoff, so wissen wir, ist deswegen bei der Entstehung von Leben nahezu unentbehrlich, weil er 4 Bindungen besitzt, als gleich 4 Möglichkeiten, sich an andere Atome zu binden. Vor allem haben Kohlenstoffatome die Fähigkeit, sich zu langen Ketten zu vereinen, was Grundlage aller organischen Chemie ist. Kurz: Vor allem in Gegenwart von Kohlenstoff ist die Wahrscheinlichkeit gegeben, dass sich Moleküle ungeheuerer Komplexität bilden (andere Elemente mit 4 Bindungen sind da längst nicht so ergiebig).
       
      Am anschaulichsten hat ein 1953 von Stanley Miller und Harol Urey durchgeführtes Experiment gezeigt, wie die Grundlagen lebender Wesen sponatn entstehen können:
       
      Sie gaben in eine Ammoniak-Lösung Methan und andere toxische Chemikalien, deren Vorhandensein im Früstadium der Erde sie vermuteten, füllten alles in einen Glaskolben und ließen durch den schwachen elektrischen Strom fließen.
       
      Nach nur einer Woche schon konnten sie im Kolben die Existenz von Aminosäuren nachweisen — den Vorläufern von Eiweißmolekülen.
       
      Damit war bewiesen: Leben  k a n n  spontan entstehen.
       
      In der Folgezeit hat man Aminosären selbst noch in Meteoriten und im Weltall treibenden Gaswolken gefunden.

    Drittens:
      Grundlage sich selbst reproduzierenden Lebens sind DNS-Moleküle. Sich selbst vervielfältigende Moleküle sind in der Chemie extrem selten, und so muss man wohl mehrere hundert Millionen von Jahren warten, bis ein erstes solches Molekül durch Zufall zustande kommt. Dennoch: Könnten wir das Miller-Urey-Expirement über einen derart langen Zeitraum fortführen, würden wir vermutlich die Bildung DNS-ähnlicher Moleküle feststellen können.
       
      Vielleicht war ein Vulkanschlot irgendwo auf dem Meeresboden die Stelle, an der auf der Erde ein erstes DNS-Molekül entstand.
       
      Man weiß nicht, ob das DNS-Molekül das einzige ist, das sich auf Grundlage von Kohlenstoff vermehren kann. Die Wahrscheinlichkeit aber ist hoch, dass, sollten noch andere möglich sein, sie der DNS recht ähnlich sein würden.

     
    Zur Entstehung von Leben also — so denkt man — sind notwendig:
    • flüssiges Wasser,
    • Kohlenstoffe
    • und irgend ein DNS-ähnliches Molekül, das sich vermehren kann.

    Wie groß aber ist die Chance, dass solches Leben lange genug ungestört genug bleibt, sich auf den Stand zu entwickeln, den der Mensch bisher erreicht hat?
    Und wie lange darüber hinaus könnte es dann noch — auf diesem Niveau — existieren?
     
    Dies Frage zu beantworten, muss man sich vor Augen führen, wie stabil lebenserhaltende Umweltbedingungen auf Planeten denn eigentlich sind:
     
     
    Erstens:
      Mit Hilfe heute möglicher Simulationsprograme ließ sich beweisen, dass nur die Gegenwart mindestens eines Planeten von der Größe Jupiters garantieren kann, dass der Raum zwischen den Planten einer Sonne kontinuierlich von großen umherfliegenden Trümmern gesäubert wird: Wenn es Jupiter nicht gäbe, würde unsere Erde von Kometen und Meteoriten nur so bombardiert. Dann aber gäbe es hier kein Leben, da höherentwickelte Lebewesen — kaum entstanden — durch Umweltkatastrophen sofort wieder ausgerottet worden wären. Konkreter: Der Astronom Wetherill schätzt, dass ohne die Gegenwart von Jupiter und Saturn die Erde etwa 1000-mal häufiger Zusammenstöße mit Astereoiden erlitten hätte, und im Durchschnitt wohl so alle 10.000 Jahre ein Einschlag passiert wäre, der dem entspricht, von dem wir glauben, dass er vor 65 Mio Jahren die Spezies der Dinosaurier ausgelöscht hat.

    Zweitens:
      Dass die Erde einen großer Mond umkreist, ist ein großes Glück für uns, denn ohne ihn — so lässt sich zeigen — wäre die Lage der Erdachse wahrscheinlich instabil geworden: Sie kännte dann, so hat der Astronom Jacques Lasker errechnet, ständig zwischen 0 und 54 Grad schwanken, was extreme Wetterbedingungen zur Folge hätte — solche, die wir nicht ertragen könnten.

    Drittens:
      Erst in jüngster Zeit gefundene Indizien legen nahe, dass das Leben auf der Erde schon mehrmals kurz vor seiner Auslöschung stand. So war unser Planet vor etwa 2 Milliarden Jahren vollständig mit Eis bedeckt, so dass da nur höchst primitives Leben eine Chance zum Existieren hatte. Zu anderen Zeiten aber haben wohl vor allem gewaltige Vulkanausbrüche schon vorhandenes Leben nahezu wieder ausgelöscht.
       
      Mindestens einmal in der Vergangenheit scheint insbesondere das damals schon entstandene menschliche Leben nahezu ausgerottet worden sein.
       
      Wie nämlich neueste Ergebnisse der DNS-Forschung zeigen, sind Menschen genetisch kaum voneinander zu unterscheiden — bei Tieren ist das ganz anders: dort können sich einzelnen Exemplare einer Art genetisch ganz erheblich unterscheiden. Hiervon ausgehend denkt man heute, dass es vor etwa 100.000 Jahren vermutlich nur wenige Hundert, maximal wenige Tausend Menschen gab, andere ausgerottet waren, und der moderne Mensch wirklich nur von diesen ganz wenigen Exemplaren, die damals überlebt haben, abstammt.
       
      Die regelmäßige Wiederkehr von Eiszeiten etwa könnte gut der Grund dafür gewesen sein, dass es zu solchen » Engpässen « in der Geschichte der Menschheit kam.

    Konsequenz aus all dem:

     
    Je höher entwickelt eine Lebensform ist, desto größer ist die Wahrscheinlichkeit,
     
    dass sie Ereignisse nicht überlebt, die wir als Naturkatastrophen sehen.

     
     
    Sehr niedrige Lebensformen allerdings — Mikroben und dazu Vergleichbares — könnten die meisten Umweltveränderungen überstehen.

     
     
    Die letzte Eiszeit auf der Erde endete vor 10.000 Jahren. Die nächste kommt vielleicht in 20.000 — und wird dann ganz Nordamerika sowie alles, was dem Äquator
    nicht näher liegt, mit einer mehrere Hundert Meter dicken Eisschicht bedecken.
     
    Lange vorher allerdings könnten wir uns durch ein Zerstören unserer Umwelt oder die Folgen eines dritten Weltkrieges sehr gut auch selbst schon zu einer auf Dauer nicht mehr überlebensfähigen Spezies gemacht haben ...
     
    Spätestens in 5. Mrd. Jahren aber, das ist sicher, wird unsere Sonne explodieren und alles Leben auf der Erde auslöschen.

     
     
    Quelle genannter Fakten:
    • M. Kaku: Die Physik des Unmöglichen, Rowohlt 2008, Seite 170-201


     

      Beitrag 1999-57
    Spin verstehen und messen

     
     
    Hallo Harti,

    wichtig zu wissen ist, dass die Begriffe "Spin" und "Drehung" eigentlich gar nichts miteinander zu tun haben.

    Man versteht den Begriff » Spin « erst dann, wenn man dieses Wort liest als

    » Richtung der Ablenkung in einem (durch die Messapparatur) gegebenen Magnetfeld «.


    Das Spannende daran ist, dass Teilchen, die durch so ein Magnetfeld überhaupt abgelenkt werden, dabei stets nur parallel zu genau einer Geraden abgelenkt werden — in genau zwei, einander genau entgegengesetzten Richtungen also (siehe Spin-Messer).

    In  w e l c h e r  dieser beiden Richtungen die Ablenkung dann aber tatsächlich erfolgt, ist nach allem, was man weiß, absolut zufällig.

    Mehr noch: Die Richtung der Geraden, von der ich da spreche, wird durch das vom Messapparat erzeugte Magnetfeld definiert. Ist der Messung eine andere Messung vorausgegangen, so wird das Verhältnis der Wahrscheinlichkeiten, mit der sich das eine oder das andere der beiden möglichen Messresultate ergibt, abhängig vom Winkel sein, der zwischen den Richtungen der beiden Geraden besteht. Nur dann, wenn sie senkrecht aufeinander stehen, wird dieses Verhältnis genau 1 sein (!).

    Nicht das neue Messergebnis, wohl aber dieses Verhältnis ist daher abhängig von der vorher zuletzt gestellten Messfrage (die ja stets auch eine Neueinstellung des Teilchens bewirkt). Man hat hier also eben dieselbe Gesetzmäßigkeit, die auch bei Messung der Eigenschaft "Polarisation eines Photons" beobachtet wird.

    Die Erklärung hier macht das nur teilweise klar. Am genauesten erklärt finde ich all das durch Görnitz (z.B. auf den Seiten 106-107 seines Buches "Die Evolution des Geistigen").

    Gruß, grtgrt

     

     Beitrag 0-484
    Rettet die deutsche Sprache — Sie wird uns mehr und mehr zum Stolperstein

     
     

     
    Rettet die deutsche Sprache, bevor es zu spät ist !

    ...   Der Schaden wächst ständig   ...

     
     
    Es scheinen ja heutzutage selbst zahlreiche Germanisten nicht mehr zu wissen, was gutes Deutsch ist. [ Erstmals deutlich wurde dieser Trend mit der verunglückten Rechtschreibreform. Sie hat — nicht nur bei Schülern — mehr Unsicherheit geschaffen als beseitigt. ]
     
    Mitte Februar (2020) gab es in der FAZ einen Artikel, in dem berichtet wurde, dass selbst Deutsch-Lehrer heute gelegentlich nicht mehr so ganz genau wissen, wie man dieses oder jenes schreibt oder wo man Komma setzt (bzw. keines setzt). Kann unsere Wirtschaft damit leben?
     
     
    Man lese auch: Heike Schmoll: Ein Unglück der Sprachgeschichte (2018) — wie die Verantwortlichen sich drücken.


     

      Beitrag 1973-5
    Über Arschkriecher und wenig kompetente Germanisten

     
     
    Früher hat man in der Politik Reden für die Bürger (und potentiellen Wähler) gehalten.

    Heute hält man sie für die "Bürgerinnen und Bürger" sowie für die "Wählerinnen und Wähler".

    Der Grund dafür:
    • Zum einen wollen die Politiker damit den Bürgerinnen und potentiellen Wählerinnen in den Arsch kriechen,
    • und zum anderen haben sie offenbar vergessen, dass die Bezeichnungen "Bürger" und "Wähler" Rollenbezeichnungen sind (und daher auf Mann und Frau gleichermaßen anwendbar).

    Natürlich ist auch "Arzt" zunächst nur eine Berufs- (also Rollen- ) Bezeichnung. Andererseits muss man hier sagen: Wenn uns jemand bittet, ihm einen kompetenten Arzt zu nennen, könnte er schon daran interessiert sein, ob der männlich oder weiblich ist (Arzt oder Ärztin).

    Leider interessieren die meisten Benutzer der deutschen Sprache solche Feinheiten heute nicht mehr.

    Kein Wunder, denn selbst Germanisten haben uns ja erst vor einigen Jahren mit ihrer dämlichen Rechtschreibreform bewiesen, dass sie die Feinheiten der deutschen Sprache eben NICHT mehr verstehen. Schande über sie!

    Dass heute (2020) selbst Lehrer, die Deutsch unterrichten, Grammatik und Rechtschreibung nicht mehr sicher beherrschen, ist nicht nur eine Schande, sondern muss vor allem auch als deutliches Warnsignal gewertet werden: Sich im Geschäftsleben mit Rechtschreib- und Ausdrucksfehlern zu blamieren, wird jeden, dem das passiert, als inkompetent dastehen lassen. Wie aber sollen Schüler lernen, was selbst ihre Lehrer nicht beherrschen?

    Verantwortlichen Bildungspolitikern scheinen dieses Problem noch gar nicht erkannt zu haben.

    Heutige Bildungspolitik scheint nur zwei Schwerpunkte haben zu wollen: Zum einen, wie man am Lehrpersonal spart und zum anderen, wie man die IT-Industrie fördert, indem man Schulen völlig planlos — und deswegen nicht selten sogar kontraproduktiv — hin zu möglichst viel, noch gar nicht durchdachten elektronischen Hilfsmitteln zwingt.

     

      Beitrag 1942-12
    Wem eine Andeutung nicht genügt ...

     
    E... aus 1942-11:
    Über die mögliche Quelle vieler Missverständnisse ist es müßig zu spekulieren.

    Hallo E...,

    wie denkst Du denn über Nicolás Gómez Dávila in meinem Beitrag 1942-9?

    Unnütz, jemandem einen Gedanken erklären zu wollen, dem eine Anspielung nicht genügt.

     

      Beitrag 1911-19
    Über Sprachkultur

     
     
    Harti aus 1911-18:
     
    Ich bin im Laufe der Zeit zu der Überzeugung gekommen, dass es sich bei dem Ausdruck "Volk der Dichter und Denker" um eine Selbstüberschätzung handelt, die bei vielen Völkern in mehr weniger starker Ausprägung anzutreffen ist.

    Solche Selbstüberschätzungen führen nicht selten zu Aggresivität gegenüber anderen Völkern.
     

    Hallo Harti,

    wenn ich den Ausdruck dahingehend verstünde, dass Dichter und Denker was Besseres seien als Menschen oder Völker mit anderem Schwerpunkt, dann wäre deine Kritik durchaus angebracht.

    Ich aber möchte ihn verstanden wissen im Sinne von "wir Deutschen sind drauf und dran, etwas aufzugeben, das wir als wichtigen Fortschritt schon mal erreicht hatten".


    Und das ist keineswegs nur meine Meinung:

    Vor kurzem las ich in der Süddeutschen einen Artikel, in dem berichtet wurde, dass die EU-Behörden zunehmend Probleme haben, gute Dolmetscher zu finden — und ganz besonders solche mit Muttersprache Deusch oder Englisch.
    • Was Englisch betrifft, erklärt man sich das aus der Tatsache, dass in England schon seit einiger Zeit das Erlernen wenigstens einer Fremdsprache in der Oberschule nicht mehr obligatorisch ist.
    • Was Deutsch betrifft, stellen die Verantwortlichen einfach nur fest, dass die Qualität der Übersetzungen ins Deutsche — und das seltsamerweise vor allem dann, wenn der Übersetzer Deutsch als Muttersprache hatte — besorgniserregend gesunken ist und schnell weiter zu sinken scheint.

    Diese Beobachtung finde ich nun wirklich Besorgnis erregend.

    Dass selbst Journalisten nicht mehr immer absolut sattelfest in Orthographie sind oder darin, welche grammatikalische Wendung denn nun eigentlich gut bzw. schon hart an der Grenze des noch Zulässigen ist, beobachtet man eigentlich erst in den letzten beiden Jahrzehnten.

    Bisher war ich der Meinung, diese Entwicklung sei verursacht
    • vom Zunehmen des Telegramm-Stils, mit dem man heute (in SMS oder e-Mail) miteinander kommuniziert
    • und von der Tatsache, dass man selbst in der Schule Rechtschreib- und Ausdrucksfehler heute nur noch im Rahmen von Deutsch-Unterricht gezielt brandmarkt und mit in die Beurteilung einer schriftlichen Arbeit eingehen lässt.

    Was die EU-Behörden nun aber beobachten, zeigt mir, dass diese Erklärung zu kurz greift (denn im Telegramm-Stil kommunizieren heute nicht nur Deutsche miteinander).

    Was aber ist dann die wirkliche Ursache für den Verfall von Sprachkultur bei uns in Deutschland? Ich weiß es nicht — und das erschreckt mich noch mehr.

    Beste Grüße,
    grtgrt
     

      Beitrag 1911-22
    Unsere Sprache als stumpfes oder als scharfes Messer

     
     
    Bauhof aus 1911-20:
    Außerdem wird man Anton Zeilinger wohl kaum als einen der Mitschuldigen an der Verhunzung der deutschen Sprache ansehen können, nur weil er den quantenmechanischen Zufall "objektiv" statt "absolut" nennt.

    Bauhof,

    Ich stimme dir da voll zu: Wer nicht gleich das treffendste Wort findet, verhunzt noch lange nicht unsere Sprache.

    Wie aus diesem deinem Satz aber hervorgeht, scheinst du Zeilingers objektiv mit meinem absolut zu verwechseln. Das aber ist falsch, denn objektiver Zufall im Sinne von Zeilinger ist physikalischer Zufall im Sinne von Beitrag 1911-1.

    Du siehst also: Man kann unsere Sprache benutzen wie ein stumpfes Messer, aber auch wie ein scharfes.

    Man sollte das nicht vergessen, und man sollte auf keinen Fall verlernen, auch mit scharfen Messern umzugehen.

    Beste Grüße,
    grtgrt
     

      Beitrag 1911-23
    Absolutsheitsaussagen sind eher verdächtig (also besonders zu reflektieren)

     
    Hallo Eugen Bauhof und Grtgrt,

    damit ihr nicht den Eindruck habt, es handele sich bei Äußerungen zu den Begriffsinhalten um reine Wortgefechte oder Rechthaberei, will ich meine Ansicht kurz begründen.

    Die von mir so genannten "Abolutheitsaussagen" über die Wirklichkeit, wie sie in Ausdrücken wie absoluter Zufall, Ewigkeit, Unendlichkeit, u.s.w. zum Ausdruck kommen sind wissenschaftsfeindlich. Sie behindern Erkenntnis und haben in früheren Zeiten sogar dazu geführt, dass Wissenschaftler, die solche Absolutheitsvorstellungen infrage stellten, schwerste Folgen zu tragen hatten.
    Wie schwierig es war, die absolute Vorstellung von Raum und Zeit aufzugeben, die als wissenschaftlich begründet galt, belegen die Erkenntnisse von Einstein.
    Nach meiner Überzeugung ist es deshalb sinnvoll, Absolutheitsvorstellungen aufzudecken, egal ob sie aus der Religion oder aus der Wissenschaft selbst kommen.

    MfG
    Harti
     

     Beitrag 0-358
    Sternpopulationen

     
     

     
    Sternpopulationen

    Man unterscheidet grob
       
    • Sterne der Population I — das sind besonders junge Sterne, die — wie unsere Sonne — hohe Matallizität aufweisen (d.h. schon besonders viele Elemente schwerer als Wasserstoff und Helium enthalten).
       
    • Bei Sternen der primitiveren Population II ist die Metallizität wesentlich geringer. Sie entstanden demnach früher (und werden auch Halosterne genannt).
       
    • Sterne der Population III sind jene, die nur aus Urknallgas entstehen konnten (also nicht aus schon in explodierten Sternen erbrüteten sog. "Metallen".
       
      Ein erstes Exemplar aus Population III wurde erst 2014 entdeckt. Es existiert darin kein Eisen.
       
      In 2015 fand man dann schließlich erstmals eine Galaxie, welche offensichtlich noch recht viele Population-III-Sterne enthält. Sie strahlt besonders hell, aber natürlich sehen wir nur ihr Bild aus ferner Vergangenheit.

     
    Note: Da Wasserstoff und Helium auch heute noch die Zusammensetzung aller Sterne dominieren, hat es sich in der Astronomie eingebürgert, den ganzen Rest der chemischen Elemente zusammenfassend » Metalle « zu nennen.
     
    Die Sonne zum Beispiel besteht zu 92 Prozent aus Wasserstoff, zu 7.8 Prozent aus Helium und nur zu 0.2 Prozent aus schwereren Elementen.
     
     
     
    Nebenbei Interessant:
     
    Der renommierte Bonner Astronom Hans Jörg Fahr schreibt auf S. 184 seines Buches Mit oder ohne Urknall (aktualisierte Ausgabe von 2016):
      Das Alter der Population II Sterne wird nach der derzeitigen Sternentwicklungstheorie bei etwa 15 Mrd. Jahren vermutet. Und das, trotzdem man das Alter unseres Universums heute auf nur 13,7 Mrd. Jahre beziffert (!).

    Fahr schreibt auch (S. 98), dass der Wert des Hubble-Parameters — anhand dessen sich dann das Alter unseres Universums berechnet — von unterschiedlichen Astronomenschulen deutlich unterschiedlich abgeschätzt werde: derzeit zwischen 50 und 100 (km/s)/Mpc.
     
    Hubble selbst ging von 530 km/s/Mpc aus, demzufolge Kosmologen dann bis etwa 1980 noch von einem Alter unseres Universums von nur etwa 4 Mrd. Jahren ausgingen, und das, obgleich doch schon in den 50-er Jahren einige Proben von Erdgestein mit radiologischen Methoden als 4.5 Mrd. Jahre alt erkannt worden waren.
     
    FRAGE also: Wie ernst ist es zu nehmen, wenn der Wert des Hubble-Parameters heute auf 71.9 km/s/Mpc geschätzt wird mit einer Unsicherheit von angeblich nur noch 3.8 Prozent [ und demzufolge das Alter unseres Universums 13.8 Mrd. Jahre betragen soll ]?

     

     Beitrag 0-332
    Wie alt werden Sterne?

     
     

     
    Wie alt werden Sterne?

     
     
    Dass Himmelskörper extrem alt werden können, zeigt sich am Beispiel Schwarzer Löcher. Ähnliches gilt für Elementarteilchen wie etwa Elektronen und Protonen.
     
    Wie alt aber werden denn nun typischerweise Sterne?
     
     
    Dass ihr maximal erreichbares Lebensalter davon abhängen wird, wieviel Energie sie abstrahlen, scheint offensichtlich. Es gilt:
       
    • Ein Stern mit 2-facher Sonnenmasse strahlt 14 Mal heller als die Sonne,
       
    • einer mit 10-facher Sonnenmasse strahlt schon etwa 6000 Mal heller als die Sonne
       
    • und einer mit 30-facher Sonnenmasse gar 400 000 Mal so hell.

     
    Je heller ein Stern strahlt, desto verschwenderischer geht er mit seinem Wasserstoff-Vorrat um. Ist jener aufgebraucht, beginnt der Stern zu sterben.
       
    • Unsere Sonne wird noch 5 bis 6 Mrd. Jahre leuchten.
       
    • Ein Stern mit doppelter Sonnenmasse wird etwa 1,4 Mrd. Jahre alt,
       
    • einer mit 10 Sonnenmassen nur etwa 35 Mio Jahre
       
    • und hat er gar mehr als 30 Sonnenmassen, wird er nur etwa 3 Mio Jahre alt werden (was schon recht kurz ist).
       
    • Umgekehrt kann die Lebensdauer Roter Zwergsterne — sie haben nur etwa 1/10 Sonnenmasse — das derzeitige Alter unseres Universums um das 100-fache übersteigen.

     
    Die meisten Sterne enden — wie unsere Sonne auch — als Weiße Zwerge. Nur Sterne mit mehr als 1,46 Sonnenmassen sterben in einer Supernova-Explosion und hinterlassen kompaktere Reste: Neutronensterne oder gar Schwarze Löcher.
     
    Während Sterne innerlich brennen, stellen sie einen Fusionsofen dar, in dem ausgehend von überwiegend nur Wasserstoff und Helium alle chemischen Elemente des Periodensystems bis hinauf zum Eisenatom geschaffen werden. Noch schwerere Elemente entstehen ausschließlich in Supernovae-Explosionen.
     
    Gezündet werden diese Fusionsöfen durch die Kraft der Gravitation: Sie komprimiert Wolken aus Atomen, so dass sie zunehmend an Temperatur gewinnen und so zu Sternen werden.

     
     
     
    Irgendwann wird in jeder Galaxie kaum noch interstellare Materie vorhanden sein.
     
    Es können sich dann keine neuen Sterne mehr bilden, und schließlich wird die gesamte Galaxie nur noch aus nicht mehr leuchtenden Sternleichen bestehen.
     
    In etwa 1014 Jahren wird in unserer kosmischen Umgebung fast jede Galaxie diesen Zustand erreicht haben.
     
    Damit ist klar:
     
    Selbst Universen ist kein ewiges Leben geschenkt.

     
     


    Günther Hasinger, Direktor am Max-Planck-Institut für extraterrestrische Physik, schrieb 2007:
     
    Grob 10100 Jahre nach dem Urknall dürften sämtliche Strukturen aus unserem Universum verschwunden sein.
     
    Falls die Expansion des Raumes bis dahin — heutiger Annahme entsprechend — exponentiell zugenommen haben sollte,
       
    • wird die mittlere Materiedichte — die heute bei etwa 1 Proton/m3 liegt — dann auf etwa 1 Positron im 10194-fachen Volumen des heutigen Universums abgefallen sein.
       
    • Die Wellenlänge der kosmischen Hintergrundstrahlung — heute etwa 1 mm — wird dann 1041 Lichtjahre betragen.

     
    Unser Universum wird wieder in dem Zustand sein, aus dem heraus es entstand: Es entstand aus dem » Nichts « und verflüchtigt sich zurück ins » Nichts «. Nur dass dieses » Nichts « [ auch falsches Vakuum genannt ] der höchste Energiezustand ist, den wir Physiker kennen.
     


     
     
    In Fred Adams & Greg Laughlin: Die fünf Zeitalter des Universums (1999, S. 237) wird der wahrscheinliche Lebenslauf unseres Universums skizziert wie folgt:
       
    • Das Zeitalter der Urmaterie endete etwa 1 Mio. Jahre nach dem Urknall dadurch, dass sich dann erste Sterne zu bilden begannen.
       
    • Das Zeitalter der leuchtenden Sterne ist das, in dem Sterne die wichtigste Energiequelle darstellen. Es wird etwa 1014 Jahre nach dem Urknall enden.
       
    • Das Zeitalter entarteter Sterne — es wird etwa 1039 Jahre nach dem Urknall enden — ist das, in dem es nur noch Reste schon komplett ausgebrannter Sterne geben wird: Braune Zwerge, weiße Zwerge, Neutronensterne und Schwarze Löcher.
       
    • Das Zeitalter der Schwarzen Löcher — bis etwa 10100 Jahre nach dem Urknall — wird eine Zeit sein, in der alle Himmelskörper Schwarze Löcher sind.
       
    • Das Zeitalter der Dunkelheit, welches dann folgt, kennt dann gar keine Himmelskörper mehr. Sämtliche Schwarzen Löcher werden sich dann ihrer Hawking-Strahlung wegen aufgelöst haben, und aller Inhalt des Universums wird nur noch aus Elektronen, Positronen, Neutrinos sowie aus extrem langwelliger, also extrem energiearmer und ständig noch weiter auskühlender Strahlung bestehen.


     
     
    Sternleichen — Die Reste früherer Sterne

     
    Im Zeitalter entarteter Sterne werden statt Sternen nur noch Sternleichen existieren. Man versteht darunter
       
    • Braune Zwerge,
       
    • Weiße Zwerge,
       
    • Neutronensterne
       
    • und Schwarze Löcher.
       
    • Jeder Stern, der in anderer Form endet, stirbt als Supernova.

    Braune Zwerge sind größer als Planeten, aber kleiner als normale Sterne. Sie sind insofern stellare Versager, als sie es nicht schaffen, in ihrem Inneren ein Wasser­stoffbrennen auszulösen. Sie sind deswegen zu unauffälliger Abkühlung und Kontraktion verdammt.
     
    Die meisten Sterne — auch unsere Sonne — beenden ihr Leben als Weißer Zwerg. Obgleich ein schwacher Stern mit 0,08 Sonnenmassen 100 Mal leichter ist als ein Stern mit 8 Sonnenmassen (der 3000 Mal so hell wie die Sonne leuchtet), müssen doch beide ihr Leben als Weißer Zwerg beenden.
     
    Gegen Ende des Zeitalters leuchtender Sterne wird unser Universum fast ein Billion (= 1012) Weißer Zwerge und ebenso viele Braune Zwerge enthalten. Da weiße Zwerge deutlich massreicher sind als braune, wird dann der größte Teil aller baryonischen Masse des Universums in Form weißer Zwerge vorliegen.
     
      Die Masse weißer Zwerge liegt im Mittel bei kapp einer Sonnenmasse.
       
      Unsere Sonne wird als weißer Zwerg nur noch etwa 60% ihrer heutigen Masse haben.

    Da unser heutiges Universum noch relativ jung ist, haben heute existierende Weiße Zwerge typischerweise etwa ein Viertel der Sonnenmasse und etwa doppelten Erdradius. Sie sind nur deswegen sichtbar, weil sie noch viel Wärmeenergie enthalten.
     
    Seltsamerweise sind Weiße Zwerge mit weniger Masse größer als solche mit mehr Masse. Sternleichen, die hinreichend wenig Masse haben, verhalten sie wie gewöhnliche Materie (die Grenze liegt bei etwa 1/1000 der Sonnenmasse).
     
    Umgekehrt kann ein Weißer Zwerg nicht beliebig viel Masse haben: Um nicht als Supernova zu enden, muss eine Sternleiche weniger als 1,4 Sonnenmassen haben. Dieser wichtige Wert wurde vom damals 19-jährigen Astrophysiker Chandrasekhar berechnet — noch bevor er sein Physikstudium abgeschlossen hatte. Er erhielt dafür später den Nobelpreis für Physik.
     
     
    Weiße Zwerge sind etwa 1 Million Mal dichter als Wasser. Noch 109 Mal dichter sind Neutronensterne. Sie sind gigantischer Atomkern, der entsteht, wenn der entartete Eisenkern eines Sterns mit mehr als der 8-fachen Sonnenmasse in einer Supernova explodiert. Im Vergleich zu weißen und braunen Zwergen sind Neutronensterne relativ selten. Dennoch enthält schon eine mittelgroße Galaxie etliche Millionen Neutronensterne.
     
    Die größtmöglich Masse eines Neutronensterns ist nicht genau bekannt, liegt aber zwischen 2 und 3 Sonnenmassen. Sein Radius ist mit nur etwa 10 Kilometern recht klein. Ein nur zuckerwürfelgroßes Stück eines Neutronensterns (1 Qubikzentimeter) hat die Masse von etwa einer Milliarde Elefanten.
     
    Hinreichend massereiche Sternenreste können nicht durch Entartungsdruck feste Größe aufrecht erhalten. Sie werden zu Schwarzen Löchern.

     

     Beitrag 0-91
    Der Lebenslauf aller Sterne

     
     

     
    Der Lebenslauf aller Sterne

     
     
    Zur Geburt eines Sterns kommt es, wenn eine Wolke aus Wasserstoffgas — mehrfach so groß wie unser Sonnensystem — durch die von ihr selbst ausgehende Gravitationskraft langsam komprimiert wird. Da hierbei Gravitationsenergie in kinetische Energie der Wasserstoffatome umgewandelt wird, ergibt sich eine recht starke Erwärmung der dichter und dichter werdenden Gaswolke.
     
    Doch an einem bestimmten Punkt — wenn die Temperatur auf 10 bis 100 Mio Grad K angestiegen ist, überwindet die kinetische Energie der Protonen (der Wasser­stoffkerne also) ihre elektrostatische Abstoßung. Sie prallen dann aufeinander und » verschmelzen « paarweise zu Helium. Dies setzt gewaltige Energiemengen frei und macht aus der Wasserstoffwolke eine Heliumwolke.
      Um zu verstehen, warum die Umwandlung von Wasserstoff in Helium Energie freisetzt, muss man wissen, dass das durchschnittliche » Gewicht « eines einzelnen Protons in Atomen umso größer ist, je leichter die Atome sind. Da Wasserstoffatome leichter als Heliumatome sind, verlieren die Protonen an Gewicht, und die entsprechende Differenz wird freigesetzte Energie ( E = mc2 ).

    Zudem kommt es zu einem Balanceakt zwischen der Schwerkraft, die bestrebt ist, die Gaswolke zu kompaktifizieren und der Kernkraft, die ihr entgegenwirkt.
     
    Unsere Sonne etwa ist ein sog. gelber Stern: ein Stern, der noch überwiegend aus Wasserstoff besteht. Die bei seiner Verbrennung zu Helium freigesetzte Energie bewirkt, dass die Sonne scheint.
     
    Doch im Laufe von mehreren Milliarden Jahren verbraucht sich der Wasserstoff, der Kernbrennofen erlischt, die Schwerkraft setzt sich durch und lässt die Heliumwolke stark schrumpfen. Diese Schrumpfung führt zu einer Aufheizung, und schließlich verbrennt das Helium in andere Elemente wie Lithium und Kohlenstoff. Da sie höheres Atomgewicht haben, wird hierbei aus genau den gleichen Gründen wie vorhin wieder viel Energie freigesetzt.
     
    Obwohl der Stern stark an Größe verloren hat, ist seine Temperatur noch ziemlich hoch, und seine Atmosphäre dehnt sich aus. Sterne in diesem Zustand nennt man » rote Riesen «.
      Wenn der Wasserstoffvorrat unserer Sonne erschöpft sein wird, und sie dann beginnt Helium zu verbrennen, wird das dazu führen, dass sich ihre Atmosphäre bis zum Mars hin ausdehnt. Unsere Erde wird dann verdampfen. Nun ist unsere Sonne aber ein Stern mittleren Alters, was bedeutet, dass noch etwa 5 Mrd. Jahre vergehen werden, bis unsere Erde auf diese Weise zerstört wird.

    Wenn schließlich auch das Helium verbrannt ist, wird der Kernbrennofen erneut erlöschen: Der rote Riese schrumpft und wird zu einem weißen Zwerg. In diesem Zustand kann der Stern nur noch wenig Energie abgeben (da die Atome, aus denen er dann besteht, schon recht schwere Elemente darstellen werden).
      Kurz: In etwa 5 Mrd. Jahren wird unsere Sonne zu einem weißen Zwerg werden: zu einen (nahezu) ausgebrannten Zwergstern.

    Man geht heute davon aus, dass auch weiße Zwerge ihr Material in immer noch schwerere Atome umwandeln bis hin zu dem Punkt, wo der Stern dann überwiegend aus Eisen besteht (die Protonen der Eisenatome haben nahezu minimales durchschnittliches Gewicht). Nun lässt sich keine Energie mehr aus Überschussmasse gewinnen, und so kommt die Kernschmelze endgültig zum Stillstand.
     
    Damit gewinnt die Schwerkraft dann endgültig die Oberhand und presst den Stern zusammen. Er kollabiert, so dass seine Temperatur sich um einen Faktor zwischen 1000 und 10000 auf mehrere Billionen Grad K erhöht.
     
    Aufgrund der gewaltigen Wärmemenge, die hierdurch freigesetzt wird, entwickelt sich eine Supernova: Eine ungeheuere Explosion reißt den Stern auseinander und verstreut die Trümmerteile als Kondensationskerne im interstellaren Raum. Um sie herum bilden sich dann neue Sterne.
     
     
    Nach Erlöschen der Supernova bleibt ein vollkommen toter Stern zurück: ein Neutronenstern, dessen Durchmesser nur noch wenige Kilometer beträgt. In ihm sind die Neutronen so dicht gepackt, dass sie sich buchstäblich » berühren «.
     
    Neutronensterne haben etwa die Dichte eines Atomkerns (man kann sie als gigantischen Atomkern auffassen).
     
    Neutronensterne sind nahezu unsichtbar. Dennoch kann man sie entdecken. Das liegt daran, dass sie bei ihrer Rotation etwas Strahlung abgeben und deswegen wie kosmische Leuchttürme wirken (Pulsare genannt). Seitdem man 1967 den ersten Pulsar entdeckt hat, wurden bis heute [2010] etwa 1700 weitere gefunden.
     
     
    Durch Berechnungen glauben die Physiker gezeigt zu haben, dass die meisten Elemente, die schwerer als Eisen sich, in der Hitze und dem Druck einer Supernova entstehen. Und so kommt es, dass die bei der Explosion entstehenden, weit ins All hinaus geschleuderten Trümmer auch aus höheren Elementen bestehen. Im Laufe der Zeit mischen sie sich mit Gasen, bis sich schließlich so viel Wasserstoffgas angesammelt hat, dass die Gravitation erneut zu einer Komprimierung dieser Wolken führen kann. Die hierbei entstehenden Sterne der nächsten Generation enthalten deswegen auch schwerere Elemente.
     
    Damit ist nun klar, woher die schwereren Elemente in unserem Körper kommen: Vor Milliarden Jahren explodierte eine namelose Supernova und legte damit den Grundstein zu jener Gaswolke, aus der sich unser Sonnensystem gebildet hat.
     
     
     
    Quelle: Michio Kaku: Die Physik der unsichtbaren Dimensionen (Rohwohlt 2013), S. 345-353

     

     Beitrag 0-436
    Wie Sterne sterben — und warum Supernovae vom Typ 1a ideale Standardkerzen sind

     
     

     
    Wie Sterne sterben

    und warum 1a-Supernovae ideale Standardkerzen sind



    John D. Barrow erklärt (2011):
     
    Wenn Sterne, deren Masse kleiner als das 1.4-fache der Sonnenmasse ist, ihren nuklearen Brennstoff verbraucht haben, schrumpfen sie unter der Wirkung ihrer Gravitation auf Erdgröße zusammen. Erst der Gegendruck, der entsteht, wenn die Elektronen der Atome zusammengepresst werden bringt diesen Schrumpfungs­prozess zum Stillstand. Resultat ist, was wir einen Weißen Zwerg nennen.
     
    Für Sterne, die mehr Masse als das 1.4-fache der Sonne haben, kann der Gegendruck der Elektronen den Zusammensturz nicht aufhalten: Sie werden in die Protonen gedrückt und machen jene zu Neutronen. Erst deren Entartungsdrck bringt den Zusammensturz zum Halten, sofern der Stern nicht das 3-fache der Sonnenmasse hat. Resultat ist ein Neutronenstern, der nur einige Kilometer Durchmesser hat, aber eine Dichte, die 100 000 Milliarden Mal größer ist als die von Eisen.
     
    Weiße Zwerge und Neutronensterne sind im beobachtbaren Universum recht häufig anzutreffen.
     
    Da Neutronensterne schnell rotieren, sind sie Pulsare: Sterne, die wirken wie Leuchttürme, deren jeder in regelmäßigen Abständen Lichtsignale aussendet.
     
    Hat nun aber der sterbende Stern ein Masse, die größer ist als das 3-fache der Sonnenmasse, gibt es keine bekannte Kraft, welche den Zusammensturz aufhalten könnte: Er wird dann zu einem Schwarzen Loch.
     
     
    Etwa die Hälfte aller Sterne im beobachtbaren Universum sind Doppelsterne, die ihr gemeinsames Gravitationszentrum umkreisen. Wird einer der beiden zu einem Weißen Zwerg, kann er auf Kosten des Partners anwachsen, indem er aus den Außenbereichen seines Bruder Materie absaugt. Das kann dazu führen, dass seine Masse die Grenze von 1,4 Sonnenmassen überschreitet und der Stern in einer dramatischen thermonuklearen Explosion — Supernova genannt — zerrissen wird.
     
    Interessanterweise ist die maximale Helligkeit aller Supernovae nahezu gleich groß. Sie strahlen dann kurze Zeit mehr als 1 Milliarde Mal heller als die Sonne (fast so hell wie eine ganze Galaxie).
     
    Nach der Explosion nimmt die Helligkeit ab, und in den daraf folgenden Monaten verändert sich auch die Farbzusammensetzung des abgestrahlten Lichtes in ganz charakteristischer Weise: Die Form der Helligkeitskurve wird in den ersten Tagen und Wochen durch den radioaktiven Zerfall von Nickel bestimmt, danach aber durch den Zerfall von Kobalt.
     
    1998 haben zwei Forscherteams (aus Harvard und Berkeley) das Verhältnis der maximalen Helligkeit und des Abfalls der Helligkeitskurve verschiedener Supernovae genau untersucht und konnten von da an auf deren Abstand von der Erde schließen.
     
    Sie nützten zu Zeiten des Neumondes machtvolle Teleskope, um enige hundert Ausschnitte des Nachthimmels mit jeweils etwa 1000 Galaxien zu beobachten. Eine Wiederholung dieser Beobachtung nach 3 Wochen ergab, dass sich in der Zwischenzeit in jedem der Bereiche etwa 25 Supernovae gebildet hatten. Es stellte sich heraus,dass die Helligkeitskurven der ferner Supernovae denen der nahen gleichen Typs ähnlich sind, woraus man dann schließen konnte, dass die Super­novae am Rande des beobachtbaren Universums den uns nahen gleichen und ihre geringe scheinbare Helligkeit einzig und allein durch ihre große Entfernung von uns zustandekam.
     
    Nachdem beide Gruppen ihre Daten zusammen betrachtet hatten, kamen sie unabhängig von einander zum selben Ergebnis, welches lautet:
     
    Das Hubblesche Gesetz für die Expansionsgeschwindigkeit der fernen Supernovae zeigt einen Trend, der beweist, dass die Geschwindigkeit, mit der der Raum expandiert, zunächst langsam zurückging, seit etwa 4.5 Mrd. Jahren aber wieder anwächst.
     
     
    Die Konsequenzen dieser Entdeckung waren immens.
       
    • Man hatte jetzt nicht nur einen direkten Beweis der Beschleunigung der Expansion des Raumes,
       
    • sondern auch eine Bestätigung des Lambda-CDM-Modells
       
    • sowie einen Beweis dafür, dass eine der Gravitation entgegenwirkende Kraft tatsächlich existiert.

    Wenn man Einsteins Kosmologische Konstante (nun mit fast genau dem Wert –1) wieder einsetzt, wird sein Modell zu dem, welches bisher am genauesten die Dynamik unseres Universums beschreibt.
     


     
    Quelle: John D. Barrow: Das Buch der Universen (2011), S. 294-298


     

     Beitrag 0-147
    Wie Sterne sterben — und was dann von ihnen übrig ist

     
     

     
    Wie Sterne sterben

    und was von ihnen übrig bleibt

     
     
    Je massereicher ein Stern, desto kürzer sein Leben. Die Gravitationskraft wird ihn schneller komprimieren, und so wir er seinen Brennstoff schneller verbrauchen.
     
    Die bei weitem zahlreichsten und langlebigsten Sterne sind sog. Rote Zwerge. Ihre Masse liegt zwischen 0,1 und 0,4 Sonnenmassen. Es sind die kleinsten Sterne, in deren Zentrum Wasserstoffbrennen stattfindet. Etwa 75% aller Sterne gehören zu dieser Klasse.
     
    Unsere Sonne, die derzeit 4,6 Mrd. Jahre alt ist, wird etwa 10 Mrd. Jahre alt werden.
     
     
    Von unserer Sonne wird einmal ein nur erdgroßer Klumpen aus Kohlenstoff und Sauerstoff übrig bleiben. Der ganze Rest ihrer Masse wird als planetarischer Nebel im Raum verteilt werden, der sich dann aber in einigen 10.000 Jahren völlig aufgelöst haben wird.
     
    Sterne, die etwas mehr Masse als unsere Sonne haben, hinterlassen später eine kompakte Eisenkugel im All.
     
    Genauer:
      Aus einem Sternkern, der weniger als 1.44 Sonnenmassen hat, entsteht ein sog. Weißer Zwerg:
       
      • Bei sehr geringer Restmasse — wie etwa im Fall unserer Sonne —, stabilisiert der Entartungsdruck der Elektronen den Kohlenstoff-Sauerstoff-Kern gegen die Kraft der Gravitation.
         
      • Ansonsten aber wird der gesamte Kern zu Eisen (mit Spuren von Nickel).

      Bei größeren Sternen wird ihr Kern am Ende ihres Lebens zu Neutronen zusammengepresst: Es entsteht ein Neutronenstern, Die Hüllen um den Kern herum aber werden in einer Supernova-Explosion in den Raum geschossen. [ Manche Neutronensterne — sog. Pulsare — rotieren schnell und sehr präzise. Dabei senden sie an ihren beiden Polen hochenergetische Strahlungsbündel in den Raum. ]
       
      Wenn der zusammengepresste Restkern eines Sterns noch mindestens drei Sonnenmassen aufzuweisen hat, ist seine Gravitationskraft stark genug, ihn zu einem Schwarzen Loch werden zu lassen.

     
    Ein Stern beginnt zu sterben, sobald sein Vorrat an Wasserstoff aufgebraucht ist:
     
    Wegen der dann schwächer werdenden Kernfusionskräfte, kann die Gravitationskraft den Kern komprimieren, also schrumpfen lassen. Seine Außenhüllen aber dehnen sich mehr und mehr aus: Er wird zu einen roten Riesen. Zunächst kann der Stern seine Gravitationskraft noch einige Zeit dadurch im Zaune halten, dass er in seinem Inneren immer schwerere Elemente zur Fusion treibt (erst bei Eisen wird dann Schluss sein): Während also zunächst durch Fusion von Wasserstoff Helium entstand, zündet
    • bei etwa 100 Mio Kelvin das Heliumbrennen,
       
    • bei etwa 700 Mio Kelvin das Kohlenstoffbrennen (was Neon, aber auch Magnesium, Natrium und Sauerstoff erzeugt),
       
    • bei etwa 1200 Mio Kelvin das Neonbrennen (worin sich Sauerstoff, Magnesium und Silicium bilden),
       
    • bei etwa 1800 Mio Kelvin das Sauerstoffbrennen (es entstehen Silicium, aber auch Schwefel, Phosphor und Magnesium),
       
    • bei etwa 5000 Mio Kelvin zündet schließlich das Siliciumbrennen (was zu Eisen, aber auch Nickel und Cobalt führt).

    Mit anderen Worten: Mit zunehmender Temperatur wachsen aus dem Kern heraus Schalen, deren jede durch Fusion Elemente erzeugt, die höhere Kernladungszahl haben als die schon vorhandenen. Dies funktioniert bis schließlich Eisen, Nickel und Cobalt erreicht werden.
     
    Hier ist — beispielhaft anhand der Fusionen in der Schale des Siliciumsbrennens — gezeigt, wie die jeweils schwereren Element zustande kommen:

         
        Silicium-28  (14 Protonen, 14 Neutronen)
            |
            |     +   Helium-4  (2 Protonen, 2 Neutronen)   ergibt:
            |
        Schwefel-32
            |
            |     +   Helium-4
            |
        Isotop Argon-36
            |
            |     +   Helium-4
            |
        Calcium-40
            |
            |     +   Helium-4
            |
        Isotop Titan-44
            |
            |     +   Helium-4
            |
        Isotop Chrom-48
            |
            |     +   Helium-4
            |
        Isotop Eisen-52
            |
            |     +   Helium-4
            |
        Isotop Nickel-56

     
     
    Gegen Ende ihres Lebens wirken große Sterne demnach wie glühend rote Zwiebeln: In 6 verschiedenen Schichten werden die Elemente von Helium bis Eisen erzeugt. Um Elemente mit noch höherer Kernladungszahl zu bekommen, muss sehr viel mehr Energie zugeführt werden — daher entstehen sie gewöhnlich nur im Zuge einer Supernova-Explosion.
     
    Wenn schließlich die Kerntemperatur auf etwa 10 000 Mio Kelvin gestiegen ist, wird der Stern als Supernova explodieren.
    • Einen Tag vorher begann das Siliciumbrennen (Kerntemperatur 5000 Mio Kelvin)
       
    • 1/2 Jahr vorher begann das Sauerstoffbrennen (Kerntemperatur 1800 Mio Kelvin)
       
    • 10 Jahre voher begann (bei etwa 1200 Mio Kelvin) das Neonbrennen.
       
    • 300 Jahre vorher begann — bei 700 Mio Kelvin — das Kohlenstoffbrennen.
       
    • 100 000 Jahre vorher begann — bei 100 Mio Kelvin — das Heliumbrennen.
       
    • 500 000 Jahre vorher war die Kerntemperatur auf 40 Mio Kelvin gestiegen, der Wasserstoffvorrat weitgehend erschöpft, und das Sterben des Sterns nahm seinen Anfang.

     
     
    Anhang:
      Wasserstoff verbrennt per
       
        Helium-4 + 2 Gammaphotonen  →  2 Positronen + 2 Neutrinos

      Helium verbrennt per
       
        Helium-4 + Helium-4  →  Beryllium-8
         
        Beryllium-8 zerfällt nach durcschnittlich 10-16 sec,
        kann es sich aber vorher noch mit einem weiteren Helium-4 vereinigen, entsteht angeregter Kohlenstoff-12.

      Kohlenstoff verbrennt wahlweise per
       
        Kohlenstoff-12 + Kohlenstoff-12  →  Magnesium-24 + Gammaphoton
        Kohlenstoff-12 + Kohlenstoff-12  →  Natrium-23 + Wasserstoff-1
        Kohlenstoff-12 + Kohlenstoff-12  →  Neon-20 + Helium-4
        Kohlenstoff-12 + Kohlenstoff-12  →  Sauerstoff-16 + Helium-4 + Helium-4

      Neon verbrennt wahlweise per
       
        Neon-20 + Gammaphoton  →  Sauerstoff-16 + Helium-4
        Neon-20 + Helium-4  →  Magnesium-24 + Gammaphoton, dann: Magnesium-24 + Helium-4  →  Silicium-28 + Gammaphoton
        Neon-20 + Helium-4  →  Magnesium-24 + Neutron
        Neon-20 + Neutron  →  Neon-21 + Gammaphoton

      Sauerstoff verbrennt wahlweise per
       
        Sauerstoff-16 + Sauerstoff-16  →  Schwefel-32 + Gammaphoton
        Sauerstoff-16 + Sauerstoff-16  →  Schwefel-31 + Neutron
        Sauerstoff-16 + Sauerstoff-16  →  Phosphor-31 + Wasserstoff-1
        Sauerstoff-16 + Sauerstoff-16  →  Silicium-28 + Helium-4
        Sauerstoff-16 + Sauerstoff-16  →  Magnesium-24 + Helium-4 + Helium-4

      Wie schließlich Silicium zu Eisen oder gar Nickel verbrennt, wurde oben schon dargestellt.

     
     
    Je massereicher ein Stern ist, desto schneller verbraucht sich sein Brennstoffvorrat.
     
    Ein Stern etwa, der doppelt so schwer ist wie unsere Sonne, wird nur etwa 1 Mrd. Jahre alt (stirbt also 10 Mal früher als sie). Es gibt sogar Sterne, die bis zu 100 Mal schwerer sind als die Sonne. Sie werden nur wenige Millionen Jahre alt.

     
     
     
    Quelle: Daniela Leitner: Als das Licht laufen lernte (Bertelsmann 2013, Seite 498-538)
     
    Lies auch: Lebenslauf der Sterne
     
     
     
     
     
     
    Lebenslauf der Sterne

     
     
     
    Eine noch strittige Frage ist, wie schwer Neutronensterne werden können. Die Astrophysiker wissen, dass sie schwerer sein können als Weiße Zwerge, aber ab einer bestimmten Massengrenze nicht mehr stabil sind. Denn dann kollabiert ein Neutronenstern zu einem stellaren Schwarzen Loch.
     
    Die klassische Massengrenze von Neutronenmaterie ist die Oppenheimer-Volkoff-Grenze von 0.7 Sonnenmassen, die bereits 1939 berechnet wurde. Dieses Neutronensternmodell hat sich jedoch als nicht wirklichkeitsnah erwiesen, da Neutronensterne deutlich komplexer aufgebaut sind, als man zunächst dachte. Ein konservativer Zahlenwert für die Maximalmasse eines Neutronensterns resultiert aus sehr allgemeinen Überlegungen auf der Basis von Einsteins Allgemeiner Relativitätstheorie und beträgt 3.2 Sonnenmassen (Rhoades & Ruffini, PRL 1974). Neuere Arbeiten setzen dieses Limit deutlich herab: So wird ein Massenbereich für Neutronensterne zwischen 1.5 und 1.8 Sonnenmassen diskutiert (Burgio 2004, nucl-th/0410040).
     
    Quelle: https://www.spektrum.de/lexikon/astronomie/neutronenstern/311

     

     Beitrag 0-148
    Warum Sternpopulationen?

     
     

     
    Warum Sternpopulationen?

    Je später ein Stern geboren wird, desto größer ist sein anfänglicher Gehalt an "Metallen"

     
     
    Zur Erinnerung: Astrophysiker verstehen unter "Metallen" alle Elemente, die schwerer sind als Helium.
     
    Zudem unterscheiden sie 3 Sternpopulationen: Die Populationen III, II und I.
     
    Sterne der Population III sind die besonders früh entstandenen. Da es damals aber im All noch keine "Metalle" gab (sie bilden sich ja erst, wenn Sterne beginnen zu sterben), sind junge Population-III-Sterne riesige Wasserstoffwolken, die nur leicht mit Helium gemischt sind, aber schnell zu einer Brutstätte für Helium werden.
     
    Ihrer gewaltigen Größe wegen haben sie viel Masse. Dies aber bedeutet, dass sie nur kurzes Leben haben können, denn da die Gravitation sie schnell und stark komprimiert, beginnen sie schon früh, auch "Metalle" zu erbrüten.
     
    Wie in Beitrag 0-147 beschrieben, beginnt der Todeskampf eines Sternes, sobald der Wasserstoffvorrat in seinem Kern zur Neige geht. Bei Population-III-Sternen ist das schon früh der Fall, denn je größer ein Stern ist, desto stärker drückt die Last seines Gewichts gegen sein Inneres, desto heißer wird es dort, desto höher ist deswegen seine Fusionsrate, desto stärker strahlt er, und desto früher ist sein Kernbrennstoff verbraucht.
     
    Eben weil er so stark strahlt, werden in seiner Umgebung vorhandene Heliumatome oft wieder in Wasserstoffatome zerlegt, so dass die Wahrscheinlichkeit, dass sich nahe ihm ein anderer so großer Stern bildet, sinkt: Population-III-Sterne sind Platzhirsche; was sie nicht aufzusaugen in der Lage sind, wird durch sie zerstört.
     
     
    Ein Stern mit etwa 200-Sonnenmassen ist ein recht typischer Population-III-Stern und gehört als solcher definitiv zu den größten und kurzlebigsten Sternen überhaupt. Sein Wasserstoffvorrat wird schon nach etwa 450 Mio. Jahren verbraucht sein, so dass sich dann
     
    • seine erste Schale auszubilden beginnt,
       
    • und die Hülle des sterbenden Sterns beginnt, sich auszudehnen.

    Aber noch nicht einmal 100 000 Jahre kann dieser Stern von seinem Heliumvorrat zehren.
     
    Wenn dann aber im Kern das Heliumbrennen einsetzt, schießt seine ohnehin schon hohe Temperatur nochmals sprunghaft nach oben, der Stern setzt dann ungeheuere Mengen von Energie frei: Er bläht sich auf zu einem roten Unter-Riesen und schließlich zu einem roten Riesen.
     
    Die Leuchtkraft der Population-III-Sterne dürfte bis zu 100 Mio. mal größer gewesen sein als die unserer Sonne.
     
    Eine Gesamtmasse von etwa 200 Sonnenmassen vorausgesetzt, strahlt er vor allem UV-Licht ab und hat einen 30 bis 50 mal größeren Durchmesser als unsere Sonne.
     
    Sein Leben aber läuft wie im Zeitraffer ab: Sein eigenes Gewicht presst ihn gnadenlos zusammen, und in seiner Verzweiflung produziert er schnell zunehmend schwerere Elemente, die — wenn er schließlich als Supernova explodiert — weit ins All hinausgetragen werden.
     
    Dies wiederum führt dazu, dass von nun an sich im Raum neu zusammenballende Gaswolken auch zunehmend Sternenstaub bestehend aus schwereren Elementen enthalten, und so kommt es zunehmend auch zur Geburt kleinerer (sog. Population-II-Sterne) und schließlich sogar zur Geburt der noch viel kleineren Population-I-Sterne, wie etwa unserer Sonne.
     
    Je kleiner neu entstehende Sterne sind, desto weniger stark drückt ihr eigenes Gewicht sie zusammen, und desto länger werden sie leben. So also kommt es, dass unsere Sonne hoffen kann, etwa 10 Mrd. Jahre alt zu werden.
     
     
    Nebenbei noch:
     
    Menschliche Astronomen kennen keinen einzigen Population-III-Stern. Das aber ist kein Wunder, da keiner von ihnen sehr alt wurde.

     
     
     
    Quelle: Daniela Leitner: Als das Licht laufen lernte (Bertelsmann 2013, Seite 538-549)


     

     Beitrag 0-372
    Über Planetensysteme — und ihr erstaunlich kleines Alter

     
     

     
    Über Planetensysteme



    Harald Lesch ( in Wie das Staunen ins Universum kam, 2016, S. 141-148 ):
     
    Vor 4,6 Mrd. Jahren wuchs im Inneren einer in sich zusammenstürzenden Gaswolke unsere Sonne heran.
     
    Ein Teil des Gases konzentrierte sich um den jungen Stern in Form einer flachen, um ihn rotierenden Scheibe aus Gas und Staub. Sie war deutlich masseärmer als die gerade entstehende Sonne und reichte bis auf etwa 15 Mrd. Kilometer in den Raum hinaus.
     
    Alle Planeten entstanden in dieser Scheibe, und so bewegen sie sich bis heute in nahezu ein und derselben Ebene um die Sonne.
     
     
    Planetenentstehung läuft in zwei Phasen ab:
     
    In Phase 1 beginnt die Entwicklung mit zufälligen Zusammenstößen der anfangs gleichmäßig in der Scheibe verteilten Staubpartikel. Sie bilden Klümpchen, die schließlich zu Klumpen und immer größeren Brocken heranwachsen. Diese sog. Planetesimale können schon mal einige Hundert Kilometer Durchmesser haben. [Nebenbei: Was hier als » Staub « bezeichnet wird, sind in früheren Sternen erbrütete Atome scwerer als Wasserstoff und Helium. Vor allem Supernovae haben sie in den Raum hinaus geblasen.]
     
    In Phase 2 vereinigen sich diese "Planetenembryonen" durch Zusammenstoß zu noch größeren Objekten, die umso schneller wachsen, je massereicher sie schon sind. Ihr Wachstum ist beendet, wenn — so etwa nach 100 Mio Jahren — fast aller Staub verbraucht ist: Merkur, Venus, Erde und Mars sind geboren.
     
    Gasplaneten können sich nur in den äußeren Bereichen der Scheibe bilden. Dort nämlich ist die Temperatur hinreichend niedrig, so dass die Schwerkraft der Felsenkerne Gasmoleküle festhalten kann. Die Kerne der äußeren Planeten sammeln so große Mengen an Gas an. Jupiter etwa wuchs in nur etwa 1 Mio Jahre auf 317 Erdmassen an. Er wurde doppelt so schwer wie alle anderen Planeten zusammen.
     
    Die Planeten, die heute noch im Sonnensystem existieren, sind die Gewinner der vielen Zusammenstöße am Anfang.
     
    Man beachte: Alle Körper, die auf stark elliptischen Bahnen durchs Sonnensystem vagabundieren, hatten eine viel größere Wahrscheinlichkeit, mit anderen zu kollidieren. Daher sind sie längst verschwunden. Nur noch kleine Felsbrocken durchkreuzen als Kometen oder Asteroiden das Sonnensystem auf ausgeprägt elliptischen Bahnen. Die übrigen Planeten aber haben nahezu kreisförmige Bahnen (maßstabsgetreu auf ein Blatt DIN A4 gezeichnet würde man sie gar nicht mehr als elliptisch erkennen). Nahezu kreisförmige Bahnen geben dem Sonnensystem Stabilität und garantieren, dass es das jeweils ganze Jahr über auf keinem dieser Planeten allzu großen Temperaturschwankungen auftreten — eine wichtige Voraussetzung dafür, dass sich dort Leben entwickeln kann.
     
     
     
    Man geht heute davon aus, dass Planetensysteme sich erst zu bilden begannen, nachdem das Universum schon etwa 9 Mrd. Jahre alt war:
     
    Die Beobachtungen von extrasolaren Planetensystemen (natürlich alle in unserer Milchstraße) weisen ganz klar darauf hin, dass nur Sterne, die mindestens so viel schwere Elemente wie unsere Sonne enthalten — also keinesfalls älter sind als sie —, von Planeten umkreist werden. Möglicherweise ist unser Sonnensystem sogar eines der ältesten Planetensysteme in der Milchstraße.
     


     
    Note: Dass unsere Galaxie schon etwa 13 Mrd. Jahre alt ist, belegt ein extrem "metallarmer" Stern, den Anna Frebel 2005 gefunden hat. Er ist nahezu sicher ein Stern erst zweiter Generation, d.h. die Gaswolke, aus der er entstand, enthielt an "Metallen" (= Elementen schwerer als Wasserstoff und Helium) wohl nur Atome, die alle gemeinsam aus einer einzigen Supernova kamen.

     

     Beitrag 0-412
    Über Gravitationslinsen

     
     

     
    Wie Gravitationslinsen helfen,

    die Masse von Sternen zu bestimmen

     
     
    Astronomen aus Baltimore mussten Tausende naher Sterne untersuchen, bis sie zwei fanden, anhand derer sich der Gravitations-Linseneffekt beobachten lies: Im März 2014 beobachteten sie, wie ein Weißer Zwerg vor einem rund 6.500 Lichtjahre entfernten Hintergrundstern vorbeizog.
     
    Die Sternposition änderte sich um rund 0,56 millionstel Grad, woraus sich mit Einsteins Theorie errechnen lies, dass die Masse des Weißen Zwergsterns 67,5 Prozent der Sonnenmasse entspricht. "Es ist, als ob man den Stern auf die Waage legen würde", erläutert Sahu (einer der Astronomen) in einer Mitteilung seines Instituts. "Die Ablenkung ist analog zur Bewegung der Nadel auf der Waage."
     
     
    Zum Gravitationslinseneffekt der ART
     
    © NASA/ESA/A. Feild (STScI)/dp


     

     Beitrag 0-92
    Wie aus besonders großen Sternen Schwarze Löcher werden

     
     

     
    Wie Schwarze Löcher entstehen
     
    und wie (oder warum) sie durch Wurmlöcher verbunden sein könnten

     
     
    Wenn ein Stern besonders große Masse hat — mindestens das zehn- oder gar 50-fache unserer Sonne — dann wird ihn die Schwerkraft selbst dann noch weiter komprimieren, wenn er schon ein Neutronenstern ist. Ohne die Fusionskraft nämlich, die sich der Gravitationskraft entgegenstellen könnte, kann nichts mehr einen noch stärkeren Kollaps aufhalten: Der Stern wird dann zu etwas, das man ein Schwarzes Loch nennt: einer Ansammlung von Energie, der selbst das Licht nicht mehr entkommen kann.
     
    So groß ist die Dichte eine Schwarzen Lochs, dass selbst Licht, welches in seine Nähe kommt, in eine Kreisbahn gezwungen wird (ganz so wie eine von der Erde abgeschossene Rakete, die — wenn sie der Schwerkraft der Erde nicht entkommen kann — auf eine Bahn um die Erde gezwungen wird).
     
     
    Man muss dazu wissen: Jeder Himmelskörper besitzt eine sog. Entweichgeschwindigkeit. Es ist dies die Geschwindigkeit, die ein Objekt mindestens erreichen muss, um sich der gravitativen Anziehungskraft des Himmelskörpers auf Dauer entziehen zu können.

      Die Entweichgeschwindigkeit der Erde etwa beträgt 40.000 km/h.
       
      Eine Hülle aus Sauerstoff kann die Erde nur deswegen haben, weil Sauerstoffatome sich nicht schnell genug bewegen, um dem Gravitationsfeld der Erde entkommen zu können.
       
      Jupiter etwa besteht hauptsächlich aus Wasserstoff, da seine Entweichgeschwindigkeit groß genug ist, um auszuschließen, dass Wasserstoff dem Jupiter entkommen konnte.

     
    Die Höhe der Entweichgeschwindigkeit ergibt sich schon aus Newtons Gravitationstheorie:
     
    Je schwerer ein Planet oder Stern und je kleiner sein Radius, desto größer seine Entweichgeschwindigkeit.

     
      Es ist tatsächlich schon 1783 der englische Astronom John Michell aufgrund der Newtonschen Gesetze zur Hypothese gelangt, dass ein überaus massereicher Stern eine Entweichgeschwindigkeit haben könnte, die der Lichtgeschwindigkeit entspricht. Von ihm ausgestrahltes Licht — so folgerte Michell — könnte ihm nicht ent­kommen und müsste ihn daher ständig umkreisen. So ein Stern müsse dem Beobachter als völlig schwarz erscheinen.
       
      Man hielt Michells Theorie — damals veröffentlich in den Philosophical Transactions of the Royal Society, 74, 1784, S. 35 — für verrückt und vergaß sie bald.
      Heute jedoch sind wir geneigt, an die Existenz Schwarzer Löcher zu glauben, da Astronomen am Himmel tatsächlich weiße Zwerge und Neutronensterne entdeckt haben.

     
     
    Zu erklären, warum Schwarze Löcher schwarz sind, gibt es zwei Möglichkeiten:
    • Erstens kann die Kraft, die das Licht zum Stern hin zieht, so groß sein, dass der Lichtstrahl in einen Kreis gezwungen wird.
       
    • Man kann aber auch Einsteins Standpunkt einnehmen, von dem aus » die kürzeste Entfernung zwischen zwei Punkten eine gekrümmte Linie sein kann «.
      Die Krümmung eines Lichtstrahls zu einem vollen Kreis bedeutet dann, dass auch der Raum sich in sich selbst zurück gekrümmt hat, so dass ein Stück der Raumzeit — extrem zusammengepresst — abgetrennt worden ist, und der Lichtstrahl jetzt nur noch im abgetrennten Teil zirkulieren kann.
       
      Diese so abgetrennte, in sich geschlossene Region des Raumes könnte man dann als ein eigenes Universum begreifen — einen Teilraum, aus dem heraus uns keine Nachricht erreichen kann.

     
     
    Die relativistische Beschreibung Schwarzer Löcher verdanken wir Karl Schwarzschild: Er fand — noch 1916, kurz nachdem Einstein seine Gravitationstheorie publiziert hatte — eine exakte Lösung für Einsteins Feldgleichungen zur Berechnung des Gravitationsfeldes jeden massereichen, stationären Sterns. Ihr zufolge nach gibt es in einem bestimmten Abstand um das Zentrum des Schwarzen Lochs herum eine Grenze, die sich nur hin zum Loch, aber nicht vom Loch weg überschreiten lässt. Man nennt diesen Abstand heute den Schwarzschild-Radius. Es ist der Radius einer Kugel um das Zentrum des Schwarzen Lochs herum, an deren Oberfläche die Entweichgeschwindigkeit gleich der Lichtgeschwindigkeit ist.
     
    Damit aus unserer Sonne ein Schwarzes Loch würde, müsste sie auf ihren Schwarzschild-Radius von rund drei Kilometern zusammenstürzen,
    die Erde auf etwa 0,9 cm.

     
    Protonen und Neutronen sind um den Faktor 1039 ausgedehnter als ihr Schwarzschild-Radius (so dass in der Elementarteilchen-Theorie — aber eben nur dort — Gravitation keine irgendwie nennenswerte Rolle spielt).
     
     
    Haben zwei Schwarze Löcher aus unterschiedlichen Raumgebieten denselben Punkt als singuläre Stelle, so spricht man von einer Einstein-Rosen-Brücke.
     
    Solche Brücken anzunehmen war notwendig, um zu einer konsistenten Theorie der Schwarzen Löcher zu kommen.
     
    Bald entdeckte man Einstein-Rosen-Brücken auch in anderen Lösungen der Einsteinschen Feldgleichungen, etwa in der Reissner-Nordström-Lösung, die ein elektrisch geladenes, nicht rotierendes Schwarzes Loch beschreibt.
     
    Wirklich ernst zu nehmen begann man solche Brücken — heute Wurmlöcher genannt — erst, als 1963 der neuseeländische Mathematiker Roy Kerr eine weitere exakte Lösung der Gravitationsgleichungen fand. Kerr ging dabei von der Annahme aus, dass jeder kollabierende Stern rotiere. So wie ein Eisläufer, der eine Piruette beschreibt, seine Drehung beschleunigt, wenn er die Arme an den Körper zieht, so müsste sich auch die Drehung eines rotierenden Sterns beschleunigen, wenn sein Durchmesser sich reduziert, d.h. wenn er anfängt, zu kollabieren.
     
    Kerrs Lösung bedeutete eine Sensation auf dem Gebiet der Allgemeinen Relativitätstheorie, da man mit ihr nun eine absolut genau Darstellung unzähliger massiver Schwarzer Löcher hatte, die das Universum bevölkern. Der Astrophysiker Subrahmanyan Chandrasekhar sprach gar vom einem » Schauder vor dem Schönen «, den die unglaubliche Erkenntnis in uns hervorrufe, dass eine durch die Suche nach dem Schönen in der Mathematik ausgelöste Entdeckung ihr genaues Abbild in der Natur findet. [ Zitiert in Heinz Pagels: Zeit vor der Zeit. Das Universum bis zum Urknall, Berlin 1987, S. 75 ].
     
    In seiner Nobelpreis-Rede von 1983 hat Chandrasekhar das nochmals bekräftigt (Zitat):
      Black holes are macroscopic objects with masses varying from a few solar masses to millions of solar masses. To the extent they may be considered as stationary and isolated, to that extent, they are all, every single one of them, described exactly by the Kerr solution. This is the only instance we have of an exact description of a macroscopic object. Macroscopic objects, as we see them all around us, are governed by a variety of forces, derived from a variety of approximations to a variety of physical theories. In contrast, the only elements in the construction of black holes are our basic concepts of space and time. They are, thus, almost by definition, the most perfect macroscopic objects there are in the universe. And since the general theory of relativity provides a single unique two-parameter family of solutions for their descriptions, they are the simplest objects as well.

     
     
     

     
     
     
    Eine Kerr- und eine Einstein-Rosen-Brücke

     
     
     
    Sind S1 und S2 zwei Schwarze Löcher im All, welche durch eine solche Brücke — ein Wurmloch, wie man auch sagt — verbunden sind, so gibt es zwei Geodäten, die von S1 nach S2 führen: Die eine stellt einen möglicherweise Milliarden Lichtjahre langen Weg dar, die andere aber eine extrem kurze Verbindung, die durch das Wurmloch hindurch führt. Neueren Berechnungen zufolge erscheint das Reisen durch so ein Wurmloch zwar schwierig, aber nicht unbedingt unmöglich. Es wird da also weiter geforscht werden ...
     
     
    Nebenbei: Jedes Schwarze Loch ist durch nur 3 Kenngrößen komplett beschrieben: Masse, Rotation und elektrische Ladung.
     
    Das gewaltigste uns bisher bekannte Schwarze Loch liegt im Zentrum der Galaxie M87 und ist 6.6 Milliarden mal so schwer wie unsere Sonne.
     
     
     
    Quelle aller wesentlichen Aussagen dieses Artikels: Michio Kaku: Die Physik der unsichtbaren Dimensionen (Rohwohlt 2013), S. 353-359
     
    Das Gegenstück zum Schwarzen Loch — z.B. in einem Wurmloch — bezeichnet man auch als Weißes Loch. Wurmlöcher und Weiße Löcher sind recht instabile Singularitäten der Allgemeinen Relativitätstheorie. Siehe auch, wie ein Astronom die Frage What is a white hole? beantwortet sowie die Aussagen auf Seite 63 in Schwarze Löcher.
     
    Interessantes sagt auch die Seite What is the density of a black hole?. Man liest dort: » The escape speed at the Schwarzschild radius is equal to the speed of light, and the value of the Schwarzschild radius works out to be about 3 • 105 • M/Msun , where M is the mass of the black hole and Msun is the mass of our Sun. «


     

     Beitrag 0-150
    Wie es zum heutigen Zustand unseres Universums kam

     
     

     
    Vom Urknall hin zum heutigen Zustand unseres Universums

     
     
    Unter dem Urknall versteht man das Ereignis, in dem die Expansion des kosmischen Raumes um uns herum seinen Anfang nahm.

      Viele vermuten, dass erst der Urknall das Universum geschaffen hat.
       
      Sicher aber ist das nicht — es könnte schon vorher existiert haben, z.B. als der sich ständig unter der Gravitationskraft weiter kompaktifizierende Kern eines ganz besonders gewaltigen Schwarzen Lochs.
       
      Die moderne Physik jedenfalls geht — vor allem der Quantenmechanik wegen — keineswegs mehr von einer Singularität aus, nicht einmal von einem notwendiger Weise extrem kleinen Universum, sondern von einem extrem dichten.

     
    In diesem unglaublich dichten Zustand hatte es damals, zu Beginn des Urknalls, unvorstellbar hohe Temperatur.
     
    Die aber war, wie die große vereinheitlichende Theorie (GUT — Grand Unified Theory) annimmt, schon 10-38 sec nach dem Urknall
    auf 10-29 Grad Kelvin gefallen. Grund hierfür war die damals noch ganz extrem starke Expansion des Raumes.
     
    Bis dahin, so glaubt man, gab es nur zwei Grundkräfte im Universum: Die Gravitationskraft und die GUT-Kraft. Aus letzterer entstanden — bei etwa 1020 Grad Kelvin — die starke und die elektroschwache Kraft.
     
    Diese Aufspaltung habe ungeheuere Mengen von Energie freigesetzt, so dass es zu einem inflationsartigen Ansteigen der Expansionsgeschwindigkeit des Raumes kam: Der durch Menschen heute beobachtbare Teil des Universums hat dabei seinen Durchmesser, der zunächst kleiner als der eines Atoms war, fast schlagartig auf den des heutigen Sonnensystems anwachsen lassen.
     
      Während dieser inflationären Phase (die die GUT-Ära beendete) wuchsen einst quantenmechanisch bedingte kleinste Energiefluktuationen zu jenen gleichmäßig im ganzen Raum verteilten Dichteunterschieden heran, wegen derer sich später Gaswolken, Galaxien und Filamente bilden konnten — letzlich auch Sterne und kleinere, dunkle Himmelskörper.
       
      Nebenbei: Filamente sind die gewaltigsten Strukturen im All. Sie erinnern an die Fäden eines Spinnennetzes und bestehen aus kettenförmig angeordneten großen Materie-Ansammlungen: Galaxien und ganzen Clustern von Galaxien.
       
      Der Raum zwischen diesen Fäden ist praktisch frei von Materie (sog. Voids = leere Bereiche).

     
    Als die Temperatur dann — so etwa 10-10 sec nach dem Urknall — auf nur noch 1015 Kelvin gefallen war, bildeten sich W- und Z-Bosonen — es begann die sog. elektroschwache Ära.
      Dies ist keine reine Vermutung mehr, sondern konnte im derzeit weltweit mächtigsten Teilchenbeschleuniger (am CERN) schon 1983 tatsächlich rekonstruiert werden. Genau deswegen gilt es inzwischen als erwiesen, dass die weitere Entwicklung des Universums — die bis hin zu 380.000 Jahren nach dem Urknall — tatsächlich die folgende war (für die Zeit danach dokumentierte uns der 1969 entdeckte kosmische Mikrowellen- Hintergrund das Geschehen).

     
    Das Auftauchen von W- und Z-Bosonen hat die elektroschwache Kraft zerlegt in das, was wir heute als schwache Wechselwirkung einerseits und als Elektromagnetismus andererseits kennen.
     
    Es begann jetzt — etwa 1 Millisekunde nach dem Urknall — die sog. Hadronen-Ära . Hierunter versteht man die Zeit, in der sich Quarks, und zunehmend stabiler auch Protonen und Neutronen bilden konnten. Materie also. Genauer:
     
      Während der Hadronen-Ära war die Energiedichte noch hoch genug, um aus Licht Protonen und Antiprotonen entstehen zu lassen sowie andere Leptonen. Zunächst aber haben sie sich stets fast sofort gegenseitig wieder vernichtet oder sind zu Licht geworden. Erst bei einer Temperatur von etwa 1013 Kelvin schlossen sich Quarks endgültig zu Protonen und Neutronen zusammen.
       
      Damals, so scheint es, kam es dann auch zu einer Asymmetrie zwischen der Zahl von Teilchen und Antiteilchen: Pro 1 Mrd. Teilchen-Antiteilchen-Paare muss es etwa 1 Teilchen gegeben haben, das keinem solchen Paar zuzuordnen war.
       
      Bei später noch etwa 1011 Kelvin waren Protonen und Neutronen etwa gleich oft anzutreffen. Schließlich aber überwog die Zahl der Protonen, denn da Neutronen eine Idee schwerer sind, muss für die Wandlung eines Protons in ein Neutron Energie ausgewandt werden, wohingegen die Rückwandlung Energie freisetzt. Und so führte die Abkühlung dazu , dass plötzlich keine Neutronen mehr aus Protonen gebildet wurden, umgekehrt aber weiter Protonen aus Neutronen entstanden. Damit waren die positiv geladenen Teilchen binnen weniger Minuten, nachdem die Temperatur unter 1010 Kelvin gefallen war, in der Überzahl.

     
    Da die Halbwertszeit freier Neutronen aber nur 15 Min beträgt, entschieden sich die meisten davon, zusammen mit Protonen einen Heliumkern zu bilden oder eines der Wasserstoffisotope Tritium oder Deuterium. Dies war der Beginn der Nukleosynthese-Ära.
     
      Helium entsteht, wenn 4 Protonen sich mittels Kernfusion zusammentun. Die aber kommt nur zustande, wenn Druck und Temperatatur die störrischen Wasserstoffatome dazu zwingen, gemeinsam einen Heliumkern zu bilden. Orte, an denen das heute noch passiert, sind die heißen und dichten Kerne von Sternen.
       
      Sterne gab es währen der ersten 3 Min aber noch keine — genügend heiß und dicht aber wares damals (bei eztwa 1011 Kelvin durchaus.
       
      Ganz von selbst also beganen sich einige der vorhandenen Wasserstoffkerne zu Heliumkernen zu wandeln. Dies hieklt an, bis die Temperatur auf 109 und entsprechend die Dichte auf 1013 Gramm pro Kubukzentimeter abgefallen war.
       
      Zu diesem zeitpunkt also war die chemische Zusammensetzung unseres Universums im Großen und Ganzen besiegelt.

     
    Selbst heute noch besteht die Materie im All weitestgehend aus den beiden Elementen, die schon am Ende der Nukleosynthese-Ära vorlagen: zu rund 75% aus Wasserstoff und zu rund 25% aus Helium.
     
    Nur ein verschwindend geringer Anteil dieser Elemente ist inzwischen — durch sich zunehmend kompaktifizierende Sterne — in schwerere Elemente umgewandelt worden (für Details siehe den Todeskampf der Sterne).
     
     
    Wie aber kam es zu dem Zustand, den wir heute noch in der kosmischen Mikrowellen-Hintergrund-Strahlung (CMB) abgebildet sehen?
     
    Hier die Antwort: Zu Beginn der Nukleosynthese-Ära — als das All noch 1011 Kelvin heiß war — wurden entstehende Materieteilchen ständig von ordentlich energie-geladenen Gammaphotonen getroffen und so recht oft wieder in ihre Einzelteile zerschlagen. Weitere Abkühlung des Alls hat diese Gammaphotonen dann zu rotem Licht werden lassen. Genau diese Photonen sind heute — der Expansion des Raumes wegen inzwischen zu 2.73 Kelvin kalten Mikrowellen geworden — die kosmische Hintergrundstrahlung. Sie zeigt uns die Verteilung der Energiedichte im All, wie sie
    • etwa 380 000 Jahre nach dem Urknall vorlag
    • und letztlich die heute im All realisierte großräumige Verteilung von Materie verursacht hat:

     
     

     
    Die Lage der Filamente — das sind die heute großräumigsten Strukturen im All —
    lässt sich grob auch der kosmischen Hintergrundstrahlung entnehmen.
    Sie entstand etwa 380 000 Jahre nach dem Urknall: zu jener Zeit als das Licht sich zunehmend ungehindert ausbreiten konnte.

     
    Source: The Berkeley Lab
     
    Anisotropies in the cosmic microwave background, originating when the universe was less than 400,000 years old,
    are directly related to variations in the density of galaxies as observed today.

     
     
    Es war dies die Zeit, zu der das Licht laufen lernte (sprich: sich erstmals fast ungehindert ausbreiten konnte).
     

    Vorher hat es sich — ganz so wie heute noch im Inneren der Sterne — ständig nur auf Zick-Zack-Kurs bewegt: Ständiger Zusammenstoß der Photonen mit geladenen Teilchen hat verhindert, dass sich Licht über größere Strecken geradlinig ausbreiten konnte.

     
     
     
    Quelle: Daniela Leitner: Als das Licht laufen lernte (Bertelsmann 2013, Seite 702-741)


     

     Beitrag 0-367
    Kosmische Strahlung: Das All durchquerende extrem stark beschleinigte Ionen

     
     

     
    Kosmische Strahlung

    kommt bei uns an als sog. » Höhenstrahlung «

     
     
    Schon um 1900 war sog. » Höhenstrahlung « bekannt, ihrer Natur nach aber noch nicht verstanden. Ab 1912 hat man entdeckt, dass sie mit zunehmender Höhe nicht abnahm, sondern sogar noch deutlich intensiver wurde.
     
    Was die Natur der ursprünglich für energiereiche Gammastrahlung gehaltenen Teilchen anbelangt, so wurde die erst bekannt, nachdem in den 1930-er Jahren verbesserte Messmöglichkeiten zur Verfügung standen.
     
    Es zeigte sich, dass jene » kosmische Strahlung « aus Protonen, Elektronen und ionisierten Atomen besteht. In Labors sind sie nicht mehr nachweisbar, da sie beim Durchqueren der Erdathmosphäre Wechselwirkungen auslösen, die zur Metamorphose jener Primärstrahlung in eine aus anderen Partikeln zusammengesetzte Sekundärstrahlung führen.
     
    Die Erforschung der kosmischen Strahlung zählt heute zu einem recht spannenden Themenbereich der Astrophysik und ist noch lange nicht abgeschlossen.
     
    Bei den meisten Atomkernen handelt es sich um Protonen (87%) und Heliumkerne. Nur etwa 1 Prozent sind schwerere Elemente.
     
    Sie kommen keineswegs nur von der Sonne. Die Milchstraße steuert ebenso viel bei, doch der interessanteste Teil — unglaublich hochenergetische Teilchen — kommt aus den Tiefen des Universums. Letztere verfügen über Energien von bis zu 1020 eV und sind damit deutlich energiereicher als alles, was heute in Beschleuniger-Anlagen wie dem CERN produzierbar ist: Ein einziges solch hochbeschleunigtes Proton kann ebenso viel Energie haben wie ein Stein von 1 kg Masse, wenn er von der Spitze des Eiffelturms geworfen am Boden aufschlägt. Es ist dies das 1027-fache seiner Ruhemasse.
     
    Welche Mechanismen zu derart stark beschleunigten Teilchen führen ist heute erst im Ansatz bekannt. Supernovae dürften einen großen Teil davon produzieren. Die in ihren Schockwellen mitgeführten Magnetfelder können den Teilchen Energien bis 1018 eV verleihen (so argumentierte Enrioco Fermi 1949). Die noch energiereicheren kommen ganz sicher von außerhalb der Milchstraße und könnten beim Zusammenstoß von Galaxien entstehen.
     
     
    Quelle: Dieter B. Herrmann: Das Urknall-Experiment (2014), S. 216-220


     

     Beitrag 0-62
    Die Raumzeit der M-Theorie hat 10 (= 9+1) Dimensionen

     
     

     
    Die Raumzeit der Stringtheorie

     
     
    Stringtheorie gilt als derzeit aussichtsreichster Kandidat für eine Theorie, die wirklich alle 4 Grundkräfte der Natur berücksichtigt und deswegen Einsteins Gravitationstheorie, die Quantenelektrodynamik und das Standardmodell der Elementarteilchenphysik zu einer einzigen, in sich widerspruchslosen Theorie verallgemeinert.
     
    Der mathematische Mechanismus, auf dem sie beruht, legt nahe,
     
    dass ihre Gegenstände in einer Raumzeit leben, die nicht nur 3, sogar sogar 9 räumliche Dimensionen hat.

     
    Es gibt zwei Möglichkeiten, die Existenz jener Zusatzdimensionen erklärbar zu machen:

       
    • Entweder könnten 6 der Raumdimensionen zusammengerollt sein (im Sinne der Kaluza-Klein-Theorie, über die Einstein bis zu seinem Tode ohne Erfolg immer wieder nachgedacht hat).
       
    • Es könnte aber auch so sein, dass die Raumzeit, in der wir leben, einen echten  T e i l r a u m  der Raumzeit der Stringtheorie darstellt: eben einen mit weniger Dimensionen.
       
    • Selbst eine Mischung beider Möglichkeiten wäre denkbar.

     
    Gegen die zweite Alternative spricht, dass alle bisher durchgeführten Messungen beweisen, dass die Kraft der Gravitation — mindestens bis hinunter auf Abstände von 1/10 mm — proportional zum Quadrat des Abstandes beider Massen ist.
     
     
    Bis 1994 hatte man noch ein zusätzliches Problem: Man kannte 5 verschiedene Varianten der Stringtheorie — und hatte keine Hinweise darauf, welche besser als die jeweils anderen zur Physik unserer Welt passen könnte. 1994 aber platzte eine Bombe:
     
    Edward Witten und Paul Townsend fanden Hinweise darauf, dass jede dieser 5 Theorien (und zudem noch ein weitere, von Witten bei dieser Gelegenheit entdeckte) einfach nur recht eingeschränkte Sichten auf eine allgemeinere Theorie waren, die der Raumzeit statt 10 sogar 11 Dimensionen zuerkennt.


    Michio Kaku (2008):
     
    Um sich das besser vorstellen zu können, denken Sie an einen Wasserball, um dessen Äquator ein Gummiband gelegt ist. Nehmen Sie nun eine Schere und schneiden Sie den Ball zweimal dem Gummiband entlang durch, so dass seine obere und seine unter Halbkugel abgetrennt werden und nur der vom Gummiband überdeckte Teil bleibt — der entspricht dann einem String im Sinne einer der vorher bekannten Varianten der Stringtheorie.
     
    Die 11-te Dimension übrigens bescherte uns zudem noch die Einsicht, dass es nicht nur 1-dimensionale Strings, sondern daneben auch mehrdimensionale gibt (sog. Branen) und dass unser Universum gut einer der mindestens (3+1)-dimensionalen Branen entsprechen könnte.
     
    Es müssten dann gar nicht alle der zusätzlichen Dimensionen der stringtheoretischen Raumzeit in sich zusammengerollt (also endlich) sein).
     


    Die so gefundene Verallgemeinerung aller 5 Stringtheorien bekam den Namen M-Theorie.
     
    Wie die Stringtheoretiker sagen, finden sich sämtliche Elementarteilchen dort wieder als die Schwingungszustände der Strings und Branen.

     
     
    Ab etwa 10-13s nach dem Urknall sind moderne Teilchenbeschleuniger in der Lage, die Situation des frühen Universums zu simulieren. Man weiß daher genau, welche Teilchen ab da auftraten, nämlich alle Teilchen des Standardmodells. So früh allerdings existierten noch keine Verbindungen zwischen Quarks, da die Temperatur des Alls (und damit die Energie der Teilchen) noch zu hoch war.

     

     Beitrag 0-94
    Was sind Strings und Branen im Sinne der Stringtheorie?

     
     

     
    Was ist ein String im Sinne der Stringtheorie?

     
     
    Jeder String im Sinne der Stringtheorie (genauer: der M-Theorie) ist eine Menge von Schwingungen eines p-dimensionalen Kraftfeldes, 1 ≤ p ≤ 9, das zeitabhängige Lage und Form hat. Kurz:
     
     
    Ein p-String ist ein in p Dimensionen schwingendes, sich durch die Zeit bewegendes Kraftfeld.

     
     
    Im Falle 2 ≤ p nennt man solche Strings dann auch Branen (man denke an schwingende Membranen, wobei die Brane, der String also, aber kein schwingendes Material ist, sondern rein nur die Summe der möglichen Schwingungsmuster eines ihm zugeordneten zeitabhängigen Kraftfeldes im 9-dimensionalen Raum, d.h. der 10-dimensionalen Raumzeit der M-Theorie oder der Superstringtheorie.
     
    Ganz so wie z.B. Wellen in einem Teich sich überlagern können (man spricht dann von Wellenpaketen), können auch Strings — als Summe von Wellen bestimmter Wellenlängen im Kraftfeld, das man das Vakuum nennt — einander überlagern:
     
     
     
    Strings and their World Sheets - how Strings can merge and split
     
    Wie Strings einander durchdringen können
     
    Quelle: Universe Review

     
     
     
     
    Im Vakuum enstehen solch schwingende Kraftfelder spontan (jedenfalls soweit Physiker das erkennen können).
     
    Da Strings — als Fäden oder Membranen betrachtet — offenbar endliche Ausdehnung haben, können sie nicht Wellen jeder beliebigen Wellenlänge enthalten (ganz so, wie man das ja auch von den Saiten eines Musikinstruments her kennt). Nochmals aber: Bei einer Saite oder einer Membran schwingt das Material, aus dem sie besteht, Strings aber kennen nichts, was diesem Material entspräche. Was da schwingt ist eine durch Feldgleichungen definierte Linie oder Fläche, und das Feld, um das es dabei geht, ist ein Feld von Kräften.
     
     
    Nebenbei: Im Prinzip gibt es Stringtheorien mit beliebig vielen Dimensionen. Wie sich aber herausgestellt hat, sind solche Theorien nur dann renormierbar, wenn die ihnen zugrundeliegende Raumzeit 10 oder 26 Dimensionen hat (die Zeit jeweils eine davon).
     
    Heute (2015) betrachten die Stringtheoretiker vor allem supersymmetrische 10-dimensionale Varianten der Stringtheorie.

     

     Beitrag 0-249
    Warum Stringtheorie? Und welche Schwierigkeiten sind mit ihr verbunden?

     
     

     
    Stringtheorie:

    Warum und mit welchen Schwierigkeiten

     
     
    Was Stringtheorie so interessant macht, ist die Tatsache, dass sie
       
    • uns die Existenz von Gravitonen nahelegt (Bosonen, welche Träger der Gravitationskraft sind — der Kraft also, der bis heute weder die Quantenphysik noch das Standardmodell der Elementarteilchen in irgend einer Weise Rechnung trägt.
       
    • Angesichts der mehr als 20 vom Standardmodell benötigten, aber nicht erklärten Konstanten, macht es Hoffnung, dass die Stringtheorie gar keine "vom Himmel fallende" Naturkonstanten benötigt: Jedes Herumbasteln an der Theorie erübrigt sich:
       
      Wir können lediglich ihren mathematischen Aufbau erschließen und prüfen, ob er die reale Welt treffender modelliert als alle bisher bekannten Theorien.

    Leider ist die Mathematik der Stringtheorie überaus kompliziert: Noch heute — nachdem nun schon 25 Jahre lang Hunderte begabter Physiker und Mathematiker damit gerungen haben —, sind wir weit davon entfernt, die Theorie bis ins Letzte verstanden zu haben oder auch nur kurz und übersichtlich aufschreiben zu können.
     
    Forschungsarbeiten haben eine mathematische Struktur von ganz unerwartetem Reichtum zutage gefördert. Physiker nehmen dies als Hinweis, dass sie sich wahrscheinlich auf dem richtige Weg befinden:
       
    • Der Gedanke, sämtliche Elementarteilchen könnten Schwingungszustände von Strings sein, kam 1970 Holger Nielsen und Leonard Susskind.
       
    • Dass einer dieser Zustände sogar Gravitonen modelliert, entdeckten 1974 John Schwarz und Joel Scherk.
       
    • Zusammen mit Michal Green hat Schwarz dann — abseits aller anderen Physiker — rund 10 Jahre zur Klärung einiger mathematischer Feinheiten benötigt.
       
    • Erst dann wurde die Stringtheorie so populär, dass sich über Jahre hinweg Hunderte von Physikern damit beschäftigt haben.
       
    • Nachdem sie 1998 schon fast aufgeben wollten, konnte Edward Witten zeigen, dass die bis dahin entstanden 5 Varianten der Stringtheorie Grenzfälle einer einzigen Theorie — sog. M-Theorie — sind.
       
    • Seitdem allerdings, hat sich trotz zunächst großer Euphorie kein weiterer Fortschritt ergeben.

     
    Wissen sollte man auch:
       
    • Trotzdem die Stringtheorie — als Theorie — nur einen einzigen Parameter hat (die sog. Kopplungskonstante), hat jede ihrer Lösungen sehr viele Parameter. Sie alle zu berücksichtigen führt in jeder Lösungen auf mehrere hundert von einander unabhängige Freiheitsgrade.
       
    • Nach grober Schätzung modellieren all diese Lösungen mindestens 10500 Vakua.
       
    • Bousso und Polchinski verknüpften diese Vielfalt möglicher Welten mit den Ideen der Theorie ewiger Inflation und kamen so zum Schluss, dass sich innerhalb des inflationär expandierenden falschen Vakuums Blasen bilden, in denen die Energiedichte geringer, die inflationäre Expansion des Raumes also deutlich langsamer ist. In diesen Blasen — so glauben sie — entstehen dann weiter Blasen mit noch niedriger Energiedichte bis hin zu solchen, die in ihrer Qualität unserem Universum zur Zeit des Urknalls entsprechen.
       
      Im Unterschied zu Allgemeinen Relativittätstheorie — nach der die Raumzeit 3+1 Dimensionen hat — hat die Raumzeit der Strinmgtheorie 9+1 Dimensionen, von denen aber 6 kompaktifiziert sind.
       
      Beispiel dazu: Ein Faden scheint aus großer Ferne betrachtet nur eine Dimension zu haben (die ihm Länge gibt). Erst wer genauer hinsieht, bemerkt eine zweite, recht kleine, von Ferne nicht wahrnehmbare Dimension: Sie ist zu einem Kreis aufgerollt (kompaktifiziert, wie die Mathematiker sagen). Sie steht senkrecht auf der nicht kompaktifizierten und macht die Oberfläche des Fadens zu einem beliebig langen Zylinder, dessen Radius der halben Stärke des Fadens entspricht, also endlich (kompakt im topologischen Sinne) ist.
       
      Die unterschiedlichen Charakteristika der etwa 10500 durch die Stringtheorie modellierten Welten ergeben sich aus den verschiedenen Möglichkeiten, für 6 der 1+9 Dimensionen der stringtheoretischen Raumzeit Kompaktifizierung zu erreichen.
       
      Hier der Grund, warum es zu derart vielen Möglichkeiten kommt:
       
      Eine einzige Dimension ließe sich nur auf genau eine Art kompaktifizieren: zu einer Ringform (wie beim Faden im Beispiel). Aber schon wenn es etwas 2-Dimensionales zu kompaktifizieren gilt, bestehen mehrere Möglichkeiten: Ergeben können sich eine Kugeloberfläche, eine Torus-Oberfläche oder etwas, das an die Oberfläche aneinander klebender Brezen erinnert. Bei Kompaktifizierung eines Raumes mit drei oder noch mehr Dimensionen steigt die Anzahl möglicher Formen um ein Vielfaches.
       
      Die Eigenschaften stringtheoretisch modellierter Elementarteilchen hängen stark ab von der Art und Weise, in der man sich die 6 zusätzlichen Raum­dimensionen kompaktifiziert denkt.

       

     Beitrag 0-95
    Die wesentlichen Vorzüge der Stringtheorie (nach Michio Kaku)

     
     

     
    Die wesentlichen Vorzüge der Stringtheorie
     
    erklärt durch den Stringtheoretiker Michio Kaku

     
     
    Die Stringtheorie hat den entscheidenden Vorteil, dass sie das Wesen der Materie — und auch das der Raumzeit — erklären kann:
     
    Sie beantwortet eine ganze Reihe höchst verwirrender Fragen über Elementarteilchen, darunter auch die Frage, warum es so viele gibt.
     
    Und tatsächlich: Je mehr wir die Welt der subatomaren Teilchen erforschen, desto mehr finden wir. Bislang sind mehrere hundert bekannt, und die Auflistung all ihrer Eigenschaften füllt Bände.
     
    Die Stringtheorie kann ihre Existenz erklären, mehr noch: Sie sagt uns, dass es letztlich unendlich viele gibt, denn sie seien Schwingungsmoden des Strings (sog. Resonanzen):
     
    Ein subatomares Teilchen erscheint uns nur deswegen als punktförmig, weil die Strings so extrem klein sind (nur etwa eine Plancklänge groß). Gäbe es aber ein Mikroskop, welches uns erlauben würde, so genau hinzusehen, würden wir das Teilchen als solche Schwingung erkennen. Kurz:
     
    Jedes subatomare Teilchen entspricht einer Schwingung des Strings, deren Wellenlänge sie zu einer  R e s o n a n z  macht.
     
      Der Begriff der Resonanz ist uns aus dem alltäglichen Leben bekannt. Denken Sie z.B. an das Singen unter der Dusche: Mag unsere Stimme auch noch so unsicher und brüchig sein, in der Abgeschiedenheit unseres Duschraums kann sie klingen wie die eines Opernstars. Es werden nämlich die Schallwellen zwischen den Wänden der Dusche rasch hin und her geworfen, was dazu führt, dass Schwingungen, die leicht in die Abmessungen der Dusche passen, viele Male verstärkt werden und so hallenden Klang hervorrufen. Diese besonderen Schwingungen bezeichnet man als Resonanzen. Sie addieren sich, während alle anderen — deren Wellen falsche Länge haben — sich selbst (durch ihre Reflexionen) aufheben.
       
      Oder stellen Sie sich eine Violinsaite vor. Sie kann mit verschiedenen Frequenzen schwingen und dabei musikalische Töne A, B, C usw. hervorbringen. Überleben können nur die Modi, die an den Enpunkten der Saite verschwinden und mit ganzzahliger Häfigkeit zwischen den Endpunkten schwingen.
       
      Im Prinzip kann die Saite mit einer unendlichen Zahl verschiedener Frequenzen schwingen.
       
      Wir wissen also, dass die Töne, die wir hören, nicht fundamental sind. Der Ton A hat nicht grundsätzlicheren Charakter als der Ton B. Wenn wir verstehen, wie eine Saite schwingt, begreifen wir sofort die Eigenschaften unendlich vieler musikalischer Töne.

    Und so ist auch  k e i n e s  der subatomaren Teilchen wirklich fundamental. Als fundamental (nicht weiter teilbar) erscheinen sie uns nur, da unsere Mikroskope nicht stark genug sind, uns ihre Struktur zu zeigen.
     
    Tatsächlich sagt uns die Stringtherie, Materie sei nichts weiter als die von diesen schwingenden Strings geschaffenen Harmonien. Und ganz so, wie es eine unendlich viele harmonien gibt, die sich beispielsweise für die Geige komponieren lassen, gibt es auch unendlich viele Materieformen, die sich aus schwingenden Strings konstruieren lassen. Sie alle zu kennen, ist demnach unmöglich.
     
    Insbesondere lassen sich die Gesetze der Physik gut vergleichen mit den Harmoniegesetzen, die sich allein aus den Schwingungsmöglichkeiten einer Violinsaite ergeben. So gesehen ist das gesamte Universum — als Menge schwingender Strings — mit einer Symphonie vergleichbar.
     
     
    Aber nicht nur die Beschaffenheit subatomarer Teilchen, auch die Beschaffenheit der Raumzeit selbst kann die Stringtheorie erklären:
     
    Wenn sich ein String durch die Raumzeit bewegt, tut er das in einer komplizierten Bewegungsfolge, die einer großen Zahl von Konsistenzbedingungen gehorchen muss. Sie sind so zwingend, dass sie die Raumzeit außerordentlich restriktiven Bedingungen unterwerfen. Und so kann der String sich nicht völlig beliebig — wie ein Punkt — durch den Raum bewegen:
     
      Er kann sich in kleiner Strings aufteilen oder mit anderen Strings zusammenstoßen und längere Strings bilden. Erstaunlicher Weise aber sind all diese Schleifendiagramme endlich und berechenbar. Dies macht die Stringtheorie zur ersten Quantentheorie der Gravitation in der Geschichte der Physik, die endliche Quantenkorrekturen besitzt.
       
      Keine der früher bekannten Theorien — weder Einsteins Gravitationstheorie, noch der Kaluza-Klein-Theorie, und auch nicht der 11-dimensionalen Supergravitationstheorie — kommt diese schöne Eigenschaft zu.

     
    Als man die Einschränkungen, die der String der Raumzeit auferlegt, erstmals berechnete, stellt man voller Erstaunen fest, dass sich aus dem String Einsteins Gleichungen ergaben.
     
    Das war äußerst bemerkenswert: Ohne eine einzige dieser Gleichungen vorauszusetzen, erlebte man, wie sie sich von selbst aus der Stringtheorie ergaben. Dies zeigt, dass sie nicht fundamental sein können.
     


    Kaku schreibt zusammenfassend:
     
    Auf diese Weise erhalten wir eine umfassende Theorie sowohl der Materie-Energie als auch der Raumzeit. Und die Einschränkungen sind konsistent und überaus streng:
     
    Beispielsweise verbieten sie dem String, sich in 3 oder 4 Dimensionen zu bewegen. Einzig und allein 10 und 26 sind erlaubt. Zum Glück aber bietet die in diesen Dimensionen definierte Stringtheorie genügend Freiheitsgrade, um alle fundamentalen Kräfte zu vereinigen [ alle wirklich gegebenen Symmetrien zu erkennen ].
     
    Und so scheint die Stringtheorie vielseitig genug, um alle fundamentalen Naturgesetze zu erklären. Von der einfachen Theorie eines schwingenden Strings ausgehend, kann man neben Einsteins Theorie auch die von Kaluza-Klein, die Supergravitation, das Standardmodell und sogar die GUT ableiten.
     
    Man muss es wohl als Wunder bezeichnen, dass man alle Errungenschaften der Physik der letzten 2000 Jahre aus rein geometrischen Argumenten, den möglichen Bewegungen eines Strings, wiedergewinnen kann.
     


     
    Quelle: Michio Kaku: Die Physik der unsichtbaren Dimensionen, Rohwohlt 2013, S. 244-248


     

     Beitrag 0-171
    Dualitäten zeigen die Verwandtschaft supersymmetrischer (String-) Theorien

     
     

     
    The Dualities of M-Theory

     


    Michio Kaku remembering die 2nd String Revolution:
     
    First indications that duality might apply in string theory were found by K. Kikkawa and M. Yamasaki of Osaka Univ. in 1984. They showed that if you "curled up" (compactified) one of the extra dimensions into a circle with radius R, the theory was the same as if we curled up this dimension with radius 1/R.
     
    This is now called T-duality: Torus of radius R is equivalent to Torus of radius 1/R.

       
      When applied to various superstrings, one could reduce 5 of the string theories down to 3. In 9 dimensions — with one dimension curled up — the Type IIA and IIB strings were identical, as were the E(8) × E(8) and O(32) strings.
       
      Unfortunately, T duality was perturbative.

     
    The next breakthrough came when it was shown that there was a second class of dualities, called S-duality, which provided a duality between the perturbative and non-perturbative regions of string theory.

       
      The existence of S-duality in string theory was first proposed by the Indian physist Ashoke Sen in 1994. One year later Witten saw
      that type IIB string theory with the coupling constant g is equivalent — via S-duality — to the same string theory with the coupling constant 1/g.
      Similarly, type I string theory with the coupling g is equivalent to the SO(32) heterotic string theory with the coupling constant 1/g.
       
      Unlike the T-duality, however, S-duality has not been proven to even a physics level of rigor for any of the aforementioned cases. It remains — strictly speaking — a conjecture, although most string theorists believe in its validity. (Wikipedia)

     
    Another duality, called U-duality, is even more powerful: The U-duality group of a given string theory is a group which comprises T- and S-duality and embeds them into a generally larger group with new symmetry generators.

       
      The main example is the system type IIA/IIB in d ≤ 8 on T10-d (T for Torus).
       
      These two 10-dimensional theories are different limits of a single space of compactified theories, which are called the moduli space of type II theory (meaning all compactifcations of type IIA and IIB).

     
    Then Nathan Seiberg and Witten showed how another form of duality could solve for the non-perturbative region in four dimensional supersymmetric theories.
     
    What finally convinced many physicists of the power of this technique was the work of Paul Townsend and Edward Witten: They caught everyone by surprise by showing a duality between 10-dim Type IIa strings and 11-dim supergravity! The non-perturbative region of Type IIa strings, which was previously a forbidden region, was revealed to be governed by 11-dim supergravity theory, with one dimension curled up.

       
      At this point, I remember, many physicists — myself included — were rubbing our eyes, not believing what we were seeing.
      I remember saying to myself, "But that’s impossible!"

     
    All of a sudden, we realized that perhaps the real "home" of string theory was not 10 dimensions, but possibly 11, and that the theory wasn’t fundamentally a string theory at all! This revived tremendous interest in 11 dimensional theories and p-branes. Lurking in the 11th dimension was an entirely new theory which could reduce down to 11-dim supergravity as well as 10-dim string theory and p-brane theory.
     
    Vafa added a strange twist to this when he introduced yet another mega-theory, this time a 12-dimensional geometric, non-perturbative version of stringtheory called F-theory (F for "father") which explains the self-duality of the IIB string. Though F-theory is formally a 12-dimensional theory, the only way to obtain an acceptable background is to compactify it on a two-torus. By doing so, one obtains type IIB superstring theory in 10 dimensions.
     
    So, will the final theory have 10, 11, or 12 dimensions?
     
    Schwarz feels that the final version of M-theory may not even have any fixed number of dimensions. He feels that the true theory may be independent of any dimensionality of space-time, and that 11 dimensions only emerge once we try to solve it.
     
    Townsend seems to agree, saying "the whole notion of dimensionality is an approximate one that only emerges in some semiclassical context".
     
    Witten believes
       
    • that the underlying degrees of freedom of M-theory are yet to be discovered,
       
    • that we are on the right track,
       
    • but will need a few more "revolutions" to finally solve the theory. So far (2013) there are no signs yet that the next one will occur very soon.

     
    Source: Michio Kaku, see also Dieter Lüst, section 1.3.2
     


     
    Kaku says "F-Theorie is rather strange: it has two time coordinates, not one, and actually violates 12 dimensional relativity".
     
    This contradicts Wikipedia, where we read "F-theory has metric signature (11,1). It is not a two-time theory of physics".
     
    Who is right?


     

     Beitrag 0-172
    Woher kommt die Vielfalt der Lösungen der Stringtheorie?

     
     

     
    Die Landschaft der Lösungen der M-Theorie

     
     
    Jede konkrete Quantenfeldtheorie (QFT) ist definiert sich durch eine Wahl von Feldern und ihnen unterstellter Symmetrien.
     
    Ganz anders in der Stringtheorie: Um hier ein bestimmtes physikalisches Modell zu erhalten, wählt man die Art der Strings, die man dem Modell zugrunde legen möchte. Es gibt derzeit nur 5 Alternativen hierfür, und die Dualitäten der M-Theorie zeigen, dass sie sämtlich äquivalent zueinander sind:
     

     
     
    Per M-Theorie zueinander äquivalente Stringtheorien

     

     
     
    In der Feldtheorie kommt hinzu, dass es zwar unendlich viele Möglichkeiten gibt, die Stärke der Kopplungskonstanten zu wählen, man aber natürlich stets durch die Experimentalphysik erarbeitete, gemessene Werte nehmen wird. Dies passt die QFT ganz automatisch der Welt an, in der wir leben.
     
    In der Stringtheorie ist das nicht so einfach: Hier nämlich kommt diese zweite Dimension der Wahlmöglichkeiten aus der Geometrie der versteckten Dimensionen,
    und so hat man hier ebenso viele Möglichkeiten, wie es Calabi-Yau-Räume gibt (symbolisch spricht man von etwa 10500, aber die genaue Zahl kennt natürlich niemand). Problem dabei: Niemand weiß, welcher dieser Räume denn nun der zu unserer Welt passende ist.
     
     
    Quelle: Joseph Polchinski: Dualities of Fields and Strings (2015)

     

     Beitrag 0-550
    Warum Stringtheorie uns nichts zu den Werten sog. Naturkonstanten in unserem Universum sagen kann

     
     

     
    Warum Stringthorie

    über ein konkretes Universum so gut wie nichts aussagen kann

     
     
    Wie Stringtheoretiker glauben erkannt zu haben, liefert die M-Theorie grob etwa 10500 Modelle für möglicherweise existierende Universen [was man wohl so zu verstehen hat, dass man sämtliche Kompaktifizierungen der versteckten Dimensionen als nur eine zählt, die sich – gerundet hin zur Planckskala – im Bereich unseres Universums bzw. irgend einer nur endlich großen Teilregion des gesamten, möglicherweise unendlich weiten Weltalls, nicht mehr unterscheiden].
     
    Die Aufgabe, in dieser dann immer noch unglaublich großen Menge von Modellen jenes zu finden, welches unser Heimat-Universum am genauesten beschreibt, erscheint allzu schwierig. Erste Schritte sie zu lösen, sind dennoch schon unternommen. Hier ein Beispiel:
     
    Das Standardmodell der Elementarteilchenphysik gruppiert schon beobachtete Elementarteilchen nach 3 Familien. Andererseits haben durch p-Branes dargestellte Elementarteilchen unter­schiedliche Eigenschaf­ten je nachdem welches Modell (der so überaus vielen) man zugrundelegt. Wirklich zu unserem Universum passen können also nur Modelle, die für die Elementarteilchen Eigenschaften postulieren, die denen ent­sprechen, die unsere Experimentalphysik bislang beobachtet hat. Eine dieser Eigenschaften entspricht der Gruppierung nach Familien, und etwas dazu Vergleichbares findet sich auch in den durch die M-Theorie erlaubten Weltmodellen: Die Form nämlich, die jedes solche Modell den im Quantenschaum auftre­ten­den Flächen zuordnet, bestimmt wesentlich die Eigenschaften der nach dem jeweiligen Modell möglichen Ele­mentarteilchen.
     
    Edward Witten sieht deswegen als mögliche Kandidaten für das Modell unseres Universums vor allem jene Modelle der M-Theorie, in denen (den 3 real beobachteten Familien von Elementarteilchen entsprechend) die Calabi-Yau-Mannigfaltigkeiten 3 lochartige Trichter aufweisen: Jene nämlich führen zu einer Familien­bildung der vom Modell vorhergesagten Elementarteilchen, die der entspricht, die wir vom Standardmodell her kennen.
     
    Nun: Selbst wenn man wirklich sehr gut passende Modelle findet, bedeutet das noch lange nicht, dass M-Theorie nicht Millarden weiterer kennt, die noch wesentlich besser passen.
     
     
    Insbesondere kann M-Theorie nicht dadurch ad absurdum geführt werden,
     
    dass in diesem oder jenem ihrer Modelle
     
    Widersprüche zur Realität unseres Universums gefunden werden.

     
    Hierdurch, so denke ich, wird es Physikern, die der Stringtheorie ablehnend gegenüberstehen,
     
    fast unmöglich werden, sich durchzusetzen.

     
     
    Umgekehrt scheint klar, dass der Weg hin zur Kenntnis der ersehnten Weltformel wohl auch mit Hilfe der M-Theorie von Menschen niemals wird zu Ende gegangen werden können. Neue Erkenntnisse schneller als bisher zu gewinnen, könnte sie aber wohl sicher helfen.
     
    Hinweis nebenbei: Es gibt Varianten der Stringtheorie, in denen Strings auch negative Energie haben können, womit sie dann Tachyonen wären – Teilchen also, die sich schneller als das Licht bewegen könnten. Da Physiker nicht an Tachyonen glauben, sehen sie diese Varianten der Stringtheorie als nicht sinnvoll an. Tatsächlich aber hat man die in entsprechenden mathematischen Ausdrücken auftretenden Minuszeichen wohl nur noch nicht der richtigen Größe zugeordnet (so wie es im heute als überholt geltenden Modell der Dirac Sea ja auch mal war).

     

      Beitrag 2049-13
    Wie es zur Entdeckung der Stringtheorie kam

     
     
    Henry aus 2049-8:
     
    Die Stringtheorie(n) wurde entwickelt, um das Problem der Vereinigung aller vier Grundkräfte zu lösen,


    Das ist nicht richtig, denn:

    • Man hat die Stringtheorie zunächst nicht gezielt entwickelt, sondern überaschender Weise im wahrsten Sinne des Wortes  g e f u n d e n : Der Physiker Gabriele Veneziano entdeckt 1968 zufällig einen Zusammenhang zwischen der Eulerschen Betafunktion und der starken Kernkraft. Zwei Jahre später wird das Konzept der Strings in 26 Dimensionen eingeführt (bosonische Stringtheorie).
    • Die Hoffnung, dass die Stringtheorie zur ersehnten Weltformel führen könnte, hatte man erst ab 1984 (sog. 1. String-Revolution), als niemand mehr der Theorie Anomalien vorwerfen konnte: Die wenigen Außenseiter, die sich davor mit Stringtheorie beschäftigt hatten, hatten Anomalien inzwischen beseitigen können.
      Es ist nicht klar, wer die Stringtheorie als erster mit dem Stichwort "Weltformel" oder "Vereinheitlichung aller Kräfte" in Beziehung gesetzt sah (es muss 1984 oder kurz davor der Fall gewesen sein). Ab dann aber — und wirklich  e r s t  ab dann — hat sich ein Großteil aller theoretischen Physiker damit befasst.

    Siehe auch: Stationen der Stringtheorie (1921 - 1996) in Wikibooks.

     

      Beitrag 2049-21
    M-Theory und mehr ...

     
     
    Irena aus 2049-18:
     
    Meines Wissens gibt es die Stringtheorie nicht. Es gibt mehrere Theorien, die teilweise sich wiedersprechen. Muss ich noch mal mein Büchlein über Stringtheorie in die Hand nehmen und mein wissen auffrischen. Mindestens erinnere ich nicht, dass dabei die Rede über andere Universen war.

    mfg


    Grundsätzlich, Irena, hast Du recht:

    Es gibt mehrere Varianten der Stringtheorie. Als letzter großer Fortschritt, den man gemacht hat, gilt jedoch:


    1995 zeigt Edward Witten, dass die fünf bis dahin bekannten Stringtheorien nur Teilstücke einer übergeordneten Theorie sind,

    die er M-Theorie nannte,

    die aber im Grunde bis heute nur bekannt ist als etwas, das sich — je nachdem, wie man mathematisch rangeht — in Form eines dieser 5 Teile zeigt
    ( plus noch einer Variante, die Witten damals gleich mit entdeckt hat ) .


    Wer also heute von "Stringtheorie" spricht, meint M-Theorie.

    Eine bestimmte Stringtheorie ist letztlich nichts anderes als physikalische Deutung einer algebraischen Struktur S.

    Nun weiß aber jeder Mathematiker: Sind S1 und S2 zwei algebraische Strukturen, so können die zueinander isomorph sein (womit sie dann — obgleich als Modell verschieden — als mathematischer Gegenstand ununterscheidbar sind: Worin sich zueinander isomorphe Strukturen unterscheiden ist lediglich Terminologie).

    Dieselbe zentrale Rolle, die in der Mathematik Isomorphie spielt, kommt in der Physik dem Begriff der Dualität zu.

    Zueinander duale Modelle sind nicht notwendig mathematisch isomorphe Modelle. Gerade in der Stringtheorie gibt es zueinander duale Modelle (solche also, die dieselbe Physik darstellen), die aber dennoch nicht mal in der Zahl der Dimensionen, die sie benötigen, übereinstimmen.

    Auf Seite 485 seines Buches "The Fabric of the Cosmos" sagt Brian Greene:

    Zitat:
     
    More and more, these clues point toward the conclusion that the form of spacetime is an adorning detail that varies from one formulation of a physical theory to the next, rather than being a fundamental element of reality.

    Much as the number of letters, syllables, and vowels in the word cat differ from those in gato, its Spanish translation, the form of spacetime — its shape, its size, and even the number of its dimensions — also changes in translation.
     

    Gruß, grtgrt
     

     Beitrag 0-60
    Quanten-Teleportation — Was bisher schon erreicht wurde

     
     

     
    Im Enstehen begriffene Techniken für Teleportation

     
     
    Wenn Physiker heute von Teleportation sprechen, verstehen sie darunter
     
    Genauer:
     
     
     
    Was Quanten-Verschränkung bedeutet


    Michio Kaku (2008):
     
    Wenn zwei Quanten (Photonen, Elektronen, oder andere) anfangs im Gleichtakt schwingen — man sagt dann, sie hätten  k o h ä r e n t e n  Zustand —, haben sie zueinander korrelierten Zustandswert, und Abänderung des Zustandes eines dieser Quanten führt automatisch und augenblicklich zur entsprechenden Abänderung des Zustandes aller anderen — selbst dann, wenn die Lichtjahre weit entfernt sind.
     
    Ursache hierfür ist, dass im Gleichtakt schwingende Quanten gleiche Wellenfunktion haben.
     
    Man nennt dieses Konzept » Quantenverschränkung «.
     

    Verschränkte Zustände beziehen sich stets auf individuelle Eigenschaften eines Systems, z.B. seinen Gesamtdrehimpuls.

     
     
    Erste  A n w e n d u n g e n  von Quantenverschränkung sind schon gelungen als:
    • sehr sichere Kryptographieverfahren, die ( so dachte man lange )  j e d e n  Angriff entdecken,
    • aber auch die gezielte, augenblickliche Synchronisation des Zustandes zweier Quanten (sog. Quanten-Teleportation):

     
     
     
    Quanten-Teleportation (Stand 2012)
     
     
    Man versteht darunter Wege, über Quanten-Verschränkung zu erreichen,
     
    dass örtlich beliebig weit entfernte Quanten  g l e i c h z e i t i g  und  a u g e n b l i c k l i c h
     
    hinsichtlich einer bestimmter Eigenschaft zueinander korrelierten (oder gar gleichen) Zustand bekommen.

     
     
    Vorsicht aber: Das No-Cloning Theorem (sprich: die Heisenbergsche Unbestimmtheitsrelation) zeigt, dass es prinzipiell  n i c h t  möglich ist, ihnen absolut genau definierten Gesamtzustand zu geben.
     
    Quantenzustände zu teleportieren beginnen die Physiker mit zwei Quanten A und C gleicher Art.
     
    • Um zu erreichen, dass beide gleichen — und konkret bekannten — Zustand haben, wählt man ein drittes Quant B, welches mit C verschränkt ist (was bedeutet, dass die Schwingungen beider durch ein und dieselbe Wellenfunktion beschrieben sind).
       
    • Dann bringt man A in Kontakt mit B, so dass A (als sog. Messapparatur) das B zwingt, sich in einen konkreten Zustand zu begeben und den auch zu zeigen.
      Es gibt für ihn zwei mögliche Werte, aber in welchen der beiden B » kollabiert «, bleibt absolutem Zufall überlassen — ein Grundgesetz der Quantenmechanik.
       
    • Dieser Prozess bewirkt Verschränkung von A und B.
       
    • Da nun aber B und C verschränkt waren, wird C — gleichzeitig mit B — seinen Zustand neu konkretisieren, und da jetzt alle drei Quanten miteinander verschränkt sind, haben nun auch A und C zueinander korrelierten Zustand — und das  o h n e  dass A sich auf C zubewegen musste.

     
     
    Wie weit man mit diesem Verfahren bisher gekommen ist, erklärt uns Kaku:
     


    Michio Kaku (2008):
     
    • Die erste Demonstration erfolgreicher Quanten-Teleportation fand 1997 in Innsbruck statt (durch Anton Zeilinger). Man hatte Photonen ultraviolettel Lichts teleportiert.
       
    • Schon ein Jahr später gelang am CalTech im kalifornischen Pasadena ein noch genaueres, ganz analoges Experiment.
       
    • 2004 gelang es Zeilingers Team in Wien, über ein unter der Donau durchgeführtes Glasfaserkabel Lichtteilchen über eine Entfernung von immerhin schon 600 Meter zu teleportieren (das Kabel war sogar 800 Meter lang).
       
    • Im selben Jahr noch gelang es, statt Photonen auch Atome zu teleportieren. Hierzu verschränkten Physiker am Natialonal Institute of Standards ∧ Technology in Washington erfolgreich drei Berylliumatome. Einer zweiten Gruppe gelang dasselbe mit Kalziumatomen.
       
    • 2006 wurde dann ein noch spektakulärer Fortschritt erzielt: Physiker vom Niels-Bohr-Institut in Kopenhagen und vom Max-Planck-Institut in Garching bei München schafften es, einen Lichtstrahl mit einem Gas aus Cäsiumatomen zu verschränken — ein Kunststück, bei dem Billionen von Atomen im Spiel waren. Dann kodierten sie die in Laserimpulsen enthaltene Information und teleportierten sie über eine Entfernung von etwa einem halben Meter auf die Cäsiumatome. Es war damit zum ersten Mal gelungen, in Licht enthaltene Information auf Materie zu teleportieren.
       
      Man darf mit Recht annehmen, dass das auch funktioniert hätte, wenn sich jene Atome an anderen Ende des Universums befunden hätten (!).

     


     
    Die Überzeugung der Physiker, dass sich Zustandsänderungen eines Quants ohne jede Zeitverzögerung auf alle zu ihm verschränkten Quanten übertragen, wird gestützt durch ein Experiment, in dem man nachgemessen hat, dass sich der neue Zustand mit wenigstens zehntausendfacher Lichtgeschwindigkeit übertragen haben muss.
     
     
    Quellen:

     

     Beitrag 0-61
    Kann Klassische Teleportation mit Hilfe zweier Bose-Einstein-Konzentrate gelingen?

     
     

     
    Das Bose-Einstein-Kondensat — ein » Superatom «

     
     
    Unter einem Bose-Einstein-Kondensat (BEC) versteht man einen Materiezustand, in dem sich Atome auf ihrem niedrigsten Energiezustand befinden (und alle von gleicher Art sind). Genauer:
     
    Die bislang kälteste  o h n e  menschliches Zutun zustande gekommene natürliche Temperatur beträgt -270 Grad Celsius und ist nur im Weltraum anzutreffen (3 Grad über dem absoluten Nullpunkt). Es ist dies die vom Urknall überiggebliebene Restwärme, von der das gesamte Universum immer noch erfüllt ist.
     
    Die Temperatur eine BEC aber liegt bei nur 10-15 Grad Celsius und kann nur im Labor erzeugt werden:
     
    Wenn nun aber eine Menge von bestimmten Atomen gleichen Typs derart tief abgekühlt wird, gelangen fast alle dieser Atome in den niedrigsten ihnem möglichen Energiezustand. Das hat zur Folge, dass sie dann im Gleichtakt schwingen (man sagt: sie wurden  k o h ä r e n t ). Aus diesem Grund gehorchen sie dann ein und derselben Wellenfunktion, und verhalten sich deswegen als Gesamtheit wie ein einziges großes Atom — eine Art » Superatom «.
     
    Obleich die Möglichkeit ihrer Existenz schon 1924 durch den indischen Physiker Bose verhergesagt — und seine Meinung von Einstein geteilt — wurde, gelang erst 1995 erstmals die Herstellung eines solchen Kondensats. In 2001 ging dafür der Nobelpreis für Physik an Cornell, Wiemann und Ketterle.
     
     
    Die naheliegendste Anwendung von Bose-Einstein-Kondensaten ist die Herstellung von Lasern, die statt kohärenten Photonen-Strahlen Strahlen aus BEC-Atomen erzeugen, die alle kohärent sind (Materielaser).
     
    Zur möglicherweise bedeutendsten (und auch sicher auch spektalurästen) Anwendung von Bose-Einstein-Kondensaten könnte sich Bradleys Idee » klassischer Teleportation « entwickeln, mit der sich vielleicht eines Tages eine Art Materie-Telefon entwickeln ließe: Ein Telefon, welches Materie so transportiert, wie unsere Mobilfunktelefone heute Schall transportieren):
     

     
     
     
    Hin zu klassischer Teleportation

     
     
    Australische Wissenschaftler unter der Führung von Ashton Bradley forschen an folgender Idee:
     
    Sie beginnen mit einer Menge superkalter Rubidium-Atome in einem BEC-Zustand und richten auf ihn einen Materiestrahl, der ebenfalls aus Rubidium-Atomen besteht. Beim Zusammentreffen mit dem Kondensat werden die Atome des Strahls gedrängt, sich ebenfalls in ihren niedrigsten Energiezustand zu begeben. Die Energie, die sie so verlieren, erzeugt einen Lichtimpuls, der anschließend durch ein Glasfaserkabel — wohin auch immer — transportiert werden kann.
     
    Ganz erstaunlicher Weise enthält dieser Lichtstrahl alle für die Beschreibung des ursprünglichen Materiestrahls notwendige Quanteninformation (!), genauer: er enthält eine Beschreibung der Positionen und Geschwindigkeiten sämtlicher das Licht abgebenden Atome.
     
    Am Ende seines Weges durch den Lichtwellenleiter trifft der Lichtstrahl auf ein anderes BEC, das ihn sodann in den ursprünglichen Materiestrahl umwandelt.
     
    Michio Kaku — seines Zeichens Theoretischer Physiker an der City University of New York — schreibt:


    Michio Kaku, 2008:
     
    Dieses neue Teleportationsverfahren hat enormes Potential, da es keinerlei Quantenverschränkung erfordert. Die Technik allerdings hat ihre Tücken, denn ihr Funktionieren hängt entscheidend von den Eigenschaften der Kondensate ab, die herzustellen im Labor recht schwierig ist. [...]
     
    Da sich jedes Kondensat wie ein einziges gigantisches Atom verhält, lassen sich — im Prinzip wenigstens — an ihm mit bloßem Auge Quanteneffekte beobachten, die wir normalerweise nur auf atomarer Ebene antreffen.
     




    Michio Kaku, 2008:
     
    Wann werden wir wohl angesichts dieses Fortschritts in der Lage sein, uns selbst [ gemeint ist: recht passable Kopien von uns selbst ] an entfernten Orten zu erzeugen?
    • Physiker rechnen mit der Teleportation komplexer Moleküle in den nächsten Jahren.
    • Schon innerhalb der nächsten Jahrzehnte könnte es gelingen, ein DNS-Molekül oder gar einen Virus zu teleportieren.
    • Im Prinzip scheint auch die Teleportation einer ganzen Person aus Fleisch und Blut möglich — aber die technischen Probleme sind schwindelerregend:
       
      Allein um Kohärenz zwischen Photonen und Atomen zu erreichen, bedarf es der besten Labors der Welt. Darauf aufbauend Quantenkohärenz für wahrhaft makroskopische Objekte — wie etwa einen Menschen — erzeugen zu können, werden wir noch sehr lange warten müssen.

     
    Realistisch betrachtet wird es mehrere  J a h r h u n d e r t e  oder noch länger dauern, bis alltägliche Gegenstände teleportiert werden können — wenn es denn überhaupt möglich ist.
     


    Uns oder andere Quantensysteme  e x a k t  zu kopieren wird mit Sicherheit  n i e m a l s  möglich sein (siehe dazu das No-Teleportation Theorem, welches Folge des No-Cloning Theorems ist).
     
     
    Quellen:

     

     Beitrag 0-487
    Karl Rahners Gottesbild

     
     

     
    Karl Rahners Gottesbild

     
     
    Karl Rahner (1904-1984), ein Jesuit, gilt als einer der bedeutendsten Theologen des 20. Jahrhunderts.
     
    Er wirkte bahnbrechend für eine Öffnung der katholischen Theologie für das Denken des 20. Jahrhunderts und nahm mit seiner Theologie Einfluss auf das Zweite Vatikanische Konzil, an dessen Vorbereitung und Durchführung er als Sachverständiger mitarbeitete.


    Karl Rahner (wörtlich zitiert):
     

    Er
    [ Gott ] ist in uns als die Hoffnung, die trägt in allen Abstürzen unserer eigenen Verzweiflung.
     
    Er ist in uns als die Liebe, die uns liebt und lieben macht,
     
    verschwenderisch, frohlockend, obwohl wir kalte, kleine und enge Herzen haben.
     
    Er ist in uns die ewige Jugend in der verzweiflungsvollen Vergreisung unserer Zeit und unserer Herzen.
     
    Er ist das Lachen, das hinter unserem Weinen schon leise aufklingt.
     
    Er ist die Zuversicht, die trägt, die Freiheit, die beschwingte Seligkeit unserer Seele.

     
     
    Wir sind mehr als wir wissen. Indem wir das bekennen, geben wir ihm die Ehre.

     


    Quelle: Herbert Vorgrimler: Gott. Vater, Sohn und Heiliger Geist — Was Christen glauben (2015)


     

     Beitrag 0-488
    Das Gottesbild des Jesus Christus

     
     

     
    Das Gottesbild des Jesus Christus

    aufbauend auf dem Israels

     
     
    Der Theologe Herbert Vorgrimler charakterisiert es so:


    Vorgrimler (2015):
     
    Der Mensch Jesus Christus, gläubiger Jude, hat sich in betonter und exklusiver Weise als Sohn des göttlichen Vaters gewusst.
     
    Ein entscheidendes Gottesbekenntnis Jesu findet sich in seiner Antwort an den Schriftgelehrten, der ihn nach dem ersten Gebot unter allen fragte. Jesus zitierte das » Schema Isreael «, das Glaubensbekenntnis der Iraeliten:
     
      "Höre, Israel, der Herr, unser Gott, ist ein Einziger.
       
      Und du sollst den Herrn, deinen Gott, lieben von ganzem Herzen, aus ganzer Seele und mit all deiner Kraft.
       
      Und diese Worte, die ich dir heute gebiete, sollen dir ins Herz geschrieben sein, du sollst sie deinen Kindern einschärfen und sollst davon reden, wenn du in deinem Hause sitzest, wenn du auf dem Wege gehst, wenn du dich niederlegst und wenn du aufstehst. Du sollst sie zum Denkzeichen auf deine Hand binden und sie als Merkzeichen auf deiner Stirn tragen, und sollst sie an die Türpfosten deines Hauses schreiben.
      "

       
      (Deuteronomium 6,4-9)

    Dieses Gottesbekenntnis zu dem einen und einzigen Gott trug Jesus dem Schriftgelehrten als das erste Gebot vor, verbunden mit dem zweiten, das ihm gleich sei: den Nächsten wie sich selbst zu lieben. (Markus 12,29 und Levitikus 19,18).
     
    Es bildete sein Credo und sollte Maßstab sein für alle Glaubensbekenntnisse derer, die sich auf Jesus berufen und ihm nachfolgen:
     
     
    Unser Gott ist Einer (nicht mehrere)
     
    und er ist der einzige Gott — es gibt keine anderen, die mit ihm konkurrieren würden.

     
    Wenn der Glaube und die Theologie der Christen über die biblischen und nachbiblischen Zeugnisse des dreieinigen Gottes nachdenken, sollte das Gottes­bekenntnis Jesu als unabdingbares Korrektiv gelten.
     
    Nach dieser sehr wichtigen Feststellung, nun — in der Reihenfolge der neutestamentlichen Schriften — einige grundlegende Zeugnisse, die den Menschen Jesus von Nazareth in seinem Verhältnis zu Gott dem Vater zeigen:
       
    • Berühmt ist der sog. Jubelruf Jesu bei Matthäus:
       
      "Alles ist mir vom meinem vater übergeben worden, und niemand erkennt den Sohn, als nur der Vater, und den Vater erkenntn niemand als nur der Sohn und wem es der Sohn offenbaren Will." (Matthäus 11,27)
       
      Diese Worte eheren zunächst den Vater und bezeugen das einzigartige Sohnesbewusstsein Jesu. Zugleich sind sie Hinweis auf die tragische und leidvolle Distanz der Christengemeinde zur jüdischen Glaubensgemeinschaft, an der Matthäus besonders gelegen war: Hat etwa der Vater sich Isreale nicht geoffenbart?
       
      Zum vergleichbaren WortJesu bei Johannes (14,6), sagt der jüdische Religionsphilosoph Franz Rosenzweig: Niemand außer denen, die immer schon beim Vater waren, die gläubigen Kinder Israels.

       
    • Nach Matthäus (24,36) weiß niemand etwas über den Tag und die stunde, da alle Menschheitsgeschichte endet, außer dem Vater allein.
       
    • Nach Markus (14,36) betete Jesus: 2Abba, mein Vater, alles ist dir möglich."
       
    • nach Lukas (2,49) sagte schon der Knabe Jesus, als er im Jerusalemer Tempel zurückgeblieben war, er müsse in dem sein, was seines Vaters ist.
       
    • Im gleichen Evangelium bittet Jesus am Kreuz: "Vater, vergib ihnen" (23,34), und im Augenblick des Todes legt er sein Leben in die Hände des Vaters. (23,46).
       
    • Das erst in verhältnismäßig später Zeit nach Jesus niedergeschriebene Johannes-Evangelium war sehr daran interessiert, die Göttlichkeit Jesu, seine Einheit mit dem vater, festzuhalten. Umso bemerkenswerter sind eingestreute Zeugnisse wie die Formulierung: "Der Sohn kann nichts von sich aus tun, er sehe denn den Vater etwas tun" (5,19)
       
      Und weiter heißt es: "Ich suche nicht meinen Willen, sondern den des Vaters" und: "Ich lebe um des Vaters willen." (6,57).
       
    • Bemerkenswert ist, wie Jesus in der Erzählung von der Auferweckung des Lazarus (Joh. 11,1-45) den Vater um Erhörung seines Betens bittet.
       
    • Und eine Art Schlüsselwort zur Erklärung des Verhältnisses Jesu zum göttlichen Vater findet sich in Johannes 14,28: "Der Vater ist größer als ich."

       
      Ob das wohl in das Bewusstsein und die Gebetssprache heutiger Christen eingegangen ist?

       
    • Ein weiteres spätes Zeugnis über den Sohn Gottes enthält der Brief an die Hebräer: "Er hat in den tagen seines Fleisches Gebete und flehentliche Bitten mit starkem Geschrei und unter Tränen vor den gebracht, der ihn vom Tode erretten konnte, und er ist erhört worden aus seiner Angst und hat — wiewohl er Sohn war — an dem, was er litt, den Gehorsam gelernt." (Hebräer 5,7 und 8)
       
    • Schließlich sei noch der bekannte Text aus dem ersten Brief an die Korinther des Apostels Paulus genannt, in dem er von der Vollendung am Ende aller Tage spricht (15,24.28):
       
      Von Jesus heißt es da, er werde am Ende das Reich Gottes dem Vater übergeben. Nachdem Jesus alle Feinde einschließlich des Todes unterworfen habe, werde gelten: "Wenn ihm [Jesus] aber alle unterworfen sein wird, dann wird auch der Sohn selbst sich dem unterwerfen, der ihm alles unterworfen hat, damit Gott alles in allem sei."

    All diese Texte zeigen, dass Jesus nach der Überzeugung der ersten Glaubenszeugen auf gar keinen Fall mit Gott dem Vater gleichzusetzen ist. Wie immer es um seine von Gott stammende Sendungsautorität bestellt sein mag und wie hoch seine göttliche Qualität auch einzuschätzen ist: Er ist "nur" der Sohn, Gott dem Vater nachgeordnet, dem er sich bewusst untergeordnet hat.
     
    So wie uns begegnet auch Jesus der Wille des Vaters als etwas Unbegreifliches, dem er sich beugt, aber nicht unbeschwerten, frohen Herzens, sondern um den Preis von Blut, Angst und Tränen. So einfach ist es eben nicht, gemeinsam mit Jesus zum Vater zu sagen: Dein Wille geschehe.
     
     
    Sollten solche Überlegungen nicht auch Konsequenzen für gläubige Menschen haben? Es ist doch schließlich für sie Jesus Christus der Mittler zum Vater schlechthin. Er ist des Vaters letztes und nicht mehr überbietbares Wort an die Menschen. Er ist unser Lehrer und guter Weggefährte, verlässlicher Bruder und Freund, derjenige, der uns zutiefst versteht und dem man alles sagen kann.
     
    So ist es gewiss nicht verkehrt, sich betend an ihn zu wenden, um sich von ihm immer wieder sagen zu lassen, was sein und unser Gott von uns erwartet.
     
    Wir sollten nicht vergessen, dass er das Geschenk des Vaters an uns war, dass er "nur" Bote und Mittler sein wollte, den Vater anbetend verehrte und seine Bitten an ihn richtete.
     
     
    Seinem Beispiel folgend sollten in den gottesdienstlichen Versammlungen die Gebete der Gemeinde und ihrer Amtsträger an Gott den Vater gerichtet werden, an das unergründliche göttliche Geheimnis, dem alle Ehre in Ewigkeit gilt.
     
    Der große Lobpreis am Ende aller eucharistischen Hochgebete bringt das zum Ausdruck:

     
     
    » Durch ihn — Jesus Christus — und mit ihm und in ihm ist Dir, Gott allmächtiger Vater,
     
    in der Einheit des Heiligen Geistes,
     
    alle Ehre und Herrlichkeit,
     
    jetzt und in Ewigkeit.
     
    Amen. «

     


    Quelle: Herbert Vorgrimler: Gott. Vater, Sohn und Heiliger Geist — Was Christen glauben (2015), S. 40-45


     

     Beitrag 0-489
    Wie Gottes Dreifaltigkeit zu verstehen ist

     
     

     
    Das christliche Gottesbild

    hinsichtlich der Lehre von der » Dreifaltigkeit « Gottes

     
     
    Ohne es so zu nennen, begegnet uns die Dreifaltigkeit des christlichen Gottes schon im Alten Testament: Er tritt dort auf als Vater, als Wort und als Geist.
     
    Erst im Johannes-Evangelium — im neuen Testament also und dem Evangelium, das als letztes niedergeschrieben wurde — liest man "Und das Wort ist Fleisch geworden und hat unter uns gewohnt."
     
    Erst von da an also spricht man von Gott in drei "Personen" (da man ja nun "das Wort" umgedeutet hatte in Jesus Christus als den Verkünder und Erklärer des Wortes).
     
    Von Anfang an aber hat der Begriff "Person" zu Missverständnissen geführt, die im Lauf der Kirchengeschichte immer wieder diskutiert wurden — stets mit dem Resultat, dass die führenden Theologen der Meinung waren, man dürfe den Begriff der "Person" hier nicht wörtlich nehmen.
     
    Das Wort "Person" (lateinisch persona) entstand aus dem Verb personare (= durchdringen, durchtönen). In Karthago nämlich — dem heutigen Tunis — war es üblich, dass Schauspieler dort im selben Stück mehr als nur eine Rolle wahrzunehmen hatten. Um dem Zuschauer klar zu machen, in welcher Rolle sie gerade sprachen, haben die Schauspieler sich Masken vors Gesicht gehalten, jene Rolle deutlich zu machen. Ihre Stimme durchtönte dann die Maske (durchtönen = personare), weswegen man die Maske dann als "persona" bezeichnete — als die Rolle, in der der Schauspieler sprach.
     
    Nun hat aber der Begriff persona (= Person) in den folgenden Jahrhunderten — vor allem in der Zeit, als man die Menschenwürde und die Menschenrechte entdeckte — mehr und mehr ganz andere Bedeutung bekommen.
     
    Daran sollte denken, wer heute hört oder sagt, dass der christliche Gott in drei "Personen" existiere. Es sind weiterhin nur Rollen gemeint, bzw. die Tatsache, dass Gottes Wesen zu komplex und zu geheimnisvoll erscheint, um mit einem einzigen Begriff treffend genug umschreibbar zu sein.
     
     
    Die beiden herausragendsten Theologen des 20. Jahrhunderts — Karl Rahner auf katholischer und Karl Barth auf evangelischer Seite haben beide — übereinstimmend und mit großem Nachdruck — festgestellt: Die Anwendung des modernen Begriffs der "Person" auf Gott führt unweigerlich zum Missverständnis, dass statt eines Gottes deren drei existieren. Das ewige Wort aber bleibt das Wort des Vaters. Ebenso bleibt der Heilige Geist der Geist des Vaters ("Geist", so schreibt Vorgrimler, ist etwas, das verstehen und wollen kann).
     
    Barth und Rahner sagen übereinstimmend: Versteht man Wort und Geist als Personen im modernen Sinne, macht man aus dem einen Gott unweigerlich drei Götzen.
     
     
    Quelle: Herbert Vorgrimler: Gott. Vater, Sohn und Heiliger Geist — Was Christen glauben (2015), S. 103-110


     

     Beitrag 0-491
    Juden, Christen und Muslime glauben an nur EINEN Gott: den des Abrahams

     
     

     
    Juden, Christen und Muslime kennen nur einen Gott:

    den des Abraham

     
     
    Der Gott der Juden, Christen und Muslime ist derselbe.
     
    Es ist der Gott Abrahams, der Gott also, von dem die Bibel spricht.
     
    Von christlicher Seite her wird das diskutiert z.B. in den beiden sehr lesenswerten Büchern
     
    Der Koran wiederum lässt keinen Zweifel daran, dass er sich als den legitimen Erben der Juden und der Christen versteht, denen er als den "Schriftbesitzern" einen gewissen Respekt erweist (Sure 9,29).
       
    • Ein Vergleich von Bibel und Koran — Der Islam ist eine in sich widersprüchliche Religion.
       
    • Seine führenden Vertreter lösen Widersprüche im Koran durch die höchst fragwürdige Regel, dass jeweils nur die letzte "Offenbarung" Gültigkeit habe (weswegen es dann auch keinen Sinn mache, ältere Schriften zu studieren).
       
    • Es kann deswegen islamische Theologie auch nicht als Wissenschaft bezeichnet werden.

     
    Problem auch: Alle Muslime — nicht nur die fanatischen unter ihnen — sehen sich aufgerufen zum Kampf gegen die Ungläubigen, die "Freunde des Satans" (Sure 4,76). Der Islam solle alle anderen Religionen besiegen, denn sie alle hätten die Gottesoffenbarung entstellt und dadurch Gott beleidigt.
     
    Zu dieser Entstellung gehört nach Auffassung des Korans der christliche Glaube an die "Dreifaltigkeit" Gottes (den Muslime missverstehen als Glauben an drei Götter: an den Schöpfergott, an den Menschen Jesus und an den Menschen Maria. Ihr Kampf gegen Juden und Christen — die der Islam deswegen als "ungläubig" einstuft — beruht also auf einem Missverständnis. Schade, dass Muslime das nicht einsehen wollen.
     
     
    Mehr zu diesem Thema:

     

     Beitrag 0-83
    Warum es den Tunneleffekt gibt

     
     

     
    Den Tunneleffekt verstehen

     
     
    Jedes Teilchen — auch jedes Elementarteilchen — ist eine Wolke von Wirkpotential, deren Dichte am jeweiligen Ort mit der Wahrscheinlichkeit korrespondiert, dass das Teilchen (genauer: die es darstellende Energieportion) dort mit anderen wechselwirkt.
     
    Befindet sich nun der Schwerpunkt einer solchen Wolke neben einer Barriere, so existiert die Wolke zwar nicht in der Barriere (sprich: im Tunnel), wohl aber — deutlich weniger dicht, schwächer also — auch jenseits der Barriere.
     
    Dort wo solches Wirkpotential zu Wirkung führt, glaubt man dann das "Teilchen" (welches in Wirklichkeit aber die gesamte Wolke ist) "beobachtet" zu haben.
     
    Wirkung aber kann überall dort eintreten, wo die Wolke — wie dünn auch immer — anwesend ist.
     
     
     
    Lies auch: Warum alle Materie nur Kraftwirkung ist

     

     Beitrag 0-370
    Wie Weizsäcker den Tunneleffekt und die quantenphysikalische Unbestimmtheit erklärt

     
     

     
    Unschärferelation und Tunneleffekt



    Carl Friedrich von Weizsäcker (1957):
     
    Die charakteristischen Eigenschaften der Teilchen — und damit auch ihre Energie — sind nicht wirkliche Gegebenheiten, sondern nur Ausdruck einer durch Messung erworbenen Erkenntnis.
     
    Betrachten wir ein Teilchen, dessen Ort in einem bestimmten Augenblick sehr genau gemessen wurde. Die Wahrscheinlichkeit, es an anderen Ort vorzufinden, ist daher nahezu null. Im Wellenbild haben wir es deswegen durch ein Wellenpaket darzustellen, dessen Intensität überall außer an der beobachteten Stelle nahezu null ist. Wie seine Fourierentwicklung zeigt, hat so ein Wellenpaket aber gar keine eindeutig definierte Frequenz und Wellenlänge, und so kann ihm auch kein wohldefinierter Wert von Energie und Impuls entsprechen.
     
    Wahrend also ein sinusförmiger Wellenzug von bestimmter Frequenz nur eine statistische Aussage über den Ort des ihm entsprechenden Teilchen zuliässt — es ist dies der Ort, an dem es mit dem Messapparat wechselwirkt —, können wir nun umgekehrt keine bestimmte Aussage über den Impuls und die Energie machen, welche man am Teilchen bei einer Messung feststellen würde: Für jedes denkbare Ergebnis lässt sich nur eine bestimmte Wahrscheinlichkeit angeben. Sie ist gegeben durch das Gewicht der betreffenden Frequenz in der Fouriersumme des Wellenpakets.
     
    Die quantitative Formulierung dieses Sachverhalts als Heisenbergsche Unbestimmtheitsrelation besagt, dass genaue Kenntnis von Impuls und Ort einander ausschließen — ebenso wie genau Kenntnis der Energie des Teilchens zu einem genau bestimmten Zeitpunkt.
     
     
    Begründung:
     
    Die dem Teilchen durch Messung zuzuschreibende Energie ist gegebenen durch die Frequenz einer der Wellen, deren Summe das Wellenpaket ist.
     
    Um nun aber einer Welle überhaupt eine definierte Frequenz zuschreiben zu können, muss man sie so lange schwingen lassen, dass inzwischen mehrere Wellenberge und Wellentäler vorüberstreichen (denn andernfalls handelte es sich ja gar nicht um eine periodische Welle, sondern nur um einen einmaligen Stoß, dem keine "Frequenz" zuzuschreiben wäre.
     
     
    Praktische Konsequenz ist z.B. der Tunneleffekt:
     
    Die Erfahrung zeigt, dass ein Teilchen ein Hindernis, zu dessen Überwindung seine Energie nach klassischer Physik nicht ausreicht, dieses Hindernis dennoch mit gewisser Wahrscheinlichkeit überwinden kann [ Lies: Tunneleffekt und neue Beobachtung dazu (2017) ].
     
    Es muss das Hindernis dazu nur schmal genug sein, damit die kurze Zeit, während der das Teilchen sich auf dem Hindernis befindet, gar nicht ausreicht, seine Energie in diesem Zustand genau festzustellen. Es besteht dann nämlich eine gewisse Wahrscheinlichkeit dafür, dass Messung seiner Energie während dieser Zeit ihm mehr Energie zuordnet als vor und nach dem Hindernis.
     
    Der springende Punkt dieser Überlegung ist, dass man zwar vor und nach dem Hindernis — nicht aber während es durchquert wird — genug Zeit hat, die Energie des Teilchen beliebig genau zu messen. Dem entsprechend nimmt die Wahrscheinlichkeit für das Durchqueren des Hindernisses ab, je breiter das Hindernis ist, d.h. je genauer die Energie des Teilchens am Ort des Hindernisses bestimmbar ist.
     


     
    Quelle: C.F. von Weizsäcker: Zum Weltbild der Physik, 7. Auflage 1958, S. 69-70
    als Teil des Aufsatzes: Die Auswirkung des Satzes von der Erhaltung der Energie in der Physik


     

      Beitrag 2000-1
    Tunneleffekt und mögliche Informationsübertragung

     
     

    Tunneleffekt und mögliche Informationsübertragung



    Wenn ein Quantenobjekt durch eine Barriere eingeschlossen ist (einem Wall vergleichbar, den es auf seinem weiterem Weg nicht überwinden kann), so besteht — wegen seiner Nichtlokalität — dennoch eine geringe Wahrscheinlichkeit dafür, es jenseits dieser Barriere anzutreffen — ganz so, als hätte es sich einen Tunnel durch den Wall gegraben, was aber nicht sein kann, denn im Tunnel würde sich das Quant in einem ihm energetisch verbotenen Bereich (evB) befinden.

    Thomas Görnitz schreibt hierzu (auf S. 102-103 seines Buches "Die Evolution des Geistigen"):

    Zitat von Görnitz:
     
    Rechnungen und Experimente zeigen, dass der verbotene Bereich dabei vom Quantenobjekt ohne Zeit, also mit unendlich hoher Geschwindigkeit durcheilt wird.

    Das muss man so interpretieren, dass die Quantentheorie fundamentaler ist als die klassisch zu verstehende Spezielle Relativitätstheorie. Diese verbietet reale Übertragung von Energie oder Information mit größerer Geschwindigkeit als die des Lichtes in Vakuum. Dieser » energetisch verbotene Bereich « kann vielleicht als etwas » noch Wenigeres « als das Vakuum verstanden werden. Rechnerisch ist dort das Quadrat der Geschwindigkeit negativ.

    Wenn die Breite des » verbotenen Bereiches « lediglich die Ausdehnung einer Wellenlänge hat, ist für eine Durchquerung immerhin eine Wahrscheinlichkeit von etwa 30% zu erwarten. Das bedeutet bei einer zu übermittelnden Nachricht mit ausreichender Redundanz (also mit genügend viel eingebauten Wiederholungen), dass bei einem solch relativ geringen Verlust noch von einer Übertragung [der Information] gesprochen werden kann.

    Nimtz berichtet davon, dass er bei seinen Versuchen Mozart-Musik habe tunneln lassen [Nimtz G., Haibel A. in: Tunneleffekt – Räume ohne Zeit, Weinheim 2004].

    Die Wahrscheinlichkeit für solches Verhalten nimmt aber mit wachsender Breite der energetisch verbotenen Zone — und vor allem mit wachsender Masse des tunnelnden Objekts — extrem schnell ab, so dass für makroskopische Objekte oder Entfernungen davon nichts zu merken ist.

    ... Im Hinblick auf manch psychische Phänomene, die aus Sicht der klassischen Physik vollkommen unmöglich erscheinen, sei angemerkt, dass die Photonen, die im EEG zu den 25-42 Hz Schwingungen gehören, wie sie z.B. bei geübter Medidation verstärkt auftreten, eine Wellenlänge von der Größenordnung des Erddurch­messers haben.
     

     

      Beitrag 2000-6
    -

     
     
    Henry aus 2000-5:
     
    Ich verstehe Gebhards Implikationen auch nicht so ganz. Aber ich denke, das angeführte Beispiel ist doch ganz einfach zu verstehen ...

    Hi Eugen, hallo Henry,

    mir scheint, dass Görnitz hier andeuten möchte, dass  —  w e n n  es denn gelänge, hinreichend breite Barrieren aufzubauen und die zur Informationsübertragung per Tunneleffekt zu nutzen  —  man einen Weg gefunden hätte, in Umgehung der Gesetze der SRT Information (genauer: hinreichend redundant kodierte Information) so gut wie  o h n e  Zeitverzögerung zu übertragen, de facto also mit Überlichtgeschwindigkeit.

    Interessant finde ich auch, dass die einem Quant energetisch verbotenen Bereiche die Wahrscheinlichkeit, das Quant dort anzutreffen, offenbar wirklich zu  g e n a u  Null machen (und man deswegen in einem solchen Bereich – da er ja 3-dimensional ist – ganze Körper vor dem Quant verstecken kann.


    Gruß, grtgrt
     

      Beitrag 2000-8
    Überlichtgeschwindigkeit nur aus Sicht des Beobachters

     
     
    E... aus 2000-7:
     
    Der gute Thomas Görnitz beruft sich auf eine Arbeit von Prof. Günter Nimtz in Köln. (Beitrag 1716-25 vom 28.11.2010)
     
    Leider vergisst er in dem Zusammenhang völlig, (oder er weiß es gar nicht) dass es für eine Datenübertragung nach diesem Verfahren unumgänglich ist, vorher die zu überbrückende Nachrichten-Strecke mit einem Rohr zu versehen, durch das dann getunnelt wird.

    Hi E...,

    die zu überbrückende Nachrichtenstrecke mit einem Rohr zu versehen (den Tunnel also zu "graben") ist überhaupt nicht notwendig.

    Scheinbar Überlichtgeschwindigkeit ergibt sich ja nur deswegen, weil das Quant den Tunnel gar nicht wirklich durchquert oder durchqueren KANN ( er liegt ja im dem Bereich, in dem die Wahrscheinlichkeit, das Quant zu finden, genau Null ist !!! [ — na ja, vielleicht doch nicht: siehe Beitrag 2000-14. Tatsache ist auf jeden Fall, dass das Quant im Tunnel KEINE Zeit verbringt, wie ein 2008 durchgeführtes Experiment im Rahmen bislang möglicher Messgenauigkeit bestätigt.

    DASS das Quant den Tunnel nicht zu durchqueren braucht, ist seiner Nichtlokalität geschuldet.


    Das Über in » Überlichtgeschwindigkeit « ist sozusagen eine nur  r e l a t i v e  Sicht:

    Wir — als Beobachter — denken, das Quant gehe durch den Tunnel. In Wirklichkeit aber ist das gar nicht der Fall.


    Ansonsten lies bitte Okotombroks Beitrag 1716-24. Was dort gesagt wird, scheint mir richtig.


    Gruß, grtgrt


    W I C H T I G :  Ein erst 2017 erzieltes neues Ergebnis der Experimentalphysik scheint Nimtz — und auch meine Erklärung hier — zu widerlegen. Lies bitte Zeitmessung im Quantentunnel (2017).

    Insbesondere dürfte damit auch Görnitz widerlegt sein (siehe Beitrag 2000-14).
    Seine Meinung schien noch 2012 durch — damals zu ungenaue? — Messungen bestätigt worden zu sein: In Nullzeit durch den Quantentunnel (2012).

     

     Beitrag 0-464
    Wie unser subjektives Zeitgefühl entsteht

     
     

     
    Unser subjektives Zeitgefühl

    ergibt sich, da Nervenzellen ermüden und uns das bewusst wird

     
     


    Görnitz & Görnitz (2015):
     
    Hin und wieder begeben Personen sich freiwillig über längere Zeit hinweg in abgeschlossene Räume oder Höhlen, um herauszubekommen, wie sich ihr natürliches Zeitempfinden ohne Kontakt nach außen gestaltet:
       
    • Einer der ersten und bekanntesten war der damals erst 23-jährige Geologe Michael Siffre, der 1962 ununterbrochen 61 Tage unter der Erde in einer Höhle verbrachte (natürlich mit Essen und Trinken), und dem dann 25 Tage in seiner Zeitwahrnehmung fehlten.
       
    • Ein Jahrzehnt später wiederholte er diesen Versuch über 205 Tage hinweg und musste dann feststellen, dass es seiner Aufzeichnung nach ganze 2 Monate weniger waren.

     
    Wir sehen: Ohne Außenreize verläuft die wahrgenommene Zeit ganz offensichtlich langsamer. Dem Bewusstsein fehlen — der Isolation wegen — Ereignisse, durch die für uns die Zeit unabhängig vom eigenen Verhalten gegliedert und als fortschreitend erkannt wird. Kurz:
     
     
    Wahrgenommene Zeit ist wahrgenommene Veränderung.

     
     
    Nebenbei: Man kann annehmen, dass auch eine unter freiwilligen Bedingungen beschlossene Isolation bei manchen Mensch nicht ohne psychische Folgen bleibt. So ist zumindestens nicht auszuschließen, dass das bei einer Schweizerin, die 111 Tag lang isoliert gelebt hatte, nach 1 Jahr zum Selbstmord führte.
     
     
    Wegen des komplexen Verhältnisses der Psyche zur Zeit wird verstehbar, warum Einzelhaft der Folterung von Gefangenen dienen kann: Wo sie sich über lange Zeit hinweg in kalten, dunklen Räumen fast ohne Anhaltspunkt für objektiv verstrichene Zeit aufhalten müssen, kann das bei Überlebenden psychische und somatische Leiden hervorrufen, die oft schwer in Worte zu fassen sind.
     
    Andererseits berichtet Karlfried Graf Dürkheim (1896-1988) in einem Interview über seine als glückhaft empfundene, mehr als 1-jährige Einzelhaft in Japan. Er war Diplomat, sei aber als vermeintlicher Spion von dem Amerikanern nach dem Kriege festgesetzt worden. Seine gute Erinnerung an jene Zeit führt er darauf zurück, dass er dort ungestört arbeiten und meditieren konnte (und froh darüber war).
     
    Später trug er wesentlich zur Verbreitung des Zen und der Zen-Meditation in der Bundesrepublik bei.
     
     
     
    Zellermüdung: Unsere biologische Uhr

     
     
    In unserer Kultur haben wir gelernt, so manche 2-dimensionale Zeichnungen als Bild eines 3-dimensionalen Gegenstandes zu interpretieren. Wenn man etwa gegen einander versetzte Quadrate gleicher Größe und Ausrichtung an ihren 4 Ecken mit jeweils einer Linie verbindet, erscheint uns dies als Darstellung eines Würfels (sog. Necker-Würfel).
     
    Wenn wir nun bewusst versuchen, das eine der Quadrate als "das vordere" zu sehen, so wird uns dennoch schon nach wenigen Sekunden das andere als das vordere erscheinen.
     
    Der Grund hierfür: Das Festhalten der Gegenwart — ohne Gliederung durch zwischenzeitlich eintretende, bewusst wahrgenommene Ereignisse — kann nur andauern, solange nichts unsere Aufmerksamkeit ablenkt. Sobald Nervenzellen aber ermüden, wird uns das bewusst und so dieser "zeitfreie" Zustand beendet und die Informationsverarbeitung (= Interpretation dessen, was wir sehen) dann durch andere, frische Zellverbände durchgeführt.
     
    Eine solch "andauernde Gegenwart" — die erst mit dem Erkennen eines neuen Faktums endet — kann sich beim Menschen durch meditative Übung ergeben oder in Situationen, in denen wir zu fokussiert sind, um anderes Geschehen um uns herum noch mitzubekommen.
     
    Wir können also sagen, dass eine "Gegenwart" immer wieder durch einen neue "Gegenwart" abgelöst wird. Allerdings ist uns das meist nicht so deutlich bewusst wie hier beschrieben. Präsent ist uns i.A. nur, dass wir die Vergangenheit ebenso wie die Zukunft als wesentlich größere Zeiträume empfinden als die jeweilige Gegenwart.
     
    Ziemlich gut isoliert von der Umwelt ist unser Bewusstsein. Wenn wir darüber nichts erzählen, kann es von außen nur mit großem technischen Aufwand und nur sehr ungefähr erkannt werden. Nur wegen dieser seiner Isolierung können wir gelegentlich eine andere Zeitwarnehmung haben, als die, welche eine Normaluhr anzeigt. Solch "ausgedehnte Gegenwart" wird für unser Bewusstsein aber nicht beliebig lange dauern können: unter normalen Umständen nur bis etwa 3 sec (wie Experimentalpsychologen beobachtet haben).
     


     
    Quelle: Thomas und Brigitte Görnitz: Von der Quantenphysik zum Bewusstsein, Springer 2015, S. 444-446
     
    Klein S.: Zeit — Der Stoff, aus dem das Leben ist. Eine Gebrauchsanleitung, Fischer 2006, ab Seite 20


     

      Beitrag 2073-4
    Uhren als Beobachter der Zeit — sie beobachten Taktgeber

     
     
    Horst in 2073-3:
     
    Nehmen wir an, der physikalische Beobachter sei eine Uhr, falls sie ein Messgerät für "Zeit" sein sollte.

    Diese Uhr, das physikalische Objekt B, beobachtet "die Zeit" mit der es also kollidieren muß, um durch die entstandene Spur ein Messergebnis zu erkennen.

    Beschreibe mir doch bitte mal den physikalischen Vorgang, wie durch Kollision des "Beobachters Uhr"mit der "Zeit" das Uhrwerk dahingehend beeinflusst wird, dass ein Messergebnis und vor allem welches zu erkennen ist.


    Hallo Horst,

    die Uhr kollidiert nicht mit der Zeit. Die nämlich ist, was die Uhr angeht, nur gedankliche Abstraktion: eine Abstraktion, die uns die Uhr liefert als Übersetzung und Präsentation ihrer Beobachtungsergebnisse.

    Was die Uhr tatsächlich beobachtet, ist ein geeigneter Taktgeber:


    Zitat von Wikipedia:
     
    Uhren können die Zeit umso genauer angeben, je konstanter die Schwingung ihres Taktgebers ist.
    • Bei Räderuhren dient als Taktgeber das Pendel oder die Unruh,
    • bei der Quarzuhr ist es ein Oszillator, dessen Frequenz mit Hilfe des Schwingquarzes konstant gehalten wird.
    • In Atomuhren macht man sich die Eigenschaft von Atomen zu Nutze, beim Übergang zwischen zwei Energiezuständen elektromagnetische Wellen einer bestimmten Frequenz abzustrahlen oder zu absorbieren.


    PS: Bitte beachte auch: Beobachter im Sinne des quantenphysikalischen Messprozesses beobachten Quanten (allgemeiner: Quantensysteme). Taktgeber sind Quantensysteme, die Zeit aber ist sicher keines (!).

     

      Beitrag 2073-6
    -

     
     
    Horst in 2073-5:
     
    Die Uhr beobachtet keinen geeigneten Taktgeber, die Uhr ist selbst ein Taktgeber.

    Ich wage aber daran zu zweifelen, dass eine Uhr als Objekt in der Lage ist zu beobachten und zu bewerten, weil beobachten eine subjektive Eigenschaft ist.
    Wie das Subjekt die Beobachtung bewertet ist eine ander Frage.

    [... Und was ist "Zeit" dann? Abstrakt, konkret, materiell, immateriell
     


    Na ja, Du betreibst jetzt etwas Wortklauberei,

    denn richtig ist doch, dass jede Uhr — wenn sie nicht gerade eine Sonnenuhr ist — aus mindestens zwei Teilen besteht:
    • einem Taktgeber und
    • einem Zähler, der (weil er den Taktgeber "beobachtet", d.h. auf seinen Impuls reagiert) weiß, wie oft der Takt sich wiederholt hat seit die Uhr gestartet wurde.

    Der Zähler bzw. ein aus seinem Wert abgeleitetes Bild sagt uns dann, wie spät es ist — das aber nur unter der Voraussetzung, dass die Uhr richtig gestellt war, als man sie gestartet hatte.

    Mit anderen Worten: Sie — letztlich also ihr Zählwerk — sagt uns wirklich nur, wie oft der Takt sich wiederholt hat. Alles sonst ist durch uns veranlasste Umsetzung dieser Aussage in einen Zeitpunkt, der der richtige oder nicht der richtige sein kann. Das bedeutet:


    Weder Taktgeber noch Zählwerk kennen den Begriff "Zeit".

    Er wird durch  u n s  gemacht und ist reine Abstraktion dessen, was die Uhr uns (über welche Art von Bild auch immer) als zum Zählerstand äquivalent zeigt.



    Bei einer Sonnenuhr ist es nicht anders: Unser Wissen darüber, wie sie gebaut ist sowie die Stelle, an der sich der Schatten ihres Stabes befindet, führt über unseren Verstand zu dem, was wir die "augenblickliche Tageszeit" nennen. Das Quantensystem "Sonnenuhr" kennt keinen solchen Begriff — es reagiert lediglich auf von der Sonne eintreffendes Licht (und ist deswegen "Beobachter" im Sinne der Quantenphysik).

    Damit ist von einer Uhr abgelesene "Zeit" etwas Abstraktes, der Uhr völlig Unbekanntes.

     

      Beitrag 2073-8
    Die Zeit existiert nur als Abstraktum

     
     
    Horst in 2073-7:
    Hallo Grtgrt

    Gehe ich recht in der Annahme, dass du mit dem Taktgeber ein mechanisches oder elektronisches Gebilde meinst und mit dem Zähler die Uhrzeiger oder die Digitalanzeige?


    Ja, Horst, so meine ich das ( mehr Beispiele im Wikipedia-Zitat aus 2073-4 ).

    Horst in 2073-7:
     
    Dann ist es natürlich klar:

    Zitat:
    Weder Taktgeber noch Zählwerk kennen den Begriff "Zeit".
    Damit ist von einer Uhr abgelesene "Zeit" etwas Abstraktes, der Uhr völlig Unbekanntes.

    Die Frage ist daher, ist denn der Begriff "Zeit" für den Bewerter, den subjektiven Beobachter, etwas völlig Bekanntes, wenn Du doch sagst:

    Zitat:
    Er wird durch  u n s  gemacht und ist reine Abstraktion dessen, was die Uhr uns (über welche Art von Bild auch immer) als zum Zählerstand äquivalent
    zeigt.

    Im Klartext, ohne  u n s  gäbe es den Begriff "Zeit" nicht, weder als Abstraktum noch als reales Objekt!
    Dann wäre ja auch die sogenannte (!) "Raumzeit" nur ein Produkt menschlichen abstrakten Denkens!

    Oder ist die mit dem Taktgeber Uhr nachzuweisen?


    Für den subjektiven Beobachter — wenn Du dir darunter den Nutzer der Uhr vorstellst — ist "Zeit" etwas Nichtmaterielles,
    • das sich verbraucht
    • und das er quantifiziert sieht durch den Zähler der Uhr als Vielfaches eines Taktschrittes im Sinne des Taktgebers (oder einer darauf aufbauenden Definition der Begriffe "Sekunde", "Minute", "Stunde" usw.).

    Mit der "Raumzeit" oder der "Zeit" im Sinne der Raumzeit hat das zunächst gar nichts bzw. nur wenig zu tun. Beide sind rein mathematisch erdachte Konstrukte, mit Hilfe derer wir versuchen, durch uns beobachtetes Verhalten der Natur zu modellieren und soweit zu verstehen, dass Vorhersagen möglich werden: Sie  e n t s p r e c h e n  etwas, dessen wahre Natur auch die Physiker bisher NICHT verstehen ( siehe [1 und [2 ), das sie aber noch am ehesten mit fortlaufender Veränderung identifizieren.

    Was ich selbst über "Zeit" im Sinne der Natur zu sagen weiß, findet sich in [3 und ist streng genommen nur im Rahmen beobachter- und aspektspezifischer Sichten quantifizierbar.

    Auf jeden Fall ist Zeit nichts, mit dem irgend ein Beobachter interagieren könnte. Zeit ist, in welchem Kontext auch immer, ein Abstraktum.

    Gruß, grtgrt

     

     Beitrag 0-56
    Was uns Martin Bojowald (als Physiker) zur Natur der Zeit sagt

     
     

     
    Was Bojowald über das Wesen der Zeit sagt


    Martin Bojowald ( 2012, S. 262-267 seines Buches "Zurück vor den Urknall" ):
     

    Das mathematische Bild der Zeit ist hilfreich, aber  i d e a l i s i e r t .
     
    Eine solche Zeit nämlich wird nicht beobachtet; was wir stattdessen sehen, sind Änderungen von Materiekonfigurationen wie des Standes der Sonne relativ zur Erde oder des Zeigers der Uhr relativ zum Ziffernblatt.
     
    Uhren jeder Art sind aus Materie aufgebaut und unterliegen dem Einfluss durch andere Materie.
     
    Man spricht von einer guten Uhr, wenn der Einfluss anderer Materie darauf gering ist. Doch schwachen Einfluss gibt es immer, womit das Bild einer von der Materie vollkommen unabhängigen Zeit idealisiert ist.
     
    Es wird immer nur Materie beobachtet, nie aber Zeit direkt. Dies ist vor allem in der Kosmologie bedeutsam, denn während sich unter den heutigen Bedingungen auf der Erde leicht brauchbare Uhren herstellen lassen, kann es in den frühen Phasen des Universums Situationen geben, in denen wegen extrem hoher Dichte unausweichlich ein starker Einfluss zwischen allen Materiebestandteilen vorherrscht. In solchen Fällen kann man als Maß für die Zeit höchstens kosmologische Größen nutzen wie etwa das sich ändernde Volumen des Universums.
     



     

     Beitrag 0-411
    Struktur im Universum

     
     

     
    Zur großräumigen Qualität der Struktur des Universums

     
     
    Immer zutreffendere Simulation der Entwicklung unseres Universums sagen uns viel über universelle Strukturen im Kosmos:
     
     
    Video


     

     Beitrag 0-472
    Das Universum — ein heute recht vieldeutiger Begriff

     
     

     
    Universum — ein heute mehrdeutiger Begriff



    Paul Davies (2006):
     
    Die Zeit, in der man unter dem Universum noch den ganzen Kosmos verstand, ist lange vorbei. Heute gilt:
       
    • Das beobachtbare Universum ist der durch Menschen einsehbare Teil des Weltalls.
       
      Noch um 1900 herum war das kaum mehr als unsere Milchstraße mit einigen ihrer nächsten Nachbarn. Heute aber ist beobachtbar schon fast das ganze prinzipiel beobachtbare Universum:
       
    • Das prinzipiell beobachtbare Universum ist ein — seinem Radius nach — ständig größer werdender Teil des Weltalls: ein kugelförmiger Bereich, dessen Mittelpunkt die Erde ist. Sein Inhalt besteht aus allen Lichtquellen, deren Licht uns eben jetzt erreicht. Wir beobachten sie in dem Zustand, in dem sie waren, als sie jenes Licht abgestrahlt hatten.
       
    • Das gesamte Universum, als die Region des Weltalls, die gleiche Qualität hat wie das Innere unseres Beobachtungshorizonts.
       
    • Taschen-Universen: Man versteht darunter weit von einander entfernter Regionen des Weltalls, die von deutlich unterschiedlicher Qualität sind (in dem Sinne, dass dort sogar noch andere Naturgesetze gelten könnten — auch solche, die bologisches Leben ausschließen.
       
    • Das Multiversum: Das gesamte Weltall, welches man dann aber nicht mehr als von überall gleicher Qualität annehmen kann.

     


     
    Der Theorie ewiger Inflation zufolge muss man sich den physikalischen Kosmos vorstellen als eine unendlich große Menge brodelnder Energie, in der sich — wie in kochendem Wasser — ständig Blasen bilden: die sog. Taschen-Universen. Heisenbergs Unschärfe-Relation zufolge ist die Länge des Zeitraums der Existenz einer solchen Blase umgekehrt proportional zur Menge der sie darstellenden Energie.
     
    Wie Paul Davies in seinem Buch auf Seite 114 berichtet, sagt die Inflationstheorie voraus, dass die Größe einer typischen Blase weit über die Größe des beobachtbaren Universums hinausgeht: um einen Faktor, der — als ganze Zahl geschrieben — grob 10 Milliarden Dezimalstellen hat. Mit anderen Worten:
     
     
      Der durch Menschen beobachtbare Teil des Weltalls könnte Teil eines Taschenuniversums sein,
       
      welches deart groß ist, dass sein Volumen dividiert durch das Volumen unseres Universums eine Zahl ergibt,
       
      die vor dem Komma so um die 10 Milliarden (!) Dezimalstellen hat.

     
    Wenn diese Rechnung grob richtig ist, würde das bedeuten, dass unser Universum im Vergleich zum Taschenuniversum, in dem es sich als kleine Region befindet, um viele Größenordnungen kleiner wäre als ein Atomkern verglichen mit dem gesamten durch Menschen beobachtbaren Universum.
     
     
    Wie Davies in Fußnote 29 betont, hat man zudem zu berücksichtigen, dass nach Einsteins allgemeiner Relativitätstheorie große Entfernungen ebenso wie große Zeitabschnitte von stets relativer Größe sind. Mit anderen Worten: Wer von großen Distanzen spricht, muss immer die Situation des Betrachters mit in Betracht ziehen: Die Blase, in der er selbst sich befindet, wird ihm unendlich groß erscheinen, selbst wenn sie von außen her betrachtet nur endlich groß sein sollte.
     
     
     
    Quelle: Paul Davis: Der kosmische Volltreffer, Campus 2008, S. 53-54
     
    Ausgaben dieses Buches in englischer Sprache sind
    The Cosmic Jackpot. Why our Universe is just right for for life (2007) und The Goldilocks Enigma: Why is the universe just right for life? (2006)


     

     Beitrag 0-473
    Warum die Gesamtenergie unseres Universums nahezu Null ist

     
     

     
    Beim Aufsummieren von Energie

    muss Bindungsenergie (z.B. Gravitation) negativ gewertet werden

     


    Paul Davis (2006):
     
    Das beobachtbare Universum enthält rund 1050 Tonnen an sichtbarer Materie in Form von Sternen Gasen und Staub, die alle zusammen ein gewaltiges Gravitationsfeld bilden.
     
    Wie ich schon erklärt habe, verzerrt die Sonnen die Struktur des Raumes in ihrer Umgebung ein wenig. Andere Sterne erzeugen ähnlich kleine Verwerfungen.
     
    In Summe gesehen können solche Verwerfungen sich ausmitteln mit dem Effekt, dass das Universum flache Geometrie besitzt (also weder Hyperkugel noch Hypersattel ist).
     
    Wie aber findet man denn nun heraus, welcher dieser drei möglichen Fälle vorliegt?

       
      Die Winkelsumme in Dreiecken könnte uns darüber Auskunft geben, aber leider ist das Messen der Winkelsumme von Dreiecken über kosmische Entfernungen hinweg nicht mögöic.
       
      Man erinnert sich deswegen an eine andere Regel: Die Fläche eines Kreises wächst — bei flacher Geometrie — proportional zum Quadrat seines Radius. Auf der Oberfläche einer Kugel stimmt diese Regel aber nicht mehr: Die Fläche wächst dort mit größer werdendem Radius weniger schnell an. Das erkennt sofort, wer versucht, eine Baseballkappe platt zu drücken: Man muss Keile herausschneiden, d.h. eine flache Scheibe kann nicht mit einer Kugeloberfläche von gleichem Radius in Deckung gebracht werden. Umgekehrt wächst die Kreisfläche auf einer Satteloberfläche schneller als mit dem Quadrat des Radius an.
       
      Überträgt man das alles in 3 Dimensionen, so erkennt man schnell, dass in einem Universum flacher Geometrie das Volumen eines Körpers proportional zur 3-ten Pozenz seines Radius wächst, wohingegen es in einer Hyperkugel weniger schnell, in einem Hypersattel aber schneller wächst.
       
      Nun kann man das Volumen eines Raumbereiches aber annähernd dadurch bestimmen, dass man die dort existierenden Galaxien zählt.
       
      Einige Astronomen haben daher versucht, die Geometrie des Raumes auf diese Weise herauszufinden. Ihre Ergebnisse aber sind bislang nicht schlüssig, da es schwer ist, die Abstände zwischen von uns weit entfernten Galaxien hinreichend genau zu bestimmen.
       
      Die Antworten kann man aber auch den WMAP-Daten entnehmen (durch Bestimmung der der Größe der heißen und kalten Flecken in der kosmischen Hintergrundstrahlung).
       
      Die Theoretiker haben bereits vor dem Start des WMAP-Satelliten berechnet, wie groß die stärksten Fluktuationen sein sollten. Für die Umrechnung der Größe in den Winkel am Himmel ist die Raumstruktur entscheidend: Ist der Raum positv gekrümmt, erscheinen die Winkel größer, ansonsten aber kleiner.
       
      Für den Fall dass der Raum flache (= euklidische) Geometrie hat, sollte die Winkelgröße der stärksten heißen und kalten Fluktuationen bei etwa 1 Grad liegen.
       
      Das Ergebnis der Messungen ist eindeutig: Die Fluktuationen liegen sehr nahe bei 1 Grad (ein Ergebnis, das auch durch Messungen vom Boden aus oder von Ballonen bestätigt wird).
       
      Die Kosmologen stellen daher fest, dass der kosmische Raum mit einer Genauigkeit von 2 Prozent flach ist.

     
    Warum aber kann das Universum als Ganzes flach sein, wo es doch vom Schwerefeld der Sonne und anderer Sterne lokal gestärt wird?
     
    Es muss offensichtlich zwischen den Sternen etwas geben, das solch lokale Krümmung wieder zurechtbiegt (ausgleicht), so dass sie im Durchschnitt null beträgt.
     
    Was aber ist dieses Etwas? Es ist Energie im Sinne von Einsteins Formel E = mc2, wobei aber Folgendes zu beachten ist:
     
    Einstein hat diese Formel bewiesen für Ruhemasse m. In jedem anderen Fall muss man diese Gleichung lesen als Definition sog. relativistischer Masse.
     
    Damit das Sinn macht, ist zu berücksichtigen, dass Bindungsenergie (z.B. Gravitation) negative Energie darstellt — einfach dswegen, da sie freizusetzen Arbeit notwendig ist.
     
     
    Halten wir also fest:
      Zur totalen Massenenergie des Universums tragen auch die Wärme-Energie der kosmischen Hintergrundstrahlung, magnetische Felder und die kosmische Strahlung selbst bei und — keineswegs an letzter Stelle — auch das Gravitationsfeld.
       
      Auch Gravitation ist eine Form von Energie. Wer nun aber z.B. die Erde aus ihrer Umlaufbahn um die Sonne heraus bewegen möchte, muss Arbeit leisten, d.h. Energie aufwenden. Das aber bedeutet, dass die Gravitationsenergie, welche die Erde an die Sonne fesselt, negativ ist (da ja Arbeit notwendig ist, die Bindung zu lösen).
       
      Da das Gravitationsfeld negative Energie darstellt, hat es nach der Gleichung E = mc2 — per definitionem — negative relativistische Masse.

     
    Der Teil der Messenenergie des Soonnensystems, der Gravitationsenergie darstellt, ist im Vergleich zur gewaltigen Masse der Sonne unerheblich (ganz so, wie es ja auch bei Atomen der Fall ist: Weniger als 1 Prozent ihrer Energie ist Bindungsenergie).
     
    Die gesamte relativistische Masse des Sonnensystems ist deswegen positiv.
     
    Untersucht man nun aber das gesamte Universum, sieht die Bilanz ganz anders aus: Eine der Besonderheiten der Gravitation ist, dass sie zwischen allen Materieteilchen im Universum wirkt.
     
    Eine einfache Abschätzung der gesamten Gravitationsenergie im beobachtbaren Universum liefert etwa -1050 Tonnen, was — bis aufs Vorzeichen — der Masse aller Sterne und sonstigen Materie im All entspricht.
     
    Die Tatsache, dass zwei so ungeheuer große Zahlen dem Betrag nach nahezu gleich sind, weckt den Verdacht, dass sie sich gegenseitig aufheben, die Nettomasse des Universums deswegen Null sein könnte.
     
    Einsteins allgemeine Relativitätstheorie liefert folgende Beziehung zwischen der Masse (bzw. Energie) des Universums und der Geometrie des Raumes:
       
    • Ist die Gesamtenergie positiv, ist der Raum positiv gekrümmt (wie Einstein vermutet hat).
       
    • Ist die Gesamtmasse negativ, ist der Raum gekrümmt wie ein Sattel.
       
    • Nur wenn sie exakt Null sein sollte, wäre der Raum euklidisch, d.h. von flacher Geometrie.

    Die durch WMAP gesammelten Daten legen nahe, dass mit einer maximalen Ungenauigkeit von nur 2 Prozent der dritte Fall vorliegt (und das ist — wie wir später noch sehen werden — eine notwendige Bedingung dafür, dass im Universum Leben existieren kann).
     


     
    Quelle: Paul Davis: Der kosmische Volltreffer, Campus 2008, S. 64-68
     
    Ausgaben dieses Buches in englischer Sprache sind
    The Cosmic Jackpot. Why our Universe is just right for for life (2007) und The Goldilocks Enigma: Why is the universe just right for life? (2006)


     

     Beitrag 0-474
    Über Gravitation, Druck, Zugspannung (= negativen Druck) und Antigravitation (= negative Gravitation)

     
     

     
    Auch Druck, Zugspannung und Felder jeder Art

    erzeugen Gravitation



    Paul Davies (2006):
     
    Man könnte annehmen, dass die Energie leeren Raumes Null ist, denn schließlich enthält er ja nichts. Das aber ist zu kurz gedacht, denn es kann im Raum ja unsichtbare Felder geben, die auch Energie darstellen.
     
    Einige Felder — wie etwa das elektromagnetische — würden den Raum zum Schrumpfen bringen, andere würden Anitgravitation erzeugen und ihn anschwellen lassen.
     
    Zu letzteren gehören die skalaren Felder, allen voran das durch Alan Guth postulierrte Inflatonfeld, aber auch das Higgsfeld.
      Bisher nachgewisen ist nur das Higgsfeld. Dennoch glauben die Physiker an weitere Skalarfelder, da es gute theoretische Gründe gibt, sie als existent anzunehmen.

    Grundsätzlich muss es zu jedem Skalarfeld ein Trägerteilchen geben (so wie zum Higgsfeld das Higgsboson).
     
     
    Nun aber sei erklärt, warum das Inflaton Antigravitation zur Folge haben muss:

      Nach Einsteins allgemeiner Relativitätstheorie erzeugt jede Präsenz von Energie Gravitation.
       
      Somit ist auch Druck Gravitationsquelle — wenn auch nur ein recht schwache. Es trägt beispielsweise der uns so ungeheur groß erscheinende Druck im Inneren der Erde immerhin knapp 1 Mikrogramm zum Gewicht jedes 100 kg schweren Menschens bei.
       
      Vorsicht aber: Man darf die mechanische Kraft, die vom Druck ausgeht, groß ist und nach außen gerichtet, nicht verwechseln mit der Gravitationskraft, die jener Druck auslöst: Sie nämlich ist nach innen gerichtet und winzig klein.
       
      Note: Normalerweise werden Druck und Energie in verschiedenen Einheiten gemessen. Um den Zusammenhang zwischen beiden zu erkennen, muss man den Druck durch das Quadrat der Lichtgeschwindigkeit dividieren, womit er sich dann als Massendichte darstellt.
       
      Nur wenn Druck wirklich sehr groß wird (wie etwa im Inneren kollabierender Sterne), kann die durch ihn erzeugte Gravitation groß werden.
       
      Der Druck skalarer Felder dagegen ist gut vergleichbar mit ihrer Energie.
       
      Warum aber erzeugt jedes skalare Feld Antigravitation (d.h. negative Gravitation) statt Gravitation?
       
      Das liegt am Druck, der bei einem skalaren Feld negativ ist. Negativer Druck ist nichts Exotisches: Er ist Zugspannung (wie sie z.B. auch in einem gedehnten Gummiband vorliegt).
       
      In einem 3-dimensionalen Gummiblock, an dem in jeder Richtung gezogen wird, herrscht negativer Druck, d.h. eine Kraft, die seiner Gravitation entgegen wirkt.
       
      Fazit also: Jedes skalare Feld erzeugt aufgrund seiner Energie Gravitation und aufgrund seines (negativen) Drucks Antigravitation.
       
      Rechnung zeigt, dass jene Antigravitation die Gravitation um den Faktor 3 schlägt, so dass im Endeffekt jedes skalare Feld antigravitativ wirkt.

     


     
    Quelle: Paul Davis: Der kosmische Volltreffer, Campus 2008, S. 53-54
     
    Ausgaben dieses Buches in englischer Sprache sind
    The Cosmic Jackpot. Why our Universe is just right for for life (2007) und The Goldilocks Enigma: Why is the universe just right for life? (2006)


     

     Beitrag 0-476
    Antigravitation

     
     

     
    Über Antigravitation

    und Einsteins kosmologische Konstante



    Paul Davies (2006):
     
    Einstein war zunächst — wie all seine Zeitgenossen — davon überzeugt, dass kosmischer Raum statisch sei, sich alo weder ausdehnen, noch in sich zusammenziehen würde. Nachdem dann aber Alexander Friedmann (1921) und auch George Lemaitre (um etwa die gleiche Zeit) eine ganze Reihe kosmologischer Modelle — alle Lösungen von Einsteins Gleichungen — fanden, die sich ausdehnende oder sich zusammenziehende Universen beschrieben, hat Einstein das zawr — wenn auch widerwillig — zur Kenntnis genommen und einen Weg gesucht, seine Gleichungen so abzuändern, dass sie wirklich nur ein statisches Universum beschreiben.
     
    Ein Blick auf seine Feldgleichung zeigte ihm, dass seine Theorie mit einem zusätzlichen konstanten Tern je nach Wert dieses Terms den Raum als expandierend, statisch oder in sich zusammenschrumpfend beschreiben würde. Diesen Term, so wurde Einsteik klar, konnte man interpretieren als dem leeren Raum innewohnende Energie bzw. als der Gravitation entgegen wirkende Antigravitation (= negative Gravitation bzw. Zugspannung im Raum).
     
    Antigravitation — Zugspannung also (= negativer Druck) — hat die ungewöhnliche Eigenschaft, mit zunehmendem Abstand anzuwachsen.
     
    Eben das aber hat Einstein sich zunutze gemacht: Er argumentierte, dass diese abstoßende Kraft über die kurzen Entfernungen im Sonnensystem hinweg sehr schwach sein müsse, dort also vernachlässigt werden kann. Gehe es aber um den Abstand zwischen Galaxien, werde die Kraft stärker un zu einem echten Gegengewicht zur Gravitation.
     
    Einsteins Feldgleichung gibt keine Hinweis auf die Stärke dieser abstoßenden Kraft, stellt also einen sog. » freien Parameter « seiner Theorie dar. Es konnte also Einstein diesen Parameter so wählen, dass der Raum weder expandieren noch schrumpfen würde. Nicht klar scheint ihm gewesen zu sein, dass diese statische Lösung instabil ist und kleinste Abweichungen von der idealen Materieverteilung das Universum doch wieder — je nach Vorzeichen der Störung — kollabieren oder expandieren lassen.
     
    1930 reiste Einstein in die USA und traf dort Hubble, der ihm von seinen Beobachtungen berichtete, nach denen das Universum expandiert.
     
    Einstein war sofort klar, welchen Fehler es bedeuten würde, am Modell eines statischen Universums festzuhalten.
     
    Mit der Originalversion seiner Gleichung hätte er selbst zum Schluss kommen können, dass das Universum sich entweder ausdehen oder zusammenziehen müsse.
     
    Nachdem ihm das bewusst wurde, soll Einstein die Einführung seiner sog. "kosmologischen" Konstante bereut und als » größte Eselei « seines Forscherlebens bezeichnet haben.
     
     
    Heute stellt sich die Situation differenzierter dar:
     
    Jene Konstante — so ist man heute der Meinung — entspricht im Vakuum enthaltener Energie und muss — der Größe dieser Energie entsprechend — eben doch in Einsteins Gleichung auftreten. Sie hat die Dimension einer Energiedichte.
     


     
    Quelle: Paul Davis: Der kosmische Volltreffer, Campus 2008, S. 85-86
     
    Ausgaben dieses Buches in englischer Sprache sind
    The Cosmic Jackpot. Why our Universe is just right for for life (2007) und The Goldilocks Enigma: Why is the universe just right for life? (2006)


     

     Beitrag 0-Raum
    Warum selbst kleinste Raumregionen niemals leer sind

     
     

     
    Wie leer und kalt kann Raum werden?

     
     
    Schon im 17. Jahrhunder gelang es dem italientischen Physiker Evangelista Toricelli zu beweisen,dass luftleerer Raum hergestellt existieren und sogar hergestellt werden kann. Sein Prinzip hat zur Erfindung der Quecksilber-Barometer geführt.
     
    Mit extrem großem Aufwand lassen sich heute nahezu luftleere Räume tatsächlich herstellen: Bis hinunter zu etwa 10-13 Millibar, was einer Dichte von wenigen Hundert Molekülen pro Kubikcentimeter entspricht.
     
    An Weltraumbedingungen kommt das aber noch nicht so ganz heran: Selbst kosmischer Raum ist nirgendwo frei von Teilchen — in jedem Kubikmeter findet sich wenigstens ein Wasserstoffatom, und in interstellaren Gaswolken können es schon 10 oder gar 100 sein.
     
     
    Aber selbst kleine Raumbereiche ganz ohne Atomkerne und Elektronen sind keineswegs leer: Es gibt dort mindestens noch Neutrinos.
     
    Durch jeden Quadratzentimeter der Erdoberfläche schießen in jeder Sekunde rund 66 Milliarden Neutrinos, von der Sonne abgestrahlt. Sie wären selbst durch Lichtjahre dicke Mauern aus Blei nicht aufzuhalten.
     
    Abgesehen von ihnen — und vielleicht noch anderer Dunkler Materie — gibt es überall aber mindestens noch Bosonen darstellende Feldanregungen, also Strahlung, z.B. die Wärmestrahlung des kosmischen Hintergrunds, der eine Temeratur von 2,725 ± 0,002 Kelvin hat.

       
      Doch da sich elektromagnetische Wellen abschirmen lassen, sind noch tiefere Temperaturen möglich. So gibt es etwa im von der Erde etwa 5000 Lichtjahre entfernten Bumerang-Nebel einen noch 2 Grad kälteren Ort: Ein Stern dort verliert extrem rasch Gas — die Geschwindigkeit jener Teilchen beträgt bis zu 600.000 km/h, woraus sich ein Kühleffekt ergibt.
       
      Im Low Temperature Lab der TU Helsinki konnten Forscher einen noch kälteren Ort schaffen: Mit Hilfe magnetischer Felder wurden Atomkerne dort fast zum Stillstand bebracht. Die resultierende Temperatur betrug nur noch 10-10 Grad.

     
    Selbst in Atomen und Atomkernen gibt es keinen absolut leeren Raum:
       
    • Atomkerne haben einen Durchmesser von grob 10-15 Meter und sind typischerweise 100 000 Mal kleiner als ihre Elektronenwolke: Wäre ein Atom so groß wie ein Fußballfeld, könnte man den Atomkern mit einem Schweißtröpfen im Mittelpunkt des Feldes vergleichen.
       
    • Auch der Kern selbst ist fast nur leerer Raum: Jedes Nukleon besteht aus 3 Quarks, welche — wie auch Elektronen — einen höchstens 10-18 Meter großen Durchmesser haben (noch genauer können die Physiker heute nicht "hinsehen").
       
    • Und denn ist diese scheinbare Leere ausgefüllt mit wabernden Energiefelder, die Bosonen darstellen und Quantenschaum.
       
      Note: Quantenschaum besteht aus extrem kurzlebigen, einzeln aber nicht beobachtbaren Elementarteilchen jeder nur denkbaren Art. Man nennt sie virtuelle Teilchen — eben weil sie einzeln nicht beobachtbar oder manipulierbar sind.

    Ein wie kleines Stück Raum sich man auch vorstellt: Es wird nie ganz leer, d.h. ganz frei von Energieträgern sein.
     
    Wie der Casimir-Effekt zeigt, ist es jedoch prinzipiell möglich, die Menge dieser schließlich nur noch virtuellen Energieträger kleiner und kleiner zu machen. Sie wird aber dennoch stets unendlich groß sein — dies ergibt sich aus Heisenbergs Unbestimmtheitsrelation für das Paar Energie und Lebensdauer der einzelnen Teilchen.
     
    Wir sehen: Mindestens Quantenschaum existiert überall. Wo er sich verklumpt, entstehen einzeln beobachtbare Elementarteilchen und daraus dann — wenn die Temperatur hinreichend weit absinkt — Atome, Sterne, Galaxien, und ganze Cluster von Galaxien.

     
     
    Quelle: Rüdiger Vaas: Hawkings neues Universum (2008), S. 141-151.


     

     Beitrag 0-1
    Quantenfluktuation plus Gravitation erzeugt Himmelskörper

     
     


    Zitat von Helmut Satz (2013):
     
    Wenn in einem Raumschiff, das sich mit einer hohen konstanten Geschwindigkeit v relativ zur Erde bewegt, die Lichtgeschwindigkeit c die gleiche ist, wie in einem irdischen Labor, dann muss aus unserer Sicht das Längenmaß des Raumschiffes kürzer sein als unseres oder deren Uhr muss langsamer sein als unsere oder beides.

    In der Tat tritt beides auf. Ein festes Maß d0. ein Standardmeter, hat den gleichen Wert für uns hier wie für die Passagiere des Raumschiffs.

    Aber von uns aus gemessen erscheint deren Standardmeter d0 auf eine Länge d geschrumpft

    d  =  d0 • ( 1 – (v/c)2 )1/2


    Und ein festes Zeitintervall t0 erscheint, von der Erde ais gesehen, länger geworden zu sein, den Wert

    t  =  t0 • ( 1 – (v/c)2 )–1/2

    zu haben.
     


    Fast noch deutlicher wird Grtgrt bestätigt durch Bojowald:

    Zitat von Martin Bojowald (2008):
     
    Wenn wir uns beim Betrachten einer Situation schneller bewegen als ein zweiter Beobachter, so erscheinen uns räumliche und zeitliche Abstände in den beobachteten Ereignissen anders als diesem.

    Wie ein Wechsel des Sichtwinkels die räumlichen Ausdehnungen ineinander überführt, so wandelt ein Ändern der Geschwindigkeit beim Beobachten räumliche in zeitliche Abstände um und umgekehrt.

    Aus diesem Grunde ist die Unterscheidung zwischen räumlicher und zeitlicher Ausdehnung vom Standpunkt (oder genauer von der "Standbahn", wenn wir uns wirklich bewegen) abhängig und hat keine physikalische Basis unabhängig von Beobachtern. Anstatt Raum und Zeit zu trennen, gibt es nur ein einziges gemeinsames Objekt: die Raumzeit.
     



    Quelle: Seite 24 des Buches Zurück vor den Urknall von Martin Bojowald (Fischer Taschenbuchverlag, 3. Auflage 2012)

    Martin Bojowald lehrt Theoretische Physik an der Penn State University, USA.


     

     Beitrag 0-90
    Der Inflationstheorie nach könnte unser Universum Teil einer Quantenfluktuation sein

     
     

     
    Ist unser Universum eine Quantenfluktuation?

     
     
    Man hält es heute nicht mehr für so ganz abwegig, dass unsere Universum eine jener Vakuumfluktuationen sein könnte, die es zulassen, dass Anhäufungen von Teilchen aus dem Nichts hervorbrechen, eine Weile existieren und sich dann wieder — wie der verglühende Funke eines Feuerwerks — in Nichts auflösen.
     
    Diese Idee geht zurück bis auf Ludwig Boltzmann, den Begründer der modernen Thermodynamik. Sein Argument:
     
    Das das Universum sich im thermodynamischen Gleichgewicht befinden müsste, es aber offensichtlich nicht ist, könnte sein gegenwärtiger Zustand das Ergebnis einer zeitweiligen Abweichung vom Gleichgewicht sein. Nach den Gesetzen der Statistik wäre sie zulässig, vorausgesetzt das Gleichgweicht ist im Mittel langfristig erhalten.
     
    Natürlich ist die Wahrscheinlichkeit, dass es in der Größenordnung des Universums zu einer solchen Fluktuation kommt, extrem gering, aber falls der Kosmos seit unendlicher Zeit existierte, wäre es praktisch sicher, dass es schließlich auch zu so einem Ereignis kommt, und da nur eine derart extreme Abweichung vom Gleichgewicht Leben zulässt, wäre ist nicht erstaunlich, dass gerade wir uns darin vorfinden (in anderen Zuständen könnte es uns so einfach gar nicht geben (anthropischen Prinzip)).
     
     
    Boltzmann fand mit diesen seinen Vorstellungen keinen Anklang (ja damals nicht mal mit denen zur Thermodynamik allgemein).
     
    1971 aber kam JohnGribbin (in Nature, Bd. 232, S. 440) auf diese Idee zurück, indem er sich ausmalte, wie das Universum — durch eine extrem mächtige Quantenfluktuation geboren — sich zunächst ausdehnen und dann wieder in sich zusammenstürzen könnte.
     
    Zwei Jahre später nahm Edward Tryon (City University, New York, 1973) den Gedanken auf und entwickelte ihn weiter (in Nature, Bd. 246, S 396). Er legte dar, dass das Universum — falls seine Energiebilanz Null ist — gemäß Heisenbergs Unbestimmtheitsrelation
     
     
    ΔE Δt  >  h/2π

     
    tatsächlich auch als Quantenfluktuation praktisch beliebig lange existieren kann. Er schrieb (Zitat): Ich behaupte nicht, dass Welten wie die unsere häufig vorkommen, sondern nur, dass die zu erwartende Häufigkeit nicht Null ist. Aus der Logik der Sache ergibt sich jedoch, dass Beobachter sich stets in Welten befinden, die imstande sind, Leben hervorzubringen, und solche Universen sind von imponierender Größe.
     
     
    Ein ganzen Jahrzehnt lang blieb die Idee unbeachtet. Schließlich begann man doch, sich ernsthaft mit ihr auseinanderzusetzen. Die Berechnungen aber zeigten — anders als Tryon zunächst erwartet hatt — dass ein als Quantenfluktuation entstandenes Universum winzig klein und ein sehr kurzlebiges Phänomen sein müsse.
     
    Dann aber fanden Kosmologen doch eine Möglichkeit, wie dieses so winzige Universum in einer dramatischen Explosion aufgeblüht sein könnte: Unter Berücksichtigung der um 1980 entstanden Inflationstheorie nämlich kann es sich durchaus in weniger als einem Augenblick so vergrößert haben, dass es dem Universum, das wir heute kennen, entspricht.
     
    Anzeichen dafür, dass die Inflationstheorie richtig sein könnte, hat man kürzlich gefunden. Zudem sprechen Simulationsergebnisse für ihre Richtigkeit.
     
     
    Im übrigen haben die Kosmologen schon vorher nach der » fehlenden Masse « Ausschau gehalten, die dafür sorgen könnte, dass unser Universum ein geschlossenes ist.
     
    Was sie besonders gut brauchen könnten, wären Gravitionos mit einer Masse von etwa 1000 eV pro Teilchen: Die nämlich würden nicht nur zu einem geschlossenen Universum führen, sondern wären nach den Gleichungen, die die Ausdehnung des Raumes nach dem Urknall beschreiben, genau das Richtige, um die Bildung von Materie-Ansammlungen von der Größe typischer Galaxienhaufen hervorzurufen.
     
     
    In den letzten Jahren ist das Interesse der Kosmologen an der Teilchenphysik noch stärker gewachsen, da nach der neuesten Interpretation der Symmetriebrechung die gebrochene Symmetrie selbst die treibende Kraft gewesen sein könnte, die unsere Raumzeit-Blase in ihren Expansionszustand versetzt hat.
     
      Wir sprechen hier von den ganz frühen Anfängen des Universums, noch bevor es 10-35 sec alt (und wohl mehr als 1028 K heiß) war.
       
      Die durch den Bruch der Symmetrie hervorgerufene Expansion dürfte exponentiell gewesen sein und die Größe jeden Raumvolumens alle 10-35 sec ver­doppelt haben. Das entspricht der Vergrößerung eines Gebietes von der Größe eines Protons in sehr viel weniger als 1 sec auf die Größe des heute beobachtbaren Universums. Innerhalb diesen expandierenden Raumes werden sich dann wohl durch weiteren Phasenübergang ebenfalls Blasen gebildet haben, deren jede der von uns bewohnten Raumzeit entsprechen könnte.

     
    Diese Theorie löst eine ganze Reihe kosmischer Rätsel und erklärt nicht zuletzt auch die sehr bemerkenswerte Tatsache, dass unsere Blase der Raumzeit sich in einem Tempo auszudehnen scheint, das gerade an der Grenze zwischen einem geschlossenen und einem offenen Universum liegt: Die Theorie vom sich auf­blähenden Universum  f o r d e r t , dass wegen des Verhältnisses der Masse/Energie-Dichte der Blase und der sie aufblähenden Kraft genau dieses Gleichgwicht erreicht wird.
     
    Dieses Bild weist uns eine ganz unbedeutende Rolle im Universum zu, denn ihm zufolge befindet sich alles, was wir im Universum beobachten können, innerhalb einer Blase, die sich wiederum in einer sehr viel größeren, ebenfalls expandierenden findet.
     
    Guth hat in seiner ersten Version des sich aufblähenden Universums nicht versucht, zu erklären, woher die erste winzige Blase kam. Es erscheint jedoch als nicht allzu weit hergeholt, sie mit einer Quantenfluktuation gleichzusetzen (so wie Tryon es beschrieben und vor ihm auch schon Boltzmann gedacht hat).

     
     
    Quelle: John Gribbin: Auf der Suche nach Schrödingers Katze — Quantenphysik und Wirklichkeit, Piper 2004, S. 288-290.


     

     Beitrag 0-329
    Pauldrachs erweiterte Higgs-Theorie (2017)

     
     

     
    Adalbert Pauldrachs erweiterte Higgs-Theorie

     
     
    Kosmologen ebenso wie Elementarteilchenphysiker beschäftigen immer noch 3 ungelöste Fragen:
       
    • (1)   Woher kommt die in unserem Universum beobachtete Asymmetrie zwischer Materie und Antimaterie?
       
    • (2)   Aus was besteht Dunkle Materie?
       
    • (3)   Wie ist Dunkle Energie zu verstehen?

    Einen sehr interessanten Ansatz, wenigstens (1) und (2) zu beantworten — wenn nicht auch einen Teil der Frage (3) — stellt eine erst kürzlich durch A.W.A. Pauldrach skizzierte Theorie dar: Siehe Kapitel 18 seines Buches Das Dunkle Universum (2. Auflage 2017).
     
     
    Note: Der Springer-Verlag weist ausdrücklich darauf hin, dass bei Erscheinen des Buches für diese Idee noch keinen Peer-Review-Prozess durchlaufen war.
     
    Interessant scheinen mir Pauldrachs Darlegungen dennoch, denn selten hat man als Nicht-Fachmann die Gelegenheit, Fachleute dabei zu beobachten, wie sie eine neu vorgeschlagene Theorie diskutieren, die sich wohl erst Jahrzehnte später als durch fast alle Physiker akzeptiert oder als unhaltbar erwiesen haben wird.
     
     
    Hier nun die Grundidee:

       
      Im Gegensatz zum Standardmodell der Elementarteilchenphysik kann Pauldrch sich vorstellen, dass das Antiteilchen des Higgs-Bosons ein vom Higgs-Boson verschiedenes Teilchen ist mit einer noch unbekannten Ladung.
       
      Wenn das richtig sein sollte, kann man nicht ausschließen, dass ihre Kopplung an Materie zahlreiche Higgs-Bosonen daran gehindert hat, sich mit ihren Antiteilchen in Nichts aufzulösen. Eben diese — dann natürlich auch übrig gebliebenen — Anti-Higgs-Teilchen könnte die Teilchen sein, die Dunkle Materie darstellen (eine uns bislang rätselhafte Gravitationsquelle).
       
      Da das Higgs-Boson etwa 125 Mal so energiereich ist wie ein Nukleon, kämen auf 1 Higgs-Boson (ebenso wie auf 1 Anti-Higgs-Teilchen) etwa 25 Teilchen baryonischer Materie.
       
      Diese Teilchen konnten nach Inflationsende — als die gewöhnliche Materie entstand — nicht annihilieren, da ihre Partner als Higgs-Bosonen an die gewöhnliche Materie gebunden waren und so für den Annihilierungsprozess nicht mehr verfügbar waren. Ihrer falschen Ladung wegen konnten sie auch nicht anderweitig vernichtet werden, und so könnte es sehr gut sein, dass ihre mittlere Lebenserwartung deutlich länger ist als eine Hubble-Zeit, sprich: das Alter unseres Universums.
       
      Letztlich wären diese Anti-Higgs-Teilchen dann auch dafür verantwortlich, dass Sterne und ganze Galaxien entstehen konnten.

     
    Fußnoten:
       
    • Higgs-Bosonen werden primär aus Fluktuationen der Quanten des Higgsfeldes gebildet. Sie stellen Anregungszustände des Feldes dar, die mit einem fest vorgegebenen Energiewert verbunden sind.
       
    • Um gewöhlicher Materie Masse zu verleihen, sind stets eine bestimmte Anzahl von Higgs-Bosonen wie mit Handschellen an gewöhnliche Materie gekoppelt. Dies betrifft natürlich — wie bei allen Quantenfluktuationen — nur den Mittelwert der Higgs-Bosonen: Die individuellen Teilchen kommen und gehen entsprechend ihrer Lebensdauer.
       
    • Pauldrach weist explizit darauf hin, dass seine Argumentation auf zwei Annahmen aufbaut, zu denen die Elementarteilchenphysiker noch nicht ja gesagt haben:
         
      • 1. dass Materieteilchen aufgrund ihrer eigenen Higgsladung nur an positive, aber nicht an negative Higgsladungen ankoppeln können, und
         
      • 2. dass an Materieteilchen gekoppelte Higgs-Bosenen — wegen eben dieser Kopplung — nicht zerfallen können (und so nur noch Annihilation mit einen Anti-Higgs sie beseitigen kann).


     

      Beitrag 2030-2
    Über den Beginn des Urknalls (Bojowalds Theorie)

     
     
    Bravesteufelchen aus 2030-1:
     
    Viele schreiben wegen des "Urknalles" aber der Punkt, den es wohl da geben sollte, muss doch irgendwo herkommen und wie kann sich was aus "Nichts" bilden, es ist kein Raum, es hat keine Materie, keine Moleküle, was is es dann Nichts. Ich komm nicht weiter, alles muss sich doch irgendwie bilden, oder?
     


    Eine in den Jahren 2002 bis 2007 von Martin Bojowald auf Basis von Loop Quantum Gravity entwickelte Theorie — Quanten-Kosmologie — verspricht, uns ein viel genaueres Bild vom Urknall zu verschaffen:

    Nach dieser Theorie hat schon lange vor dem Urknall "eine Art Spiegelbild" unseres Universums existiert, welches dann immer mehr zusammengeschrumpft ist bis hin auf einen Durchmesser von nur noch etwa 0.36 Planck-Längen. Ab da, so sagt die neue Theorie, habe es begonnen, sich neu auszudehnen (so dass jener Zeitpunkt — wenn man ihn so nennen will — das wäre, was wir bisher als den Beginn des Urknalls gesehen haben: die Geburt von Raum und Zeit im Sinne der Allgemeinen Relativitätstheorie.

    Was hier mit "eine Art Spiegelbild" gemeint ist, war ein Universum, dessen physikalische Gesetze sich als Spiegelbild der heute durch uns beobachtbaren physikalischen Gesetze darstellen (so z.B. in dem Sinne, dass die Zeit vor dem Urknall in umgekehrter Richtung verlief).

    Ausführlicher wird all das dargestellt auf den ersten 4 Seiten von The inverted Big Bang (2004).


    Siehe auch: Quanten-Kosmologie behebt Sigularitäten Allgemeiner Relativitätstheorie.

     

      Beitrag 1209-40
    -

     
     
    Haronimo in 1209-39:
    ... habe ich das gefunden:

    " Vor einigen Jahren fand Martin Bojowald, ein ehemaliger Forscher des Albert-Einstein-Instituts im Rahmen einer vereinfachten Version der Schleifen-Quantengravitation Hinweise darauf, dass sich Zeit und Raum eventuell durch den Urknall hindurch zurückverfolgen lassen. "

    Was meinst du dazu?


    Hallo Haronimo:

    Bojowalds Buch werde ich erst noch lesen müssen — bis dahin kenne ich seine Theorie nur aus einem 2-seitigen Papier, das ich noch nicht mal wiederfinde, aus dem ich aber den Eindruck mitnahm, dass es sich dabei um eine kleine Verfeinerung von Einstein Gleichungen der ART handelt, die sich ergab als Bojowald — so etwa 2002 — mit Einsteins Gleichungen herumgespielt hat.

    Bojowalds Ergebnis scheint ein wichtiger Beitrag im Bemühen, eine Theorie der Quantengravitation zu schaffen.
    Er scheint dabei eng mit Ashtekar zusammengearbeitet zu haben (beide forschen und lehren an der Penn University).

    Sollte ich jemals mehr dazu erfahren, werde ich nicht vergessen, das hier im Forum kund zu tun.

    Beste Grüße,
    grtgrt


    PS: Siehe auch meinen Beitrag 2030-2 und eine Notiz aus 2005, die sagt: » Freed from the singularity, Bojowald can now look back to a time "before" the Big Bang. He finds an inverted universe on the other side — a mirror-image of ours — expanding outwards as time runs backwards. «

    Bojowalds eigene Zusammenfassung seiner Theorie (Update 2008) ist mir zu mathematisch — ich verstehe praktisch nichts davon.

     

      Beitrag 1209-43
    -

     
    Grtgrt in 1209-42:
     
    Haronimo in 1209-41:
     
    Bojowald will mit seiner Theorie, die Urknall Singularität umgehen in dem er annimmt dass die Einsteins kontinuierliche Raumzeit aus einer Art Raum-Atome aufgebaut ist.

    Leider habe ich nicht kapiert,  w i e  er denn eigentlich zu solch diskreten Raum-Zeit-Atomen kommt.

     

    Gebhard,

    das ergibt sich doch aus der Problematik, die ART mit der Quantenmechanik verbinden zu wollen. Jeder, der eine Theorie "von Allem" formulieren will, wird nicht an diesen beiden Theorien vorbeikommen. Und der einzig mögliche Weg scheint für die Mehrheit der Wissenschaftler zu sein, die Raumzeit zu quantifizieren, schließlich ist das das Konzept der Quantenmechanik, die unbestritten äußerst gute, experimentell bestätigte Aussagen macht. Und die ART ist ähnlich gut bestätigt. Was ist möglich? Aus einer kontinuierlich angenommenen Raumzeit eine Raumzeit zu machen, die aus Quanten besteht - oder eine aufs Beste bestätigte Quantenmechanik kontinuierlich zu machen?

    Wie Bojowald zu seinen Raum-Zeit-Atomen kommt? Er nimmt sie einfach an. Außerdem: Die Idee stammt also gar nicht von ihm.
     

      Beitrag 1209-46
    -

     
     
    Henry in 1209-43:
     
    Wie Bojowald zu seinen Raum-Zeit-Atomen kommt? Er nimmt sie einfach an.

    Henry in 1209-45:
     
    Wie ich darauf komme? DAS ist einfach eine logische Schlussfolgerung aus dem Wissensstand der Physik, es gibt keinen, nicht den geringsten Hinweis oder ein vorgeschlagenes oder durchgeführtes Experiment oder gar Nachweis darüber, woraus die Raumzeit besteht oder ob sie überhaupt physikalisch real ist. Sollte die Raumzeit real sein, ist es aber unabdingbar, genau das zu wissen: Ist sie nach der ART kontinuierlich oder ist sie gequantelt? Warum aber ist noch kein MATHEMATISCHES Modell zufriedenstellend zum Abschluss gebracht? Eben weil es bislang keine Möglichkeit gab, den experimentellen Nachweis über die Struktur der Raumzeit zu führen -falls sie eine Struktur hat. Wenn es anders wäre, wäre die gesamte Diskussion über die Vereinigung von ART und Quantenmechanik oder eine andere Theorie entschieden - ist aber nicht so.


    Hallo Henry,

    was Du im zweiten Zitat sagst, sehe ich ebenso.

    Dass er sie einfach annimmt, glaube ich aber nicht, denn dann könnte er ja rein gar nichts zu ihren Eigenschaften sagen.
    Das aber ist nicht der Fall, denn seine Gleichungen bestimmen gewisse Eigenschaften jener Atome.

    Setzt man also die Gültigkeit seiner Gleichungen voraus, fällt die Existenz jener Raum-Zeit-Atome wohl nicht einfach vom Himmel.

    Gruß, grtgrt

     

      Beitrag 1209-48
    -

     
     
    Henry in 1209-47:
    Gebhard,

    was du oder ich glauben ist leider vollkommen irrelevant. Fakt ist, das JEDES Modell der Raumzeit, des Raumes, der Zeit nur ein mathematische Modell ist.

    Natürlich fallen die Gleichungen nicht vom Himmel, das ändert aber nichts daran, dass sie die Wirklichkeit nur zu beschreiben versuchen und nicht sind. Es gibt zur Zeit und – wahrscheinlich für sehr, sehr lange Zeit – keine wie immer geartete Möglichkeit, nachzuweisen, WAS Raum und Zeit oder auch die Raumzeit SIND. Falls sie eine Struktur aufweisen, liegt diese wenigstens zwanzig Größenordnungen unterhalb der Nachweisbarkeit, zehn hoch minus zweiunddreißig oder so. Und selbstverständlich KANN er nichts zu ihren Eigenschaften sagen, soweit sie tatsächlich real sind, das kann auch z. B. die Stringtheorie über ihre Strings nicht, sie kann nur etwas über die mathematischen Schlussfolgerungen sagen, wenn man bestimmte Strukturen annimmt. Die Theorien sind vielleicht logisch schlüssig, aber bis zum physikalischen Beweis durch das Experiment eben das – Theorien.


    Hallo Henry,

    meine Feststellung war lediglich:
    • Bojowald hat gewisse Gleichungen, eine Theorie also.
    • Dieser Theorie entsprechend gibt es Raum-Zeit-Atome mit gewissen Eigenschaften.

    Aber nätürlich hast Du recht, dass Experimentalphysik sie vielleicht nie wird nachweisen können.

    Man muss deswegen versuchen, seine Theorie auf andere Weise zu widerlegen.
    Hoffen wir also, dass sie falsifizierbar ist (d.h. widerlegbar oder zutreffend).

    Ich behaupte natürlich  n i c h t  zu wissen — oder auch nur begründet zu vermuten — welche der beiden Möglichkeiten die tatsächlich zutreffende ist oder ob nicht gar die dritte zutrifft, die da wäre, dass seine Theorie weder als zutreffend noch als falsch nachgewiesen werden kann.


    Genauer: Soweit ich sehen kann enthält die Theoretische Physik kein Argument, welches für eine dieser 3 Möglichkeiten mehr spricht als für die jeweils anderen beiden.

    Da ich den Eindruck habe, dass, wer mit Einsteins Gleichungen gut umgehen kann, Bojowalds Theorie in weit kürzerer Zeit ebenso gut verstehen könnte wie er Stringtheorie verstehen könnte, wüsste ich schon, worin ich arbeiten würde, wenn ich die Absicht hätte, in Theoretischer Physik zu promovieren.

    Beste Grüße,
    grtgrt

     

      Beitrag 1057-71
    Wie das Universum anschwillt (und eben nicht explodiert)

     
    Grtgrt aus 1057-69:
    Man stelle sich einen Film vor, in dem sich zwei Objekte aufeinander zu bewegen. Wenn wir jetzt den Abstand zwischen dem Projektor und der Bildleinwand zunehmend schneller vergrößern, wird das Bild immer schnell immer größer und deswegen irgendwann (auf der Leinwand wenigstens) auch der Abstand der aufeinander zufliegenden Objekte immer größer — und das, obgleich sie weiter aufeinander zufliegen.

    Der Raum, den unser Universum aufspannt, ist vergleichbar mit jener Leinwand.

     

    Hallo Grtgrt,
    das mit dem Verschieben vom Projekter hinkt aber noch mehr als das mit dem aufblasen vom Ballon. Das ist ja nur eine Änderung des Blickwinkels. Dabei könnten die Galaxien sogar relativ zu einander völlig still stehen. Wenn ich meinen Blick ihrer Mitte annährer (ob durch eigene Bewegung oder Bewegung des Bildes per Projektor) wirkt es nur so, als ob die Galaxien auseinander driften bis sie aus meinem Blickfeld verschwinden. Und dabei wirken die Galaxien auch optisch größer werdend und nicht wie bei der Ausdehnung vom Universum kleiner.
    LG Peterchen


    Hallo okotombrok,

    danke für die doch sehr ausführliche Antwort, auf meinen eigentlich nicht so total ernsten Text. *zwinker*


    Okotombrok aus 1057-70:
    Nun ist beim Ballonmodell nur die Oberfläche zu betrachten, das Innere und Äußere denke man sich weg (zwar kann das Modell erweitert und das Innere, den wachsenden Radius, als das Vergehen der Zeit betrachtet werden, aber das lasse ich für meine Betrachtungen 'mal außen vor). Nun kann man am Modell zwei Sachverhalte erkennen:
    1.) es gibt keinen Rand
    2.) es gibt keinen Mittelpunkt

    Und drittens könnte man, bei einer derartigen Gestaltung, ausgesendete Signale die um den Ballon herum wandern, selber wieder empfangen. Zumindest wenn man lange genug leben könnte und die mit Lichtgeschwindigkeit beweglichen Signale jemals ein Objekt das sich selbst mit Lichtgeschwindigkeit ausdehnt umrunden können ;-)

    Okotombrok aus 1057-70:
    Kein Punkt einer Kugeloberfläche ist gegenüber einem anderen ausgezeichnet, und nur Oberfläche wollen wir betrachten.

    Na ja, ich würde die Stelle wo man den Ballon aufpusten kann schon als eine Besondere sehen und durchaus als das Zentrum der Ballon-Ausdehnung *lächel* (Bitte nicht zu ernst nehmen ;-))

    Was ich damit schon sagen möchte ist, dass dies ja nur ein Model ist und das mir diese Gewissheit von keinem Rand und keinem Zentrum eigentlich nicht so gewiss ist. Natürlich liegt das auch daran, dass man es sich einfach sehr schwer vorstellen kann.

    Okotombrok aus 1057-70:
    Natürlich hast du recht, dass sich auf kleineren Skalen oder lokal betrachtet Galaxien durch Gravitation aufeinander zubewegen (oder besser aufeinander zufallen, schließlich besitzen sie keinen Raketenantrieb um zu beschleunigen). Das tut aber der Expansionstheorie keinen Abbruch.

    Ja das stimmt schon, man könnte sagen, durch die globale räumliche Ausdehnung, entfernen sich alle Galaxien tendenziell von einander und dies wirkt auch lokalen Gravitationsannäherungen zumindest entgegen.
    Aber es hebt sie nicht überall auf, schließlich kollidieren Galaxien ineinander und bilden gemeinsame kugelförmige Galaxien. Wenn das Ballon-Model erklärt wird kommt jedoch immer eine knappe Aussage das sich alle Galaxien von einander entfernen und das stimmt so absolut gesehen nicht wie es die Aussage suggeriert.

    Okotombrok aus 1057-70:
    Auf größeren Skalen oder global betrachtet driften die Galaxien auseinander. Das kann und wird, egal in welche Richtung wir schauen, auch in der Natur beobacht, durch eine Rotverschiebung, die nach Abzug der gravitativen Rotverschiebung übrig bleibt.

    Ja ok, je weiter weg, um so mehr Rotverschiebung, was die globale Ausdehnung beweist und wodurch nun auch eine stetige Geschwindigkeitszunahme angeommen wird. Aber bei der uns nahen Andromedagalaxie ist nun mal eine Blauverschiebung, da sie uns näher kommt. Der große Zusammenstoß wird in etwa 2,5 Milliarden Jahren erwartet. Zum Glück noch lange hin ;-)

    Okotombrok aus 1057-70:
    Bedenke einmal Folgendes: Die Beobachtung, dass alles sich von der Erde entfernt, lässt doch nach deinen Vorstellungen nur den Schluss zu, dass die Erde der Mittelpunkt des Universums und der Ort des Urknalls wäre. Das sollte man als halbwegs nüchtern denkender Mensch heutzutage nicht mehr in Betracht ziehen.

    Das ist ja wieder nur eine Frage des Blickwinkels. Egal wo man ist, sieht es beim Blick in weit entfernte Galaxien so aus als ob sie sich von einem immer weiter entfernen, im räumlichen oder gravimetrischen Zentrum sähe es so aus (und dort würde es dann sogar stimmen), aber auch außerhalb eines solchen Zentrums sähe das nicht anders aus, denn wir wissen ja inzwischen das sich die Erde doch auch selber drehen tut, obwohl wir davon nichts merken ;-)

    Aber man kann dieses Gedankenspiel auch anders aufziehen. *lächel* Vorm Urknall soll unser Universum ja eine Singularität in der Größe eines Sandkorns gewesen sein. So einen kleinen Ort in der Größe eines Sandkorns kann man sich als Mensch ja nun prima als das ursprüngliche Zentrum vorstellen.
    Allerdings ist da alle Materie schon drin gewesen, zwar in einer so großen Dichte die man sich wieder ganz schlecht vorstellen kann, aber alles also auch die Materie der Erde war da schon in diesem Sandkornmittelpunkt. Womit wir also schon immer im Mittelpunkt waren. Das hätte Galileo Galilei bei seinem Prozess mal wissen sollen :-) Allerdings trifft das auch auf alles andere im Universum zu womit alles im Zentrum wäre oder auch nix. ;-)

    LG Peterchen
    Beitrag zuletzt bearbeitet von Peterchen am 12.08.2012 um 20:39 Uhr.

     

      Beitrag 1057-73
    Wie das Universum sich vergrößert

     
    Zitat von Peterchen:
    Hallo Grtgrt,
    das mit dem Verschieben vom Projektor hinkt aber noch mehr als das mit dem aufblasen vom Ballon. Das ist ja nur eine Änderung des Blickwinkels.

    Hi Peterchen,

    du hast meinen Vergleich missverstanden. Er sollte dir sagen, dass die Expansion des Universums einer Skalierung gleichkommt in dem Sinne, dass sie alle Entfernungen darin um denselben Faktor vergrößert.

    Eben deswegen gibt es auch kein Zentrum, von dem diese Vergrößerung ausgeht.

    Gruß, grtgrt
     

      Beitrag 1057-77
    Die Ausdehnung hat kein Zentrum!

     
    Hallo Grtgrt,

    Grtgrt aus 1057-76:
    Zitat von Henry:
    Und um es zu wiederholen: Falls der Urknall der Beginn von Allem ist, KANN es gar keinen Mittelpunkt geben.

    Henry,

    kannst Du da bitte genauer werden. Ich nämlich sehe keine wirkliche Begründung für diese Aussage.

    Gruß, grtgrt


    die Frage war zwar an Henry gerichtet, aber ich denke, ich verstehe ihn in seiner Aussage richtig und seine Ansichten dazu teile ich.

    Alles unter der Premisse der Urknall war der Anfang.
    Allein die Formulierung, der Urknall habe irgendwann und irgendwo stattgefunden, ist an sich schon falsch.
    Irgendwann heißt zu einem bestimmten Zeitpunkt und irgendwo heißt an einem bestimmten Ort im Raum.
    Wenn der Urknall als Anfang des Universums gesehen wird, dann ist nicht nur Materie, sondern auch Raum und Zeit erst entstanden.
    Es gab kein Vorher und kein Woanders und man kann sich den Urknall nicht als von außen betrachtet denken. So gesehen kann man nun darüber streiten, ob das Universum keinen Mittelpunkt hat oder dieser sich überall befindet, weil das Universum überall entstanden ist. Und wenn das Universum unendlich ist, so muss es das auch schon im Moment des Urknalls gewesen sein.

    mfg okotombrok
     

      Beitrag 1057-79
    Big Bang ist: ultraschnelle Ausdehnung des Raumes (bzw. der Raumzeit)

     
    Hi Okotombrok,

    alles, was du sagst, sehe ich ebenso.

    Keine dieser Tatsachen aber begründet, was Henry glaubt: Dass nämlich der Urknall (wenn es ihn gab), ausschließt, dass das Universum einen Mittelpunkt hat.

    Hätte Henry recht, müsste aus der Annahme, ein aus einem Big Bang entstandenes Universum könne einen Mittelpunkt haben, ein Widerspruch ableitbar sein (wie auch immer man sich diesen Mittelpunkt defniert denkt). Nach diesem Widerspruch frage ich Henry.

    Gruß, grtgrt


    PS: Ich sehe gerade, dass Henry geantwortet hat. Seine Antwort aber überzeugt mich nicht (ich empfinde sie, als Logiker, nicht schlüssig).

    Davon abgesehen sollte man aber doch zur Kenntnis nehmen, dass rein gar nichts für die Existenz eines irgendwie gearteten Mittelpunkts spricht.
     

      Beitrag 1057-75
    Darkness at the End of the Universe

     
    Zitat von Peterchen:
    Wenn es allerdings zutrifft das sich unser Universum mit Lichtgeschwindigkeit ausdehnt und es nichts gibt das sich schneller bewegen kann, dann können wir die Ausdehnung unseres Universums nie ermitteln ....

    Hi Peterchen,

    man weiß heute: Unser Universum hat sich den meisten Teil der ersten Hälfte seiner Geschichte mit abnehmender Geschwindigkeit ausgedehnt. Dann aber — als es etwa 7 Mrd. Jahre alt war — begann seine Expansionsgeschwindigkeit wieder zuzunehmen. Das ist bis heute so geblieben.

    Leider weiß ich nicht, wie groß die Geschwindigkeit ist, mit der unser Universum heute expandiert.

    Wichtig ist: Seine Expansionsgeschwindigkeit hat nichts, aber auch gar nichts, mit der Lichtgeschwindigkeit zu tun. Brian Greene schreibt gegen Ende seines Aufsatzes Darkness at the Edge of the Universe explizit:

    Although nothing can move through space faster than the speed of light, there’s no limit on how fast space itself can expand.


    Die Frage allerdings, ob die Lichtgeschwindiggkeit oder andere Naturkonstanten nicht vielleicht doch irgendwann kurz nach dem Urknall etwas andere Werte hatten als heute, scheint mir noch nicht geklärt.

    Gruß, grtgrt
     

      Beitrag 1057-93
    Schlauchartige Dimensionen (Rolle-up Dimensions)

     
    Zitat von Peterchen:
    Mir gefällt im weiteren Verlauf die Aussage, dass wir eigentlich nur den "kleinen" BU Teil beurteilen können und nicht ganz U. ...
    Doch irgendwie stellen wir uns damit auch ins Zentrum dessen was wir sehen können, als seien wir doch im Mittelpunkt des Universums und es ist eine Kugel mit einem Radiusvon 13,75 Millarden Lichtjahren um uns herum. *schmunzel*

    Hi Peterchen,

    stell dir vor, du stehst in einem Flur, der weit hinten am anderen Ende (und nur dort) ein Fenster hat. Ich bin sicher, du würdest niemals auf den Gedanken kommen, den Mittelpunkt des kleinen Teiles der Welt, den jenes Fenster dir sichtbar macht, für den Mittelpunkt der Welt zu halten.

    Entsprechend naiv wäre es, den Mittelpunkt von BU für den Mittelpunkt des Universums U zu halten.

    Gruß, grtgrt
     

    PS: Meine Aussage übrigens, der Radius von BU betrage 13.75 Mrd. Lichtjahre, ist nicht ganz richtig. Er beträgt in Wirklichkeit etwa 42 Mrd. Lichtjahre.
    Warum das so ist, erklärt die Redaktion der Zeitschrift SPEKTRUM in Beantwortung des ersten Leserkommentars zum Artikel Multiversum in Beweisnot.
     

      Beitrag 1057-111
    Einfaches Beispiel eines Raumes mit hyperbolischer Geometrie

     
     
    Danke, H...,

    dein Beispiel überzeugt mich (ein Universum hyperbolischer Geometrie ist vergleichbar mit der Oberfläche des Rotationskörpers — kann also, wie er, unendlich weit sein).

    Damit können wir jetzt zur Frage zurückkehren, wie es passieren könnte, dass ein Urknall in endlicher Zeit (wie wir denken) ein Universum zur Folge haben kann, in dem es Entfernungen gibt, die jede nur denkbare Länge übertreffen.

    Gruß,
    Gebhard
     

      Beitrag 1057-113
    Antwort darauf

     
     
    Hi H...,

    das ist mir alles durchaus bekannt. Aber meine Frage ist nicht die, ob eine (bestimmte) besonders große Ausdehnung zustandekommen kann, sondern wie es denn sein könnte, dass wirklich zu JEDER noch so großen Zahl X in unserem Universum zwei Punkte A(X) und B(X) existieren, deren Abstand größer als X ist.

    Wenn dem so wäre, müsste sich unser Universum wenigstens kurze Zeit mit unendlich großer Geschwindigkeit ausgedehnt haben — was nicht denkbar ist.

    Gruß, grtgrt
     

      Beitrag 1057-125
    Endlich, aber doch ohne Grenzen

     
    Wie ich sehe, bist du meiner Meinung:

    Unser Universum kann nicht unendlich weite Ausdehnung haben (auch wenn es grenzenlos sein sollte).

     

      Beitrag 1057-142
    Eine treffende Feststellung — sollte man sich merken

     
    Harti aus 1057-136:
    Grtgrt aus 1057-123:
    Mir legt das den Verdacht nahe, dass die Natur die Begriffe unvorstellbar klein und unvorstellbar groß irgendwie als gleichwertig betrachtet.

    Hallo Grtgrt,

    ich bin der Meinung, dass der Gegensatz klein-groß eine Folge unserer Methode zur Erfassung der Natur ist und keine Eigenschaft von Objekten.

    Hi Harti,

    das finde ich sehr treffend - muss ich mir merken.

    Danke, grtgrt
     

      Beitrag 52-19
    Das Wenige, das wir über die Ausdehnung des vom Urknall geschaffenen Raumes wissen

     
     
    Zeitreisender in 52-5:
     
    Also das Universum ist nicht unendlich!
    Ich meine, dies hat die Wissenschaft bereits geklärt. Die Größe des Durchmessers (unserers) Universums, findest du sogar auf dieser Website.


    Nein, die Wissenschaft konnte das bislang noch  n i c h t  klären. Tatsache ist:
    • Unter dem Urknall versteht man das erste Ereignis, von dem wir mit Sicherheit wissen, dass es stattfand.
    • Wir wissen nicht, ob — und wenn ja, in welchem Sinne — ihm andere Ereignisse vorausgingen.
    • Auch die Urknalltheorie lässt völlig offen, ob unser Universum in  r ä u m l i c h e r  Hinsicht unendlich groß ist.
      Wo man vom endlichen Durchmesser unseres Universums spricht, meint man damit nur den Durchmesser des uns beobachtbaren Teiles eines Raumes, den der Urknall geschaffen zu haben scheint (des sog. Weltalls, das dem entspricht, was Physiker unsere Raumzeit nennen). Wir wissen nicht, ob es darin Entfernungen gibt, die deutlich größer als 46 Mrd. Lichtjahre sind oder gar unendlich große Entfernungen. Betrachtet man den uns sichtbaren Teil des Universums als einen kugelförmigen Bereich um uns herum, so reicht der bis hin zu Orten, an denen es Lichtquellen gab, deren Licht uns gerade noch erreichen kann. Dass die von uns (heute) deutlich weiter entfernt sein können als nur 13.8 Mrd. Lichtjahre, erklärt sehr schön der Physiker MartinB.

     

      Beitrag 52-35
    Wie man sich die ständige Aufblähung des Weltraums vorzustellen hat

     
     
    Quante in 52-30:
     
    Wenn wir in alle Richtungen des Himmels blicken, so wird bei Messungen auf Grund der Rotverschiebung festgestellt, dass sich alle Objekte von uns entfernen. Nun, gut so, erst einmal, erklärt wird es u.a. mit der Expansion des Raumes. Das dumme daran ist nur, Andromeda vollzieht eine genau entgegengesetzte Bewegungsrichtung, sie kommt auf uns zu und wird in ein paar Mrd. Jahren mit unserer Galaxie kollidieren. Was kann also die Ursache dafür sein, daß Andromeda, im Gegensatz zu allen anderen Galaxien, auf uns zukommt, sie müsste doch gefälligst, entsprechend der Expansion des Raumes sich ebenfalls von uns entfernen.

    Es gäbe eine ganz einfache logische Erklärung dafür, sie war nicht schon immer Bestandteil unseres Universums und ist als solche, vor langer Zeit, in unser Universum eingedrungen. Damit wäre die Eigenart ihrer Bewegungsrichtung erklärt ohne sich verbiegen zu müssen, bzw. eine unlogische Konsequenz zu erzeugen.


    Hi Quante,

    es gibt da noch eine viel einfachere Erklärung:

    Die überall gleich schnelle Expansion des Raumes bedeutet, dass sich die Entfernung zwischen je zwei Orten im Raum mit ein und derselben Geschwindigkeit vergrößert.
    Nun sind die Galaxien im Raum aber Objekte, die sich — analog zu Fahrzeugen auf der Erde —  z w i s c h e n  solchen Orten bewegen.

    Wo sich zwei Fahrzeuge (Galaxien) aufeinander zu bewegen, kann der Abstand zwischen ihnen also durchaus ständig kleiner werden, selbst dann, wenn die Entfernung zwischen jenen Orten sich ständig vergrößert (die "Straße", die sie nehmen, sich also dehnt).

    Der Abstand der Fahrzeuge voneinander wird genau dann ständig kleiner werden, wenn die Geschwindigkeit v1, mit der die Fahrzeuge sich relativ zur Straße bewegen, größer ist als die Geschwindigkeit v2, mit der die Straße sich verlängert.

    Gruß, grtgrt

    Noch ein Gleichnis: Vergleicht man den Raum mit der Oberfläche eines Luftballons, der aufgeblasen wird (so dass seine Oberfläche sich ständig vergrößert), würden die Galaxien z.B. Ameisen entsprechen, die auf der Oberfläche des Luftballons herumlaufen. Aus der Tatsache, dass zwei solcher Ameisen aufeinander zulaufen und sich schließlich treffen können, kann ja auch nicht geschlossen werden, dass die Oberfläche des Ballons sich nicht dennoch ständig vergrößert.

     

      Beitrag 2016-162
    Wie schnell expandiert unser Universum heute?

     
     
    Rockdee aus 2016-160:
     
    Wie schnell expandiert das Universum?


    Josef Hoell — vom Deutschen Zentrum für Luft- und Raumfahrt (DLR), Abt. Extraterrestik — schrieb(im Mai 2013):

    Zitat:
     
    Fast alle Galaxien entfernen sich von uns, und ihre Geschwindigkeit wächst linear mit der Entfernung. Nach heutigen Messungen hat die "Hubble-Konstante" — die Proportionalitätskonstante zwischen der Entfernung einer Galaxie und der Geschwindigkeit [ mit der sie sich von uns entfernt
     

      Beitrag 2035-22
    Mehr zur Expansion des Universums

     
     
    Okotombrok aus 2035-10:
    Grtgrt aus 2035-7:
    Dass die SRT auf sie nicht anwendbar ist, liegt wohl einfach daran, dass die davon ausgeht, dass sich kein Körper relativ zu einem anderem mit einer Geschwindigkeit höher als c bewegen kann.

    Nun: Auch die ART geht davon aus. Warum aber sagen ihre Gleichungen uns dann, dass der Raum sich sehr wohl mit höherer Geschwindigkeit ausdehnen kann?

    Hallo Grtgrt,

    die ART sagt aus, dass der Raum sich beschleunigt ausdehnt und wir somit höhere Geschwindigkeiten als c ermitteln.
    Nicht aber die Sterne bewegen sich mit Überlichtgeschwindigkeit voneinander fort, und schon gar nicht beschleunigt.


    Hi Okotombrok,

    wie interpretiertst Du dann Brian Greenes Aussage, dass sich Raum-Regionen mit Überlichtgeschwindigkeit voneinander wegbewegen können (was in meinen Augen impliziert, dass auch die Entfernung von einem Stern in einer dieser Regionen von einem Stern in einer anderen dieser Regionen entsprechend schnell größer wird)?


    Zitat von Greene auf Seite 51 in The Hidden Reality:
     
    The speed of light refers solely to the motion of objects through space. But galaxies recede from each other not because they are traveling through space — they do so because space itself is swelling and the galaxies are being dragged along by the overall flow ... Relativity places no limit on how fast space can swell, so there is no limit on how fast galaxies being pushed apart by the swell recede from one another: The rate of recession between any two galaxies can exceed any speed, including the speed of light.

    Indeed, the mathematics of general relativity shows that in the universe's earliest moments, space would have swelled so fast that regions would have been propelled apart at greater than light speed.

    As a result, they would have been unable to exert any influence on one another.
     


    Konkreter noch (siehe den letzten Teil von Greenes Aufsatz » Darkness on the Edge of the Universe «):

    Man hat errechnet, dass schon in etwa 100 Mrd. Jahren aus der Milchstraße heraus nur noch Sterne zu sehen sein werden, die in ihr selbst oder ihrer unmittel­baren Umgebung liegen; gemeint ist: in der sog. Lokalen Gruppe — diese Gruppe, bestehend aus nur etwa 30 Galaxien, wird dann eine Welt sein, in der nichts mehr darauf hindeutet, dass es über sie hinaus noch weitere Teile des Universums gibt.


    Nur innerhalb der Galaxien expandiert der Raum kaum oder gar nicht:

    Zitat von Lisa Randall in: Die Vermessung des Universums, S. 394-395:
     
    Beispielsweise sind Atome durch elektromagnetische Kräfte eng aneinander gebunden. Sie werden kein bisschen größer. Dasselbe gilt für relativ dichte, stark aneinander gebundene Strukturen wie Galaxien: Die Kraft, die die Expansion [des Universums antreibt, wirkt zwar auch auf sie, aber weil andere Kraftbeiträge am Werk sind, wachsen die Galaxien nicht selbst mit der Gesamtexpansion des Universums. Sie unterliegen so starken Anziehungskräften, dass sie gleich groß bleiben, während ihre relative Entfernung voneinander größer wird.
     

    Gruß,
    grtgrt

     

      Beitrag 2035-24
    -

     
    Hallo Grtgrt,

    Grtgrt aus 2035-22:
    wie interpretiertst Du dann Brian Greenes Aussage, dass sich Raum-Regionen mit Überlichtgeschwindigkeit voneinander wegbewegen können (was in meinen Augen impliziert, dass auch die Entfernung von einem Stern in einer dieser Regionen von einem Stern in einer anderen dieser Regionen entsprechend schnell größer wird)?

    die Rede war davon, dass Sterne keine Relativgeschwindigkeiten größer als c erreichen können und dass sie nicht beschleunigt sind.
    Dass beides nicht der Fall ist, ist sicher nicht einfach einzusehen.
    Hilfreich ist hier das bekannte Ballonmodell. Ich denke du kennst es und ich müsste es eigentlich nicht erläutern, aber dein Unverständnis zeigt mir, dass es noch nicht wirklich verstanden ist.
    Stellen wir uns auf einem Ballon aufgemalte Punkte vor. Sie können sich auf dem Ballon, da aufgemalt, nicht bewegen.
    Wird nun der Ballon gleichmäßig aufgeblasen und wir uns vorstellen auf einem der Punkte zu stehen, so beobachten wir, dass alle Punkte sich von uns entfernen. Weiter entfernte Punkte schneller als naheliegende, so, dass wir eine beschleunigte Bewegung beobachten.
    Es kann sich aber nicht um beschleunigte Bewegung handeln, da Beschleunigung mit Kraft einhergeht und diese verspührt werden müsste. Da keiner der Punkte ausgezeichnet ist, müssten auch wir auf unserem Punkt eine Beschleunigung erfahren, tun wir aber nicht. Alle Punkte verbleiben in ihren Grundzustand der Ruhe, solange keine Kraft auf sie wirkt.

    mfg okotombrok
     

      Beitrag 2031-25
    Dunkle Energie

     
     
    Kurt aus 2031-24:
     
    Henry aus 2031-23:
     
    Die Idee der Dunklen Energie ist gar nicht so neu,

    Frage: was ist Energie?

    Etwas das real existiert, oder nur eine Idee?


    Was Dunkle Energie ist, weiß heute niemand (und so darf man auch das Wort "Energie" darin nicht allzu wörtlich nehmen).

    Bis auf weiteres bezeichnet "Dunkle Energie" einfach nur den bisher noch unbekannten Mechanismus, der bewirkt, dass es eine der Gravitation entgegenwirkende Kraft gibt, die bewirkt, dass unser Universum expandiert.

     

      Beitrag 2042-21
    Gibt es über unsere Welt hinaus noch weiteren Raum?

     
     
    Harti aus 2042-16:
    Hallo zusammen,
     
    ich habe da mal eine grundsätzliche Frage zum Thema. Wohin dehnt der Raum (der Kosmos) sich denn aus ? Gehört nicht auch das, wohin er sich ausdehnt zum Raum ? Kann ich den Bereich, in den er sich ausdehnt, zunächst anders als Raum bezeichnen und anschließend, wenn der Raum sich dorthin ausgedehnt hat, dann erst als "Raum" ?
     


    Hallo Harti,

    mal abgesehen von einer zeitlichen Dimension, leben wir in einer Welt, die 3 (räumliche) Dimensionen hat.

    Wir können uns zwar fragen, ob es mehr gibt, es könnte aber gut sein, dass diese Frage für uns unentscheidbar ist. Das heißt:
    • Es könnte gut sein, dass der 3-dimensionale Raum, in dem wir leben, in keinen höher dimensionalen eingebettet ist.
    • Es könnte aber ebenso gut sein, dass unser Raum wirklich in einen höher dimensionalen eingebettet ist (ob wir das dann erkennen oder ganz prinzipiell NICHT erkennen können, wäre eine zweite Frage). Nehmen wir mal an, ein Raum, der umfassender ist, aber unseren beinhaltet, habe N > 3 Dimensionen. Es würde sich dann aber sofort die analoge Frage nochmals stellen, die da wäre: Ist jener Raum eingebettet in einen, der mehr als N Dimensionen hat?
    • Wenn man so also jeden uns bewusst werdenden Raum in einen eingebettet sähe, der noch mehr Dimensionen hat, stünde man letztlich vor der Frage: Ist unsere Welt eingebettet in eine, die unendlich viele Dimensionen hat?

    Das bedeutet: Es könnte gut sein, dass die Physiker irgendwann wirklich beweisen können, dass es über die 3 uns bekannten Raumdimensionen hinaus noch weitere gibt. Ob das dann aber schon alle sind, werden sie auch dann NICHT entscheiden können: Dass etwas existiert, das sich unserer Wahrnehmung entzieht, kann nie ausgeschlossen werden.


    Betrachten wir jetzt umgekehrt ein Wesen,
    • das auf einer Kreislinie lebt
    • und zwar so, dass es denkt, seine Welt habe nur eine einzige Dimension. (Wir nehmen also an, es könne von nichts wissen, was nicht genau auf jener Kreislinie liegt.)

    Wir, die wir erkennen können, dass es neben der Kreislinie (im Inneren des Kreises und auch außerhalb des Kreises) noch mehr Raum gibt, könnten jetzt auf den Gedanken kommen, den Radius des Kreises zu vergrößeren. Für jenes Wesen würde das bedeuten, dass der 1-dimensionale Raum, in dem es lebt, expandiert (und dass der Abstand zwischen bestimmten Orten seiner Welt, zunehmend größer wird).

    Wenn wir also sehen, dass der 3-dimensionale Raum, in dem wir leben, expandiert, könnte das ganz analog sein: Wir kennen Orte darin — Galaxien — und sehen, dass deren Abstand sich ständig vergrößert. Dennoch können wir  n i c h t  entscheiden, ob es außerhalb unseres Raumes noch anderen Raum gibt.


    Mit anderen Worten:

    Uns steht — derzeit, und vielleicht sogar für immer — kein Freiheitsgrad zur Verfügung,
    der uns aus unserem 3-dimensionalen Raum hinaus führen würde.


    Solange uns aber so ein Freiheitsgrad nicht wenigstens gedanklich gegeben ist, können wir nicht wissen, ob es auch außerhalb unseres Universums noch "Raum" gibt.

    Gruß, grtgrt


    PS: Interessant ist auch: Selbst wenn wir irgendwann erkannt haben würden, dass der Raum, in dem wir leben, eingebettet ist in einen, der unendlich viele Dimensionen hat, stünden wir doch weiter vor der Frage, ob jener Raum nicht wieder eingebettet sein könnte in einen, der noch mehr Dimensionen hat (Mathematiker nämlich wissen: Für jede Kardinalzahl — und sei es eine unendlich große — existieren unendlich viele Kardinalzahlen, die noch weit größer sind).

     

      Beitrag 2042-22
    -

     
    Grtgrt aus 2042-21:
    Es könnte gut sein, dass der 3-dimensionale Raum, in dem wir leben, in keinen höher dimensionalen eingebettet ist.

    Es könnte aber ebenso gut sein, dass unser Raum wirklich in einen höher dimensionalen eingebettet ist (ob wir das dann erkennen oder ganz prinzipiell NICHT erkennen können, wäre eine zweite Frage). Nehmen wir mal an, ein Raum, der umfassender ist, aber unseren beinhaltet, habe N > 3 Dimensionen. Es würde sich dann aber sofort die analoge Frage nochmals stellen, die da wäre: Ist jener Raum eingebettet in einen, der mehr als N Dimensionen hat?

    Hallo Grtgrt,

    ja, in der Mathematik stellt sich diese Frage. Aber nicht unbedingt in der Physik. Zum Beispiel hat das Modell von Stephen Hawking fünf Dimensionen und Schluss. Wenn es gut sein könnte, dass der 3-dimensionale Raum, in dem wir leben, in keinen höherdimensionalen eingebettet ist, dann kann es ebenso gut sein, dass das fünfdimensionale Modell von Stephen Hawking in keinen höherdimensionalen Raum eingebettet ist.

    Grtgrt aus 2042-21:
    Wenn man so also jeden uns bewusst werdenden Raum in einen eingebettet sähe, der noch mehr Dimensionen hat, stünde man letztlich vor der Frage: Ist unsere Welt eingebettet in eine, die unendlich viele Dimensionen hat?

    Dies ist nur eine mathematische Fiktion, die in der Physik keine Bedeutung hat. Warum? Weil man "unendlich viel" prinzipiell nicht messen kann.

    Grtgrt aus 2042-21:
    Wir, die wir erkennen können, dass es neben der Kreislinie (im Inneren des Kreises und auch außerhalb des Kreises noch mehr Raum gibt) könnten jetzt auf den Gedanken kommen, den Radius des Kreises zu vergrößeren. Für jenes Wesen würde das bedeuten, dass der 1-dimensionale Raum, in dem es lebt, expandiert (und dass der Abstand zwischen bestimmten Orten seiner Welt, zunehmend größer wird).

    Wenn wir also sehen, dass der 3-dimensionale Raum, in dem wir leben, expandiert, könnte das ganz analog sein: Wir kennen Orte darin — Galaxien — und sehen, dass deren Abstand sich ständig vergrößert. Dennoch können wir  n i c h t  entscheiden, ob es außerhalb unseres Raumes noch anderen Raum gibt.

    Einverstanden.

    M.f.G. Eugen Bauhof
     

      Beitrag 2042-23
    -

     
     
    Bauhof aus 2042-22:
     
    Zum Beispiel hat das Modell von Stephen Hawking fünf Dimensionen und Schluss.

    Wenn es gut sein könnte, dass der 3-dimensionale Raum, in dem wir leben, in keinen höherdimensionalen eingebettet ist, dann kann es ebenso gut sein, dass das fünfdimensionale Modell von Stephen Hawking in keinen höherdimensionalen Raum eingebettet ist.


    Hallo Eugen,

    mir ist nicht klar, von welchem 5-dimensionalen Modell Du da sprichst.
    Wo kann man was dazu nachlesen?


    Bauhof aus 2042-22:
    Grtgrt aus 2042-21:
     
    Wenn man so also jeden uns bewusst werdenden Raum in einen eingebettet sähe, der noch mehr Dimensionen hat, stünde man letztlich vor der Frage: Ist unsere Welt eingebettet in eine, die unendlich viele Dimensionen hat?

    Dies ist nur eine mathematische Fiktion, die in der Physik keine Bedeutung hat. Warum? Weil man "unendlich viel" prinzipiell nicht messen kann.


    Meine Überlegung eine rein gedankliche Fiktion zu nennen, scheint mir nicht gerechtfertigt, denn:
    • Mathematiker können auch unendlich großen Mengen M recht treffsicher eine jeweils ganz bestimmte Zahl "unendlich(M)" als Kardinalität zuordnen.
    • Die Tatsache, dass man mit unendlich großen Zahlen nicht so rechnen kann wie mit endlichen, bedeutet keineswegs, dass man damit gar nicht rechnen kann. Insbesondere ist die Gesamtheit aller unendlich großen Zahlen linear geordnet, so dass, wer zwei solcher Zahlen hat, sehr wohl sagen kann, ob sie gleich sind, und wenn nicht, welche davon die größere ist.
    • Beide Tatsachen zusammen genommen zeigen, dass man "unendlich viel" eben doch messen kann.
    • Noch wichtiger aber: Für mich sind mathematische Gesetzmäßigkeiten — als von der Natur geschaffene Gesetze — Teil der Natur und so natürlich auch Gegenstände der Physik. Ich halte es für durchaus denkbar, dass ALLE physikalischen Gesetzmäßigkeiten Folge mathematischer Gesetzmäßigkeiten sind.

    Gruß, grtgrt
     

      Beitrag 2042-27
    -

     
     
    E... aus 2042-24:
    Grtgrt aus 2042-23:
    (...)
    Die Tatsache, dass man mit unendlich großen Zahlen nicht so rechnen kann wie mit endlichen, bedeutet keineswegs, dass man damit gar nicht rechnen kann. Insbesondere ist die Gesamtheit aller unendlich großen Zahlen linear geordnet, so dass, wer zwei solcher Zahlen hat, sehr wohl sagen kann, ob sie gleich sind, und wenn nicht, welche davon die größere ist.
     
    Schön wäre es, wenn Du uns erschließen kannst, wie man zwei unendliche Zahlenwerte der Größe nach einordnet.


    Gerne, E...,
    das ist ganz einfach:

    Mathematiker verstehen unter einer unendlich großen Zahl die Kardinalität ein nicht endlichen Menge M, genannt card(M) .

    Sind nun   u1 = card( M1 )   und   u2 = card( M2 )   zwei so definierte Zahlen, so ist — ganz gleich, ob sie nun endlich oder unendlich groß sind — stets

    • u1 = u2   gleichbedeutend damit, dass es eine bijektive Abbildung von M1 nach M2 gibt.
    • u1 < u2   bedeutet: Es gibt eine injektive Abbildung von M1 nach M2, aber  k e i n e  injektive Abbildung von M2 nach M1.

    Eine besonders leicht verständliche, umfassende Darstellung der Kardinalzahltheorie findet sich auf nur 42 Seiten in Erich Kamke: Mengenlehre, Kap II (Göschen, Band 999/999a, 1965). Sie behandelt folgende Themen:

    • Erweiterungen des Zahlbegriffs
    • Die Skala der Kardinalzahlen
    • Die Summe zweier Kardinalzahlen
    • Das Produkt zweier Kardinalzahlen
    • Die Summe beliebig vieler (z.B. unendlich vieler) Kardinalzahlen
    • Das Produkt beliebig vieler (z.B. unendlich vieler) Kardinalzahlen
    • Die Potenz
    • Beispiele zur Potenzrechnung

    Für die Potenzen von Kardinalzahlen gelten dieselben Regeln wie für die Potenzen endlicher nicht-negativer ganzer Zahlen.
    Darüber hinaus hat man für jede Menge M

    card( M )   <   2card( M )   =   card( p(M) ) ,


    wo p(M) die Menge aller Teilmengen von M bezeichnet (die sog. Potenzmenge von M).

     

      Beitrag 2042-25
    Steven Hawkings 5-dimensionales Universum

     
    Grtgrt aus 2042-23:
    ...mir ist nicht klar, von welchem 5-dimensionalen Modell Du da sprichst. Wo kann man was dazu nachlesen?

    Hallo Grtgrt,

    Das kann man nachlesen in [1]. Stephen Hawking schreibt dazu auf Seite 175 folgendes:

    Zitat:
    Legt man die Keine-Grenzen-These zugrunde, so zeigt sich, dass man die Wahrscheinlichkeit der meisten möglichen Geschichten des Universums vernachlässigen kann, dass es aber eine bestimmte Familie von Geschichten gibt, die wahrscheinlicher sind als die anderen. Diese Geschichten kann man sich vorstellen wie die Oberfläche der Erde, wobei der Abstand vom Nordpol der imaginären Zeit entspricht und die Größe eines Kreises mit gleichbleibendem Abstand vom Nordpol die räumliche Ausdehnung des Universums angibt. Das Universum beginnt als ein einziger Punkt am Nordpol. Je weiter man sich südlich bewegt, desto größer werden die Breitenkreise mit gleichbleibendem Abstand zum Nordpol, die der Ausdehnung des Universums mit der imaginären Zeit entsprechen (Abb. 27).

    Am Äquator würde das Universum seine maximale Größe erreichen und sich mit fortschreitender imaginärer Zeit am Südpol wieder zu einem einzigen Punkt zusammenziehen. Obwohl die Größe des Universums am Nord- und am Südpol Null wäre, wären diese Punkte keine Singularitäten, genauso wenig wie der Nord- und der Südpol der Erde singulär sind. Die Naturgesetze behalten an ihnen ihre Gültigkeit, wie es am Nordpol und Südpol der Erde der Fall ist.


    Die rechts dargestellte Kugel bezeichnet er an anderer Stelle als "Fünfdimensionale Blase". Ich interpretiere die Skizze wie folgt:

    1. Die vierdimensionale "Oberfläche" dieser Kugel identifiziere ich als die vierdimensionale Raumzeit, allerdings enthält diese Stephen Hawkings imaginäre Zeit und nicht unsere reelle Zeit, wie wir sie erleben.

    2. Die eingezeichneten "Breitenkreise" identifiziere ich als das räumliche 3-D-Universum, hier in der Skizze um zwei Dimensionen vermindert.

    3. Die mit der imaginären Zeit fortschreitende Universum-Expansion wird dargestellt als die Bewegung des Breitenkreises über die Kugeloberfläche. Wobei die Punkte "Urknall" und "Großer Kollaps" keine ausgezeichneten Punkte in der imaginären Raumzeit sind. Am "Äquator" dieser Kugel hat das 3-D-Universum seine größte Ausdehnung erreicht. Danach schrumpft es bis zum Großen Kollaps.

    M.f.G. Eugen Bauhof

    [1] Hawking, Stephen W.
    Eine kurze Geschichte der Zeit.
    Die Suche nach der Urkraft des Universums.
    Reinbek bei Hamburg 1988
    ISBN=3-498-02884-7
     

      Beitrag 2042-31
    Was man unter einer Sigularität (eines Raumes) zu verstehen hat

     
     
    Bauhof aus 2042-28:
    Zitat von Hawking:
     
    Obwohl die Größe des Universums am Nord- und am Südpol Null wäre, wären diese Punkte keine Singularitäten, genauso wenig wie der Nord- und der Südpol der Erde singulär sind. Die Naturgesetze behalten an ihnen ihre Gültigkeit, wie es am Nordpol und Südpol der Erde der Fall ist.

    Hallo zusammen,

    Preisfrage (ohne Preisverleihung):
    Warum sind der Nordpol und der Südpol der Erde keine Singularitäten?

    M.f.G. Eugen Bauhof


    Antwort aus physikalischer Sicht:
    • weil es kein physikalisches Gesetz gibt, das am Nordpol oder am Südpol weniger definiert wäre als an irgend einem anderen Punkt der Erde.

    Antwort aus mathematischer (geometrischer) Sicht:
    • weil, wenn X und Y zwei unterschiedliche Punkte einer Kugeloberfläche sind, zu jeder Umgebung von X eine dazu isomorphe Umgebung von Y existiert (und das ganz unabhängig davon, ob einer der beiden Punkte die Rolle "Südpol" oder "Nordpol" spielt).


    VORSICHT aber: Letztlich folgt aus beiden Argumenten nur, dass jeder Punkt der Erde genauso viel bzw. genauso wenig singulär ist, wie jeder andere.

    Diese Einschränkung wird gegenstandslos, wenn man definiert:

    Ein Punkt P eines topologischen Raumes R heißt  s i n g u l ä r , wenn für wenigstens eine topologische Umgebung U von P gilt:
    Es existiert ein Konzept K, welches nicht in P, aber überall sonst in U wohldefiniert ist.


     

      Beitrag 2042-33
    Nicht jeder singuäre Punkt ist isoliert singulär

     
     
    Bauhof aus 2042-32:
    Grtgrt aus 2042-31:
     
    Ein Punkt P eines topologischen Raumes R heißt  s i n g u l ä r , wenn für wenigstens eine topologische Umgebung U von P gilt: Es existiert ein Konzept K, welches nicht in P, aber überall sonst in U wohldefiniert ist.

    Hallo Grtgrt,

    diese Definition gefällt mir sehr gut.


    Hallo Eugen,

    es freut mich, dass Dir meine Definition gefällt. Aber gerade deswegen möchte ich klarstellen, dass sie eigentlich nicht den Begriff » singulär « definiert, sondern den noch schärferen Begriff » isoliert singulär «.

    Den Unterschied beider zu erkennen, betrachte man eine 2-dimensionale Ebene, auf der — bezugnehmend auf ein gewisses kartesisches Koordinatensystem — die Funktion  K(x,y) = 1/(x-y)  definiert ist.

    Singuäre Punkte dieses Konzeptes K sind sämtliche Punkte der Geraden x = y (so dass keiner dieser singulären Punkte meiner Definition aus Beitrag 2042-31 gehorcht).

    Genau genommen also, muss man sagen:


    Zitat von grtgrt (nun wirklich genau):
     
    Ein Punkt P eines topologischen Raumes R heißt  s i n g u l ä r , wenn es ein Konzept K gibt, welches nicht in P definiert ist, aber doch für jede topologische Umgebung U von P in mindestens einem Punkt aus U.
     


    PS: Natürlich ist auch dieser feine Unterschied in der Diskussion zwischen Kletzenbauer und Henry bedeutungslos, denn die beiden haben sich unter sigulären Punkten ja ohnehin isoliert singuläre vorgestellt (an die Möglichkeit, dass auch singuläre Punkte dicht liegen können, haben sie wohl nicht gedacht — weswegen denn auch ich zunächst nicht davon sprach).

    Gruß, grtgrt
     

      Beitrag 2080-3
    -

     
     
    U... in 2080-1:
     
    Kann etwas aus dem Nichts entstehen und was ist eigentlich "Nichts"?
    Wenn wir zu den Sternen blicken, dann sind die untereinander Millionen von Kilometern entfernt, aber dazwischen ist nicht "Nichts". Selbst das Vakuum ist nicht "Nichts"....


    Das sehe ich ebenso. Das Vakuum scheint so eine Art Höhle zu sein, in der sich alle momentan in unserem Universum vorhandene, nicht benötigte Energie versteckt, aus dem sie portionsweise herauskommt und wohin sie sich bei Verschmelzung zweier virtueller Teilchen auch portionsweise wieder zurückzieht.

    Das Vakuum ist so eine Art kosmischer Gewitterwolke, aus der ständig Blitze kommen in Form paarweise geborener virtueller Teilchen, die ihren Zwillingsbruder verlieren können, die sich — in dem Fall — dann nicht sofort wieder ins Vakuum zurückziehen können und so dazu beitragen, dass Materie entsteht.


    U... in 2080-1:
     
    Die Frage nach dem Urknall ist für mich nicht plausibel erklärt. Einerseits geht man davon aus, dass am Beginn der Zeit alles in einem Punkt konzentriert war. Da müssen also entweder bereits alle Teilchen / Teilcheneigenschaften konzentriert in einem Punkt vereint gewesen sein. Das wäre meiner Meinung nach das ultimative schwarze Loch mit einer Gravitation, die der Summe aller Gravitationskräfte im gesamten Universum entspricht. Oder aber es sind erst Teilchen entstanden. Aber woher? Aus dem Nichts?

    Das, U..., muss man genauer so sehen:

    Wie all unsere physikalischen Theorien sind auch die Urknalltheorie und ihre Verfeinerung, die Inflationstheorie, nur aussagekräftig bis auf die Größenordnung der Planckskala hinunter. Mit anderen Worten: Was Du und andere als "einen Punkt" verstehen ist in Wirklichkeit, und wohl auch nur näherungsweise, eine Kugel mit zeitlich wie räumlich durchaus positivem (wenn auch extrem kleinem) Durchmesser: Die Eizelle sozusagen, die sich dann zu dem entwickelt hat, was wir heute als den Inhalt unserer Raumzeit sehen.

    Erst Bojowalds Theorie hat das uns allen so richtig klar gemacht.


    U... in 2080-1:
     
    In diesem Zusammenhang ist für mich auch die Definition der schwarzen Löcher fraglich. Einerseits heißt es, dass die Gravitation so stark sei, dass nicht einmal Licht entfliehen kann. Andererseits spricht man von "Jets", die nahezu mit Lichtgeschwindigkeit Teilchen aus den schwarzen Löchern schießen. Überhaupt: Ist ein schwarzes Loch gar kein Loch, sondern eine Materiekugel von ungeahnter Dichte, in die doch nichts mehr eindringen kann...

    Findet Ihr die Erklärungen der Wissenschaft nicht auch widersprüchlich?


    In John Barrow: Einmal Unendlichkeit und zurück (2004) liest man auf Seite 113:

    Ganz gegen einen weit verbreiteten Glauben sind Schwarze Löcher nicht unbedingt kompakte Objekte.

    Große Exemplare, wie man sie im Zentrum von Galaxien vermutet, sind milliardenfach schwerer als unsere Sonne, aber trotzdem ist ihre Dichte geringer als die von Luft!
    Wir könnten ihren Ereignishorizont glatt durchqueren und würden nichts Seltsames bemerken. Nur ein Versuch umzukehren würde scheitern.


    Etwas mehr dazu findet sich im ersten Teil von Beitrag 2078-1.
     

      Beitrag 2080-5
    -

     
     
    Grtgrt in 2080-3:
     
    Was Du und andere als "einen Punkt" verstehen ist in Wirklichkeit, und wohl auch nur näherungsweise, eine Kugel mit zeitlich wie räumlich durchaus positivem (wenn auch extrem kleinem) Durchmesser: Die Eizelle sozusagen, die sich dann zu dem entwickelt hat, was wir heute als den Inhalt unserer Raumzeit sehen.

    Horst in 2080-4:
    Donnerwetter grtgrt, woher kennst du denn die Wirklichkeit?

    Die Singularität "Urknall" war also in Wirklichkeit eine Kugel mit "zeitlichem" und "räumlichem" Durchmesser? Wie denn das?

    Zeit und Raum sind doch angeblich erst nach/mit dem Urknall entstanden!


    Hallo Horst:

    Bitte nimm den Ausdruck "Kugel" nicht so ganz wörtlich. Gemeint ist etwas extrem Kleines: von seiner Funktion her eine Art Eizelle, aus der dann das wurde, was heute der Inhalt unserer Raumzeit ist bzw, je nach Sprechweise, eben diese Raumzeit.

    Bitte berücksichtige: Die Urknalltheorie selbst gibt zu, dass sie die Geschichte unseres Universums nicht bis zum Beginn aller Zeit zurückverfolgen kann. Die Tatsache, dass die Mathematik der ART den Urknall zu einer Singularität macht, bedeutet in Klartext nichts anderes, als dass es eine Zeit gab, zu der die gesamte Energie unseres Universums in einer Region konzentriert war, deren Durchmesser die Größenordnung der Plancklänge hatte. Ein Punkt muss sie deswegen aber keineswegs gewesen sein (von einem Punkt zu sprechen ist lediglich eine populärwissenschaftliche begriffliche Vergröberung, die nicht wörtlich genommen werden darf).

    Genau genommen ist die Sache noch komplizierter: Man kann nicht ausschließen, dass schon jene "Eizelle" sehr groß, vielleicht sogar unendlich groß war. Wirklich unauflösbar klein (durch die ART nicht auflösbar) muss der Urknalltheorie nach nur der Teil der am wenigsten ausgedehnten Version unseres Raumes gewesen sein, der dem uns heute beobachtbaren Universum entspricht. Da das uns beobachtbare Universum aber wirklich eine kugelförmige Region darstellt, muss — überall gleiche Expansions­geschwindigkeit des Raumes vorausgesetzt — auch der Teil der "Eizelle", der die Urversion des uns heute beobachtbaren Universums war,  K u g e l f o r m  gehabt haben.


     

      Beitrag 2080-8
    -

     
     
    Horst in 2080-7:
     
    Meine beiden Fragen waren doch eigentlich eindeutig. Also noch mal;

    WO befand sich deine "Kugel" wenn es doch noch gar keinen Raum für ihren Aufenthalt gab ?
    und
    WIE konnte die "Kugel" vorhanden sein, wenn es noch gar keine Zeit für die Dauer ihres Daseins gab?

    Beides "entstand" ja erst mit dem angeblichen Urknall, der aus dem genannten Widerspruch nicht nachvollziehbar ist und ohnehin von vielen auch angezweifelt wird.


    Ganz einfach: Die "Kugel" selbst war das WO (sie war der einzig damals existierende Raum, von dem die Urknalltheorie weiß).

    Auf die Frage, WIE es zu ihrer Existenz kam, weiß die Urknalltheorie keine Antwort (bislang ist Bojowalds Theorie der einzige Versuch, sie zu beantworten).

     

      Beitrag 2080-13
    Details zum Urknall wie sie sich aus der Inflationstheorie ergeben

     
     
    U... in 2080-6:
     
    Energieball? Das wäre eine Möglichkeit, ja. Ich selbst tu mich aber mit der Urknalltheorie etwas schwer.
     


    Hallo U...,

    wenn ich jemand so was sagen höre, drängt es mich immer, ihn zu fragen, auf welche Variante der Urknalltheorie sich seine Skeptis denn eigentlich bezieht.
    Hier mein Kenntnisstand (zuletzt aktualisiert in 2003):


    Die heute durch Beobachtunsdaten am wahrscheinlichsten gemachte Variante der Urknalltheorie ist die sog. Inflationstheorie (in der Version, die so etwa 1982 in Teilen von Andrei Linde, in anderen Teilen durch Alexander Vilenkin erarbeitet wurde). In 2003, bezugnehmend auf Daten, die damals der Forschungssatelliten WAMP eben geliefert hatte, schrieb Linde:

    Zitat von Linde (2003):
     
    WMAP makes a big leap in confirming many of the predictions of inflationary cosmology, and this places the theory on much firmer ground that it was before. ... So far, if you ask me, I do not really know of a class of theories that I would consider as a decent competitor of inflation at the moment.


    Früher schon sagte er:

    Zitat von Linde (schon 1994):
     
    If my colleagues and I are right, we may soon be saying good-bye to the idea that our universe was a single fireball created in the big bang.

    We are exploring a new theory based on a 15- year-old notion that the universe went through a stage of inflation. During that time, the theory holds, the cosmos became exponentially large within an in- finitesimal fraction of a second. At the end of this period, the universe continued its evolution according to the big bang model.

    As workers refined this inflationary scenario, they uncovered some surprising consequences. One of them constitutes a fundamental change in how the cosmos is seen. Recent versions of inflationary theory assert that instead of being an expanding ball of fire the universe is a huge, growing fractal. It consists of many inflating balls that produce new balls, which in turn produce more balls, ad infinitum.

    Cosmologists did not arbitrarily invent this rather peculiar vision of the universe. Several workers, first in Russia and later in the U.S., proposed the inflationary hypothesis that is the basis of its foundation.


    Das zur Kenntnis genommen frägt man sich zu Recht:

    Wenn die Feuerball-Theorie überholt ist, was versteht man denn dann heute unter der Urknalltheorie?


    Nun, diese Frage sehe ich bisher am genauesten beantwortet durch einen Aufsatz » Weltweite Inflation « von John D. Barrow (zu finden auf den Seiten 196 bis 201 seines Buches Einmal Unendlichkeit und zurück (2002)). Auf den Punkt gebracht steht dort Folgendes:

      Die derzeit populärste Theorie ist die Inflationstheorie präzisiert durch Vilenkin und Linde. Sie kann viele uns bekannte Eigenschaften des Universums gut erklären. Nach ihr wurde der Raum entscheidend geprägt durch eine sog. Inflationsphase.
      Die "Zündung" des Urknalls ist ein nur quantenmechanisch begründbarer Prozess, der das Universum aus den Nichts erzeugt (Vilenkin, 1982).
      Nach etwa 10-35 sec begann — so die Theorie — eine Inflationsphase, die spätestens bei 10-30 sec endete und alle Abstände so vergrößert hat, dass aus einer Plancklänge grob der Durchmesser des uns heute beobachtbaren Universums wurde.
       
      In einem derart inflationären Universum aber, so Barrow, gebe es ganz bemerkenswerte Variationsmöglichkeiten:
      Die winzige Blase, die sich inflationär derart aufgebläht hat, könnte nur eine von vielen — vielleicht sogar von unendlich vielen — sein. Jede könnte in unterschiedlicher Weise inflationär ausgedehnt worden sein, vielleicht bis hin zu einem Zustand, in dem sie dann zerplatzt sein könnte oder begann, wieder zu schrumpfen.
      Eine Folge daraus wäre wäre: Der Kosmos könnte aus Bergen von Schaum bestehen, dessen einzelne Blasen Welten mit gravierend verschiedener Physik darstellen. Dichte, Temperatur und Expansionsgeschwindigkeit wären sicher von Blase zu Blase verschieden.
      Wir scheinen in einer Region zu leben, die ihren » genetischen Code « aus einer ganz bestimmten dieser Blasen hat.
      Alle nur denkbaren Kombinationen aus Dichte, Temperatur und Expansionsgeschwindigkeit könnten irgendwo im Kosmos verwirklicht sein, und irgendwo in diesem enlosen Schaum von Blasen könnten Bedingungen herrschen, die Leben (wie wir es uns vorstellen) ermöglichen: Die Abweichungen von einer homogenen Materiedichte müssten dort gerade so beschaffen sein, dass nicht alles vorzeitig in eim Schwarzen Loch endet, sich aber andererseits doch Materieinseln bilden können: Atome, Moleküle, Sterne, Planeten ... eben Staub in der Blase.
      Physiker haben die Möglichkeiten solch » geografischer Komplexität « mit ihren vielen unterschiedlichen Inseln in einem möglicherweise unendlich großen Kosmos untersucht und fanden dabei heraus, dass sich jene aufgeblähten Blasen nach kurzer Inflationsphase in noch weit mehr Eigenschaften unterscheiden können als nur hinsichtlich Dichte und Temperatur: Selbst Kräfte und Naturkonstanten könnten Ergebnis von Zufällen zu Beginn des Abkühlungsprozesses sein. Es könnte Regionen geben, in denen allein nur die Gravitationskraft herrscht, bei uns gibt es zudem noch die elektromagnetische, die schwache und die starke Kernkraft. Vielleicht aber gibt es auch Regionen mit noch anderen Kräften — mit solchen, die in unserer Welt nicht existieren oder nur so schwach sind, dass Physiker sie bisher nicht entdeckt haben.
      Dieses Ergebnis ist bemerkenswert, da wir damit zum ersten Mal bestätigt bekommen, dass die Raumregion, die unser beobachtbares Universum darstellt, keineswegs typisch für den gesamten Kosmos zu sein braucht.
      Die Inflationstheorie hat aber, bald nachdem die eben beschriebene Möglichkeit » geographischer Komplexität « entdeckt wurde, auch entdeckt, dass es eine noch weit dramatischere » historische Komplexität « geben könnte:
      Sobald nämlich eine kleine Blase inflationär zu wachsen beginnt, muss man damit rechnen, dass in ihrem Inneren Voraussetzungen für das Entstehen von in sie geschachtelter ganz ähnlicher Blasen geschaffen werden. Ein solcher Prozess — einmal in Gang gesetzt — kommt nie zu einem Ende. Somit haben inflationäre Blasen die Eigenschaft, ihre eigene Struktur ständig komplexer werden zu lassen.
      Auch das Entstehen von sich mit Lichtgeschwindigkeit ausbreitender Vakuumblasen hält man (schon seit 1982) für möglich: siehe (1), (2), (3).


    Wir sehen jetzt: Was ich in 2079-1 als » kosmischen Schaum « bezeichne, könnte noch weit komplexere Struktur haben als dort skizziert. Der Inflationstheorie entspre­chend kann solcher "Schaum" sich ja nun auch im Inneren jeder Blase — jeden Universums also — bilden und würde dort zu Singularitäten der Raumzeit führen. Ob sich diese Singularitäten von außen betrachtet wie Schwarze Löcher verhalten würden, scheint noch niemand untersucht zu haben.

    Gruß, grtgrt

    PS: Man lese auch ein 2008 mit Linde und Valenkin geführtes Interview, in dem sie selbst ihre Weltsicht erklären.

     

      Beitrag 2080-18
    Vilenkins Denkfehler

     
     

    Vilenkins Denkfehler

    ( den weder Linde noch Barrow bemerkt haben )



    Grtgrt in 2080-13:
     
    Man lese auch ein 2008 mit Linde und Valenkin geführtes Interview, in dem sie selbst ihre Weltsicht erklären.


    In diesem Interview argumentiert Vilenkin wie folgt:

    Zitat von Vilenkin:
     
    Ich sollte noch eine andere Konsequenz der Multiversumstheorie erwähnen: Die Unterhaltung, die wir gerade führen, passiert genau so mit den gleichen Leuten unendlich Mal in anderen Universen.

    Der Grund ist sehr einfach: Das Multiversum ist unendlich, und es gibt eine unendliche Anzahl von Regionen, die durch die ewige Inflation entstehen. Auf der anderen Seite gibt es in einer begrenzten Region und in endlicher Zeitspanne aber nur eine endliche Zahl von möglichen Dingen, die passieren können. Also hat man eine endliche Zahl von Geschichten, die in unendlich vielen Orten spielen. Folglich findet jede mögliche Geschichte auch irgendwo statt. Es gibt Kopien von uns Menschen.
     


    Diese Argumentation ist nicht schlüssig: Sie beweist keineswegs, dass es Kopien von uns oder gar unseres ganzen (beobachtbaren) Universums geben  m u s s , denn:

    Einerseits ist richtig:
      Wo immer wir uns ein Universum als kugelförmige Region endlichen Durchmessers um einen Beobachter herum, vorstellen, kann es darin nur endlich viele Atome geben und daher auch nur endlich viele Konfigurationen, in denen sie angeordnet sind.
      Geht man davon aus, dass der Kosmos unendlich viele Atome enthält, kann man sich um jedes herum eine solche Kugel mit (ein und demselben) Radius R vorstellen, und wird dann tatsächlich unendlich viele solcher Kugeln haben, aber doch nur endlich viele Konfigurationen, in denen in ihnen enthaltene Atome angeordnet sein können.
      Daraus folgt, dass es in dieser Menge von "Universen" (Kugeln vom Radius R) unendlich viele mit exakt gleicher Konfiguration geben muss.

    Andererseits ist ebenso richtig:
      Man kann daraus keineswegs schließen, dass wirklich  j e d e  der Konfigurationen unendlich oft auftritt — es wäre nur  m ö g l i c h, muss aber keineswegs zwingend so sein.
      Vilenkin hat das ganz offensichtlich übersehen.


    Wie Vilenkin und Koautor Garriga genau argumentieren lässt sich nachlesen in arXiv. Ihre Arbeit endet mit der Aussage (ii) we argued that the number of distinct histories is finite, which allowed us to conclude that there should be regions with histories identical to ours". Das aber muss als nicht schlüssig zurückgewiesen werden, denn tatsächlich gefolgert könnte nur werden, dass die endliche Zahl der Historien unendlich vieler Welten zwingend zur Folge haben muss, dass mindestens  e i n e  dieser Historien unedlich vielen Welten gemeinsam ist.

    Vilenkins vermeintlicher "Beweis" enthält darüber hinaus noch eine andere Überlegung, die nicht nachvollziehbar erscheint (siehe die letzten Bemerkungen in » Der Kosmologen aktuellstes Weltbild «).

    Auch im Aufsatz » Is there another you out there in a parallel Universe? Even if the Universe grows to infinity, there might not be enough space to hold all the possibilities « wird Vilenkins Schlussfogerung als falsch erkannt.


     

      Beitrag 190-5
    Es gibt Dinge, die schon immer existiert haben: Die Zeit ist erstes Beispiel hierfür

     
     
    Weser in 190-4:
    Bernhard Kletzenbauer in 190-3:
    Was wäre denn, wenn das Universum schon ewig existierte? Es verändert sich zwar ständig, aber es muß nicht zwangsläufig entstanden sein.

    Doch, natürlich. Sonst wäre es nicht da... die Frage ist nur, *wie* es entstanden ist.


    Dieser Disput zeigt, dass man die beiden Fragen
    • Wie ist das Universum entstanden? und
    • Hat das Universum zeitlich gesehen einen Anfang (oder existiert es schon immer)?

    völlig getrennt voneinander zu betrachten hat (denn auch was wirklich schon zu jeder Zeit existiert hat muss ja irgendwie entstanden sein, und die Zeit selbst ist erstes Beispiel dafür, dass es Dinge, die schon immer existiert haben, tatsächlich gibt).

     

      Beitrag 1994-1
    Kennen wir bisher nur zwei Werkzeuge, natürliche Unschärfe zu beweisen?

     
     

    Eine nächste spannende Frage


    Wie wir inzwischen wissen, existieren physikalische Objekte nur in dem Umfang, in dem die Natur uns Information über sie liefert. Wie aber lässt sich nun im konkreten Fall feststellen, ob wir wirklich alle durch die Natur bereitgestellte Information denn wirklich schon gefunden haben oder wenigstens Wege kennen, sie einzusehen?

    FRAGE also: Sind
    • Heisenbergs Unschärfe-Relation
    die bisher einzigen uns bekannten Werkzeuge, mit denen sich feststellen lässt, dass die Natur hier oder dort weniger Information bereitstellt als man zunächst vermuten könnte?

     

      Beitrag 1994-3
    Was mit dieser Frage gemeint ist

     
     
    Bauhof aus 1994-2:
     
    hast du vielleicht andere Werkzeuge anzubieten?

    Die Natur kann prinzipiell nicht mehr Information liefern, als Heisenbergs Unschärfe-Relation es zulässt. Mehr Information dahinter zu vermuten, wäre metaphysisch.

    Hi Eugen,

    du hast meine Frage missverstanden. Gemeint war:

    Heisenbergs Unschärfe-Relation ebenso wie Ungleichungen des Bellschen Typs zeigen uns Stellen, an denen die Natur weniger definiert ist, als man zunächst dachte.
    Es liegt daher nahe zu fragen, ob es über diese Stellen hinaus vielleicht noch weitere gibt, an denen die Natur nicht so genau definiert ist, wie wir bisher denken.

    Gruß, grtgrt
     

      Beitrag 1994-5
    -

     
     
    Bauhof aus 1994-4:
     
    ... ich kann trotzdem nicht erkennen, wie uns deine Frage in der physikalischen Erkenntnis weiterbringen soll.

    Neue Erkenntnis ergibt sich
    • hin und wieder zufällig und unerwartet (so wie Planck das Wirkungsquantum entdeckt hat)
    • oder dadurch, dass jemand eine Frage stellt, die bisher niemand gestellt hat (und er oder andere dann versuchen, sie zu beantworten).

    Gruß, grtgrt
     

     Beitrag 0-496
    Wie unser Universum geboren wurde und darin Materie und leerer Raum entstanden

     
     

     
    Wie unser Universum entstand und in seinen heutigen Zustand kam



    Hemlut Satz (2016):
     
    Unser Universum — so stellt man sich das heute vor — entstand aus einer vorher schon vorhandenen Urwelt — einem extrem energiereichen. sog. » falschen « Vakuum: Durch eine Fluktuation darin kam es zum Entstehen einer Blase in dieser Urwelt, welche zu unserer Welt werden sollte: einer Blase, in der das falsche Vakuum zusammenbrach in den Normalzustand des physikalischen Vakuums, den wir kennen.
     
    Die im Zuge diesen Zusammenbruchs freigesetzte Energie schuf erste Elementarteilchen:
       
    • Neutrinos, Elektronen, Positronen und Photonen,
       
    • vor allem aber ein dichtes Plasma bestehend aus Quarks und Gluonen, in dem die Quarks noch asymptotische Freiheit genossen, da dieses Plasma so dicht war, dass keines der Quarks von anderen weiter entfernt war als etwa 1 Femtometer (dem, was wir heute als Durchmesser oder gar nur Radius eines Neutron kennen). Es gab also noch keinen leeren Raum.

    Da der Raum aber von Anfang an expandiert ist, hat jenes Plasma an Dichte verloren, so dass schließlich auch die Quarks ihre asymptotische Freiheit verloren und gezwungen waren, sich feste Partner zu suchen: Sie fanden sich zusammen zu
       
    • entweder zu Dreiergruppen (= Nukleonen)
       
    • oder zu Zweiergruppen (= Mesonen)
       
    • oder zu Paaren von Quarks und Antiquarks, die sich per Annihilation in Strahlung auflösen konnten.

    Und so kam es, dass die Quarks und die aus ihnen entstandenen Nukleonen (= Protonen und Neutronen) unter allen vorhandenen Teilchen schließlich nur noch eine winzige Minderheit darstellten. Man nennt diesen Zeitpunkt — etwa 10-5 sec nach dem Urknall — deswegen das Ende der Quark-Ära.
     
    Die auf sie folgende Lepton-Ära — in der auch die meisten Elektronen mit Positronen zerstrahlt sind — dauerte bis etwa 10 Sekunden nach dem Urknall.
     
    Da es jetzt also vor allem Neutrinos und Photonen gab, war das der Beginn der sog. Strahlungs-Ära.
     
    Zu diesem Zeitpunkt kamen auf jedes Nukleon etwa 1 Milliarde Photonen.
     
    Dieses Verhältnis hat sich bis heute nur unwesentlich verändert. Und dennoch bildet Strahlung heute nicht mehr — wie damals — den Hauptbestandteil des Universums. Der Grund hierfür: Der Expansion des Raums wegen bekamen alle Photonen zunehmend längere Wellenlänge, was ihre Energie vermindert hat. Die Masse der Nukleonen und anderer Fermionen blieb konstant. Unterm Strich sank die Energiedichte der Photonen immer mehr und fiel schließlich — nach etwa 40000 Jahren — unter die der Nukleonen. Damit war auch die Strahlungsära zu Ende und nun Materie der dominante Inhalt des Universums.
     
    Atome konnten sich in großer Menge aber erst etwa 380 000 Jahre nach dem Urknall bilden. Der Grund hierfür:
     
    In der Strahlungsära lag die Temperatur bei etwa 1010 Grad Kelvin, und deswegen konnten die damals noch relativ energiereichen Photonen durch Zusammenstoß mit Protonen und Neutronen verhindern, dass sich Atomkerne bildeten bzw. nennenswert lange bestehen konnten: Entstehende Verbindungen wurde fast sofort wieder zerstört. Das geschah so lange, bis das Universum etwa 10 Sekunden alt war. Erst dann konnte Kernfusion einsetzen, also das Verschmelzen von Nukleonen zu Kernen. Dabei verbanden sich zunächst ein Proton und ein Neutron zu einem Deuterium, und weiter dann zwei Deuterium-Kerne zu einem Helim-Kern, und so fort.
     
     
     
    Etwas übersichtlicher dargestellt:

     
    Es gab i.W. fünf Übergänge:
       
    • Der erste Übergang war der lokale Absturz der Urwelt aus dem falschen Vakuum in den richtigen Normalzustand. Er ist vergleichbar mit dem Entkommen einer Dampfblase aus erhitztem Wasser. Die hierbei freigesetzte Energie hat etwas geschaffen, das man » Urfermionen « nennen kann: Fermionen, die noch frei in einander umwandelbar waren (da damals noch alle Botenteilchen massefrei waren).
       
      Diesen Zustand des Universums vermutet man als supersymmetrisch.
       
    • Der zweite Übergang — etwa 10-15 sec nach dem Urknall — fand statt am Ende der GUT-Ära, als die Botenteilchen, die eine Umwandlung von Quarks in Leptonen und umgekehrt möglich machten, plötzlich effektive Masse erhielten mit dem Effekt, dass solche Umwandlung nicht mehr möglich war:
       
      Quarks und Leptonen waren von da an bleibend verschiedene Teilchen, da ihre Botenteilchen sich nun wie Wolken stark an sie klammerten (was den Fermionen effektive Masse gab).

       
    • Der dritte Übergang geschah dann im Laufe der Quark-Ära — etwa 10-10 Sekunden nach dem Urknall, bei etwa 1010 Grad Kelvin — als die Botenteilchen, die für die schwache Kernkraft zuständig sind (d.h. für radioaktiven Zerfall) plötzlich so große effektive Masse erhielten, dass diese Kraft extrem schwach und kurzreichweitig wurde.
       
      Gleichzeitig erhielten die bis dahin masselosen Quarks und Leptonen inhärente Masse (die, welche wir heute an ihnen beobachten).
       
    • Erst der vierte Übergang — etwa 10-5 sec nach dem Urknall bei nun etwa 1012 Grad Kelvin — war dann einer ganz anderer Art:
       
      Die Farbladung tragenden Quarks haben sich da zu farbneutralen Hadronen (= Nukleonen und Mesonen) gebunden, die unabhängig von einander existieren können. Dies hatte erstmals das Entstehen materiefreier Raumregionen zur Folge, stellt also den Beginn der Verklumpung von Materie im Universum dar.
       
      Dass sich Quarks auf der Suche nach Partnern aber auch oft mit ihrem Antiquark zusammenfanden, haben sich die meisten von ihnen durch Annihilation in Strahlung aufgelöst. Ähnliches hat kurz darauf auch fast alle Leptonen zerstrahlen lassen: Elektronen mit Positronen.
       
      Dass nicht wirklich alle Fermionen zu Strahlung wurden ist nur dem Umstand zu verdanken, dass es damals einige wenige Quarks mehr als Antiquarks und einige Elektronen mehr als Positronen gab. Diesem Umstand also haben wir unsere Existenz zu verdanken. [ Das Verhältnis von Quarks zu Antiquarks dürfte bei etwa 30 Mio + 1 zu 30 Mio gelegen haben. ]
       
      Note: Der zur Annihilation umgekehrte Vorgang kann nur provoziert werden durch extrem hohe Temperatur — die Temperatur des Universums aber fällt, wenn der Raum sich ausdehnt.
       
    • Durchsichtig wurde das Universum erst 380 000 Jahre nach dem Urknall, als sich alle Ionen zu Atomen gruppiert hatten.

     


     
    Quelle: Helmut Satz: Kosmische Dämmerung (Verlag C.H. Beck, 2016) S. 67-100


     

     Beitrag 0-125
    Wie man das Alter von Gestein recht genau bestimmen kann

     
     

     
    Das Alter unserer Erde: 4.55 Mrd Jahre

     
     
    Die Entdeckung der Radioaktivität und des natürlichen Zerfalls einiger chemischer Isotope brachte uns die Möglichkeit, das Alter von Gestein recht genau zu be­stimmen. Genau beschrieben hat das Verfahren Brent Dalrymples in seinem Buch The Age of the Earth (1994).
     
    Es beruht auf unserem Wissen über die Halbwertszeiten, in denen vor allem folgende 3 chemische Elemente zerfallen und sich so in andere stabile Stoffe transformieren:
    • Uran zerfällt zu Blei,
       
    • Kalium wird zu Argon, und
       
    • Strontium verwandelt sich in das seltene Element Rubidium.

    Durch Messung der Mengen je eines dieser Paare von Elementen können wir das Alter jeden Gesteins bestimmen.
     
    Die Ergebnisse stimmen gut überein und deuten darauf hin, dass unsere Erde 4.55 Mrd. Jahre alt ist (Ungenaugkeit etwa 1%).
     
    Die ältesten Steine der heutigen Erdoberfläche werden auf etwa 4 Milliarden Jahre datiert, aber fast 70 Meteoriten und Gestein des Mondes erwiesen sich als noch 500 Millionen Jahre älter.
     
     
     
    Quelle: Francis S. Collins: Gott und die Gene (2006), S. 71-72.


     

     Beitrag 0-318
    Wie 1924 beweisbar wurde, dass unser Universum aus mehr als nur aus der Milchstraße besteht

     
     

     
    Erst 1924 wurde beweisbar, dass

    unsere Milchstraße nur kleiner Teil des ganzen Universums ist

     
     
    Henrietta Leavitt — geboren 1868 in den USA als Tochter eines Pfarrers — hat als erste vor allem Sterne beobachtet, die mit einer Periode von wenigen Tagen ihre Helligkeit ändern. Man nennt sie Cepheiden, da man dieses Verhalten zunächst am Stern Delta Cephei aufgefallen war.
     
    Wie man heute weiß, sind Cepheiden sehr große Sterne, deren Gashülle durch ein Wechselspiel zwischen Gravitation und Aufheizung pulsiert.
     
    Leavitt fand in der Kleinen Maellan'schen Wolke 25 solcher Sterne und machte anhand ihrer die wichtige Entdeckung, dass sie umso schwächer leuchten, je schneller sie blinken. Es war als hätte sie die Wattzahl weit entfernter Glühbirnen endeckt.
     
    Dank dieser Entdeckung konnte man jetzt aus der Blinkfrequenz und der beobachteten Helligkeit auf den relativen Abstand solcher Sterne von der Erde schließen.
     
    Diesen Zollstock zu eichen — so dass man anhand seiner nicht nur relative sondern auch absolute Abstände messen konnte — gelang aber erst Harlow Shapley: Er hat 11 nahegelegene Cepheiden so genau beobachtet, dass es möglich wurde, aus ihrer zu unterschiedlichen Jahreszeiten leicht verschobenen Stellung auf ihren absoluten Abstand von der Erde zu schließen. 1918 verknüpfte er diese Daten mit den Messergebnissen von Henrietta Laevitt und war so zu einem kosmischen Metermaß gelangt.
     
     
    Shapley begann den Himmel nach weiteren Cepheiden zu durchforsten mit dem Ziel, so ein 3-dimensionales Abbild der Milchstraße zu erhalten und ihre Ausdehnung bestimmen zu können. Seinen Berechnungen zufolge müsse sie die Form einer gigantischen Diskusscheibe haben: 300 000 Lichtjahre im Durchmesser und 30 000 Lichtjahre dick. Auch das Rätsel der sog. Nebel glaubte er gelöst zu haben: Sie seien höchstens 220 000 Lichtjahre entferne Welteninseln innerhalb der Milchstraße.
     
     
    Shapley arbeitete — wie Edwin Hubble auch — am Mount-Wilson-Observatorium. Nun gab es aber am konkurrierenden Lick-Observatorium eine von Heber Curtis geführte Arbeitsgruppe, die ebenfalls versucht hatte, die Größe der Milchstraße zu bestimmen. Ihren Zahlen zufolge sollte sie aber nur einen Durchmesser von 30 000 Lichtjahren haben und nur 5000 Lichtjahre dick sein. Die Nebel seien, so jene Forscher, Welteninseln weit außerhalb der Milchstraße: wenigstens 10 Millionen Lichtjahre weit von uns entfernt.
     
    Ob nun Shapley oder Curtis recht habe, sollte am 26.4.1920 in einem öffentlichen Streitgespräch geklärt werden, zu dem auch Albert Einstein eingeladen war. Die Debatte aber endete unentschieden.
     
    Heute weiß man: Beide Wissenschaftler hatten recht und beide irrten.
       
    • Shapley ging richtig in der Annahme, dass die Milchstraße viel weiter ausgedehnt ist, als zuvor abgenommen. Seine Zahlen allerdings waren um etwa den Faktor 3 zu groß.
       
    • Curtis Zahlen dagegen waren um etwa den Faktor 3 zu klein.
       
    • Wie weit die sog. Nebel von der Erde entfernt waren — ob sie also innerhalb oder außerhalb der Milchstraße lagen — konnte erst 1924 durch Hubble entschieden werden:
       
      Er entdeckte mit Hilfe eines erst damals gebauten neuen Teleskops im Andromedanebel einen Cepheiden und berechnete dessen Abstand zur Erde als rund
      900 000 Lichtjahre. Damit war klar geworden: Wenigstens der Andromeda-Nebel muss eine Galaxie außerhalb der Milchstraße sein.

     
     
    Quelle: Hürtner & Rauner: Die verrückte Welt der Paralleluniversen, Piper 2009, S. 54-59

     
     
    Note: Wie schwierig — und ungenau — das Messen von Enfernungen im All selbst mit Hilfe von Cepheiden noch sein kann, zeigt ein Forschungsergebnis aus 2012, demzufolge der Polarstern — selbst ein Cepheid — nicht wie man bisher dachte 434 Lichtjahre von der Erde entfernt ist, sondern wohl nur 323.

     

     Beitrag 0-135
    Strukturen im Universum

     
     

     
    Strukturen im Universum
     
     
    Wie der folgende Vergleich zeigt, gruppiert sich Materie im Großen wie im Kleinen wohl doch nach ein und denselben Gesetzen:
     
     
     


     

     Beitrag 0-401
    Was man sich unter einem » Blasenuniversum « vorzustellen hat

     
     

     
    Nachdenken über Blasen-Universen

     
     
    Wie Prof. Helmut Satz im Video [V] und noch ausführlicher in seinem Buch [B] erklärt, gilt die Theorie ewiger Inflation als die heute am ehesten plausible Theorie der Entstehung des kosmischen Raumes (des Weltalls), in dem wir leben.
     
    Nach dieser Vorstellung wäre unsere Welt ein sog. Blasenuniversum: eine Blase, die sich im falschen Vakuum gebildet hat durch Zusammenbruch eines Energiepotentials, das sich vorher dort irgendwo angehäuft hatte. Die durch seinen spontanen Zusammenbruch notwendigerweise frei werdende Energie hat — während der unglaublich kurzen Inflationsphase von nur 10-34 sec — geschaffen, was wir heute an Materie und Strahlung antreffen.

       
      Wie aber muss man sich eine » Blase « in diesem Sinne vorstellen?
       
      Wie viel Dimensionen kann sie haben?
       
      Und ist es denn wirklich offensichtlich, dass unsere Welt das Innere jener Blase darstellt?
       
      Könnte unsere Welt nicht auch einfach nur die Haut der Blase sein (und dann das Weltall, in dem wir leben, wirklich endliche Größe haben, obgleich das falsche Vakuum sich unendlich weit erstreckt?

     
    Stringtheoretiker vermuten, dass unsere Welt 11 Dimensionen hat: eine noch unbekannter Art, sechs kompaktifizierte und dann natürlich die uns offensichtlichen vier Dimensionen: 3 räumliche und 1 zeitliche (von denen wir nicht wissen, ob sie kompakt sind).
     
    Dimension in diesem Sinne wäre ein 1-dimensionaler Teilraum unserer Welt. Kompaktifiziert zu sein bedeutet, er wäre (wenn metrischer Raum) nur endlich groß, so dass es dann darin keine beliebig großen Entfernungen geben könnte.

       
      Stringtheoretiker stellen sich jede der kompakten Dimension gerne als » aufgerollt « vor.
       
      Helmutz Satz verwendet ein anderes, ganz sicher noch hilfreicheres gedankliches Bild: Wer aus einem Flugzeug heraus die Erdoberfäche betrachtet — unseren Lebensraum —, dem wird er als 2-dimensionale Oberfläche der 3-dimensionalen Erdkugel erscheinen, d.h. i.W. als flach, da die Höhe von Bäumen oder Häusern ja sehr viel kleiner ist als die Ausdehnung des flächenartigen Bereichs, der durch Felder und Wiesen gegliedert ist.

     
    Unser Lebensraum also ist grob 2-dimensional, genau genommen aber 3-dimensional, und Bewegung senkrecht zur Erdoberfläche — entweder tief hinein ins Innere der Erde oder weit hinaus ins Weltall — fällt uns so schwer, so dass wir dabei nicht weit kommen.
     
    Könnte dann also unser Lebensraum im falschen Vakuum — unser Universum — nicht vielleicht doch noch i.W. nur die Oberfläche einer Blase sein (vergleichbar mit der Oberfläche der Erde)?

     

     Beitrag 0-209
    Warum die Menschheit in einer besonders interessanten Zeit lebt

     
     

     
    Warum wir Menschen

    zu einer kosmologisch besonders interessanten Zeit leben

     
     
    Seit 1998 hat man Beweise dafür, dass unser Universum — schon seit etwa 5 Mrd. Jahren — mit zunehmender Geschwindigkeit expandiert in dem Sinne, dass die Abstände zwischen weit auseinander liegenden Galaxien stängig größer werden.
     
    Galaxien in der Nähe unseres Beobachtungshorizonts entfernen sich schon heute von uns mit Überlichtgeschwindigkeit.
     
    Mit Ausnahme der weniger als 50 Galaxien, die heute nahe Nachbarn der Milchstraße sind, werden sich eines Tages sogar alle Galaxien schneller als das Licht von uns entfernen — bzw. von der Galaxie, zu der sich unsere Milchstraße, der Andromedanebel und ihre nahen Nachbarn dann vereinigt haben werden.
     
    Für Bewohner dieser Galaxie wird dann rein gar nichts mehr darauf hindeuten, dass das Weltall insgesamt noch viele andere solcher Welteninseln enthält.
     
     
    Galaxien verschwinden dabei nicht auf einen Schlag. Je schneller sie sich aber von uns entfernen, dest mehr das von ihnen kommende Licht uns nach Rot hin verschoben erreichen. Schließlich geht ihr gesamtes sichtbares Licht zunächst in den Infrorotbereich über, dann in den Bereich der Mikrowellen, der Radiowellen usw.
     
    Irgendwann wird die Wellenlänge des von ihnen kommenden Lichts größer als der Radius unseres Beobachtungshorizonts, womit sie dann endgültig aus unserer Position heraus nicht mehr beobachtbar sein werden.
     
    Man kann errechnen, wie lange das ungefähr dauern wird:

      Galaxien, die unmittelbar außerhalb unser Lokalen Gruppe liegen, haben heute schon etwa 1/5000 der Entfernung erreicht, von der an ihre Flucht­geschwindigkeit relativ zu uns Lichtgeschwindigkeit sein wird. Sie zu erreichen werden sie maximal 150 Mrd. Jahre brauchen — das entspricht in etwa
      dem 10-fachen des aktuellen Alters unseres Universums.
       
      In ungefähr 2 Billionen Jahren wird die Wellenlänge des von ihnen kommenden Lichts aus Sicht der Sterne der heutigen Lokalen Gruppe größer sein als der Radius des beobachtbaren Universums — mit anderen Worten: Sie werden dann aus der Lokalen Gruppe heraus nicht mehr beobachtbar sein.

     
    Zwei Billionen Jahre mögen uns als eine sehr lange Zeit erscheinen. In kosmischer Hinsicht aber ist das alles andere als eine Ewigkeit: Die langlebigsten Sterne der sog. Hauptsequenz – ihre Entwicklungsgeschichte gleicht der unserer Sonne – haben eine weit größere Lebenserwartung als unsere Sonne, und viele von ihnen werden auch in 2 Billionen Jahren noch leuchten.
     
     
    Sollte es in dieser fernen Zukunft dann Zivilisationen auf Planeten in der Umgebung dieser Sterne geben und vielleicht auch Astronomen mit ebenso mächtigen Teleskopen wie sie uns heute zur Verfügung stehen, werden die fast genau das sehen, was menschliche Beobachter 1915 zu sehen glaubten: eine einzige Galaxie, in der ihr Stern und ihr Planet zuhause sind — umgeben von einem ansonsten leeren Weltraum.
     
    Im Gegensatz zu uns, werden sie aber nicht in der Lage sein, zu lernen, wie weit das All sich erstreckt und dass es aus dem Urknall hervorging: Sie werden nicht einmal mehr erkennen können, dass der Raum expandiert.
     
    Auch die kosmische Hintergrundstrahlung wird durch jene Astronomen nicht mehr registrierbar sein. Der Grund hierfür:
      In der Milchstraße findet sich zwischen den Sternen heißes, ionisiertes Gas. Es enthält freie Elektronen, verhält sich deswegen wie ein Plasma und ist somit für viele Strahlungsarten undurchlässig. Genauer: Es gibt die sog. Plasmafrequenz Strahlung geringerer Frequenz wird vom Plasma absorbiert.
       
      Anhand der aktuell beobachteten Dichte freier Elektronen können wir die Plasmafrequenz im Inneren unserer Milchstraße abschätzen und erkennen so: Sobald unser Universum etwa 50 Mal älter sein wird als heute, wird die Frequenz der kosmischen Hintergrundstrahlung unter die Plasmafrequenz der dann aus unserer Lokalen Gruppe entstandenen Galaxie gefallen sein.

     
    Jede große Ansammlung von Masse — und daher auch unsere Lokale Gruppe — muss irgendwann in sich zusammenstürzen und als Schwarzes Loch enden. Beschrieben wird dieser Vorgang durch die von Schwarzschild entdeckte einfachste Lösung von Einsteins Gleichung der Allgemeinen Relativitätstheorie. Der Zeitrahmen, in dem das zustande kommt, ist allerdings sehr viel größer als der Zeitrahmen, in dem alle übrigen Galaxien aus unserem Beobachtungshorizont hinausgewandert sein werden.
     
    Berücksichtigt man ferner, dass jedes noch so große Schwarze Loch irgendwann verdampft sein wird, scheint klar, wie unsere Welt enden wird: Sie wird sich einfach wieder in Vakuumsenergie auflösen: In jenes Meer von Energie, das sie als extrem starke Quantenfluktuation ausgespuckt haben könnte.
     
    Note: Es gibt heute nur eine Theorie, welche eine andere Möglichkeit für die Geburt unseres Universums vorschlägt: die Theorie ewiger Inflation. Mir (grtgrt, 2016) erscheint sie weniger wahrscheinlich, da sie sich von der Theorie, unser Universum sei als extrem energiereiches virtuelles Teilchen entstanden, nur in Annahmen unterscheidet, die in keiner Wese nachprüfbar, aber sicher weit unwahrscheinlicher sind.

     
     
    Quelle der Fakten: Lawrence M. Krauss: A Universe from Nothing (2012)
     
    Siehe auch: Inflation generell


     

     Beitrag 0-227
    Warum es außerhalb der Erdatmosphäre dunkel ist

     
     

     
    Warum es im All fast überall dunkel ist

     
     
    Nur Photonen, die unser Auge treffen und mit ihm verschmelzen, können wir — bei geeigneter Wellenlänge — als Licht wahrnehmen.
     
    Im heutigen Zustand unseres Universums gibt es nur relativ wenige Lichtquellen, und zudem wird von ihnen ausgesandtes Licht kaum mehr gestreut (bis etwa 380 Mio Jahre nach nach dem Urknall war das noch ganz anders).
     
    Wer heute ins Weltall hinausblickt, sieht neben dem Licht einiger Sterne nur Finsternis. Wirklich hell ist es nur innerhalb der Lufthülle der Erde, denn in ihr wird das von der Sonne einfallende Licht ständig gestreut, so dass Photonen von fast überall her unser Auge treffen.
     
    Ohne die Lufthülle würde, wer nicht direkt in Richtung Sonne blickt, neben Sternen nur tiefschwarze Finsternis sehen.

     

     Beitrag 0-369
    Wie unser kosmischer Lebensraum aus heißem Plasma geboren wurde

     
     

     
    Wie unser kosmischer Lebensraum entstand

     
     
    Etwa 3 Min nach dem Urknall
      lag alle nicht im Vakuum begrabene Energie unseres Universums in 3 klar von einander unterscheidbaren Formen vor:
         
      • als baryonische Materie (Elektronen, Protonen und kurzlebige Neutronen)
         
      • als Dunkle Materie
         
      • als Strahlung (Photonen und Neutrinos)

       
      Da Dunkle Materie auf elektromagnetische Kraft nicht reagiert — baryonische Materie das aber sehr wohl tut — konnte sich nur die Dunkle Materie schon jetzt von den beiden anderen Energieformen entkoppeln und anfangen, sich zu verklumpen.
       
      Ganz anders die baryonische Materie: Noch bis etwa 380 000 Jahre nach dem Urknall herrschte zwischen Photonen, Elektronen und Nukleonen thermisches Gleichgewicht. Erst ab diesem Zeitpunkt war — der Expansion des Raumes wegen — die durchschnittliche Energie der Photonen so niedrig geworden, dass Zusammenstoß mit einen schon vorhandenen Atom dieses Atom nicht sofort wieder in seine Einzelteile zerlegen konnte. Erst jetzt also konnte es zu einer starken Zunahme der Menge von Atomen kommen, die sich zufällig durch Zusammenstoß eines Elektrons mit einem Proton gebildet hatten.
       
      Man beachte: Die Expansion des Raums macht Strahlung langwelliger — verringert also die Energie der Photonen — und zudem macht der sich ausdehnende Raum den Zusammenstoß von Teilchen unwahrscheinlicher. Eben das schuf den Freiraum, in dem es zur Bildung elektrisch neutraler Wasserstoff- und Heliumatome kommen konnte.
       
       
      Da der relative Anteil der in Form von Strahlung vorliegender Energie dieser Vergrößerung der Wellenlängen wegen schnell abnahm, wurde aus dem ursprünglich strahlungsdominierten Universum schon etwa 30 000 Jahre nach dem Urknall ein materie-dominiertes.

     
     
    Nochmals also: Erst etwa 380 000 Jahre nach dem Urknall
      kam es zur Entkopplung von Strahlung und baryonischer Materie.
       
      Und erst Materie, die schon in Form von Atomen vorlag, konnte durch elektromagnetische Strahlung nicht mehr daran gehindert werden, sich — gezogen durch Gravitationskräfte — den schon vorhandenen Klumpen Dunkler Materie anzuschließen.
       
       
      Geschichtliches:
       
      Aus der durch Astronomen beobachteten Verteilung der Galaxienhaufen war klar geworden, dass zur Zeit, als die Hintergrundstrahlung von der Materie ent­koppelte, es in der damals gegebenen Energiedichte lokale Schwankungen bis hin zu 1/1000 gegeben haben musste. Obgleich nun aber schon 1980 — etwa 15 Jahre nachdem man die kosmische Hintergrundstrahlung fand — die Telekope so gut geworden waren, dass nun selbst noch Schwankungen von 1/10000 nachweisbar sein sollten, fand man keine.
       
      Und so wurden die Kosmologen zunehmend nervös. Der britische Astronom Goeffrey Burbidge brachte es auf den Punkt: "Wenn wir keine Schwankungen in der Hintergrundstrahlung finden, macht es keinen Sinn mehr, am alten Bild der Galaxienentstehung festzuhalten."
       
      Man kann sich die Erleichterung der Astrophysiker vorstellen, als dann — Anfang der 1990-er Jahre — der NASA-Satellit COBE die von der Theorie vorhergesagten Schwankungen schließlich doch noch fand.
       
      Sie ein erstes Mal flächendeckend deutlich genauer zu vermessen, gelang aber erst mit WMAP — einem Forschungssatelliten, der um das 35-fache genauer sehen konnte als COBE: COBEs Auflösung betrug nur 7 Grad (was dem 14-fachen Durchmesser des Vollmondes entspricht). Dass diese Hightech-Sensoren so unscharf sind, mag zunächst verwundern. Doch man bedenke: Sie senden und "sehen" im Mikrowellenbereich, dessen Wellenlängen um das Hunderttausendfache größer sind als die längsten des sichtbaren Lichts.

     
     
    Quelle: Helmut Hetznecker Kosmologische Strukturbildung, Spektrum 2009, S. 79-85 und ab S. 93:

     
     
     
    Kosmologische Strukturbildung

     
    Über viele Jahre waren 2 grundverschiedene Vermutungen im Umlauf:
       
    • Das Top-Down-Modell, nach dem sich zunächst Strukturen auf großen Skalen gebildet haben könnten, die dann nach und nach in immer kleinere Klumpen zerfielen. Dieses Modell gilt heute als unwahrscheinlich.
       
    • Das Buttom-up-Modell, nach dem zunächst noch kleine Dichteunterschiede schon sehr früh dazu geführt haben, dass sich um die dichteren Stellen herum Potentialtöpfe bildeten, zunächst durch Verklumpen ausschließlich Dunkler Materie: Da sie nicht mit elektromagnetischer Strahlung interagiert konnte sie durch Zusammenstoß mit Photonen auch nicht wieder zerstreut werden, so wie das bis hin zur Entkopplungszeit — etwa 380 000 Jahre nach dem Urknall — für die damals noch ionisierte gewöhnliche Materie der Fall war. Erst nachdem sich Atome gebildet hatten, konnte auch die baryonische Materie ungehindert der gravitativen Anziehung jener Gravitationstöpfe folgen und zu ihrer Vergrößerung beitragen.

     
    Die Kosmologen sehen heute das zweite Modell als gesichert an, denn:
       
    • Während die innere Dynamik von Kugelsternhaufen und Galaxien auf ein hohes Alter dieser Objekte hindeutet, kann man den Galaxienhaufen noch heute bei ihrer Entstehung sozuagen "zusehen". Sie haben noch keinen Entspannungszustand erreicht; Sie sich noch nicht "relaxiert", wie man sagt.
       
    • Zudem wird durch Beobachtungsergebnisse immer deutlicher, dass es im Universum schon recht früh nach der Entkopplungszeit zahlreiche Galaxien gab — viel mehr, als man zunächst erwartet hatte.
       
    • Nicht zuletzt kennt man heute zahlreiche Beispiele von Galaxien, die offensichtlich dabei sind, ein größeres Ganzes zu bilden (sich also zu vereinigen).

    Kurz: Die Beobachtungslage spricht klar für das Buttom-up-Schema, d.h. für Strukturbildung vom Kleinen hin zum Großen — insbesondere dann, wenn man beide Szenarien in engem Zusammenhang mit der Existenz Dunkler Materie sieht.
     
    Es wird so auch klar, dass Dunkle Materie sog. kalte Materie sein muss, d.h. aus massereichen Teilchen (sog. WIMPs) bestehen sollte — nicht aber aus Teilchen, die sich mit fast Lichtgeschwindigkeit durch den Raum bewegen.
     
    Jede Galaxie ist eingebettet in einen kugelförmigen Halo Dunkler Materie, der entstand wie folgt:

       
      Angetrieben durch ihre Eigengravitation schreitet der Kollaps einer überdurchschnittlich dichten Region im All voran, während gleichzeitig Dichte und Druck steigen. Das geht so lange, bis der interne Druck dem Kollaps der Wolke Dunkler Materie Einhalt gebietet: Es stellt sich ein stabiles Gleichgewicht ein, und aus der ursprünglich kleinen Dichtefluktuation hat sich ein eingenständiges, stabiles Objekt geformt, das nun ganz sich selbst überlassen ist. Astronomen nennen solche Objekte Dunkle Halos (kurz: Halos).
       
      Gleichgewicht hat sich eingestellt, wenn gilt
       
      Ekin  =  –Epot / 2 .

       
      Hier steht Ekin für die Bewegungsenergie der Teilchen Dunkler Materie im Halo und Epot für ihre Lageenergie.
       
      Dieses einfache Verhältnis von Bewegungs- und Lageenergie stellt sich ein, sobald die Dichte im Halo etwa 200 Mal höher ist als die mittlere Energiedichte im Universum.
       
      Einen Halo, der sein dynamisches Gleichgewicht erreicht hat, nennt man virialisiert.

     
     
     
    Wann entstanden die ersten Sterne?

     
    Aus den durch die Raumsonde WMAP gesammelten Daten glauben die Astrophysiker herauslesen zu können, dass die ersten Sterne im Universum bei einer Rot­ver­schiebung von etwa z = 30 aufflackerten, d.h. etwa 100 Mio Jahre nach dem Urknall (wenn wir die Sprache der Rot­verschiebungen richtig deuten).

     

     Beitrag 0-255
    Wie unser Lebensraum sich verflüchtigen wird

     
     

     
    Wie unser Lebensraum wahrscheinlich enden wird

     
     
    In 1 Milliarde (Mrd) Jahren:
      Die Sonne strahlt rund 10 Prozent heller als heute. Wie Modellrechnungen zeigen, verschwinden deswegen alle höheren Lebewesen und alle Landpflanzen, da für sie die kritische mittlere Erdtemperatur von 30 Grad Celsius überschritten wird.

    In 1.6 Mrd Jahren:
      Photosynthese wird unmöglich, da die mittlere Erdtemperatur nun 60 Grad Celsius zu überschreiten beginnt.

    In 2 Mrd. Jahren:
      Die Ozeane verdampfen. Der aufsteigende Wasserdampf erzeugt einen starken Treibhauseffekt.
       
      Der starken Sonneneinstrahlung wegen zerlegen die Wassermoleküle: Der leichte Wasserstoff verflüchtigt sich ins All hinaus, der Sauerstoff aber wird vom Eisen der Gesteine aufgenommen.
       
      Die Erde verwandelt sich in einen trockenen, heißen Planeten ähnlich der heutigen Venus.
       
      Zugleich ist das Erdinnere so weit abgekühlt, dass es kaum noch Vulkanismus gibt.

    In 3 Mrd. Jahren:
      Die Milchstraße kollidiert mit Andromeda, beide vereinigen sich.

    In 5 Mrd. Jahren:
      Der Wasserstoffvorrat im Sonnenzentrum ist nahezu aufgebraucht.
       
      Die Sonne bläht sich im Laufe der nächsten 2 Mrd. Jahren zu einem Roten Riesen auf.

    In 6.4 Mrd. Jahren:
      Die Leuchtkraft der Sonne beträgt nun schon das Doppelte des heutigen Wertes. Ihr Radius ist nun 60 Prozent größer als heute.

    In 7.7 Mrd. Jahren:
      Die Leuchtkraft der Sonne ist nun schon 1000 Mal größer als heute. Ihre äußeren Schichten blähen sich auf mehr als das Hundertfache auf.
       
      Im nur erdgroßen, kontrahierten Heliumkern zündet fast explosionsartig die Fusion von Helium zu Kohlenstoff ( sog. Heliumflash ).

    In 7.8 Mrd. Jahren:
      Alles Helium in der Sonne ist verbrannt. Sie bläst nun — in mehreren Zuckungen — ihre äußeren Hüllen in den Weltraum hinaus.
       
      Zurück bleibt ein erdgroßer Weißer Zwerg umgeben von einem expandierenden planetarischen Nebel.

    In 1000 Mrd. Jahren:
      Auch die letzten Sterne in unserem Universum haben ihren Fusionsbrennstoff verbraucht. Der Himmel wird dunkel.

    In 1023 Jahren:
      Die Galaxien lösen sich auf, da die schnellen Sterne immer weiter von ihren Zentren wegwandern.
       
      Die Temperatur der kosmischen Hintergrundstrahlung ist auf 10-13 Kelvin gefallen.
       
      Es ist kalt und dunkel im Universum.

    In 10100 Jahren:
      Alle Matere — vermutlich auch alle Schwarzen Löcher — sind zerstrahlt.
       
      Das expandierende Universum enthält noch sehr schwache Wärmestrahlung (etwa 10-30 Kelvin) mit Spuren besonders leichter Materieteilchen, fast nur noch Neutrionos.
       
      Damit sind Materie und Energie nahezu strukturlos geworden und verlieren sich in den Weiten des Raumes.
       
      Von Zeit zu sprechen, macht kaum noch Sinn.


     
     
    Quelle: Jörg Resag: Zeitpfad — Die Geschichte unseres Universums und unseres Planeten, Springer Spekrum 2012, S. 374-375


     

     Beitrag 0-261
    Kann Wissenschaft wissen

     
     

     
    Wie wird unser Universum enden?



    Steven Hawking (1991):
     
    Wissenschaftler glauben, das Universum sei genau definierten Gesetzen unterworfen, die uns — im Prinzip wenigstens — gestatten, seine Entwicklung vorherzusagen. Nun sind die aus diesen Gesetzen kommenden Lösungen aber oft chaotischer Art (im Sinne der mathematischen Chaostheorie, was bedeutet, dass beliebig winzige Abänderung der angenommenen Ausgangsbedingungen im nachfolgenden Verhalten zu beliebig großen Unterschieden führen kann: eben so, wie das auch bei der Wettervorhersage der Fall ist).
     
    Dies ist ein Grund, warum man in der Praxis meist nur eine ziemlich kurze Zeitstrecke der Zukunft vorhersagen kann.
     
    Auf sehr großer Skala allerdings erscheint das Verhalten des Universums einfach und nicht-chaotisch, so dass es dennoch möglich erscheint, vorherzusagen, ob es ewig expandieren oder schließlich doch wieder in sich zusammenstürzen wird. Welcher Fall wahrscheinlich ist, hängt von seiner gegenwärtigen Dichte ab.
     
    Tatsächlich aber scheint nun seine gegenwärtige Dichte sehr nahe am kritischen Wert zu liegen, der den Kollaps von endloser Expansion trennt.
     
    Wenn das Inflationsmodell zutrifft, steht das Schicksal des Universums auf des Messers Schneide.
     
    Und so bleibe ich — Steven Hawking — ganz in der bewährten Tradition der Orakel und Propheten, wenn ich auf Nummer Sicher gehe und beide Möglichkeiten voraussage.
     


     
    Quelle: Hawking: Darwin Lecture, University Cambrige, Jan 1991
     
    In deutscher Übersetzung abgedruckt in Hawking: Einsteins Traum, Expeditionen an die Grenzen der Raumzeit, Rowohlt 1993, S. 156-157.

     
     
    Note: Chaos im Sinne der Chaostheorie ist durch Differential- und Differenzengleichungen eindeutig bestimmtes Chaos. Solche Gleichungen lassen sich aber nur näherungsweise — als sog. Anfangswertprobleme — lösen. Da nun aber weder die Anfangswerte noch die Rechnung selbst mit unbegrenzter Genauigkeit gegeben werden können bzw. durchführbar ist, werden solche Lösungen stets nur in kleinen Umgebungen des Ausgangspunktes zutreffende Voraussagen machen.
     
    Hinzu kommt noch, was Hawking oben gar nicht erwähnt: Der überall vorhandenen Quantenfluktuation und ihrer Zufälligkeit wegen, werden immer und überall Werte minimal abgeändert werden (Stichwort: Kollaps der Wellenfunktion), so dass — im ganz Kleinen jedenfalls — die Entwicklung eben doch nicht deterministisch sein kann.

     

     Beitrag 0-110
    Vom Urknall bis hin zum Vergehen unseres Universums

     
     

     
    Die wahrscheinliche Zukunft unseres Universums

     
     
    Denkt man sich die Zeitspanne zwischen Urknall und Gegenwart maßstabsgetreu auf den Zeitraum von genau 1 Jahr reduziert (so dass der Urknall zu Beginn des Jahres um 0:00 Uhr stattfindet), so hätten wir schon 14 Minuten später den Zeitpunkt erreicht, zu dem unser Universum für Licht durchlässig wurde und das Bild entstand, das uns heute noch die kosmische Hintergrundstrahlung zeigt.
     
       
    • Etwa ab 5. Jan. entstanden erste Sterne und Schwarze Löcher sowie die für menschliches Leben wichtigen Elemente Sauerstoff und Stickstoff. Gegen Ende Januar gibt es dann erste Galaxien.
       
    • Etwa Ende August entstehen unsere Sonne und die Erde.
       
    • Am 19. Sep. gibt es erste Anzeichen biologischen Lebens auf der Erde, aber erst ab 20. Dez. entwickeln sich Wälder, Fische und Reptilien.
       
    • Am ersten Weihnachtsfeiertag entstehen Säugetiere, aber die ersten Vorfahren der Menschen finden sich erst an Silvester — so etwa ab 20 Uhr.
       
    • Homo Sapiens tritt gar erst 6 Minuten vor Jahresende in Erscheinung.

     
    Doch schon am 12. Jan. des neuen Jahres wird die Erde zu heiß für menschliches Leben sein, und noch im Juli wird die Sonne sich zu einem roten Riesen aufgebläht und die Erde verschluckt haben.
     
    Wie sich das weitere Schicksal unseres Universums gestaltet, hängt davon ab, ob sich der Raum dann immer noch in beschleunigter Ausdehnung befinden wird. Wenn ja, dann werden
       
    • nach 100 Billionen Jahren auch die letzten Sterne verglüht sein.
       
    • Es wird dann nur noch Schwarze Löcher geben — aber die noch sehr lange.
       
    • Doch auch ihr Leben ist begrenzt, denn der Hawking-Strahlung wegen, werden selbst die größten spätestens nach 10100 Jahren verdampft sein.
       
    • Von da an wird das Weltall vollkommen dunkel sein.
       
    • Sein Volumen wird im Vergleich zu heute auf das 10194-fache angewachsen sein, und die Wellenlänge der kosmischen Hintergrundstrahlung wird — von heute 2 mm — auf den unglaublich großen Wert von 1041 Lichtjahren angewachsen sein.

     
    Mit anderen Worten: Das Universum wird sich dann zu praktisch gar nichts mehr verdünnt haben ...
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 208-209
     
     
     
     
    Ein ganz anderes — viel positiveres — Bild von der Zukunft der Schöpfung ergibt sich nach einer Theorie von Linde und Vilenkin, die man
     
     
    Das Ewige Universum

     
    nennt: Ihr zufolge können durch Quantenfluktuation stets und überall neue Universen entstehen: sog. Baby Universen.
     
    Es kann sogar passieren, dass so ein neu entstandenes Universum in der Form einer zunächst winzigen, sich dann aber stetig ausbreitenden Blase immer größere Teile unseres Universums vereinnahmt bis hin zu dem Punkt, an dem das Mutteruniversum dann ganz verschwunden ist.
     
    Dies vollzieht sich wie ein dynamisches System mit Phasenübergang: Die neue Phase bildet sich spontan zunächst an nur einer Stelle in der alten Phase, um sich dann — innerhalb der alten — immer weiter auszudehnen bis vom Mutterraum nichts mehr übrig ist.
     
    Diese Prozesse spielen sich fast immer nur im mikroskopischen Bereichen von der Größe einiger Plancklängen ab in dem Sinne, dass die entstehenden Raumzeit-Blasen mit wirklich sehr hoher Wahrscheinlichkeit sofort wieder in sich zusammenfallen. Nur extrem wenigen gelingt es, sich so auszudehnen, dass man sie als neues Universum, dem unseren vergleichbar, bezeichnen kann.
     
     
    Die Ideen von Linde, Vilenkin, aber auch ähnliche von Hartle und Hawking beziehen sich zunächst i.W. nur auf die kosmologischen Eigenschaften solcher Universen: kosmologische Konstante, Größe, Homogenität des Raumes.
     
    Erst Stringtheorie geht da weiter, indem sie die Wellenfunktion des Universums auf die gesamte Elementarteilchenphysik und sogar auf die Naturgesetze selbst ausgedehnt sieht. Dies führt dazu, dass es der Stringtheorie möglich ist, ein Multiversum zu betrachten, dessen Blasen sich
    • nicht nur hinsichtlich des Spektrums und der Eigenschaften dort vorkommender Elementarteilchen,
    • sondern auch hinsichtlich der dort regierenden Naturgesetze
    unterscheiden.
     
     
    Auch in der Stringtheorie führen Quanteneffekte zur Geburt neuer Blasen und der Tunneleffekt zur inflationären Ausdehnung einiger davon. Der Großteil dieser Universen ist mit unserem aber kaum vergleichbar, denn es gibt dort ja andere Elementarteilchen und andere Naturkräfte. Einzig und allein die Gravitationskraft scheint universeller Natur zu sein und über alle hinweg zu wirken.
     
     
    Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 246-251
     
    Die Aussage oben » Das Universum wird sich dann zu praktisch gar nichts mehr verdünnt haben ... « muss somit wohl verallgemeinert werden zur Aussage
     
     
    Als Heimat biologischen Lebens wird unser Universum ab einem gewissen Alter nicht mehr geeignet sein.
    Nicht auszuschließen, ja sogar wahrscheinlich aber ist, dass dann in einigen seiner Nachfahren neues Leben — ähnlicher oder ganz anderer Art — entsteht
    oder schon entstanden sein wird.


     
     
    Oder doch plötzlicher Weltuntergang?

     
    Nach einer Theorie von Michael Turner und Frank Wilczek (1982) ist auch ein plötzlicher Weltuntergang denkbar. Die Masse des erst 30 Jahre später nachgewiesenen Higgs-Bosons macht ihn sogar wahrscheinlich:
     
    Wilfried Buchmüller vom Hamburger Teilchenbeschleuniger Desy bestätigt das: "Dank der Entdeckung des Higgs-Bosons und der Bestimmung seiner Masse können wir die Frage nach der Stabilität des Vakuums jetzt präziser beantworten." Aus der Masse des Higgs-Bosons von etwa 125 GeV folgt im Rahmen des Standardmodells der Teilchenphysik, dass das Vakuum instabil sein muss – und damit unser ganzes Universum.
     
    Quellen: [Q], [BS]

     

     Beitrag 0-282
    Letztlich wird die (noch unbekannte) Natur Dunkler Energie das Schicksal unseres Universums bestimmen

     
     

     
    Letztlich wird die Natur Dunkler Energie

    das Schicksal unseres Universums bestimmen

     
     
    Wie man heute weiß, sind 70 Prozent aller Energie in unserem Universum sog. Dunkle Energie — Energie, deren Natur wir bisher nicht verstehen. Grundsätzlich könnte sie von zweierlei Natur sein:
       
    • Die 1. Möglichkeit: Dunkle Energie könnte korrekt modelliert sein in Form einer sog. kosmologischen Konstanten in Einsteins Feldgleichung der Allgemeinen Relativitätstheorie. In diesem Fall wäre sie ein ständig vorhandenes, ständig gleich starkes Bedürfnis des leeren Raumes, sich auszudehnen.
       
    • Die 2. Möglichkeit: Dunkle Energie könnte ein Feld von Energie sein, dessen Stärke nach Ort und Zeit — dann allerdings nur über extrem große raumzeitliche Entfernungen hinweg — schwankt vergleichbar mit der Oberfläche eines Ozeans bei ruhigem Wetter.

     
    Im zweiten Fall — für den spricht, dass die Geschwindigkeit der Raumexpansion seit dem Urknall nicht immer gleich war — müsste unser Universum sich nicht ewig immer nur ausdehnen: Es könnte sich dann gut irgendwann auch wieder verdichten bis hin zu einem Zustand, in dem es dann zu einem neuen Urknall kommen könnte.
      Der Schweizer Astrophysiker Arnold Benz aber schrieb (1997):
       
      Immer wieder liest man von Modellen eines periodisch pulsierenden Universums, das nach dem Kollaps wieder expandiere. Hierfür allerdings gibt es weder physikalische noch astronomische Anhaltspunkte, und so sind diese Theorien extrem spekulativ. Die heute von der großen Mehrheit aller Physiker favorisierte Theorie ist die, dass das Universum sich unbegrenzt ausdehnen (und inhaltlich ständig mehr verdünnen) wird.
       
      Die neusten Beobachtungen mit dem Hubble-Teleskop, so ergänzt Benz 2004, legen eine unendliche Expansion des Universums nahe.

    Dann aber, d.h im ersten Fall, würde die Zukunft unseres Universums sich gestalten wie folgt:
       
    • Da es kein Ende der Zukunft gibt, kann jeder physikalische Prozess, auch der langsamste, bis ganz zu seinem Ende ablaufen (oder gar kein Ende haben).
       
    • Zunächst wird — in etwa 5 Mrd. Jahren — unsere Sonne sich zum Roten Riesen aufblähen, der sich bis über die Bahn der Erde hinaus ausdehnen und so die Biospäre komplett zerstören wird.
       
    • Viel später noch wird es im gesamten Weltraum allmählich dunkel werden, da ein Stern nach dem anderen seinen Kernbrennstoff verbraucht haben und selbst die letzten Supernovae-Explosionen verglüht sein werden.
       
    • Wie Einsteins Theorie voraussagt, strahlen Himmelskörper, die einander umkreisen, Gravitationswellen ab. Dies bewirkt, dass sie an Bewegungsenergie verlieren und so — nach phantastisch langen Zeiträumen, die das jetzige Weltalter weit übersteigen — in einander stürzen und zu Schwarzen Löchern vereinigen.
       
    • Die riesigen, durch den Zusammensturz ganzer Galaxien entstandenen Schwarzen Löcher streben dann — der ständigen Expansion des Raumes wegen — immer weiter auseinander, werden aber selbst, ihrer Hawking-Strahlung wegen, auch irgendwann (nach etwa 1070 Jahren) verdampft sein.
       
    • Zugleich und dann sogar bis in alle Zukunft hinein wird es im Raum immer kälter werden, denn auch die Temperatur der kosmischen Hintergrundstrahlung
      wird — wieder der Expansion des Raumes wegen — ständig fallen.
       
    • Kurz: Irgendwann wird sich alles in sehr langwellige und doch ständig noch kälter werdende Strahlung aufgelöst haben.

    Sollte die Dunkle Energie also wirklich eine kosmologische Konstante sein, muss es unweigerlich zum Kältetod des Universums kommen.

     
    Note: Es könnte sehr gut sein, dass sogar beide Szenarien eintreten, erst ein beleibig weit fortgeschrittener Kältetod, dann aber doch erneut Kompression aller Energie bis hin zu einem neuen Urknall. Es müsste dazu nur die Dunkle Energie zwar den Charakter eines Feldes haben, dessen Stärke — über die Zeit hinweg — sich aber nur extrem langsam ändert.

     

     Beitrag 0-368
    Wie unser Universum sterben wird — extrem langsam, oder urplötzlich: Beides ist denkbar

     
     

     
    Wie wird unser Universum sterben?

     
     
    So wie es heute scheint, wird die fortschreitende Expansion des Raumes zu einem ständig mehr verdünnten Inhalt unseres Universums führen in dem Sinne, dass er sich auflöst wie ja auch jede ganz gewöhnliche Wolke sich irgendwann zu Nichts auflöst:
     
      Schon nach etwa 100 Mrd. Jahren wird sich innerhalb des Ereignishorizonts unserer Galaxie kaum noch eine andere finden. Auch werden sich bis dahin sämtliche (etwa 30) Galaxien der lokalen Gruppe — also nicht nur Andromeda und unsere Milchstraße — zu einer einzigen Galaxie vereinigt haben.
       
      Es wird dann aber schon die Zeit angebrochen sein, in dem der Rohstoff — Wasserstoff und Helium — immer knapper wird, aus dem Sterne entstehen. Der Prozess der Sternentstehung wird daher zum Stillstand kommen. Gleichzeitig werden immer mehr der dann noch existierenden Sterne ihr Leben aushauchen und so zu ausgebrannten, dunklen Körpern im Weltall werden.
       
      Nach 100 000 Milliarden Jahren wird es nur noch Schwarze Zwerge (= erkaltete frühere Weiße Zwerge), Neutronensterne und Schwarze Löcher geben.
       

        Geradezu abenteuerlich mutet es an, wenn mache Forscher selbst in diesem weitgehend verödeten Universum noch biologische Evolution für möglich halten.
         
        Nach derart langer Zeit, so denken sie, könnte die Evolution wahre Wunder vollbracht haben.
         
        Vertreter solcher Meinung sind z.B. Fred Adams und Gregory Laughlin in Anknüpfung an eine Idee von Freeman Dyson.
         
        Der Gedanke an eine vielleicht weitaus höher entwickelte Zivilisation als die unsere in der Ödnis des bereits uralten Universums mag verblüffen, aber andererseits weiß ja niemand, ob das Phänomen des Lebens notwendigerweise auf sonnenbestrahlte Planeten mit entsprechender Biosphäre beschränkt sein muss.
         
        Doch auch solches Leben — wenn es denn überhaupt je entsteht — muss vergehen, weil schließlich alle Materie sich auflösen wird.

       
      Einige der heute diskutierten Kandidaten für eine » Große vereinheitlichte Theorie (GUT) « sagen voraus, dass auch Protonen nicht stabil sind. Wahrscheinlich haben sei eine durchschnittliche Lebensdauer irgendwo zwischen 1031 und 1036 Jahren. Diese große Zahl würde erklären, dass bis heute — trotz nun schon Jahre langer ständiger Suche — noch kein einziger Protonenzerfall beobachtet worden ist.
       
      Wenn auch Protonen zerfallen, würden schließlich, was Materieteilchen betrifft, nur noch Elektronen, Positronen und Neutrinos vorhanden sein. Wo ein Elektron auf ein Positron trifft, würden beide sich in Strahlung auflösen.
       
      Wenn dann — nach etwa 10100 Jahren — selbst die massereichsten Schwarzen Löcher sich ihrer Hawking-Strahlung wegen aufgelöst haben werden, erreicht die Temperatur im Universum schon fast den absoluten Nullpunkt.
       
      Die Wellenlänge von aus der Vergangenheit übrig gebliebener Photonen könnte dann den unvorstellbar hohen Wert von etwa 1040 Meter erreicht haben, so dass sie um Größenordnungen weniger Energie trügen als die uns heute erreichende kosmische Hintergrundstrahlung.

     
    VORSICHT aber: Dieses Szenario setzt voraus, dass der heute beobachte Trend der Expansion des Raumes anhält, sich also nicht wieder umdreht.
     
     
    Deutlich weniger wahrscheinlich — aber keineswegs auszuschließen — ist die Möglichkeit, dass unsere Welt schlagartig verschwinden könnte:
     
    Dies würde dann passieren, wenn es erneut — durch spontanen Zusammenbruch einer nicht ganz stabilen Energieverteilung im Vakuum — zu einem Ereignis wie dem der Inflation kommt: So ein Ereignis würde unser Universum schlagartig durch ein dann neu geborenes ersetzen.
     
    Sidney Coleman und Frank de Luccia, die beiden Physiker, welche auf diese Möglichkeit aufmerksam machen, argumentieren, dass man ja nicht wissen könne, ob das Vakuum bereits den Zustand seiner kleinstmöglichen Energie erreicht hat.
     
    Man erkennt daraus: Auch der Urknall, der unser Universum schuf, könnte auf diese Weise ein schon vorher existierendes, ganz ähnliches, zerstört haben.
     
     
     
    Quelle: Dieter B. Herrmann: Das Urknall-Experiment (2014)

     
     
     
    Kaum wahrscheinlich ist das sog. » Big Rip « Szenario:

     
     
    Der Physiker Robert Caldwell vom Dartmouth College in Hanover (New Hampshire) hat gemeinsam mit Kollegen vom CalTech eine Computersimulation durchführt, welche ein noch anderes Ende unserer Welt möglich erscheinen lässt: Den sog. » Big Rip «:
     
    In diesem Modell ist die Dichte Dunkler Energie nicht konstant, sondern wächst immer rascher an, was zur Folge haben könne, dass zunächst Galaxienhaufen und Galaxien, dann sogar Sterne, Planeten und in letzter Sekunde selbst noch Atome und Atomkerne buchstäblich zerfetzt werden. Dies könne — so die Simulation — schon in 22 Mrd. Jahren geschehen (!).
     
    Hoffen wir also, dass Einstein einmal mehr recht behält und die Dunkle Energie wirklich durch eine kosmologische Konstante korrekt modellierbar ist. Dafür dass dem so sein könnte, spricht, dass die kosmologische Konstante ja auch als Integrationskonstante in Einsteins Theorie kommen kann (dann also nicht willkürlich eingefügt, sondern nur ihrem Wert nach gewählt wird). Kai Zuber: Teilchenastrophysik (Teubner Studienbücher 1997), S. 160-175.
     
     
     
    Quelle: Michael Odenwald: Odenwalds Universum (Herbig 2008, S. 51) — eine FOCUS-Reihe
     
    Die heute vorherrschende Meinung unter Kosmologen: Λ ja, Quintessenzen und Phantom-Energie: eher nicht


     

      Beitrag 2053-6
    Das sog. kosmologische Prinzip

     
     
    Quante in 2053-5:
     
    Jetzt meine Frage ... wie würden wir das Universum wahrnehmen, könnten wir den Standpunkt unser Betrachtung, egal in welche Richtung, an den Rand unserer Beobachtungsgrenze verlegen? Wäre unsere Beobachtung dann immer noch die Wahrnehmung eines beschleunigt expandieren Universums?


    Hallo Quante,

    die Kosmologen ( heute weltweit mehr als 1000 aktive Wissenschaftler ) glauben an das sog. Kosmologische Prinzip. Es sagt:


    Für alle Beobachter — und von  j e d e m  Punkt aus betrachtet — sieht das Universum gleich aus.

    Man nennt es deswegen homogen und isotrop.


    Mehr darüber z.B. in (1) oder (2)

    Gruß, grtgrt
     
    Bauhof in 2053-7:
     
     
    Hallo Quante, auch wenn wir an den Rand unserer Beobachtungsgrenze reisen könnten, die Wahrnehmung eines (beschleunigt) expandierenden Universums wäre die gleiche. Das folgt aus dem Kopernikanischen Prinzip: Alle Orte im Universum sind gleichberechtigt. Dieses Prinzip wird ergänzt durch das Kosmologische Prinzip.
     

     

      Beitrag 2053-15
    Eugen Bauhofs Bild zum Ballon-Modell

     
    C... in 2053-14:
    Gesetzt den Fall, das Ballonmodell träfe zu, dann bewegt sich die Materie des Alls ausgehend vom "Mittelpunkt" des Ballons seit dem Urknall in unterschiedliche radiale Richtungen.

    Hallo C...,

    ja, das ist auch meine Vorstellung. Zur Verdeutlichung stelle ich die nachstehende Skizze ein:



    C... in 2053-14:
    Dies hätte zur Folge, dass ein Teil der postulierten "Bewegung in die vierte Raumdimension" von unserem Standpunkt aus als eine Bewegung im Raum erscheinen müsste.

    Nicht unbedingt. Wir können nur feststellen, dass sich die Abstände zwischen den Galaxien mit der Universum-Expansion vergrößern. Ob das nun eine Relativ-Geschwindigkeit darstellt oder eine Dehnung des Raumes, ist eine Sache der Interpretation. Die heutigen Kosmologen interpretieren dieses Größerwerden der Abstände zwischen den Galaxien als Raumdehnung. Was hätte es für einen Vorteil, wenn man es als Geschwindigkeit interpretieren würde?

    M.f.G. Eugen Bauhof
     

      Beitrag 2053-13
    -

     
     
    Bauhof in 2053-12:
     
    Leider konnte man bisher keinerlei Bewegung in eine vierte Raum-Dimension nachweisen, die senkrecht auf den drei Raum-Dimensionen steht.


    Hallo Eugen,

    das Ballon-Modell ist nur ein Modell — eine Art Gleichnis, das man nicht allzu wörtlich nehmen darf.

    Wenn unsere Welt der Oberfläche des Ballons entspricht (und dann ein Raum ohne Grenzen ist), dürfen wir — als NUR in diesem Raum lebende Wesen — wohl gar nicht erwarten, dass unsere Sinne Zugang zu einem "Außerhalb" oder "Innerhalb" des Ballons haben.

    Was das aus ferner Vergangenheit kommende Licht uns zeigt, ist nicht ein "Innerhalb" des Ballons, sondern nur ein in unsere Welt (die Gegenwart) eingebettetes  B i l d  davon. Wir können z.B. nicht beweisen, dass es nicht leicht verfälscht ist (obgleich uns das unwahrscheinlich erscheint).

    Gruß, grtgrt


    PS: Was ich immer noch nicht verstehe, ist, warum Hawking von "imaginärer" Zeit spricht. Ist seine "Oberfläche" des Ballons nun 3- oder 4-dimensional?
    Anders gefragt: Gibt es neben seiner imaginären Zeit für ihn auch noch eine reelle?


     

      Beitrag 2053-42
    -

     
     
    C... in 2053-40:
     
    Betrachten wir aber im Ballonmodell ein Universum mit nicht euklidischer "Oberfläche" (etwa so, wie Bauhof es in seiner Skizze Beitrag 2053-15 dagestellt hat), so bewegen sich die Galaxien - hier mit v(4) - unbeschleunigt ausgehend vom Ursprung in verschiedene Richtungen.


    Hallo C...,

    die Galaxien bewegen sich in jener Skizze grundsätzlich nur deswegen voneinander weg, da der blaue Kreis (= unser 3D-Raum) zunehmend größer wird.

    Damit aber ist  k e i n e  Bewegung "ausgehend vom Ursprung in verschiedene Richtungen" verbunden: Die Richtung, in die v(4) zeigt, existiert als Raumrichtung ja gar nicht — sie symbolisiert nur das Vergehen von Zeit.

    PS: Eugen möge mich korrigieren, wenn ich sein Bild falsch verstehe.

    Gruß, grtgrt
     

      Beitrag 2053-50
    -

     
    Grtgrt in 2053-42:
     
    C... in 2053-40:
     
    Betrachten wir aber im Ballonmodell ein Universum mit nicht euklidischer "Oberfläche" (etwa so, wie Bauhof es in seiner Skizze Beitrag 2053-15 dagestellt hat), so bewegen sich die Galaxien - hier mit v(4) - unbeschleunigt ausgehend vom Ursprung in verschiedene Richtungen.


    Hallo C...,

    die Galaxien bewegen sich in jener Skizze grundsätzlich nur deswegen voneinander weg, da der blaue Kreis (= unser 3D-Raum) zunehmend größer wird.

    Hallo Grtgrt,

    so ist es. Etwas genauer würde ich es so formulieren: Sie bewegen sich nicht voneinander weg, sondern ihr Abstand zueinander vergrößert sich mit der Expansion.

    Grtgrt in 2053-42:
    damit aber ist  k e i n e  Bewegung "ausgehend vom Ursprung in verschiedene Richtungen" verbunden: Die Richtung, in die v(4) zeigt, existiert als Raumrichtung ja gar nicht — sie symbolisiert nur das Vergehen von Zeit.

    Das kann man interpretieren wie man will.
    1. Man kann es als Symbolisierung für das Vergehen von Zeit interpretieren.

    2. Ich postuliere es als ein Fortschreiten in eine 4. Raumrichtung mit der imaginären Geschwindigkeit V4 = i•c. Warum? Weil man daraus zwanglos die Lorentz-Transformationen herleiten kann. Und der Erfolg rechtfertigt m.E. in gewisser Weise diese Annahme.

    M.f.G. Eugen Bauhof
     

      Beitrag 2053-45
    -

     
     
    Hans-m in 2053-43:
     
    Während der Lichtimpuls von der Quelle zum Empfänger unterwegs ist, dehnt sich der Raum, aus Sicht des Empfängers, kreisförmig aus.
    So betrachtet käme die Raumausdehnung dem Licht entgegen, was seine effektive Laufzeit erhöhen würde, weil er die Strecke Sender-Empfänger zuzüglich der dabei stattgefundenen Raumausdehnung zurücklegen müsste.

    Habe ich hier einen Denkfehler?

    Mir scheint das schon richtig,

    wie sonst nämlich wäre es möglich, dass der uns sichtbare Teil des Universums um uns herum einen Radius von ca. 46 Mrd. Lichtjahren hat, obgleich seit dem Urknall noch keine 14 Mrd. Jahre vergangen sind?

    Siehe auch (1) und (2).

     

      Beitrag 2053-46
    -

     
    Hallo Leute,

    entscheidend ist bei der beschleunigten Raumausdehnung, in der die Galaxien eingebettet sind, dass die Galaxien keinerlei Beschleunigungskräften unterworfen sind. Die Galaxien ruhen also im Raum, während sie sich voneinander beschleunigt entfernen. Daher widersprechen diese beschleunigten Bewegungen der Galaxien zueinander nicht den RT´s, wo ja eine beschleunigte Bewegung mit exponetiellem Energiewachstum verbunden ist, und Lichtgeschwindigkeit für massebehaftete Objekte unmöglich macht. Hier ist sogar Überlichtgeschwindigkeit zueinander möglich.
    In Bernhard Kletzenbauers Animationen (die ich zu faul bin, herauszusuchen) ist das m.E. gut zu erkennen.

    Oh, ich sehe gerade, dass Okotombrok das mit den Beschleunigungskräften schon längst erwähnt hatte. Tschuldigung, Okotombrok, dass ich jetzt einfach mal "nachplappere".

    Grüße
     

      Beitrag 2053-27
    -

     
     
    Bauhof in 2053-20:
     
    diese Skizze habe ich schon vor etwa 10 Jahren gemacht. Ich nannte diese Geschwindigkeit der Galaxien in eine 4. Richtung imaginäre Geschwindigkeit V4=i•c. Damit lässt sich ein vierdimensionales raumzeitliches Koordinatensystem { x, y, z, i•c•t } aufspannen.


    Hallo Eugen,

    mir scheint in diesem Modell — der Konstanz von V4 wegen — nicht erklärbar zu sein, dass sich unser Universum schon mal mit weit größerer Geschwindigkeit ausgedehnt hat, als das derzeit der Fall ist.

    Würdest Du mir da zustimmen?

    Gruß, grtgrt
     

      Beitrag 2053-57
    -

     
    Henry in 2053-51:
    Für die Zeit in entsprechenden Koordinatensystem sei angemerkt, dass sie nach Einstein im Unterschied zu den Raumkoordinaten ein NEGATIVES VORZEICHEN hat. Man sollte also mit der Interpretation als PHYSIKALISCHE Wirklichkeit vorsichtig sein!

    Hallo Henry,

    das hat Hermann Minkowski schon lange mit einem Trick umgangen:
    Er führte die imaginäre Koordinate i•c•t ein: w2 = x2 + y2 + z2 + (i•c•t)2
    Damit ergibt sich der vierdimensionale Pythagoras. Originalton Hermann Minkowski:

    Dadurch wird alles noch viel anschaulicher!

    Und wenn ein Mathematiker wie Minkowski die Anschaulichkeit ins Feld führt, dann hat das was zu bedeuten.

    M.f.G. Eugen Bauhof
     

      Beitrag 2053-198
    Über Hawkings falsche Schlussfolgerung

     
     

    Über Hawkings falsche Schlußfolgerung


    Bauhof in 2053-172:
     
    Das ist ja gerade das Neue bei Hawkings Universum:
    Nicht nur der Raum ist unbegrenzt und in sich selbst zurückgeschlossen, sondern auch die (imaginäre) Zeit.
    Und wenn etwas unbegrenzt ist, dann gibt es keinen Anfang und auch kein Ende.


    Wenn das Universum ohne zeitlichen Anfang und ohne zeitliches Ende ist, kann es gar nicht auf einen Punkt zusammenschrumpfen.

    Ein Punkt nämlich hat grundsätzlich null Dimensionen, ist also kein Gegenstand mehr, sondern bestenfalls nur noch eine Position, an der dieser Gegenstand existiert hat (und selbst das würde erfordern, dass es den angenommenen 5-dim Raum, in den es eingebettet war, tatsächlich gibt).


    Wir sehen also: Wo ein Universum auf einen einzigen Punkt schrumpft, bedeutet das, dass es  a u f h ö r t  zu existieren.

    Wer also denkt, unser Universum könne unendlich oft auf nur einen Punkt zusammenschrumpfen, um sich dann wieder zu vergrößern, nimmt nichts anderes an, als dass eben dieses Universum unendlich oft neu geschaffen wird. Ihm Ausdehnung zu geben bedeutet, es ins Leben zu rufen (d.h. ihm eigene Dimensionen zu schaffen).


    Hawkings Graphik, in der er den Nordpol der Kugel als Urknall sieht und ihren Südpol als Endknall, kann durchaus zutreffen.
    Falsch ist nur seine Schlussfolgerung, die da sagt: "es [das Universum] würde einfach sein. Wo wäre dann noch Raum für einen Schöpfer?".

    Richtig wäre: Es würde ständig untergehen und neu geschaffen werden (und somit  s t ä n d i g  eines Schöpfers bedürfen).

     

      Beitrag 2053-202
    -

     
     
    Henry in 2053-199:
    Hawking stellt sein Modell gerade deshalb vor, weil er NICHT von einem Punkt (dem "Urknall") ausgeht.

    Hallo Henry,

    ja, auch ich habe das Gefühl, Hawkings Modell nicht wirklich verstanden zu haben.

    Aber auch was Eugen Bauhof und andere hier im Forum schrieben, hat es mir nicht klarer gemacht. Verstehen sie — oder Du etwa — sein Modell wirklich?
    Wenn ja: warum gelingt es dann niemand, es so zu erklären, dass niemand mehr nachfragen muss?

    Du etwa sagst, Hawking gehe von gar keinem Urknall aus. Aber warum beschriftet er dann in Abb. 26 (auf Seite 180 der 1996 aktualisierten Fassung seines Buches Eine kurze Geschichte der Zeit) den Nordpol seiner Kugel mit dem Wort "Urknall" und den Südpol mit dem Wort "Endknall"?

      Deine Erklärung hierfür könnte mir helfen — wenn Du denn glaubst, eine zu haben.
      Statt dessen wirfst Du mir vor, ich würde nicht sachdienlich denken. Stellt dieser dein Vorwurf denn wirklich sachdienliche Diskussion dar?


    Hawkings Argumentation, dass unser Universum weder geboren noch zerstörbar sei, macht NUR dann Sinn, wenn das Universum zwar gelegentlich extrem kleinen Durchmesser hat, aber doch  n i e m a l s  unendlich kleinen (d.h. wenn es niemals nur Punkt war oder wird — ein Punkt nämlich hat gar keine Dimension und ist daher nur Position und sonst gar nichts).

    Und wäre sein Bild (Abb. 26, rechte Kugel) nicht, so würde ich ihn auch tatsächlich so verstehen, denn er schreibt ja kurz vor dieser Graphik:

    Zitat von Hawking, S. 180:
     
    Vor ungefähr 10 bis 20 Milliarden Jahren hätte es eine minimale Größe gehabt, was dem maximalen Radius in der imaginären Zeit entspricht.

    Unter "minimaler" Größe müsste man sich — wenn sein Bild mit den "Urknall" und "Endknall" genannten Polen nicht wäre, nicht notwendig einen Punkt vorstellen.

    Es spricht aber nicht nur sein Bild dafür, dass er damit damit wirklich Punkte (eben die Pole) meint, d.h. unendlich kleinen, singulären Welt-Durchmesser. Schließlich sagt er ja auch:

    Zitat von Hawking, S. 180:
     
    Zu einem späteren reellwertigen Zeitpunkt würde sich das Universum aufblähen, wie es Linde im Modell der chaotischen Inflation vorschlägt (doch müsste man nicht mehr von der Annahme ausgehen, es sei auf irgendeine Weise im richtigen Zustand erschaffen worden).

    Das Universum würde sich enorm ausdehnen und schließlich wieder zu einem Zustand zusammenziehen, der in der reellwertigen Zeit wie eine Singularität aussieht.

    Die Tatsache, dass er den Zustand, der dem Universum minimalen Durchmesser gibt, als Singularität bezeichnet, spricht ganz klar dafür, dass er es dann nur noch als Punkt einstuft, als einen Gegenstand also, der keinen positiven Durchmesser mehr hat. Seine Zeichnung passt zu dieser Meinung.


    Fazit also:

    Nur wenn wir seinen Gebrauch des Wortes Singularität und die Tatsache, dass er in seiner Zeichnung die beiden Pole der rechten Kugel mit Urknall und Endknall beschriftet, nicht so ganz ernst nehmen, können wir ihn so verstehen, dass das Universum zu  j e d e m  Zeitpunkt (der imaginären Zeitachse) positiven Durchmesser hat und damit auch wirklich als Gegenstand existiert.

    Es hätte dann tatsächlich weder Geburtstag noch Todestag, würde also einfach SEIN und  k ö n n t e  so schon immer schon gewesen sein.

    Was keinen Geburtstag hat, kann keinen Schöpfer haben (so meint Hawking).
    Aber ist das logisch, wenn man sich überlegt, dass ja auch die Zeit (die reelle) Teil der Raumzeit ist und daher erst mit dem Universum entsteht (bzw. nur existiert, wenn auch das Universum existiert)?

    Mir klingt sein Argument hier mehr wie ein Zirkelschluss.

    Gruß, grtgrt
     

      Beitrag 2053-203
    -

     
     
    Bauhof in 2053-201:
     
    Henry in 2053-199:
    Hawking stellt sein Modell gerade deshalb vor, weil er NICHT von einem Punkt (dem "Urknall") ausgeht.
     
    Hallo Henry,

    da kann ich nur zustimmen.
    In der in sich zurückgeschlossenen "Fläche" der imaginären Zeit gibt es keinen Urknall. So was wie einen Urknall gibt es nur in der reellen Zeit.
     


    Es gibt halt nur zwei Möglichkeiten:
    • Entweder ist unser 4-dim Universum in ein größeres (imaginäres) eingebettet — dann müsste man sich fragen, wie jenes entstanden sein kann.
    • Oder die imaginäre Zeit ist nur gedankliche Hilfskonstruktion. In diesem Fall existiert nur das reelle 4-dim Universum, und der Zeitpunkt, zu dem es entstand, war der Zeitpunkt des Urknalls. In diesem Fall spricht nichts dafür, dass es schon vorher da gewesen sein könnte.

     

      Beitrag 1933-168
    Erst abnehmende, dann (seit jetzt 7 Mrd. Jahren) wieder zunehmene Expansionsgeschwindigkeit

     
     
    Stueps in 1933-166:
    Also liege ich richtig, Gebhard:

    man weiß gar nichts, sondern es werden beobachtete Daten interpretiert.

    Grüße


    Nun, Stueps,

    dass die Hubble-Konstante in der Vergangenheit eben keineswegs konstant war, scheint heute die vorherrschende Lehrmeinung zu sein.
    Man spricht deswegen heute auch eher vom "Hubble-Term" als von der "Hubble-Konstante".

    Und natürlich habe ich das auch nur der Fachliteratur entnommen.

    Und natürlich können auch die Fachleute solches Wissen — was ja Wissen über die Vergangenheit des Universums ist — NUR DURCH INTERPRETATION von durch Forschungssatelliten gesammelter Daten erschließen.

    Wie Brian Greene schreibt, haben zwei Teams unabhängig voneinander gearbeitet und sind zum selben Ergebnis gekommen, was da war:


    Zitat von Greene (on pages 159-160 of his book "The hidden Reality"):
     
    After checking and rechecking, and checking again, both teams released their conclusions:
    For the last 7 billion years, contrary to long-held expectations, the expansion of space hat not been slowing down. It's been speeding up. ...

    The observations [also revealed that until 7 billion years ago, the scale factor did indeed behave as expected: its growth gradually slowed down.

    Had this continued, the graph would have leveled off or even turned downward. But the data show that about the 7-billion-year mark somethig dramatic happend. The graph turned upward, which means that the scale factor began to increase. The universe kicked into high gear as the expansion of space started to accelerate.
     


    Warum also sollte ich, als Laie auf dem Gebiet, da irgendwelche Zweifel haben?

    Nicht zuletzt haben jene Forscher für eben diese Arbeit ja auch einen Nobelpreis bekommen.

    Gruß, grtgrt
     

      Beitrag 1933-150
    Derzeitige Geschwindigkeit der Raumausdehnung

     
     
    Hans-m in 1933-140:
     
    Sollte man die Raumausdehnung nicht einfach in Prozent oder Promille ausdrücken?


    Ja, Hans-m,

    auch ich fände das viel besser. Tun wir es also:

    Nach recht genauen Messungen aus 2012 gilt, dass sich der Weltraum über eine Strecke von einem Megaparsec (= 3.24 Mio Lichtjahre) pro Sekunde um 74,3 Kilometer vergrößert.

    Daraus folgt (wenn ich mich nicht verrechnet habe):


    Hinreichend große Entfernungen im All vergrößern sich derzeit jedes Jahr um etwa 0.023 Promille.



    Gruß, grtgrt
     

      Beitrag 1933-151
    -

     
     
    Hans-m in 1933-148:
     
    Wie kann ich die Eigenbewegung eines Objektes im Raum von der Bewegung des Raums (Raumausdehnung) unterscheiden?
    Wenn sich z.B der Abstand zwischen der Erde und der Galaxie "X" um 1 Lichtjahr vergrössert, woher weiss ich, ob diese Entfernungsvergrösserung nur durch die Raumausdehnung zustande kommt, oder ob die Galaxie selbst noch eine Eigengeschwindigkeit innerhalb des Raums hat.


    Diese Frage lässt sich nur für jede Galaxie einzeln beantworten:

    In Abhängigkeit der Masseverteilung um das Paar ( Erde, Galaxie X ) herum, kann uns die ART sagen, wie sich die Galaxie relativ zur Erde bewegt.
    Bewegen sich beide auseinander, so sollte sich diese Relativbewegung zur Raumexpansionsrate addieren (ansonsten muss man sie davon abziehen).


    Begründung:

    Es scheint nur zwei dominierende Kräfte zu geben, die auf Himmelskörper wirken. Dies sind
    • die Gravitationskraft einerseits
    • und die Kraft, die den Raum expandieren lässt, andererseits.

    Die Kraft, die den Raum expandieren lässt, scheint durch Quantenfluktuation verursacht (und dürfte deswegen überall gleich stark sein).

     

      Beitrag 2053-63
    -

     
    Bauhof in 2053-52:
    Henry in 2053-44:
    Gut also, die Ansicht, die Bewegung der Galaxien aufgrund der Expansion sei eine von der Eigenbewegung unterschiedene Bewegung, ist mir völlig neu, was natürlich nicht ausschließt, dass sie richtig sein könnte.

    Wenn aber okotombrok schreibt, die Bewegung aufgrund der Expansion sei "keine Relativbewegung" kann ich dem absolut nicht folgen! Was ist Bewegung anderes als relativ? Müssen wir DIESE Diskussion noch einmal führen? Sollte es DOCH eine "absolute" Bewegung geben? Wie sollte die zu bestimmen sein?

    Hallo Henry,

    nur ganz kurz, weil ich noch etliche andere Beiträge zu beantworten habe:

    1. Es gibt keine absolute Bewegung.
    2. Das Größerwerden der Abstände zwischen den Galaxien ist weder eine relative Bewegung noch eine absolute Bewegung. Sie ist überhaupt keine Bewegung. Es ist nur ein Auseinanderdriften aufgrund der Raumdehnung infolge der Universum-Expansion.

    M.f.G. Eugen Bauhof

    Ich weiß ja, dass du auf den Unterschied zwischen einer Bewegung innerhalb des Raumes und des Raumes selbst anspielst. Aber mal ehrlich - und ich denke, du merkst es auch - ist nicht auch "Auseinanderdriften" eine Bewegung? Für die Bewegung innerhalb der Raumzeit gilt die Beschränkung auf c = konstant, der Raum selbst kann mit "Überlichtgeschwindigkeit" expandieren. Das hat aber auf die Informationsübertragung keinen Einfluss - für Bereiche "jenseits" der Überlichtgeschwindigkeit erhalten wir keine Information, es sei denn, wir sind irgendwann in der Lage, Information aus der Raumzeit selbst zu gewinnen. Vielleicht über die Gravitation - das Graviton, das mit dem Gravitationsfeld assoziiert ist? Keine Ahnung, aber wohl eher nicht, denn nach der Theorie sollte sich auch das Graviton mit c ausbreiten.
     

      Beitrag 2053-64
    Eine interessant Frage

     
    C... in 2053-40:
    Nach dem kosmologischen Prinzip (d.h. gleichberechtigt von beliebigen Raumpunkten aus) beobachtet man nun eine kontinuierlich zunehmende Rotverschiebung der entfernten Objekte.

    Nochmals meine Frage: Mit welchem physikalischen Experiment lässt sich unterscheiden, ob die beobachtete Rotverschiebung durch den oben beschriebenen Effekt einer Relativbewegung der Galaxien oder aber durch eine Dehnung des Raums verursacht wird?

    Hallo zusammen,

    ich versuche mir das Problem folgendermaßen an einem Beispiel zu verdeutlichen.

    Ich bin eine Ameise auf einem räumlichen Maßstab (Raum) und stelle mit Hilfe der Rotverschiebung des Lichtes fest, dass eine andere Ameise auf dem Maßstab sich von mir entfernt. Es gibt dann zwei Möglichkeiten:

    1) Die zweite Ameise krabbelt von mir weg, der Maßstab verändert sich nicht.

    2) Die zweite Ameise krabbelt nicht, der Maßstab (Raum) dehnt sich.

    Wie kann ich feststellen, welche der beiden Alternativen gegeben ist. ?

    Allgemeiner formuliert: Kann man die Vergrößerung einer Distanz unter Beibehaltung des Maßstabes von einer Vergrößerung der Distanz durch Änderung des Maßstabes unterscheiden ?

    Ich meine dies ist prinzipiell nicht möglich, weil man Maßstäbe und damit verbundene Bezugssysteme, bei Galaxien ist dies der Raum als solcher, frei wählen kann. Ich vermute deshalb aus rein theoretischen Überlegungen, dass sich kein Experiment finden lässt, das zwischen den Alternativen 1) und 2) unterscheidet.

    MfG
    Harti
     

      Beitrag 2053-124
    Sogenannte » Mitbewegung « (durch Raumexpansion)

     
    Henry in 2053-121:
    Aber damit wollen wir unseren kleinen Disput doch nicht vergessen! In meiner Irritation über die Relativgeschwindigkeiten habe ich doch glatt mein eigentliches Anliegen vergessen, nämlich die Zeitdilatation aufgrund der Expansion des Kosmos. Die gibt es selbstverständlich, nur ist sie nicht auf Relativbewegungen zurückzuführen, sondern auf eine sogenannte Rezessivbewegung, und diese "Art" von Zeitdilatation nennt man auch kosmologische Zeitdilatation. Sie wird dadurch hervorgerufen, dass sich die Objekte voneinander entfernen, dadurch der Weg für das Licht stetig länger wird (siehe Rotverschiebung), was sich einem Beobachter als Verlangsamung entsprechender Uhren zeigt.

    Das ist kein Konzept von Bewegung im Sinne der SRT!

    Hallo Henry,

    Zustimmung.
    Der sogenannten Zeitdilatation aufgrund der Expansion des Kosmos hatte ich bisher wenig Aufmerksamkeit geschenkt, aber jetzt habe ich mich in meinen Büchern kundig gemacht. Es gibt diese Zeitdilatation, aber der Name dafür ist m.E. unglücklich gewählt worden, weil man sie leicht mit der relativistischen Zeitdilatation im Sinne der SRT verwechseln kann, insbesondere wir Laien. Gottfried Beyvers schreibt dazu au Seite 300 seines Buches [1 folgendes

    Zitat:
    Die dargestellte kosmologische Rotverschiebung führt natürlich auch zu einer kosmologischen Zeitdilatation:

    Denkt man sich nämlich die Schwingungen einer Lichtwelle am Ort ihrer Entstehung als Kernstück einer Art Atomuhr, dann kommen diese Schwingungen durch ihre expansionsbedingte Streckung bei uns verlangsamt an!

    Somit gibt es neben der gravitativen und speziell-relativistischen Zeitdilatation noch eine dritte Form von Zeitdehnung. Dementsprechend sehen wir z.B. Helligkeitsschwankungen eines fernen Quasars zeitdilatiert!

    Wenn also jemand in einer fernen Galaxis Uhrzeit-Telegramme zu uns im Takt von einer Minute sendet, dann kommen diese Uhrzeit-Telegramme vielleicht im Takt von zwei Minuten bei uns an, je nachdem wie weit die Galaxie von uns entfernt ist und wie groß die Expansionsrate zur Zeit ist. Aber nun zum Unterschied zwischen der speziell-relativistischen Zeitdilatation und der kosmologischen Zeitdilatation:

    1. Bei der speziell-relativistischen Zeitdilatation vergeht die Zeit tatsächlich unterschiedlich, was sich am unterschiedlichen Altern von Einsteins Zwillingen zeigt.

    2. Bei der kosmologischen Zeitdilatation vergeht die Zeit nicht unterschiedlich, weil alle Uhren auf allen Galaxien dieselbe kosmische Zeit anzeigen. Warum? Weil sich die Galaxien nicht im Sinne der SRT bewegen, sondern nur durch die Expansion auseinander getragen werden. Dies erhellt aus folgendem Auszug aus dem Buch [2 von Edward Harrison auf Seite 340:

    Zitat:
    MITBEWEGUNG UND EIGENBEWEGUNG.
    Stationäre Scheiben auf der expandierenden Oberfläche und stationäre Galaxien in expandierendem Raum werden mitbewegt genannt. Sie bewegen sich mit der Expansion. Alle Uhren auf mitbewegten Galaxien messen kosmische Zelt. Wir können uns vorstellen, dass in einem homogenen Universum der kosmische Weltenbummler alle Uhren auf mitbewegte Gegenstände gestellt hat, so dass sie die gleiche Zeit anzeigen. Bei späteren Reisen durch das Universum findet der Weltenbummler, dass diese Uhren weiterhin übereinstimmen.

    Mitbewegte Gegenstände haben ihre Weltlinien senkrecht zum kosmischen Raum – jenen Raum, der eine uniforme Krümmung besitzt und sich uniform ausdehnt.

    Man kann also sagen, die Galaxien stehen nicht still, sondern sie werden mitbewegt, was aber keine Relativbewegung im Sinne der SRT ist

    M.f.G. Eugen Bauhof

    [1 Beyvers, Gottfried und Kusch, Elvira
    Kleines 1 x 1 der Relativitätstheorie.
    Einsteins Physik mit Mathematik der Mittelstufe.
    Berlin 2009. ISBN=978-3-540-85202-5

    [2 Harrison, Edward R.
    Kosmologie.
    Darmstadt 1983. ISBN=3-87139-078-X
     

      Beitrag 2053-128
    Warum das Vakuum abstoßende Gravitation produziert

     
     

    Warum nur hinreichend leerer Raum expandiert

    und

    wie es zu abstoßender Gravitation kommen kann



    In João Magueijo: Schneller als die Lichtgeschwindigkeit - Entwurf einer neuen Kosmologie (2003), Teil 1: Die Geschichte von c liest man:

    Zitat von Magueijo, Seite 88-89:
     
    Als Einstein nach einer schlüssigen Möglichkeit suchte, das Vakuum mit Masse auszustatten (d.h. mit Energie), stellte er fest, dass es nicht ging, ohne dass er ihm nicht auch eine hohe Spannung verlieh. Das ist zwar ein höchst merkwürdiger Umstand, aber er ergibt sich aus der einzig möglichen Gleichung, die mit der Differentialgeometrie konsistent ist, jener Geometrie, die die Vakuumenergie ermöglicht.

    Die Vakuumspannung ist wirklich sehr hoch, so hoch, dass die Gravitationseffekte der Spannung die ihrer Masse übertreffen und das Vakuum infolgedessen abstoßende Wirkung entfaltet.

    Natürlich ist die Energie der Leere sehr verdünnt und sehr gleichförmig verteilt. Auf der Größenskala des Sonnensystems sind die Gravitationseffekte der Materie bei weitem größer als die des Vakuums. Man muss schon kosmische Distanzen betrachten, bevor die Dichte des Vakuums mit der der gewöhnlichen Materie vergleichbar wird und so die abstoßende Seite der Gravitation in Erscheinung tritt.
     


    In diesem Zusammenhang ist interessant zu wissen (was mir bisher keineswegs klar war):

    Zitat von Magueijo, Seite 89:
     
    Der Beweis für den Abstoßungseffekt des Vakuums ergibt sich aus unstrittigen Ergebnissen der ART:

    Damals wusste man, dass das Gewicht eines Körpers eine Kombination aus seiner Masse und seinem Druck sind. Verdichtet man ein Objekt, so, erhöht das seine Fähigkeit, andere Objekte anzuziehen.

      Die Sonne etwa steht unter Druck, daher zieht sie Planeten stärker an, als das der Fall wäre, wenn sie ein druckfreier Staubball wäre. Der Effekt ist allerdings sehr gering, weil in gewöhnlichen Objekten und sogar in der Sonne der Druck durch die Masse weitgehend aufgewogen wird.

    All das ist unstrittig und gehört wesentlich zu den Vorhersagen der ART. Doch jetzt ergibt sich ein interessanter Aspekt:
    Spannung ist negativer Druck, folglich muss sich die Anziehungskraft von Objekten verringern, wenn sie unter Spannung stehen.

      Ein gespanntes Gummiband entfaltet weniger Anziehung, als man aufgrund seiner Masse oder seines Energiegehalts erwarten würde. Auch eine hypothetische Sonne, die unter Spannung stünde, würde einen Teil ihrer Anziehungskraft verlieren.

    Wiederum ist der Effekt bei normalen Objekten sehr klein, doch im Prinzip hindert uns nichts daran, die Spannung in einem Körper so zu erhöhen, dass die Gravitation abstoßend wird.

    Kurz: Der Relativitätstheorie nach muss Gravitation nicht unbedingt anziehend sein. Um abstoßende Gravitation zu erzeugen, muss man lediglich etwas finden, das wirklich extreme Spannung hat.

    Gut erklärt findet sich das in Notiz Einsteins Gravitationsgesetz, welches genauer ist als das von Newton.
     

    Zitat von Magueijo, Seite 83-84:
     
    Auch Licht erzeugt Gravitation: Ein hinreichend energiereicher Lichtstrahl würde Sie wie ein Magnet anziehen.

    Auch Bewegung hat Gewicht. So übt etwa ein sich schnell bewegender Stern größere Anziehungskraft auf andere aus als ein langsamer.

    Tatsächlich geht Gravitation von allem aus, egal ob es sich um Wärme, Licht, magnetische Felder, oder gar die Gravitation selbst handelt.

    Besonders die letzte Eigenschaft macht die Mathematik der Relativitätstheorie so kompliziert. Sie beschreibt, wie Materie Gravitation erzeugt und wie dann die Gravitation in endloser Verkettung selbst zur Quelle von noch mehr Gravitation wird.
     


    In der Summe also gilt:

    Energie ( bzw. Kraftpotential ) erzeugt grundsätzlich Gravitation — frägt sich nur, mit welchem Vorzeichen:

    Spannung etwa reduziert Gravitation, Druck erhöht sie.


     

      Beitrag 2053-140
    -

     
     
    An Henry und E...,
    die selbst die Gleichungen der ART wohl niemals analysiert haben und deswegen Magueijos Aussage nicht einfach als Unsinn abtun sollten:


    Grtgrt in 2053-128:
     
    In der Summe also gilt:

    Energie ( bzw. Kraftpotential ) erzeugt grundsätzlich Gravitation — frägt sich nur, mit welchem Vorzeichen:

    Spannung etwa reduziert Gravitation, Druck erhöht sie.


     


    Eben dieselbe Aussage findet sich auch auf Seite http://www.kosmos-bote.de/dunkleenergie.html, wo gelb hervorgehoben steht:

    Zitat von Hans-Erich Fröhlich:
     
    Negativer Druck bedeutet Zugspannung. In einem gespannten Gummiband entsteht  A n t i g r a v i t a t i o n !

    Allerdings fällt die verglichen mit der Eigengravitation nicht ins Gewicht.

     


    Natürlich kann ich nicht ausschließen, dass Fröhlich sein Wissen (so wie ich auch) nur aus Magueijos Buch hat.
    Aber selbst wenn das so sein sollte, würde ich — als jemand, der Einsteins Gleichungen im Detail nicht untersucht hat — schon eher einem Experten auf dem Gebiet glauben als uns, die wir auf dem Gebiet doch einfach nur Laien sind.

    Mit anderen Worten: Glauben kann man nur jemand, der Argumente für seine Meinung hat. Eben die aber vermisse ich in so manchen spitzen Bemerkungen hier.

     

      Beitrag 2053-34
    Hinweis auf ein interessantes Buch

     
    Henry in 2053-33:
    Bauhof in 2053-32:
    Hallo Henry,

    die Galaxien bewegen sich nur aufgrund der gravitativen Eigenbewegungen die bereit Stueps erwähnt hat.
    Diese Eigenbewegungen können vernachlässigt werden. Sonst stehen die Galaxien still und die Entfernungen zwischen den Galaxien vergrößern sich nur durch die Raumdehnung, die durch die Universum-Expansion verursacht wird. Und das ist keine Geschwindigkeit im Sinne der SRT. Das ist jedenfalls die Erklärung der heutigen Kosmologen. Oder hast du andere Quellen?

    M.f.G. Eugen Bauhof

    Wo in der SRT wird behauptet, Bewegung (Geschwindigkeit) hätte etwas mit der Gravitation zu tun? Das erklärt erst die ART. Es geht bei der Betrachtung der Galaxien, die sich aufgrund der Expansion von einander entfernen, allein um die Tatsache, DASS sie sich entfernen, der Grund für die Bewegung (im Sinne der SRT) spielt keine Rolle. Sie SRT sagt nur, dass die Zeit in zueinander bewegten Objekten im jeweils anderen Objekt in Bezug auf die eigene Bewegung unterschiedlich gemessen wird, und zwar wegen der Konstanz von c. Im Übrigen ist die Annahme eines "Blockuniversums", also eines Universums, in dem ALLES bereits geschehen ist, eine mögliche Folgerung aus der SRT, nämlich wegen der unterschiedlichen Zeitabläufe.

    Hallo Henry,

    ich habe dich nach deinen Quellen gefragt, aber es kamen keine, die deine Auffassung stützen. Ich denke, da muss ich etwas richtig stellen. Es kann aber auch sein, dass wir aneinander vorbeireden. Deshalb zitiere ich den "Altmeister" der Kosmologie, Edward R. Harrison. Er schreibt auf Seite 338 seines Buches [1 folgendes:

    Zitat:
    In der speziellen Relativitätstheorie lernen wir, dass sich nichts schneller durch den Raum bewegt als Licht. Wie kann dann die Fluchtgeschwindigkeit schneller als das Licht sein? Die Antwort lautet, dass die Galaxien sich überhaupt nicht durch Raum bewegen, sondern durch die Expansion des intergalaktischen Raumes auseinandergetragen werden.

    Vielleicht hat dich irritiert, dass ich geschrieben hatte: Die Galxien stehen still. Damit meinte ich, dass sich Galaxien nicht durch den Raum bewegen, so wie es Harrison formuliert hat.

    Und weiter zitiere ich von Seite 341:

    Zitat:
    Was wir In der speziellen Relativitätstheorie gelernt haben, trifft nur für die Bewegung im Laboratorium, im Sonnensystem und in unserer Galaxie zu, nicht aber auf das Universum als Ganzes. Alle lokalen Geschwindigkeiten sind im kosmischen Sinn besondere und können die Lichtgeschwindigkeit nicht übertreffen.

    Die Fluchtgeschwindigkeit jedoch ist kein lokales Phänomen; sie ist das Ergebnis der Ausdehnung des Raumes und stimmt nicht mit der speziellen Relativitätstheorie überein. Zusammenfassend können wir sagen, dass Bewegung in einem expandierenden Universum aus Fluchtgeschwindigkeiten und Eigenbewegungen zusammengesetzt ist; Fluchtgeschwindigkeiten entstehen aus der Raumexpansion und sind grenzenlos; und Eigengeschwindigkeiten entstehen aus der Bewegung durch den Raum und stimmen mit der speziellen Relativitätstheorie überein.

    M.f.G. Eugen Bauhof

    [1 Harrison, Edward R.
    Kosmologie: Die Wissenschaft vom Universum.
    Darmstadt 1983
    ISBN=3-87139-078-X
     

      Beitrag 2053-107
    Über das Vakuum

     
     
    Henry in 2053-106:
     
    die entsprechende Kraft - was immer sie sein mag - wirkt auf die Raumzeit selbst, sie erschafft die Raumzeit. Es gibt keine "Kugel unterhalb" unserer Raumzeit,
    das Vakuum ist dimensionslos.


    Dass jene Kraft die Raumzeit  e r s c h a f f t , finde ich sehr treffend ausgedrückt.

    Das Vakuum als dimensionslos zu bezeichnen, ist aber sicher falsch: Als Vakuum bezeichnet man doch einfach nur Raum, in dem sich keine Materie findet.
    Das Vakuum ist ein Teil des raumzeitlichen Raumes, in dem sich außer virtuellen Teilchen rein gar nichts findet.
    Es hat ebenso viele Dimensionen wie die Raumzeit selbst.

    Ein Raum außerhalb der Raumzeit — in den hinein die Raumzeit expandieren könnte — existiert nach heutigem Wissen gar nicht.
    Sollte es so einen Raum dennoch geben, ist er uns unzugänglich, seinem Wesen nach völlig unbekannt, und durch Menschen wohl auch gar nicht erforschbar.

     

      Beitrag 2053-168
    Zu Hawkings Weltmodell (und seiner imaginären Zeit)

     
     
    Henry in 2053-167:
     
    Hawking nimmt die vierdimensionale Raumzeit und projiziert senkrecht darauf seine imaginäre Zeit.


    Hallo Henry,

    genau das verwirrt mich: Ich kann nicht einsehen, warum in Hawkings Modell die Zeit gleich zweimal da sein sollte (einmal als Teil der Raumzeit und dann nochmals als imaginäre Zeit, die außerhalb dieser Raumzeit zu finden ist).

    Was Du und Eugen die imaginäre Zeit nennt, scheint mir nur der Scharparameter zu sein, der verschieden weit expandierte Versionen der Raumzeit voneinander zu unterscheiden gestattet.

    Als Scharparameter modelliert diese Dimension dann statt der Zeit nur zeitliche Reihenfolge jener Versionen der Raumzeit.

    Gruß, grtgrt
     

      Beitrag 2053-179
    -

     
     
    Hallo Harti,

    ich glaube eher, dass Hawking (wie ja vormals schon Minkowski) aus rein mathematischen Gründen zu komplexen Zahlen griff — siehe hierzu auch Beitrag 2053-101.

    Gruß, grtgrt


    In diesem Zusammenhang mag interessant sein, was uns auf Seite http://www.einstein-online.info/vertiefung/Pfadintegral gesagt wird:

    Zitat von Markus Pössel: "Auf allen möglichen Wegen zum Ziel" in: Einstein Online Vol. 2 (2006), 1115:
     
    Pfadintegrale konkret zu berechnen ist mit einigen Schwierigkeiten verbunden. Ein wichtiges Beispiel bietet die Elementarteilchenphysik, deren grundlegende Modelle aus der Verbindung von Quantentheorie und Spezieller Relativitätstheorie hervorgehen. Dort ist das Pfadintegral ein wichtiges Werkzeug, um auszurechnen, wie Elementarteilchen miteinander wechselwirken.

    Die eigentliche Rechnung allerdings verwendet einen mathematischen Kunstgriff:
      Überall dort, wo in den Feynmanschen Formeln die Zeitkoordinate t auftaucht, fügt man einen Faktor i hinzu (die sog. imaginäre Einheit, ein algebraisches Symbol, das dadurch definiert ist, dass sein Quadrat den Wert minus Eins ergibt). Dann wird das Pfadintegral ausgerechnet, und am Ende wird die Einfügung all der Faktoren i wieder rückgängig gemacht.

    Die Ersetzung mag künstlich und unmotiviert scheinen. In gewisser Weise hebt sie die Unterscheidung zwischen der Zeitkoordinate und den drei Raumkoordinaten auf. Entscheidend ist aber, dass das Feynmansche Rezept mit dieser Zusatzprozedur die richtigen Antworten für die Wahrscheinlichkeiten von Teilchenreaktionen liefert.

    Das lässt sich sogar beweisen, wie zwei Physiker, der Schweizer Konrad Osterwalder und der Deutsche Robert Schrader zeigen konnten: Die Eigenschaften einer herkömmlichen Quantentheorie, die auf der Raumzeit der SRT definiert ist, lassen sich exakt aus dem Feynman-Rezept für eine korrespondierende, » imaginär-zeitige « Raumzeit rekonstruieren.
     

     

      Beitrag 2053-114
    Hawking über den Bezug zwischen Wirklichkeit und physikalischem Modell

     
    Henry in 2053-113:
    Bauhof in 2053-110:
    Hallo Stueps,

    bei Kaluza-Klein ist das so, da sind die Dimensionen nur in Maßstäben der Planck-Länge ausgedehnt.
    Hingegen bei Stephen Hawking sind die Dimensionen kosmologisch ausgedehnt. Stephen Hawking hat die von dir und Henry erwähnten Effekte sicherlich bedacht.

    M.f.G. Eugen Bauhof

    Ja, klar, aber - mal den Urknall vorausgesetzt - fing das (oder der?) gesamte Schlamassel doch genau in diesen Größenordnungen an (Kaluza-Klein)! Wäre unter diesen Voraussetzungen denn ein stabiler Kosmos entstanden? Die Frage bei Hawking bleibt, ist es ein rein mathematisches Modell, oder wie wollen wir seine "imaginäre Zeit" interpretieren? Ach ja, Penrose und die komplexen Zahlen! Nach ihm - ich befasse mich gerade zum ersten Mal damit - scheint es einen tiefen Zusammenhang zwischen den komplexen Zahlen und physikalischen Entfernungsbestimmungen und Werten zu geben. So ist z. B. der Spin von Elementarteilchen nur mit komplexen Zahlen zu bestimmen - es scheint, dass "i" mehr ist als nur ein rechnerisches Hilfsmittel.

    PS: in Deutschland meist "der Schlamassel", geht aber beides.

    Hallo Henry,

    ja, es ist bisher nur ein mathematisches Modell von Stephen Hawking. Er schreibt dazu auf Seite 8 seines Buches [1 folgendes:

    Zitat:
    Ich nehme den positivistischen Standpunkt ein, dass eine physikalische Theorie nur ein mathematisches Modell darstellt und dass es nicht sinnvoll ist, zu fragen, ob dieses der Realität entspricht. Man kann nur fragen, ob seine Vorhersagen mit den Beobachtungen in Einklang stehen.

    Timothy Ferris reflektiert das mit der imaginären Zeit in seinem Buch [2 auf den Seiten 304 und 414 wie folgt:

    Zitat:
    Das mathematische Verfahren, das zu diesem schönen Ergebnis führt, stammt aus Feynmans Methode der Summe über Geschichten. Hawking beschreibt die Zeit in Form von imaginären Zahlen. In der Methode von Feynman beseitigt die Verwendung der imaginären Zahlen alle Unterschiede zwischen Raum und Zeit.
    [...
    Dieser Keine-Grenzen-Aspekt der Wellenfunktion von Hartle und Hawking ergibt sich, weil ihre Urheber Geometrien verwendet haben, für die Zeit und Raum gleichberechtigt sind. Das elegante Ergebnis ist, dass sich der Pfeil der Zeit – bei dem sich die Zeit nur vorwärts bewegt, wie in dem von uns bewohnten klassischen Universum – aus der Geometrie selbst ergibt und nicht von außen auferlegt wird. Durch die Abschaffung jedes ersten Augenblicks wird auch die Anfangssingularität abgeschafft.

    Zum gleichen Thema "imaginäre Zeit" schreibt Berthold Suchan in seinem Buch [4 auf Seite 156 folgendes:

    Zitat:
    Bei dem von Hartle und Hawking gewählten euklidischen Pfadintegral wird die Metrik der Raumzeit mit einer euklidischen Signatur versehen – im Gegensatz zur Metrik der üblichen Minkowski-Raumzeit. Der Grund für dieses Vorgehen liegt darin, dass bei der Behandlung von quantenmechanischen Tunneleffekten das Impulsquadrat in klassisch verbotenen Bereichen negativ ist; somit wird in dem euklidischen Zugang die Zeitkoordinate naheliegend imaginär angenommen. Zugleich enthält dieser euklidische Zugang eindeutige Annahmen über die Randbedingungen der Wellenfunktion des Universums.

    Das Hartle-Hawking-Universum hat keinen Anfang, kein Ende und keinen Rand in Raum und/oder Zeit. Es existiert ohne äußeren Raum oder äußere Zeit. Hawking fasste die Entdeckungen von COBE als wesentliche Bestätigung seiner Keine-Grenzen-Hypothese auf. Das berichtet Klaus Mainzer in seinem Buch auf Seite 84:

    Zitat:
    Nach Heisenbergs Unbestimmtheitsrelation müssen aber kleinstmögliche Ungleichheiten vorgelegen haben, die sich in der anschließenden Inflationsphase so verstärkt haben, bis sie groß genug waren, um heute beobachtbare Strukturen zu erklären.

    1992 hat der Satellit Cosmic Background Explorer (COBE) erstmals sehr geringfügige richtungsabhängige Intensitätsschwankungen der Mikrowellen-Hintergrundstrahlung entdeckt. Diese Rückstandsstrahlung stammt aus der heißen Urphase des Universums.

    Die gemessenen Abweichungen stimmten außerordentlich gut mit den Berechnungen der Keine-Grenzen-Hypothese überein. Hawking fasste daher die Entdeckungen von COBE als wesentliche Bestätigung seiner Keine-Grenzen-Hypothese auf.

    M.f.G. Eugen Bauhof

    [1 Hawking, Stephen und Penrose, Roger
    Raum und Zeit.
    Reinbek bei Hamburg 1998
    ISBN=3-498-02934-7

    [2Ferris, Timothy
    Chaos und Notwendigkeit.
    Report zur Lage des Universums.
    München 2000
    ISBN=3-426-27078-1

    [3 Mainzer, Klaus
    Hawking.
    Freiburg im Breisgau 2000
    ISBN=3-451-04879-5

    [4 Suchan, Berthold
    Die Stabilität der Welt.
    Eine Wissenschaftsphilosophie der Kosmologischen Konstante.
    Paderborn 1999
    ISBN=3-89785-031-1
     

      Beitrag 2053-151
    Homogen und isotrop

     
     
    Stueps in 2053-149:
    Grtgrt in 2053-148:
    Hallo Stueps,

    das Universum ist nur im Groben (d.h. über riesige kosmische Entfernungen hinweg unter Vernachlässigung lokaler Schwankungen) isotrop und homogen.

    So die vorherrschende Meinung, Gebhard. Es gibt jedoch Daten, die anders interpretiert werden können, und die scheinen sich aus meiner Sicht zu mehren, jedenfalls stolpere ich immer wieder über solche Aussagen.

    Grüße


    Ich denke, es macht einen Unterschied, welche konkrete Eigenschaft des Universums man jeweils betrachtet:
    • Was z.B. die Verteilung von Masse betrifft, ist das Universum sicher NUR im Groben homogen und isotrop.
    • Wenn es aber um die Gültigkeit der Naturgesetze geht, sieht die Sache in der Tat ganz anders aus: Sie gelten überall gleichermaßen, so dass die  Q u a l i t ä t  des Raumes und seines Inhalts tatsächlich überall die Gleiche ist.

     

      Beitrag 2053-149
    -

     
    Grtgrt in 2053-148:
    Hallo Stueps,

    das Universum ist nur im Groben (d.h. über riesige kosmische Entfernungen hinweg unter Vernachlässigung lokaler Schwankungen) isotrop und homogen.

    So die vorherrschende Meinung, Gebhard. Es gibt jedoch Daten, die anders interpretiert werden können, und die scheinen sich aus meiner Sicht zu mehren, jedenfalls stolpere ich immer wieder über solche Aussagen.

    Ich suche jetzt doch einmal:

    http://www.spiegel.de/wissenschaft/weltall/esa-tele...

    Besonders hier, leider auf englisch, es existiert aber auch ein identischer deutscher Artikel:

    http://arxiv.org/abs/1211.6256

    hier ein Artikel, der den zuvor genannten Cluster erwähnt (diesmal auf deutsch):

    http://www.wissenschaft.de/home/-/journal_content/5...

    Soll erst mal reichen.
    Grüße
     

      Beitrag 2053-156
    -

     
     
    Stueps in 2053-149:
    Grtgrt in 2053-148:
    Hallo Stueps,

    das Universum ist nur im Groben (d.h. über riesige kosmische Entfernungen hinweg unter Vernachlässigung lokaler Schwankungen) isotrop und homogen.

    So die vorherrschende Meinung, Gebhard. Es gibt jedoch Daten, die anders interpretiert werden können, und die scheinen sich aus meiner Sicht zu mehren, jedenfalls stolpere ich immer wieder über solche Aussagen.

    Ich suche jetzt doch einmal:

    http://www.spiegel.de/wissenschaft/weltall/esa-tele...

    Besonders hier, leider auf englisch, es existiert aber auch ein identischer deutscher Artikel:

    http://arxiv.org/abs/1211.6256

    hier ein Artikel, der den zuvor genannten Cluster erwähnt (diesmal auf deutsch):

    http://www.wissenschaft.de/home/-/journal_content/5...


    Hi Stueps,

    gerade die Bilder 3, 5 und 6 der Fotostrecke im ersten dieser Artikel sind doch wirklich Beweis meiner Behauptung.

    Und gleich im ersten Satz des dritten Artikels steht: "Das Universum enthält zwar unzählige Galaxien, Galaxienhaufen und Cluster, ist aber - betrachtet man einen ausreichend großen Ausschnitt - dennoch relativ homogen. Das jedenfalls besagt das kosmologische Prinzip".

    Wieso also siehst Du hier einen Widerspruch zu meiner Aussage, unser Universum sei nur aus grober Sicht heraus homogen?

     

      Beitrag 2053-164
    Erst das Inflationsmodell hat die Kosmologie vom Geruch der Esoterik befreit

     
     
    U...bus in 2053-163:
     
    Ich glaube, die Kosmologie hat sich viel zu weit von der menschlichen Vernunft entfernt und gehört heute eher zur Esoterik als zur Naturwissenschaft.


    Das zu hören ist wirklich amüsant — vor allem dann, wenn man liest, was Magueijo in 2003 über die Zeit vor 1980 schrieb, über die Zeit also, in der Alan Guth das Inflationsmodell entwickelt hat:

    Zitat von Magueijo (2003):
     
    Damals war Guth Anfang dreißig und in einer entscheidenden Phase seiner Laufbahn.

    Daher hätte ihn die Kosmologie eigentlich gar nicht interessieren dürfen, galt sie damals doch keineswegs als ehrbare Disziplin der Physik. Vielmehr sah man in ihr eine wissenschaftliche Betätigung, die ein junger Adept der Zunft besser mied wie die Pest, um sie etablierten älteren Wissenschaftlern zu überlassen, die bereits unter Gehirnerweichung litten.

    Heute, da die Kosmologie nicht mehr geächtet ist, wird sie seltsamerweise nur noch von älteren Wissenschaftlern für Zeitverschwendung gehalten — ein ganz merkwürdiger sozialer Rollentausch.
     

     

      Beitrag 2053-169
    Warum Kosmologie heute durchaus auch der Experimentalphysik entspricht

     
     
    U...bus in 2053-166:
    Darum geht es nicht. Ich wiederhole

    Unser einziges Wahrheitskriterium ist nun mal die Evidenz einer Wahrnehmung und Wahrnehmung erfordert ein beobachtbares Experiment.

    Nur das Experiment entscheidet über wahr oder falsch. Und solange die mathematischen Modelle/Postulate nicht experimentell dargestellt werden können haben sie keinen höheren Wahrheitsgehalt als die Schöpfungstheorie. Man kann dran glauben oder es auch sein lassen.


    Ja, U...bus, das sehe ich ebenso.

    Tatsache aber ist, dass spätestens seitdem man die kosmische Hintergrundstrahlung entdeckt hat und mit modernen Forschungssatteliten (wie etwa COBE und PLANCK) immer genauer vermessen konnte, doch sehr viele Beobachtungsdaten zur Verfügung stehen — Daten, auf die man sich, was Genauigkeit betrifft, weit mehr verlassen kann als noch vor wenigen Jahren.

    Auch die Zahl der Galaxien und Sterne, deren Eigenschaften man genauer zu untersuchen fähig wird, steigt ständig und schnell.

    Damit, so denke ich, geht deine Klage doch ziemlich ins Leere.

    Gruß, grtgrt

    Siehe auch Planck 2013 Results Papers
     

      Beitrag 786-80
    Zur Geschichte unseres Universums

     
     
    Real in 786-6:
    Die Frage war kosmologisch gemeint und lautete:

    Wie kann man über die Entfernung bzw. das Alter einer Lichtquelle Rückschlüsse auf einen Urknall und dessen Raumverhalten machen?

    Mir leuchtet dabei nicht ein, wie etwas schon vor 14 Mrd. Jahren Licht aus einer entsprechenden Entfernung aussenden konnte, wo es doch gerade erst in sich entstand und relativ klein war.

    Ich zweifle damit die einfache Logik der Urknall-Theorie an oder wo liegt mein Gedankenfehler?
    Wäre nett, wenn mir jemand diese Logik begreiflich machen könnte.... Real


    Hi Real,

    auch mich beschäftigt diese Frage, und wenn man VSL-Theorien mal ignoriert (also annimmt, dass die Lichtgeschwindigkeit sich seit dem Urknall nie geändert hat und tatsächlich im gesamten Universum dieselbe ist), so könnte sich der grüne Teil deiner Frage beantworten wie folgt:

    Man glaubt heute, dass das Universum sich aufbläht wie ein Hefeteig, in dem sich "Rosinen" finden: Raum-Regionen mit großer Materiedichte, deren Volumen sich NICHT ebenso aufbläht, da hier die Gravitationskraft dem Druck, der überall sonst die Aufblähung des Raumes zur Folge hat, allzu stark entgegenwirkt. Jene Aufblähung hat heute z.B. zur Folge, dass der Abstand zwischen den Rosinen pro Megaparsec (etwa 3.24 Mio. Lichtjahre) jede Sekunde um etwa 74 km wächst.

    Die älteste Galaxie, die Astronomen bisher entdeckt zu haben glauben, ist mehr als 13 Mrd. Jahre alt und lebt in einer Rosine G, die deswegen heute von Ort unserer Milchstraße, den ich jetzt mal die Rosine M nenne, gut 45 Mrd. Lichtjahre entfernt ist. Dass das mehr als nur 13 sind, liegt daran, dass der Abstand zwischen G und M ja auch während der Zeit, die das Licht zu uns unterwegs war, ständig größer wurde.

    Auf die Zahl 40 kommt man, da man zu wissen glaubt, wie sich die Aufbläh­geschwindigkeit entwickelt hat, nachdem das Universum etwa 400 Mio. Jahre alt war.

    Wie sie vorher war, kann man wohl gar nicht wissen, da die kosmische Hintergrundstrahlung das älteste Licht ist, welches uns ein klares Bild zeichnen kann. Noch älteres, bei uns ankommendes Licht ist stark gestreut, kann uns also nur Bilder von damals Existierendem zeichnen, die aussehen als hätte man es durch eine Milchglasscheibe photographiert. Das liegt daran, dass sich Materie damals noch nicht zu Atomen gruppiert hatte: Jene sind elektrisch neutral und streuen das Licht deswegen nicht, sich vorher unabhängig voneinander bewegende Materieteilchen aber — Protonen, Elektronen, und was sonst noch — tragen Ladung und haben das Licht deswegen ständig in jede nur denkbare Richtung abgelenkt.

    Dass der Urknall — wie man erst kürzlich neu nachgerechnet hat — vor etwa 13.81 Mrd. Jahren stattfand, bedeutet nichts anderes, als dass der Abstand zwischen G und M damals auch nicht größer als nur eine Plancklänge war (bitte beachte: Was ich G und M nenne, sind Raumregionen. Zu sich nicht mehr weiter aufblähenden Rosinen wurden jene Regionen erst später, als sich dort ganz massiv Materie zu verklumpen begann und so jene Galaxie und unsere Milchstraße entstanden).

    Dies mal als korrekt angenommen und zudem berücksichtigt, dass die Aufblähgeschwindigkeit des Raumes, wie man weiß, NICHT durch die Lichtgeschwindigkeit begrenzt ist, also unmittelbar nach dem Urknall so gut wie jede Größe gehabt haben kann, ergibt sich:
    • Deine Annahme "wo es [= jene Galaxie] doch gerade erst in sich entstand und relativ klein war" muss als falsch bezeichnet werden
    • und über das gesamte Geschehen während der Kindheit unseres Universums (sprich: als es noch keine 400 Mio Jahre alt war) können selbst Physiker und Kosmologen bislang nur spekulieren.

    Gruß, grtgrt
     

      Beitrag 786-82
    Wie relativ ist das Alter unseres Universums?

     
     
    Harti in 786-81:
    Hallo Grtgrt,

    über den Umstand, dass das Universum keinen vom Beobachter unabhängigen Mittelpunkt hat und in der Folge auch kein Rand bestimmt werden kann, ist man sich wissenschaftlich überwiegend einig, oder ? Das bedeutet, Absolutheitsvorstellungen räumlicher Art sind wissenschaftlich obsolet.

    Muss man dann nicht auch annehmen, dass Überlegungen zu einem zeitlichen Anfang und Ende des Universums in einem absoluten Sinn nicht wissenschaftlich sind?


    Ja Harti, das ist wohl so.

    BEGRÜNDUNG: Da es keinen absoluten (sprich: ortsunabhängigen) Zeitbegriff gibt, können wir nur darüber sprechen, wie alt das Universum aus unserer Sicht heraus sein kann.

    Meines Wissens nach aber hat bisher aber auch niemand behauptet, dass das Alter des Universums aus Sicht sämtlicher Beobachter gleich sei.
    Andererseits aber müsste genau das Folge des kosmologischen Prinzips sein (welches ja postuliert, dass das Universum homogen und isoptrop ist, sich aus Sich aller Beobachter also qualitativ gleich darstellt).

    Gruß, grtgrt


    PS: Es scheint mir richtig, zu sagen: Ja, grundsätzlich ist all unsere Wahrnehmung relativ (sprich: abhängig von dem Ort im Universum, an dem wir uns befinden). Über all diese Orte hinweg muss sich aber — des kosmologischen Prinzips wegen — immer dieselbe Sicht auf Entstehung und die Qualität der Entwicklung des Universums seit dem Urknall ergeben.

    Wahrscheinlich liegt das daran, dass der Urknall ja nicht an  e i n e m  Ort stattfand, sondern dass

    wirklich  j e d e r  Ort im Universum Teil des Ortes ist, an dem der Urknall stattfand und immer noch stattfindet.


     

      Beitrag 786-87
    Gravitationswellen aus dem eben geborenen Universum

     
     

    Eine Möglichkeit, die Geburt des Universums doch noch zu beobachten



    Durch Beobachtung Wissen darüber zu sammeln, was in unserem Universum vor sich ging noch  b e v o r  es etwa 400 Mio Jahre alt war, scheint möglich über die Beobachtung von Gravitationswellen (die registrierbar zu machen nun in greifbare Nähe rückt):

    Zitat von Maalampi, S 147 (2006):
     
    Einige Urknallmodelle sagen messbare Gravitationswellen voraus, die unmittelbar nach dem Ende der sog. Planckzeit entstanden sind, also 10-45 sec nach dem Beginn des Urknalls.


    Der Herausforderung, eine Gravitationsantenne zu bauen, die hinreichend sensibel sein wird, solche Wellen noch zu entdecken, stellt sich ein durch NASA und ESA gemeinsam verantwortetes Projekt LISA (Laser Interferometer Space Antenna), welches ab 2020 Messungen von ganz unglaublicher Genauigkeit ermöglichen wird:

    Zitat von Maalampi, S 144 (2006):
     
    Die Messung erfolgt im Weltall durch 3 Satelliten, die in der Formation eines gleichseitigen Dreiecks fliegen und jeweils 5 Mio Kilometer voneinander entfernt sind.
    Mit Hilfe von Laserstrahlen werden in diesen Satelliten die Abstände zwischen den Testkörpern gemessen.

    Bewegen sich die Satelliten in der Größenordnung von nur einer Haaresbreite — tatsächlich reicht auch der millionste Teil einer Haaresbreite — näher aufeinander zu, so entdeckt das Interferometer diese Bewegung.
     

    Solche Präzision ist schier unglaublich, wenn man berücksichtigt, wie weit die Satelliten voneinander entfernt sind. Ein Critical Design Review in 2010 aber scheint bestätigt zu haben, dass diese Genauigkeit tatsächlich erreichbar sein wird.

    Nebenbei: LISA reagiert empfindlich auf langsame Schwingungen (auf solche, bei denen die Dauer einer Schwingung zwischen 10 und 10.000 sec liegt). Solche Raum­wellen werden durch die Bewegung großer Himmelskörper erzeugt, z.B. durch superschwere Schwarze Löcher.

    Mir persönlich stellt sich die Frage, wie solche Gravitationswellen schon im ganz jungen Universum entstanden sein können: Energie hatte sich zu jener Zeit ja noch nicht mal zu Atomen verklumpt (!).

     
    PS: Wie ich eben lese, sah sich die NASA schon 2011 gezwungen, einer Budgetkürzung wegen aus dem Projekt LISA auszusteigen. Es wird nun durch die ESA alleine fort­geführt unter dem Namen eLISA. Der ursprüngliche Terminplan ist so natürlich nicht mehr zu halten ... Wurde es im Mai 2012 ganz aufgegeben?

     

      Beitrag 2065-4
    -

     
     
    Quante in 2065-3:
     
    Das unsrige Universum, so wie wir es gegenwärtig in seinen Grenzen grade noch so erkennen können, mag ein Alter von ungefähr 14-15 Mrd. Jahre haben, denn in seiner räumlichen Ausdehnung nimmt es ein Volumen ein, für die das Licht 14 Mrd. Jahre benötigte um es zu "durchlaufen", zurückzulegen.

    Der Raum, da gegen (bewußt nicht "dagegen" geschrieben), hat für mich eine Ausdehnung die ins absolut Unendliche geht. Der Raum kann und sollte daher selbst keine Begrenzung für sich aufweisen.

    Das bedeutet unser Universum kann in etwa ein Alter von 14-15 Mrd Jahre haben, der Raum da gegen, ist alterslos, alterungslos, es hat ihn immer gegeben und wird es immer geben, eine Altersangabe macht keinen Sinn, da er in seiner Ausdehnung unendlich.
     


    Hallo Quante,

    die meisten Nichtphysiker stellen sich das wohl genau so vor.

    Physiker und Kosmologen aber sind inzwischen wirklich überzeugt davon — und verfügen über zahlreiche Hinweise darauf —, dass der Raum  n i c h t  unabhängig von seinem Inhalt entstand, sondern dass er stattdessen ein Aspekt eben dieses Inhaltes ist.

    Raum existiert nur dort, wo auch Energie ist (und sei es nur sog. Vakuumenergie).

    Der allgegenwärtigen Quantenfluktuation wegen müssen wir ihn als etwas Lebendiges begreifen.

    Mathematiker — und deswegen auch Physiker und Kosmologen — können sich sehr wohl einen Raum vorstellen, der keine Grenzen hat, aber doch nur von endlichem Durchmesser ist (in dem Sinne, dass Wege durch den Raum — genauer: Geodäten im Sinne der ART etwa — nicht beliebig lang sein können ohne am selben Punkt mehrfach vobeizukommen).


    Tatsache ist:

    Nach aktueller Lehrmeinung ist der Raum grenzenlos. Ob er endliche Ausdehnung hat, ist eine noch offene Frage.

    Er bläht sich derzeit auf wie ein Hefeteig, was aber nicht bedeuten muss, dass er endlich ist.

    Hätten der Raum und seine Dimensionen schon vor dem Inhalt des Universums bestanden (d.h. schon bevor es irgend etwas, Energie etwa, darin gab), könnte der Ur-
    knall wirklich nur wie eine — von einer ganz bestimmten Stelle ausgehende — Explosion gewirkt haben. Diese Stelle müsste dann in einer bestimmten Richtung von uns angesiedelt sein. Was Astronomen aber wirklich beobachten, spricht dafür, dass wir uns dann an genau dieser Stelle — im Zentrum jener Explosion — befinden müssten. Wie sonst könnten sich dann nämlich alle fernen Galaxien radial von uns und gleichzeitig vom Explosionszentrum weg bewegen?

    Kurz: All unsere Beobachtungen deuten auf überall im Großen gleichmäßige Aufblähung des Raumes hin. Damit ist der gesamte Raum identisch mit dem Punkt, der den Urknall hervorgebracht hat, und jener Urknall kann erst dann als beendet gelten, wenn das Universum aufgehört hat, sich weiter zu vergrößern und zu gestalten.


    Gruß, grtgrt

     

      Beitrag 2065-6
    -

     
     

    Quante in 2065-5:
     
    Von daher läßt sich deine Behauptung: » Raum existiert nur dort, wo auch Energie ist (und sei es nur sog. Vakuumenergie) « ganz einfach ins gegenteilige Postulat umkehren: » Energie existiert nur dort, wo auch Raum ist «. Denn die Existenz von Energie ohne jeglichen sie umgebenden Raum erscheint mir zumindest hinter­fragungswürdig.


    Ja, Quante, Du hast recht,

    und deswegen halte ich  b e i d e  Aussagen für richtig (meine grüne und deine rote).

    Es sind zwei Sichten auf etwas (unsere Welt), in dem sich Raum und Inhalt des Raumes einfach nicht voneinander trennen lassen.



    Quante in 2065-5:
     
    Du schreibst: "Physiker und Kosmologen ... sind ... überzeugt, dass der Raum...ein Aspekt eben dieses Inhaltes ist."

    Wie kann etwas (der Raum), der in seiner Ausdehnung wesentlich größer und umfangreicher ist (sein soll), Aspekt eines kleinerem, dem Universum, sein?

    ... für mich ist das Universum lediglich eher noch ein "Aspekt" des Raumes. Wobei ich mich mit der Sichtweise anfreunden kann, daß es sehr, sehr viele verschiedene Universen geben kann.


    Lassen wir das Multiversum mal außen vor (es ist ja bislang nur Spekulation, und selbst wenn es mehrere Universen geben sollte, bedeutet das noch lange nicht, dass sie in etwas eingebettet sein müssen, was die Bezeichnung "Raum" rechtfertigen würde).

    Was ich den Lichthorizont nenne, ist eine (beobachterspezifisch definierte, nur gedanklich existierende) Kugeloberfläche,
    • deren Radius sich aus dem Alter des Universums und seiner bisherigen Expansionsrate ergibt
    • und deren Mittelpunkt der Ort ist, an dem sich der Beobachter befindet.

    Der gesamte Raum wird komplett abgedeckt durch eine Vereinigung solcher Kugeln, denn einen Beobachter kann man sich ja überall positioniert vorstellen.
    Sterne und Galaxien finden sich also innerhalb  u n d  außerhalb so eines Lichthorizontes — wobei das Licht der sich außerhalb befindenden den Beobachter aber nicht erreichen kann, so dass er jene Himmelskörper niemals zu Gesicht bekommt.

    Deine Annahme also, ich hätte direkt oder indirekt behauptet, der Raum sei ausgedehnter als das Universum, ist nur ein Missverständnis deinerseits (und würde ja auch dem allseits anerkannten kosmologischen Prinzip widersprechen).



    Was nun den Raum als "Aspekt" betrifft, erinnere ich an Brian Greenes Aussage auf Seite 485 seines Buches The Fabric of the Cosmos :

    Zitat von Greene:
     
    More and more, these clues point toward the conclusion that the form of spacetime is an adorning detail that varies from one formulation of a physical theory to the next, rather than being a fundamental element of reality. Much as the number of letters, syllables, and vowels in the word cat differ from those in gato, its Spanish translation, the form of spacetime — its shape, its size, and even the number of its dimensions — also changes in translation.
     


    Diese seine Aussage bedeutet:

    Was wir als "Raum" — ohne seinen Inhalt — sehen, ist vor allem eine mathematische Hilfskonstruktion, die uns erlaubt, unser  M o d e l l  der Raumzeit verständlich zu formulieren. Da nun aber jedes Modell nur bestimmte Aspekte des zu modellierenden Gegenstandes mehr oder weniger gut durch Analogien beschreibt, ist kein Modell konkurrenzlos oder allzu wörtlich zu nehmen. Sogar was die Zahl der Dimensionen unser Welt betrifft, sind sie sich keineswegs immer einig und können dennoch sehr gute Modelle sein (!).

    Treffendes Beispiel hierfür sind die ART und die Quantentheorie: Beide sind gut erprobt und extrem nützlich, machen aber doch auch Aussagen, die — wenn man eine bestimmte Größenskala zugrundelegt — von entsprechenden Aussagen der jeweils anderen deutlich abweichen.

    Kein Wunder: Denn jede der beiden entstand ausgehend von Beobachtungen, die sich wirklich deutlich machen nur für besonders große bzw. besonders kleine Objekte. Somit war fast zu erwarten, dass jedes der beiden Modelle irgendwo hinkt.

     

      Beitrag 2102-30
    Lichthorizont und Ereignishorizont (= Zeithorizont)

     
    Einige Bemerkungen zum "kosmischen Ereignishorizont", denn die Sache liegt nicht ganz so einfach. Man muss genau auseinander halten, WELCHEN Horizont man meint, nämlich den "Beobachtungshorizont" oder den "Ereignishorizont" (ich muss zugeben, dass ich daran auch nicht immer denke, weil ich mich zu selten damit beschäftige).

    Der Beobachtungshorizont begrenzt die Sicht eines Beobachters in die Ferne des Alls insofern, als er die Grenze für den Bereich darstellt, über den wir BIS ZU EINEM BESTIMMTEN ZEITPUNKT noch keine Informationen erhalten haben. Dieser Horizont - diese Grenze - erweitert sich mit LG, wird also ständig größer. Wir erhalten ständig mehr Informationen aus Bereichen des Kosmos, die so Schritt für Schritt zugänglich werden. Ist das irgendwie ein Widerspruch zu Expansion des Kosmos selbst? Nein, denn was wir sehen, IST NICHT DIE GESAMTE AUSDEHNUNG DES KOSMOS. Er Beobachtungshorizont dehnt sich in einen BEREITS VORHANDENEN RAUM hinein aus. Der Bereich, den wir auf diese Weise für uns werden in Zukunft erschließen können (rein theoretisch, versteht sich), beträgt etwa achtundvierzig Milliarden Lichtjahre.

    Der Ereignishorizont begrenzt den Bereich, hinter den wir niemals werden blicken können, er wird definiert als die Grenze, hinter der sich der Raum mit größer c ausdehnt. DIESER Raumbereich wird nach Schätzungen als zwischen dreißig und einhundert Größenordnungen größer vermutet, als die erwähnten achtundvierzig Milliarden Lichtjahre (wenn eine angenommenen Inflationsphase des Kosmos in den ersten Momenten korrekt ist).

    Der Beobachtungshorizont bestimmt die Grenze, innerhalb derer es für Ereignisse kausale Zusammenhänge geben kann, der Ereignishorizont die Grenze, hinter der die Ereignisse keinen kausalen Zusammenhang haben können, weil nichts die Grenze der Lichtgeschwindigkeit ÜBERSCHREITEN kann, was nicht ausschließt, dass es JENSEITS dieser Geschwindigkeit ein "Irgendwas" gibt. Ein irgendwas, wohlgemerkt, das NICHT mit dem sich mit Überlichtgeschwindigkeit ausdehnenden Raum identisch ist, sondern sich auf die Möglichkeit von Bewegung INNERHALB des Raumes bezieht.

    Für die Expansion des Raumes - oder besser der Raumzeit - spricht man übrigens nicht von "Geschwindigkeit", sondern von "Expansionsrate", es ist keine Bewegung innerhalb des Raumes, und so gesehen nicht eigentlich eine Geschwindigkeit, womit es auch zu keinen Widersprüchen zur Behauptung kommt, der Raum könne sich mit "Überlichtgeschwindigkeit" ausdehnen. Es macht auch wenig Sinn, von einer Bewegung des Raumes zu sprechen, denn diese "Bewegung" ist NICHT von einem Beobachter abhängig -oder anders - jeder Beobachter beobachtet das Selbe, was ja im Widerspruch zur "Relativität" der Bewegung steht.

    Kein allzu leichtes Thema, verbessert mich, wo nötig!
     

      Beitrag 2102-31
    -

     
    Henry in 2102-30:
    Der Bereich, den wir auf diese Weise für uns werden in Zukunft erschließen können (rein theoretisch, versteht sich), beträgt etwa achtundvierzig Milliarden Lichtjahre.
    Dabei darf man nicht vergessen, daß dieses ankommende Licht abgeschickt wurde, als das Universum noch dichter zusammengezogen war. Wir sehen also sozusagen ein Abbild einer kleinen Briefmarke von Anno dazumal auf einer großen 3D-"Kinoleinwand" von heute.
     

      Beitrag 2068-7
    Unser Zeitbegriff  e n d e t  am Zeithorizont

     
     
    Harti in 2068-6:
    Hallo C...,

    ich habe ja schon mal für die SRT die Ansicht vertreten, ein Überschreiten der Lichtgeschwindigkeit bedeute, dass die Raum- und Zeitkoordinate ihre Bedeutung ändern.

    Dies hat zur Folge, dass ein Objekt nach Überschreiten der Lichtgeschwindigkeit sich wieder in Richtung Zeitachse bewegt und damit langsamer wird.
    Kann man sich im Rahmen der ART vorstellen, dass am Ereignishorizont Entsprechendes passiert ?
     


    Hallo Harti,

    was Du da sagst (oder glaubst) ist mit Sicherheit falsch, denn außerhalb unseres Zeithorizonts (der dort liegt, wo Objekte, die Ruhemasse haben, sich aus unserer Sicht nicht mehr langsamer als das Licht bewegen) gibt es den Begriff » Zeit aus unserer Sicht « gar nicht mehr: siehe Beitrag 2065-2.

    Insbesondere lassen sich dort die Argumente von SRT und ART  n i c h t  mehr anwenden.

    Gruß, grtgrt
     

      Beitrag 786-96
    Durchmesser des uns heute sichtbaren Universums

     
     
    Bernhard Kletzenbauer in 786-92:
     
    Doch wie dem auch sei, durch das Summieren der Einzelgeschwindigkeiten erreicht man bei einer Entfernung von ungefähr 14 Mrd. Lichtjahren eine Expansionsgeschwindigkeit von 300000 km/s und mehr. Das bedeutet, daß Erde und Lichtquelle sich schneller als das Licht voneinander entfernen. Aus 40 Mrd. Lj. Entfernung kann noch kein Licht bei uns angekommen sein.

    Es ist vielmehr so, daß das Licht der weitest entfernten Galaxie und der Hintergrundstrahlung losgeschickt wurde, als das Universum viel dichter zusammengepresst war (nicht zu einem Punkt!). Nehmen wir mal an, daß der Abstand zum Beispiel damals 1 Megaparsec war. Dann ist das Licht fast 14 Milliarden Jahre gegen die kosmische Expansion angerannt, und erst jetzt bei uns angekommen.
    Also, Startentfernung 3 260 000 Lichtjahre, Entfernung bei Ankunft fast 14 000 000 000 Lichtjahre.


    Na ja, qualitativ gesehen argumentieren wir ja beide gleich, und zudem ist die Rechnung komplizierter, als Du sie hier skizzierst, denn:
    • Die Expansionsgeschwindigkeit hat sich im Laufe der Zeit ja durchaus geändert (und dürfte ganz am Anfang deutlich größer als heute gewesen sein).
    • Und die Geschwindigkeit, mit der sich Galaxien von uns entfernen, wird mit zunehmender Entfernung immer größer.
    • Damit scheint es mir schon möglich, dass die Quelle des Lichtes, das heute bei uns ankommt, derzeit von uns deutlich weiter entfernt ist als nur 14 Mrd. Lichtjahre: Sie war damals noch innerhalb, ist aber heute weit außerhalb unseres Lichthorizonts.


    Die von mir genannte Zahl ( 46 Mrd. Lichtjahre = Durchmesser des uns heute sichtbaren Universums ) wurde natürlich nicht von mir errechnet, sondern von MartinB oder von Leuten, denen er in seiner Rolle als Hochschullehrer für Physik traut (siehe auch die letzten Zeilen seines Artikels, wo sich eben diese Zahl findet).

    Seine Zahlen werden bestätigt auf Wikipedias Seite The Observable Universe.

     

      Beitrag 786-105
    -

     
     
    Bernhard Kletzenbauer in 786-100:
    Grtgrt in 786-96:
     
    Die von mir genannte Zahl ( 46 Mrd. Lichtjahre = Durchmesser des uns heute sichtbaren Universums ) wurde natürlich nicht von mir errechnet, sondern von MartinB oder von Leuten, denen er in seiner Rolle als Hochschullehrer für Physik traut (siehe auch die letzten Zeilen seines Artikels, wo sich eben diese Zahl findet). 

    Ich habe einen Artikel gelesen, in dem von verschiedenen Universum-Horizonten die Rede ist (Leuchtkraftentfernung, mitbewegte Entfernung, Winkeldurchmesserentfernung,...) Es kommt immer darauf an, von welcher Seite man es sieht.

    http://scienceblogs.de/astrodicticum-simplex/2012/0...


    Die 46 Mrd. Lichtjahre sind ganz klar mitbewegte Entfernung.

    Es gab da wohl auch unter Fachleuten einige Verwirrung. Daher wohl die Klarstellung im Papier Superluminal Recession Velocities (2001).
    Siehe auch Wikipedias Seite The Observable Universe.

     

      Beitrag 2065-8
    Kein Wesen hat unendlich weiten Lebensraum

     
     
    In Beitrag 2065-7 wurde festgestellt, dass Objekte, deren Zeithorizont zueinander disjunkt ist, sich weder zeitlich noch räumlich in Beziehung zueinander setzen lassen.

    Andererseits ist die Raumregion im Inneren des Zeithorizonts immer nur endlich groß — auch dann, wenn das Universum flach und unendlich groß sein sollte.

    Beide Tatsachen zusammengenommen zeigen uns:


    Selbst wenn unser Universum unendlich groß sein sollte, wohnen wir de facto doch in einem nur endlich großen Universum.

    Unser Zeithorizont ist seine äußerste Grenze.

    Obgleich sie nur gedanklich existiert und für je zwei Personen an leicht unterschiedlicher Stelle liegt,
    wirkt sie wie eine real existierende Barriere, über die wir nicht hinwegkommen.


    In letzter Konsequenz bedeutet das, dass jedes im All lebende Wesen sein ganz persönliches, eigenes Universum hat. Je weiter solche Wesen räumlich voneinander getrennt residieren, desto weniger überlappen sich ihre Universen (= maximal großen Lebensräume).


    Obgleich diese virtuellen "Universen" sich oft stark überlappen, beginnen sie doch recht schnell, sich auseinander zu entwickeln:

    Zitat von Maalampi, S. 84:
     
    Zum Beispiel unterscheiden sich die Entfernungen zwischen Merkur und Sonne — in Abhängigkeit davon, ob die Messungen von der Oberfläche des Merkur oder von der Sonnenoberfläche aus durchgeführt werden — um etwa 100 Kilometer.

    Zitat von Maalampi, S. 93:
     
    Und: Auf der Oberfläche der Sonne geht die Zeit im Vergleich zur Erdzeit 64 sec pro Jahr nach, in der Mitte der Sonne sind es ungefär 5 Min. Somit hat sich der Zeitunterschied in der 5 Mrd. Jahre währenden Lebenszeit unseres Sonnensystems auf schon Tausende von Jahren akkumuliert.

     

      Beitrag 2068-22
    -

     
     
    Horst in 2068-17:
    Harti im Beitrag 2068-15

    Zitat:
    Während sich das Licht im Raum 300000 km bewegt, bewegt es sich in der Zeit 1 sec.

    Hallo Harti

    Ich bin der Ansicht, das Licht bewegt sich nicht "in der Zeit", sondern nur im Raum.
    Es dauert 1 sec bis es im Raum die Strecke von 300000 km zurückgelegt hat.


    Harti hat recht, denn die Physiker sagen:


    Aus Sicht jeden Beobachters, für den Zeit vergeht, legt Licht in jeder Sekunde 299 792 458 m zurück.


    Da man die Länge einer Sekunde über den Taktgeber einer geeigneten Atomuhr definiert, ist diese Aussage zudem noch Definition der Längeneinheit Meter (= m).


     

      Beitrag 2068-24
    -

     
     
    Harti in 2068-15:
    Während sich das Licht im Raum 300000 km bewegt, bewegt es sich in der Zeit 1 sec.

    Es ist auf der Grundlage dieses Diagramms nicht erklärbar, warum die Bewegung eines Objekts mit z.B. 400000 km/sec nicht möglich ist. Die Lichtgeschwindigkeit wird deshalb auf der Grundlage der SRT als Höchstgeschwindigkeit postuliert.


    Hallo Harti,

    die Frage ist, aus Sicht welchen Beobachters sich Licht durch die Zeit bewegt.

    Dass Licht sich durch die Zeit bewege, kann nur jemand sagen, dem klar ist, dass das Bild der Lichtquelle, welches jenes Licht uns zeigt, ein Bild aus der Vergangenheit der Lichtquelle ist. Das Licht, die Lichtquelle, und wir haben aber jeder einen anderen Zeitbegriff (!).

    Wenn man sagt, etwas bewege sich durch die Zeit, dann meint man den Zeitbegriff, den jenes Etwas hat. Wenn jenes Etwas aber das Licht ist, lässt sich nur feststellen:
    Die Projektion seines Geschwindigkeitsvektors auf die Zeit ist Null. Es kennt keine Zeit.


    Wenn dein Diagramm auch Geschwindigkeiten größer als c kennt, finde ich daran nichts Besonderes, denn es gibt sie ja: Aufgrund der Expansion des Alls gibt es Galaxien, die sich von uns mit beliebig großer Geschwindigkeit entfernen (jedenfalls dann, wenn das All wirklich homogen, isotrop und unendlich groß sein sollte).

    Da alle Argumentation der SRT davon ausgeht, dass nur das Licht es Objekten ermöglicht, einander Information zukommen zu lassen, kann die Welt jedes solchen Objekts nur aus Dingen bestehen, die sich relativ zu ihm mit einer Geschwindigkeit kleiner c bewegen. In jener Welt also ist c die Höchstgeschwindigkeit (da alles, was sich schneller bewegt, dort einfach nicht wahrnehmbar ist).

    Gruß, grtgrt

     

      Beitrag 2068-36
    Das Multiversum, in dem wir zu Hause sind (bzw: Raumzeit in dreierlei Bedeutung)

     
     
    E... in 2068-33:
    Grtgrt in 2068-31:
     
    ... Die Vermischung passiert nicht im Konstrukt "Raumzeit", sondern erst beim Übergang in ein anderes Exemplar davon.
     
    Guten Morgen Grtgrt.

    Wieviel Exemplare "Raumzeit" bist Du denn bereit zu bieten, in diesem, unseren Universum?

    Mit einem kann ich Dir dienen, aber wo willst Du eine weitere "Raumzeit" herholen in die "übergegangen" werden kann?

    Mit gespannten Grüßen.
    E....


    Hallo E...,

    man sollte sich darüber klar sein, dass, wer von der Raumzeit spricht, von 3 ganz verschiedenen Dingen sprechen kann. Dies sind
      (1)   die Raumzeit als mathematisches Modell dessen, was wir unser Universum nennen,
      (2)   die Raumzeit als das, was unser Universum tatsächlich ist, und
      (3)   der jeweils beobachterspezifischen Sicht auf dieses Universum modelliert durch ein Exemplar von Typ (1).

    Keine zwei Exemplare vom Typ (3) sind identisch.

    Sie sind vergleichbar mit der Sicht eines Menschen, der sich in einem Segelboot weit draußen auf dem Meer herumtreibt in einer Gegend, wo — fern am Horizont — gerade noch einige Inseln zu sehen sind. Der Erdkrümmung wegen wird er i.A. nicht alle sehen, und wenn er sich ihnen nähert, wird die Zahl derer, die er zu sehen bekommt, immer größer. Kurz: Die ihm sichtbare Welt wird anders aussehen je nachdem, an welchem Ort er sich gerade befindet.

    Dennoch ist unbestritten: Diese Sichten sind nicht disjunkt zueinander. Sie sind wie Karten, deren Inhalt sich überlappt aber doch nicht identisch ist.

    Wenn ich also von mehreren Exemplaren der "Raumzeit" spreche, meine ich damit ortsabhängige Sichten (3) auf unser Universum modelliert über je ein Exemplar (1).
    Jede ist zwangsläufig begrenzt durch den Zeithorizont eines Beobachters, der sich am jeweils betrachteten Ort befindet — ist also ein kugelförmiges, begrenztes Universum.

    Die Vereinigung aller Universen in diesem Sinne nenne ich das Multiversum, in dem wir zu Hause sind.

    Es ist Vereinigung sich überlappender oder nicht überlappender kugelförmiger Teil-Universen, die — wenn beobachterspezifisch definiert — sich zudem noch ständig gegeneinander verschieben, wenn jene Beobachter sich gegeneinander bewegen.

    Wir, als ein solcher Beobachter, bewegen uns wenigstens durch die Zeit, und deswegen modifiziert sich unser Universum ständig (und nicht nur deswegen, weil der Raum expandiert).

    Gruß, grtgrt
     

      Beitrag 2068-38
    -

     
    Hallo Horst,
    Grtgrt in 2068-27:
    Letztlich sind Raum und Zeit im Sinne dieses Modells nichts anderes als ein Bezugssystem, in das man sich Ereignisse relativ zueinander eingeordnet denkt.;

    so sehe ich das im Prinzip auch.

    Man muss allerdings berücksichtigen, dass wir dieses gedachte "Bezugssystem" (Koordinatensystem) in der Realität mit einem realen Bezugssystem verbinden müssen. Dies liegt daran, dass wir Bewegung als Gegensatz zu Ruhe auffassen, d.h. Bewegung und Ruhe trennen.
    In den Beispielen von Einstein spielt der Bahndamm die Rolle des realen Bezugssystems; dieser Bahndamm (plus Beobachter) wird im vorgestellten Koordinatensystem ruhend vorgestellt.
    In den unseren Überlegungen fehlt es häufig an der nötigen Klarheit bezhüglich dieses realen Bezugssystems.
    Bei der Angabe, eine Rakete fliegt mit 1000 km/h, bleibt unklar, ob sie diese Geschwindigkeit im Verhältnis zu mir als Beobachter hat, im Verhältnis zur Erde, im Verhältnis zum Sonnensystem oder im Verhältnis zum Universum in seiner Gesamtheit. Ich gehe davon aus, dass ich, Erde Sonnensystem und das gesamte Universum in diesem Beispiel unausgesprochen als ruhendes Bezugssystem aufgefasst werden mit dem das vorgestellte Koordinatensystem verbunden ist.

    Für eine vierdimensionale (raumzeitliche) Betrachtung brauchen wir ein solches reales Bezugssystem nicht. Man kann deshalb das Gedankenkonstrukt "Raumzeit" mit dem Universum in seiner Gesamtheit gleichsetzen. Das ist wohl auch der Grund weshalb es nicht schadet, der Raumzeit Realität zuzusprechen.

    MfG
    Harti
     

      Beitrag 2068-43
    -

     
     
    Bauhof in 2068-41:
     
    Harti in 2068-38:
     
    Ich gehe davon aus, dass ich, Erde Sonnensystem und das gesamte Universum in diesem Beispiel unausgesprochen als ruhendes Bezugssystem aufgefasst werden mit dem das vorgestellte Koordinatensystem verbunden ist.

    Im gesamten Universum gibt es kein ruhendes Bezugssystem, weder ausgesprochen noch unausgesprochen. Es gibt in der SRT nur Inertialsysteme, die sich relativ zueinander bewegen oder relativ zueinander in Ruhe sind.

    M.f.G. Eugen Bauhof


    Wer sich ein bestimmtes Inertialsystem S als Bezugssystem wählt, wird S relativ zu sich selbst natürlich stets ruhen sehen.

    S als Bezugssystem zu wählen, soll ja gerade bewirken, dass man es als ruhendes System  a u f f a s s e n  kann.

     

     Beitrag 0-146
    Unsere Sonne — ihre innere Struktur und wie sie uns Wärme spendet

     
     

     
    Unsere Sonne

     
     
    Unsere Sonne ist kein Feuer, sondern eine aus Gas bestehende Kugel. Genauer noch: Dieses Gas ist zu mehr als 99% Plasma: ionisiertes Gas.
     
     
    Plasma ist — neben fest, flüssig und gasförmig — der vierte Zustand, in dem Materie vorliegen kann.
     
    Plasma unterscheidet sich von Gas darin, dass die sich unabhängig voneinander bewegenden Teilchen elektrisch geladen sind, da hohe Temperator zur Folge hat, dass Atome derart heftig miteinander kollidieren, dass sie sich gegenseitig ihre Elektronen aus den Atomhüllen schlagen (man nennt das Ionisierung).
     
    Durch Plasma fließendes Licht wird hier nicht nur ab und an, sondern permanent umhergestreut (d.h. zu einem Zick-zack-Kurs gezwungen).
     
    Freie Elektronen nämlich können keine Photonen absorbieren — Licht zu absorbieren ist ihnen nur möglich, wenn sie an Atomkerne gebunden sind.
     
     
    Temperatur und Druck bestimmen, in welchem Zustand Materie vorliegt.
     
    Das Plasma unserer Sonne besteht zu 70% aus Wasserstoffkernen (d.h. aus einzelnen Protonen) und zu 28% aus Helium. Nur die restlichen 2% sind schwerere Elemente (Astronomen nennen sie » Metalle «, obgleich sie in aller Regel nichts mit Metallen im umgangssprachlichen Sinne zu tun haben: Als » schwer « werden schlichtweg alle Elemente bezeichnet, die weder Wasserstoff noch Helium sind.
     
    Für den Astronomen also ist nicht nur Gold ein Metall, sondern z.B. auch Kohlenstoff oder Sauerstoff.
     
    Mit Ausnahme von Wasserstoff und Helium enstanden alle weiteren Element keineswegs schon kurz nach dem Urknall, sondern erst sehr viel später im Zuge des Ablebens eines Sterns.
     
     
    Doch zurück zur Sonne: Sie gliedert sich — von innen nach außen — in folgende Schichten (die natürlich nur grob gegen einander abgrenzbar sind):

       
    • Sonnenkern: Hier entsteht das Licht durch Kernfusion (als sich frei setzende Bindungsenergie).
       
        Die Sonne ist hier am heißesten und dichtesten.
         
        Als Protonen sind Wasserstoffkerne positiv geladen, stoßen einander also ab. Nur des Tunneleffekts wegen fusionieren sie aber gelegentlich doch. Da nun — dank der sie zusammenhaltenden starken Wechselwirkung ein stabilerer Zustand herrscht, wird überschüssig gewordenen Bindungsenergie frei. Sie entweicht in Form eines Positrons und eines Neutrinos.
         
        Ein so entstandener Deiteriumkern fusioniert dann — jetzt schon mit viel höherer Wahrscheinlichkeit — mit einem dritten Proton.
         
        Während der erste Schritt dieser sog. p-p-Reaktion (auch Proton-Proton-Kette genannt) Milliarden von Jahren auf sich warten lässt, passiert der zweite — die Fusion eines Deuteriumkerns mit einem Wasserstoffkern —, schon nach durchschnittlich 10 Sekunden.
         
        Als Ergebnis liegt dann ein Heliumkern vor, allerdings noch nicht in endgültiger Form, sondern erst als leichteres Helium-3-Isotop. Auch im zweiten Schritt entweicht Energie, jetzt aber ausschließlich als ein einziges Photon, welches Gammastrahlung darstellt.
         
        In einem dritten Schritt schließlich kollidieren und verschmelzen — nach so etwa 1 Mio Jahre — zwei Helium-3-Kerne zum gewünschten Helium-4-Kern unter Freisetzung zweier einzelner Photonen.
         
        Temperatur des Sonnenkerns: 15 Mio Kelvin, Photonen sind Gammastrahlung.

       
    • Die Strahlung puffernde Zone (sog. Strahlungstransportzone): Selbst aus ihr kann das Licht nur schwer entkommen,
       
        da es hier immer noch ständig mit Ionen kollidiert und so in jede nur denkbar Richtung gestreut wird — auch wieder in Richtung des Zentrums der Sonne. Es verliert dadurch viel Energie, bewegt sich auf ständigem Zick-zack-Kurs und kann letztlich nur per Tunneleffekt aus dieser Zone heraus in höhere Zonen entfliehen: im Schnitt gelingt dies jedem Photon erst nach etwa 100.000 oder 200.000 Jahren (!).
         
        Temperatur: 10 Mio Kelvin, Photonen sind Röntgenstrahlung.

       
    • Konvektionszone: Hier wird Licht von aufsteigenden Gasblasen zur Sonnenoberfläche befördert und muss dabei Energie abgeben.
       
                Temperatur: 2 Mio Kelvin, Photonen: Röntgen- und UV-Strahlung.
       
    • Photosphäre: Hier ist die Dichte der Sonne gering genug, dass Licht nicht mehr ständig mit Ionen kollidiert und so der Sonne entkommen kann.
       
                Temperatur: 5800 Kelvin, Photonen sind sichtbares Licht und Infrarot-Strahlung.
       
       
    • Chromospäre: Hier strömt Plasma der Sonne entlang der Magnetfeldlinien in hohem Bogen aus der Sonne heraus.
       
                Temperatur: 10.000 Kelvin, Photonen sind hier noch UV-Strahlung.
       
    • Korona: Sie besteht aus geladenen Teilchen, die das Magnetfeld der Sonne in geringer Dichte in den Raum hinaus trägt.
       
                Temperatur: wenige Mio Kelvin, Photonen sind Röntgenstrahlung.
       
    • Heliospäre: Sie besteht aus Sonnenwind, der geladene Teilchen (Ionen) bis zu 150 Astronomische Einheiten (AE) weit in den Raum hinausbläst.
       
                1 AE = Entfernung der Erde von der Sonne = knapp 150 Mio Kilometer.
       
       
      Zum Vergleich: Pluto — der äußerste Planet unseres Sonnensystems — ist nur knapp 40 AE von der Sonne entfernt. Somit reicht die Heliosphäre weit über den durch Planeten, Astereoiden oder uns bekannte Staubgürtel besiedelten Teil des Sonnensystems hinaus.
       
      Eingebettet ist dieses ganze Szenario in die sog. Oort'sche Wolke: Sie stellt eine aus Eis- und Gesteinsbrocken bestehende kugelförmige Schale um unser Sonnensystem herum dar (300 bis 10.000 AE vom Sonnenzentrum entfernt).

     
    In der Sonne herrscht ein fein abgestimmtes Kräftegleichgewicht zwischen
    • der nach innen gerichteten Gravitationskraft
    • und dem nach außen gerichteten thermischen Druck.

    Dieses Gleichgewicht hält die Fusionsrate konstant, denn wenn sie zunimmt, gewinnt der thermische Druck, und der Sonnenkern dehnt sich aus.
    Dies aber reduziert den Druck, also auch die Fusionsrate, so dass dann die Gravitation gewinnt und den Sonnenkern schrumpfen lässt.
     
    Des Gleichgewichts wegen bleiben Leuchtkraft und Radius der Sonne relativ konstant.
     
     
    Im Laufe ihres bisherigen Lebens ist der Radius der Sonne um etwa 5% gewachsen und ihre Leuchtkraft um etwa 40% gestiegen.
     
    Pro Sekunde setzt die Sonne in etwa so viel Energie frei, wie notwendig wäre, fast das gesamte auf der Erde vorhandene Wasser zum Kochen zu bringen.
    Sie verliert hierdurch — jede Sekunde — etwa 5 Mio Tonnen ihrer Masse in Form von Licht (elektromagnetischer Strahlung).

     
     
    Entstanden ist unsere Sonne — ja unser ganzes Sonnensystem — aus einer nur etwa 10 Kelvin kalten Gaswolke
    • mit einer Ausdehnung von etwa 20.000 AE
    • und einer Dichte von nur etwa 300 Molekülen pro Kubikzentimeter.

     
     
     
    Quelle: Daniela Leitner: Als das Licht laufen lernte (Bertelsmann 2013, Seite 221-320 und 422)
     
    Lies auch: Astrokramkiste

     
     
     
    Nebenbei noch:
     
    Temperatur und thermische Energie sind zwei unterschiedliche Größen, denn für jedes Gas oder Plasma ist
    • Temperatur die durchschnittlichen Bewegungsenergie der Teilchen,
    • thermische Energie aber die Summe der Bewegungsenergie sämtlicher Teilchen.
    Wo Wärme ist, ensteht ständig auch Licht (elektromagnetische Strahlung) — dies einfach deswegen, da miteinander kollidierende Teilchen einander beschleunigen, beschleunigte Ladungen aber elektromagnetische Wellen hervorrufen.

     

     Beitrag 0-478
    Wie Inflationsenergie Materie schaffen konnte

     
     

     
    Wie es zum Entstehen von Materie kommen konnte

     
     
    Heute setzen die meisten Kosmologen auf die durch Guth vorgeschlagene Inflationstheorie — auf ein Geschehen also, wie man es sich unwahrscheinlicher kaum vorstellen kann:
     
    Guth nahm an, dass ein skalares Feld, das sog. Inflationsfeld, existiert hat, welches eine riesige Menge von Energie sozusagen "zum Kochen brachte".
     
    So wie sich in kochendem Wasser Dampfblasen bilden, bilden sich im Inflatonsfeld sog. Taschenuniversen: kleine Regionen, in denen das Inflationsfeld zusammenbricht und der Raum dann kaum noch weiter expandiert.
     
    Jede Art von Materie, die vor der Inflation schon existiert haben mag, wird durch die Inflation zu fast nichts verdünnt — auf verschwindend kleine Dichte ausgedehnt — so dass ein Taschenuniversum zunächst so gut wie leer ist.
     
    Die ungeheuere Energie aber, die im Inflationsfeld steckt, muss beim Zusammenbruch des Feldes neue Form annehmen — und diese Form ist Wärme, genauer: elektromagnetische Strahlung: Jene, die wir heute noch als inzwischen schon stark abgekühlte kosmische Hintergrundstrahlung beobachten.
     
    Nach Einsteins Formel E = mc2 und Heisenbergs Unschärferelation können Elementarteilchen jeder Art entstehen, solange nur ausreichend viel Energie zur Verfügung steht.
     
    Protonen, Elektronen und Neutrinos sind auf diese Weise entstanden zu einer Zeit, als das Universum noch weit über eine Milliarde Grad heiß war: Je höher seine Temperatur, desto schwerer die Materieteilchen, die so entstehen konnten.
     
    Unmittelbar nach Zusammenbruch des Inflationsfeldes könnte unser Universums eine Temperatur von 1027 (= 1000 Billionen Billionen) Grad gehabt haben.
     
     
     
    Quelle: Paul Davis: Der kosmische Volltreffer, Campus 2008, S. 87-88

    Kosmische Inflation
     
    Kritische Stimmen zum gängigen kosmologischen Modell ( dem ΛCDM-Modell )
     
    Wichtige noch ungeklärte Beobachtungen


     

     Beitrag 0-438
    Die Urknalltheorie — wie George Lemaître sie als zwingend erkannte

     
     

     
    Die Urknalltheorie — vorgezeichnet durch George Lemaître

     
     
    Schon 1917 war Einstein durch Rechenergebnisse von Friedmann, de Sitter und Lemaître darauf aufmerksam gemacht worden, dass seine Feldgleichungen ein nicht-statisches Universum beschreiben.
     
    Einstein — der damals noch fest davon überzeugt war, das Universum müsse statisch sein — hat deswegen seiner Gleichung eine sog. kosmologische Konstante hinzugefügt in der irrigen Meinung, hierdurch nicht-statische Lösungen ausschließen zu können.
     
    Erst 1930 — nachdem zunächst Slipher und dann Hubble mit seinem Mitarbeiter Humanson die Rotverschiebung extragalaktischer Nebel entdeckt und anhand von 46 Beispielen genau quantifiziert hatten, sah sich Einstein gezwungen, zu akzeptieren, dass die Raumzeit tatsächlich nicht statisch sein könnte — eben ganz so, wie seine Feldgleichung das mit oder ohne kosmologische Konstante schon immer voraussagt hatten.
     
    Erst jetzt sah Einstein ein, dass er — statt eine kosmologische Konstante zu erfinden — besser gleich seinen Gleichungen hätte glauben sollen.
     
     
    Lemaître hatte inzwischen die Idee des expandierenden Universums entwickelt und hierbei nicht übersehen, dass, wer dieses Modell einmal akzeptiert hat, natürlich auch fragen müsse, warum das Weltall expandiert und was sich an Erkenntnissen ergeben kann, wenn man die Entwicklung des Universums in die Vergangenheit hinein zurückverfolgt.
     
    Schnell wurde klar, dass Friedmanns und Lemaîtres Modelle darauf hindeuten, dass die Raumzeit aus einem einzigen kleinen Etwas entstanden sein könnte: aus einen Uratom (einer Art "Urei", wie Lemaître sich ausgedrückt hat).
     
    Dieses Urei — so Lemaître — müsse gemäß den Gesetzen der eben erst entdeckten Quantenphysik zerfallen sein und könnte so alle Materie erzeugt haben, die sich seit jenem Zerfall im Universum findet.
     
    Es war dies ein einfaches, hypothetisches und schon beinahe biblisch anmutendes Modell, aber Lemaître gab sich größte Mühe, die Religion aus seinem Vorschlag herauszuhalten. Er veröffentlichte in Nature eine kurze Arbeit mit dem Titel » Der Beginn der Welt aus der Sicht der Quantentheorie «.
     
    Lemaître schrieb:
     
    » Wenn die Welt mit einem einzigen Quantum begonnen hat, dann haben die Begriffe von Raum und Zeit keinerlei Bedeutung; diese erhalten sie vernünftigerweise erst, wenn sich das ursprüngliche Quantum geteilt hat. Sollte dieser Vorschlag zutreffen, dann lag der Beginn der Welt noch etwas vor dem Beginn von Raum und Zeit. «

     
     
    Historische Notiz:
     
    Lemaîtres Theorie konnte sich erst durchsetzen, nachdem sich für die später entstandene, zunächst deutlich plausiblere Steady State Theory keinerlei Argumente mehr finden liesen.

     

     Beitrag 0-244
    Historie und Widerlegung der Steady-State-Theorie

     
     

     
    Historie und Widerlegung der Steady-State-Theorie

     
     
    Historisch interessant ist, dass die Urknalltheorie ihren Namen der Person verdankt, welche sie am vehementesten abgelehnt hat: Fred Hoyle.
     
    Hoyle und seine Mitarbeiter propagierten statt ihrer die sog. Steady-State-Theorie, welche davon ausging, dass die Qualität des Universums über alle Zeit hinweg unverändert die gleiche gewesen sei und in Zukunft auch sein werde.
     
    Die damals schon bekannte Tatsache, dass der Raum expandiert, erklärten sie sich dadurch, dass sie annahmen, aus dem Vakuum heraus entstünden ständig neue Atome, von denen einige wenige ihrer gegenseitigen Auslöschung entkommen und so die Materie im Raum dauerhaft vermehren.
     
    Diese Physiker räumten zwar ein, dass ihnen ein Beweis für diese spontane Entstehung von Materie fehle, das erfordliche Maß an Materiebildung — mit einigen wenigen Atomen pro Jahrhundert und Kubikkilometer — aber so gering sei, dass sich ein Gegenbeweis nicht führen lasse.
     
    Zudem wiesen sie darauf hin, dass kontinuierliche Entstehung neuer Materie doch wohl eher wahrscheinlicher sei als eine urplötzliche Entstehung sämtlicher Materie in einem "Big Bang" (Urknall).
     
     
    Was ihrer Theorie dann aber den Todesstoß versetzt hat, war folgendes Argument und folgende Beobachtung:
       
    • Ferne Galaxien zeigen sich uns so, wie sie vor Milliarden vor Jahren waren. Wäre die Staedy-State-Theorie richtig, dürfen sie sich in ihrer durchschnittlichen Qualität nicht unterscheiden von uns nahegelegenen Galaxien.
       
    • Je mehr Daten man aber sammelte, desto klarer wurde, dass die besonders fernen Galaxien tatsächlich anders aussehen und deutliche Anzeichen von Jugend aufweisen: Sie sind kleiner, unregelmäßiger geformt und von besonders hellen, kurzlebigen Sternen bevölkert. Auch senden sie weit mehr Radiowellen aus als uns nahe Galaxien [was 1950 dem Astronom Martin Ryle aufgefallen war].

     
    Interessant also: Es war die Urknalltheorie — die weniger plausible von beiden — die sich als tragfähig erwies.
     
    Sie wurde schon kurze Zeit später ergänzt durch die Inflationstheorie, genauer: die Theorie ewiger Inflation, die
     
    Beobachtungsergebnisse, die geeignet erscheinen, selbst noch die Urknalltheorie mit Fragezeichen zu versehen, sind — mit Stand 2016 — zusammengetragen in Hans Jörg Fahr: Mit oder ohne Urknall — Das ist hier die Frage (Springer Spektrum, aktualisierte 2. Auflage, 2016).
     
    Es werden in diesem Buch insbesondere ernsthafte Zweifel daran geweckt, ob die Rotverschiebung des Lichtes beobachtbarer Himmelskörper wirklich nur mit deren Entfernung von der Erde korrespondiert oder vielleicht doch auch vom Alter der betroffenen baryonischen Materie mit geprägt wird.
     
    Wie neuere Beobachtungen der Zwerggalaxien in unserer sog. Lokalen Gruppe vermuten lassen, bewegen sich Galaxien um deutlich größere Galaxien ähnlich wie Planeten um einen Stern. Stellt man sich jetzt also vor, dass es zwei Galaxien geben kann, die sich um eine deutlich größere herum auf ähnlicher Bahn bewegen, aber so, dass sie sich stets in etwa gegenüber befinden, wird klar, dass sie — aus Sicht weit entfernter, in der Ebene dieser Bahn existierenden Beobachter deutlich unterschiedliche Rotverschiebung aufweisen können (da ja dann immer eine der beiden dem Beobachter entgegen kommt, während die jeweils andere sich gerade von ihm entfernt — was der langen Umlaufzeiten wegen für die so extrem kurzlebigen Beobachter aber nicht erkennbar sein wird).
     
    Lies auch: Halton Arp's Kosmomologie (Fahr nimmt auf sie mehrfach Bezug, erwähnt aber nicht, wie ablehnend die meisten Astrophysiker ihr gegenüber stehen).

     

     Beitrag 0-439
    Entdeckung und erste Leistung der Radioastronomie

     
     

     
    Entdeckung und erste Leistung der Radioastronomie

     
     
    Radiowellen verhalten sich wie die Wellen sichtbaren Lichts, haben aber bis zu 1 Milliarde mal größere Wellenlänge:
       
    • Sichtbares Licht hat Wellenlängen kleinar als ein Millionstel Meter.
       
    • Radiowellen aber haben Wellenlängen von einem Millimeter bis hin zu Hunderten von Metern.

    Jansky hat entdeckt, dass aus der Milchstraße außerordentlich viele Radiowellen kommen, und zwar ununterbrochen: weit mehr als die Sonne sichtbares Licht ausstrahlt.
     
    In einem 1933 veröffentlichten Aufsatz » Elektrische Strömungen offenbar extraterrestrischen Ursprungs « zählte Jansky systematisch sämtliche mögliche Quellen für das Rauschen auf und zeichnete auf einer Karte ein, woher die Radioquellen kamen.
     
    Er eröffnete hiermit eine andere Batrachtungsweise des Kosmos — eine, für die keine riesigen Teleskope auf den Gipfeln hoher Berge notwendig waren — sondern nur Maschendraht, Stahl und einige Schüsseln in offenem Gelände.
     
    Janskys Entdeckung wurde damals weitgehend ignoriert. Als er den Bell Laboratories den Bau einer neuen, verbesserten Antenne vorschlug, wurde er abgewiesen. Da er selbst und seine Firma kein Interesse an Astronomie hatten, beschäftigte er sich von da an mit anderen Dingen.
     
    Früchte trug seine Entdeckung erst, als ein eigenwilliger Rundfunkingenieur und Hobbyastronom aus Illinois — Grote Reber — in der Zeitschrift Pupular Astronomy von Janskys Entdeckung erfuhr und dann anfing, in seinem Garten entsprechende Antennen zu bauen. Seine Antenne hatte eine Schüssel mit einem Durchmesser von neuen Metern und einem Metallgerüst davor, das die reflektierten Wellen empfangen sollte. Das war das erste richtige Radioteleskop und den heutigen schon stark ähnlich. [here]
     
    Mit seiner Hilfe schickte Reber sich an, eine genauere Karte der Radiowellenstrahlung der Milchstraße anzufertigen. Er publizierte sie 1940 unter dem Titel » Kosmisches Rauschen « im Astrophysical Journal.
     
     
    Mit diesem Aufsatz öffnete sich für Astronomen ein neues Fenster zum Weltall.
     
    Der Funkamateur und Elektroingenieur Martin Ryle hat es in ständigem Streitgespräch mit Fred Hoyle zum Ausgangspunkt der heute so wichtigen Radioastronomie fortentwickelt.

     
    Im Februar 1961 legte er die dann schon 4-te Version seines Katalogs der Radioquellen der Royal Astronomical Society vor (sog. 4C-Katalog, das C steht für Cambridge). Er argumentierte, seine Ergebnisse ließen sich mit Hoyles Steady State Modell nicht vereinbaren: Es gebe viel zu wenige helle Quellen in Relation zu den schwachen.
     
     
     
    Historische Notiz:
     
    Die Auseinandersetzung zwischen Hoyle und Ryle mag, da ihr Zentrum in Cambridge lag, als nebensächliche Ablenkung vom Siegeszug der allgemeinen Relativität und dem Urknallmodell erscheinen. Außerhalb des Vereinigten Königreichs interessierte sich nämlich kaum jemand für Hoyles Modell.
     
    Damaligen Besuchern in Cambridge fiel die vergiftete Atmosphäre zwischen Ryle und der Gruppe um Hoyle auf (entsprechende Kommantare zeigen das).
     
    Andererseits brachte diese Rivalität beträchtlichen wissenschaftlichen Fortschritt mit sich. Fred Hoyle sollte später als einer der größten Astronomen der zweiten Hälfte des 20. Jahrhunderts gefeiert werden — nicht zuletzt deswegen, weil er eine brilliante Theorie zum Ursprung der Elemente in Sternen entwickelte. Die Tatsache, dass er 1983 nicht mit zum Kreis der Nobelpreisträger für Physik gehörte, führen manche auf seinen Charakter als Einzelgänger zurück und vor allem auf sein beharrliches Festhalten am Steady State Modell.
     
     
     
    Quelle: Pedro G. Ferreira: Die perfekte Theorie (2014), S. 114-120


     

     Beitrag 0-Inflation
    Wie sich Kosmologen heute die Entstehung unserer Welt vorstellen

     
     

     
    Fragen zum Urknall,

    welche erst die Inflationstheorie beantworten konnte

     
     
    Anders als ihr Name vermuten lässt, erklärt die Urknalltheorie die Entwicklung des Universums erst ab einem Zeitpunkt, zu dem der Urknall schon deutlich mehr als eine Planck-Zeit zurückliegt (und dann bis hin zu etwa 380.000 Jahren danach, als sich dann schon in großer Zahl stabile Atome bilden konnten und das Universum durchsichtig wurde).
     
    Noch früheres Geschehen erklärt erst die durch Alan Guth mit ins Spiel gebrachte Inflationstheorie. So richtig überzeugend wurde  s i e  aber erst aufgrund eines gedanklichen Durchbruchs, den — 1982 im Rahmen des Nuffield Workshops — Guth, Hawking, Steinhardt, Starobinsky und einige Helfer in Form weitgehend unabhängig voneinander durchgeführter Berechnungen erzielen konnten.
     
    Sie wussten damals nicht, dass schon 1 Jahr früher zwei russische Forscher am Lebedev-Institut in Moskow mit einem etwas anderen gedanklichen Ansatz zum nahezu gleichen Ergebnis kamen.
     
    Es ging in diesen Rechnungen darum, wie sich durch Quantenfluktuation hervorgerufene Energieschwankungen im Zuge extrem schneller Expansion des Raumes ausbreiten konnten. Gut 10 Jahre später hat dann der COBE-Satellit durch Ausmessen des kosmischen Mikrowellenhintergrunds die aus diesen Rechenergebnissen kommenden Aussagen auch wirklich erstmals bestätigen können.
     
    Eben deswegen muss die Inflationstheorie heute als eine mit wichtigen Beobachtungsdaten gut harmonierende Theorie betrachtet werden.
     
     
    Erst die Annahme solcher Inflation kann folgende Fragen plausibel beantworten:
       
    •   Was hat zur explosionsartigen Ausdehnung des Raumes geführt?

        Antwort: Das Inflatonfeld mit seinem negativen Druck, welcher der Gravitation entgegenwirkt.

       
    •   Woher kamen die etwa 1080 im beobachtbaren Universum vorhandenen Elementarteilchen?

        Antwort: Sie sind aus der beim Zerfall des Inflatonfeldes freigewordenen Energie entstanden [gA].

       
    •   Warum ist das Universum in alle Richtungen hin so extrem gleichförmig?

        Note: Das beobachtbare Universum war im Alter von 10-35 sec zwar nur knapp 1 cm groß, doch während solch kurzer Zeit kann Licht nur etwa 10-27
        Meter weit kommen — viel zu wenig, um Anfangsunterschiede ausgleichen zu können.

        Antwort: Da der Raum sich in der Inflationsphase exponentiell ausgedehnt hat, muss der Teil, der unserem heute beobachtbaren Universum entspricht, zunächst sehr viel winziger gewesen sein — winzig genug, dass vor Ausbruch der Inflation alle Teilbereiche darin in Wechselwirkung standen.

       
    •   Woher kommen die winzigen Temperaturunterschiede in der kosmischen Hintergrundstrahlung (die Dichteunterschiede im Urgas, die dann später zur   Verklumpung der Materie geführt haben?

        Antwort: Von Quantenfluktuationen, die durch die Inflation extrem verstärkt und vergrößert wurden.

       
    •   Woher kommt die überall nahezu euklidische Metrik? Dass sie sich rein zufällig ergab ist extrem unwahrscheinlich.

        Antwort: Die Inflation hat den Raum in alle Richtungen hin gestreckt. Er verhielt sich ähnlich wie ein faltiges Tischtuch, das beim Auseinanderziehen fast glatt wird.

       
    •   Warum sind die Naturkonstanten so, wie wir sie kennen (obgleich doch auch andere Werte möglich scheinen)?

        Antwort: Es könnten alle Möglichkeiten irgendwo realisiert sein. Der Inflationstheorie zufolge entstehen ja stängig neue inflationäre Blasen im falschen Vakuum.

       
    •   Warum beobachten wir keine exotischen Objekte, die möglich erscheinen (wie etwa magnetische Monopole, kosmische Strings, Blochwände, Texturen)?

        Antwort: Wenn es sie überhaupt gibt, könnte die Inflation sie weit auseinander getrieben haben, so dass sie im beobachtbaren Universum kaum oder gar nicht vorkommen.

     
     
    Die Inflation hört als Ganzes wohl nie auf, sondern setzt sich ewig fort. Früher oder später — so denken vor allem Linde und Vilenkin — bilden sich an jeder Stelle, gelegentlich auch innerhalb schon bestehender Blasen, neue Blasen: Regionen, in denen der Raum nicht mehr exponentiell expandiert. Sie stellen sich — von innen her betrachtet — als möglicherweise unendlich große Universen dar.


    Andrej Linde:
     
    Es gibt einen Anfang für jedes Universum im Multiversum, weil eben dort — nur lokal — die Inflation ein Ende nahm.
     
    Außerhalb solcher Blasen geht die Inflation weiter.
     
    Aus der Existenz dieses Prozesses folgt, dass das Multiversum als Ganzes niemals verschwinden wird.

     


    Interessant auch: Obgleich Guth, Linde und Vilenkin überzeugt sind, dass der Prozess ewiger Inflation nie enden wird, vermutet nur Linde, dass er schon immer in Gang war, also keinen Anfang hat. Guth und Vilenkin glauben Hinweise auf einen Beginn gefunden zu haben (siehe Inflationary spacetimes are not past-complete).
     
     
    Quelle: Rüdiger Vaas: Hawkings neues Universum (2008), S. 141-151.

     
     
    As time goes on, because of the dynamics of expansion, no two regions where inflation ends will ever interact or collide; the regions where inflation doesn’t end will expand between them, pushing them apart.
     
     
    Sollte die Theorie ewiger Inflation wirklich zutreffen, hätte auch sie uns nicht gezeigt, wie der Kosmos entstand: Wir hätten dann nur gelernt, dass er noch um viele Größenordnungen gewalter, vielfältiger und unfassbarer ist, als Menschen schon immmer dachten.
     
    Insbesondere wäre auch dann nicht geklärt, woher all die Energie kommt und ständige Quantenfluktuation, welche ständige Zustandsänderung zur Folge hat und somit auch den Fluss der Zeit.

     

     Beitrag 0-177
    Zur fast schlagartigen Epansion des Raumes kurz nach nach dem Urknall

     
     

     
    Die Inflationstheorie sagt

     
     
    Zu Beginn der Planckzeit haben Entfernungen im kosmischen Raum sich in einer Zeitspanne von nur 10-34 sec und mindestens den Faktor 1026 vergrößert.
     
    Diese Vergrößerungsrate entspricht 1050-facher Lichtgeschwindigkeit.

     
     
    Expansion des Raumes zu Beginn der GUT-Ära
     
     
    Quelle: Hermann Kolanoski: Einführung in die Astroteilchenphysik (Vorlesung 2009)

     
     
    Direkt vor Beginn der Inflationsphase dürfte die Temperatur bei etwa 1029 Kelvin gelegen haben. Wie Jörg Resag mit Hilfe des Stefan-Boltzmann-Gesetzes nachgerechnet hat, impliziert dies eine Energiedichte von etwa 1065 GeV/fm3 — das ist 1065 mal so viel wie wie Energiedichte in einem Neutronenstern.
     
    Zum Vergleich: Würde man die Erde so zusammenpressen, dass sie die Dichte eines Neutronensterns hat, hätte sie die Größe einer Walnuss.
     
    1 Femtometer = 1 fm = 10-15 m

     
     
    Der Inflationstheorie zufolge muss man sich unser Universum vorstellen als vergleichsweise kleine Region in einer durch Inflation im falschen Vakuum — einer zeitlosen Urwelt — schlagartig entstandenen riesigen Blase (vergleichbar mit einer der vielen Blasen, die in Wasser entstehen, wenn es zum Kochen kommt).
     
     
    Ein sehr großer Schritt hin zur Bestätigung der Inflationstheorie wäre die Entdeckung sog. primordialer B-Modes: Die im Zuge der Inflation entstandenen Gravitations­wellen müssten nämlich in recht charakteristischer Weise zu einer Polarisation in der kosmischen Hintergrundstrahlung geführt haben. Im März 2014 dachte man, das in der Antarktis stehende Spezialteleskop BICEP2 hätte Beweise dafür gefunden. Die Interpretation der Messergebnisse hat sich dann aber doch als nicht hin­reichend eindeutig erwiesen: Kosmischer Staub könnte uns was uns Falsches vorgespiegelt haben. [ks]
     
     
    Besonders klar beschrieben und erklärt hat dieses neue Weltbild der Kosmologen der theoretische Physiker Prof. Helmut Satz in seinem Buch Kosmische Dämmerung — Die Welt vor dem Urknall (2016) sowie im einem sehr hörenswerten Vortrag.
     
    Sehr lesenswert ist auch ein weiteres Buch von Helmut Satz: Gottes unsichtbare Würfel — die Physik an den Grenzen des Erforschbaren (2013).

     

     Beitrag 0-402
    Wie entstand Raum — und wie leer kann er sein?

     
     

     
    Wie leer ist leerer Raum?

     
     
    Nichts ist leerer in unserer Welt als das physikalische Vakuum. Wirklich ganz leer aber ist es nicht:
     
    Es enthält einen Nebel virtueller Teilchen (erzeugt und vernichtet durch ständige Quantenfluktuation) und darüber hinaus sog. dunkle Energie, die — gleichmäßig über den gesamten Raum verteilt — pro Kubikmeter etwa dem Energiegehalt von sieben Nukleonen entspricht (= 21 Quarks oder 14 Mesonen).
     
    Hinzu kommen noch die Photonen der kosmischen Hintergrundstrahlung, derzeit mit etwa 1000-fach geringerer und der Expansion des Raumes wegen ständig weiter abnehmender Dichte.
     
    Noch leerer geht es nicht.
     
     
    Direkt nach dem Urknall gab es dieses Vakuum aber noch gar nicht:
     
    Statt seiner gab es damals ein Plasma hoher Dichte von ungebundenen Quarks und Antiquarks, in dem alle Farbladungen gleich häufig vorkamen und absolut gleich verteilt waren. Frei gegen einander bewegen konnten jene Quarks sich damals nur wegen dieser Gleichverteilung und hohen Dichte, die zur Folge hatten, dass der Abstand zwischen jedem Quark und dem ihm nächsten seine Farbladung ausgleichenden Nachbarquark überall kleiner als 1 Femtometer (= 10-15 Meter) war.
     
    Mit anderen Worten: Jeder Kubik-Femtometer Plasma enthielt wenigstens 1 Quark oder Antiquark.
     
    Erst als — der stetigen Ausdehnung des Raumes wegen — diese Dichte nicht mehr gegeben war, mussten die Quarks sich gruppieren zu Nukleonen (= je 3 Quarks) oder Mesonen (= je 1 Quark und 1 Antiquark) oder mussten sich mit einem Antiquark annihilieren, woraus dann Photonen entstanden: erste Strahlung.
     
    Jede jetzt existierende Gruppe von Quarks musste farbneutral sein und ist vergleichbar mit einem Stabmagnet, dessen Pole sich ja auch nicht trennen lassen.
     
    Schon im Plasma aber galt: Quarks können nicht existieren ohne ständig mit anderen Quarks Gluonen passender Farbladung auszutauschen — jenen anderen Quarks also auch entsprechend nahe zu sein: Die starke Wechselwirkung hat nur sehr kurze Reichweite.
     
    Mehr als 1 Femtometer von einander entfernen lassen sich nur farbneutrale Gruppierungen von Quarks: Mesonen und Nukleonen. Da freie Neutronen nur eine mittlere Zerfallszeit von etwa 15 Minuten haben, entstanden jetzt auch Elektronen und Neutrinos (= "leichte Elektronen").
     
     
    Wir sehen: Materie und Antimaterie haben zunächst nur in Form von Quarks und — etwas später — Leptonen und Nukleonen existiert. Da sie farbneutral sind, sich also nicht stets durch Austausch von Gluonen "an der Hand halten" müssen, konnten sie sich weit von einander entfernen, so dass nun auch leerer Raum entstand.
     
     
     

     
     
     
    So etwa zwischen 10-5 und 1 sec nach dem Urknall (der sog. Hadronen-Ära) haben sich — durch Annihilation — fast alle Paare von Hadronen und Antihadronen in Strahlung aufgelöst.
     
    In den etwa 10 Sekunden danach (der sog. Leptonen-Ära) geschah dasselbe mit Leptonen und Antileptonen, da die Temperatur nun schon zu niedrig war, als dass sich neue solcher Paare hätten bilden können.
     
    Dieser Prozess hat eine gewaltige Menge von Photonen erzeugt, so dass das Universum seitdem strahlungsdominiert ist.

       
      Warum es ein klein wenig mehr Materie als Antimaterie gab, ist bis heute unklar. Ohne diese marginale Unsymmetrie wäre das Universum heute nur mit Photonen gefüllt — Atome, Sterne oder gar Menschen gäbe es dann nicht.

     
    Obgleich die Zahl der Quarks im Universum sich seit jener Zeit kaum mehr verändert hat, haben — der Expansion des Raumes wegen — die Photonen ständig an Energie verloren.

     
     
     
    Wie erklären sich Masse und die Vielfalt der Elementarteilchen?

     
     
    Was wir als Masse bezeichnen, etwa als Masse der Quarks, ist eine durch Emergenz entstandene Eigenschaft:
     
    Direkt nach dem Urknall hatten selbst Quarks noch keine Masse. Erst als die Dichte im Plasma abnahm, die Gluonen dann also an ihnen zu "ziehen" begannen, bekamen Quarks Masse, deren Wert sich in Mesonen und Nukleonen dann schließlich auf 300 MeV erhöht hat. Masse ist stets effektive Masse (nicht aber eine Grundeigenschaft der Elementarteilchen).
     
     
     
    Wie die Teilchenphysik uns bewies, gibt es heute Teilchen recht unterschiedlicher Arten. Diese Vielfalt aber — davon geht man aus — hat sich erst im Laufe der Zeit entwickelt: So wie sich sämtliche Lebewesen aus wohl nur einer einzigen Urform entwickelt haben, könnte es zunächst auch nur eine einzige Art von Teilchen gegeben haben.
     
    Modelle, welche dies plausibel machen wollen, sind neben der Stringtheorie
       
    •   die wenigstens 42 Varianten der sog. GUT-Theorie ( "große vereinheitlichte Theorie" ), welche sich bisher aber noch in vielen Details widersprechen,
       
    •   sowie SUSY ( die Idee sog. "Supergravitation" ), die — sollte sie sich bestätigen — eine noch weitergehende Vereinheitlichung als die GUT darstellen würde:

    In GUT möchte man alle Fermionen ebenso wie alle Botenteilchen auf jeweils eine einzige Urform zurückführen, in SUSY aber sogar alle Teilchen als unterschiedliche Ausprägungen eines einzigen Urteilchens erkennen.
     
     
     
    Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 48-61


     

     Beitrag 0-435
    Wie entstanden die Grundbausteine der Materie unseres Universums?

     
     

     
    Wie entstanden die Grundbausteine aller Materie unseres Universums?



    John D. Barrow erklärt (2011):
     
    Der Quantenphysiker Erwin Schrödinger machte eine Entdeckung, die — obgleich man sie damals wenig gewürdigt hat — als sehr wichtig erwies:

     
    Die Expansion kosmischen Raumes kann
     
    Vakuumenergie in reale, d.h. einzeln beobachtbare, Teilchen überführen:

     
    Gibt es keine Expansion, entstehen zwar auch fortwährend in sehr großer Menge Paare von Teilchen und Antiteilchen — fast alle aber existieren nur extrem kurze Zeit und können sich deswegen kaum von ihrem Partner entfernen. Sie werden deswegen fast alle durch Annihilation in Strahlung verwandelt.
     
      Dehnt das Vakuum sich aber schnell genug aus — oder steht es unter dem Einfluss von Gravitationskräften, die sich über kurze Strecken hinweg stark ändern —, können die dem Vakuum entsprungenen Teilchen und Antiteilchen so unterschiedlich starken Kräften ausgesetzt sein, dass sie von einander getrennt werden noch bevor sie sich vereinigen und in Strahlung auflösen können.
       
      Ergebnis sind dann real existierende Teilchen und Antiteilchen mit einer Lebensdauer, die durch ihre artspezifische mittlere Zerfallszeit bestimmt ist.

     
    Schrödinger nahm damals nicht an, dass dieser Prozess wichtig sei, denn seine Auswirkungen in der Gegenwart sind unmessbar klein und schienen für das Verständnis der Expansion des Universums irrelevant zu sein.
      Erst ein Durchdenken der Inflationstheorie von Alan Guth (1982) hat klar gemacht, welche grundsätzliche Bedeutung der Vorgang hat:
       
      In unserem Universum war — in den ersten Augenblicken der Inflationsphase, als die Strahlungsdichte etwa 10120 mal größer war als heute — die von Schrödinger beschriebene Teilchenproduktion von großer Bedeutung. Erst sie kann gewisse Eigenschaften unseres Unversums problemlos erklären.

     
    Die verblüffende Erzeugung überlebensfähiger Teilchen und Antiteilchen in einem expandierenden Universum wurde erst ab Mitte der 1970-er Jahre gezielt und eingehend untersucht (nachdem Hawking die dramatische Entdeckung gemacht hatte, dass dieser Prozess auch am Rande jedes Schwarzen Lochs stattfindet und schließlich bewirkt, dass dessen gesamte Masse verschwindet [ Hawking: Black Hole Explosions, in: Nature 248 (1974), S. 30-31 ].)
     


     
    Quelle: John D. Barrow: Das Buch der Universen (2011), S. 122-123


     

     Beitrag 0-359
    Gibt es noch irgendwelche Zweifel an der Urknall-Theorie?

     
     

     
    Wie weit sind Entstehung und Evolution des Universums schon geklärt?

     
    Obgleich die Urknalltheorie
       
    • derzeit als konkurrenzlos gilt
       
    • und sich ständig mehr Erkenntnisse ergeben, welche sie als richtig erscheinen lassen (etwa die erst 2016 gelungene Entdeckung von Sternen der Poulation III),
       
    • gibt es doch auch einige astronomische Beobachtungen, welche zeigen, dass die Theorie noch nicht ganz zu Ende gedacht sein kann.
       
    • Es scheint z.B. nicht ausschließbar, dass unser Universum noch einige Milliarden Jahre älter sein könnte als heute immer wieder errechnet wird: [1], [2].
       
      So deuten etwa chemische Isotopenanomalien in auf die Erde gefallenen Meteoritenresten darauf hin, dass jenes Gestein zwischen 15 und 18 Mrd. Jahre alt ist.
       
      Zudem scheinen die ältesten Sterne in den Kugelsternhaufen unserer Galaxie sogar 18 bis 20 Mrd. Jahre alt zu sein.

     
    Der renommierte Bonner Astronom Hans Jörg Fahr hat alle in diesem Zusammenhang noch offenen Fragen — auch einige gravierende Widersprüche in bisher von der Mehrheit aller Astropysiker scheinbar widerspruchslos akzetierter Ergebnisse — zusammengetragen, eingeordnet und klar benannt in seinem Buch Mit oder ohne Urknall, das ist hier die Frage (aktualisierte Ausgabe von 2016).
     
     
    Fahr nimmt ganz offensichtlich Craig Hogan [H] ernst ebenso wie einige Argumente der Urknallgegner Fred Hoyle und Halton Arp, dem man irgendwann — trotz seiner früheren großen Leistung — nicht mal mehr Teleskopzeit zur Verfügung stellen wollte [ Seeing Red ].
     
     
    Besonders lesenswert in Fahrs Buch ist das Kapitel » Das kosmische Vakuum als energiegeladener Raum «.
     
    Insgesamt macht Fahr uns Lesern klar,
     
       
    • dass es durchaus noch ungeklärte Widersprüche der Theorie zu recht konkreten Beobachtungsdaten gibt
       
    • und Anzeichen dafür existieren, dass Astrophysiker die Evolution des Universums, ja sogar die kosmische Rotverschiebung /m, ganz sicher aber die Energie des Vakuums und wie sie wirkt noch keineswegs voll verstanden haben.

     
    Beispiele:

    Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 321-324 :
     
    Tatsache ist, dass es schwierig und fehleranfällig ist, Rotverschiebungen als Geschwindigkeiten korrekt zu deuten. Sie liegen ja nicht streng auf einer Trendgeraden, sondern streuen ganz erheblich um diese Gerade herum.
     
    Nur die wenigsten Galaxien, so schreibt Fahr, schwimmen genau mit dem Hubble-Fluß. Sie treiben vielmehr kreuz und quer dazu wie vom Hubble-Strom entkoppelte, in Wirbeln bewegte Objekte.
     
    Fahr schreibt wörtlich: "Das heißt aber doch, dass es hier gar keinen eindeutig zentrifugalen Bewegungsbefund gibt, den man trivial einfach zeitlich invertieren könnte. [ Und in der Tat: ] Wenn man Galaxien gleicher Entfernung bzw. gleicher Helligkeit studiert, findet man, dass die Rotverschiebungen dieser Objekte durchaus verschieden sind."
     
    Solche Aussagen machen uns klar, dass z.B. die derzeit immer wieder genannte Altersangabe für unser Universum (13.8 Mrd. Jahre) mit großer Ungenauigkeit behaftet sein könnte.
     
    Da man in den letzten Jahren Galaxien gefunden hat (Quasare), die scheinbar schon 700 000 Jahre nach dem Urknall existiert haben, obgleich Galaxien typischerweise ein Evolutionsalter von etlichen Milliarden Jahren haben, kommt vielen Astronomen nun halt doch der Verdacht, dass unser Universum einige Milliarden Jahre älter sein könnte als bisher errechnet.
     
    Hierfür spricht auch die Beobachtung, dass jene als so verdächtig jung eingestuften Galaxien schon "so alt" aussehen: Alt sehen Galaxien dann aus, wenn sie viel Staub beinhalten. Letzteres zeigt sich am Rotindex ihrer Emissionen, den man durch Farbfilterspektoskopie ermitteln kann. Junge Galaxien - insbesondere solche, die schon 700 000 Jahre nach dem Urknall existiert haben sollten - pflegen blaugewichtige Emissionen zu zeigen, zeigen hier aber eindeutig rotgewichtige, was für staubreiche galaktische Materie spricht, wie sie eigentlich erst nach Milliarden von Jahren in einer Galaxie entstanden sein kann.
     
    Wem da keine Zweifel an der Korrektheit bisheriger Interpretation von Beobachtungsdaten kommen, der muss schon ein begnadeter Glaubender sein.
     


     
    Man lese auch:
       
    • Anomale Rotverschiebung: Herausforderung für das Standardmodell der Kosmologie?
       
    • Seyfertgalaxien und sehr alte Quasare (= Galaxien, deren Kern wie ein Scheinwerfer wirkt, weswegen sie von sehr weit zu sehen sind).
       
    • Quasare sind aktive, d.h. Materie verschlingende supermassive Schwarze Löcher, deren nahe Umgebung derart aufgewühlt und aufgeheizt ist, dass sie als kosmischer Scheinwerfer wirkt.
       
      Es gibt aber auch Mini-Quasare. Dabei handelt es sich um ein normales Schwarzes Loch, dem irgendein größeres Objekt zu nahe gekommen ist; es gibt sie gelegentlich sogar in der Milchstraße. Wenn man nun aber bedenkt, dass sie Millionen Schwarzer Löcher hat, wird klar, dass solche Ereignisse eher selten und vergleichsweise schnell erledigt sein werden.
       
      Supermassive Schwarze Löcher, wie Sagittarius A*, könnten gut für kurze Zeit auch mal Quasare gewesen sein.
       
      Sobald Quasare ihre Umgebung (salopp gesagt) » leergefuttert « haben, existiert dort nichts mehr, das so aufgeühlt und aufgeheizt sein kann, dass es als kosmischer Scheinwerfer wirken könnte.
       
      Viele Quasare gehören zu den am weitesten von uns entfernten, gerade noch beobachtbaren Galaxien und scheinen sich im Zustand ab etwa 700 000 Jahre nach dem Urknall zu zeigen. [ ältester bekannter Quasar ]
       
    • Zusammenfassend gilt derzeit (2020):
       
      Determinations of the Hubble Constant based on the standard candles and the gravitationally-lensed quasars have produced figures of 73-74 kilometers per second per megaparsec.
       
      However, predictions of the Hubble Constant from the standard cosmological model when applied to measurements of the cosmic microwave background (CMB) – the leftover radiation from the Big Bang – produce a value of only 67.4 km/s/megaparsec.
       
      This significant and troubling difference of nearly 10%, which astronomers say is beyond the experimental errors in the observations, has serious implications for the standard model.


     

     Beitrag 0-366
    Rotverschiebung und minimale Dichteschwankungen in kosmischer Hintergrundstrahlung sprechen am deutlichsten für die Urknalltheorie

     
     

     
    Wie genau kennt man den ältesten,

    heute noch einsehbaren Zustand unseres Universums?

     
     
    Die älteste Strahlung, die uns erreicht — man nennt sie den kosmischen Mikrowellenhintergrund — zeigt uns den Zustand unseres Universums wie er etwa 380 000 Jahre nach dem Urknall vorlag.
     
       
    • Obgleich schon knapp 20 Jahre vorausgesagt, wurde diese Strahlung erst 1965 — durch Zufall — entdeckt.
       
    • In den Jahren 1989-1993 hat der Satellit COBE sie erstmals detailliert ausgemessen. Klar wurde: Die (heutige) Temperatur dieser Strahlung ist nicht wirklich konstant, sondern schwankt von Richtung zu Richtung um einige Hunderttausendstel Grad.
       
    • 2001 hat man das durch neues Messgerät — die Sonde WMAP — mit noch deutlich höherer Genauigkeit bestätigt gefunden (WMAP konnte Temperaturdifferenzen bis hinunter zu 1/20 Millionstel Grad unterscheiden).
       
    • Zwischen 2010 und 2013 hat eine Neuvermessung mittels des Forschungssatelliten PLANCK uns den kosmischen Hintergrund noch viel genauer bekannt gemacht:
       
      Während COBE nur Strukturen von minderstens 7 Grad Ausdehnung erfassen konnte, wurde mit PLANCK eine Auflösung von 5 bis 10 Bogenminuten erreicht.

       
       
      PIA16874-CobeWmapPlanckComparison-20130321
       
      NASA/JPL-Caltech/ESA [Public domain], via Wikimedia Commons
       
      Diese Bilder zeigen winzige Temperaturschwankungen von jeweils nur wenigen Millionstel Grad.
       
      Sie werden als Dichteschwankungen zu jener Zeit interpretiert.

     
    Die hohe Präzision der durch PLANCK gelieferten Messdaten hat eine Neuberechnung wichtiger kosmologischer Kennzahlen als sinnvoll erscheinen lassen. Auf diese Weise wurden korrigiert
       
    • das Alter des Universums auf 13.82 Mrd. Jahre (alter Wert: 13.7),
       
    • der Anteil baryonischer Materie an der gesamten Materiedichte auf 4.9 Prozent (alter Wert: 4.6),
       
    • der Anteil Dunkler Materie auf 26.8 Prozent (alter Wert: 23) und
       
    • der Anteil Dunkler Energie an aller Energie im Universum auf 68.3 Prozent (alter Wert: 72).

     
    Das Standardmodell der Kosmologie, worunter man die Urknalltheorie erweitert um die Inflationstheorie versteht,
       
    • ist heute zwar das einzige Modell, mit dem sich alle Beobachtungsergebnisse irgendwie erklären lassen,
       
    • ist aber im Detail — unter Theoretikern ebenso wie auch unter Astronomen — immer noch umstritten.

     
    Kritiker weisen darauf hin, dass es einige mehr oder weniger willkürliche Parameter gibt, mit denen die gemessenen Daten an das Modell angepasst werden.
     
    Es ist daher nicht uninteressant, dass die PLANCK-Mission auch einige Fakten zutage gefördert hat, die schlecht zum Standardmodell passen:
       
    • So scheint eine Himmelssphäre wider Erwarten stärkere Strukturen aufzuweisen als die andere.
       
    • Zudem fand man einen völlig kalten Fleck von ganz unerwarteter Größe.
       
    • Da die Datenauswertung extrem schwierig und natürlich auch entsprechend fehleranfällig ist, könnten sich hinter solch Ungereimtheiten durchaus auch Anzeichen auf eine noch erforderliche Revision des Standardmodells verbergen.
       
    • Torsten Enßlin — Leiter der deutschen Beteiligung an der PLANCK-Mission — räumt ein, dass man auch darüber nachdenken müsse.

     
     
    Quelle: Dieter B. Herrmann: Das Urknall-Experiment (2014), S. 175-179


     

     Beitrag 0-331
    Warum wir Raum und Zeit nicht beliebig genau auflösen können

     
     

     
    Warum heutige Physik Raum und Zeit nur bis hin zur Planckskala kennt

     
     
    Der Astrophysiker Günther G. Hasinger, Direktor am Max-Plack-Institut für extraterrestrische Physik in Garching, erklärt:
     


    Günther Hasinger (2007):
     
    Es gibt in der Quantenphysik eine kleinste Länge, unterhalb derer sich physikalische Vorgänge mit den heutigen Theorien nicht mehr sinnvoll beschreiben lassen: die Plancklänge, etwa 10-35 Meter.
     
    Jedes Objekt nämlich, dessen Durchmesser kleiner als die Plancklänge ist, muss [ nach Heisenbergs Unschärferelation ] eine Masse haben, die größer als die Planckmasse von etwa 22 Mikrogramm ist, was dieses Objekt zu einem Schwarzen Loch macht.
     
    Analog dazu gibt es die Planckzeit. Das ist der Zeitabschnitt, den das Licht benötigt, eine Plancklänge zu durchlaufen.
     
    Beides zusammen zeigt: Die Planckzeit ( = 10-43 sec ) ist der frühest mögliche Zeitpunkt, zu dem sich unser Universum ohne Quantengravitationstheorie beschreiben lässt.
     
    Zu diesem Zeitpunkt waren in jedem Raumbereich vom Durchmesser 1 Plancklänge 1019 GeV Energie konzentriert (was der Bewegungsenergie eines Autos von einer Tonne Gewicht entspricht, wenn es mit 220 km/h gegen eine Betonwand rast). Mit dieser Energie brennt eine 100-Watt-Lampe 8 Monate lang.
     


     
    Interessant in diesem Zusammenhang sind auch folgende Artikel. Sie machen klar, dass wir bisher nicht wissen, ob Zeit und Raum tatsächlich diskret sind (wie etwa die Theorie der Schleifenquantengravitation uns zu suggerieren scheint):

     

     Beitrag 0-299
    War ein Skalarfeld — das Inflatonfeld — Triebfeder der kosmischen Inflation?

     
     

     
    Das Inflatonfeld:

    hypothetische Triebfeder der den Urknall zündenden Inflationsphase

     
     
    Was Treiber der Inflation war, die dann schließlich im Urknall zum Stillstand kam, ist bis heute nicht bekannt.
     
    Man geht jedoch davon aus, dass Triebfeder der Inflation ein spontaner Symmetriebruch im sog.  I n f l a t o n f e l d  war. Es ist dies ein Skalarfeld, dessen Existenz man vermutet, aber (noch?) nicht als zwingende Konsequenz von Naturgesetzen erkennen kann.
     
    An die Existenz des Inflatonfeldes zu glauben, macht insofern Sinn, als
       
    • diese Idee einige kosmologische Fragen löst, auf die wir sonst keine Antwort hätten,
       
    • und die Superstringtheorie ja eine ganze Menge von Skalarfeldern kennt, so dass eines davon gut das Inflatonfeld sein könnte.

     
    Was aber ist nun ein spontaner Symmetriebruch in einem Skalarfeld?
      Unter einem Skalarfeld versteht man eine Funktion, die jedem Punkt der Raumzeit ein reelle Zahl zuordnet. Im Falle des Inflatonfeldes quantifiziert sie die Stärke einer Kraft, welche — wo stärker als die Gravitationskraft — zur Expansion des Raumes führt.
       
      Manche Autoren nennen sie negative Gravitation oder auch negativen Druck. Letzteres ist mathematisch begründet, ansonsten aber irreführend, denn schließlich lässt in einem Luftballon vorhandener Gasdruck den Luftballon größer werden. Man würde also erwarten, dass negativer Druck etwas in sich zusammenfallen ließe. In der Kosmologie aber ist genau das Gegenteil der Fall: Je schwächer jene Kraft, desto schneller expandiert der Raum.
       
      Mir erscheint es daher sinnvoller, sie Druck bzw. negative Spannung zu nennen (da Spannung in einem Gummiband das Band zu verkürzen sucht, man von negativer Spannung also das Gegenteil erwarten würde.
       
      Jedes Skalarfeld kann verglichen werden mit der Oberfläche einer hügeligen Landschaft. Liegt nun auf der Spitze eines der Hügel ein Ball, so stellt das beides dar: einen lokal recht symmetrischen Zustand und auch ein instabiles Gleichgewicht. Schon der kleinste Lufthauch kann dann dazu führen, dass der Ball aus dem Gleichgewicht gerät und dieses spontanen Symmetriebruchs wegen mit zunehmender Geschwindigkeit den Hügel hinunter rollt bis er dann schließlich – im Tal angekommen – dort in einer Mulde liegen bleibt (womit sich dann ein unsymmetrischer, aber deutlich stabilerer Zustand ergeben hat).

    Dieses gedankliche Bild – in dem das Fallen des Balles der sich entladenden negativen Spannung entspricht – macht sehr schön klar,
       
    • wie es zur Inflation gekommen sein könnte,
       
    • warum sie nur kurze Zeit anhielt,
       
    • aber doch unaufhaltsam war.

    Die fast vollständige Entladung lokal präsenter negativer Spannung während der inflationären Phase unseres Universums hat in noch nicht ganz 10-30 Sekunden sämtliche Entfernungen im All um mindestens den Faktor 1050, vergrößert.
     
     
    Der Astrophysiker Paul Davies erklärt es so:

       
      Während der Inflationsphase hat sich das Volumen jeder Raumregion alle 10-34 sec verdoppelt ( es ist dies eine Zeitspanne, in der das Licht noch nicht mal einen Atomkern ganz durchqueren kann ).
       
      Jede Art von Materie, die vor Beginn der Inflation existiert haben mag, wurde durch die Inflation auf verschwindend kleine Dichte gedehnt, so dass der Raum danach praktisch leer war — ein Vakuum.
       
      Die ungeheuere Energie aber, die während der Inflation im skalaren Inflationfeld steckte, musste beim Zusammenbruch des Feldes andere Form annehmen — und diese Form, so denkt man, war Wärme.
       
      Der nächste Schritt war dann die Umformung der Wärmeenergie in Materie: Einsteins Formel  E = mc2  sagt uns ja, dass Materie entstehen kann, solange nur ausreichend viel Energie verfügbar ist.
       
      Einsteins Formel zeigt, dass bei einer Temperatur von 1 Milliarde Grad — das ist die Temperatur des Universums etwa 1 Sekunde nach dem Urknall — genug Wärmeenergie vorhanden war, um Elektronen entstehen zu lassen. Noch früher war die Temperatur hoch genug, so dass auch massereichere Teilchen wie etwa Protonen entstehen konnten.
       
      Kurz: Zu Ende der Inflationsphase hat die aus dem Zusammenbruch des Inflatonfeldes resultierende Energie zu einer extrem hohen Temperatur von etwa 1027 Grad geführt — mehr als genug, um alle heute im Weltraum vorhandene Materie entstehen zu lassen.
       
       
      Der Zerfall des Inflatonfeldes ist ein Quantenprozess, dessen Beginn eine nicht vorhersagbare Quantenfluktuation darstellt.
       
      Hieraus ergibt sich, dass das Feld an verschiedenen Orten zu unterschiedlicher Zeit in zufällig verteilten Blasen zerfällt — in Raumblasen also, deren jede dann ein eigenes Universum (unserem vergleichbar) sein sollte.
       

      Quelle: Paul Davies: Der kosmische Volltreffer (2008), S. 86-89.
       
      Wer mehr wissen möchte, lese Andrej Linde: Elementarteilchenphysik und inflationäre Kosmologie (1990).

     
     
    Hinweis: Laien verstehen unter dem Urknall den Symmetriebruch, d.h. den Zeitpunkt, zu dem die inflationäre Phase unseres Universums begann. Unter Physikern aber wird es mehr und mehr üblich, erst das Ende der inflationären Phase als den Urknall zu sehen, da nämlich erst ab da unser Universum in einem Zustand war, den heutige Physik beschreiben und in modernen Teilchenbeschleunigern für winzige Bruchteile von Sekunden – seinen Eigenschaften nach – sogar rekonstruieren kann.

     

     Beitrag 0-290
    Die beiden bekanntesten Vorschläge, die Urknallsingularität aufzulösen

     
     

     
    Urknall oder Umschwung (Bounce)?

     
     
    Da die Urknalltheorie sich aus der Tatsache ergab, dass Einsteins Relativitätstheorie das durch Menschen beobachtbare Universum im Entstehen seines heutigen Zustands nur zurückverfolgen kann bis zu einem Zeitpunkt, in dem sein Durchmesser so in etwa dem eines Atoms entsprach, hat man sich schon sehr bald gefragt, wie es denn in diesen Zustand kam.
     
    Dies hat zunächst zur Idee geführt, dass es als Quantenfluktuation entstanden sein könnte, d.h. buchstäblich aus dem Nichts.
     
    Da nun aber nicht klar ist, wie weit über unseren Beobachtungshorizont hinaus es sich denn eigentlich erstreckt — es könnte ja z.B. sogar unendlich groß sein — war man schon bald zur sog. Inflationstheorie gekommen, die — zunächst vorgeschlagen durch Alan Guth — wenig Anklang fand, dann aber sehr plausibel wurde in einer Form, wie Andrei Linde und Aleander Vilenkin sie vertreten: als Theorie ewiger Inflation, nach der unser Universum sich infolge eines Symmetriebruchs im falschen, inflationierenden Vakuum ergab.
     
     
    In Konkurrenz zur Theorie ewiger Inflation aber stand und steht immer noch die Idee, dass sich unser Universum — mit dem Urknall als Brücke — als Neugeburt eines zuvor schon vorhandenen, kontrahierenden Vorgänger-Universums ergeben haben könnte.
     
    Die beiden bekanntesten dieser Ansätze sind:
       
    • einer, der i.W. auf Steven Hawking und auf Forscher, die mit ihm zusammengearbeitet haben, zurückgeht (entstanden schon in den 70-er Jahren, wurde er mehrfach modifiziert und überarbeitet; seit 2008 kennt man ihn als das Bounce-Modell von Hawking, Hartle und Hertog)
       
    • und ein weiterer, den 2002 Martin Bojowald entdeckt hat bei einem Versuch, Einsteins Theorie so zu ergänzen, dass sie auch Aussagen für eine mögliche Zeit vor dem Urknall liefern kann.

    Beide Ansätze beseitigen die Urknallsingularität.
     
    Im Ansatz von Hawking, Hartle und Hertog wäre das Inflaton so eine Art Brücke zwischen einem in sich zusammenstürzenden Raum und dem unseren, der expandiert. Kosmologen nennen das einen Bounce (zu deutsch Umschwung oder Urschwung).
     
    Wie die durch Hawking, Hartle und Hertog angestellten Rechnungen nun aber gezeigt haben, müsste die Zeit im Vorgänger-Universum — wenn man sie als thermodynamischen Zeitpfeil begreift — in umgekehrter Richtung vergangen sein. Da Bojowalds Theorie zum selben Schluss kommt, könnte jener Bounce dann aber wohl auch ein Urknall gewesen sein, aus dem gleich beide Universen entstanden ( und vielleicht noch mehr? ).

     

     Beitrag 0-254
    Was direkt nach dem Urknall geschehen sein muss

     
     

     
    Die ersten Sekunden
     
    und die ersten 280 000 Jahre nach dem Urknall

     
     
    Bei etwa 1012 Kelvin — etwa 1/10000 sec nach dem Urknall
      hat das Teilchenplasma in etwa noch die Dichte heutiger Atomkerne ( etwa 0.01 bis 0.1 GeV/fm3 ).
       
      Dies hat zur Folge, dass sich fast noch alle Teilchen — ganz unabhängig von ihrer Art — im thermischen Gleichgewicht befinden — und das gilt bei solcher Temperatur sogar noch für Neutrinos. Sie alle tauschen daher noch ständig Energie untereinander aus und wandeln sich in einander um. Höchstens die Teilchen dunkler Materie könnten sich hier schon abgekoppelt haben.
       
      Abkopplung bedeutet, dass Teilchen bestimmter Art zu einem Eigenleben finden und nur noch per Gravitation durch andere beeinflussbar sind.
       
      In diesem noch sehr heißen, dichten Stadium sind die leichtesten Teilchen die häufigsten, denn sie können massenweise aus Kollisionsenergie gebildet werden. Photonen, Neutrinos, Elektronen und Positronen sind daher noch weit häufiger als Nukleonen. Protonen und Neutronen wandeln sich noch ständig in einander um. So kann z.B. ein Proton ein Elektron einfangen und sich unter Aussendung eines Elektron-Neutrinos in ein Neutron verwandeln. Umgekehrt kann ein Neutron und ein Positron zu einem Proton und einem Elektron-Antineutrino werden.
       
      Bei zunehmend sinkender Temperatur wird dann aber wichtig, dass Protonen etwas leichter sind als Neutronen, und so kommen sie immer häufiger vor, da die thermische Energie immer seltener ausreicht, die schwereren Neutronen zu erzeugen. Es gibt jetzt etwa 1.5% mehr Protonen als Neutronen.

    Bei etwa 1010 Kelvin — etwa 1 sec nach dem Urknall
      ist die Materiedichte nur noch etwa 100 000 Mal so große wie die von Wasser. Die thermische Energie liegt nun in einem bereich, der für Kernreaktionen typisch ist. Nun gibt es schon 3 Mal mehr Protonen als Neutronen.
       
      Dichte und Temperatur sind nun so weit abgesunken, dass sich der flüchtige Charakter der Neutrinos bemerkbar macht: Sie koppeln sich jetzt ab und durchqueren seitdem durch fast nichts mehr aufhaltbar den Raum.

    Nur wenig später – bei etwa 5 Milliarden Kelvin
      reicht die mittlere Teilchenenergie nicht mehr aus, Elektron-Positron-Paare zu bilden. Da sich ständig große Mengen solcher Paare vernichten, verschwinden sie schnell fast vollständig, wobei aber ein winziger Überschuss an Elektronen (1 aus 1 Milliarde) zurückbleibt. Sie werden später die Hüllen der Atome bilden. Es müssen dabei ebenso viele Elektronen wie Protonen übgrig geblieben sein, denn unser Universum ist insgesamt elektrisch neutral.

     
    Etwa 1 Stunde nach dem Urknall
      sind 1/8 aller Nukleonen Neutronen. Jedes Paar dieser Neutronen hat sich schon mit einem Paar von Protonen zu einem Heliumkern gebunden. Nur recht sporadisch gibt es auch schon wenige Kerne von Deuterium, Tritium, Helium-3, Beryllium-7, Lithium-6 und Lithium-7. Das Verhältnis der chemischen Elemente liegt somit schon fest und wird sich erst sehr viel später langsam wieder ändern: Erst dann, wenn im Inneren von Sternen erneut sehr große Dichten und entsprechend hohe Temperaturen auftreten.
       
      Aus dem damaligen Proton-Neutron-Verhältnis von 7 zu 1 folgt, dass der Gewichtsanteil von Helium bezogen auf das Gesamtgewicht aller Atome damals 25% betrug. Die restlich 75% waren fast ausschließlich Wasserstoff (der Anteil anderer Atome war zu gering, um nennenswert zu sein).
       
      An diesem Verhältnis hat sich bis heute nur wenig verändert: In unserem Sonnensysten verteilt sich Masse wie folgt:
         
      • 70.57 % sind Wasserstoff 1,
         
      • 27.52 % sind Helium 4.
         
      • Alle anderen Atome zusammen machen nur 2 % aus und müssen noch vor Entstehung der Sonne in den Zentren anderer Sterne entstanden sein.

    Bei etwa 10 000 Kelvin — rund 60 000 Jahre nach dem Urknall
      gerät unser Universum von einem strahlungsdomierten in einen materiedominierten Zustand: Vorher war die Energiedichte der Strahlung (Photonen und Neutrionos) größer als die Dichte der die Ruhemasse aller damals schon existierenden Materieteilchen darstellendien Energie (dunkle Materie mit eingeschlossen).
       
      Ganze Atome — und damit elektrisch neutrale Teilchen gewöhnlicher Materie — gab es damals aber noch nicht. Damit sie entstehen konnten, musste sich die Temperatur noch weitere 220 000 Jahre verringern, bis hinunter auf etwa 3000 Kelvin.
       
      Das Universum besteht dann aus
         
      • 63 % dunkler Materie
         
      • 12 % Protonen, Elektronen und Heliumkernen
         
      • 15 % Photonen
         
      • 10 % Neutrinos

    Erst etwa 280 000 Jahre nach dem Urknall entstehen Atome.
      Sie sind elektrisch neutral, und so kann sich Licht nun erstmals geradlinig ausbreiten.

     
    Note: Die Expansion des Raumes streckt sämtliche Wellen darin — vergrößert also die Wellenlänge nicht nur von Photonen, sondern grundsätzlich aller Quanten. Daher kommt es, dass die kosmische Hintergrundstrahlung heute nur noch eine Temperatur von 2.73 Kelvin hat.
     
    Ohne Berücksichtigung der dunklen Energie im Vakuum ist die Strahlungsdichte heute 3750 Mal kleiner als die Dichte der Ruheenergie aller hellen und dunklen Materie.

     
     
    Quelle: Jörg Resag: Zeitpfad — Die Geschichte unseres Universums und unseres Planeten, Springer Spekrum 2012


     

     Beitrag 0-96
    Wie es durch Symmetriebrüche zur heutigen Form unseres Universums kam

     
     

     
    Vom Eiswürfel zur Ursuppe und zurück

     
     
    Nach einer oft zitierten Philosophie durchlaufen alle Objekte (Dinge, Menschen, Gase, ja sogar das Universum selbst) eine Reihe von Stadien. Es sei dabei jedes Stadium durch einen Konflikt zwischen zwei gegenläufigen Kräften charakterisiert. Ist der Konflikt gelöst — was meist explosionsartig passiert —, gelangt das Objekt in ein nächstes Stadium, Synthese genannt. Langsam aber immer deutlicher werden aber auch dort Widersprüche erkennbar, so dass der Prozess auf einer höheren Ebene neu beginnt ...
     
    Philosophen bezeichnen dies als den Übergang von Quantität zu Qualität: Es kommt es zu mehr und mehr kleinerer Veränderungen, bis sich schließlich explosionsartig ein qualitativer Bruch mit der Vergangenheit ergibt.
     
    Auch für Gesellschaften gilt diese Theorie (man denke da z.B. an die Französische Revolution).
     
     
    Wie schon angedeutet, geschieht der Pasenübergang meist explosionsartig. Wo sich z.B. ein Fluss aufstaut, bildet sich hinter dem Staudamm rasch ein größer und größer werdender See, der enormen Druck aufbaut — bis der Damm dann schließlich bricht.
     
    Gewöhnlich sind solche Phasenübergänge von einem Symmetriebruch begleitet, der schwer rückgängig zu machen ist. Und so ist der Zustand maximaler Symmetrie häufig instabil.
     
     
    Bei ihren Untersuchungen der Superstringtheorie sind die Physiker zur Vermutung gelangt — ohne sie bislang beweisen zu können —, dass das ursprünglich 10-dimensionale Universum instabil gewesen sein müsse und sich dann durch Tunneleffekt in ein vier- und ein sechs-dimensionales aufgeteilt haben könnte, so dass wir heute einen gebrochenen Zustand des wirklichen Vakuums erleben.
     
     
     
    Im Versuch, darüber nachzudenken, wie sich der ursprüngliche, voll symmetrische Zustand wieder herstellen ließe, betrachten wir einen Eiswürfel in einem abgeschlossenen Behälter, von dem wir annehmen, dass er immer weiter, über alle Grenzen hinweg, erwärmt wird. Was passiert?
     
    Nun, es wird zu einem Phasenübergang nach dem anderen kommen:

       
    • Zuerst wird das Eis zu Wasser,
       
    • dann das Wasser zu Dampf.
       
    • Schließlich zerfallen die Wassermoleküle (die Energie der Meleküle übersteigt ihre Bindungsenergie, so dass sie sich in die elementaren Gase Wasserstoff und Sauerstoff spalten).
       
    • Wenn schließlich 3000 Grad K überschritten sind, werden aus die Wasserstoff- und sauerstoffatome zerrissen: Ihre Elektronen befreien sich vom Kern, so dass wir jetzt ein Plasma (ionisiertes Gas) vorliegen haben.
       
    • Erhitzt man es weiter, und wird schließlich so etwa 1 Billion Grad K erreicht, so werden auch die Atomkerne selbst zerrissen, und wir haben ein aus freien Neutronen und Protonen bestehendes Gas — ein Plasma — ähnlich dem, wie es im Inneren eines Neutronensterns vorliegt.
       
    • Bei weiterer Erhitzung über 10 Billionen Grad hinweg zerfallen diese Nukleonen weiter, so dass wir dann ein Gas freier Quarks, Elektronen und Neutrinos haben.
       
    • Bei Temperaturen über 1 Billiarde Grad schließlich kommt es zu einer Vereinigung der der elektromagnetischen mit der schwachen Kernkraft und es tritt die Symmetrie SU(2) × U(1) auf.
       
    • Zu einer Vereinigung der elektroschwachen und der starken Kernkraft kommt es bei etwa 1028 Grad, und es zeigen sich dann die GUT-Symmetrien: SU(5), E(10) oder E(6).
       
    • Bei unvorstellbaren 1032 Grad schließlich vereinigt sich die Gravitation mit der GUT-Kraft, und alle Symmetrien des 10-dimensionalen Superstrings treten zutage. Man hat jetzt ein aus Superstrings bestehendes Gas, welches so energiereich ist, dass sich sogar die Geometrie der Raumzeit verwerfen und ihre Dimensionalität sich verändern könnte.

     
     
    Wenn wir den Prozess umkehren, ist zu erwarten, dass wir sehen,
     
     
    Wie sich der Urknall als eine Folge verschiedener Phasenübergänge vollzogen hat:

       
    • 10-43 sec: Das 10-dimensionale Universum teilt sich in ein 4- und ein 6-dimensionales. Während das 6-dimensionale zu einer Größe von 10-32 Zentimetern kollabiert, bläht sich das 4-dimensionale rasch auf. Seine Temperatur beträgt jetzt 1032 Grad K.
       
    • 10-35 sec: Die GUT-Kraft zerbricht, so dass die starke Kernkraft nun nicht mehr mit der elektroschwachen Wechselwirkung vereint ist. SU(3) fällt aus der GUT-Symmetrie heraus. Ein kleiner Fleck im Universum wird um einen Faktor von 1050 aufgebläht und entwickelt sich schließlich zu dem, was wir als das uns sichtbare Universum kennen.
       
    • 10-9 sec: Jetzt ist die Temperatur auf 1015 Grad K gefallen. Die elektroschwache Symmetrie bricht auseinander in SU(2) und U(1).
       
    • 10-3 sec: Quarks beginnen sich zu Neutronen und Protonen zusammenzufinden. Die Temperatur beträgt etwa 1014 Grad K.
       
    • 3 Min: Protonen und Neutronen fügen sich zu stabilen Kernen zusammen. Die Energie zufälliger Stöße ist nun nicht mehr groß genug, diese Kerne wieder auseinander zu reißen. Noch immer ist der Raum undurchlässig für Licht, weil Ionen das Licht nicht gut übertragen.
       
    • 380.000 Jahre: Rund um die Kerne beginnen sich Elektronen zu sammeln. Nach und nach bilden sich Atome. Da sie elektrisch neutral sind, wird Licht nun kaum mehr gestreut (so dass wir heute ab da entstandene großräumige Strukturen sehen können).
       
    • 3 Milliarden Jahre: Die ersten Quasare entstehen.
       
    • 5 Milliarden Jahre: Es bilden sich Galaxien.
       
    • Nach mehr als 10 Milliarden Jahren: Unser Sonnensystem entsteht und wenige Milliarden Jahre später treten auf der Erde die ersten Lebensformen auf.


    Michio Kaku kommentiert:
     
    Es erscheint fast unvorstellbar, dass wir — eine intelligente Affenart auf dem dritten Planeten eines unbedeutenden Sterns in einer unbedeutenden Galaxie — in der Lage sein sollten, die Geschichte des Universums fast bis zum Augenblick seiner Entstehung zurückzuverfolgen — bis hin zu einem Moment, wo Temperatur und Druck alles übertraf, was unser Sonnensystem je erlebt haben kann.
     
    Und doch ergibt sich aus der Theorie der schwachen, der elektromagnetischen, und der starken Wechselwirkung eben dieses Bild.
     


     
    Die durch den COBE-Satelliten ab 1989 gesammelten Daten haben bewiesen, dass wir den Ursprung des Universums bis auf Bruchteile einer Sekunde nach dem Urknall verstehen. Es bleibt jedoch die Frage, was vor dem Urknall war und was ihn verursacht hat. Geht man an die Grenzen der Allgemeinen Relativitätstheorie, so erhält man letztlich sinnlose Antworten, denn im Augenblick des Urknalls dürften Quanteneffekte vorgeherrscht und sich der Gravitation gegenüber durchgesetzt haben.
     
     
     
    Quelle: Michio Kaku: Die Physik der unsichtbaren Dimensionen, Rohwohlt 2013, S. 337-342


     

     Beitrag 0-356
    Könnte es gar keinen Sinn machen, nach dem Zustand des Universums vor dem Urknall zu fragen?

     
     

     
    Welchen Sinn macht es,

    nach dem Zustand unseres Universums vor dem Urknall zu fragen?

     
     
    Hans Jörg Fahr (ein Professor für Astronomie an der Universität Bonn) hat eine interessante Idee zur Diskussion gestellt:
     


    Hans Jörg Fahr in Mit oder ohne Urknall (2016), S. 6 :
     
    Wir können nicht ausschließen, dass das Universum [ gemeint ist das möglicherweise unendlich weite Weltall ] ein chaotisches System ist mit unüberschaubar vielen multikausalen, nicht-linearen Ursache-Rückkopplungen. Chaostheorie würde das einen kosmischen Attraktorzustand nennen.
     
    Wenn dem so sein sollte, würde es keinen Sinn machen, danach zu forschen, was vor dem Urknall für ein Zustand existiert hat, denn alle nicht-linear-chaotischen Systeme lassen ihre Anfänge in völlige Vergessenheit zurücktreten.
     
    Man sieht ihnen ihre Anfangszustände einfach nicht mehr an: Das vor dem Betrachter ablaufende Weltgeschehen liefert keinerlei Hinweise mehr auf irgendwelche Anfangszustände. Es gibt zwar lokales Mikrogeschehen, aber die großräumige Strukturbeschaffenheit wird dadurch nicht, oder kaum, beeinflusst. Sie hält sich über alle Zeiten hinweg.
     
    Zum Vergleich denke man ein ein Gas im theormodynamischen Gleichgewicht: Sein Makrozustand ändert sich nicht mehr — und doch bewegen sich all seine Moleküle ständig.
     
     
    Schönes Beispiel für solche Situation ist das metereologische Geschehen auf unserer Erde: Niemand kommt auf die Idee, einen Anfangszustand des Wetters zu suchen. Die einzig sinnvolle Frage ist, wie sich aus dem heutigen Wetter das von morgen oder übermorgen ergibt.
     


     
    Quelle: Hans Jörg Fahr: Mit oder ohne Urknall (Springer Spektrum 2016)
     


     

      Beitrag 52-13
    Was ist im Urknall wirklich passiert?

     
     
    Quante in 52-8:
     
    Zugleich verstößt die Urknalltheorie auch gegen ganz andere anerkannte physikalische Lehrsätze, z.B. dem Energieerhaltungssatz der da lautet. "In einem abgeschlossenen System ist die Summe aller Energien konstant. Die Gesamtenergie bleibt erhalten." Energie kann also weder verloren gehen noch kann sie geschaffen werden, aber beim Urknall, der Singularität, da haben andere Gesetze gelten lassen...dürfen, die wir nicht kennen.


    Die Urknalltheorie verstößt keineswegs gegen den Energie-Erhaltungssatz — schon allein deswegen nicht, da sie nicht voraussetzt, dass unser Universum etwas in sich Abgeschlossenes darstellt oder zu Beginn des Urknalls dargestellt hätte.


    Man sollte den Urknall nicht als allererstes Ereignis im Kosmos sehen, sondern einfach nur als ein Ereignis, welches etwas schon Existierendes zu dem gemacht hat, was wir als das Universum, in dem wir leben, sehen.

    Bedenke auch: Innerhalb des Beobachtungshorizonts von uns Menschen liegt wohl nur ein sehr kleiner Teil dessen, was im Urknall neue Form bekam. Wir können nicht wissen, wie sich der im Zuge des Urknalls so schnell expandierende Teil des Universums in den Kosmos als Ganzes einbettet.

    Eine Theorie hierfür gibt es dennoch schon: Die Theorie ewiger Inflation

     

      Beitrag 52-14
    Wir wissen nicht, in welchem Sinne unsere Zeit unendlich sein könnte

     
     
    Quante in 52-8:
     
    Denn auch Gott muss es ja schon seit ewiger Zeit und für ALLE Zeit geben, denn ansonsten sei die Frage seiner Entstehung hiermit gestellt.


    Das Problem ist, dass wir ja noch nicht mal wissen, was Zeit (in unserem Sinne) wirklich ist.

    So wie man unendlich große mathematische Räume (Unendlichkeiten also) in immer noch größere einbetten kann — sogar in solche, die in einem Sinne unendlich groß, in einem anderen aber von endlichem Durchmesser sind — könnte es doch auch im Spezialfall rein zeitlicher Dimensionen sein.

    Es könnte also sehr gut sein, dass sich jede Ewigkeit in eine noch weit größere Ewigkeit als Teilintervall "endlicher" Länge einbetten lässt.


    Als Ewigkeit bezeichne ich alles, was aus zeitlicher Sicht unendlich groß ist (in dem Sinne, dass es dort zu jedem Ereignis E immer noch ein ihm zeitlich vorausgehendes gibt).

    Beispiel einer Menge, die unendlich groß ist, aber doch nur endlichen Durchmesser hat, wäre die Menge aller reellen Zahlen, die größer als 0 und kleiner als 1 sind.
    Warum sollte Zeit in unserem Sinne nicht diesem Zahlintervall entsprechen können und Zeit im Sinne der Schöpfung z.B. der Menge  a l l e r  reellen Zahlen?

     

      Beitrag 52-20
    -

     
     
    Harti in 52-18:
     
    Ich bin der Auffassung Raum und Zeit sind die begrifflichen Koordinaten, mit denen wir Veränderungen in unserer Umwelt erfassen, beschreiben, uns darüber verständigen.. Deshalb können wir Raum und Zeit auch mathematisch in einem kartesischen Koordinatensystem, da sie begrifflich als Gegensätze vorgestellt werden, beschreiben.


    Hallo Harti,

    auch ich vermute, dass die Zeit eine rein nur begrifflich existierende Größe ist.

    Der Raum aber existiert schon wirklich konkret. Aber Du hast natürlich recht, dass die 3 Raumdimensionen in Sinne der ART nur begriffliche Größen sind. Ich halte es für gar nicht ausgeschlossen, dass der Raum in Wirklichkeit mehr als nur 3 Dimensionen hat (selbst die Zeit, die man heute noch als 1-dimensional sieht, könnte in Wirklichkeit unendlich viele Dimensionen haben).

    Gruß, grtgrt
     

      Beitrag 52-22
    -

     
     
    Quante in 52-8:
     
    Aber nein, es wird immer fleißig weiter postuliert Raum und Zeit seien mit dem Urknall entstanden bzw. in neueren Postulaten wird behauptet, der Urknall habe an allen Orten des Universums gleichzeitig stattgefunden. Wau!

    Quante in 52-17:
     
    Wenn mittels des Urknalls vermittelt wird, mit ihm seien zugleich Raum und Zeit, von mir aus auch Raumzeit erst entstanden und die Frage gestellt wird, wo denn dieser Urknall stattgefunden habe, wenn es weder Raum noch Zeit gab, dann kommt als Antwort, der Urknall habe an allen Orten gleichzeitig stattgefunden.


    Hallo Quante,

    die Aussage, der Urknall habe an allen Orten des Universums stattgefunden, ist so zu verstehen, dass alle uns heute bekannten "Orte" im Universum direkt im Urknall unendlich kleinen Abstand voneinander hatten: d.h. gar keinen Abstand oder nur einen, der so klein war, dass keine heute bekannte physikalische Theorie ihn noch sinnvoll aufzulösen in der Lage ist.

    Die noch im Urknall einsetzende Expansion des Raumes hat diese kaum vorhandenen Abstände
    • zunächst extrem schnell,
    • dann zunehmend langsamer
    • und dann (nach etwa 7 Mrd. Jahren) bis heute wieder mit ständig zunehmender Geschwindigkeit
    auf riesige Entfernungen vergrößert, so dass wir uns heute kaum noch vorstellen können, dass all diese Orte urprünglich ununterscheidbar nahe beisammen lagen, also buchstäblich nur ein einziger waren.

    Gruß, grtgrt

     

      Beitrag 1999-1
    Unser Universium: In unterschiedlichster Form codierte Information

     
     

    Der Urstoff des Universums: Protyposis


    Erste Erwägungen für eine Begründung der Physik auf der Basis binärer Alternativen — Bits und QuBits, Information also — stammen aus den 50-er Jahren von Carl Friedrich von Weizäcker (seine "Ur-Alternativen" nennt man heute QuBits). Weizäcker schrieb:


    Materie und Bewegung sind  Form  — Masse und Energie sind  Information .


    Aus meiner Sicht folgt daraus:

    Jede Form – d.h. jedes Erscheinungsbild der Natur – ist  Codierung  von Information.



    Thomas Görnitz war über 2 Jahrzehnte hinweg enger Mitarbeiter von Weizäcker und wurde später zum Verwalter seines geistigen Erbes (und das keineswegs nur als Vorsitzender der Carl Friedrich von Weizäcker Gesellschaft).

    Zusammen mit seiner Frau Brigitte hat Görnitz 2008 das Buch Die Evolution des Geistigen veröffentlicht.

    ber einiges, was die beiden da so schreiben, könnte man trefflich diskutieren. So etwa über diesen Gedanken:


    Information, so Görnitz, ist etwas, das durch eine unauflösliche Verbindung mit » Codierung « gekennzeichnet werden kann. Da Codierung aber Information über Information ist, mache das den selbstbezüglichen Charakter der Information deutlich.

    Zitat von Görnitz, S. 21:
     
    Wenn der Urgrund des Seienden letztlich als Information qualifiziert werden kann und wenn zum Wesen des Seienden das Entstehen von Fülle gehört, dann wird die Menge möglicher Information im Kosmos wachsen. ... Damit muss die kosmische Entwicklung nicht mehr als eine » ziellose Angelegenheit « erscheinen, wie manche Evolutionsbiologen meinen.

    Was er damit sagt, ist letztlich:

    Die Fülle unserer Welt besteht in der wachsenden Fülle unterschiedlichster Codierungen,
    in deren Gestalt unsere Welt ausmachende Information sich präsentiert:


    Information, die codierte Information darstellt, wird ebenfalls codiert mit dem Effekt,
    dass sich so immer neue, vorher nicht gekannte Formen ergeben.



    Eine recht große Verständnishürde für das neue Konzept der Materie bestehe darin, dass bei der Quanteninformation nicht nur von Sender und Empfänger, sondern zudem noch von Bedeutung abstrahiert werden müsse. Um die fast unvermeidbare Assoziation von "Information" zu "Bedeutung" zu unterbinden, bezeichnet Görnitz die abstrakt gemeinte Quanteninformation — die er dann offenbar nur als Menge von QuBits sieht — als Protyposis (was im Wortstamm eindrücken, prägen, eine Vorstellung von etwas Zukünftigem geben bedeutet). Er will damit deutlich machen, dass der Protyposis eine Form eingeprägt wird.


    Protyposis meint  m ö g l i c h e  Gestalt:

    nicht notwendig von Materiellem, sondern auch von Gedanklichem – eine Entität, die möglicherweise bedeutungsvoll wird.


    Protyposis sei die eigentliche Grundsubstanz alles Seienden, denn sie kann in speziellen Zuständen zu all dem "kondensieren", was Physiker z.B. Elementarteilchen, Molekül, Materie oder physikalischen Prozess nennen.


    Gebhard Greiter (grtgrt)

    PS: Protyposis ist noch nicht wirklich Information, da sie ja von Sender, Empfänger und Bedeutung abstrahiert. Sie bedeutungslos zu nennen wäre wohl dennoch falsch, denn bekommt sie Sender und Empfänger (bestimmten Kontext also) wird sie zu Information im Sinne der Alltagssprache. Kann Protyposis also gesehen werden als codierte Nachricht, zu der es zunächst weder Sender, Empfänger, noch Dekodierungsschlüssel gibt?

    Protyposis ist, wie Görnitz mal in einem Vortrag sagte,  p o t e n t i e l l e  Information.


     

     Beitrag 0-32
    VSL-Modelle richtig lesen und verstehen

     
     

     
    VSL-Modelle richtig einordnen

     
     
    Seit 1983  d e f i n i e r e n  die Physiker die Lichtgeschwindigkeit (im Vakuum) über die Gleichung
     
    c = 299 792 458 m/sec

     
    unter der seit 1967 akzeptierten Annahme, dass mit 1 sec eine Atomsekunde gemeint ist, d.h. das 9192631770-fache der Periodendauer der dem Übergang zwischen den beiden Hyperfeinstrukturniveaus des Grundzustands des Cäsium-Isotops 133Cs entsprechenden Strahlung.
     
     
    Mit anderen Worten: Seit 1983 sind alle physikalischen Modelle als so  n o r m i e r t  aufzufassen, dass
    • die Lichtgeschwindigkeit konstant
    • und die Länge des Meters über sie (gemäß der Gleichung oben)  d e f i n i e r t  wird:

    » The metre is the length of the path travelled by light in vacuum during a time interval of  1 / 299 792 458  of a second. «

     
     
    Wenn wir also im Folgenden von VSL-Modellen sprechen, von Modellen also, die die Lichtgeschwindigkeit als  n i c h t  notwendig konstant voraussetzen, so sprechen wir von Modellen, die eine andere Definition des Meters zugrunde legen und  s e l b s t  zu definieren haben, was sie unter 1 m verstehen wollen.
     
    Dies sollte wissen, wer liest, dass selbst Einstein 1911 noch erwogen hat, die Licht­geschwindigkeit als nicht notwendig konstant zu sehen. Er schrieb wörtlich [s. Annalen der Physik 38 (1912), S. 1062]:
     
    Die Konstanz der Lichtgeschwindigkeit [kann] nur für Raum-Zeit-Gebiete mit konstantem Gravitationspotential Gültigkeit beanspruchen.

     
    und vorher schon [s. Annalen der Physik 35 (1911), S. 906]:
     
    [Da] die Lichtgeschwindigkeit im Schwerefelde eine Funktion des Ortes ist,
    lässt sich mittels des Huygensschen Prinzips schließen,
    dass quer zum Schwerefeld sich fortpflanzende Lichtstrahlen eine Krümmung erfahren müssen.

     
    Er stellte sich also allen Ernstes vor, die Lichtgeschwindigkeit könne — selbst noch im Vakuum — an unterschiedlichen Orten unterschiedlich groß sein, während sie aber an einem bestimmten Ort über die Zeit hinweg konstant bleibt, auch wenn man sie aus einem bewegten Bezugssystem heraus betrachtet (die Aussagen der Speziellen Relativitätstheorie blieben demnach auch in diesem Modell gültig).
     
     
    Man sieht hier, dass
    • der Begriff » Variable Speed of Light (VSL) «, zu deutsch: » nicht notwendig konstante Lichtgeschwindigkeit im Vakuum « mehreres bedeuten kann,
    • eine Normierung physikalischer Modelle auf das Ziel hin, dass die Lichtgeschwindigkeit sich darin als konstant zeigt, aber durchaus Sinn macht.

     
     
    In seinem Buch » Auf dem Holzweg durchs Universum - Warum die Physik sich verlaufen hat « stellt Alexander Unzicker ganz richtig fest, dass wegen der seit 1983 akzeptierten Definition der Lichtgeschwindigkeit der Verdacht aufkommen könnte, dass wir jetzt gar nicht mehr merken würden, wenn das Licht seine Geschwindigkeit ändert (es ändert sich ja dann ganz entsprechend auch unsere Definition des Meters). Aber halt:


    Unzicker (S. 84-85)
     
    Natürlich ist die Veränderung messbar [d.h. auch weiterhin feststellbar], weil Lichtstrahlen durch verschiedene Geschwindigkeiten wie in einer Linse abgelenkt werden — und eben diese Ablenkung beobachtet man tatsächlich in Gravitationsfeldern. Einsteins Formulierung von 1915 mit Hilfe einer gekrümmten Geometrie hat sich allerdings später gegenüber jener mit variabler Lichtgeschwindigkeit durchgesetzt.
     
    Vielleicht wird dadurch die richtige Perspektive aber auch verdeckt. Denn über die Lichtgeschwindigkeit sind die elementarsten Größen der Physik, Raum und Zeit, miteinander verbunden. Wir dürfen dies nicht einfach als gegeben hinnehmen, sondern müssen die dazugehörigen Maßstäbe untersuchen. Vor allem das bisher noch ungelöste Rätsel, ob und wie die Definition der Zeit mit dem Zustand des Universums zusammenhängt, nötigt uns, auch die Möglichkeit variabler Lichtgeschwindigkeit zu durchdenken. Sollten sich nämlich schon in die fundamentalsten Begriffe falsche Konzepte eingeschlichen haben, würden darauf aufbauende Theorien kaum etwas taugen.
     


     
    Auch noch interessant:
       
    • Eine inzwischen falsifizierbare VSL Theorie (2016)
       
    • Würden die Physiker den Meter nicht in Abhängigkeit der Lichtgeschwindigkeit definieren, sondern stattdessen als proportional zum Durchmesser des beobachtbaren Universums, hätten wir ein Modell unserer Welt, in dem die Lichtgeschwindigkeit NICHT konstant, aber wirklich JEDE Relativgeschwindigkeit endlich wäre — insbesondere auch jede, welche sich für beliebig weit von einander entfernte Galaxien der Expansion des Raumes wegen ergibt.
       
      Raumexpansion würde dann mit fallender Lichtgschwindigkeit einhergehen.
       
      Es ist dies eine besonders eindrucksvolle Bestätigung für Steven Hawkings Aussage, die da lautet:
       
       
      Wir haben kein modellunabhängiges Verständnis unserer Welt.


     

     Beitrag 0-53
    Eine den Urknall und Dunkle Energie vermeidende Theorie » Pulsierendes Universum « nach Wun-Yi Shu (2010)

     
     

     
    Die No-Big-Bang-Theorie von Wun-Yi Shu

     
     
    In 2010 hat Wun-Yi Shu eine Theorie entwickelt, in der die Zeit weder Anfang noch Ende hat und weder Urknall noch Dunkle Energie notwendig sind, die derzeit und in der Vergangenheit beobachtete Expansion des Raumes zu erklären.
     
    Charakteristika seiner Theorie sind:
    • Weder die Lichtgeschwindigkeit noch die Gravitationskonstante sind zeitlich konstant: Beide variieren mit der Evolution des Universums.
       
    • Das Universum hat Phasen, in denen der Raum anschwillt ebenso wie Phasen, in denen er schrumpft:
       
      • Anschwellen des Raumes bedeutet Umwandlung von Zeit in Raum und von Masse (Energie) in zunehmende Abstände.
      • Schrumpfen des Raumes kehrt diesen Prozess um.

    • Topologisch gesehen ist das Universum die 3-dimensionale Oberfläche einer 4-dimensionalen Kugel (womit es dann — wenn Shu's Theorie unsere bestmögliche sein sollte — endlich wäre und elliptische Geometrie hätte).

     
     
    Mehr dazu in:

      Beitrag 2063-1
    War Licht wirklich schon kurz nach dem Urknall so langsam wie heute?

     
     

    Über die – bislang rein spekulativen – VSL Theorien von Moffat und Magueijo



    Die Abkürzung VSL steht für Variable Speed of Light. Wozu braucht man sie (wo c doch als konstant gilt)?

    Selbst wo Licht durch Materie wandert und dort etwas langsamer zu sein scheint, nimmt man an, das sei nur deswegen so, weil es dort — durch Zwischenspeicherung in Atomen — aufgehalten wird. So ganz beweisen scheint das als einzig mögliche Ursache aber nicht zu sein.

    Darüber hinaus gibt es heute es keinerlei Anzeichen dafür, das die Geschwindigkeit, mit der sich Licht im Universum ausbreitet, nach Zeit, Ort oder Umstand schwanken könnte.

    Dennoch gab und gibt es immer wieder Physiker — auch Lee Smolin soll gelegentlich dazu gehören —, die sich fragen, welche Konsequenzen die Annahme zur Folge hätte, dass Licht z.B. im frühen Universum, in der Gegend Schwarzer Löcher oder unter anderen besonderen Umständen andere Geschwindigkeit gehabt hätte bzw. hätte als die einzige durch uns bisher gemessene.

    Besonders intensiv haben sich solche Fragen bisher João Magueijo und — schon sehr viel früher — auch John Moffat gestellt. Dennoch sind sie keineswegs die einzigen, obgleich sicher richtig ist, dass die Mehrzahl aller Physiker solche Spekulation als reine Zeitverschwendung sieht.

    Moffat begann 1992 darüber nachzudenken, weil ihm aufgefallen war, dass das sog. Horizont-Problem (eines der großen kosmischen Rätsel) kein Rätsel mehr wäre, wenn im sehr jungen Universum das Licht sich um Größenordnungen schneller als heute ausgebreitet hätte. Auch ein großes Hindernis, das Homogenitätsproblem zu lösen würde so entfallen.

      Zum Horizont- und Homogenitätsproblem:
      Betrachtet man zueinander disjunkte kugelförmige Teilbereiche des Universums, deren Radius nicht größer ist als die Entfernung, die Licht seit dem Urknall maximal zurücklegen konnte, so kann nichts, was in einer der beiden Regionen je geschah, den Zustand der anderen beeinflusst haben. Andererseits kann im sehr frühen Universum der Radius solcher Kugeln nicht groß gewesen sein, wenn man davon ausgeht, dass Licht sich auch damals nicht schneller ausbreiten konnte als heute.
      Wie also konnte es dann passieren, dass schon damals der Grundstein zur Homogenität des Universums gelegt wurde?
      Das — so Moffat — begründe den Verdacht, dass die Lichtgeschwindigkeit unmittelbar nach dem Urknall sehr viel größer als heute gewesen sein könnte.

    Sehr zum Ärger Moffats sind diese seine Arbeiten von der Fachwelt zunächst völlig ignoriert worden — zumindestens bis 1998, als João Magueijo ganz ähnliche Überlegungen anstellte, angeblich ohne von Moffat zu wissen.

    Anders als Moffat hat Magueijo versucht, seine Ansätze gezielt der Öffentlichkeit bekannt zu machen über Werbung für sein 2003 erschienenes Buch Faster than the Speed of Light (wobei dieser Titel irreführend ist, denn auch in VSL-Theorien bewegt sich nichts schneller als das Licht).

    Leider wird, wer das Buch liest, ziemlich enttäuscht sein, denn nach einer Rekapitulation von Einsteins SRT und ART spricht Magueijo darin fast nur über seine wechselnden Gemütszustände und seinen Ärger über angeblich absolut inkompetente Zeitschriften-Herausgeber, Peer-Reviewer und Vertreter der Universitätsbürokratie, insbesondere in seinem Gastland Großbritannien und in der Hochschule, an der er lehrt (!). Er vergreift sich da ziemlich stark im Ton. Ausgesprochen ärgerlich finde ich vor allem, dass er nur auf wenigen Seiten seines Buches (260-271) so weit geht, den Inhalt seiner Theorie wirklich zu skizzieren. Das ist schade, denn er macht uns neugierig mit wenigsten dem Folgenden:


    Zitat von Magueijo:
     
    Beispielsweise habe ich die Physik Schwarzer Löcher im Rahmen der VSL-Theorie untersucht und bin auf einige überraschende Ergebnisse gestoßen ...

    Rasch fand ich heraus, dass in VSL-Theorien die Lichtgeschwindigkeit sich nicht nur mit der Zeit verändert, während sich das Universum entwickelt, sondern auch im Raum. In der Nähe von Planeten und Sternen ist der Effekt fast unmerklich, doch in der Nähe eines Schwarzen Loches ... führten die Gleichungen unweigerlich zum Schluß, dass die Lichtgeschwindigkeit am Horizont null werden könnte.

    Das ist von enormer Bedeutung, da ... [man so das Schwarze Loch gar nicht betreten könnte ...

    Nach der konservativen VSL ist die Lichtgeschwindigkeit c — genau wie in der ART — die Geschwindigkeitsbegrenzung — nur dass sie von Straße zu Straße verschieden sein kann. Wo sie also auf Null absinkt, steht man vor einer Ampel, die ewig Rot ist ...

    Zitat von Magueijo:
     
    Sobald ich erkannt hatte, dass die Theorie c sowohl im Raum als auch in der Zeit variabel macht, begann ich zu untersuchen, welche andere Arten von Schwan­kungen noch möglich sind. Außerordentlich verblüffend war ein Sonderfall: die » Schnellspuren (fast tracks) «. Das sind Objekte, die in einigen VSL-Theorien auftreten in Form kosmischer Strings, entlang derer die Lichtgeschwindigkeit sehr viel höher ist:

    Kosmische Strings sind hypothetische Objekte, die von einigen Teilchentheorien vorhergesagt werden und an die magnetischen Monopole erinnern, die Alan Guth so sehr beschäftigen. Doch während jene punktartig sind, ist die Beschaffenheit kosmischer Strings linienartig. Sie sind lange Fäden konzentrierter Energie, die sich durch das Universum ziehen. Bis auf den heutigen Tag warten kosmische Strings — wie Schwarze Löcher oder Monopole — noch auf Beobachtung, aber sie sind logische Verhersagen sehr erfolgreicher Teilchentheorien.

    Als ich kosmische Strings in die Gleichungen meiner VSL-Theorie einsetzte, stellte ich fest, dass die Lichtgeschwindigkeit in der unmittelbaren Umgebung des Strings viel größer werden konnte — so als umgäbe ihn eine » Beschichtung « aus hoher Lichtgeschwindigkeit.

    Dadurch würde ein Korridor mit extremem Geschwindigkeitslimit durch das Universum gelegt: eine Art Schnellstraße, die die Raumfahrt sich so sehnlich wünscht.

    Doch es kommt noch besser! Einsteins Zeitdehnungseffekt ruft ein schreckliches Dilemma für Raumreisen hervor. Denn wenn es uns gelänge, mit Geschwindigkeiten nahe der des Lichs zu fliegen, könnte uns Hin- und Rückreise zu fernen Sternen in der Spanne eines Menschenlebens zwar möglich sein, doch würden die Kosmo­nauten bei der Rückkehr ihres Raumschiffes feststellen, dass ihre Zivilisation längst untergegangen ist.

    Nähmen sie aber den Weg entlang eines kosmischen Strings (der VSL-Theorie entsprechend), so wäre das anders. Zwar gäbe es auch da einen Zeitdehnungseffekt, doch wäre der, des weit höheren lokalen Wertes von c wegen, deutlich geringer: Da der VSL-Theorie entsprechend die Lichtgeschwindigkeit entlang des Strings sehr viel höher als anderswo sein kann, könnte man tatsächlich  s e h r  schnell reisen und dennoch weit unter dem lokalen Wert von c bleiben. Die Zeitdehnung könnte dann vernachlässigbar sein.


    PS: Manchmal frage ich mich, ob die schwarzen "Straßen", die der Röntgensattelit ROSAT im grünen Bild auf Seite http://blog.chromoscope.net/data/ zeigt, Spuren solch extraschneller Bewegung sein könnten. Siehe auch WAMP Data aus 2006.

    Schließlich bringt Magueijo seine Theorie auch noch in den Kontext der Fragen rund um Einsteins kosmologische Konstante. Er schreibt:


    Zitat von Magueijo:
     
    Offenbar expandiert das Universum heute rascher als in der Vergangenheit.

    Es scheint also, dass die kosmologische Konstante Λ (Lambda) heute nicht null ist. Doch wenn die Vakuumenergie in unserem Universum überhaupt eine Rolle spielt, warum wird ihre Wirkung dann erst in letzter Zeit spürbar? Wäre sie immer schon so dominant gewesen, wären alle Galaxien längst in unendliche Fernen getrieben. Also, warum gibt es das Universum immer noch in seiner gegenwärtigen Form?

    Eine denkbare Lösung ist VSL. Wir sahen, dass jäher Rückgang von c die Vakuumenergie in gewöhnliche Materie verwandelt ...
    So betrachtet wird Λ jedesmal, wenn die Lichtgeschwindigkeit stark zurück geht, in Materie umgewandelt, worauf es zu einem Urknall kommt. Sobald aber Λ seine Herrschaft abgibt, stabilisiert sich die Lichtgeschwindigkeit, und das Universum tritt wieder in seinen Normalzustand ein. Doch ein kleines Rest-Lambda hält sich im Hintergrund und macht sich schließlich wieder bemerkbar.

    Geht man also von VSL aus, so haben Astronomen gerade die Rückkehr der kosmologischen Konstante beobachtet.

    Sobald dies geschieht, beginnt Lambda die Herrschaft im Universum erneut an sich zu reißen und schafft damit die Bedingungen für einen weiteren scharfen Abfall der Lichtgeschwindigkeit — und einen neuen Urknall. Dieser Prozess setzt sich endlos fort, eine ewige Folge von Urknallen.


    Wie oben schon gesagt: Magueijos Theorie ist reine Spekulation.
    Dennoch scheint mir recht interessant, zu was die Gleichungen der ART führen, wenn man mehr als nur die Fälle stets konstanter Lichtgeschwindigkeit betrachtet ...

     
    PS: Seitenzahlen beziehen sich auf die deutsche Übersetzung von Magueijos Buch.
    Sie trägt den irreführenden Titel Schneller als die Lichtgeschwindigkeit – Der Entwurf einer neuen Kosmologie (2003).

    Siehe auch: Overview on Varying Speed of Light Theories (as of 2003)


     

      Beitrag 2089-6
    -

     
     
    Harti in 2089-5:
     
    Kommt nicht aber dennoch der Lichtgeschwindigkeit wegen ihrer Konstanz eine besondere Bedeutung zu, indem das Verhältnis von Raum und Zeit auf einer grundsätzlichen Ebene bestimmt wird ?


    Nun, Harti, ich würde mal so sagen:
    • Die besondere Bedeutung, die die Lichtgeschwindigkeit im Zusammenspiel von Raum und Zeit nach Einsteins Gravitationstheorie (der ART) hat, ist eher nicht Folge der Konstanz der Lichtgeschwindigkeit, als vielmehr eine Folge der Tatsache, dass sich nichts schneller als das Licht bewegen kann und die Lichtgeschwindigkeit, selbst  w e n n  sie schwanken würde, stets unter einer gewissen  e n d l i c h e n  Grenze bleibt.
    • Dass die Lichtgeschwindigkeit konstant zu sein scheint, ist eher für die konkrete  G e s c h i c h t e  unseres Universums relevant: Der Freiraum nämlich, den Materie hatte, sich in gewissen Strukturen anzuordnen, der könnte bei schwankender Lichtgeschwindigkeit durchaus anders gewesen sein (was genau sich da anders hätte ergeben können untersuchen die sog. VSL-Theorien, von denen wir ja auch hier im Forum schon mal sprachen).

    Gruß, grtgrt
     

      Beitrag 2089-8
    -

     
     
    Henry in 2089-7:
     
    Die besondere Bedeutung der Lichtgeschwindigkeit ist schon mit der SRT verbunden und nicht erst mit der ART, ...


    Hallo Henry,

    Du hast natürlich völlig recht, dass schon in der SRT die Lichtgeschwindingkeit (als das Maximum aller Geschwindigkeiten) eine ganz entscheidende Rolle spielt.

    Hartis Frage aber war, welche Rolle sie hinsichtlich der Verknüpfung von Raum und Zeit spielt. Und da muss man sagen:

    • Die SRT beschreibt lediglich, wie sich beobachterspezifische  S i c h t e n  — unter der Voraussetzung gleichförmig zu einander bewegter Beobachter — von einander unterscheiden.
      Da Gegenstand dieser Sichten zeitliche und räumliche Abstände sind, denkt man zunächst, schon die SRT würde Raum und Zeit miteinander verknüpfen. Genau das aber tut sie gar nicht (bzw. tut es nur scheinbar).
    • Tatsächlich untrennbar miteinander verknüpft, und sogar noch auf eine recht undurchsichtige Weise, werden Raum und Zeit wirklich erst in der ART.

    Beste Grüße,
    grtgrt
     

      Beitrag 2063-3
    -

     
     
    Hallo Harti,

    mal abgesehen von Experimenten, bei denen man nun schon gut 100 Jahre lang untersucht hat, wie Licht sich bewegt (und bei denen man stets denselben Wert für seine Geschwindigkeit beobachtet hat), gibt es nichts, was man als Beweis dafür werten könnte, dass das Licht sich schon immer mit exakt der Geschwindigkeit ausgebreitet hat, die wir heute beobachten.

    Die SRT ist eine Theorie, die von der — bislang als sehr vernünftig eingestuften —  A n n a h m e  ausgeht, die Lichtgeschwindigkeit sei konstant — einen Beweis dafür aber hat weder die SRT noch die ART noch irgendwer sonst.

    VSL-Theorien unterscheiden sich von physikalischen Standard-Theorien einfach nur dadurch, dass man diese  A n n a h m e  in Frage stellt, d.h. dass man auf sie als unumstößliche Randbedingung verzichtet und dann rein mathematisch bzw. durch uns logisch erscheinende Überlegungen untersucht, was das zur Folge haben könnte.


    Gruß, grtgrt

    PS: Licht ist wellenförmige Schwankung von elektromagnetischem Kraftpotential. Wo sich Wechselwirkung einer solchen Welle mit Potentialwellen anderer Art ergibt, hat das m.E. rein gar nichts mit der Geschwindigkeit zu tun, mit der sich Licht ausbreitet.

     

      Beitrag 2063-5
    Eine erste Gelegenheit, Vorhersagen einer VSL-Theorie zu überprüfen

     
     
    Was VSL-Theorien vorhersagen könnte in Zusammenhang stehen mit etwas, das Astronomen eben jetzt beobachten (und noch etwa ein Jahr lang genauer betrachten können):

    Zitat von Magueijo:
     
    Rasch fand ich heraus, dass in VSL-Theorien die Lichtgeschwindigkeit sich nicht nur mit der Zeit verändert, während sich das Universum entwickelt, sondern auch im Raum. In der Nähe von Planeten und Sternen ist der Effekt fast unmerklich, doch in der Nähe eines Schwarzen Loches ... führten die Gleichungen unweigerlich zum Schluß, dass die Lichtgeschwindigkeit am Horizont null werden könnte.

    Das ist von enormer Bedeutung, da ... [man so das Schwarze Loch gar nicht betreten könnte ...


    Das erinnert daran, dass die Astronomen eben jetzt beobachten, wie im Zentrum der Milchstraße eine große Gaswolke sehr dicht an einem Schwarzen Loch vorbeizieht und sich dabei von dessen Anziehungskraft viel weniger beeindruckt zeigt, als man es nach heutiger Theorie erwarten müsste:

    Zitat von AstroNews 2013:
     
    Zum Erstaunen der Forscher zeigt die Gaswolke bislang keinerlei Abweichung von einer rein dynamischen Bewegung um das Schwarze Loch.

    Die Astronomen hatten erwartet, dass die Wolke mit Gas in der Umgebung des Schwarzen Lochs in Wechselwirkung tritt – bislang gibt es dafür jedoch keinerlei Anzeichen. Außerdem sagt die Theorie voraus, dass es in der Umgebung des galaktischen Zentrums eine große Zahl stellarer Schwarzer Löcher gibt.

    Die Begegnung der Gaswolke mit einem solchen Schwarzen Loch könnte zu messbaren Ausbrüchen von Röntgenstrahlung führen, doch auch hier bislang Fehlanzeige.

    Quelle: http://www.weltderphysik.de/gebiet/astro/news/2013/...

     

      Beitrag 2063-6
    Gibt es Photonen mit (extrem kleiner) Ruhemasse?

     
     
    Selbst darüber, ob Photonen tatsächlich keine — oder nur überaus kleine — Ruhemasse haben, wird anscheinend immer noch nachdacht:

    Siehe http://www.weltderphysik.de/gebiete/theorie/news/20...

    Die beste bisher nachgewiesene Obergrenze für eine  m ö g l i c h e  Masse von Photonen liegt bei 2 • 10–54 kg ( etwa 10–18 eV ).

     

      Beitrag 2063-9
    -

     
     
    Harti in 2063-8:
    Hallo Grtgrt,

    ich gehe davon aus, dass man die Konstanz der Lichtgeschwindigkeit aus der Natur elektromagnetischer Wellen erklären kann

    Bislang ist das definitiv  n i c h t  so — wir kennen sie nur aufgrund von Beobachtung (Messung).

     

      Beitrag 2063-14
    Maxwells Gleichungen definieren (aber beweisen nicht) den Wert der Lichtgeschwindigkeit

     
     
    Okotombrok in 2063-12:
    Grtgrt in 2063-9:
     
    Wir kennen die Eigenschaften der Lichtgeschwindigkeit nur aufgrund von Beobachtung (Messung).


    Die Invarianz der Lichtgeschwindigkeit gegenüber Inertialsystemen ergab sich schon aus den Maxwell'schen Feldgleichungen:

    c = ( μ0 ε0 )-0,5

    wo μ0 die magnetische- und ε0 die elektrische Feldkonstante bezeichnet.


    Hi Okotombrok,

    das habe auch irgendwo gelesen — man darf aber nicht vergessen, dass Maxwells Feldgleichungen nur Theorie darstellen (also nicht Beweis für eine darauf aufbauende Theorie sein können). Es könnte ja sein, dass Maxwells Gleichungen lediglich Vergröberung anderer Gleichungen sind, welche die Welt genauer beschreiben.

    Gruß, grtgrt
     

      Beitrag 2063-15
    -

     
    Hallo Grtgrt,

    Grtgrt in 2063-14:
    das habe auch irgendwo gelesen — man darf aber nicht vergessen, dass Maxwells Feldgleichungen nur Theorie darstellen

    wir haben nichts anderes als Theorien.

    Zitat:
    (als nicht Beweis für eine darauf aufbauende Theorie sein können).

    Streng genommen gibt es in der Physik keine Beweise, sondern nur Bestätigungen die auf Erfahrungen beruhen. Diese können aber nie als endgültig angesehen werden.

    Zitat:
    Es könnte ja sein, dass Maxwells Gleichungen lediglich Vergröberung anderer Gleichungen sind, welche die Welt genauer beschreiben.

    Das war in der Vergangenheit so, und wird es auch in der Zukunft wohl bleiben. Das sollte uns aber nicht davon abhalten, weiter Physik zu betreiben, die auf nicht endgültige Erfahrungen beruhen – wir haben nichts anderes.

    mfg okotombrok
     

      Beitrag 2115-2
    Zum Spannungsfeld der Quantenfluktuation (das Vakuum zu verstehen)

     
     
    Gnom in 2115-1:
     
    Die Lebewesen auf unserem Planeten können nur ein bestimmtes Lichtspektrum erkennen. Sei dies nun mit oder ohne Hilfsmittel.
    Es ist anzunehmen, dass es noch weitere Varianten (sehr naiv gedacht) von Licht (Strahlung) gibt, die den Lebewesen auf unserem Planeten nicht zugänglich sind.

    Wenn es um das Licht geht, dann spricht man einerseits von der Wellen- und andererseits von der Teilchennatur des Lichts.
    Licht ist nichts anderes als Energie. U. a. kann also der Mensch Energie in bestimmten, festen Spektralgrenzen Erfahren (messen, nutzen) und nennt diese Erfahrung Licht oder Strahlung.

    Die eigentliche Natur des Lichts hat der Mensch aber noch nicht erkannt.
    In seinem Bemühen, sich der Natur anzunähern, schaffte er sich gedankliche Hilfskonstruktionen (Physik, Mathematik, Philosophie), mit deren Hilfe er versucht, die Natur zu begreifen.

    Was ist nun, wenn der Äther ein Urfeld, quasi das Urgerüst des gesamten Universums ist? ...

    Aus diesem Urfeld entsteht Materie, die wiederum mit dem Urfeld interagiert. Soll heißen, das Urfeld bei bestimmten Bedingungen zu bestimmten Formen der Energieübertragung anregt. Energie fließt also von der Materie wieder dorthin zurück, von wo die Materie herkam, sie fließt wieder zurück ins Urfeld.

    Ist es möglich, dass das, was wir Menschen als Licht (oder Energie) erfahren, nichts anderes ist, als das Fließen dieser Energie im Urfeld? Wobei dieses Urfeld das gesamte Universum ausfüllt und durchdringt, nicht nur den Raum, sondern auch das, war wir Menschen als Materie bezeichnen.

    Demnach wäre alles mit allen verwoben und verbunden und Zustandsänderungen (egal welcher Art) wären nur, naiv ausgedrückt, Unterschiede im unendlich großen Energiespektralraum des Urgerüsts, aus dem und durch dem auf (für den menschlichen Geist) unerklärliche Weise das existiert, was der Mensch für sich als Realität erkennt.

    Dieses Urgerüst, der Äther, wäre also ein unerschöpflicher Energiepool aus dem etwas auf Grund von Energieübertragung, Energieverdichtung oder Energiewandlung entsteht, quasi eben eine Art Energieurgerüst, ein Urenergiefeld, das bisher vom Menschen mit seinen Mitteln, die Natur zu begreifen und zu verstehen noch nicht nachgewiesen werden kann, so wie z. B. vor tausend Jahren noch niemand auf unserem Planeten in der Lage war, Radiosender zu betreiben, weil es einfach zur damaligen Zeit den Menschen nicht möglich war, diese Art der Strahlung mit den damaligen "Mitteln" erkennen zu können.

    So gesehen, wäre der Äther nicht nur das Medium, in dem sich Licht bewegt, sondern er wäre das Licht selber – aber eben in dem entsprechen angeregtem, u. a. für den Menschen erfahrbaren (Energie-) Spektrum.

    Wäre der Äther, das Urgerüst, in seinem Urspektrum, unter diesen Bedingungen experimentell nachweisbar?


    Hallo Gnom,

    die Ergebnisse von Experimenten, die zum ersten Mal Michelson & Morley durchgeführt haben, zeigen klar, dass es keinen Äther gibt in dem Sinne, dass er als ein Medium betrachtet werden könnte, in dem sich Lichtwellen analog zu Wasserwellen oder analog zu Schallwellen ausbreiten.

    Andererseits scheint das Vakuum gut vergleichbar mit einem Spannungsfeld, in dem es ständig zu Entladungen beliebig kleiner Portionen solcher Spannung kommt (zu sog. Quantenfluktuation). Mit anderen Worten:

    Das Entstehen eines Paares virtueller Teilchen scheint nichts anderes zu sein als Umwandlung einer sehr kleinen — wie man heute denkt  b e l i e b i g  kleinen — Portion von Spannungsenergie in zwei Wellenpakete, denen die Möglichkeit gegeben ist, sich einzeln mit anderen Wellenpaketen zu etwas Neuem zu vereinigen — wobei sie sich aber in aller Regel einfach nur wieder mit ihrem Bruder vereinigen um sich so wieder ins (nur scheinbare ?) Nichts zurückzuziehen.

    Wenn man also je nochmals von existierendem Äther sprechen sollte, wird man sehen, dass er grundlegend andere Eigenschaften hat als die, die man ihm früher zuschrieb.

    Deswegen ist, dieses Wort Äther zu nutzen, i.A. nur irreführend.
    Man spricht stattdessen vom Vakuum und stellt sich Fragen zu seiner Natur (genau wissend, dass man sie über das eben Gesagte hinaus noch nicht verstanden hat).

    Gruß, grtgrt
     

     Beitrag 0-Zeit
    Die Zeit: In welchem Sinne existiert sie wirklich?

     
     

     
    Zeit, Realität und Wirklichkeit

     
    Gebhard Greiter, Jan 2016

     
     
    Unsere Umgangssprache kennt keinen Unterschied zwischen den Begriffen Realität und Wirklichkeit. Im Englischen z.B. gibt es gar nur ein einziges Wort dafür.
     
    Philosophen, Neurologen und Quantenphysiker aber berichten uns übereinstimmend , dass — wer genau darüber nachdenkt — einen ganz gravierenden Unterschied zwischen Realität einerseits und Wirklichkeit andererseits entdeckt:

       
    • Niels Bohr wurde nicht müde, seine Studenten immer wieder darauf hinzuweisen, dass die Physik uns nicht sagen kann, wie die Natur funktioniert, sondern nur darüber nachdenkt, wie sie auf uns wirkt, d.h. wie wir sie wahrnehmen.
       
    • Schon vor ihm hatte auch Kant das so gesehen: Unter "Ding an sich" versteht Kant die Wirklichkeit, wie sie unabhängig von aller Erfahrungsmöglichkeit, für sich selbst besteht, die absolute Realität. Jedenfalls will Kant sagen, daß die Art und Weise, wie sich das Wirkliche sinnlich-kategorial uns darstellt, das Wesen desselben nicht erschöpft. (zitiert aus Rudolf Eislers Nachschlagewerk zu Kant). Kants eigener Wortlaut: Es gibt die Dinge der Erscheinungen und die Dinge an sich. Wir kennen die Dinge nur so, wie sie auf uns wirken..
       
    • Viel früher noch kam Parmenides (geboren um 530 v.Chr.) zu genau derselben Meinung. Er schrieb (Zitat): Die Welt, in der wir zu leben glauben, ist die vermeintliche Welt der Sinneswahrnehmungen; die Welt ist nur Meinung ....

    Wichtige Erkenntnis also:

     
    Realität ist stets nur Bild der Wirklichkeit,
     
    erzeugt von unserem Verstand und daher subjektiv: i.W. nur Meinung.
     
    Wo wir uns Modelle für die Wirklichkeit schaffen — in der Physik oder einfach nur in unseren Köpfen —
    haben wir damit noch lange nicht entdeckt, wie die Natur tatsächlich funktioniert.

     
     
    Wie sich mit Hilfe dieser Einsicht weitere Erkenntnis ergeben kann, sei nun gezeigt am Beispiel der Zeit:

       
       
      Wichtiger Teil der Natur scheint die Zeit zu sein — aber ist sie es wirklich? Könnte sie nicht einfach auch nur Teil unserer Realität sein?
       
      Und in der Tat: Man kann das sogar beweisen. Die genaue Argumentation lässt sich nachlesen an Stelle » Wirklich ist nur Alter — aber nicht die Zeit «. Grundidee der Beweisführung ist: Nach Einsteins Spezieller Relativitätstheorie lässt Zeit sich stets nur beobachterspezifisch (genauer: in Abhängigkeit vom gewählten Bezugssystem) quantifizieren, so dass der erhaltene Wert subjektive Meinung ist. Objektiv quantifizierbar ist nur Eigenzeit — die aber entspricht dem physikalischen Alter des Beobachters im Sinne seiner eigenen Realität.
       
      Statt der Zeit (die subjektiv ist) die Eigenzeit zu betrachten (die eindeutig, also objektiv quantifizierbar ist), erscheint zunächst nur wie ein terminologischer Trick — sie ist ja schließlich eine der vielen möglichen subjektiven Quantifizierungen der Zeit. Oder ist sie doch mehr? Müssen wir Eigenzeit — das Alter eines Objekts im physikalischen Sinne — der Wirklichkeit zurechnen?
       
      Es gibt tatsächlich eine Beobachtung, die dafür spricht, dass Eigenzeit nicht einfach nur Realität, sondern wohl doch auch der Wirklichkeit zuzurechnen ist: Ich meine die Tatsache, dass jedes Elementarteilchen eine genau benennbare, nur von seinem Typ abhängige, immer und überall gleich beobachtete mittlere Zerfallszeit hat. Und damit nicht genug: Auch jedes biologische Lebewesen (wir Menschen sind keine Ausnahme) hat eine für seine Art typische mittlere Lebenserwartung.
       
      Unser Gehirn, welches uns unsere Realität produziert — unser Bild der Wirklichkeit — kann die mittlere Lebenserwartung der Exemplare einer bestimmten Art nun aber nicht in eigener Regie beliebig festsetzen. Damit, so denke ich, muss Eigenzeit sich der Wirklichkeit zuordnen.
       
      Hätte ich damit recht, könnte das bedeuten, dass auch die Physik uns nie wird erklären können, wie Eigenzeit funktioniert (und wie Objektarten zu ihrer für sie typischen mittleren Lebenserwartung kommen, speziell Elementarteilchen zum konkreten Wert ihrer mittleren Zerfallszeit).
       
      Die Wirklichkeit der Zeit scheint sich darin zu erschöpfen, dass jedes sich nicht mit Lichtgeschwindigkeit bewegende Objekt einem ganz bestimmten Zwang zu altern unterliegt. Warum der mit zunehmender Beschleunigung des Objekts geringer wird, ist wohl die eigentlich interessante Frage.
       
      Bisherige Forschung, das Wesen der Zeit betreffend, scheint diesen Aspekt noch nicht gezielt zu adressieren.

     
     
    Note: Was Physiker und Philosophen bisher über die Zeit zu sagen wissen, wurde erst kürzlich — und wie es scheint gezielt vollständig — dokumentiert von Lee Smolin (aus Sicht der Theoretischen Physik) und Roberto Mangabeira Unger (aus Sicht der Philosophie) im ihrem Buch:
     
    Roberto Mangabeira Unger & Lee Smolin: The Singular Universe and the Reality of Time: A Proposal in Natural Philosophy (2014)


     

     Beitrag 0-194
    Zeit im Sinne von Einsteins Theorie ist nur Konzept — nicht Wirklichkeit

     
     

     
    Zeit im Sinne der Relativitätstheorie ist nur Konzept

     
     
    Gegeben den Unterschied zwischen Realität und Wirklichkeit, liegt es nahe zu fragen:
     
     
    Wie wirklich ist die Zeit?

     
     
    Wie die Diskussion auf Seite » Relativitätstheorie beschreibt beobachterspezifische Realität « ganz klar zeigt, kann mindestens die Zeit im Sinne der Speziellen Relativitätstheorie nicht wirklich sein.
     
    Wenigstens zwei Argumente belegen das:
     


    Kip S. Thorne stellt fest:
     
    Wenn Sie und ich uns relativ zueinander bewegen, muss das, was ich als Raum bezeichne, eine Mischung aus Ihrem Raum und Ihrer Zeit sein, und das, was Sie Raum nennen, eine Mischung aus meinem Raum und meiner Zeit.
     



    Palle Yourgrau nennt auch Gödels Argument:
     
    Gödel argues forcefully that in the Special Theorie of Relativity (STR) the relativity of the 'now' (of intuitive time) to an inertial frame implies the relativity of existence: "... the idea of an objective lapse of time (whose essence is that only the present really exists) ..." [Gödel 1949, p. 202, Note 4].
     
    But the latter is impossible: "The concept of existence cannot be relativized without destroying its meaning completly." [Gödel 1949, p. 203, Note 5].
     
    Hence, if the STR is true, time disappears.
     
     
    Sources:
    • Gödel 1949: A Remark about the Relationship between Relativity Theory and Idealistic Philosophy in: Feferman & Solomon, eds.: Kurt Gödel: Collected Works, Vol 2, 1995
    • Yourgrau: Gödel meets Einstein, Preface to the new expanded edition 1999.

     


     
     
    Dass auch die Zeit im Sinne von Einsteins Allgemeiner Relativitätstheorie nicht wirklich sein kann, zeigte Gödel nach Pale Yourgrau wie folgt (ausgehend von den durch Gödel entdeckten Lösungen von Einsteins Feldgleichung, den sog. Gödel-Universen (GUs)):
     


    Yourgrau (1999):
     
    In certain non-expanding GUs, there exist closed timelike wordlines, permitting time travel. But if you can revisit the past, it never 'passed' from existence in the first place. So, once again, time disappears.
     
    But the GU is a mere possible world. What about the actual world?
     
    Gödel reasons as follows: Our world and the GU differ only in the global distribution of matter and motion. The two universes are described by the same fundamental laws of nature and provide for observers the same experiences (as of) time. So, if time is an illusion in the one world, therefore (as it provably is), it must also be an illusion in the other. In Gödel's own words:
     
    "A lapse of time ... would have to be found, one should think, in the laws of nature, i.e. it could hardly be maintained that whether or not an objective laps of time exists depends on the special manner in which matter and its impulse are distributed in the world."
     
     
    Sources:
    • Gödel 1946/49: A, B2, C1: Some Observations about the Relationship between Theory of Relativity and Kantian Philosophy in: Feferman & Solomon, eds.: Kurt Gödel: Collected Works, 1995
    • Yourgrau: Gödel meets Einstein, Preface to the new expanded edition 1999.

     



     

     Beitrag 0-333
    Warum konnte in unserem Universum Leben entstehen?

     
     

     
    Warum konnte unser Universum Leben hervorbringen?

     
     
    Denkbar sind 3 Möglichkeiten:
       
    • Die kausale Erklärung: Es könnte — uns noch unbekannte — physikalische Gründe (Naturgesetze) geben.
       
    • Die selektive Erklärung: Es gibt viele Universen unterschiedlichster Eigenschaft. Wir bewohnen eines, das Eigenschaften hat, die die Evolution von Leben begünstigen.
       
    • Die teleologische Erklärung: Dem sich selbst organisierenden Prozess, der unser Universum gestaltet, wohnt ein innerer Drang — ein Attraktor im Sinne der Theorie sich selbst organisierender Prozesse — inne, welcher zielgerichtet auf die Entwicklung von Leben hinsteuert.

     
    Die neuzeitliche Wissenschaft präferiert die kausale Erklärung. Lediglich einige Forscher haben — angesichts ganz unglaublicher Koinzidenzen — Zweifel daran. Trotz methodologischer Bedenken erwägen sie ernsthaft auch die beiden anderen Möglichkeiten. Die Vielfalt der Lösungen der Stringtheorie etwa spricht für die selektive Erklärung.
     
    Die teleologische Erklärung wird am wenigsten in Betracht gezogen, scheint mir aber eher nur Spezialfall der kausalen Erklärung zu sein.
     
     
    Unsere Chancen, den richtigen Grund zu finden, scheinen gering zu sein, denn wie Brandon Carter 1974 ganz richtig festgestellt hat, ist alles, was wir als Beobach­tungsergebnis erwarten können, eingeschränkt durch die Bedingungen, die für unsere Existenz als Beobachter zwingend nötig sind (sog. anthropisches Prinzip).
     
    Mit anderen Worten: Unserer Erkenntnisfähigkeit sind Grenzen gesetzt (= Erkenntnishorizont der Menschen).

     

     Beitrag 0-334
    Wie entstand Leben in unserem Universum?

     
     

     
    Wie entstand Leben in unserem Universum?

     
     
    Obgleich Wissenschaftler der teleologischen (= auf ein Ziel hinsteuernden) Erklärung bei weitem am skeptischten gegenüberstehen, könnte genau sie die richtige sein: Es bliebe dann ja nämlich immer noch die Frage, welches Ziel genau die Natur sich gesetzt hat: Es könnte ja auch gut ein ganz abstraktes Ziel sein, etwa das, einfach JEDEN Attraktor anzusteuern — ganz gleich zu welchem Ergebnis das dann auch führt.
     
    Menschen zu schaffen muss gar nicht das wirkliche Ziel gewesen sein (!).

     
     
    Note: Systeme, die anfänglich weit außerhalb des Gleichgewichts sind, kommen oft nach gewisser Zeit in eine Phase, in der sie sich mehr und mehr stabilisieren, z.B. in dem sie nur noch regelmäßig schwingen (statt sich wie vorher in chaotisch erscheinender Weise zu bewegen). Jeden diesen vorläufigen Endzustände nennt man einen Attraktor.

     
    Ziel der Evolution könnte also sehr gut sein, einfach nur in Systemen, die sich im Ungleichgwicht befinden, maximal viele stabile Teilsysteme zu schaffen.
     
    Wenn man das so sieht, kann gegen teleologische Erklärung eigentlich nichts mehr eingewandt werden.

     
     
    Tatsache ist:
     
    Jedes Atom in unserem Körper hat eine lange Geschichte hinter sich: Es entstand in einem Prozess, in dem zunächst aus Strahlung Materie einfachster Struktur wurde: Wasserstoff und etwas Helium. Dann begann diese Materie sich zusammenzuballen zu mehr oder weniger dichten Gaswolken bis hin zu solch weit ausgedehnten, die Urzustand dessen waren, was wir heute Galaxienhaufen nennen. Darin wiederum kam es an vielen Stellen zu besonders starker lokaler Verdichtung, zu Gebilden also, die Vorläufer von Galaxien wurden. In ihnen wiederum entstanden Großsterne, die — unter dem Einfluß der Gravitation — immer dichter und heißer wurden: Sie wurden zu Backöfen, in denen sich nach und nach immer komplexere Atome bildeten bis hin zum Eisen. Wo immer so ein Stern dann in einer Supernova explodierte, entstanden auch Atome schwerer als Eisen (Gold und Uran etwa). Sie und auch alle anderen Atome wurden weit ins All hinausgeschleudert um sich dann irgendwann wieder zu Planeten zusammenzufinden.
     
    Diese Geschichte zeigt, dass Neues nicht überall, sondern nur an bestimmten Orten unter besonders extremen Bedingungen entsteht: Überall dort, wo vorhandenes Gleichgewicht urplötzlich zerbricht in viele Teilsysteme, die sich dann selbst wieder — nun aber unabhängig voneinander — Gleichgewicht suchen.
     
    Je mehr unterschiedliche Arten von Objekten nun aber entstanden sind, desto mehr können Ansammlungen solcher Objekte unterschiedlichste, mehr oder weniger stabile Konfigurationen schaffen, die neue, kompliziertere Attraktoren ermöglichen.
     
    Nachdem einfachste einzellige Lebewesen recht früh in der Erdgeschichte entstanden waren, war eine Entwicklung von fast 3 Mrd. Jahren notwendig, bis mehrzellige Organismen existiert haben. Sie mussten sich noch Jahrmillionen weiterentwickeln bis dann schließlich Wesen mit Bewusststein entstanden: ein naturwissenschaftlich schwer fassbares Phänomen, das schließlich in der kulturellen Entwicklung der menschlichen Gesellschaft eine neue Dimension bekam.
     
     
    Auch kulturelle Prozesse sind selbstregulierend und können sich selbst verstärken um Attraktoren zuzustreben.
     
    Wissenschaft — insbesondere auch die Naturwissenschaft — ist ein sich selbst organisierender kultureller Prozess.


     

      Beitrag 2076-1
    Wo endet eine eloktromagnetische Welle? Und wo überall existiert sie?

     
     

    Nach meinem bisherigen Verständnis ist eine elektromagnetische Welle
    • einerseits eine sich ausbreitende Potentialschwankung (= eine Schwankung der Potentialhöhe im elektromagnetischen Feld des Universums vergleichbar mit der Schwankung des Wasserpegels, die in einem ruhenden See entsteht, wenn man die Wasseroberfläche mal kurz antippt),
    • andererseits aber ist sie auch eine Energieportion, deren Größe sich aus der Frequenz der Welle errechnet. Als solche ist sie Wirkungspotential, das sich nur ganz oder gar nicht abbauen kann (wobei man jedem Ort die Wahrscheinlichkeit zuordnen kann, mit der es sich dort abbauen wird).

    So weit, so gut.

    Spannend aber wird es, wenn man sich frägt, wo eine solche Welle — als Potentialschwankung des elektromagnetischen Feldes — denn eigentlich endet für den Fall, dass die Welle durch eine Einzelphotonenquelle erzeugt wurde und sich als Wirkungspotential noch NICHT abgebaut hat.

    Wo bitte ist das Ende dieser Welle, deren Anfang (bzw. deren Front) sich von der Quelle mit Lichtgeschwindigkeit entfernt?
    Kann mir das jemand sagen?


    Versuch einer Antwort:

    Der Vergleich mit einer Wasserwelle hinkt (in diesem Fall wenigstens), da das Antippen der Wasserobefläche ein makroskopischer Vorgang ist, der einen gedämpften Ozillator startet. Die Dämpfung bewirkt, dass jene Wasserwelle  l a n g s a m   erstirbt.

    Wo eine Einzelphotonenquelle ein Photon aussendet, wird ja wohl in einem ihrer Atome ein angeregtes Elektron zurück in einen weniger energiereichen Zustand fallen, und die Energiedifferenz wird das so auf die Reise gesandte Energiepaket. Da dieser Vorgang aber — wie die Quantenphysiker meinen — instantan ist, also keinerlei Zeit in Anspruch nimmt, müssten in diesem Fall Wellenfront und Wellenende stets gleich weit von der Lichtquelle entfernt sein.


    Wenn das stimmt, wäre der Ort, an dem sich das Photon nach t sec befindet,

    die Menge aller Punkte, die auf irgend einem Pfad liegen, den das Licht nehmen konnte,
    und die — auf diesem Weg gemessen — von der Lichtquelle den Abstand  (t sec) • c  haben.

    Es wäre dann also genau so, wie Feynman sagte: Das Photon nimmt  j e d e n  ihm möglichen Weg.



    PS: Dass das Photon als Welle keine Ausdehnung in Richtung Lichtquelle hat, gilt für jeden einzelnen Zeitpunkt (aber natürlich nicht über die Zeit hinweg). Ganz anders bei einer Wasserwelle: Bei ihr können Wellentäler und Wellenberge gleichzeitig eintreten.

    PS: Dass das Photon mit sich selbst interferieren kann, liegt einfach daran, dass es — wegen am Rand von Hindernissen eintretender Beugung der Welle — auch Wege geben kann, die sich  k r e u z e n  (siehe z.B. das Doppelspalt-Experiment). Auch geeignet gesetzte Spiegel können zu sich kreuzenden Wegen ein und desselben Photons führen.
     

      Beitrag 2076-2
    -

     
     
    Die Argumentation aus 2076-1 zeigt auch:
    • Jedes Photon, das schon mindestens t sec existiert, ist ein nicht-lokales Objekt, das gleichzeitig an Orten existiert, die bis zu t • 600.000 km voneinander entfernt sein können.
    • Geht das Photon an einer dieser Stellen in einem anderen Quant auf (z.B. in einem Elektron), verschwindet es ohne jede Zeitverzögerung auch an allen anderen Orten (Beweis: Als Energie­portion kann ein Photon nur ganz oder gar nicht existieren).
     

      Beitrag 2076-5
    -

     
     
    Harti in 2076-3:
    Hallo Grtgrt,

    das Problem in Deiner Fragestellung entsteht dadurch, dass Du davon ausgehst, für Photonen vergehe keine Zeit.


    Hallo Harti,

    beim Verfassen von Beitrag 2076-1 ging ich keineswegs davon aus, dass für Photonen keine Zeit vergehe oder sie sich NUR durch räumliche Dimensionen bewegen.

    Was mir hier durch den Kopf ging, war etwas völlig Anderes, nämlich:
    • Jede Welle wird durch einen Oszillator erzeugt und hat so — normalerweise — räumliche Ausdehnung in jeder Richtung, in die sich ausbreitet. Man kann das sehr schön sehen am Beispiel einer Wasserwelle: Geschnitten mit einer Ebene, die zum Wasser senkrecht steht und durch den Ausgangspunkt der Welle geht, stellt sich die Welle als eine Schlangenlinie positiver Länge dar. Sie wird dennoch nicht unendlich lang sein, denn sobald der Oszillator aufhört sich zu bewegen, wird die Welle ein Ende bekommen. (Bei Wasser ist das dann der Fall, wenn sich an der Stelle, an der man den Finger ins Wasser getaucht hat, die Wasseroberfläche nicht mehr bewegt.)
         
      • Wo ein Rundfunksender Radiowellen erzeugt, passiert folgendes: Die Sendeantenne ist ein Oszillator, der den Pegel des elektromagnetischen Potentials auf und ab bewegt. In diesem Fall allerdings, wird eine ganz  F o l g e  von Photonen erzeugt und ausgesandt, so dass wir hier — makroskopisch gesehen — ebenfalls eine Welle vorfinden, die wir uns als Schlage durch den Raum wandern vorstellen können. Ihr Ende ist erst erreicht, wenn der Sendevorgang abgebrochen wird. Wichtig aber ist: Unterschiedliche Punkte dieser Schlangenlinie entsprechen je zwei Photonen.
           
        • Ganz anders aber dort, wo die Quelle nur ein einziges Photon aussendet: In diesem Fall hat die durch den Raum wandernde "Schlange" (= Wellenlinie) die Länge Null. Das liegt daran, dass der die Welle erzeugende Oszillator hier nur über einen Zeitraum arbeitet, der selbst die Länge Null hat.
          Wir (als Beobachter des Photons) wissen:
          Es wandert mit Lichtgeschwindigkeit durch den Raum — aber nicht als ein Punkt, sondern als sich aufblasende Oberfläche einer Kugel,
             
            • deren Radius sich um etwa 300.000 km/sec vergrößert,
                 
              • die sich — wo das Photon auf Hindernisse trifft — topologisch "verbeult" (bis hin zu Formen, in der sich Teile davon überlappen)
                   
                • und die genau dann überall aufhört zu existieren, wenn das Photon sich als Energieportion mit einem anderen Quant vereinigt.
                Die ein einzelnes Photon darstellende Welle sehen wir erst dann auch als Schlange (analog einer Wasserwelle), wenn wir den "Raum", in dem wir argumentieren, auch mit einer zeitlichen Dimension ausgestattet sehen. Das ist konsistent mit der Tatsache, dass wir jedes Photon, das uns — dem Beobachter — begegnet, als aus der Vergangenheit kommend wahrnehmen.
                Das zum Wasserpegel Analoge ist beim Photon der Pegel des elektromagnetischen Potentials in den Punkten der Raumzeit.

              Gruß, grtgrt
               

                Beitrag 2076-7
              -

               
               
              Harti in 2076-3:
              Du musst Dich also entscheiden zwischen

              1. Raumzeitliche (vierdimensionale) Betrachtung: Elektromagnetische Wellen bewegen sich nur auf der Raumachse.

              oder

              2. Alltägliche Betrachtung mit Trennung von Raum und Zeit; dann aber in einem Koordinatensystem, in dem die Lichtgeschwindigkeit
              den Wert 1 hat, weil Raum und Zeit für die Bewegung elektromagnetischer Wellen gleichwertig sind.


              Hallo Harti,

              meine Argumentation in Beitrag 2076-5 zeigt:
              • Als sich nach vorne schiebende "Schlangen" betrachtet bewegen elektromagnetische Wellen (Photonen) sich NUR DURCH DIE ZEIT.
              • Durch den Raum bewegen sich — zeitlich abhängig — nur die Punkte, an denen die Wahrscheinlichkeit, dass das Photon mit anderen Quanten interagiert, nicht Null ist.

              Diese Aussagen beschreiben die Sicht des Beobachters (nicht die des Photons, denn Photonen kennen keine Zeit).


              Gruß, grtgrt

              PS: Wo ich sage "als Schlange" meine ich "als zu einer Wasserwelle analoge Potentialwelle".

               

                Beitrag 2073-1
              Zu Messprozess, Beobachter und Beobachtung (= Messergebnis)

               
               

              Wie die Kopenhagener Deutung

              im Lichte heutiger Erkenntnis verstanden werden muss



              Der » Beobachter « beim Messprozess (im Sinne der Quantentheorie) braucht kein Mensch zu sein, muss aber physikalisch sein:
              Er ist ein Objekt B, welches mit dem beobachteten Objekt X kollidiert in dem Sinne, dass jene Kollision eine Spur hinterlässt. Diese Spur zu betrachten ist notwendig, das Messergebnis zu erkennen.

              Jede solche Interaktion modifiziert B und X, kann X aber sogar zerstören.

              Sie bedeutet Umkonfiguration aller B und X enthaltenden Quantensysteme in dem Sinne, dass sich deren Wellenfunktion ändert.

              Die Kopenhagener Deutung nennt das — schon damals eher irreführend — den » Kollaps der Wellenfunktion des beobachteten Objekts X « und sieht ihn als Herstellen des Zustand von X, den das Messergebnis uns signalisiert. VORSICHT also: Das Wort » Kollaps « allzu wörtlich zu nehmen, führt am richtigen Verständnis der Situation vorbei (!).

              Nebenbei: Die von der Interaktion an B hinterlassene Spur kann makroskopische Ausdehnung haben, da die Interaktion Quanten erzeugen kann, die selbst wieder mit B kollidieren und so in einer Kettenreaktion weiter Modifikation von B zur Folge haben. Genau deswegen denkt man z.B. auf dem Schirm hinter den beiden Spalten des Doppelspalt-Experiments die beobachteten Quanten als schwarze Punkte zu erkennen (eine Fiktion, denn tatsächlich nimmt man hier nur den neuen Zustand der lichtempfindlichen Fläche wahr, mit der X interagiert hat: eine Spur also, die letzlich Spur einer Kettenreaktion ist und uns nur deswegen ohne Mikroskop sichtbar oder über einen Lautsprecher hörbar wird).


              Historische Notiz:

              Was sich hinter der Sprechweise der Kopenhagener Deutung (und vielen anderen Äußerungen von Bohr) so ganz genau verbirgt, wurde erst im Laufe der Zeit — über Jahrzehnte hinweg — klar. Möglicherweise war es ihm selbst zunächst nicht so ganz klar.

              Einstein hat mal provokativ gefragt, ob die Wellenfunktion eines Objekts X schon dann kollidiere, wenn nur eine Maus das Objekt betrachtet. Everett aber wusste (etwa 1955) schon ganz genau, dass Beobachter in jenem Sinne wirklich jedes mit X interagierende physikalische Objekt ist.

              Dass die Punkte auf der Photoplatte hinter einem Doppelspalt nicht einzelne Photonen zeigen, sondern stattdessen jeweils Spur einer Kettenreaktion sind, die an der Stelle stattfand, an dem ein Photon mit der Photoplatte in Interaktion trat (und so diese Kettenreaktion in Gang gesetzt hat), macht sich selbst heute noch nicht jeder klar.


              Heute jedenfalls spricht alles dafür zu sagen:


              Quanten sind ihrer Natur nach Wellenpaket und Energieportion, aber niemals Partikel im klassischen Sinne.


              Wo uns ein Quant als Partikel (als sog. "Teilchen")  e r s c h e i n t , ist das reine Fiktion: Was wir dann nämlich tatsächlich wahrnehmen ist Spur einer Interaktion des Quants mit einem "Beobachter" im oben definierten Sinne. Solche Spur findet sich an der Stelle — und um sie herum —, an der die Interaktion stattfand, d.h. den Zustand des Quants gesetzt, bestätigt oder verändert hat, oder wo das Quant als Energieportion im Beobachter komplett aufging unter Aufgabe seiner eigenen Existenz.


              Lokalisierbar ist nicht das Quant, sondern nur die Stelle, an der es entstand oder Wirkung hatte.


              An welchem Ort ein Quant Wirkung haben wird ist nur mit ortsabhängiger Wahrscheinlichkeit vorhersagbar.

              Das entsprechende Wahrscheinlichkeitsfeld ist durch das Quadrat der Wellenfunktion des Universums gegeben
              ( sowie approximativ durch die Wellenfunktion eines Quantensystems, zu dem das Quant selbst und eine geeignete Messapparatur sich zusammenfügen ).


              Quanten als lokalisierbare Objekte zu sehen ist ebenso falsch wie zu glauben, das Verschwinden der Interferenz im Doppelspalt-Experiment — wenn man es so aufbaut, dass Pfadinformation existiert — sei zurückzuführen auf Informationsgewinn und einen daraus resultierenden Zwang für Quanten, jeweils nur durch einen der Spalte zu kommen (siehe 2052-7 und 2052-23 für den eigentlichen Grund des Verschwindens der Interferenz).

              Siehe auch Beitrag 2052-50 und was Hendrik van Hees dort sagt.

               

                Beitrag 2073-2
              -

               
               
              Grtgrt in 2073-1:
               
              Lokalisierbar ist nicht das Quant, sondern nur die Stelle, an der es entstand oder Wirkung hatte.


              Wer an Quantenverschränkung denkt wird wissen:


              Selbst der Ort der Wirkung ist nicht — oder jedenfalls nicht garantiert vollständig — eingrenzbar.

              Tatsächlich lokalisierbar ist nur Veränderung von Stellen, an denen wir  S p u r e n  der Wirkung beobachten.


               

                Beitrag 2052-7
              Quantenradierer und Materiewellen

               
               
              Okotombrok aus 2052-5:
              Grtgrt aus 2052-3:
              Kern dessen, was ich glaube verstanden zu haben, ist, dass senkrecht zueinander polarisierte Wellen gar nicht interferieren können. Siehst Du das auch so?

              Das halte ich für irrelevant.
              Quantenmechanische Versuche wie der DS-Versuch lassen sich weder wellen- noch teilchenartig, sondern nur mit dem quantenmechanischen, nicht dem Grtgrt'schen Informationsbegriff, beschreiben.


              Das ist sogar sehr relevant, denn:

              Im DS-Versuch die Photonen so zu markieren, dass sie Weginformation tragen, bedeutet, sie so zu polarisieren, dass aus ihrer Polarisationsrichtung ersichtlich ist, durch welchen der beiden Spalte sie kamen. Absolut zuverlässig funktioniert das aber nur, wenn an Spalt 1 in eine Richtung R1 polarisiert wird, die senkrecht auf der Richtung R2 steht, in die an Spalt 2 polarisiert wird.

              Da senkrecht zueinander polarisierte Photonen sich meiner Meinung nach niemals durch Interferenz auslöschen können, ist dann aber eben auf dem Schirm hinter dem Doppelspalt gar kein Interferenzmuster mehr zu erwarten.

              Wird der DS-Versuch so aufgebaut, dass er Quantenradierer sein kann, bedeutet das, dass man unmittelbar vor dem Schirm, auf dem man Interferenz finden will, einen dritten Polarisationsfilter setzt. Wenn der in eine Richtung R3 polarisiert, die genau das Mittel der beiden Richtungen R1 und R2 ist (d.h. den Winkel 45 Grad zu jeder von ihnen hat), so wird er genau die Hälfte aller ankommenden Photonen durchlassen und da sie dann sämtlich gleich polarisiert sind (in Richtung R3 nämlich), muss sich auf dem Schirm auch wieder Interferenz zeigen.

              Kurz: Irgendwas Geheimnisvolles kann ich somit auch am Quanten-Radierer nicht erkennen.

              Geheimnisvoll wird das Ganze für mich erst dann, wenn man statt Photonen Materiewellen (z.B. Elektronen) durch den Doppelspalt schickt. Ich weiß nämlich nicht, ob die polarisiert sein können. Andererseits wüsste ich auch nicht, wie man sich in dem Fall Weg-Information besorgen kann.

              Ich wäre dankbar, wenn mir das jemand erklären könnte (Du vielleicht, Okotombrok?).


              PS: Dass Okotombrok mit seinem Einwand oben falsch liegt, beweist das QuantumLab Lehrmaterial, wo in Kapitel 4 ebensfalls explizit gesagt wird: Wellen mit orthogonaler Polarisation können nicht interferieren, weshalb das Interferenzmuster verschwindet.

              Mich verwirrt dann aber, dass dort auch gesagt wird: Das Experiment Quantenradierer mit hellem Licht kann trotzdem sehr gut als Analogie zu dem eigentlichen Quantenphänomen verwendet werden. Das "eigentliche Quantenphänomen" — so fasse ich die Stelle dort auf — werde durch den Interferometer nachweisbar.


              In meinen Augen beweisen all diese Experimente nur, dass Photonen eindeutig Wellen sind.


              Sie auch als Teilchen zu sehen,
              deren jedes komplett über jeweils nur  e i n e n  der beiden möglichen Wege gekommen sein muss,
              entbehrt in meinen Augen jeder Grundlage:


              Denn wo Weginformation vorhanden ist, bezieht sich die ja stets nur auf eine  T e i l w e l l e  der gesamten, das Photon darstellenden Kugelwelle.


              Teilchencharakter hat ein Photon wirklich nur in dem Moment, in dem es sich mit einem anderen Quant — etwa einem der Messapparatur — vereinigt: Mit ihm nämlich wird es — als  E n e r g i e p o r t i o n  — stets in vollem Umfang verschmelzen, was den Effekt hat, dass die gesamte Kugelwelle, wie drastisch sie sich auch hier oder dort durch Beugung um Hinder­nisse herum verformt haben mag, überall mit einem Schlag verschwindet.

               

                Beitrag 2052-16
              Wie Photonen — ja selbst Materieteilchen — als Welle mit sich selbst interferieren

               
               
              Bauhof in 2052-14:
               
              Henry in 2052-8:
               
              Somit ist die Wahrscheinlichkeit für eine senkrechte Ausrichtung des Spins eins gegen unendlich, womit es äußerst unwahrscheinlich ist, dass Photonen dergestalt auf dem Schirm auftreffen, dass sie sich zum einem Maximum verstärken bzw. im Minimum auslöschen, sondern es wäre eine gleichmäßige Verteilung auf dem Schirm zu erwarten. Maxima sowie Minima sind aber definitiv zu beobachten, und zwar selbst dann, wenn die Photonen EINZELN IN BELIEBIGEN ZEITLICHEN ANBSTÄNDEN DURCH DIE SPALTEN GESCHICKT WERDEN! Das heißt, die Photonen MÜSSEN MIT SICH SELBST INTERFERIEREN! Das hat mit absoluter Sicherheit nichts mit der Polarisation von Teilchen zu tun.

              Hallo Henry,

              ja, das trifft zu, das Maxima sowie Minima zu beobachten sind, und zwar selbst dann, wenn die Photonen einzeln in beliebigen zeitlichen Abständen durch die beiden Spalte geschickt werden.

              Aber ich verstehe nicht, warum bei diesem Szenario diese einzelnen Photonen mit sich selbst interferieren müssen.


              Hallo Eugen,

              mir scheint, das lässt sich folgendermaßen erklären:

              Ein Photon hat — als sich ausbreitende Potentialwelle — die Form einer Kugelwelle bis hin zu den Stellen, an denen Hindernisse ungehinderte weitere Ausbreitung verhindern. Wenn im Hindernis Löcher oder Spalten sind, wird sich die Welle aber wenigstens durch dieser Löcher und Spalten weiter ausbreiten. Genau genommen wirken solche Löcher und Spalten dann erneut wie Lichtquellen, von denen sich jene Welle neu konfiguriert wieder kugelförmig (im Fall eines Loches) bzw. tonnenartig (im Fall eines Spaltes) ausbreitet (wegen der Beugung am Rand der Öffnung).

              De facto bedeutet das, dass sich das Photon hinter dem Doppelspalt in Form zweier Wellen ausbreitet, die gleiche Polarisation tragen und daher interferieren — man sagt dann, das Photon interferiere mit sich selbst.

              Wichtig ist, dass man die Lichtwelle hier als eine de-Broglie-Welle auffasst, als eine Welle also, die orts- und zeitabhängige Wirkwahrscheinlichkeit beschreibt: Die Wahrscheinlichkeit, dass die Energieportion, die das Photon darstellt, mit einer ein anderes Elementarteilchen darstellenden Energieportion interagiert.

              So gesehen wird das Experiment selbst noch für massebehaftete Teilchen (an Stelle von Photonen) Interferenz zeigen müssen. Anton Zeilinger und einige seiner Mitarbeiter haben das 1999 tatsächlich verifizieren können für Teilchen, deren jedes ein aus 60 Kohlenstoffatomen bestehendes Fulleren-Molekül war (siehe Wave–particle duality of C60 molecules und Anmerkungen dazu).

              Im folgenden Bild sind die sich durch den Doppelspalt ausbreitenden Energieportionen Elektronen:






              Gruß, grtgrt
               

                Beitrag 2052-42
              -

               
               
              Bauhof in 2052-39:
               
              Welche Interpretation ist nun für dich einsichtiger:

              Die Sprachregelung, dass die Photonen mit sich selbst interferieren oder die Kopenhagener Deutung, dass die möglichen Wege miteinander interferieren?


              Hallo Eugen,

              welche Sprachregelung man bevorzugt, scheint mir reine Geschmackssache zu sein.

              Interessant aber sind Argumente, die alles, was man in Doppelspalt-Experimenten (z.B. auch in Quanten-Radieren) beobachtet,  v o r h e r s a g e n .
              Meine Argumente in den Beiträgen 2052-7 und 2052-23 jedenfalls sind von dieser Art.

              Gruß, grtgrt
               

                Beitrag 2052-19
              -

               
               
              Henry in 2052-18:
               
              Mal davon abgesehe, dass deine Graphik etwas völlig anderes darstellt (es ist eine Elektronenkanone), dass es einer Messung / Beobachtung entspricht, was du da vorschlägst und das Photon sich somit wie ein Teilchen verhalten würde und es keine Interferenz gäbe - was ist, wenn das Photon tatsächlich gemessen wird? Breitet es sich dann nicht mehr wie eine "Kugelwelle" aus? Das ist nämlich das, was tatsächlich geschieht, wenn eine Messung erfolgt, es gibt kein Interferenzmuster.

              Außerdem breiten sich Photonen nicht wie Wellen aus, das ist falsch. Photonen breiten sich überhaupt nicht aus.


              Hallo Henry,

              in Experimenten mit dem Doppelspalt, so lese ich überall, verhalten sich Quanten mit Ruhemasse exakt so wie die ohne Ruhemasse (speziall also wie Photonen).

              Ein entsprechendes Bild für Photonen habe ich aber nicht, und so musste ich halt dieses hier nehmen, um Eugen zu erläutern, warum Photonen und andere Quanten
              auch mit sich selbst interferieren. Nicht zuletzt ist eben dieses Bild daran schuld, dass ich den Verdacht hege, Materiewellen müssten wohl — ebenso wie Lichtwellen — Polarisierung tragen. Unterlagen dazu, die ich wirklich verstehen würde, fand ich aber bisher nicht. Daher meine Bitte um Hilfe in Beitrag 2052-7.

              Gruß, grtgrt

              PS: Dass Materiewellen  k e i n e  Polarisationsebene haben könnten, sollte man ernsthaft nur in Erwägung ziehen, wenn Quantenradierer bislang ausschließlich mit Photonen gebaut wurden. Ein Beweis wäre auch das aber natürlich noch lange nicht.

              PS: Wenn Du darauf bestehst, das analoge Bild auch für Photonen zu sehen, dann findest Du so eines hier, hier und auch hier und hier.
              Sie alle illustrieren deutlich, dass Licht sich grundsätzlich als Kugelwelle auszubreiten versucht.

               

                Beitrag 2052-23
              Sektorwellen und warum ein Photon wirklich mit sich selbst interferieren kann

               
               
              Okotombrok in 2052-21:
               
              @ Grtgrt
              Wenn ein einzelnes Photon mit sich selbst interferrieren kann, müsste es sich dann nicht auch selber auslöschen können?
              Das ist meines Wissens noch nicht beobachtet worden.
               


              Hallo Okotombrok,

              meiner Vorstellung nach kommt das Photon auf den Doppelspalt zu in Form einer Kugelwelle (bzw. in Form einer Welle, die einem Kugelsektor entspricht, wenn das Photon schon vorher auf Hindernisse gestoßen ist); Statt » Kugelwelle « sollte man deswegen vielleicht besser » Sektorwelle « sagen.

              Das Traversieren des Doppelspaltes macht aus dieser ankommenden Sektorwelle zwei Sektorwellen (mit Quelle in je einem der beiden Spalte).


              Nun sind solche Wellen aber Potentialwellen. Daraus folgt zweierlei:
              • Die Wahrscheinlichkeit dafür, dass sie sich irgendwo hinter dem Doppelspalt als Teilchen zeigen — sprich: mit Materie wechselwirken — wird dort am größten sein, wo das Potential, das sie darstellen, seine maximalen Werte annimmt. Das erklärt, worauf Henry uns hinweist: Interferenz wird auch dann beobachtet, wenn man die Photonen  e i n z e l n  durch den Doppelspalt schickt.
              • Da die beiden Sektorwellen, in Form derer das Photon hinterm Doppelspalt existiert, örtlich verschieden Quelle haben (eben die beiden Spalte), ist ihre Summe – als Potentialfeld gesehen – natürlich mit keiner der beiden Sektorwellen identisch, sondern Überlagerung davon (= ein Interferenmuster erzeugt durch das Interferieren eben dieser beiden Teile des Photons).
                Zu sagen, das Photon — die auf den Doppelspalt zukommende wellenförmige Energieportion — interferiere mit sich selbst, macht daher Sinn.
                Zur Selbstauslöschung des Photons könnte es so aber nur dann kommen, wenn die beiden Sektorwellen, in die es sich beim Passieren des Doppelspaltes zerlegt, gleiche Quelle hätten und dennoch nicht gleiche Form. Das aber kann nicht sein, denn es gäbe dann ja nur einen Spalt und hinter ihm nur  e i n e  Sektorwelle.

              Interessant an der ganzen Geschichte ist eigentlich noch am ehesten, dass die beiden Sektorwellen Teile nur  e i n e s  Quants zu sein scheinen (da sie sich offenbar niemals in Form  z w e i e r  Teilchen zeigen, wenn sie mit der Fläche interagieren, auf der sich das Interferenzmuster zeigt.

              Denkt man das weiter, kommt man zur Ansicht, dass ein Photon — das auf seiner Reise durchs All ja auf extrem viele Hindernisse treffen wird — auch aus ent­sprechend vielen Sektorwellen bestehen könnte. Die naheliegende Vermutung, dass zueinander verschränkte Photonen p1 und p2 nichts anderes als Sektorwellen eines einzigen globalen Objekts p sein könnten, muss dennoch falsch sein, da Messung von p1 dieses p1 zerstören kann  o h n e  damit auch schon p2 zu zerstören (so glaube ich jedenfalls).

              Auf jeden Fall scheint richtig: Die Wellenfunktion eines Photons — deren Quadrat an jeder Stelle im All die Wahrscheinlichkeit dafür beschreibt, dass es sich dort als Teilchen zeigt — ist die Summe all seiner Sektorwellen.

              Gruß, grtgrt
               

                Beitrag 2052-48
              -

               
               
              Stueps in 2052-47:
               
              ... sehe ich eine Teilung der Ursprungswelle in "Sektorwellen" als äußerst problematisch an, da ein Quant dem Verständnis nach etwas Unteilbares sein sollte.


              Hi Stueps,

              natürlich: Das Quant (Photon) ist als Energieportion oder — wenn Du so willst — als nicht-lokales Objekt unteilbar. Der Doppelspalt  v e r f o r m t  es lediglich, so dass, was vor dem Spalt die Form einer Kugelwelle hat, sich dahinter präsentiert als Summe zweier von den Spalten ausgehender Sektorwellen.

              Gruß, grtgrt
               

                Beitrag 2052-50
              Der Well-Teilchen-Dualismus nach heutiger Auffassung (das "Teilchen" als Wellenpaket)

               
               
              Stueps in 2052-49:
               
              ... wenn ich dich zwinge, auf den Welle-Teilchen-Dualismus einzugehen, den du trotz mehrfachem Hinweis meinerseits komplett ignorierst. Meinst du, das merkt hier niemand?


              Was den Welle-Teilchen-Dualismus betrifft, so glaube ich da an die beiden folgenden Aussagen (die erste von hier, die zweite ist von mir selbst):


              Zitat von Hendrik van Hees (1998):
               
              Der » Welle-Teilchen-Dualismus « ist ein Relikt aus den Anfängen der Quantenmechanik, welches (leider) immer noch nicht ganz in Vergessenheit geraten ist.

              Heute betrachtet man die Quantenwelt ganz anders. So geht man davon aus, daß ein quantenmechanisches Objekt überhaupt keinen definierten Ort hat, solange man nicht nachschaut, wo es ist. Solange man keine Ortsmessung vornimmt, kann man nur eine Wahrscheinlichkeit dafür angeben, mit der man das Objekt an einem bestimmten Ort vorfinden wird. Wenn man dann tatsächlich mißt, so findet man entweder ein Teilchen, oder man findet keines — der Ort des Teilchens "entsteht" also quasi erst während der Messung.

              Die angegebene Wahrscheinlichkeit genügt dagegen der Lösung einer Wellengleichung, etwa der Schrödingergleichung oder der Diracgleichung. Dies bedeutet nun aber nicht, daß das Teilchen selbst eine Welle ist.
               


              Nur den letzten Satz in Hees' Aussage würde ich streichen, denn wer darauf besteht, ein Elementarteilchen als "Teilchen" zu sehen, der sollte zur Kenntnis nehmen, dass es eben doch eine im ganzen Universum präsente  W e l l e  ist — sie zeigt sich uns nur als Teilchen, da sie ja als Wellenpaket fast überall  f a s t  verschwindet (nur in einer extrem kleinen Region hat sie nenneswert von Null verschiedenen Wert).

              Aus diesem Grund sage ich:


              Zitat von Gebhard Greiter (2013):
               
              Ein quantenmechanisches Objekt hat überhaupt keinen definierten Ort — es ist einfach nur Potentialwelle (ein  K r a f t f e l d  also).

              Man kann nur eine Wahrscheinlichkeit dafür angeben, dass uns von einem bestimmten Ort her signalisiert wird, dass es dort per Elementarereignis mit anderen Objekten wechselgewirkt hat. Wer glaubt, ein quantenmechanisches Objekt als Teilchen registriert zu haben, hat lediglich jenes Signal registriert.
               


              Eine dritte Meinung, der ich ebenfalls voll zustimme, stammt von Norbert Hinterberger, der sich damit auf H. Dieter Zeh beruft (siehe das Zitat in Beitrag 1995-31).


              Gruß, grtgrt
               

                Beitrag 2052-27
              Wesentliches zur Polarisation von Materiewellen

               
               

              Was man schon 1929 über polarisierte Materiewellen wusste


              Am 25.2.1929 begann A. Landé seinen auf der Gautagung der Phys. Ges. Tübingen gehaltenen Vortrag » Polarisation von Materiewellen « mit folgenden Aussagen:

              Zitat von A. Landé (1929):
               
              Es ist ... versucht worden, durch Experimente nach dem Vorbild der Optik eine Polarisation von Materiewellen herszustellen.

              Solche Versuche werden insbesondere durch die Kreiselnatur der Elektronen nahegelegt; denn den zwei entgegengesetzten Einstellungen Im Magnetfeld entsprechen wellenmechanisch zwei unabhängige, d.h  n i c h t  interferenzfähige Wellen verschiedener » Polarisation «. ...

              Nach dem negativen Ausfall dieser Versuche ist es nicht überflüssig, auf die Verwandtschaft von wellenmechanischer und optischer Polarisation näher einzugehen und dabei auf andere Experimente hinzuweisen, die eher ein positives Ergebnis voraussehen lassen.


              Der Hauptunterschied zwischen optischer und wellenmechanischer Polarisation ist der, daß
              • in der Optik zwei linear polarisierte Wellen dann unabhängig sind, d.h. nicht miteinander interferieren, wenn sie um 90 Grad gegeneinander geneigt sind
              • zwei Elektronenwellen aber, wenn ihre Polarisationsrichtungen (oder punktmechanisch ihre Kreiselachsen) um 180 Grad differieren.

              Statt mit senkrecht gekreuzten Spiegeln muss man also mit Vorrichtungen operieren, bei denen zwei antiparallele Richtungen getrennt werden können (s.u.). Beachtet man diesen Unterschied, so läßt sich die Lehre von der Polarisation ziemlich wörtlich aus der Optik ins Wellenmechanische übertragen. ...


              Ein Polarisator für Materiestrahlen ist ein Stern-Gerlachscher Apparat mit inhomogenem Magnetfeld NS,
              • dessen eine Zerlegungskomponente man abblendet
              • und dessen andere man für sich untersucht (Fig.1).
              Der aus diesem Polarisator austretende Strahl hat nun ... wie gleich zu sehen ... eine nachweisbare Polarisation. ...






              Es möge noch kurz auf die mannigfaltigen Erscheinungen eingegangen werden, welche Atome zeigen würden, die optisch mehrere Zeemanterm-Komponenten besitzen, also im Stern-Gerlach-Apparat in mehrere (etwa 6) getrennte Strahlen zerfallen (Fig.3):

              Lässt etwa der Polarisator nur den obersten Strahl durch, so wird auch in einem ihm gleich gebauten und gleich gestellten Analysator nur der oberste Strahl auftreten.

              Die Frage, mit welcher Intensität eine aus dem Polarisator kommende Strahlkomponente vom Analysator durchgelassen wird, wenn letzterer um einen bestimmten Winkel φ gedreht ist, lässt sich zurückführen auf die Entwicklung von Kugelfunktionen nach Kugelfunktionen mit um φ gedrehtem Pol.
               

              Note: Ebenso wie es elliptisch polarisierte Photonen gibt, so gibt es auch elliptisch polarisierte Materiewellen (A. Landé sprach auch davon).



              Damit scheint mir (grtgrt) nun ganz klar, dass man auch auf Basis von Materiewellen Quantenradierer bauen kann und dass auch bei ihnen das Wegbleiben bzw. Auftreten von Interferenz seine letzte Ursache in unterschiedlicher Polarisation (bzw. Nichpolarisiertheit) der beiden Sektorwellen hat, in die sich die ankommende Materiewelle durch den Doppelspalt zerlegt.

              Ab sofort also kann ich selbst im Verhalten der Quantenradierer nichts Geheimnisvolles mehr sehen.

               

                Beitrag 2052-32
              -

               
               
              Okotombrok in 2052-31:
               
              Mit Quantenradierer ist nicht destrukrive Interferrenz gemeint, sondern das Auslöschen von Information.

              Das ist mir völlig klar.
              Die Pfadinformation verschwindet, weil der dritte Polarisationsfilter den senkrecht zueinander polarisierten beiden Sektorwellen gleiche Polarisation gibt.

               

                Beitrag 2052-30
              Wie Einstein Photonen charakterisiert sah

               
               
              Okotombrok in 2052-21:
               
              Licht besteht nicht aus Photonen, ein Photon ist nur die kleinste Wirkung, die mit Licht erzielt werden kann.


              Hallo Okotombrok,

              ein Photon als die kleinste durch Licht erzielbare  W i r k u n g  zu sehen, scheint mir absolut falsch. Zwei Gründe dafür:
              • Etwas Kleinstes kann es nicht sein, da seine Fähigkeit, Wirkung zu erzielen, umgekehrt proportional zu seiner Wellenlänge ist und es zu jedem Photon eines gibt, was noch längere Wellenlänge hat.
              • Auch ist es nicht Wirkung, sondern mehr die Fähigkeit, Wirkung hervorzurufen (ich sage: ein Photon ist eine Energieportion).

              Einstein sah die Energie des Lichts in zur Frequenz proportionalen Einheiten gequantelt, die er "in Raumpunkten lokalisierte Energiequanten" nannte, "welche sich bewegen, ohne sich zu teilen, und nur als Ganze absorbiert und erzeugt werden können" [Quelle: Albert Einstein: Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt. In: Annalen der Physik. 322, 6, 1905, S. 133, online hier.

              Allerdings schrieb Einstein 1951 in einem Brief an Michele Besso auch: "Die ganzen 50 Jahre bewusster Grübelei haben mich der Antwort der Frage 'Was sind Lichtquanten' nicht näher gebracht. Heute glaubt zwar jeder Lump, er wisse es, aber er täuscht sich..."

              Es kann also nicht schaden, wenn wir weiter darüber nachzudenken ...

              Gruß, grtgrt

               

                Beitrag 2052-55
              Über kleinste Ladungsportionen

               
              Henry in 2052-52:
              Das Elektron ist nicht "die kleinste Portion (Quant) der elektrischen Ladung)". Aus zwei Gründen: Ein Quark hat ein Drittel der elektrischen Ladung eines Elektrons, womit das Elektron nicht die "kleinste Portion" sein kann,...

              Hallo Henry,

              ich glaube, so einfach ist es dann nicht. Quarks kommen nicht frei vor, sondern nur in gebundenen Zuständen. So bilden up- und down-Quarks Neutronen oder elektrisch geladene Protonen - hier entspricht dann die Stärke der Ladung wieder der eines Elektrons. Quark-Antiquark-Paare sind elektrisch neutral, vermitteln also keine Ladung. Quark-Gluonenplasma ist nur "quasifrei". Letztlich läuft es also m.E. darauf hinaus, dass die "Portionsgröße" immer mindestens der eines Elektrons entspricht. Quarks voneinander zu trennen und zu isolieren funktioniert auch nicht: Die Energie, die dafür aufgewendet werden muss, lässt sofort z.B. neue Quark-Antiquark-Paare entstehen. So hat also ein down-Quark im Standardmodell zwar die (theoretische) Ladung -1/3, kann aber praktisch nie isoliert und isoliert beobachtet werden. So kann man m.E. durchaus dem Elektron die Eigenschaft zuschreiben, dass es das kleinste Quant elektrischer Ladung trägt.

              Grüße
               

                Beitrag 2052-58
              Fragen zu materieller Wirklichkeit und sog. verborgenen Variablen

               
              Stueps in 2052-56:
              Henry in 2052-54:
              Ist materielle Wirklichkeit sozusagen eine Überlagerung von Wahrscheinlichkeiten? Schwierig in Worte zu fassen, ich will nämlich nicht die materielle Wirklichkeit infrage stellen, aber kann es sein, dass materielle Wirklichkeit nicht aus ihren "Teilchen" heraus zu erklären ist, sondern nur als Gesamtheit?

              Hallo Henry nochmal,

              ich würde es eher als Zusammenspiel bezeichnen. Man kann Materie im tiefsten Grunde als Manifestation von Wahrscheinlichkeiten, und dem Zusammenspiel dieser Manifestationen sehen. Diese Manifestationen scheinen jedoch ziemlich stabil - Versuche haben ergeben, dass z.B. Protonen mindestens 1031 Jahre nicht zerfallen. Ganz schön lange, wie ich finde.

              Henry in 2052-54:
              Sind die "verborgenen Variablen" der Quantenmechanik nicht zu finden - auch im mathematischen Formalismus nicht -, weil wir sie an der falschen Stelle suchen?

              Okotombrok hat an anderer Stelle einen Link eingestellt, wo ein Physiker einen einstündigen Vortrag hält. In ihm wird auch die Bellsche Ungleichung kurz erörtert. Dort ist m.E. schön zu erkennen (wenn auch sehr schwierig zu verstehen), dass es wirklich keine verborgenen Variablen in der Quantenmechanik gibt. (Man kann diese Stelle ja mehrmals anschauen, ein Vorteil der modernen Technik). Ich war jedenfalls von der Leistung des Herrn Bell gelinde gesagt "platt", so etwas sich auszudenken, ist in meinen Augen schon fast übermenschlich.

              Deinen Vergleich mit "Emergenz" finde ich übrigens prima!

              Grüße

              Stueps, das ist mir alles bekannt, und ich finde die Leistungen, die dahinter stecken, nicht weniger prima! Aber ich habe ausdrücklich auf eine mögliche andere Sicht hingewiesen. Das widerspricht nicht den nachweislich richtigen Überlegungen der Quantenmechanik, solange sie experimentel überprüfbar sind. Es gibt aber definitiv Auswirkungen, die sich mit unseren Mitteln nicht erklären lassen. Ein möglicher Weg, dennoch Erklärungen zu finden, liegt eben vielleicht in der Emergenz der "Teilchen" oder auch "Wellen" (andere Begriffe haben wir nun mal nicht). Verstehst du, ich will dir gar nicht widersprechen, man kann eher sagen, ergänzen. Und, nun ja, ich denke eigentlich schon sehr lange über eine "holistische" Weltsicht nach, nur fehlen mir die physikalischen bzw. mathematischen Hintergründe, also bin ich vorsichtig mit "neuen" Weltbildern. Auf die Sprünge geholfen hat mir Lauhlin - muss mal schauen, wir er genau heißt, kommt nach.
               

                Beitrag 2022-6
              Was ist eine Welle im Sinne der Physik?

               
               
              U... aus 2022-3:
               
              Das mag jetzt vielleicht sehr naiv klingen, aber was ist denn eine "Welle"?

              Ich meine, was eine Welle auf dem Wasser ist, weiß ich schon, aber was unterscheidet denn eine Schallwelle von einer Lichtwelle, oder Kurzwelle / Langwelle / Mikrowelle / Radarwelle usw.?

              Um zu verstehen, warum ich so (dämlich?) frage: Eine Welle ist doch nach meinem bisherigen Kenntnisstand an Materie gebunden. Für die Wasserwelle braucht man halt Wasser, welches man in Bewegung versetzt. Bei Schallwellen benötigt man zur Übertragung ebenfalls ein Medium (Luft, Wasser, Festkörper), so dass im Vakuum kein Ton zu hören ist. Lichtwellen oder Funkwellen jedoch können durch Vakuum gehen. Welche "Materie" überträgt denn da zum Beispiel eine Funkwelle?


              Hallo U...,

              von einer Welle spricht man immer dann, wenn der Wert einer physikalischen Messgröße einer Schwankung unterliegt, die man mit Hilfe der Sinusfunktion beschreiben kann:

              w(x) = c1 • sin( c2 • ( x - x0 ) )


              Hierbei sind c1 und c2 Konstanten, x ein Punkt auf einer durch die Raumzeit führenden "Geraden", die durch einen festen Punkt x0 geht, und w(x) der von x abhängige Wert der Messgröße.

              Steht w(x) für eine Kraft, so spricht man von einem Kraftfeld.

              Im Falle elektromagnetischer Strahlung (Licht etwa), ist die Kraft, von der man da spricht, elektrische oder magnetische Kraft.
              Ist die betrachtete Kraft die Gravitationskraft, nennt man die Welle eine Gravitationswelle.

              Eine auf einem Raum einer Dimension n > 1 von einem Punkt x0 ausgehende Welle ist eine Funktion w(x), deren Restriktion auf jede durch x0 gehende "Gerade" dort die oben beschriebene Form hat.

              Im Kontext der ART muss man sich unter einer "Geraden" eine Geodäte der Raumzeit vorstellen.

              Wo man die Kraft als richtungsbehaftet sehen muss, stellt sie einen Vektor v(x) dar, der hinsichtlich jeder seiner Komponenten die oben beschriebene Form w(x) hat.
              Die Werte der Komponenten solcher Vektoren v(x) werden dann aber nicht mehr unabhängig voneinander sein.


              Gruß, grtgrt
               

                Beitrag 2022-9
              -

               
               
              Cybertine aus 2022-8:
               
              ... ich finde es immer wieder interessant, wie schwer es ist so etwas Abstraktes wie Energie allgemein vorstellbar (und nicht nur anhand ihrer physikalischen Eckdaten) verstehbar zu machen.


              Man könnte es vielleicht so ausdrücken:
              • Kraftpotential ist die Anwesenheit von Energie, und
              • Energie ist die Fähigkeit, dort, wo sie vorhanden ist, Zustandsänderung zu bewirken.

              Jede Welle — im Sinne der Physik — ist durch einen Takt geprägter, sich ständig wiederholender Auf- und Abbau von Kraftpotential (Energie, die sich ständig neu darstellt).

               

                Beitrag 2043-27
              Welche Form hat ein Photon?

               
               
              Kurt aus 2043-26:
               
              Also Leute, mich würde es schon interessieren was ihr zu den "Konstanten" sagst, annehmt das irgendwas Konstantes existiert, oder der Meinung seid (wie ich) dass es keine einzige davon gibt, es immer auf die Umstände am Ort ankommt was wie als nächstes geschieht.

              Achja, nocheins:
              Wer ist der Meinung dass es "Lichtkügelchen" (also Photonen) geben muss damit der äussere Photoeffekt, also die Freisetzung von Elektronen durch Lichteinwirkung, erklärt werden kann.
              Oder meint jemand dass man das auch anderweitig logisch und Naturkonform darstellen kann?

              Kurt

              Hi Kurt:


              Mindestens in der Mathematik gibt es Konstanten (Größen also, deren Wert sich  e i n d e u t i g  aus ihrer Definition ergibt). Beispiele sind:
              • die Kreiszahl π (als Verhältnis von Kreisumfang zu Kreisdurchmesser in Räumen mit euklidischer Geometrie)
              • die Basis e des natürlichen Logarithmus
              • und, allgemeiner noch, die e-Funktion (als einzige Funktion, die ihre eigene Ableitung ist – in unserer Welt Konstantes muss ja nicht notwendig nur eine einzige Zahl sein: Als  k o n s t a n t  könnte man alles bezeichnen, das in der ihm zugedachten Rolle nur einer Ausprägung fähig ist.)

              Was man als physikalische Konstante bezeichnet, ist eine Größe, der die Experimentalphysik bisher nur einen einzigen Wert zuordnen konnte (abgesehen von erwartbarer Messungenauigkeit) – natürlich unter der Voraussetzung, das jede dieser Messungen in einer Umgebung stattfand, die alle in der Definition der Größe genannten Nebenbedingungen garantiert hat.

              Wo eine physikalische Theorie davon ausgeht, dass eine physikalische Konstante in tatsächlich  j e d e r  möglichen Situation nur genau diesen einen Wert haben kann, ist das mit Teil der durch die Theorie gegebenen Hypothese (eines der Axiome, auf denen die Theorie aufbaut: eine Aussage also, die man als wahr annimmt, ohne sie wirklich beweisen zu können).


              Ein Photon ist ganz klar einfach nur eine Energieportion. Die einzige Form, die man ihm/ihr sinnvollerweise zuordnen kann, ist die einer polarisierten elektromagnetischen Potenzialwelle (aber ganz sicher nicht die eines "Kügelchens").


              Gruß, grtgrt


              PS: Gegeben irgend eine physikalische Größe, ist es eigentlich nur interessant zu fragen "Aus welchem Intervall kommen möglich Werte?". Wir nennen die Größe konstant, solange nichts darauf hindeutet, dass jenes Intervall mehr als nur einen Wert enthalten könnte.


               

               Beitrag 0-507
              Quantenphysikalische Unschärfe: Warum jede Messfrage mit über unsere Zukunft entscheidet

               
               

               
              Quantenphysikalische Unschärfe

              Definition und Konsequenz

               
               
              Unter quantenphysikalischer Unschärfe versteht man keineswegs nur Heisenbergs Unschärferelation, sondern zudem noch die Tatsache, dass
                 
              • wir von der Natur auf jede unserer Fragen stets nur ein JA oder ein NEIN erhalten,
                 
              • zu jedem Zeitpunkt stets nur eine Frage stellen können (z.B. niemals gleichzeitig nach Ort und Impuls eines Teilchens fragen können)
                 
              • und zudem die Natur auf den Inhalt jeder Messfrage so reagieren wird, dass sie sich in einen Zustand versetzt, der dem JA oder dem NEIN, das wir als Antwort bekommen, Sinn gibt.
                 
                Mit anderen Worten: Die Antwort, welche wir bekommen, wird sich stets auf den Zustand der Natur unmittelbar NACH ihrer Antwort beziehen. Nie aber wird sie uns ihren Zustand unmittelbar VOR unserer Messfrage beschreiben.
                 
                 
                 
                All das hat zur Folge, dass sogar noch der Inhalt jeder Messfrage
                 
                mit über unsere Zukunft bestimmt


                 

               Beitrag 0-388
              Reduktionismus ist zu ungenau: Das holistische Weltbild kommt der Wahrheit näher

               
               

               
              Das holistische Weltbild kommt der Wahrheit näher

               
               
              Der Holismus vertritt die Auffassung, dass ein System als Ganzes mehr ist als die Summe seiner Teile und daher viele seiner Eigenschaften nur aus einer ganzheitlichen Sicht heraus verstanden werden können.
               
              Dass dem wirklich so ist, hat erst die Quantenphysik (genauer: die Quantenfeldtheorie) uns klar gemacht.


              Der Quantenphysiker Hans-Peter Dürr (1997, wörtlich zitiert):
               
              "Astrophysiker neigen meist dazu, immer noch im Rahmen von klassischen Systemen wechselwirkender Teilchen zu denken.
               
               
              Ein Quantenphysiker aber fängt mit dem zusammenhängenden, nicht auftrennbaren, ganzheitlichen » Einen « an.
               
              Für den Quantenphysiker besteht weniger ein Problem darin, wie die Teile im Ganzen zusammenwirken, als vielmehr das umgekehrte Problem, wie eine Differenzierung des Ganzen, dieses » Einen « erfolgen kann, so dass es erscheint, als bestünde das Ganze aus wechselwirkenden Teilchen.

               
               
              So ist etwa das elektromagnetische Feld ein unendlich ausgebreitetes Energiefeld. Mit geeigneter Überlagerung von elektromagnetischen Wellen lässt sich ein lokalisiertes Wellenpaket erzeugen, das wie ein Lichtteilchen » ein Photon « aussieht.
               
              Der Differenzierungsprozess des » Einen « ist die Folge einer Selbstorganisation der Wellen: Die Erzeugung von Grenzflächen in dem » Einen « und nicht die Bildung von Gesamtsystemen aus zunächst » Getrennten «.
               
              Die gesamte Evolution [ des Universums ] erscheint als Differenzierungsprozess mit einer wachsenden Zahl von näherungsweisen Trennungen, wodurch sich Unterbereiche in gewissem Umfang verselbständigen.
               
              Das Hamiltonsche Prinzip der kleinsten Wirkung bedeutet aus dieser Sichtweise, dass hierbei unendlich viele Teilwellen [ gemeint sind sinusförmige, d.h. unteilbare Wellen ] miteinander spielen, so dass sie sich praktisch überall im Raum wechselseitig auslöschen ... Die klassische Bahn von Teilchen ist eine Folge dieses Prinzips."
               


               
              Quelle: Hans-Peter Dürr & Franz-Theo Gottwald: Rupert Sheldrake in der Diskussion — Das Wagnis einer neuen Wissenschaft des Lebens (1997), S. 271-272.


               

                Beitrag 1915-1
              Die (nicht widerlegbare) logische Struktur unserer Welt

               
               

              Über die Welt, in der wir leben


              Meine These 1:
              • Das Universum ist ein Quantensystem definiert durch seine Wellenfunktion.
              • Die Wellenfunktion jedes Quantensystems ist Summe der Wellenfunktionen einzelner Quanten.
              • Die Wellenfunktion jedes Quantums Q ist eine Summe von Wellenfunktionen, deren jede genau einen Zustand darstellt, in dem sich Q zeigen kann (jede dieser Wellenfunktionen nenne ich eine atomare Zustandswelle).
              • Wo Q einen Punkt der Raumzeit betritt oder verlässt, zeigt Q sich in genau einem dieser Zustände.
              • Jedes Elementarereignis erzeugt und/oder vernichtet Zustandswellen.
              • Ganz offensichtlich gilt: Je größer die Zahl der Quanten ist, aus der ein Quantensystem QS besteht, desto weniger wird ein einzelnes Elementarereignis den Gesamtzustand von QS abändern.
              • Kein Wunder also, dass
                  uns ein Quantensystem umso konkreter erscheint, je größer es ist (seine Größe definiert als Zahl der seine Zustandswelle darstellenden atomaren Zustandswellen)
                  und dass es sich — aus nicht allzu mikroskopischer Sicht — stetig zu entwickeln scheint, d.h. kontinuierlich in kleinsten Schritten.

              Meine These 2:
              • Es kann mir niemand beweisen, dass diese Sicht falsch ist.


              grtgrt, Gebhard Greiter

              Wo oben von einer "Summe" der Wellenfunktionen gesprochen wird, darf man das nicht ganz wörtlich nehmen. In Wirklichkeit ist die Situation etwas komplexer: Jene "Summe" ist Lösung eines Eigenwertproblems, in dessen Zentrum die Schrödingergleichung des jeweils betrachteten Quantensystems steht.

               

                Beitrag 1915-3
              Wie sich Dekohärenzprozesse einordnen

               
               
              E... aus 1915-2:
              Welche Rolle spielen bei Deinem Weltmodell die Dekohärenzprozesse?

              Hallo E...,

              sie sind im Modell durchaus berücksichtigt, denn:


              Nach These 1 ist unsere Welt eine Konfiguration M verschieden wahrscheinlicher Möglichkeiten, gewisse Form anzunehmen. Jedes Elementarereignis E = E( M) ist eines der von M als möglich eingestuften. Sein Eintreten ersetzt M durch eine neue Version M( E). Auf diese Weise konkretisiert und generiert unsere Welt sich ständig neu.

              Ein Elementarereignis E kann eintreten
              • entweder spontan (so dass ohne jede erkennbare Ursache ein Paar virtueller Teilchen entsteht oder vergeht)
              • oder durch Kollision existierender Teilchen (Dekohärenz): Zusammenstoßende Quanten nehmen einander wahr und führen so zum Kollabieren ihrer Wahrscheinlichskeitswelle).


              Beste Grüße,
              grtgrt
               

                Beitrag 1915-5
              Der Heisenberg-Zustand des Universums

               
               
              H... aus 1915-4:
              Grtgrt aus 1915-1:
              Das Universum ist ein Quantensystem definiert durch seine Wellenfunktion.

              Hier wäre ich etwas zurückhaltender in der Formulierung. Klar ist, dass ein quantenmechanisches S. durch seine Wellenfunktion (die übrigens empirisch gewonnen wurde, nicht durch Herleitung! Und die man bestimmen muss.) vollständig beschrieben wird (das ist ein Grundpostulat der QM). Aber hier geht z.B. keine Gravi ein. Schrödinger hat damals versucht, die RT einfliessen zu lassen, was er aber aufgegeben hat.

              Hi H...,

              viel von dem, was ich heute glaube, geht zurück auf meine Lektüre des wunderbaren Buches von Lothar Schäfer: Versteckte Wirklichkeit (Hirzel 2004).

              Er schreibt da z.B. auf Seite 51:

              Zitat von Lothar Schäfer :
               
              ... der wellenartige Zustand der Wirklichkeit ... von Heisenberg (1958) auch "Wahrscheinlichkeitsfunktion" genannt. Stapp (1993) verallgemeinert diesen Begriff, indem er ihn den "Heisenberg-Zustand des Universums" nennt [und beschreibt wie folgt:
               
              Zitat von Stapp aus: Mind, Matter, and Quantum Mechanics (1993):
              In Heisenbergs Modell ... wird die klassische Welt der Materieteilchen ... durch den Heisenberg-Zustand des Universums ersetzt. Diesen Zustand kann man sich als komplizierte Welle vorstellen, die sich ... in Übereinstimmung mit örtlich-deterministischen Bewegungsgesetzen entfaltet.

              Doch dieser Heisenberg-Zustand stellt nicht das tatsächliche physikalische Universum selbst im üblichen Sinne dar, sondern nur eine Menge " objektiver Tendenzen" oder " Neigungen", die mit einem bevorstehenden tatsächlichen Ereignis verbunden sind: Für jede von den einander ausschließenden möglichen Formen, die das tatsächliche Ereignis annehmen könnte, bestimmt der Heisenberg-Zustand eine Neigung oder Tendenz für das Ereignis, eben diese Form anzunehmen.

              Die Wahl zwischen den einander ausschließenden möglichen Formen wird dabei als völlig vom "reinen Zufall bestimmt" gedacht, der durch jene Tendenzen beeinflusst wird.

              Gruß, grtgrt
               

                Beitrag 1915-6
              Definition des Begriffes "atomare Zustandswelle"

               
               
              H... in 1915-4:
              Grtgrt in 1915-1:
              [/list
              • Die Wellenfunktion jedes Quantensystems ist Summe der Wellenfunktionen einzelner Quanten.
              Superposition? d'Accor

              Grtgrt in 1915-1:
              • Die Wellenfunktion jedes Quantums Q ist eine Summe von Wellenfunktionen, deren jede genau einen Zustand darstellt, in dem sich Q zeigen kann (jede dieser Wellenfunktionen nenne ich eine atomare Zustandswelle).

              Hm, was meinst du? Ich versuche es mal mit dem (etwas verkürzten) 1x1 der QM:
              sein F der zu einer phys. G. gehörige Operator, φ der Zustandsv. (Wellenfkt.), dann bekommt man scharfe Werte, wenn
              gilt (F - F) φ = 0 (falls mittl. qu. Abw. der Zustände 0). D.h. die Eigenfunktionen φ des Operators sind die messbaren
              Zustände, die man messen kann, nicht muss (und genau die und keine anderen!!!).

              Hi H...,

              vielen Dank für diese Klarstellung.

              Sie zeigt mir, dass das, was ich eine atomare Zustandswelle nenne, in Wirklichkeit eine jener Eigenfunktionen ist.

              Beste Grüße,
              grtgrt
               

                Beitrag 1915-7
              Erklärung der transzendenten Dimensionen unserer Welt

               
               
              H... aus 1915-4:
              Grtgrt aus 1915-1:
              [/list
              • Wo Q einen Punkt der Raumzeit betritt oder verlässt, zeigt Q sich in genau einem dieser Zustände.
              • Jedes Elementarereignis erzeugt und/oder vernichtet Zustandswellen.

              Hier wäre interessant, was betreten heisst und von WO kommt Q?

              Es gibt ja eigentlich nichts weiter ausser der Raumzeit. Diese ist durch gewisse Energiezustände charakterisiert.
              Nun kann es durch wohlbeschreibbare Fluktuationen passieren, dass ein Teil der vorhandenen Energie sich in ein Partikel/Antipartikel formt
              und sofort wieder zerstrahlt. Casimir hat dies ja sogar exp. dingfest gemacht.

              Hi H...,

              mein Wort betreten steht für das Kollabieren der Wahrscheinlichkeitswelle und soll daran erinnern, dass man hier die transzendente Welt möglicher Alternativen verlässt und so hineintritt in die materielle Wirklichkeit des (durch die Raumzeit modellierten) Universums.

              Die Frage, woher das Quantum Q kommt, ist die eigentlich interessante — ich beantworte sie wie folgt:
              • Das Universum scheint über die 4 uns bekannten Dimensionen hinaus weitere, rein konzeptuelle Dimensionen zu haben (in denen dann die durch Heisenberg so bezeichneten " Neigungen" und " Tendenzen" als transzendente Größen existieren).
              • Das Betreten der materiellen Wirklichkeit des Universums entpräche dann dem Projezieren der 4+N-dimensionalen Gesamtwelt auf einen der Raumzeit ent­sprechenden 4-dimensionalen Raum, den man zu sehen hätte als jene Teilmenge der Menge aller Punkte der Gesamtwelt, die in Dimension 5 bis 4+N identischen Koordinatenwert haben — eben jenen Wert, welcher dem Zustand entspricht, zu dem hin die Wahrscheinlichkeitswelle kollabiert (und der das Quantum Q enthält).
              • Jede Projektion in diesem Sinne ließe sich auffassen als genau eine der Welten des Hugh Everett III.

              Beste Grüße,
              grtgrt

              PS: Die Dimensionen 5 bis 4+N sollte man als die transzendenten Dimensionen unserer Welt bezeichnen. Sie scheinen rein konzeptueller Art zu sein (und sind wohl das, was wir als mathematische Gesetzmäßigkeiten kennen, genauer: z.T. kennen).

               

                Beitrag 1992-1
              Die Welt besteht aus Vergangenheit, Gegenwart und Varianten möglicher Zukunft

               
               
              Anton Zeilingers Buch "Einsteins Schleier" endet mit folgendem Argument (hier gekürzt wiedergegeben):

                Ludwig Wittgenstein beginnt seinen berühmten Tractatus Logico Philosophicus mit der Aussage:
                 
                Zitat von Wittgenstein:
                 
                Die Welt ist alles, was der Fall ist.
                 
                  Nun kann man aber in der Quantenmechanik nicht nur Aussagen darüber treffen, was der Fall ist, sondern auch Aussagen darüber, was der Fall sein kann, genauer: was der Fall sein könnte. Selbstverständlich sind diese Aussagen auch Teil der Welt.
                    Daher ist die Welt mehr, als was Wittgenstein meint, und so beendet Zeilinger sein Buch mit der Wittgenstein korrigierenden Aussage:  
                     
                    Zitat von Zeilinger:
                     
                    Die Welt ist alles, was der Fall ist, und auch alles, was der Fall sein kann.

                  Damit aber — so lese ich das — sagt Zeilinger schon fast dasselbe wie Hugh Everett III mit seiner Viele-Welten-Theorie.

                  Beide schießen damit weit übers Ziel hinaus, denn es gilt ja ganz offensichtlich:


                    Die Welt besteht aus Vergangenheit, Gegenwart, und Varianten möglicher Zukunft.
                    • ein Teil der Gegenwart zu weiterer Vergangenheit wird,
                    • ein winziger Teil der möglichen Zukunft — eine unter mehrereren Alternativen — diesen Teil der Gegenwart ersetzt,
                    • und die Varianten möglicher Zukunft sofort entsprechend neu konzipiert sind.


                  Nach Everett wäre die Welt einem Baum vergleichbar, bei dem aus jeder Knospe schließlich ein Ast wird. Tatsächlich aber ist unsere Welt einem Baum vergleichbar, bei dem ein Gärtner dafür sorgt, dass nur einem ganz kleinen Teil aller möglichen Zweige und Äste gestattet wird, tatsächlich Wirklichkeit zu werden: Vergangenheit und Gegenwart sind genau eine, sich ständig erweiternde Version des Baumes, alles sonst ist nur sich ständig neu definierende  P o t e n t i a  (im Sinne Heisenbergs).

                  Man sollte sich darüber klar sein, dass der Teil unserer Welt, der aus Zukunftskonzeption besteht, vergleichsweise klein ist: Er besteht nur aus dem Überlagerungszustand, den die Gegenwart kennt, d.h. aus dem Wissen, das die eben gültige Wellenfunktion unseres Universum darstellt (wenn wir es als Quantensystem betrachten). Wir alle wissen, wie schnell dieses Wissen veraltet. Es beschreibt letzlich nur  v o r h e r s e h b a r e  Alternativen unmittelbar bevorstehender Zukunft.


                  Gebhard Greiter (grtgrt)


                  PS: Das Bild von den » Varianten möglicher Zukunft «, die durch Elementarereignisse real, obsolet, und fortgeschrieben werden, scheint mir klarer und hilfreicher als die ent­sprechenden Bilder von Niels Bohr und C.F. v. Weizsäcker, die Thomas Görnitz auf Seite 117 seines Buches "Die Evolution des Geistigen" so charakterisiert:


                  Zitat von Görnitz:
                   
                  Bohr hatte vollkommen zutreffend erkannt, dass die Quantentheorie kein Entstehen von Fakten — und somit auch kein Messergebnis — beschreiben kann. Das macht aus seiner Sicht die Beteiligung eines klassischen Systems am Messvorgang zwingend erforderlich. Da wir Menschen uns normalerweise als faktisch existent erleben, wählte Bohr den "Beobachter" als das klassische System, das die Fakten erzeugen kann.

                  Die Quantenmöglichkeiten werden als  m ö g l i c h e s  W i s s e n  verstanden, und beim Erwerb von neuem Wissen [ der mögliches Wissen zu faktischem Wissen macht, ] ändert sich das vorherige Wissen sofort.

                  Zitat von Görnitz:
                   
                  Weizsäcker betonte die Quantentheorie als Theorie  m ö g l i c h e n  Wissens, das durch eine Kenntnisnahme (Messung) sofort verändert wird.


                  Zitat von Gebhard Greiter:
                   
                  Neben Beobachter und Messung stets auch den Begriff Elementarereignis parat zu haben, macht es leicht, durch Menschen wahrnehmbare Objekte ganz klar als das zu erkennen, was sie sind: eine Art Film:

                  Physikalische Objekte existieren nicht in klassischer Form — sie  z e i g e n  sich nur in dieser Form (dann nämlich, wenn ein Elementarereignis passiert und zur Folge hat, dass aus dem Objekt Quanten in seine Umgebung entkommen. Sie sind es, was wir sehen bzw. registrieren, und so den Eindruck gewinnen, das Objekt selbst sei sichtbar und würde klassisch existieren).

                  Die Tatsache, dass pro Sekunde wahnsinnig viele solche Ereignisse passieren, suggeriert uns den Eindruck eines stehenden "Bildes" (eben ganz so, wie wir ja z.B. auch das durch eine gute Fernsehkamera erzeugte Bild eines sich gerade NICHT bewegenden Gegenstandes als stehend empfinden, obgleich doch in Wirklichkeit all die Pixel, aus denen es sich zusammensetzt, pro Sekunde öfters neu geschrieben werden als unsere Augen noch unterscheiden können).
                   

                   

                    Beitrag 2027-1
                  Denkbare Gründe für die Quantelung aller Wirkung

                   
                   

                  Wo immer in unserer Welt Wirkung eintritt, ist sie Vielfaches des Planckschen Wirkungsquantums.


                  Dieser Diskussionsfaden soll dazu dienen,

                  über denkbare, d.h. mindestens rein logisch mögliche Ursachen dieser Tatsache nachzudenken.


                  Ich persönlich kann mir mindestens zwei völlig unterschiedliche Begründungen für die Existenz des Wirkungsquantums vorstellen:

                  Möglichkeit 1:
                    Unsere Welt (das Universum und alles, was darin geschieht) könnte tatsächlich eine rein nur errechnete sein — eine Simulation also, die sich als Menge von Information darstellt, die ständig über ein uns nicht bekanntes Regelwerk fortgeschrieben wird (etwa in dem Sinne, in dem Expertensysteme durch wiederholte Anwendung eines Regelwerkes auf vorhandene Information neue Information erzeugen).

                  Möglichkeit 2:
                    Unser Universum könnte tatsächlich ein System schwingender Strings sein, deren jeder endliche Länge hat und demnach nur Schwingungszustände ganz bestimmter Frequenzen annehmen kann.

                  Zunächst erscheint uns Möglichkeit 1 als die mit Abstand unwahrscheinlichste, da es dann ja jemand geben müsste, der diese Simulation programmiert und gestartet hat.

                  Auf den zweiten Blick aber wäre es nicht weiter erstaunlich, dass wir ihn nicht kennen (falls es ihn gibt): Schließlich und endlich kennt ja auch keines der heute allgegen­wärtigen Software-Programme seinen Erzeuger oder weiß, dass es ihn gibt.

                  Sicher ist: Die Möglichkeit 2 führt auf weit mehr Fragen, als nur auf die nach dem Schöpfer der Möglichkeit. Solche Fragen wären z.B.

                  • Als wichtigste: Wie kommt es, dass das System jener Strings (bzw. auch einzeln jeder String selbst) ständig neue Konfiguration annimmt?
                  • Und was genau schwingt da eigentlich?
                  • Können Strings vergehen und neue entstehen?
                  • Wie viele Dimensionen (Freiheitsgrade) kann so ein "String" haben?

                   

                    Beitrag 2027-3
                  Programme, die sich selbst kennen (und sich sogar selbst modifizieren können)

                   
                   
                  Bauhof aus 2027-2:
                  Grtgrt aus 2027-1:
                   
                  Auf den zweiten Blick aber wäre es nicht weiter erstaunlich, dass wir ihn nicht kennen (falls es ihn gibt):
                  Schließlich und endlich kennt ja auch keines der heute allgegen­wärtigen Software-Programme seinen Erzeuger oder weiß, dass es ihn gibt.
                   

                  Hallo Grtgrt ,

                  dein Vergleich hinkt gewaltig, denn keines der heute allgegenwärtigen Software-Programme kann irgendetwas wissen.

                  M.f.G. Eugen Bauhof

                  Hallo Eugen,

                  es gibt durchaus Software-Programme, die (auf bestimmter Abstraktionsebene) sehr viel über sich selbst wissen. Man nennt sie "regelbasiert arbeitende Programme".

                  Mehr noch: Es gibt sogar solche, die in der Lage sind, sich selbst — auf Basis dieses Wissens — zu modifizieren (trainierbare KI Software wie etwa künstliche neuronale Netze).

                  Beste Grüße,
                  grtgrt
                   

                   Beitrag 0-423
                  Wo auch Wissenschaft Religion ist

                   
                   

                   
                  Zum — eher nur kleinen — Unterschied zwischen Wissenschaft und Religion

                   
                   
                  Fanatische Atheisten argumentieren gerne, wie dumm es sei, religiös zu sein.
                   
                  Sie übersehen dabei ein Faktum, auf das John Barrow (preisgekrönter Mathematiker und Professor für Astronomie) hinweist:
                   


                  John Barrows Argument (1995):
                   
                  Immer wieder macht Barrow deutlich, daß die Naturwissenschaften — und darin unterscheiden sie sich gerade NICHT von Religion — auf Annahmen beruhen.
                   
                  Diese sind mitunter so fest in unserem Weltbild verankert, daß sie uns schwerlich bewußt werden; das macht es so schwierig, sie zu überwinden, wenn sie sich als falsch herausstellen. Der erste Schritt zu einer solchen Überwindung ist, die Annahme explizit zu machen.
                   
                  Meist war mit der Entwicklung einer erfolgreichen Theorie ein Sich-Lösen von einer bis dahin selbstverständlichen Weltanschauung verbunden. Die Erde verschwand aus dem Zentrum des Kosmos, dann gingen bei Albert Einstein die Uhren anders, und schließlich sind Elementarteilchen nicht mehr mit Sicherheit, sondern nur noch mit einer gewissen Wahrscheinlichkeit an einem bestimmten Punkt anzutreffen. Noch nicht gelungen ist den Physikern die Vereinheitlichung von Relativitätstheorie und Quantentheorie, wenn auch zur Zeit viel Hoffnung in die Theorie der Superstrings gesetzt wird. Von welchem Denken müssen wir uns diesmal lösen?
                   
                  Barrow beschreibt, ohne sich in Spekulationen zu verlieren, wo man heute nach Lösungen sucht. Ebenso sorgfältig, wie er zu Beginn seines Buches die grund­legenden Annahmen der heutigen Naturwissenschaften auflistet, stellt er sie später eine nach der anderen in Frage.
                     
                  • Gibt es überhaupt Naturgesetze, oder ist es einfach nur menschlich, eine Ordnung zu sehen, wo keine ist, um sich im Chaos der Welt zurechtzufinden?
                     
                  • Macht es dann überhaupt noch Sinn, nach einer Vereinheitlichung zu fragen? Und warum scheint die Mathematik ein so hilfreiches Beschreibungsmittel zu sein?
                     
                  • Leben wir nur in einer von unendlich vielen Welten, in der zufällig die Bedingungen so sind, daß sie Leben ermöglichen, oder haben der Urknall (falls es ihn denn gab) oder die Geschichte des Kosmos unser Sein ermöglicht?
                     
                  • Was ist an den Grenzen von Raum und Zeit?

                  Barrow betont die axiomatische Grundlage der theoretischen Physik und hinterfrägt sie kritisch.
                   
                  Wie viele andere Physiker erkannt haben, ist theoretische Physik nichts anderes als ein Interpretieren beobachtbaren Verhaltens der Natur im Lichte als gegeben angenommener, aber nicht überprüfbarer Annahmen über ihre Struktur.
                   
                   
                  Steven Hawking drückt es so aus: Wir haben kein modell-unabhängiges Verständnis von der Natur.

                   
                   
                  Letztlich also basiert alle Naturwissenschaft auf Annahmen, die wir — ebenso wie religiöse Grundannahmen — nicht beweisen können ( ja sogar als mit großer Sicherheit als allzu konkret anzusehen haben).
                   


                   
                  Quelle: Sabine Stöcker über John Barrows Buch: The World Within the World (1988)
                   
                  In deutscher Übersetzung: Die Natur der Natur. Wissen an den Grenzen von Raum und Zeit


                   

                   Beitrag 0-185
                  Mit was genau befasst sich z.B. Natur- oder Geisteswissenschaft?

                   
                   

                   
                  Klassifikation der Gegenstände von Wissenschaft

                   
                   
                  Recht oft wird behauptet, der Unterschied zwischen den Geisteswissenschaften und den Naturwissenschaften bestünde darin, dass
                     
                  • Naturwissenschaft sich mit der Natur befasse,
                     
                  • Geisteswissenschaft aber mit den Erzeugnissen des menschlichen Geistes.

                  Wer sich nun aber klar macht, dass selbst die Physik nur darüber sprechen kann, wie sich der Mensch die Wirklichkeit vorstellt — aber nicht wissen kann, wie sie wirklich funktioniert —, dem wird klar, dass auch Naturwissenschaft nur Dinge zum Gegenstand haben kann, die menschlicher Geist erzeugt.
                   
                  Wie also, so wird man dann fragen, grenzt sich Naturwissenschaft tatsächlich ab gegen die Geisteswissenschaften?
                   
                  Sinnvoll scheint folgende Antwort:
                     
                  • Naturwissenschaft ist ein systematisches Beobachten, Erforschen und Vorhersagen des Verhaltens der Natur. Sie befasst sich mit Realität (d.h. mit der Menschen Vorstellung von der Wirklichkeit).
                     
                  • Geisteswissenschaft befasst sich mit Kreationen des menschlichen Geistes, die dieser Geist um ihrer selbst willen erschaffen hat (Kunst, Literatur, Musik).
                     
                  • Religionswissenschaft befasst sich mit Fragen über durch manche Menschen vermutete Wirklichkeit sowie mit der Geschichte des Entstehens dieser Vorstellungen.
                     
                  • Geschichtswissenschaft befasst sich mit der Realität unserer Vergangenheit.
                     
                  • Mathematik ist Werkzeug und gemeinsame Schnittmenge aller Natur- und Geisteswissenschaften.

                   
                   
                  Lies mehr zu Naturwissenschaft und Natur.

                   

                   Beitrag 0-377
                  Über Wissenschaft und die Skeptiker-Bewegung

                   
                   

                   
                  Wer argumentiert, wie die Skeptiker-Bewegung es sich angewöhnt hat,

                  macht sich als Wissenschaftler unmöglich

                   
                   
                  Mitglieder der Skeptiker-Bewegung sehen sich als selbsternannte Hüter der Wahrheit.
                   
                  Sie haben nicht gelernt zu unterscheiden, was persönliche Überzeugung einerseits und wissenschaftliches Ergebnis andererseits ist.
                   
                  Diesen Unterschied zu kennen ist für Wissenschaftler aber unabdingbar: Schließlich argumentieren sie ja an der Grenze aller wissenschaftlichen Erkenntnis. Ihre zentrale Aufgabe ist das Hinausschieben dieser Grenze unter der Nebenbedingung, dass nichts, was Wissenschaft als erwiesen einstuft, falsch sein darf.
                   
                   
                   
                  Liebe Ute,
                   
                  Deine Beiträge auf guteFrage.net legen mir nahe, dass du ein wirklich guter, kompetenter Physiker und Astrophysiker bist: Du kennst die derzeitige Lehrmeinung ganz genau.
                   
                  Viele deiner Antworten auf meine Beiträge legen mir aber auch nahe, dass dir zum Wissenschaftler wenigstens noch die Fähigkeit — und vielleicht auch der Wille? — fehlt, absolut objektiv zu denken: Du verwechselst deine eigene Überzeugung und die derzeit vorherrschende   »  M e i n u n g  «   wichtiger Personen allzu oft mit dem, was Wissenschaft schon beweisen konnte.
                   
                   
                  Die Geschichte der Wissenschaften kennt zahlreiche Fälle, in denen sich die damals vorherrschende Lehrmeinung später als ganz gewaltiger Irrtum erwies.
                   
                  Bekanntes Beispiel — gerade erst mal 100 Jahre alt — ist die von Fachleuten zunächst als "mit Sicherheit falsch" eingestufte Theorie des Kontinentaldrifts.
                   
                  Sie sollte warnendes Beispiel sein für dich und die Skeptikerbewegung.

                   
                   
                  Warum ignorierst du solche Beispiele?
                   
                   
                  Ohne Beweis kann selbst die feste Überzeugung fast aller noch falsch sein.

                   
                   
                  Max Planck gilt als Inbegriff eines objektiv denkenden Wissenschaftlers. Er kam zu einem Ergebnis, an das er selbst nicht so recht glauben wollte. Einzig und allein die Tatsache, dass es ihm logisch einwandfrei hergeleitet erschien, hat ihn bewogen, es zu veröffentlichen. Wie wir heute wissen, hat es die Physik — und nicht nur sie — weit dramatischer, weit schneller und deutlich nachhaltiger vorangebracht, als jedes andere wissenschaftliche Ergebnis zuvor. Daher:
                   
                  Sich als Wissenschaftler Max Planck zum Vorbild zu nehmen macht deutlich mehr Sinn als Richard Dawkins zu folgen. Zu argumentieren wie er ist eines ehrlichen Denkers nicht würdig.
                   
                   
                   
                  Kein Argument anderer für eine Theorie als überzeugend einzustufen, widerlegt sie noch lange nicht.


                   

                   Beitrag 0-455
                  Wie auch Wissenschaftler gelegentlich nur Pseudowissenschaft propagieren

                   
                   

                   
                  Wie sich Wissenschaft von Pseudowissenschaft unterscheidet

                   
                   
                  Der Experimentalphysiker Richard A. Muller (geb. 1944, Doktorvater des späteren Nobelpreisträgers Saul Perlmutter) hat es gut auf den Punkt gebracht, indem er erklärt hat, warum man Arthur Eddingtons These, der Zeitpfeil hätte irgend etwas mit dem 2. Hauptsatz der Thermodynamik zu tun, als etwas einzustufen hat, das schlimmer ist als Astrologie:
                   
                   
                  Eddingtons These ist nicht falsifizierbar!

                   
                   
                  Muller argumentiert wie folgt:


                  Richard A. Muller (2016):
                   
                  Die theoretische Physik darf die Bodenhaftung nicht verlieren, sondern muss darauf bestehen, dass
                     
                  • Theorien falsifizierbar sind
                     
                  • und es für akzeptierte Theorien stets neu überprüfbare experimentelle Ergebnisse gibt.

                  Wie wichtig das ist, zeigt Einsteins Theorie zur Brown'schen Bewegung:
                   
                  Schon kurz nach ihrer Veröffentlichung gab es eine Reihe von Experimenten, deren Resultat Einsteins Theorie zu widerlegen schienen. Es hat ganze 4 Jahre gedauert, bis klar wurde, dass diese Experimente fehlerhaft waren. Richtig durchgeführt haben sie Einstein schließlich bestätigt (was fast schlagartig dazu geführt hat, dass man Atome und Moleküle nun allgemein als tatsächlich existierend anerkannt hat).
                   
                   
                  Zu den Theorien, die nicht falsifizierbar sind, gehören Spiritualismus, Intelligent Design, aber eben auch der von Arthur Eddington behauptete Zusammenhang zwischen Entropie und Zeitpfeil.
                   
                  Vermutlich fallen einem noch andere ein. Unter diesen kommt die Astrologie der Möglichkeit, sie durch Beobachtung zu widerlegen, noch am nächsten:
                   
                  Ein sorgfältiges Expirement von Shawn Carlson (bei dem ich als wissenschaftlicher Berater mitwirkte und einen Teil meines Waterman-Preises zur Erstellung der astrologischen Karten verwendete) wurde veröffentlicht im angesehenen Wissenschaftsjournal Nature [Shawn Carlson: A double-blind test of Astrology, Nature 318, Dec 1985]:
                   
                  Shawn überprüfte die Grundthese der Astrologie, wonach der genaue Geburtszeitpunkt im Zusammenhang mit Persönlichkeitsmerkmalen stehe. Sein Doppelblindversuch hat diese These klar widerlegt.
                   
                  An der Studie beteiligt ware mehrer angesehene Astrologen aus der ganzen Welt. (Ja, es gibt solche tatsächlich, und die meisten von ihnen haben einen Doktortitel in Psychologie.)
                   
                  Nachdem das Ergebnis der Studie jene Astrologen widerlegt hat, waren sie schockiert und enttäuscht, aber keiner von ihnen wandte sich deswegen von der Astrologie ab (!).
                   
                  Wissenschaft hat die Astrologie demnach falsifiziert — womit man dann Astrologen, die dennoch weiter an sie glauben, als Pseudwissenschaftler bzw. Esoteriker einzustufen hat.
                   


                   
                  Muller erklärt weiter:
                   
                  Eddington — und praktisch alle Autoren, die zwischen Entropie und Zeitpfeil einen Zusammenhang behaupten — argumentieren gerne mit dem Beispiel einer Teetasse, die vom Tisch fällt und dann am Boden im zahlreiche Stücke zerbricht. Wer den Vorgang filmt und sich den Film dann rückwärts abgespult ansieht, sehe klar, dass der Vorgang rückwärts in unserer Welt nicht vorkommt.
                   
                  Aber, so sagt Muller, Menschen konstruieren ja Teetassen: Sie nehmen Ausgangsmaterialien, denen hohe Entropie innewohnt (ton-haltigen Schlamm), extrahieren daraus den Ton, verfeinern das Materiel und formen schließlich Teetassen. Würde man auch diesen Vorgang filmen und dann rückwärts abgespult betrachten, so dass man dann sähe, wie eine Teetasse zu Ton und im Wasser verdünnten Ton wird, wäre die Umkehr der Zeit offenkundig.
                   
                  Eddingtons Denkfehler bestand also darin, dass er seine These mit Beispielen zu belegen versuchte, die allzu einseitig ausgewählt waren. Damit, so Muller, habe er uns (und sich selbst) hinters Licht geführt.
                   
                   
                  Wir sind umgeben von Beispielen abnehmender Entropie: Wir schreiben Bücher, bauen Häuser, gründen Städte. Kristalle wachsen, und Pflanzen bilden großartig organisierte Strukturen. Die Entropie eines Baumes etwa ist ungeheuer viel geringer als die von Gas, Wasser oder im Wasser gelösten Mineralstoffen, aus denen der Baum entstanden ist.
                   
                  Auch im Weltraum können wir sehen, wie Entropie — lokal jedenfalls — stark abnehmen kann: Aus dem Urplasma haben sich erst Teilchen gebildet, dann ganze Sterne mit Planeten und schließlich sogar Lebewesen.
                   
                   
                  Quelle: Richard A. Muller:  Jetzt — Die Physik der Zeit  (2018), S. 217-236
                   
                  Die englische Originalausgabe erschien unter dem Titel » Now. The Physics of Time « (2016)


                   

                    Beitrag 1595-37
                  Falsifizierbarkeit ist wünschenswert, darf aber nicht als notwendig erachtet werden

                   
                   

                  Praktikable Wissenschaftstheorie

                  muss mehr berücksichtigen als nur Poppers Forderung nach Falsifizierbarkeit



                  Hallo Irena,

                  in Beitrag 1595-28 vertritts Du die Meinung, dass Aussagen, die » kann « oder » können « enthalten, zwar sinnvoll, aber auf keinen Fall wissenschaftlich sein können, so etwa die (deiner Meinung nach unwissenschaftliche) Aussage

                  Schlechte Zähne können die Funktion der Lebers und/oder der Nieren beeinträchtigen.


                  Aber hast Du denn hierbei auch berücksichtigt, dass man dann fast alle Aussagen der Mediziner und Ärzte als unwissenschaftlich einstufen müsste? Und ganz bestimmt auch alles, was z.B. die Verträglichkeit neu entwickelter Arzneien mit dem menschlichen Organismus untersucht und beschreibt?

                  Oder wie steht es Ergebnissen, die Zoologen oder Archäologen erarbeiten? Soll all das keine Wissenschft sein, nur weil sich da kaum Falsifizierbares findet?

                  Mit anderen Worten:
                  • Auch wer – wie offenbar wir beide – Poppers Forderung nach Falsifizierbarkeit wissenschaftlicher Aussagen ernst nimmt und als überaus sinnvoll einstuft,
                  • darf auf keinen Fall den Fehler machen, sie als notwendiges Kriterium zu sehen für alles, das den Anspruch erhebt, wissenschaftliches Ergebnis zu sein.

                  Weit allgemeiner anwendbar ist eine Wissenschaftstheorie, die anerkennt, dass keineswegs alle Wissenschften  e x a k t e  Wissenschaften sein können und dass wissenschaftlich zu arbeiten deswegen i.A. einfach nur einem sinnvollen, rational begründbaren Überzeugungssystem zu folgen hat.

                  Ein solches sehe ich gegeben durch die von Thomas Bayes (1702-1761) formulierten Wahrscheinlichkeitsgesetze. Es kann und sollte überall zum Einsatz kommen, wo Poppers Forderung, Falsifizierbarkeit herzustellen, einfach nicht realistisch genug ist — uns also in eine Sackgasse führt.

                  Tegmark sagt ganz richtig:

                  In der Wissenschaft wird eher selten falsifiziert — in aller Regel werden Indizien gesammelt,
                  die geeignet sind, einer betrachteten Theorie zusätzliche Plausibilität zu verschaffen.


                  Bayes Ansatz ist gut geeignet, den Erfolg solchen Vorgehens quantifizierbar ( und somit objektiv beurteilbar ) zu machen.


                  Der Prozess wissenschaftlichen Vorgehens sieht dann so aus:
                  • Für ein Phänomen, das man zu untersuchen wünscht, gibt es zunächst mal mehrere rivalisierende Erklärungen.
                  • Daher beginnt man Beobachtungen zu sammeln, die für oder gegen solche Erklärungen sprechen.
                  • Mit Hilfe der Mathematik des bayesschen Schließens wird dann die Evidenz für oder gegen jede einzelne dieser Theorien zu gewichten sein.
                  • Schließlich wird die Theorie, für die sich so die höchste Wahrscheinlichkeit ergab (d.h. deren Evidenzgewicht durch die Daten und Beobachtungen am meisten zugenommen hat) als die eingestuft, an der es festzuhalten gilt.

                  Aber noch weitere Aspekte können so gut berücksichtigt werden:

                  • Augenscheinlich unplausible, allzu weit hergeholt erscheinende Theorien erfordern besonders gewichtige Indizien, ehe sie ernst genommen werden können.
                  • Auch alle recht vagen Theorien — solche, die zu allen möglichen Daten passen — erlangen nach dem bayesschen Schema nur mühsam wissenschaftliches Gewicht.
                  • Auf jeden Fall hat dieser Ansatz den Vorteil, die Wissenschaftler zu drängen, systematisch Indizien zu sammeln und zu bewerten, und wie die Erfahrung uns zeigt, führt das in aller Regel auch wirklich zum Ziel: Die Wahrheit  k o m m t  heraus.

                  Kurz: Wegen seiner mathematischen Stringenz und vor allem wegen seiner weit höheren Praktikabilität, wird das systematische Anhäufen von Evidenz dem einfachen Ansatz Poppers weit überlegen sein (obgleich man natürlich Falsifizierbarkeit anstreben sollte, wo immer sie erreichbar scheint).

                  Mit besten Grüßen,
                  grtgrt

                   

                    Beitrag 1595-40
                  -

                   
                   
                  Bauhof in 1595-39:
                  Hallo Grtgrt,

                  1. Durch eine Theorie kann niemals "die Wahrheit herauskommen". Warum? Weil keine (physikalische) Theorie beweisbar ist, sondern nur widerlegbar. Auch wenn 1000 Experimente eine Theorie belegen, ein einziges Experiment kann sie später widerlegen.

                  2. Der Bayesche Ansatz mag zwar gut geeignet sein, herauszufinden, welche Theorie am wahrscheinlichsten die bessere Theorie ist. Aber primäre Grundvoraussetzung für die Wissenschaftlichkeit ist, dass eine (physikalische) Theorie an der Erfahrung scheitern können muss.


                  Im Prinzip, Eugen, gebe ich dir recht.

                  Aber was genau wäre denn nun wirklich ein Beweis? Wo immer man (auch in der Mathematik) zu "Beweisen" kommt, ist die Wahrscheinlichkeit, dass sich ein nicht entdeckter Fehler eingeschlichen hat, nicht wirklich Null — sie kann nur beliebig klein gemacht werden.

                  In anderen Wissenschaften, etwa der Physik, ist dieses Verkleinern der Irrtumswahrscheinlichkeit viel schwieriger, und so spricht man dort nicht vom Beweisen der Theorie, sondern nur vom Belegen ihrer Richtigkeit: Man sammelt Indizien, die die Wahrscheinlichkeit erhöhen, dass sie unter gewissen Voraussetzungen richtige Vorhersagen macht. Auch hier aber git, dass die Wahrscheinlichkeit für das Zutreffen der Theorie, dem Wert 1 beliebig nahe kommen kann, ihn aber natürlich nie erreicht (was umge­kehrt bedeutet, dass die Wahrscheinlichkeit dafür, dass die Theorie falsche Aussagen macht, zwar beliebig klein, aber niemals zu Null gemacht werden kann).

                  Der Unterschied zwischen Beweisen und Belegen ist demnach nur ein gradueller — aber natürlich dennoch ein ganz gewaltiger!

                  Gruß,
                  grtgrt
                   

                    Beitrag 1595-43
                  -

                   
                   
                  Hallo Irena,

                  leider habe ich stets nur über Poppers Theorie, aber nie seine Schriften selbst gelesen, und so weiß ich auch nicht, wie er den Begriff » wissenschaftlich « denn nun genau definiert.


                  Für mich jedenfalls ist Wissenschaft:
                  • die systematische Suche nach Wissen mit Hilfe einer Methodik, die Fachleute auf dem betreffenden Gebiet als State of the Art (oder wenigstens als nicht schon komplett überholt) einstufen.
                  • Ergebnis solcher Suche kann sein
                         
                      • Die Dokumentation einer Entdeckung,
                      • der Beweis eines vermuteten Zusammenhangs,
                      • aber auch das systematische Beleuchten einer Vermutung — einer » Theorie « —, die zu beweisen oder zu widerlegen zunächst nicht gelingt.
                      Im letzten Fall werden Forschungsgelder nur dann fließen, wenn der Wissenschaftler auch klar zu machen versteht, wie hoch in etwa die Wahrscheinlichkeit ist, dass die Theorie richtig sein könnte und dass es sich lohnt, sie weiter auszuarbeiten.
                      Wo der Autor selbst das Für und Wider zu wenig diskutiert, hat Peer Review diese Lücke zu füllen.


                    Nun zu deinem Beispiel, in dem du argumentierst, die beiden folgenden Aussagen wären von gleicher Qualität:


                    (1)  Schlechte Zähne  k ö n n e n  die Funktion der Leber und/oder der Nieren beeinträchtigen.

                    (2)  Es regnet oder es regnet nicht.


                    Sie sind aber  k e i n e s w e g s  von gleicher Qualität, denn:
                    • Aussage (2) ist ohne Inhalt, also garantiert nicht wissenschaftlich.
                    • Aussage (1) aber erlaubt die dazu völlig äquivalente Formulierung
                    (3)  Für jeden, der schlechte Zähne hat, besteht eine gewisse Wahrscheinlichkeit, dass hierdurch die Funktion seiner Leber
                    oder seiner Nieren beeinträchtigt wird.

                      Sobald man (3) durch Vorlage statistischer Daten untermauert — man die angesprochene Wahrscheinlichkeit also quantifizieren kann —, handelt es sich ganz klar um eine Entdeckung, die man als wissenschaftliches Ergebnis einzustufen hat.

                    Formulierungen wie (1) und (3) muss man als  H i n w e i s  auf die Entdeckung werten: Solche Formulierungen werden typischerweise dort gebraucht, wo ein Fachmann einen Laien zu informieren wünscht. Den Fachmann wegen der Verwendung solch grober Formulierung dann gleich als unwissenschaftlich agierend zu beschimpfen, ist unangebracht.



                    Irena in 1595-38:
                    Grtgrt in 1595-37:
                     
                    Schließlich wird die Theorie, für die sich so die höchste Wahrscheinlichkeit ergab (d.h. deren Evidenzgewicht durch die Daten und Beobachtungen am meisten zugenommen hat) als die eingestuft, an der es festzuhalten gilt.

                    Ich bin froh, dass sich kein Wissenschaftler von einem Computer sagen lässt, wie er sich verhalten soll.


                    Grtgrt in 1595-37:
                     
                    Aber noch weitere Aspekte können so gut berücksichtigt werden:

                    Augenscheinlich unplausible, allzu weit hergeholt erscheinende Theorien erfordern besonders gewichtige Indizien, ehe sie ernst genommen werden können.

                    ... Dazu benötigen wir unser Gehirn, nicht den Computer.
                     


                    Wo Theorien zu bewerten oder gegen einander abzuwägen sind, wird man sie selbstverständlich — und vor allem — auch hinsichtlich ihres Evidenzgewichts miteinander vergleichen. Ich habe nirgendwo gefordert, dass diesen Vergleich ein Computer durchzuführen hat. Deine Kritik meiner Aussagen geht also völlig ins Leere!


                    Irena in 1595-38:
                    Grtgrt in 1595-37:
                     
                    Auf jeden Fall hat dieser Ansatz den Vorteil, die Wissenschaftler zu drängen, systematisch Indizien zu sammeln und zu bewerten, und wie die Erfahrung uns zeigt, führt das in aller Regel auch wirklich zum Ziel: Die Wahrheit  k o m m t  heraus.

                    Unsinn. Eigentlich, wenn ich dieses Ansatz nicht lächerlich gefunden hätte, dann würde ich es als äußerst gefährlich einstufen.
                    Aber vor allem ist dieser Ansatz völlig sinnlos, ...
                     


                    Darauf kann ich nur antworten: Ich kann nicht erkennen, was am Sammeln von Indizien sinnlos, lächerlich oder gar gefährlich sein soll.

                    Einen Beweis zu haben ist selbstverständlich viel besser, als nur Indizien zu haben.
                    Wir sollten aber bedenken, dass sich ein Beweis i.A. erst dann ergibt, wenn uns hinreichend viele Indizien gezeigt haben, wie er zu führen sein könnte.


                    Gruß,
                    grtgrt
                     

                      Beitrag 1595-44
                    -

                     
                     
                    Bauhof in 1595-41:
                    Grtgrt in 1595-37:
                     
                    Bayes Ansatz ist gut geeignet, den Erfolg solchen Vorgehens quantifizierbar ( und somit objektiv beurteilbar ) zu machen.

                    Hallo Grtgrt,

                    für mich viel einleuchtender ist der Ansatz von Karl Popper.


                    Hallo Eugen,

                    natürlich finde auch ich Poppers Ansatz gut — aber ich sehe halt auch, dass er allzu oft gar nicht anwendbar ist, und für diese Fälle braucht man eben einen allgemeineren.

                    Paradebeispiel hierfür sind die sog. "nicht exakten" Wissenschaften, aber auch die moderne theoretische Physik, die sich nun schon seit Jahrzehnten auch mit Theorien beschäftigt, die wir wohl niemals werden falsifizieren können, die aber dennoch von vielen als enorm fruchtbar eingestuft werden.

                    Zudem erscheint mir Poppers Ansicht, jeder Wissenschaftler habe so viel Distanz zu seinem Tun, dass er nur darauf brenne, die eigene Theorie abzuschießen, als etwas weltfremd. Die Philosophin Rebecca Goldstein schrieb mal irgendwo ganz richtig, dass Forschung in Wirklichkeit anders ablaufe, so nämlich, dass man
                    • vor allem versucht, Theorien zu finden, die funktionieren,
                    • und nur im Ausnahmefall damit beschäftigt sein will, die Theorien anderer zu falsifizieren.

                    Und in der Tat: Hat denn schon mal auch nur  e i n  Stringtheoretiker ernsthaft versucht, die Ansätze der Vertreter der Quantengravitation zu falsifizieren? Und das gar noch erfolgreich?


                    Nicht zuletzt sehe ich mich mit meiner Ansicht in guter Gesellschft mit Colin Howson, den man als führenden Verfechter eines Wissenschaftsbegriffes kennt, der nicht auf simpler Wahr-oder-Falsch-Logik beruht, sondern auf dem viel subtileren Konzept der Glaubens- und Überzeugungsgrade (degrees of believe).

                    Seine Theorie nur spannt — in meinen Augen — auf realistische,  s t e t s  anwendbare Weise den richtigen Bogen zwischen
                    • dem subjektiven Begriff mehr oder weniger großer Überzeugung einerseits und
                    • dem harten, gut belastbaren Begriff der mathematischen Wahrscheinlichkeit andererseits.

                    Gruß,
                    grtgrt
                     

                      Beitrag 1595-48
                    Beispiel einer vorbildlich präzisierten wissenschaftlichen Vorhersage

                     
                     
                    An Irena:

                    Hier ein besonders schönes Beispiel einer wissenschaftlichen Aussage


                    Zitat:
                    Zum Beispiel schätzte Laplace die Masse des Saturns auf Basis vorhandener astronomischer Beobachtungen seiner Umlaufbahn.

                    Er erläuterte die Ergebnisse zusammen mit einem Hinweis seiner Unsicherheit:

                    » Ich wette 11.000 zu 1, dass der Fehler in diesem Ergebnis nicht größer ist als 1/100 seines Wertes. «


                    Laplace hätte die Wette gewonnen, denn 150 Jahre später musste sein Ergebnis auf Grundlage neuer Daten um lediglich 0,37 % korrigiert werden.

                    Quelle: Wikipedia


                    Dort steht noch mehr über die Nützlichkeit von Wahrscheinlichkeitsbetrachtungen im Wissenschaftsbetrieb:

                    Zitat:
                     
                    Der bayessche Wahrscheinlichkeitsbegriff wird häufig verwendet, um die Plausibilität einer Aussage im Lichte neuer Erkenntnisse neu zu bemessen. Pierre-Simon Laplace (1812) entdeckte diesen Satz später unabhängig von Bayes und verwendete ihn, um Probleme in der Himmelsmechanik, in der medizinischen Statistik und, einigen Berichten zufolge, sogar in der Rechtsprechung zu lösen.

                     

                      Beitrag 1595-51
                    -

                     
                    Irena in 1595-49:
                    Grtgrt in 1595-46:
                    Poppers Kriterium aber zielt auf etwas ganz anderes: Es zielt darauf, eine Theorie, die falsch ist, möglichst früh — und dann sogar endgültig — als falsch erkennen zu können.
                    Na ja , da muss du mit ihm näher befassen. Sonst ist es aus dem Finger gezauberte These, die entspricht nicht der Tatsache und zeigt, dass du mit dem Thema hast deine Hausaufgaben nicht gemacht. Es geht ihm nicht "möglichst früh" die falsche Theorie wegräumen. Es geht ihm um eine prinzipielle Möglichkeit eine Theorie zu falsifizieren. Erst dadurch bescheinigt er ihr eine Wissenschaftlichkeit.

                    Hallo Irena,

                    das sich Grtgrt näher mit Karl Popper befassen müsste, da stimme dich dir zu. Er hat bisher (nach eigenem Hinweis) keine einzige Schrift von Karl Popper gelesen, sondern nur Schriften über Karl Popper.

                    Aber nichtsdestotrotz stimme ich Grtgrt zu, wenn er schreibt:

                    Zitat:
                    Poppers Kriterium zielt darauf ab, eine Theorie, die falsch ist, möglichst früh und dann sogar endgültig als falsch erkennen zu können.

                    Auch dir stimme ich zu, wenn du schreibst:

                    Zitat:
                    Es geht ihm um eine prinzipielle Möglichkeit eine Theorie zu falsifizieren. Erst dadurch bescheinigt er ihr eine Wissenschaftlichkeit.

                    Aber ich würde es umgekehrt ausdrücken:
                    Eine Theorie, die nicht falsifizierbar ist, ist unwissenschaftlich.

                    Euch beiden kann ich dieses Buch [1] von Karl Popper wärmstens empfehlen. Es ist sehr gut als Einstieg in Poppers Gedankenwelt geeignet. Sein Hauptwerk würde ich nicht empfehlen, das ist zu schwierig. Dazu würde man profunde philosophische Kenntnisse benötigen. Ich selbst habe vor dem Hauptwerk kapituliert und es wieder verkauft.

                    M.f.G. Eugen Bauhof

                    P.S.
                    Ich meine, etliche Missverständnisse in dieser Diskussion haben auch ihren Grund darin, dass deine Muttersprache russisch ist. Aber es ist trotzdem eine große Leistung von dir, überhaupt über ein solch schwieriges Thema in deutsch zu diskutieren.

                    [1] Popper, Karl R.
                    Vermutungen und Widerlegungen.
                    Das Wachstum der wissenschaftlichen Erkenntnis. Teilband I: Vermutungen.
                    Tübingen 1994
                    ISBN=3-16-944809-9
                     

                     Beitrag 0-293
                    Kann Zeit auch rückwärts fließen?

                     
                     

                     
                    Kann Zeit auch rückwärts fließen?

                     
                     
                    Wer diese Frage beantworten möchte, muss sich zunächst mal auf eine ganz konkrete Definition von Zeit festlegen.
                     
                    Da Relativitätstheorie keinerlei Quantenfluktuation berücksichtigt — sie aber allgegenwärtig ist, und das sogar noch auf unbegrenzt kleiner Zeit- und Ortsskala — kann die uns tatsächlich verstreichende Zeit nicht wirklich die der Relativititätstheorie sein.
                     
                    Unter Physikern scheint Einigkeit darüber zu bestehen, dass man die Zeit am ehesten noch als den thermodynamischen Zeitpfeil sehen sollte.
                     
                     
                    Dann aber ergibt sich aus der wirklich präzisen Formulierung des 2. Hauptsatzes der Thermodynamik ganz klar:
                       
                    • Fast alle — aber nicht wirklich alle — Zeitschritte führen in die Zukunft.
                       
                    • Je größer ein Zeitschritt in die Vergangenheit ist, desto unwahrscheinlicher ist sein Auftreten (und die Wahrscheinlichkeit seines Auftretens fällt drastisch, je weiter zurück in die Vergangenheit er führt).

                    Diese Tatsachen führen auf Hawkings Vermutung zum Schutz der Zeitordnung ( Choronology Protection Conjecture, 1992 ). Sie besagt:
                     
                      In ihrem Zusammenwirken verhindern die Naturgesetze, dass makroskopische Körper Information in die Vergangenheit tragen können.
                       
                      Die Quantentheorie erlaubt zwar, dass einzelne Quanten sich auf mikroskopischer Skala auch rückwärts in der Zeit bewegen können, aber die Wahrscheinlichkeit daraus entstehender winziger Zeitschleifen ist extrem gering — um viele Größenordnungen geringer, als dass sie in unserem Alltag beobachtbare Konsequenzen haben könnte.

                     
                    Kip S. Thorne — einer der intimsten Kenner der Allgemeinen Relativitätstheorie und zugleich einer der wenigen Physiker, die selbst ernsthaft über die Möglichkeit von Zeitreisen geforscht haben — will Hawking da nicht widersprechen.
                     
                     
                    Lies auch: Time and the Multiverse (2011).

                     
                     
                    HINWEIS: Die Zeit als den thermodynamischen Zeitpfeil, d.h. als Zunahme von Entropie zu definieren, ist nicht ganz unproblematisch. Entropie nämlich — so schreibt Hohnerkamp — quantifiziert uns fehlendes Wissen über den Mikrozustand des betrachteten Systems. Doch aus Sicht welchen Betrachters?
                     
                    Will man sie eindeutig machen, müsste man das tun über die Formel
                     
                    Entropie = Wärme dividiert durch Temperatur.

                    Zeit in solchem Sinne ist dann auf jeden Fall relativ.

                     

                     Beitrag 0-307
                    Warum unteilbare Materieteilchen keine feste Richtung der Zeit kennen.

                     
                     

                     
                    Je komplexer ein Objekt,

                    desto unmöglicher wird ihm Umkehr seines Zeitpfeils

                     
                     
                    Jedes aus Materie bestehende Objekt ist — ständig gegebener Quantenfluktuation wegen — ständigem Zustandswechsel unterworfen. Mit der Komplexität eines Objekts steigt drastisch
                       
                    • die Zahl der ihm möglichen Zustände,
                       
                    • und damit einhergehend auch die Wahrscheinlichkeit, dass jeder Zustand, in den es gerät, höhere Entropie hat als sämtliche Zustände, in denen es sich schon einmal befunden hat.

                    Wir sehen also: Die Tatsache, dass in der Welt unserer Alltagserfahrung der Fluss der Zeit nur eine Richtung kennt, ist darauf zurückzuführen, dass sämtliche materiellen Gegenstände, mit denen wir in unserem Alltag zu tun haben, quantenmechanisch gesehen eine überaus große Zahl möglicher Zustande haben.
                     
                    Ganz anders gilt für die einfachsten aller existierenden Objekte:
                     
                    Ein einzelnes Elektron etwa altert nicht, denn die Zahl seiner möglichen Zustände ist sehr klein, so dass die Wahrscheinlichkeit dafür, dass sie sich ständig wiederholen, sehr groß ist.
                     
                    Zeitumkehr auf der Ebene elementarer Teilchen ist daher etwas ganz Natürliches, recht Häufiges — erst für zunehmend komplexere Objekte wird es zunehmend unwahrscheinlicher, dass sie in einen einmal aufgegebenen Zustand später rein zufällig nochmals annehmen.

                     
                     
                    Quelle: Josef Hohnerkamp: Wissenschaft und Weltbilder, Springer Spektrum 2014, S. 197.


                     

                     Beitrag 0-199
                    Zeitmaschinen kann es nicht geben

                     
                     

                     
                    Was Physik über Zeitreisen und Zeitmaschinen sagt

                     
                     
                    Einer der ganz wenigen Physiker, die sich jemals ernsthaft die Frage gestellt haben, ob Zeitmaschinen möglich sein könnten, ist Kip S. Thorne.
                    Andere – wie etwa sein Schüler Richard H. Price – begannen deswegen an seinem Verstand zu zweifeln (so berichtet Thorne selbst).
                     
                     
                    Ergebnis seiner Überlegungen:

                       
                    • Wurmlöcher und Zeitreisen werden heute von den meisten Physikern abgelehnt, obgleich die Gesetze von Einsteins Allgemeiner Relativitätstheorie ihre Existenz nicht ausschließen können oder — wie nur manche glauben — sogar nahelegen.
                       
                      Es gibt jedoch Erkenntnisse, die vermuten lassen, dass quantenphysikalische Gesetze Wurmlöcher und Zeitreisen unmöglich machen.
                       
                      Thorne schreibt wörtlich: "Erst wenn es gelingt, diese Gesetze besser zu verstehen, werden wir  v i e l l e i c h t  erfahren, wie die physikalischen Gesetze das Universum vor Wurmlöchern und Zeitmaschinen — mindestens aber vor Zeitmaschinen — bewahren."
                       
                       
                    • Hawking glaubt, dass die Gesetze der Physik keine Zeitmaschinen zulassen: Quantenfluktuation würde dafür sorgen, dass die Zeitrichtung gewahrt bleibt.
                       
                      Thorne schreibt: "Es macht mir Spaß, mit Hawking zu wetten — aber nur dann, wenn ich eine reelle Chance sehe zu gewinnen." Er sieht sie nicht, denn Berechnungen, die er zusammen mit zwei seiner Studenten angestellt hat, lassen ihn vermuten, dass Hawking wahr­scheinlich recht hat. Endgültig wird man
                      es erst wissen, wenn eine voll ausgearbeitete Theorie der Quantengravitation die Frage entscheidet.

                     
                    Quelle: Kip S. Thorne: Gekrümmter Raum und verbogene Zeit, 1994, S. 592 und 596

                     
                     
                    Als blanken Unsinn empfinde ich, was Heinrich Päs in einem Interview geantwortet haben soll, als er danach gefragt wurde, ob denn nicht schon das sog. Großvater­paradoxon die Möglichkeit von Zeitreisen widerlege. Er soll gesagt haben:
                      "Nein, denn es gibt Ideen, wie man das lösen könnte. ... Eine ... Möglichkeit existiert im Rahmen der Viele-Welten-Interpretation der Quantenphysik. In der Quantenphysik ist es ja häufig so, dass verschiedene Dinge gleichzeitig existieren können. Ein Teilchen kann sich an verschiedenen Orten gleichzeitig befinden. In dieser Viele-Welten-Interpretation gilt das nicht nur für Teilchen, sondern auch im Großen. Dann spalten sich diese zwei Realitäten in parallele Universen. Die Lösung der Zeitreise wäre dann, dass der Zeitreisende seinen Großvater in einem Parallel-Universum ermordet. Aber in dem Universum, wo er aufgebrochen ist, der Großvater nicht ermordet wird und insofern kein direkter Widerspruch entsteht."

                    Dass nicht nur Heinrich Päs, sondern auch andere Physiker, Michio Kaku etwa, heute immer noch so tun, als wäre Hugh Everetts Viele-Welten-Theorie ernst zu nehmen, ist eine Kuriosität für sich, zeigt aber wohl, dass selbst Hochschullehrer für Theoretische Physik i.A. wirklich nur ihr eigenes Spezialgebiet gut kennen (oder der Versuchung nicht widerstehen können, Laien mit möglichst spektakulären Aussagen zu beeindrucken).
                     
                    Kurios auch: David Deutsch geht in Kap. 2 seines Buches The Fabric of Reality (1997) sogar so weit, die Interferenzmuster hinterm Doppelspalt über Hugh Everetts Viele-Welten-Theorie zu erklären. Auf Seite 51 behauptet er dann: "As I have just said, we do not need deep theories to tell us that parallel universes exist — single-particle interference phenomena tell us that." Er übersieht dabei, dass sein auf Seite 44-45 gegebener Erklärungsversuch der Ergebnisse eines erweiterten Doppelspalt­experiments die Existenz der Parallelwelten ja schon voraussetzt, sie also  n i c h t  beweisen kann.

                     

                      Beitrag 2112-3
                    Zur — durchaus begrenzten — Möglichkeit von Zeitreisen

                     
                     

                    Zur — durchaus begrenzten — Möglichkeit von Zeitreisen



                    Kakashi in 2112-1:
                    Hallo.

                    Ich habe mir paar Sendungen über Astrophysik angeschaut und es wurde dort beschrieben das Zeitreisen theoretisch möglich wären.
                    In die Vergangenheit zu reisen wäre eher schwieriger bzw. paradox.


                    Hi Kakashi,

                    es gibt bis heute nur zwei Wissenschaftler, denen es nachweislich gelang, unser Wissen über die Zeit — über das, was sie erlaubt bzw. nicht erlaubt — zu erweitern: Albert Einstein und Kurt Gödel.

                    Beide waren, vor allem gegen Ende ihres Lebens, enge Freunde, und Gödel hat zu Einsteins 70. Geburtstag eine ganz erstaunliche Eigenschaft der Zeit entdeckt: Der Allgemeinen Relativitätstheorie entsprechend — sie gilt heute als unser mit Abstand genauestes Modell der Raumzeit — kennt tatsächlich Raumstruktur existieren, die, wo sie vorliegt, Zeitreisen in die Vergangenheit zulässt.

                    Auch könnte solche Struktur, wo sie heute nicht vorliegt, sich im Laufe der Zeit bilden.

                    Auf Seite 137 seines Buches » Gödel, Einstein und die Folgen - Vermächtnis einer ungewöhnlichen Freundschaft, Verlag C.H. Beck 2005 « fasst Palle Yourgrau Gödels Erkenntnis zusammen wie folgt:

                    Zitat:
                     
                    Eine Reise entlang der geschlossenen ... zeitähnlichen Weltlinien, die Gödel in dem, was gemeinhin unter dem Namen Gödel-Universum bekannt ist, entdeckt hat, lässt sich nur als Zeitreise beschreiben. Gödel hat auf verblüffende Weise demonstriert, dass Zeitreisen im striktesten Sinne mit der Relativitätstheorie vereinbar sind.

                    Die Fans des Zeitreisens waren von dieser Entdeckung natürlich begeistert, übersahen bei alledem jedoch, dass das Hauptergebnis eine überaus gewichtige Aussage war: Dann, wenn Zeitreisen möglich sind, ist Zeit selbst [im Sinne dessen, wie alle Menschen sie erleben und begreifen] unmöglich.

                    Wenn diese [Gödels] Überlegung und ihre Deutung näherer Überprüfung standhalten, dann hätte Gödel das Kunstück fertiggebracht, mit mathematischen Methoden eine Erkenntnis über die Realität (bzw. die Nicht-Realität) von Zeit zu gewinnen, die sämtlichen idealistischen Philosophen von Platon bis Kant Jahrhunderte hindurch entgagngen war ...

                    Vor Einsteins Augen hatte eine Metamorphose stattgefunden. Die Theorie, die er entworfen hatte, um Zeit zu erfassen, mathematisch festzuschreiben und dem menschlichen Verstehen zugänglich zu machen, war unter Gödels Händen einem Taschenspielertrick zum Opfer gefallen.


                    Bisher hat niemand — auch Einstein nicht — in Gödels Argumentation Fehler finden können.

                    Zeitreisen in die Vergangenheit im Sinne der durch Gödel entdeckten Konsequenzen von Einsteins Gravitationstheorie (allgemeiner Relativitätstheorie) führen gleichzeitig auch in die Zukunft und sind nur in Raumregionen möglich, in denen der Raum in ganz bestimmter Weise extrem gekrümmt ist. Solche Krümmung aber liegt — nach allem, was bis bis heute wissen —, im durch Menschen beobachtbaren Teil des Universums (einer kugelförmigen Umgebung um uns herum, deren Radius grob 42 Milliarden Lichjahre beträgt) NICHT vor.

                    Daraus folgt:
                    • Man muss auch heute noch davon ausgehen, dass Zeitreisen in die Vergangenheit dem Menschen NICHT möglich sind.
                    • Auch in unsere eigene Zukunft kann uns nur unsere eigene, ganz gewöhnliche Alterung führen.
                    • Prinzipiell möglich aber sind jedem Menschen Reisen in selbst noch die fernste Zukunft von Objekten, die NICHT Teil seiner selbst sind (genauer: von Objekten, die völlig anderer Beschleunigung unterliegen können als er selbst). Physiker nennen dies das Zwillingsparadoxon und konnten es durch Experimente mit unterschiedlich beschleunigten Atomuhren oder auch Myonen schon mehrfach gut nachvollziehbar bestätigen.

                    Nebenbei: Nichts, was sich durch den Raum bewegt (das Licht ausgenommen) kann sich ebenso schnell oder gar noch schneller als das Licht bewegen.


                    Gruß, grtgrt
                     

                      Beitrag 2108-3
                    Wo Zukunft — wie manche glauben — auch Vergangenheit sein kann

                     
                     
                    C... in 2108-2:
                     
                    Mit einer Zeitmaschine kannst du immer nur in die Zukunft, nie jedoch in die Vergangenheit reisen.


                    In Gödel-Universen (den R-Universen) gilt das, wie viele glauben, nicht:

                    Dort nämlich gibt es in sich geschlossene Wege durch die Raumzeit, und auf denen — so könnte man denken — Vergangenheit stets auch Zukunft ist (und umgekehrt).



                    Vorsicht aber:
                      Gödel selbst war der Ansicht, dass die Zeit im Sinne der Relativitätstheorie auf keinen Fall die durch uns gefühlte sein könne.

                      In seinem Buch Gödel meets Einstein — Time Travel in the Gödel Universe argumentiert Palle Yourgrau — der in Gödels Nachlass auch ein philosophisch orientiertes Papier zu diesem Thema fand —, dass es in jeder geschlossenen, zeitartigen Kurve einer durch die Relativitätstheorie beschriebenen Raumzeit weder Vergangenheit noch Zukunft gibt, sondern nur Gegenwart (die Gegenwart dort also nicht vergehen kann und sich über die ganze Kurve erstreckt):

                      Sich auf einer solchen Kurve zu "bewegen" bedeute eben nicht, sich zeitlich zu bewegen, sondern entspreche eher einer Betrachtung der auf ihr liegenden einzelnen Ereignisse wie sie sich dort hintereinander aufgereiht finden, d.h. bedingen und — da die Kurve geschlossen ist — sogar gegenseitig bedingen.

                      Auch nur eines dieser Ereignisse mehrfach zu   e r l e b e n   sei   n i c h t   möglich.


                      Damit gilt dann aber auch:


                      Zeitreisen im dem Sinne, dass man gewisse Zeitabschnitte mehrfach durchlebt, kann es auch in Gödel-Universen   n i c h t   geben.


                     

                      Beitrag 2112-10
                    Auch wer die Vergangenheit aufsuchen könnte, würde sie NICHT abändern können

                     
                     


                    In die Vergangenheit zu reisen  ( wo das überhaupt möglich sein sollte )

                    bedeutet  N I C H T , sie abändern zu können



                    Die meisten Menschen — auch Physiker, wie etwa Harald Lesch — argumentieren so, als würde die Möglichkeit, eine Zeitreise in die Vergangenheit zu unternehmen (wenn das denn möglich wäre) uns die Möglichkeit eröffnen, jene Vergangenheit abzuändern.

                    Nun hat Kurt Gödel zwar bewiesen, dass die Allgemeine Relativitätstheorie durchaus Situationen kennt, in denen, eine Reise in die Zukunft auch eine Reise in die Vergangenheit ist. Abänderbar ist jene Vergangenheit aber selbst dann NICHT.

                    Ich weiß nicht, ob Lesch das nicht bewusst war oder ob er in seiner Sendung zu Zeitreisen nur deswegen nicht darauf zu sprechen kam, weil er sie einfach und verständlich halten wollte. Auf jeden Fall scheint mir die Begründung für die Unmöglichkeit von Zeitreisen, die er gegen Ende seiner Sendung gibt, völlig unlogisch (er gibt, genau genommen, sogar zwei Begründungen — aber keine ist logisch unangreifbar).


                    Nebenbei noch:

                    In unserem Universum kann man die Vergangenheit sicher nicht aufsuchen (so argumentiert Steven Hawking).

                    In sog. Gödel-Universen allerdings ist das anders: nur deswegen allerdings, weil dort Zukunft stets auch Vergangenheit ist (und umgekehrt).
                     

                      Beitrag 2112-12
                    -

                     
                     
                    Wrentzsch in 2112-11:
                     
                    Schreibe ihn an und machen ihn darauf aufmerksam, dann hast du eine Diskussion über Jahre, denn Harald rechnete nicht mit Aufmerksamkeit und erlaubte sich deswegen die Fehler um die Sendung zu kürzen.


                    Hi Wrentzsch,

                    eine Diskussion, die sich dann wohl auf vergleichbar seichtem Niveau abspielen würde wie seine Sendungen für die breite Allgemeinheit, wäre wohl zu wenig interessant.

                    Gödels Resultat — und ein ganz ähnliches Beispiel, das Willem Jacob van Stockum schon 1937 fand — habe ich erst so richtig zu verstehen gelernt über eine Skizze der Allgemeinen Relativitäts­theorie, die der Physiker Hendrik van Hees zusammengestellt hat.

                    Was mir Gödels Ergebnis verständlich macht, findest Du kurz zusammengefasst auch auf Seite Zur Geometrie Allgemeiner Relativitätstheorie.

                    Gruß, grtgrt
                     

                      Beitrag 2112-14
                    Ereignisse können sukzessive konstruiert oder als Gesamtheit einzig mögliche Lösung einer Randbedingung sein

                     
                     

                    Ereignisse können sukzessive konstruiert sein

                    oder als ( in ihrer Gesamtheit ) einzig mögliche Lösung gewisser Randbedingungen



                    Bauhof in 2112-13:
                     
                    Hallo Grtgrt,

                    Gödels Ergebnis ist unphysikalisch, aber es zeigt auf, dass die Kausalität nicht aus der ART herleitbar ist. Hendrik van Hees begründet das hier wie folgt:

                    Zitat:
                    Das Gödel-Universum hat keine große physikalische Bedeutung, da es aufgrund der Kausalitätsverletzungen unserem Empfinden der Realität entgegenläuft. Das Gödel-Universum lässt jedoch folgendes erkennen: Die Kausalität wird nicht bereits durch die Einstein'schen Feldgleichungen bedingt, da ja die Gödel-Metrik eine Lösung dieser Gleichungen ist.

                    Das einzige Fazit, das aus Gödels Resultat gezogen werden kann, ist folgendes: Man muss nach den Gründen der Kausalität weiter suchen, weil die ART darüber nichts hergibt. Alle anderen Aussagen über Gödels Resultat sind Science Fiction.

                    M.f.G. Eugen Bauhof


                    Hallo Eugen,

                    ich weiß nicht, ob Du da recht hast. Es gibt nämlich Kausalität unsymmetrischen Typs und Kausalität symmetrischen Typs:
                    • Unsymmetrisch: Ereignis A bestimmt die Randbedingung unter der Ereignis B passiert (oder auch nur bestimmte Ausprägung annimmt). B kann A nicht prägen.
                    • Symmetrisch: Ereignis A bestimmt Randbedingungen für B, und auch umgekehrt. Sie prägen einander in gleichberechtigter Weise. Die Verallgemeinerung auf mehr als nur 2 Ereignisse, die die jeweils anderen mit prägen, ist offensichtlich.

                    Du argumentierst so, als gäbe es nur den unsymmetrischen Fall.
                    Gödels Beispiel aber repräsentiert den symmetrischen.

                    Nebenbei: In endlichen grenzenlosen Welten gibt es den unsymmetrischen Fall überhaupt nicht.


                    Gruß, grtgrt

                    PS: Ich würde Gödels Beispiel auch nicht als unphysikalisch bezeichnen — aber sehr wohl als  r e a l i t ä t s f e r n  (da der durch uns beobachtbare Teil des Universums bisher ja nirgendwo derart ausgefallene Krümmung zeigt).

                    U n p h y s i k a l i s c h  kann es schon allein deswegen nicht sein, da die Physik die Wirklichkeit zu modellieren versucht und die ART dasjenige ihrer Raumzeit-Modelle ist, das besser passt als alle andern uns bekannten. Gödels Beispiel wiederum ist Teil dieses Modells.
                     

                      Beitrag 2112-24
                    Noch eine Klarstellung zu Zeitreisen

                     
                     
                    Bauhof in 2112-22:
                    Hans-m in 2112-21:
                     
                    Unter echter Zeitreise verstehe ich eine Reise, bei der ich bewusst ein Ziel bestimmen und auch erreichen kann, und nicht nur durch eine verzögerte Alterung irgend wann dort ankomme. Das wäre in etwa das gleiche, als würde ich mich 1000 Jahre einfrieren lassen, um dann in ferner Zukunft, wieder zu erwachen.

                    Hallo Hans-m,

                    tut mir leid, aber da liegst du vollkommen falsch.
                    Der reisende Zwilling unterliegt keiner "verzögerten Alterung", sondern in seinem Inertialsystem läuft die Zeit langsamer ab relativ zum Zeitablauf des daheim gebliebenen Bruders. Der reisende Zwilling sieht sich selbst während seiner Reise genau so schnell altern wie sonst auch.

                    Wenn der reisende Zwilling wieder bei seinem Bruder eintrifft, dann hat er eine Zeitreise in die Zukunft seines Bruders gemacht. Warum? Weil sein Bruder dann älter ist als er. Da kann auch bewusst ein Ziel bestimmt werden, indem der reisende Zwilling eine entsprechende Relativgeschwindigkeit wählt. Je höher die Relativgeschwindigkeit, um weiter reist er in die Zukunft seines Bruders.

                    M.f.G. Eugen Bauhof


                    Hallo Eugen,

                    so wie ich das sehe, habt ihr beide recht, denn:

                    Der Widerspruch, den Du zu sehen scheinst, wird nur suggeriert, weil Hans-m sich nicht genau genug ausgedrückt hat. Statt zu sagen


                    Hans-m in 2112-21:
                     
                    Zeitdilatationen verstehe ich nicht als Zeitreisen. ( Siehe Zwillingsparadoxum )

                    Nur weil Zwilling 2 die Möglichkeit hat, 1000 Jahre älter zu werden als Zwilling 1,weil er entsprechend langsamer altert, so sehe ich darin keine Möglichkeit zur Zeitreise.


                    hätte er genauer sagen sollen:

                    Zitat von Grtgrt:
                     
                    Zeitdilatationen verstehe ich nicht als Zeitreisen. ( Siehe Zwillingsparadoxum )

                    Nur weil Zwilling 2 aus Sicht seines Bruders die Möglichkeit hat, 1000 Jahre älter zu werden, (da 2 aus der Sicht seines Bruders langsamer altert), sehe ich darin keine Möglichkeit zur Zeitreise.


                    Natürlich gilt dieses Argument ( ebenso wie deines ) nur im Rahmen der SRT — bei gleichförmiger Bewegung also.

                    Vermutlich aber hatte Hans-m den allgemeinen Fall im Sinn — für den aber macht seine Aussage durchaus Sinn, denn der reisende Bruder wird nach seiner Rückkehr zur Erde, ja wirklich älter sein als der daheim gebliebene. Beide werden das übereinstimmend so feststellen.

                    Kurz: Man sollte nie vergessen, dass Zeitdilation im Kontext von Beschleunigung ein ganz anderer Effekt ist als Zeitdilatation im Sinne der SRT (siehe Beitrag 0-144).

                    Gruß, grtgrt
                     

                      Beitrag 2107-14
                    Was Wege allein durch den Raum von allgemeineren Wegen durch die Raumzeit unterscheidet

                     
                     
                    Hallo C...,

                    Hier will ich jetzt mal meine Vermutung verteidigen, dass Wege, die nicht nur durch den Raum sondern auch durch die Zeit führen, von grundsätzlich anderer Qualität sind als solche, die  n u r  durch Raum führen:
                    • Zunächst fällt auf, dass es massebehafteten Objekten gar nicht möglich ist, sich allein durch den Raum (aber nicht auch gleichzeitig durch die Zeit) zu bewegen: Sie müssten sich ja sonst mit Lichtgeschwindigkeit durch den Raum bewegen, was sie nicht können.
                      Der Grund hierfür: Wie die Minkowskimetrik zeigt, ist  j e d e  Bewegung durch die Raumzeit eine Bewegung mit Lichtgeschwindigkeit. Das ist uns, die wir 3-dimensional denken, nur nicht ständig bewusst: Was wir als Bewegung mit kleinerer Geschwindigkeit durch den Raum wahrnehmen, ist schließlich nur die Projektion dieser Gesamtgeschwindigkeit aus der Raumzeit heraus auf den Raum.
                    • Desweiteren: Jeder Weg, der nicht nur durch den Raum führt, ist eine Einbahnstraße — kann also nur in einer Richtung gegangen werden (und das scheint selbst noch in R-Universen so zu sein). Ganz anders Wege durch den Raum: Jeder von ihnen ist Projektion mindestens eines Weges (meist aber sogar vieler Wege) durch die 4-dimensionale Raumzeit auf den 3-dimensionalen Raum — und nur deswegen, kann er in beiden Richtungen durchquert werden; aber genau deswegen handelt es sich auch um einen nur virtuellen Weg: Er existiert nur gedanklich und ist eine Art Schatten wirklicher Wege.

                    Wir sehen: Insbesondere das zweite Argument zeigt uns, dass
                    • Wege durch die Raumzeit, die nicht nur durch den Raum führen, real existieren und Einbahnstraßen sind,
                    • wohingegen es Wege allein durch den Raum ausschließlich für das Licht gibt (und sie keine Einbahnstraßen sind).

                    Projeziert auf den 3-dimensionalen Raum (durch vernachlässigen der Zeitkomponente sämtlicher Ereignisse) ist unsere Welt vergleichbar einem zusammengefalteten Fächer. Was sich dort als in beiden Richtungen befahrbarer Weg zwischen zwei Orten darstellt, wird — wenn man den Fächer entfaltet — erkennbar als Bild zahlreicher Einbahnstraßen unter jener Projektion.

                    Bitte auch beachten: In dieser Argumentation kann die Dimension t ihre Rolle mit keiner der Dimensionen x, y, z tauschen, denn nur x, y, z spannt den 3-dimensionalen Teilraum der Raumzeit auf, entlang dem sich das Licht bewegt.

                    Die zeitliche Dimension hat somit auch in der ART eine wesentlich andere Qualität als die der rein räumlichen Dimensionen.


                    Gruß, grtgrt
                     

                      Beitrag 2108-8
                    Wer sich nicht von sich selbst entfernen kann, wird immer altern ...

                     
                     
                    Wrentzsch in 2108-7:
                     
                    Wo könnte man außerhalb des R-Universums auf die Wiederkehr des Ziel-Zustandes des Universums warten ohne selbst zu altern?


                    Auf diese Frage, lieber Wrentzsch, kenne ich keine Antwort.

                    Vielleicht aber interessiert dich: Wenn Du dich extrem nahe an den Ereignishorizont eines Schwarzen Lochs begeben könntest, würdest Du von dort aus in aller Ruhe den Untergang unseres Sonnensystems — und vielleicht auch das Entstehen eines neuen Sonnensystems und einer neuen Erde — beobachten können.

                    Aus Sicht der Erdbewohner — so lange es solche denn noch gibt — würdest Du praktisch gar nicht altern (wenigstens nicht so viel, dass es durch sie feststellbar wäre).

                    Aus deiner eigenen Sicht heraus aber würdest auch dort ebenso schnell alt werden wie hier auf unsere schönen Erde ...


                    Was für ein Pech also, dass ein Enfernen von uns selbst nur per Schizophrenie möglich ist ... aber immerhin!


                     

                      Beitrag 2110-1
                    Das Rätsel der Zeit — wer kann es lösen?

                     
                     
                    Wie Einsteins allgemeine Relativitätstheorie vorhersagt — und wie selbst noch im Labor sehr einfach durchführbare Experimente mit unterschiedlich stark beschleunigten Myonen klar bestätigen —, korrespondiert der zunächst nur als  R a u m d i m e n s i o n  zu verstehende Zeitbegriff der ART mit biologischer  A l t e r u n g .

                    Das Rätsel der Zeit besteht darin, dass wir nicht wissen, warum das so ist.

                    Wer kann sich auch nur  e i n e n  plausiblen Grund dafür vorstellen?

                     

                      Beitrag 2110-3
                    Die Welt um uns herum ist nur eine Welt gedanklicher Modelle

                     
                     
                    Horst in 2110-2:
                     
                    Grtgrt im Beitrag 2094-1
                    Zitat:
                    Raum, Zeit und Raumzeit existieren nur als rein gedankliche Konstruktion!


                    Hallo Horst,

                    wie sich meinem Beitrag 2094-15 entnehmen lässt, haben Physiker (Niels Bohr etwa), aber auch Philosophen wie Kant — und lange vor ihm schon Parmenides — immer wieder versucht uns klar zu machen, dass die Welt um uns herum nur die Welt unserer Sinneswahrnehmungen ist — eine Welt gedanklicher Modelle also, die wir uns von bestimmten Teilen der Natur machen.

                    Raum, Zeit und Raumzeit sind da keine Ausnahme. Gleiches gilt für das, was Einsteins Feldgleichungen der ART uns als räumliche Zeit einerseits und als biologische Zeit (Alterung) andererseits definieren und präsentieren.

                    Rätselhafte Beziehungen kann es halt auch zwischen rein nur gedanklichen Konstruktionen geben!

                    Gruß, grtgrt
                     

                      Beitrag 2110-9
                    -

                     
                     
                    Horst in 2110-7:
                     
                    Henry in 2110-5:
                     
                    Eine Reaktion hat auch eine "Dauer", nämlich eine bestimmbare Zeitspanne,

                    Hallo Henry

                    Das heißt für mich, die "Dauer" einer Reaktion (Bewegung, Veränderung) hat objektiv mit der herkömmlichen Vorstellung von Zeit nichts zu tun. Das bestimmen einer Zeitspanne ist ein subjektiver Vorgang, der willkürlich die Dauer einer bestimmten Bewegung zur Norm erhebt und mit Maßeinheiten versieht.

                    Eine bestimmte "Zeitspanne" ergibt sich doch erst durch Messung und ist mit Maßeinheiten versehen, damit also ein reines, subjektives Messergebnis und weiter nichts.


                    Hallo Horst,

                    wer unterschiedlich stark beschleunigte Myonen betrachtet, aus dessen Sicht haben die stärker beschleunigten längere Lebensdauer (genauer: längere Halbwertszeit, d.h. längere durchschnittliche Lebensdauer).

                    Und das ist keineswegs nur ein subjektiver Eindruck, sondern ein wirklich  o b j e k t i v e r , mit Hilfe der ART  n a c h r e c h e n b a r e r .

                    Zeit ist also für jedes Objekt tatsächlich am ehesten noch das, was es von seiner Uhr abliest: Zeit im biologischen Sinne.


                    Subjektiv werden Zeitspannen erst dadurch, dass die Uhren verschiedener Beobachter verschieden schnell gehen.

                    Mit anderen Worten: Nicht die Zeit (bzw. Zeitspanne) ist subjektiv, sondern subjektiv sind die in den Beobachtern entstehenden Bilder davon.

                    Diese Tatsache ist Spezialfall des allgemeinen Gesetzes:


                    Jeder von uns kennt jeden Teil der Natur nur als das Modell, das er sich davon macht.


                    Gruß, grtgrt
                     

                      Beitrag 2110-13
                    -

                     
                     
                    Horst in 2110-11:
                     
                    Grtgrt in 2110-9:
                     
                    Mit anderen Worten: Nicht die Zeit (bzw. Zeitspanne) ist subjektiv, sondern subjektiv sind die in den Beobachtern entstehenden Bilder davon.

                    Hallo Grtgrt

                    Das kann ich nicht nachvollziehen. Kann man denn Zeit bzw. eine Zeitspanne beobachten? Welche Bilder von der Zeit siehst du denn da als Beobachter?
                    Erkläre mir das bitte.


                    Hi Horst,

                    den Ausdruck "Bilder" meine ich hier im übertragenen Sinne: als Ergebnis unseres Denkens, als Vorstellung, die wir uns machen.


                    Horst in 2110-11:
                     
                    Wenn, wie du selbst schreibst, Zeit nur ein rein gedankliches Konstrukt ist, dann ist sie doch zweifellos nur eine subjektive Vorstellung.
                    Wieso zweifelst du plötzlich an deinen eigenen Worten?


                    Auch was nur gedanklich existiert — ja selbst, was ein idealisiertes Modell ist —, muss deswegen noch nicht unbedingt subjektiv sein.

                    Beispiel: Ein Kreis als mathematisches Objekt existiert nur gedanklich, ist aber sicher kein subjektiver Begriff, denn alle Menschen (mindestens alle Mathematiker) verstehen darunter ein und dasselbe.


                    Gruß, grtgrt
                     

                      Beitrag 2110-10
                    Kausalität hat wohl nur scheinbar etwas mit Zeit zu tun

                     
                     
                    Henry in 2110-5:
                     
                    ... der " naturwissenschaftliche Zeitbegriff " beinhaltet eindeutig die Kausalität.


                    Gödels Entdeckung von Zeitschleifen in rotierenden Universen scheint dem zu widersprechen.


                     

                      Beitrag 2110-19
                    Wo Wissenschaft sich entwickelt, wird auch die Begriffswelt sich entwickeln müssen

                     
                     
                    Henry in 2110-15:
                     
                    Der im wissenschaftlichen Zusammenhang immer wieder erwähnte "Beobachter" ist kein Individuum, sondern soll nur dafür stehen, dass bestimmte physikalische Größen vom Bewegungszustand eines Systems abhängen, also z. B. die Dauer von Prozessen. Das hat gar nichts damit zu tun, dass sie tatsächlich gemessen werden, ein Myon "altert" auch dann langsamer, wenn man diesen Alterungsprozess nicht misst.Der Beobachter steht dafür, dass man etwas messen KANN, nicht dafür, dass die Ergebnisse der Messungen vom Beobachter abhängen.


                    Ja, Henry,

                    das ist mir völlig klar, aber du sagst ja selbst (sogar noch in diesem Zitat), dass so ein "Beobachter" im wissenschaftlichen Zusammenhang immer wieder "erwähnt" wird — warum also sollte nicht auch ich das so halten?

                    Kurz: Für jemand, der über Relativitätstheorie diskutiert, hat das Wort dann halt eine ganz spezifische Bedeutung — eine, die sich vom Alltagsgebrauch des Wortes unterscheidet.

                    Hier also geht deine Kritik völlig ins Leere.


                    Was allerdings meinen Begriff biologischer Zeit betrifft, kann ich dich eher verstehen. Auch mir gefällt er nicht wirklich, es war aber der beste, der mir einfiel, um mich stets daran zu erinnern, dass die Zeit, die man von Uhren abliest, nicht nur gefühlsmäßig, sondern wirklich durch Experimente nachweisbar ein Altern des beobachteten Objekts quantifiziert (was sich bei Myonen in deren mittlerer Zerfallszeit widerspiegelt).

                    Berücksichtigt man, dass diese Quantifizierung nur statistisch richtige Aussagen macht, kann man sich sehr gut vorstellen, dass man für Objekte, die aus Milliarden mal Milliarden Elementarteilchen bestehen — wie etwa Lebewesen — dann halt nur noch zu Aussagen kommt wie

                    » ein Mensch wird typischerweise maximal 100 Jahre alt « .


                    Und so reicht die Zeit der Uhren eben halt doch schon wirklich auch in die Biologie hinein.


                    Henry in 2110-15:
                     
                    Weshalb kannst du einen Begriff nicht schlicht und einfach so verwenden, wie er üblicher Weise und somit direkt verständlich verwendet wird?


                    Aus demselben Grund, aus dem auch Physiker den Begriff des "Beobachters" selbst dort noch verwenden, wo gar kein Mensch damit gemeint ist.

                    Es ist halt einfach so, dass man in der Wissenschaft präzise Begriffe braucht, hierfür aber nicht ständig neue Worte erfinden kann — und auch gar nicht immer erfinden will, da es ja häufig darum geht, schon durch die Wortwahl auf existierende Analogien hinzuweisen. Man nimmt dann also ein Wort, das die richtige Analogie suggeriert und ergänzt: Wir verwenden es jetzt im folgenden präzisierten Sinne ...


                    Nebenbei: Dass die Semantik gebrauchter Worte kontextfrei sein kann, ist ein weit verbreiteter Irrtum.

                    Gruß, grtgrt
                     

                     Beitrag 0-490
                    Was Physiker über die Natur der Zeit zu sagen wissen

                     
                     

                     
                    Ursprung, Wesen und Struktur der Zeit

                    nach Carlo Rovelli

                     
                     
                    Der theoretische Physiker Carlo Rovelli sagt über die Zeit Folgendes:


                    Rovelli (2018):
                     
                    Wir sind ausgegangen vom vertrauten Bild der Zeit, nach dem Gegenwart — ein Jetzt — existiert, in dem die Zeit gleichmäßig und in nur eine Richtung zu fließen scheint. Vergangenes ist fix, die Zukunft offen und unbestimmt.
                     
                    Dies, so dachten wir, sei die Grundstruktur der Welt.
                     
                    Bei genauerem Hinsehen zerbröckelt dieses einfache Bild: Die Realität — insbesondere, wenn man sie nicht nur lokal betrachtet — erweist sich als deutlich komplexer:
                       
                    • Eine dem gesamten Universum gemeinsame Gegenwart gibt es nicht, denn Gleichzeitigkeit ist relativ und Kausalität eine nur teilweise Ordnung (keine lineare) auf der Menge aller die Raumzeit ausmachenden Ereignisse.
                       
                    • Die elementaren Gleichungen, alles Geschehen physikalisch zu beschreiben, kennen keinen Unterschied zwischen Vergangenheit und Zukunft. Er entspringt allein nur der Tatsache, dass unserem Eindruck nach, Vergangenes andere Qualität hat als Zukünftiges.
                       
                    • Schon in unserer nahen Umgebung vergeht die Zeit keineswegs überall gleich schnell:
                         
                      • Im Dachboden jeden Hauses vergeht sie schneller als im Keller
                         
                      • und relativ zu einander bewegte Objekte beobachten ganz grundsätzlich, dass die Uhr des jeweils anderen nicht synchron zur eigenen tickt.

                       
                    • Wenn man Quanteneffekte vernachlässigt, erscheinen uns Raum und Zeit als Aspekte einer gewaltigen, beweglichen Gelatine (der Raumzeit), in die wir eingebacken sind.
                       
                    • Schleifen-Quantengravitation zeigt, dass das nur eine näherungsweise Sicht zu sein scheint: Raum und Zeit sind gequantelt. Genauer:
                       
                    • In der elementaren Grammatik der Welt gibt es weder Raum noch Zeit, sondern nur prozesshaftes Geschehen, welches die Werte physikalischer Größen der sich ständig neue Form gebenden Verteilung von Energie anpasst.
                       
                      Wie Lee Smolin erklärt, sind hier zwei Regeln am Werk: Stetige Veränderung beschrieben durch Schrödingers Gleichung und unstetige, realisiert durch Quantenfluktuation (Kollaps — d.h. spontane Neudefinition — der Wellenfunktion).
                       
                    • Auf der wirklich grundlegenden Ebene also — soweit wir sie heute zu erahnen beginnen — gibt es demnach wenig, was unserer Erfahrungswelt ähnlich ist: Es gibt weder eine spezielle Variable » Zeit «, noch einen physikalishen Unterschied zwischen Vergangenheit und Zukunft, und sogar die Raumzeit zerbröckelt. So wie Nebel beim genauen Hinsehen als Wassertröpfen besteht, besteht Raumzeit aus Ereignissen:
                       
                       
                       
                      Es gibt keine » statische « Welt, die unveränderliches » Blockuniversum « wäre.
                       
                      Das Gegenteil trifft zu:

                       
                      Die Welt ist Geschehen — keine Menge von Dingen.

                     
                    Es gibt keine Zeit, welche alle Geschehnisse linear anordnet — schon gar nicht weiträumig gesehen.

                     


                     
                    Soweit Rovellis eigene Zusammenfassung der Kapitel 1 bis 7 seines Buches. In Kapitel 8 bis 12 erklärt er dann, wie es zu unserem Zeitempfinden aus der makroskopischen Sicht unseres Alltags kommt:


                    Rovelli (2018):
                     
                    Die Überraschung — so Rovelli — bestehe darin, dass wir selbst uns dieses grobe, allzu einfache Bild der Zeit schaffen:
                     
                    Aus unserer Perspektive sehen wir ein in der Zeit ablaufendes Weltgeschehen, welches wir aber nur unscharf wahrnehmen, da unsere Interaktion mit anderen Teilen der Welt nur allzu partiell ist und sein kann.
                     
                    Die Unbestimmtheit der Quanten setzt der Schärfe unseres Bildes sogar ganz prinzipiell eine Grenze.
                     
                    Die sich hieraus ergebende Unkenntnis führt zum Begriff der » thermodynamischen Zeit « sowie der » Entropie «. Letztere quantifiziert unser fehlendes Wissen über Mikrozustände.
                     
                    Die Entropie der Welt — bezogen auf uns — nimmt ständig nur zu, und nur deswegen kennt unsere Zeit [ als die thermodynamische ] nur eine Richtung.
                     
                    Somit können wir am Ende anstatt von vielen möglichen Zeiten nur von einer einzigen reden: von derjenigen unserer Erfahrung. Nur sie ist universell, gleichförmig und von nur einer Richtung. Sie ist Näherung einer Näherung einer Näherung einer korrekten Beschreibung der Welt, geschaffen aus der besonderen Perspektive von uns Kreaturen, die wir uns am Wachstum der Entropie nähren, in dem wir das Fortschreiten dieser Zeit verankert sehen.
                     
                    Und so gilt für uns, wie es im Kobelet heißt, » eine Zeit zum Gebären und eine Zeit zum Sterben «.
                     
                     
                    Das also ist die Zeit für uns:
                      ein geschichtetes, komplexes Konzept mit vielfältigen unterschiedlichen Eigenschaften, die sich aus unterschiedlich genauer Betrachtung — und somit aus unterschiedlicher Näherung — ergeben.

                     
                     
                    So also verstehe ich — Carlo Rovelli — die physikalische Struktur der Zeit, nachdem ich mich ein Leben lang mit ihr befasst habe.
                     
                    Viele Aspekte meiner Sichtweise sind solide, andere plausibel und wieder andere gewagte Versuche, zu einem Verständnis des Gegenstandes zu kommen:
                       
                    • Durch zahllose Experimente abgesichert ist, wie Gravitation den Lauf der Zeit bremst, ihre Relativität, dass die Grundgleichungen der Physik keine Zeit benötigen, die Beziehung zwischen Entropie und der Richtung des Fließens der Zeit, und nicht zuletzt, dass zwischen Entropie und [quantenphysikalischer] Unbestimmtheit eine Beziehung besteht.
                       
                    • Dass das Gravitationsfeld Quanteneigenschaften aufweist, ist eine allgemein geteilte Überzeugung in der Physik — auch wenn bisher nur theoretische Argumente sie stützen.
                       
                    • Plausibel ist das Fehlen einer Zeit-Variablen in den Grundgleichungen [wie im zweiten Teil des Buches erörtert] — auch wenn um die Form der Gleichungen noch gerungen wird.
                       
                    • Der Ursprung der Zeit in der Nicht-Kommutativität der Quanten, die thermodynamische Zeit und dass die beobachtbare Zunahme der Entropie von unserer Interaktion mit dem Universum abhängt, sind Ideen, die faszinieren, aber alles andere als gesichert sind.
                       
                    • Tatsache jedenfalls ist, dass die Zeitstruktur unserer Welt vom naiven Bild, das wir uns von ihr machen, abweicht.

                     
                    Viele Diskussionen über den Zeitbegriff sind nur deshalb konfus, da seine Vielschichtigkeit, sein wirklich komplizierter, erst durch Einstein aufgedeckter Aspekt, unberücksichtigt bleibt. Der Fehler besteht darin, zu übersehen, dass seine verschiedenen Schichten von einander uabhängig sind.
                       
                    • Das Geheimnis der Zeit beunruhigte Philosophen schonn immer:
                         
                      • Parmenides (etwa 500 v. Chr.) wollte der Zeit die Realität absprachen,
                         
                      • Platon (etwa 350 v. Chr.) ersann ein Reich der Ideen außerhalb der Zeit, und
                         
                      • Hegel (1770-1831) spricht vom Augenblick, in dem der Geist die Zeitlichkeit überwindet.
                         
                      • Mit Hans Reichenbach: The Direction of Time (1956) ist eines der scharfsinnigsten Werke über das Wesen der Zeit entstanden.
                         
                      • Der Menschen zutiefst emotionale Haltung der Zeit gegenüber hat eher zum Errichten philosophischer Kathedralen als zu einer Auseinandersetzung auf Basis von Logik und Vernunft beigetragen.
                         
                      • Die Physik aber hilft uns, Schicht um Schicht in das Geheimnis vorzudringen. Sie tut das, indem sie uns klar macht, wie weit sich die Zeitstruktur der Welt von der unserer intuitiven Vorstellung unterscheidet.

                       
                      Vielleicht ist ja unsere emotionale Haltung der Zeit gegenüber genau das, was für uns die Zeit ausmacht.
                       
                      Ich glaube nicht, dass es noch sehr viel mehr zu verstehen gibt. Genauer:
                       
                      Man kann sich weitere Fragen stellen, sollte aber darauf achten, dass sie sich gut formulieren lassen. Wo ein Problem nicht präzise formuliert werden kann, handelt es sich meist nur um ein Scheinproblem. Die Zeit haben wir gefunden, sobald wir auf alle ihre sagbaren Eigenschaften gestoßen sind.
                       
                       
                       
                       
                      Carlo Rovelli zum Wesen der Zeit

                       
                       
                      Quelle: Carlo Rovelli: Die Ordnung der Zeit, Rohwohlt 2018, S. 159-166


                       

                     Beitrag 0-39
                    Über das Jetzt und den Fluß der Zeit

                     
                     

                     
                    Über das Jetzt und den Fluß der Zeit

                     
                     
                    Zeit, so könnte man es sehen, vergeht überall dort, wo die Wellenfunktion des Universums (im quantenmechanischen Sinne) sich neu konfiguriert, d.h. wo Möglich­keiten verworfen und oder zu Fakten werden.
                     
                    Etwas als Faktum bzw. als lediglich eine von mehreren Möglichkeiten zu bewerten, bedarf es aber stets Informationsverarbeitung. Da nun aber Information nur mit endlicher Geschwindigkeit transportierbar ist — mit maximal Lichtgeschwindigkeit —, folgt daraus zwangsläufig, dass der Fluß der Zeit beobachterspezifisch sein muss.
                     
                    Da Gegenwart die Menge aller Raumzeitpunkte ist, in denen sich die Wellenfunktion des Universums umkonfiguriert, lässt sich feststellen:
                     
                     
                    Gegenwart ist überall,
                     
                    ist aber nicht dasselbe, was ein spezifischer Beobachter B als Gegenwart empfindet:

                     
                    Seine Gegenwart G(B) und sein Jetzt J(B) sind mehr oder weniger verschieden von der jedes beliebigen anderen Beobachters.

                     
                     
                    Dies bestätigt H. Dieter Zeh, der sagt:

                    Zeh auf Seite 11-12 in The physical Basis of the Direction of Time (2001), 4th ed. Springer
                     
                    Der Begriff des Jetzt scheint ebenso wenig mit dem Zeitbegriff selbst zu tun zu haben wie die Farbe mit dem Licht. ...
                     
                    Sowohl Jetzt als auch Farbe sind bloß Aspekte dessen, wie wir Zeit oder Licht wahrnehmen. ...
                     
                    Jedoch kann weder [der Farben] subjektive Erscheinung (wie "blau") noch die subjektive Erscheinung des Jetzt aus physikalischen oder physiologischen Ansätzen hergeleitet werden.
                     


                     
                    All das betrachtet, würde ich sagen:

                    Gebhard Greiter (2014)
                     

                    Zeit ist das, was der Fluß der Zeit generiert: Veränderung und eintretende Gewissheit

                     
                    Und natürlich ist Zeit in diesem Sinne ein rein beobachterspezifischer Begriff.
                     
                    Dennoch ist Zeit Z(B) in diesem Sinne nicht einfach ein im Beobachter B entstehender Eindruck. Nein, Z(B) ist des Beobachters spezifische Sicht auf etwas,
                    • das die Natur produziert,
                    • jedem von uns aber nur aus sehr spezifischer Sicht heraus beobachtbar macht.

                     
                     
                    Note: Wenn ich hier von Gewissheit spreche, so ist damit nicht subjektive Gewissheit gemeint, sondern beobachterspezifisch gegebene objekte Gewissheit, d.h. die Summe aller Fakten, die der Beobachter kennen würde, wenn er in der Lage wäre, sämtliche Information, die die Natur ihm zustellt, auch wirklich zur Kenntnis zu nehmen (und korrekt zu interpretieren).
                     
                    Man sieht hier, dass unsere Alltagserfahrung völlig zu Recht einen objektiven (wenn auch stets beobachterspezifischen) Zeitbegriff kennt, daneben aber auch nur gefühlte, völlig subjektive Zeitbegriffe, die sich ergeben, wenn man nur einen besonders kleinen Teil der objektiven Gewissheit zur Kenntnis nimmt.
                     



                     

                     Beitrag 0-87
                    Was Physiker bislang über die Möglichkeit von Zeitreisen zu sagen wissen

                     
                     

                     
                    Was Physiker heute (2011) insgesamt über die Möglichkeit von Zeitreisen zu sagen wissen

                     
                     
                    Anlässlich von Einsteins 70-ten Geburtstag machte Kurt Gödel (berühmter Logiker, enger Freund Einsteins) eine Entdeckung, die eigentlich wie eine Bombe hätte einschlagen müssen:
                     
                    Gödel fand Lösungen von Einsteins Feldgleichungen, die zeigen, dass die Allgemeine Relativitätstheorie auch Welten zulässt, in denen die Zeitdimension zu einer geschlossenen Kurve gekrümmt ist, so dass, wenn Bewohner solcher Welten hinreichend lange leben, sie schließlich wieder den Zeitpunkt ihrer Geburt erreichen.
                     
                    Das hypothetische Universum, welches durch Gödels Gleichungen beschrieben wurde, ist
                    • weder statisch (wie Einsteins instabile Lösung mit Hilfe seiner kosmologischen Konstante),
                       
                    • noch expandierend (wie unser Universum)
                    Es ist stattdessen ein  r o t i e r e n d e s  Universum:
                     
                    Rotation eines Universums führt dazu, dass sich Raum und Zeit vermischen: Je weiter man sich in einem solchen Universum vom Zentrum seiner Rotation entfernt, desto mehr ist der Doppelkegel gedreht, der dem Beobachter prinzipiell einsehbare Vergangenheit und Zukunft von den für ihn prinzipiell unerreichbaren Regionen der Raumzeit trennt. Ab einer bestimmten Entfernung von Zentrum der Rotation kann der Beobachter dann auf einer in zeitlicher Hinsicht geschlossener Kurve durch die Raumzeit reisen und so in seiner eigenen Vergangenheit ankommen.
                     
                    Ob diese Lösungen von Einsteins Feldgleichungen aber tatsächlich existierende Welten beschreiben, ist eine noch völlig offene Frage.
                     
                    Noch offen ist bisher insbesondere, ob es physikalische Gesetze gibt, die ein Reisen in die eigene Vergangenheit unmöglich machen.
                     
                    Gödels Ergebnis könnte bedeuten, dass es die Zeit in Wirklichkeit gar nicht gibt.
                     
                     
                    Auf jeden Fall haben die Physiker Gödels Ergebnis zunächst überhaupt nicht beachtet, und tatsächlich spricht bislang nichts dafür, dass unsere Universum ein rotierendes sei.
                     
                    Es dauerte fast 25 Jahre, bis das Thema Zeitreisen wieder Gegenstand wissenschaftliches Interesses wurde: Diesmal durch eine Arbeit, die Frank J. Tipler als Doktorand an der University of Maryland verfasste: Er studierte die Raumzeit um rotierende Zylinder herum, die erstmals 1936 von Jacob von Stockum berechnet worden war.
                     
                    Tiplers Arbeit endete mit dem Satz
                     
                    Kurz gesagt: Die Allgemeine Relativitätstheorie legt nahe,
                     
                    dass man durch die Konstruktion eines hinreichend großen rotierenden Zylinders eine Zeitmaschine erschafft.

                     
                     
                    Wieder hätte man erwarten können, dass so ein Ergebnis die Gemeinschaft der Physiker in hellen Aufruhr versetzt. Dies aber war nicht der Fall. Bis 1985 ist Tiplers Arbeit nur ganze 3 Mal zitiert worden. Dann aber kam ein erster Durchbruch:
                     
                    Kip Thorne — ein Professor für Physik am Caltech — war von Carl Sagan — einem Astronomen und Science-Fiction-Autor — gebeten worden, eine von Sagan geschriebene phantasievolle Geschichte, bei der es um Reisen durch den sog. Hyperraum ging, dahingehend zu prüfen, ob Sagon darin irgend etwas sage, das bekannten Gesetzen der Allgemeinen Relativitätstheorie widerspreche.
                     
                    Bei dieser Gelegenheit erkannte Thorne, dass sog. Wurmlöcher — deren Existenz Einsteins Theorie voraussagt — abkürzende Wege durch die Raumzeit beschreiben mit dem Effekt, dass wer ein Wurmloch durchquert, von seinem Eingang zu seinem Ausgang weit schneller gelangt als Licht, das den üblichen Weg — einer Geodäte entlang — durch die Raumzeit nimmt. Der Grund hierfür: Im Wurmloch selbst, das man sich als eine Art Schlauch vorzustellen hat, ist der Raum so stark gestaucht, dass Anfang und Ende dieses "Schlauches" nur einen Katzensprung weit voneinander entfernt erscheinen.
                     
                    Wie Kip Thorne und zwei seiner Studenten (Mike Morris und Ulvi Yurtsever) dann errechnet — und in der Fachzeitschrift Physical Reviews Letters auch publiziert — haben, ergibt sich daraus ein enfaches Rezept für eine Zeitreise: Der Reisende würde am Ziel ankommen, noch bevor er — aus wessen Sicht? — abgereist ist.
                     
                     
                    Vier Jahre später veröffentlichte auch Steven Hawking Überlegungen zu Zeitreisen mit Hilfe von Wurmlöchern. In einem Aufsatz mit dem Titel » Die Chronologie-Schutz-Vermutung « (veröffentlicht 1992 in der Fachzeitschrift Physical Review D « erklärte er: Es scheint, als ob es eine Chronologie-Schutz-Kommission gibt, die die Existenz geschlossener zeitartiger Kurven verbietet und so das Universum zu einem sicheren Platz für Historiker macht. [Es war dies eine Anspielung auf die sog. Timekeepers der Comics-Serie Marvel, die dort ebenfalls über die Zeit wachen und um sicherzustellen, dass das Universum gedeiht.]
                     
                    Hawking also denkt, es müsse da etwas sein, das Reisen in die eigene Vergangenheit unmöglich macht.

                     
                    Und es gibt tatsächlich wenigsten zwei Gründe für diese Vermutung:
                    • Berechnet man nämlich, was für Materieverteilungen notwendig sind, die Geometrie eines Wurmloches zu erzeugen, so erkennt man: Jede solche Materievertelung muss negative Energie haben. Solche Raumzeitzustände aber sind instabil, wie 2005 Stepen Hsu und Roman Buniy zeigen konnten.
                       
                    • Ein zweites Argument hat Hawking selbst ausgearbeitet: Selbst wenn das Problem mit der negativen Energie nicht existieren würde, könnten Teilchen mit einer solchen Zeitmaschine in der Zeit wiederholt zurückreisen, so dass sich ihre Zahl explosionartig bis ins Unendliche hinein steigen würde, was dann zu einem Kollaps der Raumzeit führen würde (so jedenfalls zeigen Rechnungen für klassische Teilchen; ob genauere quantenphysikalische Rechnung dieses Ergebnis bestätigen, ist bislang nicht bekannt: Sie durchzuführen ist wohl allzu schwierig).

                    Wie dem auch sei:
                     
                    Es sieht schlecht aus für Reisen in die Vergangenheit.
                     
                    Viel spricht dafür, dass die Zeit nicht Teil der Wirklichkeit, sondern nur ein von den Möglichkeiten des Beobachtens geprägter Eindruck des Beobachters ist.
                     
                    Diese Möglichkeiten sind unvollkommen ( da die Lichtgeschwindigkeit endlich ist ).

                     
                     
                     
                    Quelle der Fakten: Heinrich Päs: Die perfekte Welle — Mit Neutrinos an die Grenzen von Raum und Zeit, Piper 2011, Kapitel 14: Wie baut man eine Zeitmaschine?
                     
                    Päs — Professor für Theoretische Physik an der TU Dortmund — forscht über Neutrinos und Theorien jenseits des Standardmodells.


                     

                     Beitrag 0-158
                    Warum in unserer Welt die Zeit nur eine Richtung kennt

                     
                     

                     
                    Wie Hawking sich

                    die Unumkehrbarkeit der Zeit erklärt



                    Steven Hawking ( 1996, Zitat ):
                     
                    Ich werde diese Vorlesung mit einem Thema abschließen, zu dem Roger Penrose und ich unterschiedliche Meinung haben — dem Zeitpfeil:
                     
                    In unserem Bereich des Universums gibt es eine klare Unterscheidung zwischen der Vorwärts- und der Rückwärtsrichtung der Zeit. Man muss sich nur einen rückwärts laufenden Film ansehen, um den Unterschied zu erkennen. Man sieht dann Tassen, die nicht mehr vom Tisch fallen und zerbrechen, sondern Scherben, die auf den Tisch springen und sich dort zu einer Tasse zusammenfügen.
                     
                    Die lokalen Gesetze, denen die physikalischen Felder genügen, sind zeitsymmetrisch, genauer gesagt CPT-invariant.
                     
                    Der beobachtete Unterschied zwischen Vergangenheit und Zukunft muss also von Randbedingungen des Universums herrühren.
                     
                    Nehmen wir an, das Universum sei räumlich geschlossen, expandiere zu einer maximalen Größe und kollabiere dann wieder. Wie Penrose betont, sieht das Universum an beiden Enden dieser Geschichte gravierend unterschiedlich aus: Was wir als seinen Anfang bezeichnen, scheint ein sehr glatter, regulärer Zustand gewesen zu sein. Wenn es jedoch wieder kollabiert, erwarten wir, dass es sehr ungeordnet und irregulär wird.
                     
                    Da es weitaus mehr ungeordnete als geordnete Konfigurationen gibt, bedeutet dies, dass die Anfangsbedingungen unglaublich genau hätten ausgewählt werden müssen.
                     
                    Es scheint sich daher so zu verhalten, dass an den beiden Enden der Zeit unterschiedliche Randbedingungen vorliegen müssen.
                     
                    Und tatsächlich: Rogers Vorschlag sieht vor, dass der Weyl-Tensor an einem Ende verschwindet, jedoch nicht am anderen. Der Weyl-Tensor ist der Teil der raumzeitlichen Krümmung, der nicht über die Einstein-Gleichungen lokal durch die Materie bestimmt ist. Er sollte also in den glatten, geordneten Phasen des frühen Universums klein, im kollabierenden Universum aber groß sein.
                     
                     
                    Dieser Vorschlag würde die beiden Enden der Zeit voneinander unterscheiden
                     
                    und könnte so den Zeitpfeil erklären.

                     
                     
                    Note: Ich schrieb eine Arbeit, in der ich behauptete, der Zeitpfeil kehre sich um, wenn das Universum kollabiere. Danach aber haben mich Diskussionen mit Don Page und Raymond Laflamme davon überzeugt, daß ich damit meinen größten Fehler — mindestens meinen größten Fehler in der Physik — begangen hatte: Das Universum würde während des Kollaps nämlich keineswegs in einen glatten Zustand zurückkehren, der Zeitpfeil also würde sich nicht umkehren: Er würde weiter in die gleiche Richtung deuten wie während der Expansion.
                     


                     
                    Quelle: Hawking und Penrose: Raum und Zeit, Rowohlt 1998, Seite 135-137
                     
                    Titel der Originalausgabe: The Nature of Space and Time, Princeton University Press (1996)

                     
                    Note: In general relativity, the Weyl curvature is the only part of the curvature that exists in free space — a solution of the vacuum Einstein equation. It governs the propagation of gravitational radiation through regions of space devoid of matter.

                     

                     Beitrag 0-480
                    Wie wirklich ist die Zeit?

                     
                     

                     
                    Was ist Zeit?

                     
                     
                    Es gibt dicke Bücher, in denen theoretische Physiker ebenso wie Philosophen darüber nachdenken, was Zeit denn eigentlich sei und ob sie wirklich existiere (genauer: als von welcher Qualität wir sie uns vorzustellen haben):
                     
                    Die mir am ehesten einleuchtende Antwort auf solche Fragen gibt Carlo Rovelli. Er argumentiert wie folgt:


                    Carlo Rovelli (2014):
                     
                    Der Vorschlag von der Nichtexistenz der Zeit, der im Zentrum der Bemühungen steht, eine Quantengravitationstheorie zu formulieren sarf nicht mit der naiven Auffassung einer eingefrorenen Welt verwechselt werden.
                     
                    Die Nichtexistenz der Zeit auf grundsätzlicher Ebene zu postulieren kommt aus der Erkenntnis, dass sich keineswegs alle zeitlichen Aspekte unserer Realität mit Hilfe einer absoluten, universellen Zeit, die » vergeht « beschreiben lassen, d.h. mit einem nur eindimensionalen Zeitkonzept.

                       
                      Es gibt die Zeit — aber halt nur so, wie es ein Oben und ein Unten gibt.
                       
                      Einsteins Theorie kennt kein Oben und kein Unten, sondern einfach nur das Gravitationsfeld.
                       
                      In unserer Alltagserfahrung ist unten dort, wohin etwas fällt.
                       
                      Ganz analog dazu scheint es auch kein Früher und kein Später zu geben: Später ist einfach nur, wohin Zustände sich entwickeln.

                     
                    Man erkennt:
                     
                    Zeit und Raum sich Begriffe ähnlich wie Farbe, Geschmack oder Temperatur.
                     
                    Um die Fundamente unserer Welt zu erkennen, muss man sich solcher Vorstellungen entledigen, muss sich also auch von der Variablen t in physikalischen Formeln verabschieden.
                     
                     
                    Unsere übliche Vorstellung von Zeit ist ebenso vielgestaltig wie vielschichtig und enthält eine Fülle impliziter Hypothesen und Vorannahmen. Es handelt sich um ein ganzes Bündel von Vorstellungen, die sich in unserem kopf mischen, das das Auflösungsvermögen unserer Sinnesorgane begrenzt ist.
                     
                    Das Universum ist riesig und komplex. Es gibt Abermilliarden von Teilchen, die Einfluss auf einander ausüben und noch mehr Variable, die entsprechenden Felder zu beschreiben. Wir erkennen, dass dieses ganze System in seinem dynamischen Verhalten von Gleichungen bestimmt wird, in denen die Zeit auf fundamentalem Niveau gar nicht auftaucht:
                     
                     
                    Schleifenquantengravitation beschreibt den Raum als Spin-Netzwerk ohne von Zeit sprechen zu müssen.
                     
                     
                    Wir messen immer nur einen winzigen Teil aller Variablen, welche das System bestimmen.
                     
                    Wenn wir beispielsweise ein Stück Metall einer bestimmten Temperatur untersuchen, können wir seine Temperatur messen, seine Länge, seinen Ort, aber nicht die mikroskopischen Bewegungen jedes seiner Atome — obgleich doch gerade sie seine Temperatur verursachen.
                     
                    In solchen Fällen benutzen wir nicht nur die Gleichungen der Dynamik, um die Physik des Systems zu beschreiben, sondern auch die der statistischen Mechanik und Thermodynamik.
                     
                     
                    Ausgehend von einer Theorie, welche die Existenz der Zeit grundsätzlich leugnet, lässt sich im Kontext der statistischen Physik aber dennoch eine makroskopische Zeit wiederfinden: Sie tritt auf als emergentes Phänomen, erzeugt von einer ganzen Reihe mikroskopischer Prozesse, die sich im Detail durch uns gar nicht verfolgen oder beschreiben lassen.

                     
                    Und so kann man die Zeit sehen als eine Folge unseres Nichtwissens über die Details sich ergebender Veränderung.
                     
                    Würden wir all diese Details genau kennen, hätten wir nicht das Empfinden eines Fortschreitens von Zeit.
                     
                    So aber nehmen wir summarisch nur Mittelwerte wahr, aus denen eine neue Vorstellung — die Zeit — hervorgeht.
                     
                    Eben ganz so, wie wir pauschal dort den Eindrück von Wärme verspüren, wo sich die Effekte vieler Bewegungen von Molekülen für uns undurchschaubar aufsummieren. Auf molekularer Ebene erkennen wir kein einziges der Moleküle ist warm.

                     
                     
                    Denken wir nochmals an das Unten und das Oben:
                     
                    Es ist nicht das Unten, das die Objekte fallen lässt. Es ist vielmehr das Fallen der Objekte, welches für uns den Begriff » Unten « definiert. Unten ist einfach da, wohin alles fällt, und so ist auch das » Später « einfach nur das Entstehen neuer Zustände. Die Ordnung, in der sie entstehen muss keine lineare sein.

                     
                    Zeit ist demnach nur gedankliches Konzept.
                     
                    In eindeutige Richtung fließt sie nur,
                     
                    soweit uns die Menge aller betrachteten Zustände eines Systems als linear angeordnet erscheinen.

                     
                     
                    Note: Rovelli weist explizit darauf hin, dass dies seine Vorstellung von Zeit sei, und dass sein Freund Lee Smolin nicht glaubt, dass das schon die ganze Wahrheit sein könne. Er hat seine Position ausführlich beschrieben in Lee Smolin: Time Reborn (2014).
                     


                     
                    Quelle: Carlo Rovelli: Und wenn es die Zeit nicht gäbe? (2018), S. 126-158


                     

                     Beitrag 0-511
                    Wie sich relative von absoluter Zeitdilatation unterscheidét

                     
                     

                     
                    Absolute und relative Zeitdilatation



                    Siegfried Petry:
                     
                    Bei den relativistischen Effekten der Zeitdilatation (Zeitverzögerung) muss strikt zwischen der absoluten und der relativen Zeitdilatation unterschieden werden.
                       
                    • Die absolute Zeitdilatation — sie ist die Ursache des so genannten Zwillingsparadoxons — besteht darin, dass bei der Beschleunigung eines Bezugssystems der Gang der darin befindlichen Uhren und allgemein die Geschwindigkeit aller Abläufe verzögert werden.
                       
                      Sie wurde experimentell bestätigt, indem man eine Atomuhr in einem schnellen Flugzeug auf eine Reise um die Erde schickte (Hafele-Keating-Experiment). Nach der Rückkehr ging die Uhr wieder genau so schnell wie die Vergleichsuhr am Boden, war jedoch retardiert, das heißt, ihre Anzeige war zurückgeblieben:
                       
                      Die im Flugzeug transportierte Uhr — und mit ihr die Besatzung des Flugzeugs — war weniger gealtert als alles auf dem Boden zurückgebliebene.
                       
                       
                    • Die relative Zeitdilatation dagegen besteht darin, dass für die Beobachter in zwei relativ zu einander bewegten Bezugssystemen die Uhren im jeweils anderen Bezugssystem anders zu gehen scheinen als seine eigene.
                       
                      Genauer: Den Dopplereffekt herausgerechnet scheint jedem Beobachter jede relativ zu ihm bewegte Uhr umso langsamer zu gehen, je schneller sie sich relativ zu ihm bewegt.
                       


                     
                    Quelle: Siegfried Petry: Spezielle Relativitätstheorie (einschließlich aller Rechnung dazu)


                     

                      Beitrag 2085-1
                    Zeit im (unterschiedlichen) Sinne von Newton vs Leibniz und Einstein

                     
                    Hallo zusammen,

                    bisher wusste ich, dass Newton und Leibniz miteinander darüber stritten, wer von beiden die Priorität bei der Erfindung der Infinitesimalrechnung hat.

                    Nun erfahre ich, dass sie auch über das Wesen der Zeit miteinander gestritten hatten. Newton glaubte an eine absolute Zeit hingegen Leibniz hielt eine absolute, von allen Dingen unabhängige Zeit für ein Unding. Leibniz war damit damals schon näher an Einstein als Newton.

                    Das geht aus der Buch-Rezension Großer Streit um die Zeit hervor:

                    Zitat:
                    Newton postulierte: Das, was zeitgenössische Uhren sukzessive immer genauer messen, ist eine absolute Zeit, die völlig unabhängig von allen physikalischen Zusammenhängen gleichmäßig dahinfließt, sozusagen der Pendelschlag einer vollkommenen Uhr. Die absolute Zeit bildet – zusammen mit dem ebenso absoluten Raum als vollkommenem Metermaß – gewissermaßen die physikalische Bühne, auf der sich alle Vorgänge des Universums abspielen.

                    Newtons absolute Zeit beherrschte die Physik unangefochten 200 Jahre lang, bis Einstein sie mit der Relativierung der Zeitmessung entthronte. Seither wissen wir: Bewegte Uhren gehen langsamer.

                    Wie de Padova zeigen will, mutet darum das, was Leibniz unter "Zeit" verstand, heutzutage durchaus modern an. Leibniz hielt eine absolute, von allen Dingen unabhängige Zeit für ein Unding; sie sei vielmehr eine Eigenschaft der Bewegung von Objekten. In einem Weltall ohne ein einziges veränderliches Ding wäre es Leibniz zufolge sinnlos, von Zeit zu sprechen.

                    Ganz in diesem Sinn sollte Einstein zu Beginn des 20. Jahrhunderts definieren: Zeit ist das, was Uhren messen.

                    Insofern sind heutige Physiker eher Leibnizianer als Newtonianer.

                    M.f.G. Eugen Bauhof
                     

                      Beitrag 2085-6
                    -

                     
                     
                    Horst in 2085-4:
                     
                    Umgekehrt wird ein Schuh daraus.
                    Wo sich Veränderungen ergeben, bezeichnet man deren Dauer als "Zeit" !

                    Damit hast du sogar recht: "Zeit" ist ein abstrakter Begriff, eine subjektive Empfindung für die Dauer von Veränderungen.


                    Horst,

                    du denkst hierbei an mesotopische Veränderung (an Veränderung, wie wir sie in unserem täglichen Leben ständig um uns herum erleben und wahrnehmen).

                    Mein Beitrag 2085-3 aber meint Veränderungen, wie sie noch minimaler — des Wirkungsquantums wegen — gar nicht mehr denkbar sind. Sie "dauern" nicht, sondern treten spontan ein, und Zeit ist dann der voranschreitende Wandel, dem der Kosmos dieser kleinsten Wirkungsportionen wegen unterworfen ist.

                    Sie häufen sich an wie sich Sandkörner zu einem Berg von Sand anhäufen. So ein ganzer "Berg" von kleinstmöglichen Veränderungen in meinem Sinne bildet dann — wenn groß genug geworden — eine Veränderung in deinem Sinne.

                    Gruß,
                    grtgrt
                     

                      Beitrag 2085-8
                    -

                     
                     
                    An Eugen & Harti:

                    Harti in 2085-7:
                     
                    Bewegungen sind ein Spezialfall von Veränderungen, nämlich räumliche Veränderungen.

                    Das sehe ich ebenso.


                    Harti in 2085-7:
                     
                    Dies gilt natürlich nur makrokosmisch betrachtet. Im Mikrokosmos mag alles als Bewegung beschreibbar sein.

                    Im Mikrokosmos, so scheint mir, wird sich letzlich alle Veränderung auf Potentialschwankung reduzieren (denn: Bewegung ist Reaktion auf Beschleunigung, die letztlich auf das Einwirken von Kraft zurückzuführen ist).


                    Harti in 2085-7:
                     
                    Der Definition von Einstein "Zeit ist das, was Uhren messen" würde ich noch eine weitergehende Bedeutung als nur die Relativierung der Zeit geben. Er grenzt damit den wissenschaftlichen Zeitbegriff vom allgemein sprachlichen Zeitbegriff ab.

                    Mir scheint, dass das seitens Einstein nur eine flapsig dahingeworfene Verlegenheitsantwort war — es dürfte ihm nämlich durchaus bewusst gewesen sein, dass auch er nicht in der Lage war, den eigentlichen Ursprung dessen zu erklären, was der Mensch als » Zeit, die verstreicht « kennt.


                    Gruß,
                    grtgrt
                     

                      Beitrag 1376-43
                    Zeitablauf ist fortwährende Zustandsänderung

                     
                    Harti aus 1376-42:
                    Die Vorstellung von Zeit ist eine Folge unserer Fähigkeit, Geschehensabläufe (Veränderungen) zueinander in Beziehung zu setzen. Diese Vorstellung hat sich derartig verselbständigt, dass wir Zeit fälschlich als etwas objektiv Existierendes empfinden.

                    Das scheint mir eine sehr schöne Erklärung.

                    Sie kommt mir nur insofern noch nicht so ganz perfekt vor, als sie sich auf den Begriiff Ablauf (in Geschehensabläufe) stützt.
                    Er aber basiert auf Begriffen wie vorher und nachher, die wiederum nur für den wohldefiniert sind, der die übliche Vorstellung von Zeit hat — womit man sich beim Definieren dann im Kreis bewegt hätte.

                    Mein Vorschlag also: Den Begriff Ablauf eliminieren indem man von einer durch Ursache und Wirkung gegebenen transitiven Relation auf der Menge aller Ereignisse spricht (von einer Ordnung im Sinne der Mengenlehre).


                    PS: Ich will nicht verheimlichen, dass das dann sehr gut zu meiner Zeittheorie passen würde.

                    grtgrt
                     

                      Beitrag 2050-15
                    Was ist Zeit?

                     
                     
                    Haronimo in 2050-14:
                    Hallo grtgrt ,

                    Wenn die Existenz beginnt, beginnt die Zeit der Existenz , oder ist Existenz=Zeit?

                    Hallo Haronimo,

                    meiner Auffassung nach kommt es zur Existenz von Zeit alleine dadurch, dass da etwas existiert  u n d  sich fortentwickelt (wohin auch immer).

                    Meine Begründung: Zeit ist eine zweistellige Relation, die jedem passierenden Wirkungsquantum Ursachen zuordnet.
                    Solange absolut nichts existiert, kann es daher auch keine Zeit geben.

                    Gruß, grtgrt
                     

                      Beitrag 2050-17
                    Erklär mir doch einmal die Zeit ...

                     
                     
                    Horst in 2050-16:
                     
                    Erklär doch einfach mal – oder mal einfach – wie meßbare(!) "Zeit" dadurch entstehen kann, dass sich etwas(?) fortentwickelt!

                    Hallo Horst,

                    die Zeit existiert in wenigstens zweierlei Ausprägung:

                    • Als  m e s s b a r e  Größe ist sie einfach nur ein Konzept, welches sich der Mensch so  d e f i n i e r t  hat, dass es ihm nützt.
                    • Nur als etwas, das  v e r g e h t  (zwangsweise verbraucht wird) ist die Zeit ein durch die Natur geschaffenes Objekt:
                      Die Natur "strickt" sie wie ein großes Tuch, das niemals fertig wird. Wie ich mir dieses "Tuch" vorstelle, habe ich den Forumsteilnehmern hier schon mal beschrieben. Nachzulesen ist all das

                    Bin gespannt, ob Dir damit gedient ist.

                    Gruß, grtgrt
                     

                      Beitrag 2050-23
                    Ticks der kosmischen Uhr sind die Qanten aller Fortentwicklung (und daher die Zeit im Sinne der Natur)

                     
                     
                    Horst in 2050-22:
                     
                    Erkläre mir bitte plausibel und nachvollziehbar – ohne Links – den physikalischen Vorgang, wie durch "fortentwickeln" der Existenz von "etwas"(?) das "Objekt" Zeit entsteht und dessen Struktur.


                    Hallo Horst,

                    zunächst sei gewarnt: Wovon ich da spreche ist zunächst mal nur  m e i n e  ganz  p e r s ö n l i c h e  Idee davon, was Zeit für die Natur sein könnte.
                    Ich habe keine Ahnung, wie viele Physiker diese Idee plausibel fänden, wenn sie davon erführen — vielleicht wirklich niemand.

                    Leute, die über Schleifenquantengravitation forschen, stellen sich Ähnliches vor (aber keineswegs so Einfaches wie ich). Sie haben mich letztlich auf meine Idee gebracht.


                    Der physikalische Vorgang, nach dem Du frägst, ist das, was man ein Elementarereignis nennt: Zwei oder mehr Quantensysteme stoßen zusammen, verschmelzen, und teilen sich sofort wieder auf in eine Menge neuer Quanten.


                    Elementarereignisse in diesem Sinne sind sozusagen die Quanten aller Fortentwicklung von "etwas".

                    Ich nenne sie » die Ticks der kosmischen Uhr «.



                    Was alles ein Etwas  a u ß e r h a l b  unseres Universums sein könnte, kann ich dir nicht sagen (da habe ich noch nicht mal eine Ahnung).

                    I n n e r h a l b  unseres Universums aber ist jenes Etwas schlicht und einfach

                    die Menge ALLER in ihm gerade existierenden Elementarteilchen mit oder ohne Ruhemasse.


                    Mehr dazu kann ich Dir nun wirklich nicht kürzer erklären als in meinen schriftlichen Beiträgen, die hier und hier online verfügbar sind.


                    Gruß, grtgrt
                     

                      Beitrag 2050-26
                    -

                     
                     
                    Horst in 2050-25:
                     
                    Und wo kamen die vagabundierenden Quantensysteme denn her?


                    Die meisten dürften Photonen oder virtuelle Teilchen sein. Letztere entstehen der unvermeidlichen, überall stattfindenden Quantenfluktuation wegen.

                    Ansonsten ist alles, was an Materie existiert, natürlich auch Quantensystem.

                    Schönes Beispiel für durchaus schon komplexe, ständig umher vagabundierende Quantensysteme, die zudem noch eigenen Willen haben, wären etwa Mücken.
                    Aber natürlich wird an jedem Elementarereignis, an dem so eine Mücke beteiligt ist, nur ein winzig kleiner Teil iher selbst umgebaut.

                    Wenn ich also oben von "an Elementarereignissen teilnehmenden Quantensystemen" sprach, waren da vor allem Elementarteilchen jeder Art gemeint.
                    Der Witz ist nur:
                    • Elementarteilchen, die Ruhemasse haben, sind stets mehr oder weniger in Quantensysteme eingebunden. Diese Einbindung aber nimmt ihnen stets wenigstens einen winzig kleinen, aber doch mehr oder weniger großen Teil ihrer Identität. Als wirklich "freies" Elementarteilchen existieren sie nur als Idealisierung.
                    • Gleiches gilt für jedes Quantensystem, welches Elementarteilchen mit Ruhemasse enthält — und daher existiert streng genommen (um nicht zu sagen strengstens genommen) nur ein einziges Quantensystem, das voll selbstbestimmt ist: Die Menge aller Materie in unserem Universum.

                    Solche Feinheiten nicht berücksichtigt, bist Du gut beraten, dir jedes Elementarereignis einfach vorstellen als das Zusammenstoßen und Verschmelzen zweier Elementar­teilchen (von denen wenigstens eines Ruhemasse hat) unter sofortiger Neuaufteilung in eine Menge neuer Elementarteilchen. Diese Menge kann leer sein, was aber wohl nur dann der Fall sein wird, wenn ein Paar eben entstandener virtueller Teilchen seine Existenz wieder beendet.

                    Die Antwort auf Deine Frage also lautet:

                    Sie entstehen durch Quantenfluktuation oder in Elementarereignissen (letztere im eben definierten Sinne).



                    So, jetzt kannste versuchen, mich weiter auf den Arm zu nehmen ... ;-)
                    Vorsicht aber: Ich bin weniger rücksichtsvoll als Eugen und verteile daher Wissen nicht nur in Baby-Portionen!

                     

                      Beitrag 2050-29
                    Erste nicht-virtuelle Materie

                     
                     
                    Horst in 2050-27:
                     
                    Es stellt sich da natürlich die Frage, wie Quantenschwärme vor "Erschaffung" der "Zeit" herumschwärmen konnten.
                    Wenn es "Zeit" noch gar nicht gab, gab es ja für sie auch noch keine Bewegung um zusammen zu kommen!

                    Kannst du mir diesen Widerspruch erklären?


                    Hallo Horst,

                    Du vergisst, dass virtuelle Teilchen per Quantenfluktuation aus dem Nichts entstehen (wie ich in Beitrag 2050-26 ja auch sagte). Erste solche Fluktuation könnte demnach recht gut der Anfang der » Zeit im Sinne der Natur « gewesen sein.

                    Wir wissen heute ja sehr gut, dass nicht wirklich  j e d e s  Paar virtueller Teilchen sich zur gegenseitigen Auslöschung wieder zusammenfindet (denk an Hawking Strahlung). Wo das passiert, entsteht nicht-virtuelle Materie.

                    Gruß, grtgrt
                     

                      Beitrag 1376-8
                    Zur eigentlichen Natur der Zeit

                     
                    Meine These:

                    Zeit entspricht den Kosten, die unsere Bewegung durch den Kosmos verursacht.


                    Zeit = Verbrauch an Lebensenergie


                    Mein Beweis:

                    Wer mit dem Auto unterwegs ist, kennt das: Die Geschwindigkeit v, mit der er sich bewegt, hat zwei Komponenten

                    v = v(1,2,3) + v(4) ,

                    derart dass
                    • v(1,2,3) seine Geschwindigkeit durch den 3-dimensionalen Raum ist und
                    • v(4) die Geschwindigkeit, mit der sich Kosten anhäufen (über Benzinverbrauch und Fahrzeugverschleiß): die Geschwindigkeit also, mit der sich sein Vermögen   dadurch reduziert, dass er sich per Auto bewegt — das Ausmaß, in dem seine Ortsveränderung Resourcen verbraucht.

                    Nach Einstein bewegt sich jeder Körper ganz grundsätzlich stets mit Lichtgeschwindigkeit c durch ein 4-dimensionales Universum U, das man als Menge von Punkten gesehen (die man Ereignisse nennt) als ein kartesisches Produkt ( R, Z) schreiben kann, worin


                    R den uns vertrauten 3-dimensionalen Raum bezeichnet und
                    Z einen weiteren, nur 1-dimensionalen Raum, den Einstein und Minkowski die Zeit nennen.


                    Die Geschwindigkeit, mit der auch wir uns nach Einstein bewegen, ist demnach darstellbar als Summe


                    c = v(1,2,3) + v(4) ,

                    worin
                    v(1,2,3) den auf R und v(4) den auf Z projezierten Anteil unserer Geschwindigkeit darstellt.


                    Daraus folgt:

                    v(4) — das also, was wir als vergehende Zeit empfinden — ist die Geschwindigkeit, mit der unsere Bewegung durch den Kosmos unsere Lebensenergie reduziert, die Geschwindigkeit also, die dem Kostenanteil entspricht: die Geschwindigkeit unseres Alterns.


                    Diese Interpretation ist voll kompatibel mit der bekannten Auflösung des Zwillingsparadoxons.

                    Sind A und B die beiden Zwillingsbrüder, und ist E1 das Ereignis "Sie schütteln sich die Hände, bevor der eine, B etwa, mit seinem Raumschiff abreist", und ist ferner E2 das Ereignis "Sie schütteln sich die Hände, nachdem B zur Erde zurückgekehrt ist", so gilt ganz offensichtlich: A und B haben sich beide von E1 nach E2 bewegt, haben hierzu aber unterschiedliche Wege genutzt. Es ist daher kein Wunder, dass sie sich durch ihr Reisen von E1 nach E2 unterschiedlich hohe Kosten eingehandelt haben. Erstaunlich ist nur, dass A — der Bruder also, der sich NICHT durch den Raum bewegt hat — den teuren Weg gegangen ist (für ihn verging mehr Zeit). Wir sehen somit:


                    Je mehr ein Weg von E1 nach E2 durch die Zeit statt durch den Raum führt, desto teurer kommt die Reise.


                    grtgrt
                     

                      Beitrag 1376-13
                    Lebensbatterie: Wie Zeitquanten entstehen und warum alles stirbt

                     
                    Stueps aus 1376-9:
                    Hallo Gebhard,

                    dies erinnert mich stark an das Konzept des "entropischen Zeitpfeils". Lässt sich deine These nicht mit Hilfe der "Zunahme der Entropie" äquivalent beschreiben?

                    Hi, Stuebs!

                    Ich glaube auch nicht, dass sich Gebhards Vorschlag mit der "Zunahme von Entropie" beschreiben lässt, und zwar weil meines Erachtens sein Ansatz falsch ist. Wir verbrauchen keine Energie, sondern wir wandeln Energie von schwach entropisch in höher entropisch um, wir "zahlen" keine Zeit, Zeit lässt sich nicht verbrauchen .Denn was die vierdimensionale Raumzeit angeht, Gebhard, so kann sie nicht in raum- bzw. zeitartig getrennt werden (siehe dazu Minkowski, auch wenn ich das Zitat jetzt nicht parat habe, du kennst es sicher), Zeit lässt sich so wenig wie Raum verbrauchen. Ich stimme dir allerdings zu, was die Lichtgeschwindigkeit angeht, jedes Objekt bewegt sich stets mit c.Ich - ich spreche da nur für mich - bin immer noch nicht sicher, ob die Zunahme der Entropie im Kosmos tatsächlich kausal etwas mit dem Zeitpfeil zu tun hat, denn die zugrunde liegenden Gesetze der Physik (Thermodynamik) sind zeitinvariant.
                     

                      Beitrag 1376-24
                    Die Frage nach noch fehlender Deutung

                     
                    C... aus 1376-23:
                    Hallo Grtgrt,

                    Grtgrt aus 1376-15:
                    Kann mir das jemand deuten? Verursacht Bewegung entlang jener geheimnisvollen 4-ten Dimension vielleicht eine Art zusätzlicher Reibung (zusätzlichen Verschleiß, um im Bilde von Beitrag 1376-8 zu bleiben)?

                    Eine "Reibung" oder ein "zusätzlicher Verschleiß" ist bei der Bewegung entlang der 4. Dimension gar nicht erforderlich. Denn du hast doch Folgendes festgestellt:

                    Zitat von Grtgrt:
                    ... bewegt sich jeder Körper ganz grundsätzlich stets mit Lichtgeschwindigkeit c durch ein 4-dimensionales Universum U, ...
                    c = v(1,2,3) + v(4) ...

                    Wenn also jemand v(1,2,3) aufnimmt, so muss v(4) automatisch (d.h. auch ohne Reibung) kleiner werden, vorausgesetzt v bleibt konstant c.

                    Hi C...,

                    ich habe bewusst NICHT gefragt, ob mir das jemand beweisen kann (den Beweis nämlich erbringt die ART).

                    Ich habe stattdessen gefragt, ob mir das jemand deuten kann (d.h. ob jemand sich irgend eine plausible Begründung dafür vorstellen kann, dass es nun mal so ist, wie die ART uns sagt, dass es ist; und wir wissen ja: sie HAT recht: es ist wirklich so, wie sie uns sagt).

                    Beste Grüße,
                    grtgrt
                     

                      Beitrag 1376-25
                    Unberechtigte Kritik

                     
                    Hi Henry,

                    Henry aus 1376-22:
                    Was verschiedene Beobachter wahrnehmen ist eine Verlangsamung der Zeit - aber nur auf ein beobachtetes Objekte in einem anderen System bezogen. Entscheidend ist aber, was innerhalb des jeweiligen Systems (also des jeweiligen Beobachters) zu messen ist, und darin unterscheiden sich die einzelne Objekte nicht.

                    Der Witz ist: Die beiden Systeme können einen nicht leeren Durchschnitt haben. Im Hafele-Keating-Experiment etwa, besteht der darin, dass die beiden Teams — das daheimgebliebene mit seiner Atomuhr, und das andere, das eine identisch gebaute Atomuhr auf ihren Flug um die Erde begleitet hat —, nachdem sie sich wieder treffen, beide gemeinsam auf beide Uhren blicken und feststellen, dass die verschiedene Zeit anzeigen, obgleich sie doch bei Beginn des Experiments synchronisiert waren.


                    Henry aus 1376-22:
                    Auch deine Graphen - mit denen du an Feynman erinnerst, oder sehe ich das falsch - sind ...

                    Mein Zeitgraph hat zunächst gar nichts mit Feynmans Diagrammen zu tun. Man könnte aber jedes von ihnen sehen als eine Präzisierung dessen, was ich ein Elementarereignis nenne (genauer: ein Elementarereignis bestimmten Typs).


                    Henry aus 1376-22:
                    ... nichts gegen neue Ideen einzuwenden, nur müssen die neuen Ideen kompatibel sein zur ART (da könnte es mit deiner These schwierig werden) und zur Quantenmechanik.

                    Ich kann nicht erkennen, dass meine Theorie irgendwo im Widerspruch zur ART oder zur Quantenmechanik steht.
                    Ganz im Gegenteil: Aus der ART kommende Ergebnisse haben sie mir nahegelegt.

                    Gruß, grtgrt
                     

                      Beitrag 1376-45
                    Reaktion (von stueps) auf die Idee der Lebensbatterie

                     
                    Grtgrt aus 1376-28:
                    Zusammenfassend lässt sich feststellen:

                    Was ich in Beitrag 1376-15 die Lebensbatterie eines Objektes X im Zustand Z nenne, ist nicht anderes als das Paar

                    B = ( e(X,Z), e(N) )


                    worin e(N) eine obere Grenze für im Objekt enthaltene Entropie bezeichnet und e(X,Z) die Entropie von X im Zustand Z ist.

                    Die Differenz 1 – e(X,Z)/e(N) ist dann zu deuten als die in der Lebensbatterie noch vorhandene Restladung (so normiert, dass 1 der voll geladenen Batterie entspricht).

                    Dem 2. Hauptsatz der Thermodynamik entsprechend wird sie mit an Sicherheit grenzender Wahrscheinlichkeit bei jedem Zustandsübergang kleiner, so dass klar ist: X wird irgendwann sterben, d.h. wird irgendwann so entstellt sein, dass es seine Identität verliert — eben ganz so, wie auch ein Mensch sich mit zunehmendem Alter mehr und mehr verändert, schließlich in einen Sarg gelegt wird, und dort weiter zerfällt, so dass man irgendwann nicht mehr sagen kann, was man da noch vorfindet sei ein Objekt vom Typ Mensch.


                    Hallo Gebhard,
                    ich halte dies zwar für eine interessante Idee, vermute aber auf den ersten Blick irgendwo einen fundamentalen Denkfehler. Ich meine nicht deine Gleichungen, die sind m.E. in sich schlüssig. Ich werde wohl noch eine Weile brauchen, um meine Vermutung zu konkretisieren. Ich bitte um Entschuldigung, da dies unseren Austausch jetzt keinen Deut voranbringt. Aber ich habe das Gefühl, dies trotzdem einmal schon schreiben zu müssen.
                    Ich muss auch ehrlich gestehen, dass ich wohl deine Idee der "Lebensbatterie" noch nicht ganz durchschaut habe, denn:
                    Ich kann im Moment nicht erkennen, inwieweit sie Vorteile gegenüber anderen "Zeitideen" bietet. Wenn ich ehrlich bin, kann ich im Moment überhaupt keinen konkreten Nutzen erkennen. Dies ist aber meiner leider nicht grenzenlosen Auffassungsgabe geschuldet (ich steh halt sozusagen "auf dem Schlauch" im Moment). Vielleicht kannst du ja mal schildern, welchen Nutzen und welche konkreten Vorteile deine Ideen bieten.
                    Nebenbei:
                    Ich halte zu diesem Thema übrigens C...´ Beiträge auch für sehr wertvoll, je mehr ich seine Ideen verstehe, desto genialer finde ich sie. Sie sind (relativ) schlicht und elegant und ergeben sich allein aus den Rt´s.

                    Lass dich von meiner "temporären geistigen Schwäche" nicht entmutigen. Denn grundsätzlich:
                    Es kommt nicht oft vor, dass Leute so hartnäckig wie du versuchen, hinter die "Geheimnisse unseres Seins" zu kommen (oder diesen wenigstens ein kleines Stück näher). Ich begrüße so etwas sehr. Da ist es egal, wenn man sich vielleicht auch mal kurz "verläuft". (Was nicht heißen soll, dass dies hier konkret der Fall ist - hier weiß ich es noch nicht). In diesem Sinne: Weitermachen!

                    Grüße
                     

                      Beitrag 1376-52
                    Unterscheiden wir: Koordinatenzeit und Objektzeit

                     
                    H... aus 1376-48:
                    Hallo zusammen,

                    ich betrachte Zeit nicht als etwas Eigenständiges, sondern immer im Zusammenhang mit dem Raum (das passiert, wenn man
                    einmal die RT "inhaliert" hat).
                    Und damit kann man dann Zeit als Abstand betrachten, ... Für zeitartige Ergeignisse ist dann also die "Zeit" der Abstand in der Raumzeit.

                    Hallo H...,

                    ein fundamentaler Fehler, den man bisher überall macht, scheint mir darin zu bestehen, nicht danach zu fragen, ob die Zeit aus Sicht unseres Alltags denn wirklich genau dem entspricht, was die 4-te — leider auch "Zeit" genannte — Dimension des mathematischen Raumes Raumzeit modelliert. Genauer:

                    Grtgrt aus 1376-14:

                    Die 4-te Dimension unseres Universums (Zeitbegriff 1) sollte begrifflich unterschieden werden von dem, was wir als Zeit empfinden (Zeitbegriff 2).

                    Aus meiner Sicht gilt zunächst nur:
                    • Zeitbegriff 1 spricht über eine geheimnisvolle 4-te Dimension unserer Welt,
                    • Zeitbegriff 2 aber ist das wegabhängige Ausmaß, in dem wir Reisekosten zu zahlen haben [auf unserem Weg durch die Raumzeit, sprich: das Ausmaß, in dem wir altern].

                    Wie die ART uns zeigt, stehen diese beiden Begriffe durchaus in Beziehung zueinander — was aber noch lange nicht beweist, dass sie ein und dasselbe sind (!).


                    Mein Verdacht ist: Das Wesen der Zeit richtig zu verstehen, kann nur dem gelingen, der beide Begriffe peinlich genau auseinander hält.
                    Damit das gelingt, sollte man zwei verschiedene Namen dafür haben, etwa
                    • flüchtige Zeit einerseits und
                    • Koordinatenzeit andererseits.

                    Da nach der ART Objekte X und Y, die sich unabhängig voneinander bewegen, stets auch einen mehr oder weniger verschiedenen Begriff flüchtiger Zeit entwickeln, sollte man noch besser von Zeit( X) bzw. Objektzeit sprechen.

                    Ich werde das ab sofort mal so versuchen.

                    Beste Grüße,
                    grtgrt
                     

                      Beitrag 1376-54
                    Definition von: Objektzeit

                     
                     
                    H... aus 1376-53:
                    Hallo grtgrt,

                    meinst du mit Zeit(X) die sogenannte Eigenzeit (dt = ds/c), die gäbe es ja dann schon ? Oder verbirgt sich dahinter
                    noch etwas anderes?


                    Statt dt = ds/c kann man auch schreiben c = ds/dt = v (= Objektgeschwindigkeit durch die Raumzeit) = v(1,2,3) + v(4) = s(1,2,3)/dt + s(4)/dt .

                    Was ich unter Objektzeit verstehe (so ganz bin ich mir da auch noch nicht sicher), ist dann wohl s(4).

                    Du könntest jetzt einwenden, dass s(4) doch gerade dt ist — das aber gilt nur im Grenzfall s(4) gegen 0. Wir dürfen ja nicht vergessen, dass die Raumzeit eben kein Vektorraum ist, sondern nur eine differenzierbare Mannigfaltigkeit (ein mathematischer Raum also, der sich nur lokal wie ein 4-dimensionaler reeller Vektorraum darstellt. Lokal in diesem Sinne bedeutet: Mit hinreichend guter Genauigkeit nur in einer hinreichend kleinen Umgebung der jeweils betrachteten Position in der Raumzeit.

                    Was dabei "hinreichend genau" bedeutet, definieren wir selbst über die Ungenauigkeit, die zu tolerieren wir bereit sind (im Kontext irgend einer konkreten Anwendung).

                    Beste Grüße,
                    grtgrt
                     

                      Beitrag 1894-3
                    RZQ — die Raumzeit der Quanten: aus Sicht der Quantenmechanik

                     
                     
                    Hi Henry,

                    die Tatsache, dass die Positionen der Ereignisse nur unscharf definiert sind, ist richtig, spricht aber nicht gegen das Modell.
                    Im übrigen sind natürlich auch die Kanten des Graphen nur unscharf lokalisierbar.

                    Noch genauer: Wo konkrete Knoten und Kanten liegen, ist nur durch eine ihnen zugeordnete Wahrscheinlichkeitswelle bestimmt — eben das ist der quantenmechanische Beitrag zum Modell.

                    Zur Verfeinerung und Konkretisierung des Modells RZQ sollte man wohl nicht die Stringtheorie bemühen, sondern eher die dazu konkurriernde Theorie der Schleifen-Quanten-Gravitation. Die nämlich konstruiert über etwas, was ihre Erfinder "Spin Networks" nennen, einen ganz ähnlichen Graphen.

                    Gruß, ggreiter

                     

                      Beitrag 1894-8
                    RZQ — die Raumzeit der Quanten: scheint plausibel (Fakt 1)

                     
                     
                    Hi Harti,

                    mir geht es nicht um einen gefühlten Zeitbegriff, sondern um jene Struktur der Raumzeit der Allgemeinen Relativitätstheorie (ART), die dafür verantwortlich ist, dass für die diskutierten Zwillinge zwischen Abschied und Wiedersehen ganz unterschiedlich viel Zeit im Sinne absolut identisch funktionierender Uhren vergangen ist (Atomuhren fühlen nicht: Sie zählen nur).

                    Da jene Diskussion zwei Ereignisse (d.h. zwei Punkte der 4-dimensionalen Raumzeit) betrachtet, die — zeitlich gesehen — eben keinen eindeutig bestimmten Abstand haben, kann die Zeit — als etwas, das alle Ereignisse der Raumzeit besucht — eben nicht einfach nur Pfeil sein.

                    Mit anderen Worten: Worüber ich nachdenke, sind Fragen, die entstehen angesichts der Tatsache, dass die Raumzeit der ART nur lokal ein metrischer Raum im Sinne der Mathematik ist ( aber keineswegs auch global ).

                    Zu solchem Nachdenken angeregt haben mich neuere Ergebnisse der Experimentalphysik (solche, die für den Bau von Quanten-Computern relevant sind): Man glaubt jetzt nämlich, erste Beweise dafür zu haben, dass zukünftige Ereignisse vergangene beinflussen können, siehe etwa diesen Bericht.

                    Mir aber kommt der Verdacht, dass jedes Paar solcher Ereignisse eine gemeinsame Gegenwart haben könnte. Dies würde bedeuten, dass Theoretische Physik die Gegenwart nicht einfach nur als Zeitpunkt verstehen darf, sondern als eine Überlappung von Vergangenheit und Zukunft im Sinne eines geeigneten Zeitmodells sehen muss. Mehr dazu auf meiner Seite Ein Verdacht, ....

                    Nebenbei: Wenn die Zeit nicht auf einem Pfeil fortschreitet, sondern stattdessen auf einem sich mehr und mehr verzweigenden, ständig wachsendem Ast, wäre es fast schon verwunderlich, wenn die Spitzen all seiner Zweige gleiche Zeitkomponente haben sollten.

                    Mit anderen Worten: Es könnte gut sein, dass nur die (vielleicht) allzu naive Vorstellung, die Zeit sei ein Pfeil, uns glauben lässt, dass die Gegenwart keine zwei Ereignisse enthalten kann, die zeitlich hintereinander geschehen in dem Sinne, dass eines der beiden erst passieren kann, wenn das andere schon passiert ist.

                    Gruß, ggreiter

                     


                     

                      Beitrag 1894-11
                    RZQ — die Raumzeit der Quanten: Durch Henry kommentiert

                     
                    Zitat von ggreiter:
                    Hi Henry,

                    es scheint mir nicht richtig, nur das, was sich schon als Materie zeigt, als physikalisches Objekt elementarster Art zu bezeichnen. Unteilbare Bausteine des Kosmos sind ganz sicher schwingende Energie-Portionen (nur einige davon zeigen sich zeitweise im Zustand Materie).

                    Fakt ist die Äquivalenz von Materie und Energie (wenn man Einstein folgt). Dann ist es aber durchaus zulässig, einzelne Quantenobjekte als "Bausteine" der Raumzeit zu betrachten, jedenfalls als Idee. Der Stand der Dinge ist, dass Quanten als virtuelle Teilchen noch "unterhalb" oder "vor" der Raumzeit auftreten.

                    Quantenphysikalisch betrachtet ist einem massebehafteten Teilchen über seine Ruhemasse eine Frequenz zugeordnet (über E=mc² bzw. E=vh, also v=m(c²/h)). Es ist eine Frage der Messung, ob im Experiment Teilchen- oder Welleneigenschaften betrachtet werden. Es ließe sich trefflich darüber streiten, ob die Teilchen- oder Welleneigenschaften dem Objekt beide zukommen oder ob die Objekte keines von beiden sind.

                    Zitat von ggreiter:
                    Nun zu Ereignissen: Als Position eines Ereignisses kann man nur die Summe aller Punkte verstehen, an denen sich die am Ereignis beteiligten Quanten dann gerade befinden. Es ist aber keineswegs so, dass die Position eines Quantums nur ungenau beobachtbar wäre: Sie ist wirklich auch ungenau definiert.

                    Diese Definition ist nicht richtig. Ein Ereignis definiert bezogen auf die Raumzeit ist ein Punkt der Raumzeit. Er wird deshalb als Ereignis bezeichnet, weil zu seinen drei Raumkoordinaten stets eine gerichtet Zeitkoordinate gehört. Die Position eines Quantums ist nicht wegen der Definition unbestimmt, sondern wegen der zugrunde liegenden Struktur. Eine Definition kann immer nur die Folge der Realität sein, nicht ihre Ursache.

                    Zitat von ggreiter:
                    Damit ist klar: Unter der Position eines Ereignisses muss man sich (aus diesen beiden Gründen) eine kleine Region der Raumzeit vorstellen (eine Punktemenge, die Vereinigung von N Punktemengen ist, wenn am Ereignis N Quanten beteiligt sind) — also nicht einen einzigen Punkt im Sinne der Mathematik, sprich: im Sinne der die Raumzeit modellierenden differenzierbaren Mannigfaltigkeit.

                    Wovon du hier sprichst, sind Ereignisse bezogen auf einen Konfigurations- bzw. Phasenraum.

                    Zitat von ggreiter:
                    Nun zur Frage, ob Wahrscheinlichkeitswellen wirklich existieren: Da Interferenz am Doppelspalt zeigt, dass sie interferieren, müssen sie ja wohl existieren. Eine ganz andere Frage ist, was es denn bedeuten mag, zu existieren. Hierzu hat Niels Bohr mal was sehr Treffendes gesagt (siehe meine Seite Zum Wesen physikalischer Aussagen und dem, was man die Realität nennt).

                    Das ist keineswegs klar. Was hier interferiert, sind z. B. elektromagnetische Wellen. Unter einer Wahrscheinlichkeitswelle ist aber die mathematische Beschreibung für das Auftreffen eines Photons an einer bestimmten Stelle des Schirmes hinter dem Spalt bzw. der Weg dorthin zu verstehen. Die Philosophie lassen wir mal außen vor.


                    Zitat von ggreiter:
                    Zu Stringtheorie (ST) und Schleifen-Quanten-Gravitation (SQG): Zwischen beiden besteht insofern ein ganz gewaltiger Unterschied, als die ST eine hintergrund- abhängige Theorie ist, wohingegen die SQG (ebenso wie die ART) ohne Bezug zu irgend einem Hintergrund formuliert ist. RZQ ist hintergrund- unabhängig, also viel näher an SQG als an ST.

                    Es geht hier überhaupt nicht um die Frage, ob eine Theorie hintergrundabhängig ist oder nicht. Weder die ST noch die SQG ist bisher verifiziert bzw. falsifiziert worden. Deshalb spreche etwas flapsig davon, dass es Geschmacksache ist, welche man bevorzugt

                    Zitat von ggreiter:
                    Ich sehe RZQ als eine Art vergröberte SQG, wobei mir aber nicht klar ist, ob die gröbere oder die feinere Sicht die natürlichere ist.

                    Das liegt daran, dass ich die Spin-Networks nicht wirklich verstehe. Als gut verständlich (und "anschaulich") würde ich sie nicht einzustufen. Hast du den Artikel, auf den ich oben verweise, gelesen?

                    Ich habe ihn gelesen.
                    Gruß
                     

                      Beitrag 1894-12
                    RZQ — die Raumzeit der Quanten: Zum Ereignisbegriff

                     
                     
                    Hi Henry,

                    danke für diese Klarstellungen.

                    Speziell zum Ereignisbegriff sei noch gesagt:

                    Mir war klar, dass man die Punkte der Raumzeit als Ereignisse bezeichnet. Das schien mir aber nur eine Art Konvention zu sein (eine Sprechweise, die sich halt so eingebürgert hat). Ist das richtig, oder steckt mehr dahinter?

                    Ein Ereignis in meinem Sinn ist jeder atomare Prozess, in dem
                    • genau ein Elementarteilchen (ein virtuelles oder ein reales) entsteht oder aufhört zu existieren
                    • oder in dem Teilchen kollidieren und sich infolge solcher Kollision neu aufteilen.
                    Damit hat jedes Ereignis in meinem Sinn Input und/oder Output (und beides kann als Menge elementarer Teilchen aufgefasst werden: als Menge von Energieportionen, denn Masse ist ja nur eine Zustand von Energie — so etwa, wie Eis ein Zustand von Wasser ist).

                    Als Konfigurationsraum kann ich so ein Ereignis eigentlich nicht sehen.
                    Darüber, ob man es als Phasenraum bezeichnen kann, muss ich noch nachdenken (so ganz koscher erscheint mir das im Moment aber nicht).

                    Warum sollte ich nicht einfach bei meiner Definition bleiben?

                    Beste Grüße,
                    grtgrt (= Gebhard Greiter)

                     

                      Beitrag 1894-32
                    RZQ — die Raumzeit der Quanten: Zeitquanten (Elementarereignisse)

                     
                     
                    Hi Gerhard,

                    in meinen Augen gilt:
                    • Bewegung ist die Veränderung einer Position (im wörtlichen oder auch im übertragenen Sinn).
                    • Somit ist Bewegung ein Speziallfall von Veränderung.
                    • Für mich ist Zeit äquivalent zu Veränderung.
                    • Aus Sicht theoretischer Physik scheint mir Veränderung gegliedert in kleinste Quanten (die ich dann Elementarereignisse nenne und als das Ticken einer kosmischen Uhr sehe).

                    Beste Grüße,
                    grtgrt = Gebhard Greiter
                     

                      Beitrag 1894-35
                    RZQ — die Raumzeit der Quanten: Einordnung dieser Theorie

                     
                    Stueps aus 1894-13:
                    Hallo Gebhard,

                    ich habe mich mal eben auf deiner Seite umgesehen, um mir einen groben Überblick zu verschaffen. Leider ist mir in der kurzen Zeit deine Theorie nicht klar geworden - ich habe leider nicht die Seite gefunden, wo sie vorgestellt wird. Ich kann nur ungefähr ahnen, worauf du mit deinen Gedanken hinaus willst. Die Ansätze, die ich halbwegs verstanden habe, halte ich jedoch für sehr interessant ...
                    Was mich interessieren würde:

                    Inwieweit unterscheiden sich deine Gedanken von bestehenden (gut etablierten) Modellen?
                    Welche Voraussagen machen deine Überlegungen, die andere Erklärungsmodelle nicht machen können?
                    Wo sind Schwächen?
                    Und zu guter Letzt die Gretchenfrage (etwas gemein, gebe ich zu): Gibt es Möglichkeiten, alles einmal irgendwie zu prüfen?

                    Hi Stueps,

                    meine Idee ergab sich,
                    • nachdem ich mir die Grundidee der Schleifen-Quantengravitation habe erklären lassen (Spin Networks)

                    Was ich als den Zeitgraphen bezeichne, entspricht der Gesamtheit aller Spin Networks (auch sie stellen letzlich einen Graphen dar, der Veränderung bis ins Kleinste hinein strukturiert). Leider verstehe ich Spin Networks aber noch viel zu wenig, und schon gar nicht ihre mathematische Beschreibung.

                    Es könnte also schon sein, dass mein Ansatz sich irgendwann als so eine Art "gesunder-Menschenverstand-Version" des Ansatzes der Schleifen-Quantengravitation herausstellt.

                    Auf jeden Fall habe ich keine mathematische Formulierung meiner Idee in Form von Formeln oder Gleichungen.

                    Ich sehe mich zudem nicht in der Lage, meine Theorie so in mathematischer Form zu präsentieren, dass man dann vielleicht schon auf rein mathematischem Wege z.B. Bezüge hin zu Stringtheorie, Schleifen-Quantengravitation, oder den Gleichungen der Quantenphysik entdecken könnte. (Meine mathematische Vergangenheit liegt schon 30 Jahre zurück, und Physik habe ich nie studiert.)

                    Einzige Vorhersagen meiner Theorie sind bislang:
                    • Die Zeit hat nicht nur eine Dimension.
                    • Wenn es überhaupt Sinn macht, der Zeit Dimensionen zuzuordnen, dann sicher nur lokal (auf Seite Zum Dimensionsbegriff (etwa der Physik) habe ich begonnen, mir über verschiedene Dimensionsbegriffe Gedanken zu machen; es wird dort auch kurz auf den Begriff lokaler Dimension eingegangen).

                    Nebenbei: Meiner Ansicht nach ist den Physikern noch nicht richtig aufgefallen, dass es einen Unterschied gibt zwischen ganz real vorhandenen Dimensionen (d.h. Freiheitsgraden) und Dimensionen, die rein konzeptueller Art sind (und deswegen modellspezifisch und von ihrer Natur her nur unscharf definiert).

                    Grundsätzlich interessant sein könnte, zu untersuchen,
                    • ob (und wenn ja wie) Quantenverschränkung den Zeitgraphen mit bestimmt
                    • und wie/ob sich das im Doppelspalt-Experiment beobachtete Interferenzmuster modifiziert, wenn man den Weg über Spalt 1 sehr viel länger macht als den Weg über Spalt 2.

                    Mit besten Grüßen,
                    grtgrt = Gebhard Greiter
                     

                      Beitrag 1894-40
                    RZQ — die Raumzeit der Quanten: scheint plausibel (Meinung 1)

                     
                    Grtgrt aus 1894-32:
                    • Bewegung ist die Veränderung einer Position (im wörtlichen oder auch im übertragenen Sinn).
                    • Somit ist Bewegung ein Speziallfall von Veränderung.
                    • Für mich ist Zeit äquivalent zu Veränderung.
                    • Aus Sicht theoretischer Physik scheint mir Veränderung gegliedert in kleinste Quanten (die ich dann Elementarereignisse nenne und als das Ticken einer kosmischen Uhr sehe).

                    So ist es vermutlich. Was Zeit ist, verstehe ich nicht, bin aber davon überzeugt, dass Bewegung die Grundlage für Zeit bildet.

                    Gibt es Quellen im Internet, die gut nachvollziehbar erklären, wie Bewegung im Makrokosmos durch Bewegung im Mikrokosmos hervorgerufen wird? Gibt es Erklärungsmodelle, was Bewegung auf mikrophysikalischer (quantentechnischer) Ebene ist? Weiß jemand einen Link?
                     

                      Beitrag 1894-45
                    RZQ — die Raumzeit der Quanten: scheint plausibel (Meinung 2)

                     
                    Hallo Gebhard,

                    Grtgrt aus 1894-35:
                    Es könnte also schon sein, dass mein Ansatz sich irgendwann als so eine Art "gesunder-Menschenverstand-Version" des Ansatzes der Schleifen-Quantengravitation herausstellt.

                    so ich deinen Ansatz intuitiv richtig verstanden habe, stimme ich dir zu. Deshalb finde ich diesen Ansatz durchaus interessant.

                    Zitat:
                    Einzige Vorhersagen meiner Theorie sind bislang:
                    Die Zeit hat nicht nur eine Dimension.
                    Wenn es überhaupt Sinn macht, der Zeit Dimensionen zuzuordnen, dann sicher nur lokal (auf Seite Zum Dimensionsbegriff (etwa der Physik) habe ich begonnen, mir über verschiedene Dimensionsbegriffe Gedanken zu machen; es wird dort auch kurz auf den Begriff lokaler Dimension eingegangen).

                    Dies ist natürlich hochinteressant. Hier muss ich mich wieder erst näher auf deinen Seiten erkundigen. Spontan würde ich fragen, auf welchen Ebenen Zeit eine Mehrdimensionalität aufweist. Nur auf mikroskopischer - sprich auf Planck-Ebene, oder auch auf makroskopischer, erfahrbarer Ebene.

                    Zitat:
                    Nebenbei: Meiner Ansicht nach ist den Physikern noch nicht richtig aufgefallen, dass es einen Unterschied gibt zwischen ganz real vorhandenen Dimensionen (d.h. Freiheitsgraden) und Dimensionen, die rein konzeptueller Art sind (und deswegen modellspezifisch und von ihrer Natur her nur unscharf definiert).

                    Oh, da bin ich mir nicht sicher. Aus dem, was ich bisher erfahren habe, sind sich die Wissenschaftler durchaus der Schwierigkeiten mit den vielen Dimensionen bewusst. Und wenn ich es richtig deute, fühlt sich niemand damit so richtig wohl. Ähnlich wie bei dem Begriff "Singularität" bei schwarzen Löchern und dem Urknall. Sie nehmen die vielen Dimensionen so lange in Kauf, so lange ihre Theorien gute Voraussagen machen, und Dinge herleiten, die andere Theorien nicht herleiten können.

                    Zitat:
                    Grundsätzlich interessant sein könnte, zu untersuchen,
                    ob (und wenn ja wie) Quantenverschränkung den Zeitgraphen mit bestimmt
                    und wie/ob sich das im Doppelspalt-Experiment beobachtete Interferenzmuster modifiziert, wenn man den Weg über Spalt 1 sehr viel länger macht als den Weg über Spalt 2.

                    Das verstehe ich ehrlich gesagt wieder nicht. Wir haben hier Quantenverschränkungen und Interferenzen schon oft diskutiert, und mir schwirrte jedes mal der Kopf, wenn´s ans "Eingemachte" ging. Bin halt auch nur blutiger Laie.
                     

                      Beitrag 1894-53
                    RZQ — die Raumzeit der Quanten: Im Lichte chemischer Reaktionen

                     
                    Henry aus 1894-33:
                    Vergleiche doch bitte mal zwei identische chemische Reaktionen unter verschiedenen Temperaturen, und zwar ohne einen Begriff der Zeit (also ohne schneller, früher vorher und Dergleichen). Wenn Zeit Veränderung ist, sollte das möglich sein.

                    Die Reaktion von Sauerstoff und Wasserstoff zu Wasser ereignet sich ganz elementar für jedes einzelne beteiligte Atom. Worauf ich hinaus will ist, dass du erklärst, wie die Veränderung (die du ja mit Zeit gleichsetzt) bei verschiedenen Temperaturen ohne zeitliche Begriffe verglichen werden können. Außerdem, du hast nicht angedeutet, dass Zeit im Makrokosmos etwas anderes sein soll als im Mikro- oder Submikrokosmos.

                    Eigentlich wollte ich selbst zeitliche Begriffe vermeiden, aber bei verschiedenen Temperaturen laufen chemische Reaktionen verschieden schnell ab.

                     
                    Hi Henry,

                    Stellen wir uns mal vor, wir würden einen Topf mit Wasser auf den Herd stellen und dann die Kochplatte anschalten, um das Wasser zum Kochen zu bringen.

                    Vergleichen wir diese Situation mit den Zwillingen aus Beispiel Zw, so sind wir, die wir vor dem Kochtopf stehen, vergleichbar mit dem zuhause gebliebenen Zwilling, während die Wasseratome im Topf seinem fortreisenden Bruder entsprechen:

                    Die Wasseratome werden durch die ständige Energiezufuhr immer wilder im Topf herumsausen (also beschleunigt werden und zusammenstoßen, was, so denke ich, die Zahl der Elementarereignisse im Topf hochtreiben wird).

                    Stellen wir uns weiter vor, dass — nachdem das Wasser zum Kochen kam —, wir den Herd abschalten und warten, bis der Topf und das Wasser wieder ebenso kalt ist wie zu Beginn des Experiments.

                    Dieser Zeitpunkt entspricht dem, an dem der aus dem All zurückkehrende Zwilling seinem daheingebliebenen Bruder wieder die Hand schüttelt.

                    Kurz: Für die Wasseratome im Topf wird die Zeit weniger schnell vergangen sein als für uns.


                    Was wir daraus lernen ist:

                    Der Fluß der Zeit im Kosmos ist (im Großen wie im Kleinen) vergleichbar mit einem breiten Fluß auf unserer schönen Erde, in dem das Wasser (weil der Fluss nicht überall gleich breit und gleich tief ist) an einigen Stellen schnell und an anderen Stellen langsam fließt. Solche Stellen können, wie wir alle wissen, auch recht nahe beinander liegen.


                    Mathematisch ausgedrückt bedeutet das:

                    Die kosmische Uhr kann man sich vorstellen als eine Funktion kU, die jedes Tripel ( v,z,w ) auf einen zeitlichen Abstand abbildet, der einer gewissen Zahl zA von Schwingungen einer Atomuhr entspricht:

                    zA = kU( v, z, w )


                    Hierbei ist zA der zeitliche Abstand der Ereignisse v und z, den die Atomuhr anzeigt, wenn sie auf dem Weg w von v nach z reist. Nähme sie einen anderen Weg, würde sie andere Zeit anzeigen.

                    Beste Grüße,
                    grtgrt = Gebhard Greiter,

                    PS: siehe auch [2] und dort die letzte Frage.

                     

                      Beitrag 1894-57
                    RZQ — die Raumzeit der Quanten: Sie ist verträglich mit Einsteins Theorie

                     
                    Grtgrt aus 1894-53:
                    Die kosmische Uhr kann man sich vorstellen als eine Funktion kU, die jedes Tripel ( v,z,w ) auf einen zeitlichen Abstand abbildet, der einer gewissen Zahl zA von Schwingungen einer Atomuhr entspricht:

                    zA = kU( v, z, w )


                    Hierbei ist zA der zeitliche Abstand der Ereignisse v und z, den die Atomuhr anzeigt, wenn sie auf dem Weg w von v nach z reist. Nähme sie einen anderen Weg, würde sie andere Zeit anzeigen.
                     

                    Interessante Beobachtung:

                    Der Abstand s zweier Objekte nach Raum und Zeit wird gemessen über die sog. Minkowski-Metrik, die den üblichen Abstandsbegriff im 3-dimensionalen euklidischen Raum in die Zeitdimension hinein verallgemeinert:

                    ds2 = c2dt2 – ( dx2 + dy2 + dz2 )


                    Hier steht c für die im 3-dimensionalen Raum beobachtete Lichtgeschwindigkeit im Vakuum.

                    Wendet man diese Formel — nach versuchter Division durch dt2 — auf Photonen an (aufs Licht also), so zeigt sie, dass Licht sich niemals durch die Zeit bewegt, wenn es sich durchs Vakuum bewegt (sprich: solange es über nur eine Kante im Zeitgraphen reist).

                    Ich sehe das als eine weitere Bestätigung meiner Theorie, die ja sagt, dass nur Ereignisse die kosmische Uhr ticken lassen.

                    Klar wird hier auch, dass das in den Formeln der Allgemeinen Relativitätstheorie auftretende t für lokale Zeit steht.

                     

                      Beitrag 1894-58
                    Zeit und Zeitbegriff sind nicht dasselbe!

                     
                     
                    Gerhard-28 aus 1894-27:
                    Was ist der Unterschied von "Zeit" und "Zeitbegriff"?

                    Ich sehe den Unterschied so:
                    • Die Zeit ist ein (recht geheimnisvoller) Teil der Natur.
                    • Jeder Zeitbegriff aber ist ein Modell, an dem wir uns klarmachen, wie jener Teil der Natur sich uns zeigt (sprich: wie wir ihn wahrnehmen).

                    Siehe auch was Niels Bohr uns dazu sagt.

                    Nebenbei: Es scheint mir naheliegend zu sagen, die Zeit sei jener Teil der Natur, der dafür verantwortlich ist, dass sie sich uns als etwas Lebendiges zeigt — als etwas, das sich ständig wandelt.
                     

                      Beitrag 1823-148
                    Die einzige umfassende Uhr ist der Kosmos selbst

                     
                    Zitat von grtgrt:
                    Die einzige umfassende Uhr ist der Kosmos selbst.

                    Jeder Tick dieser Uhr ist ein atomares Ereignis, in dem eine kleine Portion schwingender Energie entsteht, vergeht, oder mit anderen solcher Portionen kollidiert (was zu einer Verschmelzung und Neuaufteilung dieser Portionen noch im Ereignis selbst führt).

                    Hallo Grtgrt,

                    man kann jede beliebige Veränderung zur Begründung unserer Vorstellung von Dauer und damit Zeit heranziehen. Ein Rückgriff auf Vorgänge im Mikrokosmos ist nicht nur unzweckmäßig, sondern auch wenig realitätsgerecht. Meine Vorstellung von "Zeit" ist jedenfalls nicht durch Vorgänge im Elementarbereich entstanden. Es werden zwar atomare Ereignisse zur Konstruktion von Uhren genutzt, nämlich die Schwingungen von Cäsiumatomen,
                    die von Dir genannten Vorgänge sind nach meiner Meinung aber kaum zur Konstruktion von Uhren geeignet, das sie meines Wissens nicht als periodische Ereignisse feststellbar sind. (siehe Deine weitere Äußerung)

                    Zitat:
                    Da virtuelle Partikel spontan entstehen (ohne beobachtbaren Grund also), ist nicht damit zu rechnen, dass das jemals endet. Sie also sind der Motor, der die kosmische Uhr treibt und die Zeit vergehen lässt.

                    Man kann diese Vorgänge vielleicht als "elementarste" ( dies ist eine von mir erfundene Steigerungsform) bezeichnen, zur Normierung von Zeit eignen sie sich aber nicht.

                    MfG
                    Harti
                     

                      Beitrag 1823-149
                    Globale Zeitnormierung erscheint unmöglich

                     
                     
                    Hi Harti,

                    meine Aussage ist nicht, dass jene elementarsten Vorgänge die Zeit normieren — ich behaupte lediglich, dass sie das verursachen, was wir Menschen als die Zeit b