Diese Seite zitiert, diskutiert oder ergänzt u.A. auch

Aussagen und Ideen, die verschiedene Personen in Manus Zeitforum der Öffentlichkeit zugänglich gemacht haben.



Zusammengestellt durch Gebhard Greiter mit dem Ziel, bestimmte Diskussionsergebnisse einfacher wieder zu finden.

Beitragsnummern tragen einen Link zurück zur Fundstelle



InformationenAnmelden Registrieren

Erweiterte Suche




Allgemeine Relativitätstheorie

   


Astronomisches

   


Bedenkenswertes

   


Rein Begriffliches

   


Berechenbar ist, was eine Turingmaschine berechnen kann

   


Auch Beschleunigung krümmt den Raum

   


Was ist Bewusstsein?

   


Was Bildungspolitiker nicht zur Kenntnis nehmen wollen

   


Biologisches Leben

   


Biologische Wesen

   


Biologie aus quantenmechanischer Sicht

   


Über Biophotonen

   


Definitionen physikalischer Begriffe

   


Dekohärenz und atomare Energieportionen

   


Techniken des Denkens

   


Wo auch manche Physiker Falsches erzählen

   


Wie deterministisch ist alles Weltgeschehen?

   


Verschränkte Quanten und physikalische Messergebnisse

   


Dimensionen der Natur

   


Wie es zu  f r u c h t b a r e n  Diskussionen kommt

   


Dopplereffekt und damit verwechselbare Effekte

   


Dunkle Energie — die Energie des Vakuums?

   


Wie könnte dunkle Materie beschaffen sein?

   


Wird eine supersymmetrische Theorie die Eichtheorien ersetzen?

   


Relativitätstheorie: Einsteins Feldgleichung

   


Einsteins Philosophie

   


Elektromagnetismus

   


Elementarteilchen

   


Wie es zu Emergenz – spontan entstehender Ordnung – kommt

   


Auch Energie ist relativ

   


Über Entropie

   


Geschichte der Erde und des biologischen Lebens

   


Erst mal nur ein Verdacht ...

   


Was uns oft nicht bewusst ist

   


Über Evolution

   


Existenz im logischen Sinne

   


Existenz im Sinne der Natur

   


Physikalische Experimente

   


Bemerkenswerte Forschungsergebnisse

   


Freier Wille — nur begrenzt?

   


Freier Wille — auf Quantenebene sicher NICHT zu verstehen (oder doch?)

   


Understanding GPS

   


Zur Physik der Welt aller Gedanken

   


Gehirne, Gedanken und wie Gedanken den Körper steuern (könnten)

   


Was ist Geist?

   


Geometrie und Kosmos

   


Wissenschaftsgeschichte

   


Meilensteine neuzeitlicher Geschichte

   


Mögliche Geschwindigkeiten

   


Zur nicht verhinderbaren Wandlung unserer Gesellschaft

   


Wirtschaft ohne Ethik — Wollen wir das?

   


Die logisch problemloseste Definition des Gottesbegriffs

   


Gott und die Physik

   


Gedanken zu Amtskirche, Bibel, Religiosität, und Gottesbegriff

   


Gravitationswellen

   


Gravitation

   


Auf der Suche nach der Weltformel

   


Zu Hans-Peter Dürrs Philosophie

   


Humanoide Roboter

   


Wo unsere physikalische Welt nur Illusion ist

   


Nachrichten sind kodierte Information

   


Ist Information eine Grundgröße der Natur?

   


Intelligenz – echte und künstliche

   


Das verwundbare IoT (Internet der Dinge)

   


Synchronicity und der Pauli-Effekt

   


Kann sich auch in KI Bewusstsein herausbilden?

   


Quantenmechanische Grundbegriffe

   


Kernfusionstechnik (Stand 2011)

   


Klarstellung oft missverstandener physikalischer Aussagen

   


Über Systemkomplexität

   


Der Kosmos: Gedanken über das Allumfassende

   


Warum manche Kritiker der Stringtheorie mir blind erscheinen

   


Die Grundkräfte der Natur

   


Landkarte der Physik

   


Wo beginnt Leben?

   


Was genau sollten wir unter » Leben « verstehen?

   


Licht und Zeit

   


Logik und formale Logik

   


Was noch nicht ausdiskutiert ist

   


Materie, Antimaterie, virtuelle Materie

   


Menschheitsgeschichte

   


Wie genau Physiker heute messen können

   


Wie genau ist Einsteins Theorie?

   


Extrapolierende Physik

   


Etwas Metaphysik

   


Metaversen (= durch KI konstruierte Realitäten)

   


Objekt vs Modell (in der Physik)

   


Zum Wesen physikalischer Modelle

   


Die wirklich fundamentalen Naturgesetze

   


Naturkonstanten

   


Naturwissenschaft

   


Netzartige Strukturen auch im Raum?

   


Über nichts und das absolute Nichts

   


Wertvolle Philosophie ist mehr als nur Meinung

   


Philosophie der Physik

   


Kommentare zur Philosophie

   


Zum Begriff physikalischer Objekte

   


Physikalisches

   


Physiker

   


Zentrale Erkenntnisse der Physik

   


Poesie und Philosophie

   


Kirche, Politik und ihre Ehrlichkeit

   


QuBits und Quanten-Computer

   


Theorie der Quantengravitation

   


Quantenkosmologie

   


Quantenphilosophie

   


Quantensysteme

   


Über Quantenverschränkung (Quantum Entanglement)

   


Elementarteilen: Quarks

   


Warum die Zeit wahrscheinlich netzartige Struktur hat

   


Zur Natur der Raumzeit

   


Warum es leeren Raum nicht geben kann

   


Wie real ist die Welt um uns herum?

   


Zum Recht auf Leben

   


Die großen Religionen dieser Welt

   


Erste Roboter, die mit Menschen konkurrieren

   


Warum Himmelskörper um sich selbst rotieren

   


Über Schwarze Löcher

   


Relativitätstheorie: Wesentliche Unterschiede zwischen SRT und ART

   


Spezielle Relativitätstheorie

   


Warum der Materialismus ausgedient hat

   


Über Schleifen-Quanten-Gravitation

   


Wie ganzheitlich ist die Natur?

   


Wissenswertes zu Software Engineering

   


Erst angedachte physikalische Modelle

   


Die Erde als ( nur erste? ) Heimat der Menschen

   


Wissenswertes zum Spin eines Elementarteilchens

   


Rettet die deutsche Sprache

   


Zum Standardmodell der Elementarteilchenphysik

   


Sterne, Schwarze Löcher, Wurmlöcher

   


Durch Naturwissenschaft bestätigte Philosophie

   


Kosmische Strahlung

   


Wissenswertes zur Stringtheorie

   


Teleportation — zwei denkbare Realisierungsvarianten

   


Christliche Theologie

   


Interessantes zum Tunneleffekt

   


Machen erst Uhren die Zeit?

   


Universum

   


Wo die Natur unscharf wird

   


Unser Universum

   


Unsere Sonne

   


Unterschiede zwischen ...

   


Zum Urknall

   


Protyposis — Urstoff des Universums

   


Variable Speed of Light (VSL) Theories

   


Das Vakuum — ein Spannungsfeld

   


Well Defined Degrees of Freedom (WDDF) — Sind sie Kern aller Naturgesetze?

   


Wie wirklich ist die Zeit?

   


Was ist die Wurzel allen Lebens?

   


Wellen und Quantenradierer — eigentlich gar nichts Geheimnisvolles!

   


Welle-Teilchen-Dualismus

   


Unser Weltbild muss holistisch werden

   


Ein recht naheliegendes Weltmodell

   


Unsere Welt besteht aus ...

   


Zum Wesen der Natur

   


Wirkungsquanten

   


Wo auch Wissenschaft Religion ist

   


Etwas Wissenschaftstheorie

   


Zeitreisen in die Vergangenheit

   


Ist die Zeit tatsächlich, was sie zu sein scheint?

   


Alte und neue Vorstellungen zum Wesen der Zeit

   


Zitate die Kosmologie betreffend

   


Wie wahrscheinlich sind uns unbekannte Zivilisationen im Universum?

   


Zufall — Was genau ist das?

   


Warum Zukunft ungewiss ist

   


Über Existenz und nur teilweise definierte Zustandsinformation

   


Das Zwillingsparadoxon im Lichte von SRT und ART

   


Wie angreifbar uns Software macht

   


Wie künstliche Intelligenz uns zur Gefahr werden kann

   


Quantenzustand mathematisch beschrieben

   


Zur Relativität kosmischer Abstände

   


Wie das moderne Gesundheitssystem arbeitet

   


Kreative Computer, z.B. unser Gehirn

   


Quanten-Kryptographie

   


Zum Realitätsbegriff in der Physik

   


Zur Relativität von Zeit und Raum

   


Supersymmetrie

   


Zur wahren Natur aller Quanten

   




D i s k u s s i o n


 Beitrag 0-546
2022: Die bisher genaueste Messung gravitativer Zeitdilatation

 
 

 
Gravitative Zeitdilatation

und die 2022 präziseste Zeitmessung menschlicher Geschichte

 
 
Auch die Stärke von Gravitationspotential hat Einfluss auf den Verlauf der Zeit: In unmittelbarer Nähe eines massereichen Körpers gehen Uhren langsamer als in gewissem Abstand davon. Physiker konnten diese Vorhersage der allgemeinen Relativitätstheorie in den vergangenen Jahrzehnten mehrfach experimentell bestätigen, indem sie Präzisionsuhren mit Flugzeugen oder Raketen auf große Geschwindigkeiten oder Höhen brachten oder ihre Experimente auf Berge oder Türme verlegten.
 
 
Nun haben Forscher vom National Institute of Standards and Technology in Boulder (Colorado) den Effekt solch gravitativen Zeitdehnung (Zeitdilatation) dem bislang präzisesten Test unterzogen. Sie haben den Gangunterschied zweier horizontal über einander angeordneter Uhren auf der Millimeterskala verglichen.
 
 
 

 
Quelle: Einstein hat recht, sogar millimetergenau, FAZ vom 28.2.2022

 
 
Diese so extrem präzise Messung vorzunehmen verwendeten die Physiker in Boulder für ihre Messungen die derzeit beste optische Atomuhr. Sie geht noch einmal um einen Faktor fünfzig genauer als eine Cäsiumuhr. Rund hunderttausend tiefgekühlte Strontiumatome werden hier mit sich kreuzenden Laserstrahlen in einer optischen Gitterstruktur in der Schwebe gehalten und mit einem extrem stabilen roten Laserstrahl angeregt. Schwingen die Atome und das externe Laserfeld im Takt, wird die Frequenz des von den Atomen ausgesandten Lichts und damit die Taktrate der Strontium-Atomuhr gemessen. Da man viele tausend synchron schlagende Taktgeber vorliegen hat, erreicht man eine deutlich größere Messgenauigkeit, als wenn man mit einem einzelnen Ion arbeiten würde.
 
Mögliche Anwendungen für derart genaue Messung sehen die Forscher z.B. in der Geodäsie. Die präzisen Chronometer könnten dazu genutzt werden, genaue Höhenprofile von Bergen zu erstellen oder die Tiefe der Ozeane präzise auszuloten. Sogar für die Erdbebenvorhersage ließen sich die genauen Strontium-Atomuhren einsetzen.
 
 
|
 
 
Diese neue Messung verbessert deutlich den bisherigen Rekord aus 2010, auf den in (2010) hingewiesen wird wie folgt:
 
"According to general relativity, atomic clocks at different elevations in a gravitational field tick at different rates. The frequency of the atoms' radiation is reduced—shifted toward the red end of the electromagnetic spectrum—when observed in stronger gravity, closer to Earth. That is, a clock ticks more slowly at lower elevations. This effect has been demonstrated repeatedly; for example, NIST physicists measured it in 2010 by comparing two independent atomic clocks, one positioned 33 centimeters (about 1 foot) above the other".

 

 Beitrag 0-469
Unter welchen Umständen SRT schon ART ist

 
 

 
Unter welchen Bedingungen ein gegebenes Raumzeit-Szenario S

sich per SRT ebenso genau wie per ART durchrechnen lässt

 
 
Das sog. Zwillingsparadoxon ist Spezialfall eines Szenarios S, in dem sich zwei Objekte C und D auf unterschiedlichen Weltlinien durch die Raumzeit bewegen.
 
Die notwendige und hinreichende Bedingung dafür, dass S selbst schon mit Mitteln der SRT — quantitativ wie qualitativ — beliebig genau behandelbar ist, besteht darin, dass S per SRT modellierbar ist.
 
 
Dies lässt sich einsehen wie folgt:
 
Im Sinne der ART ist die Raumzeit eine differenzierbare Mannigfaltigkeit, d.h. wer darin räumlich weit verteilte Szenarien behandeln will, kann sie nur behandeln mit Hilfe von Störungsrechnung und Argumentation in den Tangentenräumen, d.h. anhand sog. » Karten «, deren jede eine offene Umgebung des Ereignisses E(T) zeigt, in dem der Tangentenraum T — ein 4-dimensionaler Vektorraum mit Minkowsi-Metrik — die Raumzeit der ART berührt.
 
Brauchbar ist jede dieser Karten aber nur bis hin zum Beobachtungshorizont H(E) des Ereignisses E = E(T) = Ursprung des in T genutzten Koordinatensystems.

    Man kann sich das gut vorstellen, indem man sich ein Wasserfahrzeug W vorstellt, mit dessen Hilfe eine Persion P über den Atlantik von z.B. Amsterdam nach z.B. New York reist:
     
    Über weite Strecken der Reise hinweg wird — der Krümmung der Erdoberfläche wegen — keine Küste sichtbar sein, gegen Ende der Reise aber wird sich das ändern: Der Beobachtungshorizont H(P) von P verschiebt sich mit W, so dass die Karten, die man an Bord von W nutzt — sie entsprechen den eben erwähnten "Karten" im Sinne der Differentialgeometrie — ständig ausgetauscht werden müssen.
     
    Nun gibt es aber auch kleine Gewässer, wie etwa den Chiemsee, den zu überqueren man die zu Beginn der Reise gewählte Karte nie auszutauschen braucht, da jeder Weg, den das Schiff W dort nehmen kann, deutlich kürzer ist als der Radius des Beobachtungshorizonts der Ablegestelle.

Aber auch in der Raumzeit gibt es entsprechend große und kleine Regionen, und so komme ich zur Einsicht:
 
Das Szenario S ist mit Hilfe der SRT genau dann — und in diesem Fall sogar beliebig genau — durchrechenbar, wenn
     
  • eine Raumzeit-Karte K existiert, welche komplett die beiden Weltlinien von C und D zeigt
     
  • und wenn ferner die Weltlinien von C und D durch kein nennenswertes Gravitationsfeld führen.

Dieses Ergebnis bleibt richtig auch für den Fall, dass zwischen den Weltlinien von C einerseits und D andererseits ein oder mehrere Schwarze Löcher liegen (für deren Inneres Karten, welche beide Weltlinien ganz oder teilweise zeigen, natürlich nichts aussagen würden: Jene Karten wären dort einfach nicht definiert).

 

 Beitrag 0-343
Warum Einstein — aber nicht Newton — Gravitationswellen vorhersagen konnte

 
 

 
Warum Einstein (aber nicht Newton) Gravitationswellen vorhersagen konnte

 
Der Grund hierfür:
     
  • Nach Newton wirkt die Gravitationskraft instantan über beliebige Entfernungen hinweg.
     
  • Nach Einstein aber kann auch Gravitationswirkung sich höchstens mit Lichtgeschwindigkeit ausbreiten.

 
Warum das zur Folge hat, dass es Gravitationswellen geben muss, erklärt sehr schön Claus Kiefer auf Seite 64 seines Buches Der Quantenkosmos:

Claus Kiefer:
 
Betrachten wir zwei Körper — A und B —, die sich wegen gravitativer Anziehung aufeinander zu bewegen. Nehmen wir an (jetzt nur als Gedankenexperiment), dass diese Körper, wenn sie aufeinander prallen, durch einen Mechanismus mit Stahlfedern wieder abgestoßen werden und sich zurückbewegen, bevor sie sich erneut annähern.
 
Bei der Bewegung nach außen spürt A den Zug von B in einer Stärke, wie sie bestand, als sie sich noch etwas näher waren — schließlich braucht die Gravitationswirkung ja eine endliche Zeit, um von B nach A zu gelangen. Die ziehende Kraft von B ist demnach stärker, als sie es bei instantan eintretender Wirkung wäre.
 
Umgekehrt süprt auf dem Weg nach innen A die Kraft von B wie sie bestand, als sie noch weiter voneinander entfernt waren — schwächer also, als das bei instantaner Wirkung der Fall wäre.
 
Deshalb wird auf dem Weg nach außen mehr Arbeit geleistet als auf dem Weg nach innen wieder zurückgewonnen wird. Da die Gesamtenergie erhalten bleibt, muss ein Teil der Energie den lokalen Bereich der Massen verlassen haben: als Gravitationswelle.
 


 
Quelle: Claus Kiefer: Der Quantenkosmos, Fischer 2008, S. 64.

 
 
Seit September 2015 wurden bis Ende 2017 schon insgesamt 5 Gravitationswellen nachgewiesen. Eine kam aus einem Ereignis, das 3 Mrd. Lichtjahre von uns entfernt stattfand.

 

 Beitrag 0-20
Wo die ART allzu ungenau wird

 
 

 
Wo die ART zu ungenaue Aussagen macht

 
 
Einsteins Allgemeine Relativitätstheorie (ART) ist eine Theorie, die davon ausgeht, dass alle Kräfte, die wirken — und so zur Krümmung des Raumes beitragen —, sich exakt so verhalten, wie die Gravitationskraft.
 
Somit kann die ART natürlich auch nur dort brauchbar sein, wo die Gravitationskraft die vorherrschende Kraft ist.

 
Da sie nun aber die schwächste aller Grundkräfte ist, wird das sicherlich nicht dort der Fall sein, wo aufgrund kurzer oder sehr kurze Abstände kaum Masse vorhanden sein kann: dort also, wo z.B. die starke Kernkraft den überwiegenden Anteil am Kraftpotential ausmacht — allgemeiner: wo die Summe aller wirkenden Kräfte fast ausschließlich durch Kräfte zustandekommt, die auf dort vorhandene Objekte völlig  a n d e r s  als die Gravitationskraft einwirken.
 
Objekte in diesem Sinne sind  E n e r g i e t r ä g e r  (also keineswegs nur aus Masse bestehende Objekte).
 
Was bislang fehlt, ist eine Gleichung, die das Wirken aller 4 Grundkräfte auf Energieportionen welcher Art auch immer gleichermaßen gut beschreibt.
 
 
Gutes Beispiel einer Kraft, die anders wirkt als die Gravitationskraft, ist die elektromagnetische Kraft:
Sie nämlich wirkt nur auf Objekte, die Ladung tragen.


 

 Beitrag 0-115
Wie Einsteins Feldgleichung zu lesen ist

 
 

 
Was die Feldgleichung der Allgemeinen Relativitätstheorie uns sagt

 
 
Die Minkoski-Metrik der ART ist gegeben durch die Gleichung
 
s2  =  gtt (ct)2  –  gtx t x  –  gxx x2

 
Da nun aber stets  gtt ≤ 1 ≤ gxx  ist und die Gleichheitszeichen nur im gravitationsfreien Raum gelten, erkennt man:
 
 
Die Größe  gtt  sagt uns, wie die lokale Krümmung der Raumzeit den Lauf einer Uhr verlangsamt,
 
gxx  aber legt fest, wie die lokale Krümmung der Raumzeit räumliche Abstände streckt.

 
Genauer: Die Größe t entspricht Zeitintervallen, wie eine im gravitationsfreien Raum befindliche Uhr sie misst,
 
τ  =  gtt1/2 t   aber nennt die Eigenzeit auch beschleunigter Uhren.
 
 
Bezeichnen wir die Stärke der Raumkrümmung mit R und die Energie (bzw. Masse) mit E, so haben Einsteins Gleichungen die einfache Form
 
R  = κ E

 
Hier ist   κ = 8πG/c4   die sog.  Einsteinsche Gravitationskonstante  (proportional zur Newtonschen Gravitationskonstanten G).
 
 
Würden wir in einer Welt leben, in der G = 0 ist, gäbe es keinerlei Krümmung des Raumes.
 
In einer Welt, in der die Lichtgeschwindigkeit größer ist als in unserem Universum, würde die Raumkrümmung deutlich schwächer ausfallen als bei uns.
 
 
 
Quelle: Dieter Lüst: Quantenfische, DTV 2014, S. 174-176

 

 Beitrag 0-453
Wie extrem genau Uhren die Relativität der Zeit bestätigen

 
 

 
Wie extrem genaue Atomuhren

die durch SRT und ART vorausgesagte Zeitdilatation bestätigen

 
 
In einem der Bücher des theoretischen Physikers Jörg Resag liest man:
 


Jörg Resag (2012):
 
Eine sich bewegende Uhr läuft für einen ruhenden Beobachter langsamer als eine ruhende Uhr (spezielle Relativitätstheorie). Ebenso laufen ruhende Uhren in einem statischen Gravitationsfeld umso langsamer, je weiter unten sie sich befinden (allgemeine Relativitätstheorie).
 
Mittlerweile gibt es Uhren, die so präzise sind, dass sich diese Effekte auch bei alltäglichen Geschwindigkeiten und Gravitationsfeldern messen lassen.
 
So haben James Chin-Wen Chou, Dave Wineland und Kollegen am National Institute of Standards and Technology (NIST) in Boulder (Colorado) Uhren verwendet, die auf nur einem einzigen Aluminium-Ion in einer sogenannten Paul-Falle basieren und die in 3,7 Milliarden Jahren nur eine Sekunde falsch gehen.
    Einfach unglaublich, dass man heute schon Materie derart präzise kontrollieren und manipulieren kann!
     
    Das Aluminium-Ion wird dabei in einem elektromagnetischen Feld festgehalten und mit Lasern gekühlt. Ein anderer Laser feuert nun auf das Ion,
    wobei seine Frequenz sehr präzise auf eine Absorptionsfrequenz des Ions abgestimmt wird. Diese Frequenz ist nun der Taktgeber der Uhr. Bei dieser Frequenzabstimmung spielt ein weiteres Ion (ein Magnesium- oder Beryllium-Ion) eine Rolle, dessen Quantenzustand mit dem des Aluminium-Ions verschränkt ist (ähnlich wie die beiden Spin-1/2-Teilchen im Einstein-Podolsky-Rosen-Experiment miteinander verschränkt sind, siehe Kapitel 2.8).

Lässt man nun das Ion bei einer Durchschnittsgeschwindigkeit von nur 10 m/s (= 35 km/h) hin- und heroszillieren, so beobachtet man eine Verlangsamung der darauf basierenden Uhr um etwa den Faktor 10-16.
 
Auch bei anderen Geschwindigkeiten entspricht die Zeitdilatation genau dem Wert, wie ihn die spezielle Relativitätstheorie vorhersagt.
 
Ebenso gelingt es, den Zeitunterschied zweier solcher Uhren im Gravitationsfeld der Erde nachzuweisen, die nur etwa 17 cm Höhenunterschied aufweisen. Die untere Uhr läuft dabei um etwa den Faktor 4 × 10-17 langsamer als die obere — das entspricht grob einer zehnmillionstel Sekunde in 80 Jahren.
 
 
Mehr dazu in: Relativity with a human touch sowie Handwerkszeug Relativität, Physik Journal 9 (2010) Nr. 11, S. 16.

 


 
Quelle: Jörg Resag: Die Entdeckung des Unteilbaren, Kap 7


 

 Beitrag 0-280
Über die Singularitäten der Raumzeit der Allgemeinen Relativitätstheorie

 
 

 
Zu den Singularitäten der Lösungen der ART

 
 
Lösungen von Einsteins Feldgleichung der Allgemeinen Relativitätstheorie zu finden, ist i.A. schwierig. Zu lösen ist stets ein Anfangswertproblem.
 
Um überhaupt eine Lösung finden zu können, geht man meist von Anfangswertproblemen aus, die sich auf recht symmetrische Ausgangssituationen beziehen.
 
Störend sind natürlich in der Lösung dann gefundene Singularitäten. Sie — so dachte man früher — könnten sich vor allem wegen einer allzu hohen Symmetrie der Ausgangssituation ergeben.
 
In den Jahren 1965 bis 1970 aber konnten Steven Hawking, Roger Penrose und Brendan Carter zeigen,
  • dass Singularitäten der Raumzeit der ART auch im allgemeinen, nicht-symmetrischen Fall auftreten
  • und sich i.W. als stabil gegenüber kleinen Störungen erweisen.

 
 
Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 91


 

  Beitrag 2053-67
Beschleunigung und Raumkrümmung sind dasselbe !!!

 
 
Hans-m in 2053-65:
 
Okotombrok in 2053-54:
 
Die Erde befindet sich im käftefreien Zustand. Man kann sagen, sie fällt um die Sonne herum und der freie Fall ist keine Beschleunigung.
Die Erde bewegt sich nicht im Kreis sondern auf einer Geodäte und das ist niemals eine Beschleunigung.
Das hatten wir doch schon alles!?

Sorry, wenn ich hier widerspreche
Die Erde befindet sich in permanenter Beschleunigung
Auf die Erde wirkt eine Anziehungskraft, von ca 3,572*1022 N, die von der Sonne ausgeht.


Hallo Hans-m,

aus meiner Sicht habt ihr beide recht. Ihr argumentiert lediglich in unterschiedlichen Bezugssystemen:
  • Deine Argumentation ist richtig, wenn als Bezugssystem ein 3-dimensionales kartesisches Koordinatensystem zugrundegelegt wird (der Raum also keinerlei Krümmung hat).
  • Okotombrok aber argumentiert im gekrümmten Raum der ART. Zu dem ist Einstein aber gerade dadurch gelangt, dass er Beschleunigung als Raumkrümmung interpretiert hat.

In Wikipedia liest man:

Zitat:
 
Die ART geht davon aus, dass ein Körper, auf den keine weiteren Kräfte wirken, sich in der gekrümmten Raumzeit auf einer Geodätischen Linie bewegt.
In einer nicht gekrümmten Raumzeit würde dies der Trägheitsbewegung eines freien Körpers entsprechen, d. h. geradlinig und mit konstanter Geschwindigkeit.

Aufgrund der Krümmung der Raumzeit erscheint [uns diese Bewegung aber räumlich gekrümmt und beschleunigt.

Mit anderen Worten: Beschleunigung ist eine Art Illusion, die uns in die Wirklichkeit zurückholt, wo wir nichts von Raumkrümmung wissen (bzw. wissen wollen).

Neutraler ausgedrückt: Beschleunigung und Raumkrümmung sind unterschiedliche gedankliche Präsentationen ein und desselben Konzepts der Natur.


Gruß, grtgrt
 

 Beitrag 0-40
Korrektes Argumentieren mit Einsteins (starkem) Äquivalenzprinzip

 
 

 
Uhren, Maßstäbe und Bewegung im Gravitationsfeld

 
 
In der Allgemeinen Relativitätstheorie ist von besonderer Bedeutung Einsteins Äquivalenzprinzip, demzufolge eine Gravitationsfeld lokal einem geeignet gewählten beschleunigten Bezugssystem gleichwertig ist. Ein solches zu finden ist stets möglich. Mit anderen Worten: Wirkungen eines Gravitationsfeldes können durch Analyse des Sachverhalts im lokal äquivalenten beschleunigten Bezugssystem im feldfreien Raum ermittelt werden (nicht ganz genau, aber doch beliebig genau, wenn man nur die Situation entsprechend lokal betrachtet).
 
Zwei Beispiele verdeutlichen das:

Martin Carrier (S. 144-145)
 
  • Man betrachte etwa einen Lichtstrahl, der seitlich in einen beschleunigten Kasten einfällt und diesen durchquert. Im beschleunigten Bezugssystem des Kastens durchläuft der Lichtstrahl eine gekrümmte, gegen den Boden des Kastens gerichtete Bahn. Nach dem Äquivalenzprinzip ergibt sich die gleiche Bahn aber auch im Gravitationsfeld, so dass Licht im Gravitationsfeld in Richtung des Bereiches höherer Feldstärke abgelenkt wird.
     
  • Eine ähnliche Überlegung zeigt, dass ein Gravitationsfeld den Gang von Uhren verlangsamt: Vom hinteren Ende eines beschleunigten Kastens werde Licht ausgesandt. Wenn es das vordere Ende des Kastens erreicht, bewegt sich dieser schon mit etwas größerer Geschwindigkeit. Bei deiner Relativbewegung zwischen Sender und Empfänger tritt aber stets eine Doppler-Verschiebung auf. Hier im Beispiel ist das eine Rot-Verschiebung, da der Empfänger sich vom der Lichtquelle entfernt.
     
    Bei Rückübertragung auf das Gravitationsfeld bedeutet das, dass eine gegen die Richtung der Schwerebeschleunigung (also gleichsam aufwärts) bewegter Lichtstrahl ebenfalls eine Rotversschiebung erfährt.
     
    Fasst man jeden Wellenberg der Lichtwelle als Zeitsignal auf, so werden — wegen dieser Dopplerabsenkung der Frequenz — bei einem Betrachter am vorderen Ende des Kastens die Wellenberge mit vergrößertem Zeitabstand ankommen. Wenn also eine Uhr am hinteren Ende des Kastens Zeitsignale aussendet, so haben diese beim Empfang am vorderen Ende einen größeren Zeitabstand als die einer am vorderen Ende montierten baugleichen Uhr. Aus Sicht eines am vorderen Ende platzierten Beobachters geht deswegen die Uhr am hinteren Ende langsamer als seine eigene.
     
    In der Rückübertragung bedeutet dies, dass jede Uhr im stärkeren Gravitationsfeld gegenüber einer gleich gebauten im schwächeren Gravitationsfeld zurückbleibt.
     


 
Maßstabslänge im Gravitationsfeld

 
 
Beim Ausmessen der Länge zeitlicher und räumlicher Abstände kann nicht unberücksichtigt bleiben, in welchem Bezugssystem der Beobachter sitzt:


Martin Carrier (S. 145-146)
 

Um das Verhalten von Maßstäben im Gravitationsfeld zu ermitteln geht man wieder in das lokal äquivalente beschleunigte Bezugssystem, etwa eine rotierende Scheibe: Vom Standpunkt eines nicht mitrotierenden Beobachters aus erfahren Maßstäbe entlang der Peripherie eine Lorentz-Kontraktion, während dies bei radial orientierten Maßstäben nicht der Fall ist.
 
Konsequenz daraus: Das von Umfang und Durchmesser eines Kreises auf der Scheibe gemessene Verhältnis wird nicht mehr π sein, was eine Abweichung von euklidischer Geometrie anzeigt.
 
Diesem Befund kann auf zweierlei Weise Rechnung getragen werden:
  • Man kann die tangential ausgerichteten Maßstäbe als kontrahiert betrachten, ihre Länge durch die Lorentz-Transformation korrigiert und so dem Raum Euklidische Geometrie geben.
     
  • Nimmt man aber an, dass alle Maßstäbe ihre Länge unabhängig von ihrer Orientierung beibehalten, so ist keine Korrektur erforderlich, aber das gemessene Verhältnis von Umfang und Durchmesser muss dann als Anzeichen für das Vorliegen einer nicht-Euklidischen Geometrie gedeutet werden.

Die Verallgemeinerung dieser Behandlung führt auf folgenden Schluss:
 
Wenn man die Invarianz von Maßstäben bei Transport voraussetzt,
ergibt sich in beschleunigten Bezugssystemen eine nicht-Euklidische Geometrie.

 
Voraussetzung aber ist, dass man auf die Korrektur der erhaltenen Längenverhältnisse verzichtet.
 
Dieser Verzicht macht Sinn, denn die Gravitation ist eine nicht vom Material der Maßstäbe abhängige universelle Kraft. Der Verzicht auf Korrektur läuft darauf hinaus, ihren Einfluss nicht als Störung (Verzerrung) der Maßstäbe zu betrachten.
 


Einsteins Einschluss der Gravitation in die Struktur der Raumzeit zeigt, dass er ihren Einfluss nicht als korrekturbedürftig betrachten wollte.

 
 
Auf Seite 147-148 seine Buches Raum-Zeit erklärt Martin Carrier weiter:

     
    Einsteins Geometrisierung der Gravitation hat auch zur Folge, dass weder Raum noch Zeit ein festgefügtes Behältnis für die wechselnden Ereignisse unserer Erscheinungs- welt bilden, sondern — wie die Gravitation — dem Einfluß von Energie, speziell Materie, unterworfen sind:
     
    In Abhängigkeit von der Verteilung von Massen und Feldern ändert sich die Raumzeitmetrik und die Geodätenstruktur (als Geodäte bezeichnet man jeden Weg durch die Raumzeit, der zwischen je zwei auf ihm liegenden Ereignissen den kürzesten Weg darstellt).
     
    Dieser Einfluss von Energieverteilung auf die Struktur der Raumzeit wird durch Einsteins Feldgleichungen der Gravitation beschrieben. Sie machen die Verteilung von Materie und Energie zudem noch zur  Q u e l l e  des Gravitationsfeldes: Sie verknüpfen den sog. Energie-Impuls-Tensor, der alle Quellen des Gravitationsfeldes mit Ausnahme des Gravitationsfeldes selbst enthält, mit Metrik und Krümmung der Raumzeit.
     
    Die Feldgleichungen sind Einsteins Gegenstück zu Newtons Gravitationsgesetz. Physikalisch neu ist, dass das Gravitationsfeld so zu seiner eigenen Quelle wird.
     
    Im Gegensatz zur Newtonschen Gravitationskraft ist Einsteins geometrisierte Gravitationskraft selbst schwer. Diese Eigentümlichkeit führt zur Nicht-Linearität der Feldgleichungen und findet ihren empirischen Ausdruck u.A. in sog. Gravitationswellen und dem im Vergleich zur Newtonschen Theorie schnelleren Voranschreitens des Merkurperihels.
     
    Durch die Gravitation entsteht in der ART eine Abweichung von der sog. Minkowski-Raumzeit der SRT: In jener werden — da der Minkowski-Raum flach ist — Abstände über die Minkowski-Metrik quantifiziert, wohingegen in der Raumzeit der ART örtlich und zeitlich variable, kompliziertere Metriken anzwenden sind.
     
    Einsteins Feldgleichungen übertreffen ihr Newtonsches Gegenstück beträchtlich an logischer Kraft.
       
    • Sie beinhalten die lokale Energie- und Impulserhaltung sowie die Bewegungsgleichung (in Newtons Theorie müssen das Gravitationsgesetz und die Gleichung zur Beschreibung von Bewegungen im Gravitationsfeld separat angegeben werden).
       
    • Sie haben zur Folge, dass "Testteilchen" (hypothetische Masseteilchen, die weder rotieren noch Ausdehnung haben) im Gravitationsfeld zeitartigen Geodäten folgen.
       
    • Ebenso ergeben sich aus den Feldgleichungen alle auf der Grundlage des Äquivalenzprinzips ableitbaren Effekte wie Ablenkung von Lichtstrahlen oder die Verlangsamung des Uhrengangs im Gravitationsfeld.


     

 Beitrag 0-41
Die durch Thirring und Deser vorgeschlagene Normierung unserer Raumzeit-Realität

 
 

 
Die Thirring-Deser-Normierung der ART

 
 
Wie in Beitrag 0-40 erklärt, hat Einstein seine Formulierung der ART so gewählt, dass Längeneinheiten für alle Beobachter gleich definiert sind (was dann zu nicht-Euklidischer Geometrie des Raumes führt). Diese Konvention aber ist keineswegs zwingend.
 
Und tatsächlich: Es gibt eine von Walter Thirring in den 1950er Jahren erarbeitete und etwa 20 Jahre später von Stanley Deser wesentlich verbesserte Fassung der Einsteinschen Feldgleichungen,
 
die mit dem Anspruch verbunden ist, dass die Raumzeit Euklidische Geometrie habe (mit überall gleicher Metrik).



Martin Carrier (S. 166-167 seines Buches Raumzeit, de Gruyter, 2009)
 

Die Thirring-Deser-Fassung der Einsteinschen Feldgleichungen stellt die Gravitation als universelles Kraftfeld in einem  f l a c h e n  Raum dar, der mit einer überall gleichen Minkowski-Metrik ausgestattet ist.
 
In Umkehrung der Einsteinschen Vorgehensweise gibt man die Raumzeit-Struktur vor und passt das Verhalten von Maßstäben und Uhren sowie die Bewegung freier [hypothetisch ausdehnungsloser Test-] Teilchen an sie an durch die Einführung universeller Kräfte.
 
Die Gravitation verzerrt dann die  M a ß s t ä b e , beinflusst aber  n i c h t  die Geometrie.
 
Die Thirring-Deser-Fassung enthält entsprechend eine de-geometrisierte Version der Einsteinschen Feldgleichungen unter Bewahrung der Kausalität.
 
Beide Ansätze sind empirisch äquivalent, wenn auch nicht in jeder Hinsicht gleichwertig: In empirischer Hinsicht ergeben sich Abweichungen die Topologie des Raumes betreffend, da man mit einer flachen Hintergrundgeometrie kein geschlossenes Universum wiedergeben kann.
 
Damit ist die These von der Konventionalität der physikalischen Geometrie der Raumzeit — auch unter Bewahrung der kausalen Erklärbarkeit — nicht ohne Stütze. ...
 
Die adaptierte These belegt die generelle Ansicht von der Unterbestimmtheit von Theorien durch die Erfahrung, mit der Folge, dass Raum-Zeit-Theorien keine spezifische Form von Konventionalität enthalten.
 


 
Man sieht sich hier einmal mehr an Niels Bohr erinnert, der betont hat:
 
 
Die Physik kann nicht ergründen, wie die Natur funktioniert [ Wirklichkeit ].
 
Sie kann nur darüber sprechen, wie sie sich dem Beobachter darstellt [ Realität ].

 
Die unterschiedliche Formalisierung der ART durch Einstein einerseits und Thirring/Deser andererseits zeigt zudem, dass, was wir als Realität betrachten, zudem noch von durch uns selbst gewählten  K o n v e n t i o n e n  abhängig sein kann.
 
 
Bemerkenswert an der durch Thirring/Deser gefundene Normierung der Raumzeit ist vor allem, dass sie die Sonderstellung der Gravitation — die ihr durch Einsteins Geometrisierung zuwuchs — aufhebt.
 
Sie aufzuheben könnte notwendig sein, um zu einer Theorie zu kommen, die ART und Quantenmechanik zusammenführt: Diese künftige Theorie (Quantengravitation), die zu entwickeln nun schon ein halbes Jahrhundert auf der wissenschaftlichen Tagesordnung steht, wird ja aller Erwartung nach die Gravitation nach dem Muster der übrigen physikalischen Wechselwirkungen behandeln müssen: als eine Kraft, die  q u a n t i s i e r t  ist.

 

 Beitrag 0-43
Was Einstein zu seiner Gravitationstheorie führte (1): Das Machsche Prinzip

 
 

 
Ausgangspunkt von Einsteins Entwicklung der Allgemeinen Relativitätstheorie waren 3 Prinzipien. Hier als erstes
 
 
Das Machsche Prinzip

 
 
Was Einstein das Machsche Prinzip nannte, bringt zum Ausdruck, dass Einstein — wie vor ihm schon Leibniz und Mach — nicht an die Existenz eines "absoluten" Raumes glaubte, der auch als leerer Raum noch existieren würde, als Behälter also, der durch Objekte bewohnt oder auch nicht bewohnt sein könnte.
 
Newton — der in diesem Punkt ganz anderer Ansicht war als sein Zeitgenosse Leibniz — hatte argumentiert, dass das Auftreten von Trägheitskräften nichts mit Beziehungen zwischen den betroffenen Körpern und anderer Körper zu tun habe, sondern stattdessen die "wahre Bewegung" des Körpers, d.h seine Bewegung relativ zum absoluten Raum widerspiegle.


Martin Carrier (in seinem Buch Raum-Zeit, de Gruyter 2009, S. 138-139)
 
Einstein hielt nichts von diesem Gedanken. Sein zentrales Motiv war die bei Newton angenommene Einseitigkeit der Kausalwirkung, nach der der absolute Raum Trägheitskräfte entstehen lässt ohne dass es Rückwirkung der Körper auf ihn gibt.
 
Einen solch einseitigen Kausaleinfluss hielt Einstein für widersinnig und wollte ihn durch die Vorstellung ersetzen, dass die Trägheitseigenschaften bewegter Körper generell durch ein physikalisches Feld bestimmt sind, ähnlich dem elektromagnetischen Feld.
 
In diesem Denkansatz kann der Raum zwar weiterhin physikalische Wirkung entfalten, jedoch müssen umgekehrt die Körper auch auf ihn Einfluss nehmen können. Für Einstein bedeutet das: Die metrischen und geodätischen Eigenschaften der Raumzeit sollten zur Gänze durch die relativen Lagen und Bewegungen von Körpern (oder anderen Energieformen) festgelegt sein.
 
Er nannte dieses Prinzip das Machsche Prinzip .
 
Es impliziert, dass das Auftreten von Trägheitskräften zur Gänze durch Relativbewegungen festgelegt ist, nicht aber durch Bewegungen der Körper gegen den Raum.
 


 
Obgleich das Machsche Prinzip Einsteins Weg zur ART bahnte, ist es in der voll entwickelten Theorie tatsächlich  n i c h t  erfüllt
 
( wie Carrier in den Abschnitten 4.1.4 und 4.2.2 seines Buches erklärt ):

 
 
Für jede Theorie muß grundsätzlich unterschieden werden
  • zwischen der Theorie einerseits und
  • den zu ihr konformen Modellen andererseits (die sich ja in durch die Theorie nicht voll bestimmten Eigenschaften durchaus unterscheiden können).
Die ART, als Theorie, ist gegeben durch Einsteins Feldgleichungen. Jedes ihrer Modelle entspricht einer Lösung dieses Gleichungssystems, und obgleich man bisher nur wenige dieser Lösungen kennt, sind darunter neben solchen, die das Machsche Prinzip uneingeschränkt bestätigen, auch solche, in denen es Einschränkun­gen unterliegt.
 
Es gibt demzufolge zwei unterschiedliche philosophische Haltungen:
  • Als Relationalismus bezeichnet man einen Standpunkt, der zwar anerkennt, dass die ART Lösungen kennt, die das Machsche Prinzip nicht automatisch erfüllen, der diese Lösungen aber als philosophisch belanglos einstuft, da sie nicht mit den Erfahrungsbedingungen unserer Welt übereinstimmen.
     
  • Der absolute Ansatz dagegen kennt keine Konzentration auf die faktisch realisierten Lösungen. Seine Anhänger stehen auf dem Standpunkt, dass die ART keinen Rückgriff auf Bezugskörper verlange und keine Rückführung von Trägheitskräften auf Relativbewegungen erzwinge. Die nicht-Machschen Lösungen seien ebenfalls relevant, da sie zur Beschreibung kleinräumiger kosmischer Strukturen (mit ihren lokalen Abweichungen von Homogenität und Isotropie) gebraucht werden.
Festzuhalten ist, dass die ART dem Machschen Prinzip nicht zwangsläufig genügt. Die von Friedmann 1922 gefunden Lösung allerdings — sie gilt bislang als unser bestes Modell des Universums — genügt ihm uneingeschränkt und kommt ohne Randbedingungen aus (etwa solche, die annehmen, dass es irgendwo weit draußen im Universum gar keine Materie mehr gebe, dass das Universum rotiere, oder was da sonst noch denkbar sein mag).
 
Für eine umfassende Beschreibung kosmischer Strukturen aber reicht Friedmans Lösung  n i c h t  aus: Lokalen Abweichungen von der Homogenität — etwa bei Planetensystemen oder Schwarzen Löchern — muss durch Größen Rechnung getragen werden, die absolut sind, bei denen also nicht alle geometrischen Strukturen einfach nur auf die relative Lage der Körper zueinander zurückführbar sind.
 
 


Rüdiger Vaas (in seinem Buch Jenseits von Einsteins Universum, 2016, S. 220-222):
 
Den Begriff das Mach'sche Prinzip hat Einstein 1918 zu Ehren des 1916 verstorbenen Ernst Mach eingeführt. Er steht für Machs Aussage, dass die Trägheit eines Körpers bestimmt sei durch den Einfluss, den alle sonst noch im All vorhandenen Körper auf ihn haben.
 
In Einsteins Theorie ausgedrückt:
 
Der durch den Metriktensor gμν beschriebene » Raumzustand «
— auch das Gravitationsfeld, welches durch den Energie-Impuls-Tensor Tμν bedingt wird —
sei  r e s t l o s  durch die Massen der Körper bestimmt.

 
Einstein bedauerte, dieses Prinzip zunächst nicht klar genug vom Relativitätsprinzip unterschieden zu haben, das er nun so definierte:
 
 
» Die Naturgesetze sind nur Aussagen über zeiträumliche Koinzidenzen.
 
Sie finden  d e s h a l b  ihren einzig natürlichen Ausdruck in allgemein kovarianten Gleichungen. «

 
 
Einstein räumte ein, das Mach'sche Prinzip würde » keineswegs von allen Fachgenossen geteilt «, er selbst aber empfinde » seine Erfüllung als unbedingt notwendig «.
 
Ob Einstein berechtigt war, sich auf Mach zu beziehen, erscheint fraglich (und wird von Wissenschaftsphilosophen wie etwa John Norton mit guten Gründen bezweifelt): Mach selbst hatte wohl keine klare Konzeption von dem, was Einstein nach seinem Tode das Mach'sche Prinzip nannte.
 
Mittlerweile gibt es mindestens 20 Formulierungen, keine deckungsgleich mit einer anderen, und manche sind ziemlich sicher falsch ...
 



Klaus Kiefer (auf S. 60 in Quantenkosmos):
 
Einstein verstand das Machsche Prinzip ursprünglich so, dass die Geometrie der Raumzeit — ihre Metrik — durch die Materieverteilung eindeutig bestimmt sein sollte. Wie Einstein selbst aber nachträglich feststellen musste, ist das in der ART nun aber doch nicht der Fall: Die Metrik geht in alle bekannten Materiegleichungen ein und kann daher nicht durch die Materie bestimmt sein.
 
Zudem sind es ja gerade die lokalen Gravitationsfelder, welche für das lokale Trägheitsverhalten am dominantesten bestimmen (und nicht — wie noch Mach meinte — die fernen Fixsterne bzw. alle Körper im Raum gleichermaßen).
 


Noch 1917 hat Willem de Sitter Einstein darauf aufmerksam gemacht, dass seine Feldgleichungen auch absolut leere, unendlich weite Raumzeiten zulassen (und die noch nicht mal statisch sein müssen). Wegen der hier angenommenen kosmologischen Konstanten zieht sich die Raumzeit zunächst zusammen, expandiert dann aber wieder (was aber beides erst später klar wurde). Diese Beispiele zeigen, dass die Metrik doch nicht — wie Einstein dachte — allein durch den Energie-Impuls-Tensor bestimmt ist.
 
Ausgehend hiervon sah Einstein schließlich auch ein, dass seine Theorie gar nicht auf der Relativität der trägen Masse aufbaut oder sie erfordert, sondern lediglich auf der Relativität der Bezugssysteme. In einem Brief aus 1954 schrieb er dann schließlich, dass man vom Mach'schen Prinzip überhaupt nicht mehr sprechen sollte.
 
Damit ist nun aber erneut die Frage berechtigt, ob die Natur nicht vielleicht doch auch absolut leere Raumzeit kennt.

 

 Beitrag 0-44
Was Einstein zu seiner Gravitationstheorie führte (2): Das Äquivalenzprinzip

 
 

 
Ausgangspunkt von Einsteins Entwicklung der Allgemeinen Relativitätstheorie waren 3 Prinzipien. Hier als zweites
 
 
Das schwache und das starke Äquivalenzprinzip

 
 
Unter dem  s c h w a c h e n  Äquivalenprinzip versteht man die Gleichheit von schwerer und träger Masse:

Einstein (1922)
 
Die bisherige Mechanik hat diesen wichtigen Sachverhalt zwar registriert, aber nicht interpretiert.
 
Eine befriedigende Interpretation kann nur so zustandekommen, dass man einsieht: Dieselbe Qualität des Körpers äußerst sich je nach Umständen als Trägheit oder als Schwere.
 

Danach stellen schwere und träge Masse lediglich unterschiedliche Manifestationen einer einzigen Grundgröße dar.

 
 
Nach dem schwachen Äquivalenzprinzip lässt sich gleichförmige Beschleunigung im feldfreien Raum nicht von geradlinig-gleichförmiger Bewegung im einem gleichförmigen Gravitationsfeld unterscheiden.

     
    Der Schluss ist, dass gleichförmige Beschleunigungen und homogene Gravitationsfelder für alle mechanischen Prozesse empirisch äquivalent sind.
     
    Die Annahme, dass dies nicht allein für mechanische Prozesse, sondern sogar für  s ä m t l i c h e  physikalischen Vorgänge gelte, wird als  s t a r k e s  Äquivalenzprinzip bezeichnet. Erst Einstein sprach davon.

 
Verknüpft mit Machschen Prinzip führt das starke Äquivalenzprinzip auf ein Charakteristikum der ART, welches darin besteht, den absoluten Raum zu vermeiden.
 
WICHTIG aber:
    Das Äquivalenzprinzip lässt sich nur auf  h o m o g e n e  Gravitationsfelder anwenden. Seine Erweiterung auf inhomogene Felder — solche mit räumlich oder zeitlich wechselnder Feldintensität — verlangt eine bloß lokale Anwendung auf räumlich und zeitlich benachbarte Ereignisse.
    Gutes Beispiel eines inhomogenen Gravitationsfeldes ist das kugelsymmetrische Feld der Erde. In ihm ist die Schwerebeschleunigung auf den Erdmittelpunkt gerichtet und weist daher an unterschiedlichen Orten in meist unterschiedliche Richtung. Folglich ist das Schwerefeld der Erde  n i c h t  durch Übergang in ein einziges beschleunigtes Bezugssystem im feldfreien Raum nachzubilden. Nur wer sich auf einen hinreichend kleinen Bereich des irdischen Schwerefeldes beschränkt, kann für ihn ein Bezugssystem derart wählen, dass das Schwerefeld verschwindet (niemals ganz genau, wohl aber ausreichend genau unter praktischen Gesichtspunkten).
     
    Auch die Tatsache, dass ein in einem beliebigen Gravitationsfeld frei fallender Beobachter die Existenz des Feldes grundsätzlich überhaupt nicht nachweisen könne, gilt nur in sehr kleinen Bereichen: Darüber hinaus nämlich wäre — genügend genaues Messgerät vorausgesetzt — die Auswirkungen der Raum-Zeit-Krümmung anhand sog. Gezeitenkräfte erkennbar, d.h. anhand der Deformationen, die sämtliche Körper im inhomogenen Gravitationsfeld erfahren. Wenn z.B. eine verformbare Kugel der Erde entgegen fällt, wirkt die Gravitationskraft am unteren Ende der Kugel stärker als am oberen (da sie ja der Erde schon näher ist), so dass die Kugel sich in Fallrichtung verlängert ind insgesamt elliptische Form annimmt.
     
    Dass man diese Kraftdifferenz als Gezeitenkraft bezeichnet, liegt daran, dass die irdischen Wassermassen auf der dem Mond zugewandten Seite von ihm stärker angezogen werden als auf der ihm abgewandten Seite. Deshalb ist das Wasser an beiden Seiten relativ zum Erdzentrum in Richtung des Mondes beschleunigt, was — da der Mond die Erde umkreist — ständigen Wechsel zwischen Ebbe und Flut zur Folge hat.
     
    Wirklich exakt also gilt das Äquivalenzprinzip nur in einer ausdehnungslosen Umgebung des Beobachters, die — da ausdehnungslos — nur den Punkt enthält, in dem der Beobachter ruht. Mit zunehmendem Abstand von ihm werden z.B. Gezeitenkräfte immer deutlicher hervortreten. Wirklich zu Null wird das Gravitationsfeld nur im Beobachter selbst: Das  s t a r k e  Äquivalenzprinzip hat nur  l o k a l e  Gültigkeit.

 
Bisher konnten Experimente das Äquivalenzprinzip bis zu einer Genauigkeit von 10-13 bestätigen. Dennoch ruht man nicht:
     
  • Das Äquivalenzprinzip mit noch höherer Genauigkeit nachzuprüfen ist Aufgabe des von der ESA verantworteten Projekts Weltraummission MICROSCOPE.
     
  • Um die Jahreswende 2013/2014 wurde ein exotisches 3-Sterne-System entdeckt, mit dessen Hilfe sich die uneingeschränkte Gültigkeit des starken Äquivalenzprinzips mit um einige Größenordnungen höherer Genauigkeit als bisher wird nachprüfen lassen. Siehe Relativitätstheorie im Präzisionstest (Jan 2014).

 
 
Folgen des Äquivalenzprinzips

 
 
Nach dem Äquivalenzprinzip ist es physikalisch nicht unterscheidbar, ob eine in einem System auftretende Kraft sich als Folge von Beschleunigung ergibt oder durch Gravitationsquellen hervorgerufen ist.
 
Mit anderen Worten: Schwerkraft und Trägheitskräfte (wie etwa die Fliehkraft) sind aufsummierbar und können sich daher — als gerichtete Kräfte — auch gegenseitig aufheben.
 
Die Erde umkreisende Raumfahrer etwa machen sich das zunutze: In der typischen Flughöhe von IIS und Mir ist die Schwerkraft nur etwa 15% geringer als auf der Erdoberfläche. Schwerelos sind die Raumfahrer darin nur deswegen, weil
     
  • auf sie — da sie sich ja kreisförmig um die Erde bewegen — auch Fliehkraft wirkt
     
  • und die Flughöhe ihrer Umlaufbahn so gewählt wurde, dass Fliehkraft und Schwerkraft sich zu Null aufaddieren.
     
  • Möglich ist das nur, weil nach dem Äquivalenzprinzip beide Kräfte gleicher Natur sind.

 
 
Historische Notiz:
 
 
Für Newton war Trägheit durch den Raum hervorgerufen, Gravitation aber durch die sich anziehenden Objekte im Raum.
 
Erst Einstein sah beide als Erscheinungsformen ein und derselben Sache: der Geometrie der Raumzeit.
 
 
Daher ist selbst noch die Fliehkraft, der wir während einer Karusselfahrt ausgesetzt sind, ein Aspekt der Gravitation.


 

 Beitrag 0-45
Was Einstein zu seiner Gravitationstheorie führte (3): Das Prinzip allgemeiner Kovarianz

 
 

 
Ausgangspunkt von Einsteins Entwicklung der Allgemeinen Relativitätstheorie waren 3 Prinzipien. Hier als drittes
 
 
Das Prinzip allgemeiner Kovarianz

 
 
Einsteins Ziel war, seine Theorie so zu formulieren, dass ihre Ausdrücke in allen Bezugssystemen anwendbar sind — nicht allein in Inertialsystemen.
 
Zulässige Transformationen zwischen Bezugssystemen sollten nur eingeschränkt sein durch die Bedingungen
  • umkehrbar eindeutig,
  • stetig,
  • und auch differenzierbar.

Wie bedeutsam das ist, wird klar, wenn man sich vor Augen führt, dass die Gesetze der Newtonschen Mechanik (wie auch der SRT) zunächst nur in Inertialsystemen gültig sind und an nicht-inertiale Bezugssysteme nur durch Einführung zusätzlicher Größen — Zentrifugalkräfte oder Crioliskräfte — anpassbar sind.
 
Solche Sonderstellung einer besonderen Klasse von Bezugssystemen wollte Einstein in der ART vermeiden:
 
Sein Ziel war, die Theorie so zu formulieren, dass ihre Gesetze in unveränderter Form in allen denkbaren Bezugssystemen gültig bleiben.
 
Allgemeine Kovarianz erreicht genau das. Zulässig sind danach nur Größen, die ein ganz bestimmtes Transformationsverhalten aufweisen.Man nennt sie kovariante Größen. Kovarianz ist ein der Differentialgeometrie entstammender, rein mathematischer Begriff. Einstein gelang es, ihm mit physikalischer Relevanz zu versehen. Einstein glaubte 1916, dass das Prinzip allgemeiner Kovarianz als Ausdruck und Konkretisierung eines "allgemeinen Relativitätsgesetzes" gelten könne, demzufolge sämtliche Bewegungsformen physikalisch gleichwertig sind:

Einstein (1922)
 
Wir werden dem Relativitätsprinzip im weitesten Sinne dadurch gerecht, dass wir den Gesetzen eine solche Form geben, daß sie bezüglich jedes derartigen (4-dimensionalen) Koordinatensystems gelten, d.h. daß die sie ausdrückenden Gleichungen bezüglich beliebiger Transformation kovariant sind.
 



Martin Carrier (in seinem Buch Raum-Zeit, de Gruyter 2009, S. 143-144)
 
Allerdings hat das Prinzip allgemeiner Kovarianz nichts mit der Relativität der Bewegung zu tun. Wie Erich Kretschmann 1917 zeigen konnte, beinhaltet die mathematische Tatsache der unveränderten Form der Gleichungen in beliebigen Koordinatensystemen keineswegs auch die physikalische Äquivalenz aller Bezugssysteme.
    Allgemeine Kovarianz bingt zum Ausdruck, dass sich die Größen der Theorie und ihre Beziehungen untereinander in koordinaten-unabhängiger Form darstellen lassen, schließt aber  n i c h t  aus, dass bei der Umsetzung der übergreifenden Darstellung in konkrete Bezugssysteme doch wieder spezifische Merkmale besonderer Bewegungsformen in Erscheinung treten.
     
    Tatsächlich lässt sich beinahe jede Bewegungstheorie allgemein kovariant formulieren (SRT und Newtonsche Mechanik auf jeden Fall).
     
    Dabei konkretisiert sich dann die die einheitliche Formulierung in verschiedenen Bezugssystemen auf unterschiedliche Weise.
     
    Insbesondere treten in Nicht-Inertialsystemen unverändert Trägheitskräfte in Erscheinung, so dass sich an der Sonderstellung der Initialsysteme nichts geändert hat.
Um es nochmals zu sagen:
    Allgemeine Kovarianz ist eine mathematische Eigenschaft der  F o r m u l i e r u n g  einer Theorie.
    Physikalische Äquivalenz von Bezugssystemen aber garantiert sie keineswegs.
    Neu in der ART ist allein, dass ein allgemein kovariante Formulierung dort unvermeidlich ist, da die von Punkt zu Punkt unterschiedliche Krümmung der Raumzeit keine globalen Inertialsysteme mehr zulässt (Friedmann 1983, 54-56, 207-209, 212-213).

Quelle:
  • Friedmann, Michael (1983): Foundations of Space-Time Theories, Relativistic Physics and Philosphy of Science, Princeton University Press

 


 
Die Formulierung eines physikalischen Gesetzes heißt  k o v a r i a n t , wenn sie koordinatensystem-unabhängig ist.


 

 Beitrag 0-48
Warum das Standardmodell der Elementarteilchen und Einsteins Gravitationstheorie einander widersprechen

 
 

 
Zum Konflikt zwischen ART und Quantentheorie

 
 
Beide Theorien unterscheiden sich grundlegend schon von ihrem begrifflichen Ansatz her:
 
  • In der Quantentheorie — und dem Standardmodell der Elementarteilchenphysik — werden physikalische Wechselwirkungen durch quantisierte Felder beschrieben, so dass sich dort jede Wirkung von Kraft darstellt als Austausch von Überträgerteilchen (Bosonen):
     
    • Photonen vermitteln die elektromagnetische Kraft,
    • Eichbosonen die schwache Wechselwirkung
    • und insgesamt 8 Gluonen die starke Kernkraft (die vor allem zwischen Quarks wirkt).
       
    • Dass auch gravitative Wechselwirkung quantisiert sei — hypothetisch durch sog. Gravitonen (Gravitationswellen) — ist bislang nur Vermutung.

     
  • Ganz anders Einsteins Gravitationstheorie:
    Sie geht davon aus, dass Gravitationskräfte Ausdruck der Krümmung des Raumes (d.h. der Raumzeit) sind. Da die sich stetig ändert, kann Gravitation — der ART entsprechend — nicht quantisiert sein.


Martin Carrier (S. 224 in seinem Buch Raum-Zeit, de Gruyter 2009) kommt zum Schluss:
 
Eine der beiden Denkschulen wird weichen müssen. Vieles spricht dafür, dass es die Geometrisierung der Gravitation ist, die aufzugeben sein wird.
 
Nach früh gescheiterten Versuchen, auch Materie und (Energie-) Felder als besondere Raum-Zeit-Strukturen zu verstehen (Esfeld 2002, 42-43), zielen heute sämtliche Ansätze einer einheitlichen Theorie aller physikalischen Wechselwirkungen auf eine Quantentheorie der Gravitation. Bislang ist unklar, wie eine solche Theorie aussehen könnte. Dennoch ist damit zu rechnen, dass die Frage nach der Natur von Raum und Zeit vor dem Hintergrund einer künftigen Quantentheorie der Gravitation anders zu beantworten sein wird als heute.
 


Quellen:
  • Esfeld, Michael (2002): Einführung in die Naturphilosophie, Darmstadt, Wissenschaftliche Buchgesellschaft (erschien 2011 in gründlicher Neubearbeitung)


 

 Beitrag 0-46
Wie sich Newton einerseits und Leibniz andererseits Raum und Zeit vorgestellt hatten

 
 

 
Wie Newton und sein Widerpart Leibniz Raum und Zeit sahen

 
 
Newton sah den Raum als einen Behälter, in dem Objekte wohnen, die sich zeitabhängig verschieden schnell durch ihn bewegen.

 
Völlig anders Leibniz: Für ihn gab es diesen Behälter nicht. Er hielt den Raum ebenso wie die Zeit für etwas rein Relationales:
  • Raum sei einfach nur eine Ordnung des Neben-einander-Bestehens von Objekten: die Gesamtheit der relativen Anordnungen der Körper,
  • wohingegen Zeit nur als ein Auf-einander-Folgen von Ereignissen existiere.

Die Ursprünge solch einer relationalen Theorie von Raum und Zeit gehen auf Decartes (1596-1650) zurück. In seinen Prinzipien der Philosophie vertrat er die Ansicht, dass Ausdehnung das kennzeichnende Merkmal von Materie und Raum gleichermaßen bilde und sich die beiden daher nicht wesentlich unterscheiden. Der Raum, so Descartes, sei die Gesamtheit der Erstreckungen und Positionen der Körper relativ zueinander dar, und Bewegung gebe es nur als Veränderung der Abstände und Anordnung der Körper untereinander. Einen wahrhaft unbewegten Ort dagegen gebe es nicht.
 
Leibniz hat diesen Gedanken aufgenommen und zu einer systematischen Theorie des Raumes ausgebaut. Auch seine kausale Theorie der Zeitfolge ist tatsächlich Teil dieses umfassenden relationalen Ansatzes.
 
Für Descartes und Leibniz war der Raum die Gesamtheit aller möglichen Anordnungen von Dingen, die gleichzeitig existieren.


 

 Beitrag 0-440
ART und Quantenphysik sind hintergrundunabhäbgige Weltmodelle

 
 

 
Zur Hintergrundunabhängigkeit von ART und Quantenphysik

 
 
Die wichtigste begriffliche Eigenschaft der allgemeinen Relativitätstheorie (ART) besteht in der sogenannten Hintergrundunabhängigkeit.
 
Man versteht darunter die Tatsache, dass in der ART den Raum-Zeit-Koordinaten überhaupt keine physikalische Bedeutung mehr zukommt, sondern nur noch den Beziehungen zwischen den Feldern auf der Raum-Zeit, zu denen auch das metrische Feld gehört, welches das Gravitationsfeld darstellt.
 
Dies hat damit zu tun, dass es in der allgemeinen Relativitätstheorie überhaupt keine absoluten Größen mehr gibt, da auch die Metrik — im Gegensatz zur speziellen Relativitätstheorie (SRT) — in der ART zu einer dymamischen Größe wird.
 
 
Das aber bedeutet, dass die Raumzeit ohne die in ihr enthaltenen dynamischen Objekte gar nicht existiert.

 
 
Dennoch kennt die ART — in einem relationalen Sinne — räumlich-kausale Strukturen, da in ihr ja — als zentrale, dynamische Größen — Felder auf der Raum-Zeit beschrieben werden.
 
 
 
Die Quantentheorie — in ihrer der abstrakten Hilbertraum-Formulierung — geht noch weiter: Sie verzichtet auf Begriffe wie Raum, Körper, Feld, Teilchen, Bewegung, Wechselwirkung, Masse oder Ladung. Nur die Zeit muss beibehalten werden.

 
Und so kommt dem Raum in der Quantentheorie noch weniger Bedeutung zu als in der ART.

 
 
 
Quelle: Martin Immanuel Kober (2018) in Fortführung des Ansatzes der Ur-Alternativen von Carl Friedrich v. Weizsäcker


 

 Beitrag 0-49
Was sich heute zur Natur der Raumzeit sagen — aber auch  f r a g e n  — lässt

 
 

 
Warum man die Natur der Raumzeit heute noch als unentschieden sehen muss

 
 
Die relationale — der Ansicht von Decartes, Leibniz, Mach und Einstein entsprechenden — Rückführung der Raumzeitpunkte auf die Anordnung materieller Objekte untereinander hat zur Folge, dass es unbesetzte Raumzeitpunkte, leeren Raum also, nicht geben kann.
 
Die substanzialistische Ansicht aber, dass der Raum eigenständig existiere, setzt die Annahme der Existenz solche unbesetzter Raumzeitpunkte geradezu voraus.


Martin Carrier (S. 205-206 seines Buches Raum-Zeit, de Gruyter 2009) schreibt:
 

Vor dem Hintergrund der ART lautet die wesentliche Frage, ob Raumzeitmetrik gik und Geodätenstruktur zur Raumzeit oder zur Materie zu zählen sind.
 
Die Feldgleichungen verknüpfen den Energie-Impuls-Tensor Tik mit einem Ausdruck, der die über Metrik und Geodäten gegebene physikalische Geometrie repräsentiert. So gesehen ist die Metrik Teil der Raumzeit, nicht aber der Materie.
 
 
Gegen den Relationalismus aber spricht, dass die Feldgleichungen physikalisch signifikante Vakuumlösungen enthalten (denn auch bei verschwindender Materie und Energie ergeben sich definitive metrische Felder und Geodätenstrukturen als Lösungen). Es handelt sich dabei insbesondere um Gravitationswellen, also um sich fortplanzende Schwingungen des metrischen Feldes.
 
Danach kann auch dort Raumzeit, nämlich ein nicht verschwindendes metrisches Feld gik vorliegen, wo keine Materie ist, genauer: wo der Energie-Impuls-Tensor verschwindet.
 
So führt z.B. der Kollaps eines Sternes zur Emission von Gravitationswellen, Sie entfernen sich vom Ort des Geschehens wie Wasserwellen von einem ins Wasser geworfenen Stein. Weit ab vom Ereignis mag keinerlei materieller Rest des Zusammenbruchs mehr vorhanden sein; in den Gravitationswellen aber manifestiert sich gleichwohl eine definitive Metrik.
 
Somit realisieren Gravitationswellen leere Raumzeit-Punkte, und  d i e s e r  Befund stützt die Vorstellung einer substanzialstischen Raumzeit.

 


Aus meiner [ Gebhard Greiters ] Sicht heraus, scheint mir diese Argumentation nicht so ganz überzeugend, denn wo es wellenartig sich auf- und abbauendes Kraftpotential gibt, muss es doch eigentlich auch als Anwesenheit von Energie gedeutet werden. Wie also unterscheidet die sich von der durch den Energie-Impuls-Tensor beschriebenen?

 

 Beitrag 0-47
Wie sich der Geometrie-Begriff entwickelt hat: Von Euklid bis hin zu Riemann und Einstein

 
 

 
Wie sich der Geometrie-Begriff entwickelt hat (bis hin zu dem der ART)

 
 
Über fast zwei Jahrtausende hinweg war die Euklidische Geometrie die einzig bekannte. Nach anderen Geometrien zu suchen kam lange Zeit niemand in den Sinn, denn einerseits entspricht sie gut unserer Erfahrungswelt und noch Euklid (ca. 365-300 v.Chr) hatte sie von Anfang an fest verankert in 5 Postulaten, auf die er all seine Lehrsätze stützte (und die suggerierten, dass Geometrie stets nur im Kontext einer flachen Ebene Sinn machen).
 
Hierzu zählten Forderungen so einfacher Art, dass zwischen je zwei Punkten eine Gerade gezogen werden kann und jede Strecke zu einer Geraden verlängert werden kann. Nur Euklids fünftes, letztes Postulat — in dem er verlangt, dass es durch einen Punkt P der nicht auf einer gegebenen Geraden G liegt stets eine andere Gerade gebe, die parallel zu G ist — hat den Mathematikern zunehmend Kopfzerbrechen bereitet: Sie vermuteten, dass dieses so vergleichsweise komplizierte Postulat schon Folge der anderen sein könnte.
 
Dies zu beweisen allerdings gelang niemand. Kein Wunder, denn Bolyai (1802-1860) und unabhängig von ihm auch Lobaschewski (1792-1856) und schließlich Gauss (1777-1855) fanden schließlich, dass auch andere Fassungen des Parallelenaxioms denkbar und ebenfalls mit den übrigen 4 Axiomen verträglich sind: Statt die Existenz genau einer Parallele zu G durch P kann man auch die Existenz gar keiner oder die Existenz von mindestens zwei fordern.
 
Diese Einsicht markierte die Entdeckung zweier Familien Nicht-Euklidischer Geometrie. Man nennt sie Geometrien elliptischer bzw. hyperbolischer Art je nachdem ob sie gar keine oder mehrere Parallen zu G durch P gestatten.
 
 
Bernhard Riemann — ein Schüler von Gauss — konnte schließlich beweisen, dass sie und auch die Geometrie Euklidischer Art sämtlich Spezialfälle einer noch allgemeineren geometrischen Theorie sind: einer, die man heute die Riemannsche Geometrie nennt (noch etwas allgemeinere entstanden ab 1920).
 
Ihr Hauptcharakteristikum — im Nachhinein eigentlich nicht verwunderlich — ist, dass es sich um Geometrien handelt, die erlauben, dass der betrachtete Raum ortsabhängig unterschiedliche geometrische Charakterista aufweist.
 
Und tatsächlich: Denkt man z.B. daran, dass die Landschaft in Norddeutschland kaum Krümmung aufweist, viel weniger bizarre jedenfalls als die Landschaft z.B. in den Alpen oder im Himalaya, und dass das Krümmungsverhalten der Landschaft auf dem Weg von hier nach dort sich nur schrittweise abändert, so kann man gut nachvollziehen, dass
  • Euklidische Geometrie dem einfachsten Fall entspricht: Sie ist die Geometrie einer absolut flachen, nirgendwo gekrümmten Ebene (bzw. eines nirgendwo gekrümmten Raumes beliebiger Dimension).
     
  • Elliptische Geometrie oder hyperbolische Geometrie ist stets Geometrie eines überall in gleicher Weise gekrümmten Raumes (ee könnte Kugeloberfläche im elleptischen Fall oder Oberfäche eines Sattels im hyperbolischen Fall sein).
     
  • Riemannsche Geometrie schließlich kann ortsabhängig variierende Krümmung ganz unterschiedlicher Stärke beschreiben.

 
Den Typ mathematischer Struktur, der erlaubt, Räume mit solch allgemeinem Krümmungsverhalten formal sauber zu beschreiben nennt man Riemannsche Mannigfaltigkeit .
 
Gauss hatte versucht, solche Räume durch Teilmengen je eines Raumes noch höherer Dimension zu modellieren. Riemann aber fiel auf, dass Vieles einfacher wird, wenn man statt der Einbettung des zu beschreeibenden Raumes R in einen noch höher dimensionalen Raum sog. Tangentenräume heranzieht: Jeder von ihnem ist genau einem Punkt P von R zugeordnet, hat Euklidische Geometrie (d.h. die denkbar einfachste) und approximiert über sie die Geometrie von R um P herum beliebig gut — dann jedenfalls, wenn man sich auf eine entsprechend kleine Umgebung von P beschränkt.
 
Es hat dann natürlich auch jede dieser Umgebungen U(P) ihr eigenes Koordinatensystem, sein Urprung ist P selbst. Ein den gesamten Raum R umspannendes, globales Koordinatensystem braucht  n i c h t  zu existieren.
 
Mehr dazu lese man nach in Wikipedia.

 

  Beitrag 2051-1
Grenzen der Anwendbarkeit der SRT (und teilweise auch der ART)

 
 


Wer die SRT anwenden möchte, sollte bedenken:



Die Anwendbarkeit der SRT ist an gewisse Voraussetzungen geknüpft, die man nicht aus dem Auge verlieren sollte (und die stets nur annäherend gegeben sind, auf keinen Fall also über unser gesamtes Universum hinweg so genau, dass die SRT über beliebige Entfernungen hin brauchbare Aussagen machen würde).

Diese Voraussetzungen sind:
  • Es muss ein Inertialsystem geben, in das sich alle betrachteten Objekte gemeinsam einordnen — und zwar so, dass sie unter dieser Einordnung als NICHT beschleunigt erscheinen.
  • Es muss uns reichen, Aussagen zu erhalten, die nicht beobachter-neutral sind.

Da in unserer Raumzeit alle masse-behafteten Objekte Gravitationskräften unterliegen, die durch andere solcher Objekte hervorgerufen werden, und da diese Kräfte sich wohl nur ausnahmsweise und sicher nur über extrem kurze Zeit hinweg an dem einen oder anderen Ort zu Null ergänzen, ist die wichtigste Voraussetzung für die Anwendbarkeit der SRT i.A. wirklich voll so gut wie nie und nirgenwo gegeben.

Mit anderen Worten: Die SRT ist eine eher lokale Theorie (weswegen ich sie denn auch — anders als Okotombrok — im Kontext des Themas 2049-24 gar nicht erst zur Sprache gebracht hätte.

Wir könnten jetzt aber mal der Frage nachgehen, WIE lokal die SRT denn eigentlich ist, d.h. welche Eigenschaften eine Region der Raumzeit haben muss, damit die SRT für Gegenstände in jener Region Aussagen macht, die nicht allzu ungenau sind.

Eines steht fest (wenn wir daran denken, dass Gravitationskräfte sämtliche Objekte beschleunigen, die nicht schon mit Lichtgeschwindigkeit unterwegs sind):
  • Je weniger Himmelskörper sich in jener Region befinden, desto besser wird die SRT dort anwendbar sein.
  • Umgekehrt: Kaum anwendbar sein wird die SRT in der Nähe eines Schwarzen Loches oder gar im Inneren seines Ereignishorizontes. Rein mathematische Betrachtungen sagen uns noch mehr: Die SRT ist nicht anwendbar in naher Umgebung irgend einer Singularität der Raumzeit, als z.B. auch nicht zu Beginn des Urknalls und allzu kurz danach.

Da die Raumzeit der ART eine differenzierbare Mannigfaltigkeit ist, können wir nur sagen:
  • Jeder nicht-singuläre Punkt x der Raumzeit hat mindestens eine topologische Umgebung U(x), welche isomorh ist zu einer geeigneten tologischen Umgebung des Ursprungs des normalen 4-dimensionen metrischen (reellen) Raumes, genauer: des Minkowski-Raumes im Sinne der SRT.
  • Sei nun V(x) die Vereinigung aller Umgebungen von x mit dieser Eigenschaft. Dann ist auch V(x) selbst die größte solche Umgebung, und maximal nur in ihr können wir uns ein kartesisches Koordinatensystem vorstellen, in das sich alle Punkte aus V(x) gemeinsam einordnen. Problem aber: Form und Größe von V(x) sind zeitlich variabel — mindestens in gewissem Ausmaß, das wiederum davon abhängt, wie turbulent es um x herum zugeht.

All das berücksichtigt noch gar nicht die Tatsache, dass unsere wirkliche Welt im ganz Kleinen — gemeint ist: in einer Größenordnung, die sich der Plancklänge nähert — hinsichlich ihrer geometrischen Struktur selbst durch die ART ganz und gar nicht zutreffend beschrieben ist. Dort nämlich ändert sich die Topologie des Raumes zeitlich gesehen noch weit schneller und weit dramatischer. In dieser Größenordnung die SRT noch anwenden zu wollen, würde zu rein gar nichts führen.

Wer mehr zu all dem wissen möchte, sollte versuchen, zu verstehen, was in Consequences of Spacetime Topology gesagt wird oder in den Papieren, die dort im Literaturverzeichnis genannt sind.

Gebhard Greiter (grtgrt)

 

  Beitrag 2051-3
-

 
 
Hans-m aus 2051-2:
 
Ich glaube du sprichst hier den Unterscheid zwischen idealer und realer Betrachtung eines Inertialsystem an.

Ein ideales Inertialsysem ist absolut unbeschleunigt, unterliegt keiner Gravitation und keinen sonstige Kräften.
Ein ideales System kann dem realen System nur annähernd gleichkommen.
 


Ja, Hans-m, genau so meine ich das.

Mit zu berücksichtigen ist allerdings, dass in extremen Szeanrios — wie etwa im Inneren aller Schwarzen Löcher oder im Quantenschaum — die Aussagen  i d e a l e r  Betrachtung beliebig weit von  r e a l e n  Gegebenheiten abweichen können.

Die Abweichung, mit der man zu rechnen hat, dort nicht abschätzen zu können, wird zum Problem.


Gruß, grtgrt
 

  Beitrag 2051-5
-

 
 
Hans-m aus 2051-4:
Grtgrt aus 2051-3:
 
Mit zu berücksichtigen ist allerdings, dass in extremen Szeanrios — wie etwa im Inneren aller Schwarzen Löcher oder im Quantenschaum — die Aussagen  
i d e a l e r  Betrachtung beliebig weit von  r e a l e n  Gegebenheiten abweichen können.

Fakt ist: Worüber ich nix weiss, kann ich auch nix berechnen.
Alles was sich innerhalb des Ereignishorizontes eines SL abspielt, ist für den Betrachter ausserhalb nicht ersichtlich.


Richtig, Hans-m, das kommt noch dazu.

Mir kam es aber darauf an, zu sagen, dass mit zunehmender Nähe zur Singularität die Ungenauigkeit, die ich mir beim Nutzen des nur näherungsweise gültigen Modells einhandle, sehr schnell überhaupt nicht mehr abschätzbar wird.

 

  Beitrag 2016-45
Macht sie wirklich Raum und Zeit ununterscheidbar?

 
 
Nochmals zurück zur Raumzeit im Sinne der ART:

Mir ist schon bekannt, dass Wikipedia und auch andere Quellen sagen:

Zitat von Wikipedia:
 
Die Raumzeit bezeichnet in der Relativitätstheorie die Vereinigung von Raum und Zeit in einer einheitlichen vierdimensionalen Struktur mit speziellen Eigenschaften (z. B. "Kausalität"), in welcher die räumlichen und zeitlichen Koordinaten bei Transformationen in andere Bezugssysteme miteinander vermischt werden können.

Ein Beispiel für eine solche "Vermischung" ist mir bisher nicht über den Weg gelaufen.

Wer kann mir sagen, wo ich ein möglichst einfaches tatsächlich nachgerechnet finden kann?

 

  Beitrag 2016-49
-

 
 
E... aus 2016-47:
 
Aber eine "Vermischmaschine" gibt es da nicht.

Siehst du, E...,

das genau ist der Punkt. Auch ich kann weder an den von dir genannten Stellen noch irgendwo sonst, so eine "Vermischmaschine" erkennen.

Gruß, grtgrt
 

  Beitrag 2031-49
Über die hohe Genauigkeit von Einsteins Gravitationstheorie

 
 
E... aus 2031-42:
 
Zitat aus einem Standardwerk über Galaxien-Dynamik von
J. Binney und S. Tremaine: >Galactic Dynamics< ISBN 0-691-08445-9 von 1988 der Princeton University Press, Seite 635

Zitat:
Bisher wurde angenommen, dass die allgemeine Relativitätstheorie bzw. die Newtonsche Gravitation auf großen Skalen gelten. Tatsächlich gibt es aber wenig oder gar keine direkten Belege dafür, dass die konventionellen Gravitationstheorien auch auf Skalen korrekt sind, die z.B. viel größer als ein Lichtjahr sind. Die Newtonsche gravitation funktioniert ausgezeichnet auf Skalen von 1012 Metern, also im Sonnensystem. Es ist aber hauptsächlich die Eleganz der Allgemeinen Relativitätstheorie mit ihren erfolgreichen Vorhersagen im Sonnensystem, die uns zu der gewaltigen Extrapolation auf 1021 - 1026 Meter führt.

Auf der folgenden Seite äußert sich Pavel Kroupa vom Argelander-Institut für Astronomie der Universität Bonn, der die Untersuchung gemeinsam mit Kollegen aus Deutschland, Österreich und Australien durchgeführt hat.
http://www.weltderphysik.de/gebiet/astro/news/2009/...
 


Hi E...,

man hat eben erst (2013) einen Weg gefunden, die Theorie Einsteins zur Gravitation — die Allgemeine Relativitätstheorie — auf eine Art und Weise zu überprüfen, die bisher nicht möglich war. Die neuen Beobachtungen stimmen genau mit den Vorhersagen der Allgemeinen Relativitätstheorie überein und sind nicht konsistent mit einigen alternativen Theorien.

Mehr dazu findest Du in einer Pressemitteilung des ESO mit dem Titel » Einstein behält recht «.
PS: Gravitationswellen kosmischen Ursprungs werden von der Allgemeiner Relativitätstheorie vorhergesagt, konnten aber bis heute trotz zahlreicher experimenteller Tests nicht direkt nachgewiesen werden. Einen ersten (wenigstens indirekten) Hinweis auf die Existenz dieser Wellen hat 1974 Russell Hulse entdeckt: Es ist der Doppelpulsar PSR 1913+16. Die Variationen in der Umlaufbahn dieses Doppelsystems stimmen exakt mit den Vorhersagen der Allgemeinen Relativitätstheorie zur Abstrahlung von Gravitationswellen überein. Hulse erhielt 1993 für diese Entdeckung den Nobelpreis für Physik.

Der jetzt (2013) entdeckte Pulsar PSR J0348+0432 ist nur ein zweites Beispiel dieser Art — aber natürlich willkommene Bestätigung dafür, dass man Hulses Entdeckung richtig gedeutet hat.

Gruß, grtgrt
 

  Beitrag 2035-25
Wie sich in der Relativitätstheorie Geschwindigkeiten addieren

 
Hallo Struktron,

herzlich wilkommen im Forum.

Struktron aus 2035-21:
Nun entfernen sich die Satelliten so voneinander, dass unsere Signale genau in gegengesetzte Richtung fliegen müssen, um die Satelliten zu erreichen. Bei der Ankunft sind beide wiederum von uns genau 300.000 km entfernt. Die Ankunftsmeldung kommt auch wieder nach einer Sekunde.
Mit welcher Geschwindigkeit haben sich die Wellenfronten voneinander entfernt?

Die Formel zum Addieren relativistischer Geschwindigkeiten lautet:

vr = ( v1 + v2 )/( 1 + (v1v2)/c2 )


wobei vr die resultierende Geschwindigkeit meint und v1 und v2 die zu addierenden Geschwindigkeiten.

Setzt man nun für v1 und v2 c ein, so lautet das Ergebnis c und nicht 2c.

mfg okotombrok
 

  Beitrag 2035-40
Kosmologie kennt zweierlei Arten von Geschwindigkeit und Beschleunigung

 
 
Hi Okotombrok,

nachdem Henry mich so gründlich missverstanden hat, will ich meine Festellung und meine Frage aus Beitrag 2035-31 hier nochmals deutlicher formulieren:


Die Physik unterscheidet — ganz anders als die Mathematik —
  • zwei verschiedene Arten von Beschleunigung und
  • korrespondierend dazu auch zwei verschiedene Arten von Geschwindigkeit.

Deine Aussage in Beitrag 2035-24 verstehe ich so, dass Du sagen wolltest:
  • Beschleunigung, die Trägheitskräfte zu überwinden hat, kann nur zu Geschwindigkeiten v < c führen.
  • Beschleunigung, die durch "dunkle Energie" hervorgerufen wird, erzeugt keine Trägheitskraft und kann zu Geschwindigkeiten führen, die größer als die Lichtgeschwindigkeit sind.

Nun also meine Frage:

Nach allem, was ich weiß, kennt die ART beide Arten von Beschleunigung und Geschwindigkeit. Wie aber unterscheidet sie zwischen ihnen?

Gruß, grtgrt
 

  Beitrag 2089-11
Krümmung des Raumes und (dort) von Null verschiedenes Energiepotential sind ein und dasselbe

 
Henry in 2089-7:
aber noch bedeutender ist die revolutionäre neue Auffassung der Gravitation nicht als Kraft, sondern als Krümmung der Raumzeit.

Hallo Henry,
ich würde eher sagen, auch nach der ART bleibt die Gravitation als eine der vier Grundkräfte der Natur erhalten.

Vielmehr verleiht die Krümmung der Raumzeit den Körpern Masse und die Masse der Körper verursacht die Krümmung der Raumzeit. Was ich an dieser Konstruktion nicht verstehe ist, dass es für mich wie ein Zirkelschluss erscheint.

MfG
Harti
 

  Beitrag 2089-14
-

 
 
Hans-m in 2089-13:
 
Wie aber definiere ich nun die Energiepotenziale und wie die daraus resultierenden Raumkrümmungen?

Wohlgemerkt, ich meine hier nicht die Masse von Objekt 1,2 oder 3, sondern die kinetische Energie der Objekte untereinander.
Solange die Objekte in Bewegung sind habe ich eine Längenkontraktion. diese entfällt aber, wenn sich die Objekte nicht mehr relativ zueinader bewegen.


Hallo Hans-m,

eine absolut vollständige Antwort kann ich dir sicher nicht geben, wohl aber einige Denkanstöße:
     
  • Zur letzten Aussage deines Zitats sei gesagt: Die Längenkontraktion existiert nur aus  S i c h t  von relativ zum Objekt sich bewegender Beobachter.
    BEWEIS: Die Tatsache, dass es Beobachter geben kann, die sich unterschiedlich schnell relativ zum betrachteten Objekt bewegen — also unterschiedlich starke Längenkontraktion sehen —, zeigt ganz klar, dass die Längenkontraktion nur in der Wahrnehmung dieser Beobachter existiert,  n i c h t  aber in der Struktur des Raumes vorhanden sein kann (!).
     
  • Was Wege zur Berechnung des Potentialfeldes betrifft, geht mir Folgendes durch den Kopf:
    Einstein hat gezeigt, dass sich Kräfte, die ein Objekt beschleunigen, von Gravitationskräften (der Kraft also, die der Gegenwart von Energiepotential geschuldet ist) in keiner Weise unterscheiden lassen. Das scheint mir auch irgendwie logisch zu sein, denn Ursache aller Beschleunigung ist Kraft, d.h. die Gegenwart von Energiepotential.
    Jede an einem Ort X wirkende Kraft lässt sich beschreiben als Vektor k(X), der bestimmte Richtung und bestimmte Länge hat. Die Summe aller Kräfte — die Summe aller Energiepotentiale also, die sich dem Ort X zuordnen — ist gegeben als Summe dieser Vektoren.
    Damit, so denke ich, ist deine Frage, wie sich denn das einem Ort X zugeordnete Energiepotential berechnen lässt, wenigstens im Prinzip geklärt.
    Wer es wirklich berechnen will, wird dennoch seine Schwierigkeiten haben, denn:
       
    • erstens muss er ja feststellen, welche Kräfte wirken (d.h. welche Kraftquellen da sind und wie weit weg von Stelle X sie sich befinden)
    • zweitens muss berücksichtigt werden, dass diese Kraftquellen sich i.A. relativ zu X bewegen, und
    • drittens wird in die Berechnung irgendwo eingehen müssen, dass nicht alle 4 Grundkräfte sich identisch verhalten.


In der Hoffnung, Dir hiermit gedient zu haben,
Gruß, grtgrt
 

  Beitrag 1997-26
Raumzeit und ART vs SRT

 
Henry in 1997-23:
Zur Union von Raumzeit und Materie würde ich allerdings sagen, Einstein hat die Raumzeit und die Materie in ein dynamisches Wechselspiel geführt, sie beeinflussen einander durch ihre gegenseitige Wirkungen - Materie krümmt die Raumzeit, die Krümmung der Raumzeit gibt der Materie ihre Bewegungsrichtung vor.

Hallo Henry,

richtig, genau das wollte ich mit dem Schlagwort "Union zwischen Raumzeit und Materie" zum Ausdruck bringen. Also, volle Übereinstimmung.

M.f.G Eugen Bauhof
 

  Beitrag 1997-29
-

 
 
Harti in 1997-27:
Hallo zusammen,

ich formulier die Erkenntnis aus der vektotriellen Betrachtung noch mal sprachlich:

Raumzeitlich bewegen sich die Zwillinge vom Ereignis A (Start des Reisezwillings) zum Ereignis B (Rückkehr des Reisezwillings). Diese Bewegungen beider Zwillinge sind raumzeitlich gleich. Es gibt bei dieser raumzeitlichen Betrachtung weder eine Zeitdilatation noch eine Längenkontraktion, weil es die Unterscheidung bzw. den Gegensatz zwischen Raum und Zeit nicht gibt.


Nun Harti,

ich würde es – weniger missverständlich – so formulieren:
    Die beiden Zwillinge bewegen sich von A nach B auf unterschiedlichen Wegen durch die Raumzeit.
    Je nachdem, welchen Weg sie nehmen und welch unterschiedlicher Beschleunigung sie dort ausgesetzt sind, werden sie mehr oder weniger schnell altern. Dies bewirkt, dass — wenn sie sich in B erneut treffen — ihr Alter unterschiedlich sein wird, trotzdem sie in A noch gleich alt waren.


Nebenbei: Der Gebrauch der Worte » Zeitdilation « und » Längenkontraktion « ist nur angebracht, wo man beobachterspezifische  S i c h t e n  miteinander vergleicht. Diese Worte beschreiben (wie Du intuitiv richtig erkannt, aber keineswegs überzeugend verargumentiert hast) keine Eigenschaften der Raumzeit.

Gruß, grtgrt

 

  Beitrag 1997-16
-

 
 
Bauhof in 1997-14:
 
die Vereinigung von Raum und Zeit zur Raumzeit hat nicht direkt Einstein, sondern Hermann Minkowski vollzogen.

Es sind nur Modell-Vorstellungen. Zeit ist eine Modellvorstellung und Raum ist eine Modellvorstellung. Minkowski hat beide Modellvorstellungen zur Modellvorstellung Raumzeit vereinigt. Warum? Weil sich mit der Raumzeit bessere nachprüfbare Vorhersagen machen lassen als mit den beiden alten Modellvorstellungen.


Das ist nur rein formal richtig insofern als Minkowski auf dem durch Einstein in der SRT betrachteten Raum — den er damals noch einfach als durch Raum und Zeit aufgespannten 4-dimensionalen reelen  V e k t o r r a u m   sah — eine Metrik definiert hat: eben jene, die man heute die Minkoski-Metrik nennt.

Erst die ART hat dann Raum und Zeit  u n t r e n n b a r  miteinander verschweißt.

 

  Beitrag 1997-18
-

 
 
Henry in 1997-17:
Gebhard, das Zitat:

" Von Stund′ an sollen Raum für sich und Zeit für sich völlig zu Schatten herabsinken und nur noch eine Art Union der beiden soll Selbständigkeit bewahren."


von Minkowski stammt aus dem Jahre 1908 und bezieht sich auf seine vierdimensionales Analogen einer Kugel (Raum + Zeit) und auf die SRT. Die ART als Theorie der Gravitation beschreibt die Krümmung der Raumzeit, die dort mit Tensoren formal beschrieben wird.


Ja, Henry, das ist so (steht aber keineswegs in Widerspruch zu meiner Aussage).

 

  Beitrag 1997-61
-

 
 
Harti in 1997-59:
Grtgrt in 1997-53:
Raum und Zeit sind deswegen in der Argumentation sauber auseinander gehalten,
und nur deswegen kann sich die SRT leisten, als Bezugssystem keine 4-dim Mannigfaltigkeit, sondern nur einen 4-dim-Vektorraum zu haben

Hallo Grtgrt,

Muss man nicht eigentlich aus der Tatsache, dass man zwei Koordinaten verwendet, die senkrecht aufeinander stehen, schließen, dass Raum und Zeit getrennt werden ?
Die Veräumlichung der Zeit, indem man die Zeit (t) mit der Lichtgeschwindigkeit (c) multipliziert und die Zeitachse ct-Achse nennt, ändert doch daran nichts.


Ja, auch ich sehe das so.


Harti in 1997-59:
 
Kannst Du mir als mathematischen Laien die Begriffe 4-dim Vektorraum und 4-dim Mannigfaltigkeit und insbesondere den Unterschied zwischen beiden erklären ? Ich nehme an, es handelt sich bei einer Darstellung von Vektoren mit zwei Koordinaten, eine für die Zeit und eine für den Raum, um einen reduzierten, zweidimensionalen Vektrorraum.
 


Hallo Harti,

zunächst mal: Mannigfaltigkeiten zu kennen gehörte (als ich an der TU München studiert habe) nicht zum Stoff, den beherrschen musste, wer die Diplomprüfung für Mathematik bestehen wollte. Insofern werden auch viele Mathematiker in der Hinsicht einfach nur Laien sein.

Damit meine Erklärung des wesentlichen Unterschiedes zwischen Vektorraum und Mannigfaltigkeit verständlich ausfällt, will ich diese beiden Begriffe hier nicht definieren, sondern Dir lediglich den Unterschied zwischen ihnen erklären.

Hierzu sei angenommen, dass
    R(SRT) den 4-dim Raum der SRT bezeichnet, der topologischer  V e k t o r r a u m  ist, und
    R(ART) die 4-dim Raum der ART, der topologische  M a n n i g f a l t i g k e i t  ist.

Topologisch zu sein bedeutet (in diesem Fall), dass auf beiden Räumen ein durch die Minkowski-Metrik gegebener Abstandsbegriff definiert ist.

Dass wir die 4-dim Version dieser Räume betrachten — also nicht, wie etwa die Stringtheorie, gleich 10 Dimensionen voraussetzen — spielt keine Rolle für den
Unterschied zwischen » Vektorraum « einerseits und » Mannigfaltigkeit « andererseits.


Da der Raum R(SRT) ein Vektorraum ist, gilt:
    Jedes im Raum gewählte Koordinatensystem K(u), u sein Ursprung, ist brauchbar über den gesamten Raum hinweg.
    Der per Minkowski-Metrik errechnete Abstand zweier Punkte ist — seinem Wert nach — nicht abhängig vom gewählten Koordinatensystem.

Da der Raum R(ART) eine Mannigfaltigkeit  ist, gilt:
    Jedes im Raum gewählte Koordinatensystem K(u), u sein Ursprung, ist nur in einer hinreichend kleinen Umgebung U von u brauchbar.
    Für sie gilt, dass mindestens eine positive reelle Zahl ε(u) existiert, so dass alle Punkte x aus R, die von u kleineren Abstand als ε(u) haben, zu U gehören und dass ferner kein Punkt aus U Singularität des Raumes ist.
    Insbesondere existiert  k e i n   e i n z i g e s  Koordinatensystem, in das sich  a l l e  Punkte des Raumes einordnen lassen.

Man merke sich also:

Ein Raum, der Singularitäten enthält, kann kein Vektorraum sein.

In einer Mannigfaltigkeit aber ist jedes Koordinatensystem nur  l o k a l  brauchbar,
d.h. nur in einer hinreichend kleinen Umgebung seines Ursprungs.


Gruß, grtgrt
 

  Beitrag 1985-359
-

 
 
Henry in 1985-358:
 
Man kann es auch kräftiger ausdrücken:

Es gibt keine Inertialsysteme, und die SRT ist als Spezialfall innerhalb der ART ein rein gedankliches Produkt und keinesfalls die Grundlage der ART.


Ja, Henry,

auch ich sehe das exakt so.


Gruß, grtgrt
 

  Beitrag 2080-35
Das Blockuniversum — ein allzu ungenaues, nicht wirklich hilfreiches Modell

 
 
Henry in 2080-33:
 
... er [Einstein] war später der Ansicht, seine Raumzeit sei real, was ihn sogar soweit brachte, ein Blockuniversum als wahrscheinlich anzunehmen.


Hallo Henry,

es würde mich sehr wundern, wenn es eine Literaturstelle gäbe, in der Einstein selbst den Begriff "Blockuniversum" in den Mund nimmt.

Meiner Ansicht nach wird dieser Begriff nämlich nur von Leuten verwendet, die sich nicht darüber klar sind, dass die 4-dimensionale Raumzeit der ART (anders als die der SRT) eben  k e i n  4-dimensionaler Vektorraum ist, sondern nur 4-dimensionale Mannigfaltigkeit, und dass man deswegen durch Fixieren eines Wertes z1 auf der Zeit­achse auch nicht wirklich einen Schnitt durch die Raumzeit bekommt, der den gesamten Raum zu Zeitpunkt z1 darstellen würde.


Zeitpunkte im Sinne der ART machen stets nur  l o k a l  Sinn,

und so sind Zeitscheiben im Sinne des Blockuniversums gar keine wohldefinierten Konzepte.


 

  Beitrag 1985-356
Beschleunigung (jeder Art) entspricht einer Krümmung der Raumzeit

 
 
Henry in 1985-354:
 
Also nur als Ergänzung: Man kann Gravitation und Beschleunigung nicht mit denselben Gleichungen behandeln, weil Beschleunigung durch eine Kraft erzeugt wird, während die Gravitation laut ART aber keine Kraft ist, sondern die Krümmung der Raumzeit, also eine geometrische Beschreibung darstellt. Gravitation und Beschleunigung sind äquivalent, was ihre Wirkung angeht, aber nicht identisch.


Hallo Henry,

ich habe Zweifel, ob wirklich richtig ist, was Du hier sagst.

Schließlich hat Einstein selbst — z.B. mit seinem Fahrstuhl-Gedankenexperiment — immer wieder darauf hingewiesen, dass Kräfte, die beschleunigen, sich ihrer Ursache nach in keiner Weise unterscheiden lassen: Sie alle gehorchen ein und demselben mathematischen Gesetz, und so müssen sie sich doch wohl auch  a l l e  als Raumkrümmung deuten lassen.


Gruß, grtgrt

PS: Wo auf ein Objekt Beschleunigungskräfte unterschiedlicher Herkunft wirken, wird das Objekt sie stets als in genau  e i n e  Richtung ziehende Kraft wahrnehmen ganz so als hätten sie nur eine einzige Quelle und Ursache (was wirkt, ist die vektorielle Summe aller Kräfte).

Die Krümmung des Raumes im Sinne der ART scheint mir durch die Forderung definiert, dass dieser Kraftvektor überall zum Nullvektor werden muss.

Im übrigen ist es genau (und nur) diese Forderung, welche garantiert, dass jeder Punkt der Raumzeit (auch der ART) eine Umgebung hat, in der — wenn man sie klein genug wählt — die Gesetze der SRT gelten.

 

 Beitrag 0-187
Astronomie in Zahlen

 
 

 
Astronomisches

 
 
Unsere Sonne strahlt und verliert so jede Sekunde 4,24 Mio Tonnen ihrer Masse.
 
Daraus folgt: Sie verliert in 1 Milliarde Jahren etwa 22 Erdmassen. Dies sind jedoch nur 0,007 Prozent ihrer heutigen Masse. [src]

     
    mS = Sonnenmasse = 1,98 • 1030 kg
     
    mE = Erdmasse = 4,24 • 109 kg

 
 
Die am 14.9.2015 erstmals gemessenen Gravitationswellen entstanden vor 1,3 Milliarden Jahren bei Zusammenprall zweier Schwarzer Löcher, deren Masse
29 bzw. 36 Sonnenmassen betrug. Das daraus resultierende größere Schwarze Loch aber war nur 62 Sonnenmassen schwer.
 
Damit gingen im Moment ihrer Ver­einigung (der 0,45 sec währte) etwa 3 Sonnenmassen an Energie in Form entstehender Gravitationswellen verloren.
 
Quellen: SpeWiss, gmx, FFr1, FFr2, seeVideo, MP, MPVideo, genauer, origin, Gassner
 
 

 
 


 

 Beitrag 0-160
Der Urknall: Wo selbst die Wissenschaft an Wunder glaubt

 
 

 
Selbst Wissenschaft stößt auf Wunder

 


Terrence McKenna ( in: Denken am Rande des Undenkbaren ):
 
Die ungeheuere Unwahrscheinlichkeit, auf der die moderne Wissenschft beruht, — ohne dass sie jedoch bereit wäre, sie zur Diskussion zu stellen, — ist die Annahme, das Universum sei in einem einzigen Moment dem Nichts entsprungen.
 
Wenn man das glauben kann, dann dürfte es kaum etwas geben, was man nicht glauben könnte.
 



Augustinus ( 354-430, ein Kirchenlehrer ):
 
Wunder geschehen nicht im Gegensatz zur Natur,
 
sondern nur im Gegensatz zu dem, was wir von der Natur wissen.

 


 
Wie man sieht, vertauschen Wissenschaft und Religion schon manchmal ihre Rollen.
 
 
Quelle: Mathias Bröckers: Das sogenannte Übernatürliche, Eichborn 1998


 

 Beitrag 0-161
Der Mensch — Wird er die nächste planetarische Katastrophe verursachen?

 
 

 
Der Mensch — Saatkorn der nächsten planetarischen Katastrophe?

 


Mathias Bröckers, 1998 :
 
Vor etwa 65 Millionen Jahren hat eine Naturkatastrophe — wahrscheinlich der Einschlag eines großen Metereoiten — nicht nur sämtliche Saurier, die damals mächtigsten Bewohner der Erde, sondern in der Folgezeit auch zwei Drittel aller damals existierenden Lebewesen vernichtet.
 
Heute — so haben Wissenschaftler errechnet — hat die Massenausrottung von Arten ein ebenso großes Tempo erreicht wie nach jenem kosmischen Unfall in der Kreidezeit.
 
Doch dieses Mal heißt die Katastrophe » Mensch « :

 
Nach dem jahrhundertelangen Irrglauben, dass der Mensch die Krone der Schöpfung sei, die Welt beherrsche und sich auf aufsteigendem Ast befinde, kommt uns heute mehr und mehr der Verdacht, dass wir auf dem besten Wege sind, den Ast, auf dem wir — als Gattung — sitzen, abzuschneiden.
 


 
 
Quelle: Mathias Bröckers: Das sogenannte Übernatürliche, Eichborn 1998


 

  Beitrag 2085-267
Was nur gedanklich existiert ...

 
 
Harti in 2085-266:
Hallo

ist es nicht aber trotzdem sinnvoll (zweckmäßig) zwischen dem, was sinnlich wahrnehmbar ist, und dem, was (nur) gedanklich vorstellbar ist, zu unterscheiden.

Ich nehme an, dass Ersteres von den meisten Menschen mit dem Begriff "Realität" assoziiert wird, während das Zweite gedanklich Vorstellbares, z.B. grüne Männchen auf einem fernen Planeten, Produkte/Konstrukte unserer Phantasie sind.


Hallo Harti,

all das, was nur gedanklicher Natur ist, ordnet sich zwei völlig verschiedenen Klassen zu:
  • die eine ist die Klasse alle reinen Phantasieprodukte (grüne Männchen auf einem fernen Planeten, ein wirrer Traum, aber z.B. auch viel von dem, was wir als Kunst bezeichnen)
  • die andere aber ist die der mathematischen und logischen Gesetzmäßigkeiten, denen selbst noch die Natur ausnahmslos gehorcht.

Gruß, grtgrt
 

  Beitrag 2085-269
Wie etwas wahrzunehmen eine neue Version davon erzeugt (ein Bild) — aber eben nur manchmal!

 
 
Stueps in 2085-268:
 
... ist es vielleicht sogar absurd, unsere Wahrnehmung von der Realität zu trennen. Wir sind ja diese Realität.


Hallo Stueps,

mir scheint, Du wirfst hier zwei völlig verschiedene — aber gleich reale — Dinge in einen Topf:
  • einmal das, was wahrgenommen wird (von dir "Realität" genannt)
  • und zweitens das, was als Folge solchen Wahrnehmens im Kopf des Wahrnehmenden entsteht (von dir "Wahrnehmung" genannt).

Man darf beides nicht als ein und dasselbe sehen, und deswegen beantworte ich Hartis Frage

Harti in 2085-266:
Hallo

ist es nicht ... sinnvoll (zweckmäßig) zwischen dem, was sinnlich wahrnehmbar ist, und dem, was (nur) gedanklich vorstellbar ist, zu unterscheiden?

kurz und bündig mit einem klaren JA.


Um mit deinen Begriffen zu sprechen:

Die Wahrnehmung ist ein Teil von uns (falls wir der Wahrnehmende sind),
aber i.A. ist die Schnittmenge zwischen uns und dem, was wir beobachten, leer.

Allein schon dadurch ist bewiesen, dass man das, was du die "Wahrnehmung" nennst, nicht mit dem gleichsetzen kann, was du die "Realität" nennst.



Verwirrend an der ganzen Situation ist nur, dass es Ausnahmen von dieser Regel gibt: z.B. mathematische Gesetzmäßigkeiten. Sie nämlich existieren unabhängig von uns, werden aber dadurch, dass wir sie entdecken, zu einem Teil unseres Wissens, unser Wissen aber ist ein Teil von uns.

Die einzig mögliche Schlussfolgerung daraus scheint zu sein, dass wir in diesem Fall etwas entdeckt haben, was schon immer Teil unserer selbst war. Die Beobachtung hat es uns lediglich bewusst gemacht (aber i.A. ohne dass uns dabei gleichzeitig bewusst wurde,  d a s s  dem so ist).

Gruß, grtgrt
 

  Beitrag 2085-273
Was modelliert wurde, muss deswegen noch lange nicht  w i r k l i c h  existieren

 
 
Bernhard Kletzenbauer in 2085-272:
Nachtrag
Damit nicht wieder lang über real und unreal debattiert wird.

Als imaginäre Gedankengebilde oder Phantasieprodukte (siehe: Beitrag 2085-267 ) bezeichne ich persönlich solche Dinge, die nicht materiell ... wahrnehmbar sind und nicht wechselwirken können (Raum, Zeit, Mathematik, Liebe, Götter,...)

Die "RaumZeit" dagegen ist direkt erfahrbar (Gravitation) und wechselwirkt mit Materie und Strahlung. (Beitrag 2085-262 )
Deshalb stufe ich sie auch als "materiell" ein.

Das Problem bei Diskussionen ist, daß diese materielle "RaumZeit", allein schon wegen des Namens mit imaginärem "Raum" und imaginärer "Zeit" verwechselt wird.


Ja, da gebe ich Bernhard völlig recht:

Man muss das Modell (sei es gedanklich oder nicht nur gedanklich) vom modellierten Gegenstand unterscheiden — was nicht tut, wer immer nur ein und dasselbe Wort für beide verwendet.

Die Frage aber, ob der modellierte Gegenstand tatsächlich existiert, ist damit noch lange nicht beantwortet.

Die Experimentalphysik hat ja schließlich noch nirgendwo ein Stück absolut leere Raumzeit nachweisen können — ganz im Gegenteil: Sie hat überall dort, wo nichts Konkreteres zu finden war, wenigstens Vakuum nachgewiesen — brodelnde Energie also.


 

  Beitrag 2085-276
-

 
 
Haronimo in 2085-275:
 
Was für den einen die Realität ist, könnte für den anderen nur eine dargestellte Simulation sein.

Das ist richtig, es ist halt dann eine nur durch Wahrnehmung erzeugte Realität (einem Bild vergleichbar).

 

  Beitrag 2085-281
Ein interessanter Standpunkt

 
 
Stueps in 2085-280:
 
Wenn wir über das Universum nachdenken, denkt das Universum schließlich über sich selbst nach.
Denn wir sind Teil des Universums, aus dem gleichen Stoff gemacht, den gleichen Regeln folgend. Meines Erachtens haben nicht wir uns zu dem entwickelt, was wir sind, sondern das Universum hat sich zu uns entwickelt.

So gesehen versucht letztlich das Universum selbst, sich wahrzunehmen und sich zu reflektieren. Sich und sein Wesen zu erkennen.


Hans-Peter-Dürr scheint das ähnlich zu sehen.

Aber würde der Versuch des Universums, sich wahrzunehmen und zu reflektieren (der  b e w u s s t e  Versuch wohlgemerkt) nicht bedeuten, dass es ein "Ich" kennt wie wir auch?

 

  Beitrag 2085-282
-

 
Grtgrt in 2085-281:
Aber würde der Versuch des Universums, sich wahrzunehmen und zu reflektieren (der  b e w u s s t e   Versuch wohlgemerkt) nicht bedeuten, dass es ein "Ich" kennt wie wir auch?

Hallo Gebhard,

so weit würde ich nicht gehen, da es zu logischen Widersprüchen führt, wie ich meine.
Aber die Möglichkeit zum Ich-Bewusstsein scheint von Anfang an angelegt worden zu sein, und schließlich zumindest teilweise auch umgesetzt worden zu sein.

Grüße
 

 Beitrag 0-305
Das Konzept » Turingmaschine « definiert den Begriff der Berechenbarkeit

 
 

 
Die Church-Turing-These

 
 
Sie besagt:
 
Die Klasse aller turing-berechenbaren Funktionen stimmt mit der Klasse aller intuitiv berechenbaren Funktionen überein.

 
In anderen Worten:

 
Die Church-Turing-These besagt, dass keine Maschine — kein Computer —
 
ein Problem lösen kann, welches nicht auch durch eine Turing-Maschine lösbar ist.

 
 
Die Bedeutung dieser These — von der man ausgeht, dass sie zutrifft — ist:
 
 
Um zu sehen, ob ein gegebenes Problem mit Hilfe eines Computers und geeigneter Software lösbar ist,
 
braucht man sich nur zu überlegen, ob es durch eine Turingmaschine lösbar ist.

 
 
Eine Turingmaschine heißt  u n i v e r s e l l , wenn sie jede andere Turingmaschine simulieren kann.
 
Man kann beweisen:
     
  • Es gibt universelle Turingmaschinen, und:
     
  • Es gibt Probleme, die keine Turing-Maschine lösen kann.
     
    Ein solches Problem ist das sog. Halteproblem für Turingmaschinen, die Frage also, ob — gegeben eine Turingmaschine T und ein Problem P — die Maschine T angesetzt auf das Problem P zum Halten kommt.
     
  • Selbst jeder Quantencomputer ist durch eine Turingmaschine simulierbar.


 

  Beitrag 1985-350
Durch Gravitation oder Beschleunigung hervorgerufene Kräfte sind ununterscheidbar

 
 
Stueps in 1985-340:
 
Beschleunigung und Gravitation fasse ich in ihren Effekten und Wirkungen als ein und die selbe Sache auf. Beide lassen sich wohl auch mit den selben Gleichungen mathematisch behandeln?


Auf Seite Abenteuer Universum — Beschleunigung und Gravitation liest man:

Zitat:
 
So wie uns Einstein vor Augen führte, dass Energie und Materie dasselbe sind, überlegte er auch, dass

man die Wirkung der Gravitation nicht von der Wirkung einer beschleunigten Bewegung unterscheiden kann.


Ein im Kosmos umherfliegender Astronaut kann mit keinem Mittel feststellen, ob er sich nun bewegt, oder ob er still­steht und der ganze übrige Kosmos an ihm vorbeizieht. Verschließen wir seine Sichtluken gar, kann er nicht mal mehr eine Bewegung feststellen. Denn nun hat er keinen Bezugspunkt mehr, an dem er sich orientieren könnte.
 

 

 Beitrag 0-266
Wie Roger Penrose Bewusstsein charakterisiert

 
 

 
Notwendige Eigenschaften von Bewusstsein

( nach Roger Penrose )

 
 
Der britische Mathematiker Roger Penrose versucht genau zu definieren, wie sich Bewusstsein von Mechanismen unterscheidet, die Bewusstsein nur simulieren (KI etwa).
 
Was Objekte mit Bewusstsein auszeichnet, so argumentiert er, sind
     
  • gesunder Menschenverstand
     
  • zwischen WAHR und FALSCH unterscheiden zu können,
     
  • Verstehen
     
  • und künstlerische Wertung.

Ich, Gebhard Greiter, würde wenigstens noch hinzunehmen:
     
  • Abstraktionsvermögen

 
In bewusste Urteile, so Penrose, gehen viele unbewusste Faktoren ein: Erfahrung, Intuition, Vorurteil, oft sogar falscher Gebrauch von Logik. Und so ist Ergebnis solchen Urteilens durch Dritte niemals mit Sicherheit verhersagbar.


Penrose (auf S. 401 seines Buches Computerdenken):
 
Ich meine deswegen,
     
  • dass nur  u n b e w u s s t e  Hirntätigkeit gemäß algorithmischer Prozesse abläuft,
     
  • während  b e w u s s t e s  Denken davon ganz verschieden ist und in einer Weise vor sich geht, die durch keinen Algorithmus beschrieben werden kann.

Sonderbarerweise sind die Ansichten, die ich hier äußere, fast eine Umkehrung anderer, oft gehörter Meinungen.
 
Häufig wird argumentiert, dass gerade der bewusste Geist sich rational und verständlich benehme, während das Unbewusste rätselhaft sei.
 
KI-Forscher behaupten oft, dass jeder Gedankengang, den man bewusst verstehen kann, sich durch KI automatisieren ließe. Nur bei unbewussten Prozessen habe man — noch! — keine Idee, wie sie sich automatisieren lassen.
 
 
Ich aber vertrete die Meinung, dass unbewusste Prozesse sehr wohl algorithmisch sein können, doch nur auf einem äußerst komplizierten Niveau, dessen Details zu entwirren uns vor ungeheuere Schwierigkeiten stellt.
 
Das vollständig bewusste, ganz und gar logisch-rational erklärbare Denken lässt sich zwar gleichfalls oft algorithmisch formulieren, aber stets nur auf einem ganz anderen Niveau: Nicht auf dem Niveau regelbasierter Vorgänge (dem Feuern von Neuronen usw.), sondern dem Verarbeiten ganzer Gedanken.
 
Manchmal hat diese Gedankenmanipulation algorithmischen Charakter (man denke ans Rechnen), manchmal aber auch nicht (wie etwa beim Finden eines Beweises für Kurt Gödels Unvollständigkeitssatz).
 
Das sich Bilden von Urteilen — welches ich für ein Wesensmerkmal von Bewusstsein halte — kann stets nur teilweise algorithmisch formulierbar sein.
 


 
Dass Penrose mit seiner letzen Feststellung recht hat, erkennt sogar die Justiz an: Oberste Revisionsgerichte – das deutsche Bundesverfassungsgericht etwa – entscheiden nicht selten mit Mehrheit, erkennen also an, dass selbst Richter bewusst unterschiedlicher Meinung sein können.
 
Dass sie dennoch nicht  b e a b s i c h t i g t  unterschiedlicher Meinung sind, d.h. objektiv bleiben, unterstellt man ihnen.
 
Dass Menschen in gleicher Situation zu unterschiedlichem Urteil kommen können, könnte mit daran liegen, dass sie wohl stets auch auf leicht unterschiedlicher Abstraktionsebene denken. Algorithmen aber kennen kein Kontinuum von Abstraktionsebenen.
 
 

 
 
Was hat Bewusstsein mit Ästhetik zu tun?

 
Wie kommt Penrose auf die Idee, dass (s.o.) auch die Fähigkeit zu "künstlerischer Wertung" wichtige Eigenschaft von Bewusstsein sei?


Penrose (auf S. 411 seines Buches Computerdenken):
 
Für mich besteht kaum ein Zweifel, dass die Wichtigkeit ästethischer Kriterien nicht nur für blitzartige Urteile der Inspiration gilt, sondern auch für die viel häufigeren Urteile, die wir uns unentwegt bei mathematischer oder wissenschaftlicher Arbeit bilden:
 
Strenge Beweisführung ist gewöhnlich erst der letzte Schritt. Zuvor muss man viele Vermutungen anstellen, und hierfür sind ästethische Überzeugungen ungeheuer wichtig - natürlich stets eingeschränkt durch bekannte Tatsachen und logisches Folgern.
 
Paul Dirac etwa war der festen Überzeugung, dass erst sein lebhafter Sinn für mathematische Schönheit ihn seine Gleichung fürs Elektron hat erahnen lassen, während andere vergeblich nach ihr gesucht haben. [ Dirac: Pretty Mathematics, in: Int. J. Theor. Physics 21 (1982), S. 603-605 ].
 


Physikalisch in sich abgeschlossene Systeme haben eindeutig den Drang, sich auf stabile Gleichgewichtszustände hin zu entwickeln. Da sie meist besonders symmetrisch sind, könnte man sich fragen, ob die Natur und unser Bewusstsein nicht vielleicht all das als besonders ästehtisch und erstrebenswert einordnen, was – unter gegebenen Randbedingungen – maximal mögliche Symmetrie aufweist.
 
Könnte dann nicht vielleicht Emergenz sich allein deswegen so häufig – und immer wieder mit ganz ähnlichem Ergebnis – ergeben, weil ein der Natur innewohnender Drang existiert, möglichst viel Symmetrie und Gleichgewicht anzustreben?

 

 Beitrag 0-71
Was uns Physiker — Lee Smolin etwa — über die Natur des Bewusstseins sagen

 
 

 
Was Lee Smolin übers Bewusstsein sagt

 


Lee Smolin ( Zitat von Seite 270 seines Buches TIME REBORN, 2013 ):
 

The problem of  consciousness  is an aspect of the question of what the world really is:
 
We don't know what a rock really is, or an atom, or an electron. We can only observe how they interact with other things and thereby describe their relational properties. Perhaps everything has external and internal aspects:
  • The  e x t e r n a l  properties are those that science can capture and describe — through interactions, in terms of relationships.
     
  • The  i n t e r n a l  aspect is the intrinsic essence; it is the reality that is not expressible in the language of interactions and relationships.

Consciousness, whatever it is, is an aspect of the intrinsic essence of brains.
 


Wenn Smolin hiermit recht hat, werden wir nie in der Lage sein, zu verstehen, wie Bewusstsein zustande kommt.
 
Siehe hierzu wie Kant und Bohr die Grenzen der Physik beschreiben:
 
 
Wir kennen die Dinge nur so, wie sie auf uns wirken.
 
Die Physik kann nicht ergründen, wie die Natur funktioniert.

 
 
Es macht dennoch Sinn, darüber nachzudenken, wie sich Bewusstsein — seiner Wirkung und seinem Wesen nach — am ehesten charakterisieren lässt:

 

 Beitrag 0-103
Wie ein Biologe Bewusstsein und Unterbewusstsein definiert: Beide gehen nahtlos ineinander über

 
 

 
Bewusstsein und Unterbewusstsein

 
 
Ulrich Warnke — ein Biologe und Erfinder alternativmedizinischer Behandlungsmethoden — versteht das Bewusstsein biologischer Wesen als Ausläufer ihres Unterbewusstseins:


Ulrich Warnke (2011):
 

Bewusstsein ist die treibende Kraft und die Fähigkeit eines Wesens,
 
Information als solche zu erkennen und zielgerichtet — intelligent also — zu verarbeiten.

 
Bewusstsein ist demnach ein  P r o z e s s . Aber hätte nach dieser Definition nicht jeder Computer ein Bewusstsein? Nein, keineswegs, denn:
 
Allein nur das Bewusstein zu betrachten, bedeutet, die Rolle des Unterbewusstseins nicht ausreichend zu würdigen.
 
 
Das Unterbewusstsein des Menschen befähigt ihn,
 
Information auch über Gefühle zu empfangen und intelligent zu verarbeiten:

 
 
Deutlich über 95% aller in einem Menschen stattfindender Intformationsverarbeitung wird vom Unterbewusstsein erbracht. Es nimmt etwa 109 Informations­einheiten pro Sekunde auf. Kaum 1% davon gelangt über die Bewusstheitsschwelle.
 
Wichtiger noch: Unsere über das Bewusstsein gesteuerte Vernunft hat keine Kontrolle über die automatisch ablaufenden Gefühlsaktivitäten des Unterbewusst­seins, und das ist gut so, denn die Automatik des Unterbewusstseins reagiert hochintelligent und um Größenordnungen schneller als unser bewusst arbeitender Verstand. Dies dient unserem Schutz, und zudem bekommen wir so die Möglichkeit, uns in unserem bewussten Denken auf das jeweils Wesentliche zu konzentrieren, so dass wir nicht gehemmt werden durch einen Zwang, alle uns ständig überflutende Information komplett verarbeiten zu müssen: Wir können in eigener Entscheidung Prioritäten setzen.
 


 
Wie gut unser extrem schnelles Unterbewusstsein unser eher langsames Bewusstsein unterstützt,
 
machen folgende Beispiele klar:

 
 
Zuschauer bei Formel-1-Rennen können die genaue Position des Rennwagens sehen, auch wenn dieser mit 320 km/h fährt (also 83 Meter/sec zurücklegt).
Das sollte eigentlich unmöglich sein, denn unser Gehirn hat eine Erkennungsverzögerung von 100 ms, was bei dieser Geschwindigkeit 8,3 Metern entspricht.
 
Wir besitzen also einen Vorschaumechanismus, ein vorwegnehmendes Erkennen beweglicher Stimuli durch die Netzhaut. Es konnte nachgewiesen werden, dass der Sehapparat, gesteuert durch unser Unterbewusstsein, dem Objekt vorauseilt, so dass uns nicht bewusst wird, was unser Auge aufnimmt, sondern stattdessen eine Extrapolation davon, welche die notwendigerweise vorhandene Erkennungsverzögerung exakt ausgleicht.
 
 
Derek H. Fender (California Institute of Technology) konnte im Experiment nachweisen: Das Auge blickt ganze 6 ms bevor ein auf zufälliger Bahn torkelnder Lichtstrahl einen beliebigen Punkt auf der Wand erreicht, an genau jene Stelle.
 
 
Wenn das Auge ein Objekt erfasst hat, dauert es 30 ms, bis die lichtempfindlichen Nerven angeregt werden. Weitere 5 ms werden benötigt, die Information dem Gehirn zuzuleiten. Und nochmals 100 ms vergehen, bis das Geschehen mit einer entsprechenden Erfahrung assoziiert ist.
 
Von der Wahrnehmung eines Objekts bis hin zum bewussten Erkennen vergehen demnach 135 ms. Die 6 ms vorauseilenden Autofokus mit berücksichtigt, kommt man so auf 141 ms, die unser Sehapparat dem bewussten Erkennen des Objekts vorauseilt.
 
 
Schon in den 80-er Jahren hat Benjamin Libet durch Experimente nachweisen können, dass unser Gehirn zielgerichtet etwas anvisieren kann, noch  b e v o r  unser Bewusstsein davon erfährt (siehe hier). Das Bewusstsein, einen Finger bewegen zu wollen, war in seinen Experimenten erst 200 ms vor der Bewegung vorhanden. Schon 550 ms vor der Bewegung aber war Gehirnaktivität nachweisbar, diese Bewegung vorzubereiten.
 
Man glaubte Libet damals nicht, denn schließlich konnte das bedeuten, dass der Mensch keinen freien Willen hat. Libet selbst aber sah in den Ergebnissen seiner Experimente keinen Widerspruch zur Willensfreiheit. Er konnte sogar zeigen, dass seine Versuchspersonen die Bewegung zwar unbewusst vorbereiteten, dann aber durchaus noch in der Lage waren, sie bis 100 ms vor dem geplanten Ausführungszeitpunkt willentlich zu unterlassen.
 
Nimmt man neuere Versuchsergebnisse hinzu, so steht fest:
 
Das subjektive Erleben eines Willensaktes tritt im Mittel erst 200 ms nach Beginn der Gehirntätigkeit ein, die seine Durchführung vorbereitet.

 
 
 
Quelle: Ulrich Warnke: Quantenphilosophie, Scorpio 2011, Kapitel 4


 

 Beitrag 0-236
Das Wesen des Bewusstseins

 
 

 
Das Wesen des Bewusstseins

( nach Görnitz )

 


Brigitte und Thomas Görnitz (2002):
 

Ein Mensch ist bewusst, wenn er sich dessen bewusst werden kann.

 
Man erkennt hieraus: Wesen mit Bewusstsein müssen in der Lage sein, sich selbst zu reflektieren. Wie im folgenden gezeigt wird, ist das nur möglich, wenn die konkrete Information, welche ihr Wissen über sich selbst darstellt, durch einen quantenphysikalischen Zustand ihres Gedächtnisses gegeben ist:
 
 
Das Wesen des Bewusstseins wird erkennbar an seiner höchsten Stufe, dem reflektierenden Bewusstsein: Es muss in der Lage sein, sich bis hin zum Selbstbewusstsein entwickeln zu können.
 
Selbst der Mensch erwirbt die Fähigkeit zum Ich-Bewusstsein erst  n a c h  seiner Geburt.
 
Reflektiertes Bewusstsein ist Information, die sich selbst kennt. Bewusstsein an sich muss also das Potential haben, sich selbst zu kennen.
 
 
Sich selbst reflektierendes Bewusstsein muss die Möglichkeit haben, konkrete Information über sich selbst auf eine echte Teilmenge dieser Information quasi "isomorph" abzubilden. Dies kann — schon aus mathematischen Gründen heraus — nur dann gelingen, wenn der Zustandsraum des dem Bewusstsein zur Vergüngung stehenden Gedächtnisses unendlich große Kardinalität hat, d.h. wenn er ein quantentheoretischer Zustandsraum ist.
 
Denn: Klassische Strukturen sind eindeutig, können also nur endlichen Zustandsraum haben.
 
Beweis: Sollte ein Zustandsraum isomporph auf eine Teilmenge seiner selbst abbildbar sein, wäre er nicht eindeutig.
 


Aus dem hier Gesagten ergibt sich insbesondere, dass
 
 
auf klassischen Computern implementierte KI keinerlei Bewusstsein haben kann.


 
 
Quelle: Thomas & Brigitte Görnitz: Der krative Kosmos, Spektrum-Verlag (2002), Kap. 12.4, S. 314-320


 

 Beitrag 0-270
Interagieren Bewusstsein und Materie auch über Resonanz in unterschiedlichsten Feldern?

 
 

 
Wie interagieren Bewusstsein und Materie?

 
 
Dass unser Bewusstsein – unser Wille – körpereigene Materie zu deutlicher Reaktion veranlassen kann ist offensichtlich: Es könnte sich ja sonst niemand willentlich bewegen oder auch nur den Arm heben.
 
Wie erstmals Versuche von Jahn und Dunne gut reproduzierbar gezeigt haben, kann der Wille biologischer Lebewesen (von Menschen, aber — wie man zeigen konnte — z.B. auch von Hühnerküken) wenigstens in  g e r i n g e m  Ausmaß selbst auf das Verhalten von  M a s c h i n e n  Einfluß haben:
 
 
Da alle bekannten physikalischen Vorgänge letztlich auf Feldanregungen (Wellen und Wellenpakete) zurückführbar sind, denken Jahn und Dunne, dass dies auch fürs Bewusstsein gelten könnte:
 
So wie ein Elektron am ehesten in der nahen Umgebung eines Atomkern "stark" präsent ist, scheint unser Bewusstsein in unserem Kopf lokalisiert zu sein, könnte aber letztlich – als Wellenpaket – zwar nur dort nenneswerte "Stärke" haben, ansonsten aber – wie  a l l e  Feldanregungen – praktisch überall auch Fernwirkung erzeugen, wenn auch nur extrem schwache.
 
Psychokinese (PK) — so glauben Jahn und Dunne — sei auf solche Fernwirkung zurückführbar.
 
Wie auch der Physiker David Bohm, glauben sie jedoch nicht,
     
  • dass Bewusstsein und Materie isoliert voneinander produktiv werden können
     
  • oder dass Psychokinese auf die Übertragung irgend einer noch unbekannten Kraft zurückführbar sei.

Die Botschaft ist vermutlich subtiler, meint Jahn: Es kann sein, dass es keinen Sinn macht, Materie und Bewusstsein getrennt voneinander zu betrachten. Das einzige, was wir wahrnehmen können - so sagt er - ist die Tatsache, dass sich beide auf irgendeine Weise gegenseitig durchdringen.
 
Wenn nun aber keine Kraftübertragung mit im Spiel ist, worauf ist die Interaktion von Materie und Bewusstsein denn dann zurückführbar?
 
Bohm, Jahn und Dunne vermuten, dass Psychokinese auf einen Austausch von Information zwischen Bewusstsein und Materie zurückführbar sei, den man sich aber nicht als einen Fluß zwischen dem Mentalen und dem Materiellen vorstellen dürfe, sondern eher als Resonanz zwischen den beiden sie darstellenden Wellenpaketen.
 
Interessant ist, dass einige der Testpersonen das sogar selbst so empfanden:
 
Der am häufugsten genannte Faktor, der mit einer erfolgreichen Durchführung des Experiments in Verbindung gebracht wurde, war das Bestreben, einen » Einklang « mit dem zu beinflussenden gerät her­zu­stellen.
 
Ein Proband beschrieb dieses Gefühl als ein Eintauchen in den Prozess, der zu einem Verlust des Ichbewusstseins führt:
    "Ich spüre keinerlei unmittelbare Einwirkung auf den Apparat, sondern eher einen unmerklichen Einfluss, wenn ich im Einklang mit ihm stehe. Es ist als säße ich in einem Kanu: Schwimmt es dorthin, wohin ich will, lasse ich mich treiben, nimmt es aber einen anderen Kurs, versuche ich es aufzuhalten und ihm die Möglichkeit zu geben, den Einklang mit mir wieder herzustellen." [Jahn und Dunne: Margins of Reality, S. 142]

 
 
Einige der Experimente von Jahn & Dunne:
 
 
Robert C. Jahn, Professor für Raumfahrtwissenschaft und zweitweise Dekan der Fakultät für Ingenieurwesen an der Princeton University, wurde nur zufällig PK-Forscher: Er war Fachmann für Raketenantrieb im tiefen Weltraum und Verfasser des maßgeblichen Handbuchs Physics of electric Propulsion für sein Fachgebiet. Er hielt nichts von paranormalen Phänomenen, als sich eine Studentin an ihn wandte mit der Bitte, er möge ein PK-Experiment überwachen, das sie als unabhängiges Studienprojekt durchzuführen plante.
 
Jahn stimmte widerstrebend zu, fand die Versuchsergebnisse dann aber so aufregend, dass er 1979 zum Gründer des Instituts Princeton Engineering Anomalies Research (PEAR) wurde. Seitdem haben PEAR-Forscher
     
  • nicht nur überzeugende Beweise für die Existenz von Telekinese beigebracht,
     
  • sondern auch so viele Daten zu diesem Thema zusammengetragen wie niemand sonst in den USA.

Gemeinsam mit einer engen Mitarbeiterin — der klinischen Psychologin Brenda Dunne — hat Jahn viel Zeit und Mühe darauf verwendet, ein Phänomen zu erforschen, das in den Augen der orthodoxen Fachwelt gar nicht existiert. Dazu Jahn: Ich halte dieses Gebiet für weitaus bedeutender als alles andere, an dem ich jemals gearbeitet habe.
     
  • In einer Versuchsreihe benutzten Jahn und Dunne einen sog. Random Event Generator (REG): ein gerät, welches über einen rein zufallsgesteuerten natürlichen Prozess, wie ihn etwa der radioaktive Zerfall darstellt, Zufallsfolgen binärer Werte 0 oder 1 ermittelt. Man kann ihn interpretieren als einen automatischen Münzwerfer, der in sehr kurzer Zeit eine riesige Zahl von Münzwürfen durchführt. Wie jedermann weiß, sollte das Verhältnis von Kopf und Zahl statistisch gesehen gegen 1:1 konvergieren.
     
    Jahn und Dunne setzten freiwillige Versuchspersonen vor den REG, die sich darauf konzentrieren sollten, eine von der Norm abweichende große menge von Würfen mit Kopf bzw. Zahl zu erreichen. Im Laufe von mehreren Hunderttausend Versuchen stellte sich heraus, dass die Testpersonen tatsächlich einen kleiner, aber statistisch gesehen signifikanten Einfluss auf den Output des REG hatten. Zudem wurde entdeckt:
       
    • Die Fähigkeit, PK-Wirkung zu erzeugen, war nicht auf einige wenige begabte Einzelpersonen beschränkt, sondern bei den meisten der Testpersonen vorhanden.
       
    • Ferner erzielten verschiedene Personen unterschiedliche und durchgängig eindeutige Ergebnisse, die so charakteristisch waren, dass Jahn und Dunne sie als » Signaturen « bezeichneten.

     
  • Bei einer anderen Versuchsreihe verwenden Jahn und Dunne eine Art Spielautomat, in dem 900 Kugeln mit je 1.5 cm Durchmesser um 330 Nylonzapfen kreisten um sich dann schließlich auf 19 Auffangbehälter am unteren Ende des "Spielatomaten" zu verteilen. Das Gerät bestand aus einem 3 Meter hohen und 1.8 Meter breiten Rahmen mit einer klaren Frontscheibe, so dass die Testpersonen zusehen konnten, wie die Kugeln zwischen den Hindernissen nach unten fielen und sich schließlich in den Behältern sammelten. Normalerweise fallen mehr Kugeln in die mittleren Behälter als in die äußeren, und am Ende gleicht die Verteilung einer glockenförmigen, symmetrischen Kurve.
       
    • Wie schon beim REG arbeiteten Jahn und Dunne mit freiwilligen Testpersonen, die - vor dem Apparat sitzend - versuchen sollten, allein durch ihre Willenskraft mehr Kugeln in die äußeren als in die inneren Behälter zu "bugsieren".
       
    • Auch hier gelang es im Laufe zahlreicher Durchgänge das "Landeverhalten" der Kugeln geringfügig, aber signifikant zu verändern.

      Jahn und Dunne denken, damit bewiesen zu haben, dass unser Bewusstein nicht nur mikroskopische Prozesse, wie etwa den Zerfall eines radioaktiven Stoffes, sondern sogar das Verhalten makroskopischer Objekte, den Weg der Kugeln, beeinflussen können.
       
      Mehr noch: Die » Signaturen « einzelner Personen, die schon beim REG-Versuch mitgewirkt hatten, ergaben sich auch wieder beim Spielautomaten-Experiment — mit individuellen Schwankungen, wie sie auch bei anderen Begabungen auftreten.

 
Jahn und Dunne stellen zusammenfassend fest:
    "Kleine Teilergebnisse dieser Art können selbstverständlich der Bandbreite des Zufallsverhaltens zugeordnet werden und rechtfertigen daher keine Revision von herkömmlichen wissenschaftlichen Annahmen. Das Gesamtergebnis aber lässt unbestreitbar eine Abweichung von beträchtlichem Ausmaß erkennen."

Interessant ist, dass Ähnliches galt, als man statt mit Testpersonen noch mit Hühnerküken gearbeitet hat:
 
Getrennt durch einen Zaun gab es in diesem Versuch eine Gruppe von Küken und - auf der anderen Seite des Zaunes - eine einem Huhn möglichst ähnlich gemachte Maschine, welche für Hühner typische Bewegungen ausführte in zufällige Richtungen hin, so dass - solange keine Küken zugegen waren - dieses künstliche Huhn sich durchschnittlich immer gleich weit weg vom Zaun befand.
 
Wurde dann dann gegenüber - jenseits des Zaunes - eine größere Zahl von Küken gesetzt, konnten Jahn und seine Studentin beobachten, wie sich der Schwerpunkt der Orte, an denen sich das künstliche Huhn befand, kaum merklich, aber reproduzierbar signifikant über gewisse Zeitspannen hinweg hin zum Zaun verschob, d.h. hin zu den Küken, die in jener Kunsthenne wohl ihr Muttertier gesehen haben könnten.
 
 
Note: Es sollte jedem klar sein, dass es sich hierbei um Experimente handelt, deren Ergebnis ein Großteil der etablierten Wissenschaftler eher skeptisch betrachtet. Dennoch: Sie scheinen gut dokumentiert, sollten also jederzeit — durch wen auch immer — wiederholbar sein.

 
 
Quellen:
     
  • Michael Talbot: Das holographische Universum (1992), S. 134-138.
     
    Vorsicht aber: Dieses Buch beruft sich spätestens ab Kap. 6 auch auf Quellen, die sicher  n i c h t  als seriös einzustufen sind.
    Selbst wo Talbot ausnahmsweise auch über eigene Erfahrungen berichtet, kann ich ihm nicht glauben. Spätestens beim Schreiben dieses Buches scheint er mir zum Esoteriker geworden zu sein.
     
    Im ersten Teil des Buches allerdings finden sich Meinungen und Theorien von Wissenschaftlern diskutiert, die verdienen, ernst genommen zu werden. Man sollte aber besser deren eigene Schriften studieren, um sicher zu sein, dass Talbot sie nicht sinnwidrig entstellt.
     
    Talbot verweist mehrfach auf Arbeiten von Professoren aus dem Bereich der Psychologie ( z.B. Kenneth Ring, [1], [2] ). Doch welcher Stellenwert ihnen zukommt, ist mir nicht klar. Sind oder waren sie anerkannte Wissenschaftler? Wenn ja: Waren sie es auch noch als Autoren ihrer späten Werke? Wie etwa ist Stanislav Grof einzuordnen? Mir scheint vernünftig, was er z.B. hier zum Verhältnis zwischen Religion — allgemeiner: Spiritualität — und Wissenschaft schrieb.
     
    Talbots Buch ist komplett online einsehbar.
     
  • Lynn McTaggart: The Field (2001)
    Auch hier ist Vorsicht geboten: Lynn McTaggart ist Journalist, nicht Wissenschaftlerin. Auch sind ihre Quellenangaben wenig genau.
     
  • Robert G. Jahn, Brenda J. Dunne: Margins of Reality — The Role of Consciousness in the Physical World (2009)
     
  • Jahn's Bio and Selected Publications on his Engineering Anomalies Research (1987-1996)


 

 Beitrag 0-277
Wo endet Bewusstsein? Endet es überhaupt irgendwo?

 
 

 
Heisenbergs Frage:

Wo endet Bewusstsein?



Heisenberg (1952):
 
Ist es völlig sinnlos, sich hinter den ordnenden Strukturen der Welt im Großen ein » Bewusstsein « zu denken, dessen » Absicht « sie sind?

 
Natürlich ist das eine Vermenschlichung des Problems, denn das Wort » Bewusstsein « ist ja aus menschlichen Erfahrungen gebildet. Also dürfte man diesen Begriff außerhalb des menschlichen Bereichs eigentlich nicht verwenden.
 
Wenn man derart stark einschränkt, wäre es aber auch nicht mehr erlaubt, vom Bewusstseion eines Tieres zu sprechen. Man hat aber doch das Gefühl, dass eine solche Redeweise einen gewissen Sinn enthält.
 
Man spürt, dass der Begriff » Bewusstsein « weiter und nebelhafter wird, wenn wir ihn außerhalb des menschlichen Bereichs anzuwenden suchen.
 


 
Quelle: Werner Heisenberg: Der Teil und das Ganze (1969), S. 290.


 

  Beitrag 949-16
Über die Begriffe Bewusstsein und Wirklichkeit

 
 
H... aus 949-12:
 
warum versucht der Mensch häufig, das wirkliche Etwas zu erfassen??? Was ist denn "wirklich"?


Hallo H...,

wenn deine Frage gemeint war als

Warum versucht der Mensch häufig, das eigentliche Etwas zu erfassen?


scheint mir die Antwort klar: Er ist schlicht und einfach neugierig und frägt sich deswegen, ob das, was er bisher für unbegründbar hielt, nicht vielleicht doch eine Begründung hat.

Ob das, was er dann findet, von höherer oder geringerer Wirklichkeit ist, als das, was er schon kannte, steht auf einem ganz anderen Blatt (und könnte von Fall zu Fall verschieden sein).

Aus Sicht der Quantenphysik jedenfalls ist der Zustand, in den ein Quantum springt, wenn man es beobachtet, sicher konkreter als der Überlagerungszustand, in dem es sich vorher befindet. Ist er aber deswegen auch wirklicher? Mir erscheinen beide als gleich wirklich (es sind halt nur Zustände unterschiedlicher Art).

Wenn ich aber einer Person die Hand schütteln kann, wird sie mir sicher mehr wirklich sein, als wenn ich sie nur über ein Photo kenne (selbst dann, wenn ich sicher sein kann, dass es nicht manipuliert wurde).

 
H... aus 949-12:
 
Was ist den eigentlich Bewusstsein und Wahrnehmung???


Ich definiere:

Ein Ding hat Bewusstsein, wenn es sich selbst von anderen unterscheiden kann.


Die Tatsache allerdings, dass die Philosophen auf diese einfache Erklärung noch gar nicht gekommen zu sein scheinen, macht mich sprachlos.

Dass ein Ding D1 ein anderes Ding D2 wahrnehmen kann, bedeutet in meinen Augen,
  • dass D1 von D2 kommende Signale empfängt
  • und die dazu nutzen kann, sich ein ihm selbst bewusstes Bild (Modell) von D2 zu machen.
Es ist dabei unerheblich, ob die von D2 kommenden Signale durch D2 erzeugt oder (man denke an einen Spiegel) von ihm nur in Richtung D1 umgelenkt wurden.

Beste Grüße,
grtgrt
 

  Beitrag 949-30
Wie könnte man sich kosmisches Bewusstsein vorstellen?

 
 
H... aus 949-21:
 
... wieder die Frage, was "bewusst" ist. Also, wir haben da eine Menge Materie, die sich irgendwie sinnvoll verknüpft hat.
Dann fließen da elekt. Ströme. Und solange die fließen, kann diese Materie in geheimnivoller Weise auf andere Materie reagieren.
Hier geht es wohl noch weiter...
 

Hi H...,

mir scheint, wenn man davon spricht, dass physikalische Objekte ein "Bewusstsein" haben könnten, sollte man dieses Wort nicht allzu wörtlich nehmen — es scheint mir unter allen verfügbaren Begriffen der, der am besten passt. Vielleicht muss das richtige Wort dafür aber erst noch erfunden werden.

Ein Beispiel für physikalisches Bewusstein (so werde ich in Zukunft sagen), spricht zu mir aus Bildern, die zeigen, wie sich Elektronen in den Orbitalen eines Atoms von selbst anordnen (bzw. wie sich Atome in Molekülen nach einem gewissen Muster anordnen). Sie etwa

Man kann sich des Eindrucks nicht erwehren, als ob sich da Elektronen bzw. Moleküle treffen wie Menschen, wenn zu einem Meeting kommen und sich dann ja auch um einen Tisch herum selbst geeignet anordnen (da sie sich der jeweils anderen bewusst sind).

Dieser gedankliche Ansatz scheint mir die Schiene, auf der man sich physikalisches Bewusstsein vorstellen muss: als eine Art Gleichgewicht also, das sich von selbst einstellt. Es kommt zu Störungen, wo solches Gleichgewicht gewaltsam gestört oder verhindert wird, und Störungen in diesem Sinne könnten durchaus vergleichbar sein mit Störungen der Gesellschaft, die eintreten, wenn z.B. Mörder morden, Diebe klauen, oder Diktatoren herrschen, wie Stalin geherrscht hat.

Im einen wie im anderen Fall garantieren die Gesetze der Natur, dass solche Störungen wieder verschwinden (das Gleichgewicht sich also wieder einpendelt). Das kosmische Bewusstsein könnte schlicht und einfach in dem Drang der Natur bestehen, mathematischen Gesetzen folgend immer wieder Gleichgewichte herzustellen (so etwa, wie es passiert, wenn man Wasser in einem Kübel umrührt: Hört man auf umzurühren, wird die Wasseroberfläche schnell wieder glatt).

Beste Grüße,
grtgrt
 

  Beitrag 1730-54
Was ist (menschliches) Bewusstsein?

 
Bevor wir einen gemeinsamen Nenner finden können, sollten wir erst einmal miteinander abgleichen, was wir unter Bewusstsein verstehen.

Für mich ist Bewusstsein das, was wir bewusst wahrnehmen.
Also alles dass, was wir mit unseren Sinnen erfassen können.
Sehen hören, schmecken fühlen etc. all das erleben wir bewusst. Unser Gehirn nimmt es war, und wir wissen darüber.
Bewusst kommt von Wissen.

Was wir nicht wissen, spielt sich auch nicht in unserem Bewusstsein ab.

Wir wissen z.B nicht, was sich vor unserer Existenz abgespielt hat. man kann nur durch Physikalische Erkenntnisse darauf schliessen, was da passiert ist. Aber bewusst hat das niemand erlebt.

Somit ist alles, was sich jenseits unseres Wahrnehmungshorizonts abspielt, sei es räumlich oder zeitlich, kein Bewusstseinsereignis.

Deshalb kann tote Materie auch kein Bewusstsein haben

Nehmen wir einmal an, das Universum gäbe es genau so, wie es ist.
Lediglich gäbe es keine Menschen und keine Tiere mit Bewusstsein. Vielleicht gäbe es auch überhaupt keine Lebewesen.

Wo wäre denn dann das Bewusstsein?


 

  Beitrag 1917-7
Was man unter Bewusstsein (im Sinne der Physik) verstehen könnte

 
 
U...bus aus 1917-5:
 
Was ist denn Bewußtsein?
 

U...bus:

In Beitrag 949-28 und Beitrag 949-30 steht, wie ich diese Frage beantworten würde.

Gruß, grtgrt
 

  Beitrag 1924-11
Ist das sich selbst bewusste Bewusstsein des (oder der) Menschen Teil eines kosmischen Bewusstseins?

 
E... aus 1924-8:
 
Grtgrt aus 1924-1:
Nüchterner und genauer ausgedrückt:
 
Der physische Teil unserer Welt wird geschaffen, geformt, und regiert durch nur gedanklich Existierendes.

Gebhard Greiter (grtgrt),
der hiervon überzeugt wurde durch Argumente von Lothar Schäfer

Was selbst bei der genaueren Formulierung immer noch fehlt, ist ein Hinweis darauf wer oder was da denkt.

Gedanklich existierendes setzt voraus das gedacht wird. In diesem Fall sollte man wissen wer oder was gedacht hat als z. B. unser heimisches Sonnensystem oder noch davor unser Universum entstand. Auch Schäfers Lothar macht dazu leider keine Angaben. Vielleicht hast Du einen Tip, der auch mich in die Lage versetzt, Lothar Schäfer zu folgen.
 

Hi E...,

hiermit sprichst du eine ganz besonders wichtige Frage an. Leider habe ich noch nicht einmal die Ahnung einer Antwort darauf.

Lothar Schäfer scheint " das sich selbst bewusste Bewusstsein " des Menschen wohl als so eine Art Zipfel eines versteckten " kosmischen Bewusstseins " zu sehen. Er verkennt aber keineswegs, dass das verdammt schwierige Fragen, unseren " freien Willen " betreffend, aufwirft. Hier scheint auch er (indirekt) zu sagen: "Leider habe ich noch nicht einmal die Ahnung einer Antwort darauf."

Beste Grüße,
grtgrt
 

  Beitrag 1926-17
Wie lässt sich Bewusstsein nachweisen?

 
 
An alle:

Kann sich jemand ein Verfahren vorstellen, mit dem man testen kann, ob physikalische Objekte (und seien es nur solche bestimmter Klasse) in der Lage sind, sich selbst von anderen zu unterscheiden?

Dass die Elektronen eines Moleküls irgendwie unterschieden werden, habe ich schon in Beitrag 1926-6 erwähnt.
Die Frage dort ist nur: Unterscheiden sie sich selbst oder werden sie unterschieden?

grtgrt
 

  Beitrag 1926-19
-

 
Henry aus 1926-18:
Grtgrt aus 1926-16:
 
Warum soll "sich selbst von anderen unterscheiden können" nicht eine Fähigkeit sein, die ein gegebenes Objekt haben oder nicht haben kann?

"Fähigkeit" ist schon wieder etwas anderes als die Definition dessen, was Bewusstsein ist.

Bei mir eben nicht, denn ich definiere ja:


Bewusstsein zu haben bedeutet, die Fähigkeit zu haben, sich selbst von anderen zu unterscheiden.


Es wäre halt schön, wenn jeder, dem meine Definition nicht gefällt, eine — sorgfältig und komplett formulierte — andere geben würde.



Die Frage, wie man Bewusstsein erkennt, wenn es sich selbst nicht mitteilt, kann man erst dann angehen, wenn Einigkeit darüber besteht, was man denn nun eigentlich unter Bewusstsein verstehen möchte. Anders gesagt: Diese Frage ist erst dann wohldefiniert, wenn sie sich auf eine bestimmte Definition des Begriffes "Bewusstsein" bezieht.

Gruß,
grtgrt
 

  Beitrag 1926-38
Eine noch treffendere Definition von Bewusstsein

 
 
Gregor Lämmer aus 1926-35:
 
Denken ist Bewusstsein.

Das zu behaupten, geht mir zu weit.

Denken ist zunächst mal nur Informationsverarbeitung. Erst wo Bewusstsein dazukommt, wird daraus mehr.

Vielleicht sollte man sagen:

Denken, das sich selbst zum Gegenstand haben kann, bezeichnet man als Bewusstsein.



Gregor Lämmer aus 1926-34:
 
Bewusstsein ist bewusstes Sein.

Es gibt einen Unterschied von "Wissen, dass man weiß" und "Nichtwissen, wie man weiß".

Beide Aussagen finde ich treffend und richtig.

Dennoch scheint mir die erste als  D e f i n i t i o n  von Bewusstsein ungeeignet, da man dann ja sofort fragen müsste, was es denn eigentlich bedeutet, "zu sein".

grtgrt


PS: Brauchbare Definitionen sind nur solche, die
  • entweder den zu definierenden Begriff auf andere, bereits wohldefinierte Begriffe zurückführen,
  • oder den neuen Begriff implizit definieren (sozusagen als Lösung einer logischen Gleichung). In dem Fall allerdings müsste man beweisen, dass jene Gleichung auch tatsächlich Lösungen hat.

 

 Beitrag 0-425
Warum man in der Schule auf elektronische Hilfsmittel verzichten sollte

 
 

 
Warum man in der Schule

auf elektronische Hilfsmittel verzichten sollte

 
 
Wie der Neurologe Manfred Spitzer in seinen Büchern nicht nur darlegt, sondern anhand einschlägiger Studien zahlreicher Wissenschaftler aus unterschiedlichsten Ländern auch nachweist (er nimmt Bezug auf gut 500 Quellen aus wissenschaflichen Veröffentlichungen) wirken sich elektronische Hilfsmittel beim Lernen stark negativ auf Gehirnentwicklung und Lernleistung von Kindern aus, und das umso deutlicher, je jünger die Schüler sind.
 
Hier nur einige Beispiel, die das zeigen:
 
 
Kinder, die — statt Schreibschrift zu üben — nur noch lernen zu tippen, haben selbst noch im Alter von 10 und mehr Jahren enorme Schwierigkeiten, flüssig zu lesen.
 
Dies zeigt am deutlichsten eine Untersuchung aus China:

     
    Man hat dort die Lesefähigkeit von nahezu 6000 Schülern der Klassen 3, 4, und 5 anhand der gleichen Tests untersucht, wie zuvor schon einmal vor 20 Jahren und dann nochmals vor 10 Jahren. Während damals der Anteil der Schüler mit gravierenden Lesestörungen zwischen 2 und 8 Prozent lag, konnten bei der letzten Untersuchung mehr als 40 Prozent der Schüler aus Klasse 4 nicht mehr lesen. In Klasse 5 waren es sogar etwas mehr als die Hälfte.
     
    Die Ursache hierfür war, dass man in den Jahren vor der letzten Untersuchung das Schulsystem umgestellt hat von Handschrift auf Schreiben mit dem Computer, was — der komplizierten etwa 5000 chinesischen Schriftzeichen wegen — dann abläuft wie folgt:
     
    Chinesen verwenden ein ganz normale Tastatur und schreiben Lautschrift, als z.B. "li", worauf sich eine Liste von Wörtern öffnet, die alle wie "li" klingen. Aus dieser Liste wird dann per Mausklick das richtigte Wort als chinesisches Schriftzeichen ausgewählt. Diese Methode (genannt Pinyin) — mit der man dann tatsächlich schnell schreiben kann — wird seit einigen Jahren in chinesischen Grundschulen in der zweiten Hälfte von Klasse 3 erlernt.
     
    Nachteil dieses Verfahrens ist, dass wer nur noch auf diese Weise schreibt, die komplizierten chinesischen Schriftzeichen nicht mehr sicher unterscheiden kann und daher nicht nur die Fähigkeit, sie selbst zu schreiben, sondern auch die Fähigkeit, sie zu lesen mehr und mehr verliert. Dass man damit fast die Hälfte der Bevölkerung zu Analphabeten macht, scheint in seiner Bedeutung noch nicht erkannt worden zu sein.
     
    Im Zuge dieser Untersuchung hat sich auch gezeigt, dass diejenigen Schüler, welche zuhause noch gelegentlich mit der Hand chinesische Schriftzeichen malen, in den Klassen 4 und 5 noch eher des Lesens mächtig waren als jene, die nur noch mit dem Wordprozessor schrieben.

 
Wenn nun Kinder im Grundschulalter statt mit Schreibzeug und Farbstiften zu schreiben und zu zeichnen, stattdessen auf einem Tablet oder einer elektronischen Wandtafel Texte und Bilder zu erstellen oder gar nur abzurufen haben, wird mit Sicherheit ein ähnlicher Effekt eintreten: Einfach deswegen, weil man ja — das Beispiel der chinesischen Schriftzeichen zeigt es — nur das wirklich gut kennenlernt, mit dem man sich eingehend — also nicht nur flüchtig — zu befassen hat.
 
Elektronische Tafeln werden nun aber gerade mit dem Argument gefordert, dass sich mit ihrer Hilfe so schnell — oft per Knopfdruck — ein neues Tafelbild aufbauen lässt.
Zeit zum Überlegen und die Schüler mitzunehmen ist auf diese Weise dann aber immer weniger gegeben!
 
Wir sehen:
 
Die Nutzung elektronischer Hilfsmittel in den Schulen
 
führt zu eher nur flüchtigem Betrachten und Durchdenken dessen, was da elektronisch präsentiert wird.

 
Entsprechend weniger nachhaltig ist der Lernerfolg.


 

 Beitrag 0-416
Warum man Grund- und Hauptschüler nicht mit Computern "beglücken" sollte

 
 

 
Computer für Grund- und Hauptschüler sind kontraproduktiv

 
 
Hätte man 1985 zwei Gruppen von Schülern untersucht — eine mit eigenem Computer und die andere ohne —, so hätte sich klar ergeben: Die mit Zugang zu einem PC sind in der Schule besser. Dieses Ergebnis aber wäre der Tatsache geschuldet gewesen, dass es ja genau die neugierigeren und intelligenteren waren, die damals schon an Computern interessiert waren (man sprich von » Stichproben-Bias « deretwegen sich irreführende Aussagen ergeben).
 
Als man dann aber 2005 die Daten aus der damaligen PISA-Studie analysiert hat, ergab sich genau das Gegenteil: Grund- und Hauptschüler, die einen Computer zu Hause haben, erzielen weniger gute schulische Leistung [Ergebnis einer Studie des ifo Instituts für Wirtschaftsforschung 2005].
 
Der Grund hierfür: Schüler verwenden Computer heute in erster Linie zum Spielen. Für das schulische Lernen steht daher weniger Zeit zur Verfügung.
 
Schlimmer noch: Wer dauern multimedial Monster jagt und für ihr Abschlachten im Spiel belohnt wird, für den liegt es nahe, dass der ganz normale Schulalltag ihm vergleichsweise langweilig erscheint. Und so wird er nicht nur Zeit fürs Lernen verlieren, sondern vor allem auch wichtige Motivation für schulisches Lernen.
 
Was diesen Jugendlichen aber nicht bewusst wird:
    Computerspiele sind ganz gezielt so programmiert, dass der Spielende Belohnungen erhält, um nie die Lust a, Spiel zu verlieren. Dies zu erreichen werden seine vermeintlichen Erfolgserlebnisse keineswegs nur von seiner Geschicklichkeit abhängen, sondern ganz wesentlich auch von Pseudozufall, den die das Spiel treibenden Algorithmen so dosieren, dass hinreichend viele Erfolgserlebnisse eintreten: Dem weniger geschickten Spieler wird halt einfach ein wenig geholfen, denn schließlich will der Hersteller des Spieles ja erreichen, dass der Spieler noch weitere Spiele kauft. [Sp]

 
Kurz: Computerspiele sind für Minderjährige reines Gift.
 
 
Den Spielenden und ihren Eltern wird gar nicht bewusst,
 
wie man sie hier hinters Licht führt, um auf ihre Kosten Geld zu machen.

 
Die Lobby der Spielehersteller ist nicht zu unterschätzen:
    Sie lanciert geschickt Meldungen wie z.B. "Learning by Gaming: Computerspiele kommen endlich in der Schule an". Sogar eine Stiftung Digitale Spielekultur hat man ins Leben gerufen. Deren Sprecherin — eine Frau Wendt — sagt: "Bisher sind wir auf Lehrerinnen und Lehrer zugegangen, mittlerweile kommen sie zu uns".
     
    Marketingstrategen ergänzen das zur scheinbar objektiven Nachricht "Immer mehr Projekte und Initiativen rund um das Thema entstehen, immer mehr Lehrer zeigen Interesse und binden Computerspiele in ihren Unterricht ein". Aus Sicht vieler "Experten" sei das ein überfälliger Trend. Denn dass Spiele beim Lernen helfen können, sei schon lange bekannt. [B]

 
Dass Bildungspolitiker und scheinbar sogar Hochschullehrer sich beeilen, solche wissenschaftlich unhaltbarer Argumentation blind zu folgen, ist ein (recht bedenkliches) Zeichen unserer Zeit.
 
Und so kommt es, dass die Stiftung gemeinsam mit der TH Köln die Plattform Digitale-Spiele­welten.de schaffen konnte, auf der Methoden und Unterrichtsmaterial rund um das Thema "digitale Spiele" zur Verfügung stehen. In welchem Umfang hier — indirekt auch mit Hilfe von Steuergeldern — einfach nur Werbung im Interesse der Spielehersteller gemacht wird, scheint niemand mehr zu hinterfragen — sehr zum Schaden unserer Kinder und Enkelkinder.
 
Dass man heute zahlreiche Schulen mit teuren elektronischen Tafeln ausstattet (die instandzuhalten ebenfalls teuer ist), aber nicht mit genügend Lehrern, zeigt, wie erfolgreich Lobbyismus sein kann — und wie wenig kompentent so mancher Bildungspolitiker in den Kultusministerien heute zu sein scheint. Wer berät ihn da mit welch verstecktem Ziel?

 
 
 
Können Computerspiele süchtig machen?

 
Irgendwann begreifen die meisten jungen Menschen, wie wenig Sinn es macht, die eigene Zeit mit Computerspielen zu verschwenden.
 
Dennoch gibt es einige wenige (in Deutschland sollen es 438000 sein), die sich ihr Leben durch die Sucht zu spielen — Glücksspiele oder Computerspiele — in etwa demselben Ausmaß ruiniert haben, wie man das von Drogenabhängigen kennt: Sucht, Vereinsamung und Verwahrlosung haben sie überwältigt und nicht selten auch ihren Angehörigen das Leben zur Hölle gemacht.
 
Folgende Zeilen aus Bert de Wildt: Digital Junkies: Internetabhängigkeit und ihre Folgen für uns und unsere Kinder (2016) zeigen, was sich da im Extremfall ergeben kann und auch tatsächlich schon ergeben hat:
 
 
 
Wenn Computerspiele süchtig machen

 
 
Lies auch: Wenn Computerspielen zur Krankheit wird.

 
 
 
Wie intensiv spielen 15-jährige deutsche Schüler?

 
Eine 2009 durchgeführte repräsentative Befragung von 15168 Jugendlichen im Alter von 15 Jahren durch das Krimologische Forschungsinstitut Niedersachsen (KFN) hat ergeben, dass
     
  • 4,3 Prozent der Mädchen und 15,8 Prozent der Jungen
     
  • täglich mehr als 4,5 Stunden mit Computer bzw. Videospielen beschaftigt sind.

Als krankhaft spielesüchtig wurden im Rahmen dieser Studie 0,3 Prozent der Mädchen, aber schon 3 Prozent der Jungen erkannt, was hochgerechnet auf alle deutschen Neuntklässler 14400 computerspielsüchtige Jugendliche ergibt.
 
Die Ergebnisse dieser Studie aus Niedersachsen wurden bestätigt durch Daten aus der Studie Berliner Längsschnitt Medien, in deren Rahmen man 1156 Grundschüler aus Berlin befragt hat.
 
Das größte Suchtpotential hatte dem Studienergebnis zufolge das Spiel World of Warcraft, das derzeit an Jugendliche ab 12 Jahren ausgegeben werden darf. Christian Pfeiffer, der Leiter des KFN, fordert ein komplettes Verbot dieses Spiels für Minderjährige. Aus neurowissenschaftlicher Sicht, so Manfred Spitzer, muss man sich dem anschließen.
 
 
 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012, Droemer)

 

 

 Beitrag 0-422
Wen man als » süchtig nach Computerspielen « bezeichnet

 
 

 
Wen man als » süchtig nach Computerspielen « bezeichnet

 
 
Da Computerspiele heute oft im Internet gespielt werden, wurde die Computerspielesucht unter dem Namen » Internet- und Computerspiele-Sucht « in das System psychiatrischer Diagnosen aufgenommen.
 
Als süchtig in diesem Sinne gilt eine Person [ nach DSM-5 ] genau dann, wenn
     
  • in einem Zeitraum von 12 Monaten das Internet immer wieder dazu benutzt wird, Computerspiele zu spielen — oft zusammen mit anderen Spielern —,
     
  • dies zu klinisch bedeutsamer Beeinträchtigung, zu Elend, Kummer und Leid führt
     
  • und sich dies in mindestens fünf der folgenden neun Kriterien ausdrückt (es geht nicht um Glücksspiel):
     
     
    1. Hauptbeschäftigung:   Des Spielers Alltag wird dominiert durch ständiges Nachdenken über vergangene oder künftige Spiele.
    2. Entzugssymptome:   Reizbarkeit oder Erregbarkeit, Konzentrationsstörungen, Angst und gedrückte Stimmung
    3. Toleranzentwicklung:   Mit dem Spielen muss immer mehr Zeit verbracht werden.
    4. Kontrollverlust: Der Spieler vermag sein Spielen nicht willentlich einzuschränken.
    5. Interesseverlust: Frühere Hobbies und Freizeitaktivitäten interessieren nicht mehr.
    6. Negative Konsequenzen:   Nachteilige psychosoziale Auswirkungen des Spielens werden in Kauf genommen.
    7. Lügen, Täuschen: Angehörige, Freunde und Therapeuten werden hinsichtlich des wahren Ausmaßes des Spielens getäuscht.
    8. Stimmungsverbesserung:   Der Spieler spielt, um Angst, Schuldgefühle, Hilflosigkeit, Probleme oder Stress zu bekämpfen.
    9. Vereinsamung, sozialer Abstieg:   Partnerkonflikte, Trennung, Karriereknick (Verlust des Arbeitsplatzes, Abbruch des Studiums)

 
 
 
Computerspielsüchtige deutsche Jugendliche
 
 
Quelle: Die Drogenbeauftragte der Bundesregierung: Drogen- und Suchtbericht 2018, S. 106-111


 

 Beitrag 0-420
Über Kinder und gewisse Fernsehprogramme

 
 

 
Über Kinder und gewisse Fernsehprogramme

 
 
Viele Kinder verbringen heute nicht nur einige Minuten, sondern mehrere Stunden vor Cartoons, die insbesondere von den Kinderprogrammen des Privatfernsehens ausgestrahlt werden.
 
Welch negative Folgen für die Entwicklung ihres Gehirns dies haben kann, zeigen inzwischen gleich zwei — unabhängig von einander durchgeführte — Studien:
Beide Studien belegen negative Auswirkungen solchen Fernsehens auf die körperliche und geistige Bildung der Kinder.
 


Manfred Spitzer (2012):
 
Im Grunde ist es beschämend, dass die Wissenschaft erst im Herbst 2011 bestätigen konnte, was aufmerksame Eltern und Großeltern schon lange beobachten: Kinder werden » ganz kirre «, wenn sie beispielsweise am Sonntag Vormittag stundenlang die Comics im Kinderkanal schauen: "Die Kinder sind danach einfach zu nichts mehr zu gebrauchen" beklagen sich Mütter, wenn sie mit mir nach Voträgen über die Folgen von Medienkonsum diskutieren.
 
Erwähnenswer in diesem Zusammenhang ist die Tatsache, dass das Frontalgehirn nicht nur bei Ermüdung, sondern auch beim Abfallen des Blutzuckerspiegels — wie er ganz normal etwa 2 Stunden nach dem Frühstück auftritt — weniger gut funktioniert:
 
Ein Experiment mit erfahrenen Richtern hat ganz klar gezeigt, dass diese — nachdem sie eine Weile nichts gegessen haben — nachweislich weniger gut durchdachte Urteile fällen.
 
Was für Richter, für erwachsene Personen also, gilt, muss für Kinder mit noch nicht voll ausgebildetem Frontalgehirn allemal gelten: Wer ohne Frühstück in die Schule geht, wird sich weniger gut konzentrieren können.
 


 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012, Droemer), S. 248-251.


 

 Beitrag 0-417
Warum und auf welche Weise Facebook & Co allzu jungen Nutzern ernsthaft schaden können

 
 

 
Warum starke Präsenz in Facebook & Co Kindern schaden kann

 
 
Manfred Spritzer, Chef der Psychiatrie im Universitätsklinikum Ulm, argumentiert wie folgt:


Manfred Spitzer ( 2012, gekürzt ):
 
Wer mit Anfang 20 schon viele Freunde hat, der kann seine sozialen Kontakte auch mittels Online-Dienstleistern wie Facebook weiter pflegen. Es wird ihm das ebenso wenig schaden wie der Gebrauch eines Computers zur Erlediging studentischer Referate.
 
Sofern sich aber noch in der Entwicklung befindliche Kinder der neuen Technik zuwenden, liegt der Fall anders: Hier werden ganz offensichtlich für eine gesunde Entwicklung erforderliche Erfahrungen durch den Gebrauch elektronischer Medien verhindert.
 
Wer nämlich schon als Kind viel in Facebook unterwegs ist, der ist entsprechend seltener in der Realität sozial engagiert. Man bedenke:
 
Bei den [in vorher diskutierten Studien beobachteten] Kindern betrug die mit direkten (face to face) sozialen Kontakten verbrachte Zeit etwa 2 Stunden, wohingegen sie etwa 7 Stunden online waren. Jene jungen Mädchen gewöhnten sich hierdurch echte soziale Kontakte eher ab — und leiden darunter. Abigail Baird, eine Neurowissenschaftlerin aus New York, bringt es auf den Punkt, indem sie feststellt: » Wenn es darum geht, zu lernen, wie man mit Menschen umgeht, gibt es keinen Ersatz für den Umgang mit Menschen. «
 
Wie Studien zeigen, gilt: Die intensive Nutzung sozialer Online-Netze vermindert nicht nur die Zahl realer Freundschaften, sondern auch soziale Kompetenz, da die hierfür zuständigen Gehirnareale schrumpfen. Mehr Stress und zunehmender Verlust der Selbstkontrolle sind die Folgen. Eine soziale Abwärtsspirale setzt ein, die einem erfüllten Leben in der Gemeinschaft im Wege steht.
 
    Note: Da sich entsprechende Experimente mit Menschen aus ethischen Gründen verbieten, hat man den Zusammenhang zwischen Gehirngröße und sozialer Einbindung in Gemeinschaften an Rhesusaffen untersucht mittels genauer anatomischer Gehirnbilder bei 23 Tieren, die zuvor für mehr als ein Jahr [nur 1 Jahr (!)] in sozialen Gruppen unterschiedlicher Größe gelebt hatten.
     
    Um ihre Hypothese zu prüfen, dass das bessere soziale Denken letzlich zu einem erfolgreichen Sozialleben führt — und zu entsprechendem Aufstieg in der sozialen Rangordnung der Gruppe — hat man bei insgesamt 11 männlichen Tieren den Zusammenhang zwischen Gehirngröße und sozialer Stellung in der Gruppe untersucht. Hierbei zeigte sich in einem bereich des präfrontalen Cortex eine klar erkennbare Größenzunahme mit zunehmender sozialer Dominanz: Mit jedem Prozentpunkt in der Znahme sozialer Dominanz nahm in diesem bereich die Dichte der grauen Substanz um 0,31 Prozentpunkte zu.
     
    Man hat zusätzlich untersucht, wie gut bei den Tieren die für das Sozialverhalten zuständigen Teile des Gehirns mit anderen gehirnbereichen verknüpft sind (sog. funktionelle Konnektivität). Hierbei zeigte sich eine funktionale Kopplung mit einem bereich im Frontalgehirn. Die Intensität dieser Kopplung hing mit der Größe des sozialen Netzwerks zusammen.
     
    Kombiniert mit Ergebnissen aus Studien des menschlichen Sozialverhaltens ergibt sich als Schlussfolgerung, dass die intensive Nutzung digitaler sozialer Medien wie etwa Facebook, WhatsApp, Twitter — die ja zwangsläufig mit weniger face-to-face-Kontakten einhergeht —, zu einer Verminderung des Wachstums der Größe sozialer Gehirnbereiche bei Kindern — und damit zu geringerer sozialer Kompetenz führen muss.

Spitzer fasst zusammen:
 
 
Soziale Online-Netzwerke befriedigen unser grundsätzliches Bedürfnis nach Kontakt zu Mitmenschen.
 
Wer jedoch glaubt, dass diese neue Möglichkeit, Kontakte aufzubauen und zu pflegen, nur Gutes bewirke, der irrt, denn:
     
  • Die Anonymität im Internet bewirkt, dass wir uns weniger kontrollieren und weniger um adequates Sozialverhalten bemüht sein müssen. Wer seine sozialen Kompetenzen bereits auf dem herkömmlichen Weg (face to face) erworben hat, wird durch die Netzwerke keinen Schaden nehmen. Wer hingegen — wie Kinder und Jugendliche — noch kaum Gelegenheit hatte, adequates soziales Verhalten zu entwickeln, wer also zu früh nur im Netz lebt, der hat gute Chancen, dass sein Verhalten sehr zu wünschen übrig lassen wird.
     
  • Wie wir gesehen haben, deuten aktuelle Studien darauf hin, dass sich bei zu viel Präsenz nur im Netz, die für Sozialverhalten zuständigen Teile des Gehirns nicht normal entwickeln werden. Die Folgen sind bisher nur schwer absehbar, sollten uns jedoch zu denken geben.
     
  • Eine dieser Folgen scheint zu sein: Junge Menschen wissen immer weniger, wo es langgeht, was sie leisten können, und was sie wollen. Je intensiver ihre Online-Präsenz, desto marginaler ihre Präsenz im realen Leben — in dem Leben also, das dann wirklich zählt.
     
  • Das Internet ist voller scheiternder Sozialkontakte, die vom Vorgeben, dass man ein anderer sei, über Schummeln, Betrügen bis hin zu grober Kriminalität reichen. Es word gelogen, gemobbt, abgezoggt, aggressiv Stimmung gemacht, gehetzt und diffamiert, dass sich die Balken biegen! Muss es uns dann noch wundern, dass soziale Netzwerke bei so manchem zu jungen Nutzer dann zu Einsamkeit und Depression führen?
     
  • Mangelnde Selbstregulation, Einsamkeit und Depression sind in der modernen Gesellschaft die wichtigsten Stressoren. Sie bewirken das Absterben von Nervenzellen und begünstigen langfristig die Entwicklung einer Demenz. Bei Kindern kann der Austausch von face-to-face-Kontakten durch Kontakte mit Personen, die nur übers Netz ansprechbar sind, die Gehirnentwicklung bremsen.
     
  • Langfristig gesehen besteht die Gefahr, dass Facebook & Co zur Schrumpfung unseres sozialen gesamten Gehirns führen. So gesehen sollte man beunruhigt darüber sein, dass mittlerweile schon jeder 7-te Mensch intensiv Facebook nutzt.

 


 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012), Kap. 5, S. 109-128

 
 
Interessant ist, dass den Gründern von Facebook — insbesondere Mark Zuckerberg, der neben Informatik auch Psychologie studiert hat — durchaus klar war, dass sie mit ihrem Produkt die Schwäche der menschlichen Psyche ausnutzen. Lies mehr dazu in der Meldung Spätes Bekenntnis von Ex-Investor Sean Parker: » Facebook beutet menschliche Schwächen aus «.
 
 
 
Hier noch andere Beispiele, die belegen, das Spitzers Aussagen über die Qualität der Gesellschaft im Netz nicht übertrieben sind:
 
 
Zwei im Jahr 2011 von der Techniker Krankenkasse in Auftrag gegeben repräsentative Umfragen an jeweils 1000 deutschsprachigen Jugenlichen zwischen 14 und 20 Jahren in Nordrhein-Westfalen bzw. dem gesamten Bundesgebiet ergaben Folgendes:
     
  • In Deuschland waren 32 Prozent der Befragten (in NRW 36 sogar Prozent) schon einmal Opfer einer Cyber-Mobbing-Attacke.
     
  • Jeder 5-te Schüler wurde im Internet oder per Handy direkt bedroht oder beleidigt.
     
  • Jeder 6-te litt unter Verleumdungen
     
  • und bei jedem 10-ten kam es zu einem Missbrauch seiner Internet-Identität.
     
  • Gut jeder 5-te Befragte konnte sich vorstellen, selbst Täter zu werden
     
  • und jeder 12-te war schon Täter.

 
Wie Spitzer schreibt, kann man sich angesichts solcher Tatsachen des Eindrucks nicht erwehren, dass neben der Anonymität im Netz auch die soziale Inkompetenz der jungen Nutzer hierfür verantwortlich ist.
 
So wurde etwa ein Mädchen monatelang von 4 Mitschülerinnen belästigt, droht dann mit Vergeltung ("Ich schlag euch kaputt") und wird — nachdem die Schulleitung hierüber informiert worden war — in der folgenden Nacht zur Abwendung eines befürchteten Amoklaufs in eine psychiatrische Klinik gebracht.

 
Quelle: Porsch und Pieschl: Cybermobbing und seine Folgen für Kinder und Jugendliche. Soziale Psychiatrie 01/2012, S. 34-37.


 

 Beitrag 0-419
Ständiges Multitasking: Gut oder schlecht?

 
 

 
Multitasking: Gut oder schlecht?

 
 
Das moderne Berufsleben ist dadurch geprägt, dass von uns erwartet wird, viele Dinge gleichzeitig zu tun.
 
Dies wird mehr und mehr selbstverst#ndlich, da vor allem Jugendliche heute gewohnt sind, mehrere Medien gleichzeitig zu nutzen:
 
Wie eine Studie — mit insgesamt 694 Probanden — gezeigt hat, packen junge Leute heute (im Durchschnitt) täglich 8,5 Std. Mediennutzung in nur 6,5 Studen.
 
Hierbei zeigt sich, dass
     
  • Mädchen eher zum Multitasking neigen als Jungs
     
  • und etwa 15 Prozent der Befragten nach eigener Einschätzung "meistens" mehr als nur 2 Medien gleichzeitig nutzen.

Nur einer von jeweils sechs Befragten gab an, praktisch nie zwei Medien gleichzeitig zu verwenden.
 
Hier nun der Anteil in Prozent, mit dem 5 von jeweils 6 ein zweites Medium gleichzeitig zur Haupttätigkeit "Hausaufgaben machen" nutzen:

     
  • Fernsehen: 15%
     
  • Musik hören: gut 30%
     
  • Videospiele: 40%
     
  • Computer: 48%
     
  • Computerspiele: 67%
     
  • SMS lesen oder senden: 73%
     
  • im Web surfen: 73%
     
  • eMail schreiben oder lesen: 82%

 
Selbst an Hochschulen ist es nicht anders: Man hat 774 Studenten die Frage gestellt, wie oft sie sich während der Vorlesung (bzw. während einem Online-Seminar) zusätzlicher Tätigkeit hingeben. Das Ergebnis sah aus wie folgt:
 
    Zusätzliche Tätigkeit
    während Vorlesung ( bzw. Online Seminar )
     
    Facebook
    25  ( 63 ) %
    SMS
    51  ( 69 ) %
    Chatten
    13  ( 40 ) %
    e-Mail
    15  ( 46 ) %
    Musik hören
      6  ( 67 ) %
    Hausaufgaben bearbeiten
    18  ( 31 ) %
    Telefonieren
      3  ( 23 ) %
    Essen
    26  ( 70 ) %
    Trinken
    57  ( 79 ) %
     
    Im Durchschnitt
    24  ( 54 ) %

So nebenher erklärt dieses Ergebnis nun auch die sehr hohen Abbrecherquoten bei Online-Seminaren.
 
 
Halten wir also fest: Die zeitlich parallele Nutzung mehrerer Medien und das gleichzeitige Erledigen mehrere Aufgaben spielt heute im geistigen Leben vieler junger Menschen ein wichtige Rolle.
 
Wie nun aber von Manfred Spitzer in seinem Buch » Digitale Demenz «, S. 222-234 diskutierte Studien zeigen, weisen junge Menschen, die gleichzeitig mehrere Medien nutzen, Probleme mit der Kontrolle ihres Geistes auf:

     
  • Bei allen untersuchten geistigen Fähigkeiten, die man für Multitasking benötigt, schneiden die Multitasker signifikant schlechter ab als Nicht-Multitasker.
     
  • Sogar zum Wechseln der jeweils bearbeiteten Aufgabe (was ja beim Multitasking sehr häufig notwendig ist), benötigen sie mehr Zeit als Nicht-Multitasker.

 
Was man anhand dieser Experimente bisher nicht nicht beantworten konnte, ist die Frage, wie es zu diesen Unterschieden kommt.
 
Zwei Ursachen sind denkbar:
     
  • Der Selektionseffekt, d.h. die persönliche Vorliebe für Multitasking ohne Rücksicht auf den Nachteil, den man sich damit einhandelt,
     
  • oder der Trainingseffekt, d.h. führt heftiges Multitasking zu einer Veränderung unseres kognitiven Stils?

Martin Spitzer hält die zweite Erklärung für wahrscheinlicher, da — wie er schreibt — andere Studien gezeigt haben, dass chronische intensive Mediennutzung zu Störungen der Aufmerksamkeit führen kann.
 
Sollte er recht haben, würde das bedeuten, dass Multitasker sich Oberflächlichkeit und Ineffektivität antrainieren — sehr zu ihrem eigenen Schaden, aber auch zum Schaden der Gesellschaft insgesamt.
 
 
 
Quelle: Manfred Spitzer: Digitale Demenz — Wie wir uns und unsere Kinder um den Verstand bringen (2012, Droemer), S. 64 und 222-235


 
 
 
Wenn Kinder Smartphones zu früh und zu intensiv nutzen

 
 
Man lese, was Neurologen feststellen:

 

 Beitrag 0-426
Wie Smartphones konzentriertes Lernen erschweren — nach der Studenten eigenem Urteil

 
 

 
Wie Smartphones Studierende behindern

 
 
An der Rice University in Huston, Texas, hat man 24 Studenten, die vorher nie ein Smartphone genutzt hatten, jeweils ein iPhone ausgehändigt, um dessen Auswirkungen aufs Lernen zu untersuchen. Sie konnten dieses iPhone 1 Jahr lang ohne jede Einschränkung nutzen. Software, die man zusätzlich aufgespielt hatte, zeichnete die Nutzungsweise auf.
 
Hierbei ergab sich, dass die Studenten durchaus versuchten, das Gerät zur Bewältigung ihres Lernpensums zu verwenden.
 
Zu Beginn der Studie, ebenso wie nach Ablauf des Jahres hat man ihnen die gleichen 6 Fragen gestellt, die zunächst erwartete, dann aber tatsächlich festgestellte Nützlichkeit des Geräts betreffend: Sie sollten auf einer Skala von 1 (= trifft gar nicht zu) bis 5 (= trifft voll zu) folgenden Aussagen Wahrheitswerte zuordnen:
     
  • Mein iPhone wird/hat mir zu besseren Noten verhelfen/verholfen. vorher 3,8 - nachher 1,5
     
  • Mein iPhone hilft/half mir bei meinen Hausaufgaben: vorher 3,1 - nachher 1,4
     
  • Mein iPhone wird helfen/half akademische Prüfungen besser zu bestehen: vorher 3,9 - nachher 1,6
     
     
  • Ich kann/konnte kontrollieren, wo ich mein iPhone checke: vorher 4,4 - nachher 2,9
     
  • Mein iPhone lenkt/lenkte mich von schulbezogenen Aufgaben ab: vorher 1,9 - nachher 3,9
     
  • Ich muss/musste dauernd mein iPhone checken: vorher 1,3 - nachher 4,1

Wie man erkennt, mussten die Studenten feststellen, dass sich ihre positiven Erwartungen kaum, ihre negativen aber deutlich übererfüllt hatten.
 
Und so war das wesentliche Ergebnis der Studie (nach 1 Jahr):
 
 
 
Das Smartphone unterstützt den Lernprozess nur unwesentlich,
 
führt aber zu starker Ablenkung — so das klare Urteil der Studenten.
 
Ihre Noten wurden in diesem Jahr hochsignifikant schlechter.

 
 
Quelle: Tossel et.al.: You can lead a horse to water but ... (British Journal of Educational Technologies, 2015, pp 713-724)
 
zitiert durch Manfred Spitzer in Cyberkrank, S. 330-332

 

 Beitrag 0-427
Warum lassen sich Bildungspolitiker von IT-Lobbyisten gar so bereitwillig ein X für ein U vormachen?

 
 

 
Warum handeln Bildungspolitiker meinungsgetrieben,

statt auf Basis gut gesicherter wissenschaftlicher Erkenntnis?

 
 
Politik — das war schon immer so — soll zu einem gerechten Ausgleich konkurrierender Interessen führen.
 
In der Bildungspolitik konkurrieren
     
  • die als Elementargewalt daherkommenden Interessen der weltweit größten Konzerne (Apple, Facebook, Google, Hersteller von Computerspielen usw.)
     
  • mit den Interessen unserer Kinder, die unsere Zunkunft darstellen, aber über keinerlei Lobby verfügen.

Umso mehr sollte Bildungspolitern klar sein, dass sie ihrer Aufgabe nicht gerecht werden, wenn sie sich einfach nur die Meinung der IT-Lobbyisten zu eigen machen, statt neutrale Wissenschaftler gezielt zu befragen — oder ihnen wenigstens aufmerksam zuzuhören, wo sie warnend ihre Stimme erheben.
 
Wie nun aber die allzu naive Argumentation der deutschen Bildungspolitiker in Sachen » Digitalpakt « zeigt, scheint ihnen gar nicht klar zu sein, wie sehr sie sich zu einem von der IT-Lobby an der Nase herumgeführten Bären machen lassen. Wo bleibt ihr eigenes Urteilsvermögen? Wissen sie denn nicht, dass man nur Argumenten glauben darf, für die es auch Beweise gibt?
 
Wie zahlreiche wissenschaftliche Studien aus unterschiedlichsten Ländern dieser Welt belegen, sollte selbst noch in Hauptschulen und Gymnasien das Prinzip gelten:

 
IT im Unterricht macht Sinn als Salz in der Suppe,
 
darf aber keinesfalls dem Wasser der Suppe entsprechen.
 

In seinem Buch Cyberkrank (2015) legt der Neurologe Manfred Spitzer anhand zahlreicher von Wissenschaftlern gefundener Untersuchungsergebnisse dar, mit welch unerwünschten, ganz gravierend negativen Nebenwirkungen man zu rechnen hat, wenn man Kinder — in der Grundschule, im Kindergarten oder daheim — zu früh mit elektronischen Geräten zu beglücken oder gar ruhig zu stellen sucht:
 
 
Je jünger die Kinder, desto verheerender die Nebenwirkungen!

 
Dass im deutschsprachigen Raum nur etwa 4% der von ihren Eltern schon früh mit Computerspielen "beglückten" Jugendlichen wegen krankhafter Spielsucht später in der Psychiatrie landen, darf nicht verharmlost werden. Nicht nur Facebook — wie einer seiner Mitgründer heute offen zugibt —, sondern auch Computer- und Videospiele sind ganz gezielt so programmiert, dass sie ihre Nutzer süchtig zu machen versuchen: Einfach nur, damit verantwortungslose Hersteller möglichst viel verdienen.
 
 
Nichts davon sagen uns die von Politikern als "Experten" eingestuften IT-Lobbyisten. Ganz im Gegenteil:
    Sie und viele von ihnen als "Experten" gelobte allzu naive Lehrer (wie etwa die Krippenerzieherin Antje Bostelmann und der Kunstpädagoge Michael Fink) wollen uns weis machen, wie hilfreich Tablet-PCs schon im Kindergarten seien, da man da ja » z.B. sogar Filme drehen und schneiden « oder » dank Bildtelefonie mit Kindern aus einer weit entfernten Kita kommunizieren « könne.
     
    Eine Dolmetscher App, so schreibt Fink, ermögliche es, » mit einem gerade eingewanderten Kind zu sprechen, und dank einer Pflanzenbestimmungs-App könne man bei einem Waldspaziergang » z.B. Bäume, Sträucher, Blumen, Pilze identifizieren und weitere Information über sie abrufen «.

Im Kindergarten? Wie soll denn das gehen? Für wie dumm hält man uns Eltern denn eigentlich?
 
Bildungspolitiker aber scheinen all das brav zu glauben um dann ins selbe Horn zu blasen.
 
    So hat z.B. das Kultusministerium in Österreich mit finanzieller Hilfe der EU das Handbuch Safer Internet im Kindergarten herausgegeben. In seinem ersten Kapitel » Die frühe Kindheit als Medienkindheit « liest man: "Keine Seltenheit mehr: Babies, die gerade das Laufen lernen finden sich am iPad der Eltern erstaunlich gut zurecht — besser vielleicht als in der eigenen Wohnung."
     
    Und hieraus folgern die Autoren, es liege auf der Hand, dass "mediale Frühförderung ein immer wichtigerer Bestandteil der Bildungsarbeit" werden müsse.
     
    Niemand — so behaupten sie — wisse zu sagen, ob die Nutzung digitaler Medien im frühen Kindesalter gut oder schlecht sei. Manfred Spitzers Bücher, aus denen klar hervorgeht, dass die Wissenschaft das sehr wohl weiß, scheinen sie nicht gelesen zu haben. Statt auf die Idee zu kommen, erst mal gründlich einschlägige wissenschaftliche Literatur zu studieren, wollen sie mit unseren Kindern und Enkelkindern ins Blaue hinein experiementieren!
     
    Sollte solch unverantwortliches Herumexperimentieren mit Kindern sich aber nicht allein schon aus ethischen Gründen heraus ganz von selbst verbieten?

Wollen wir wirklich solche Böcke zu Gärtnern machen mit dem Ergebnis, dass sie unsere Kinder schon im Kindergarten dazu anleiten, statt miteinander zu spielen nur noch in ein elektronisches Gerät zu schauen?
 
 
Hinter welch fragwürdige "Pädagogen" stellt der Staat sich hier denn eigentlich?

 
 
Bedauerlicherweise zielt auch der deutsche Digitalpakt in genau die entgegengesetzte Richtung, in die wissenschaftliche Erkenntnisse weisen. Man kann jetzt nur noch hoffen, dass die geplante (Teil-) Digitalisierung des Unterrichts in den Grund- und Hauptschulen weniger Schaden anrichten wird, als nach den Ausführungen von z.B. Manfred Spitzer zu erwarten ist — und dass insbesondere alle Kindergärten davon verschont bleiben.
 
 
Insgesamt frägt man sich:

 
Warum folgen Bildungspolitiker scheinbar blind dem subjektiven Rat der IT-Industrie,
 
wollen aber den ganz anders lautenden Rat erfahrener Lehrer, Psychologen und Neurologen gar nicht erst diskutieren?

 
 
Prof. Dr. Dr. Manfred Spitzer — in seiner Rolle als Spezialist für Neurodidaktik — fasst den wissenschaftlich fundierten, bisher aber ignorierten Rat wirklicher Experten zusammen wie folgt:


Spitzer ( 2015, S. 259-260 seines Buches Cyberkrank ):
 
Digitale Informationstechnik lenkt ab und schadet der Konzentration und Aufmerksamkeit. Sie behindert Bildungsprozesse, statt — wie vielfach behauptet wird — sie zu fördern.
 
Entsprechend sind die Studien zum Einsatz von Computern im Unterricht ernüchternd bis peinlich; keinesfalls rechtfertigen sie die Investition in digitale Informationstechnik.
 
Auch die oft angeführten zusätzlichen Argumente für solche Investitutionen — Medienkompetenz vermitteln und Chancengleichheit für Kinder aus sozial benachteiligten Schichten schaffen — finden in diesen Daten keine empirische Grundlage. Im Gegenteil: Computer verstärken die Bildungsunterschied zwischen Arm und Reich.
 
 
Da man um die ablenkende Wirkung eines Internetzugangs an Schulen und Universitäten längst weiß und auch die durch digitale IT verminderte Verarbeitungstiefe beim Lernen kennt, sind diese Ergebnisse nicht einmal überraschend. Ebenso wenig überrascht aus psychologischer und nerologischer Sicht, dass handschriftliche Notizen dem Wissenserwerb förderlicher sind als das Tastaturschreiben.
 
 
Lesen und Schreiben sind zentrale Kulturtechniken. Das sichere Beherrschen der Schriftsprache [ das nach allzu leichtfertigem Herumexperimentieren einiger Bildungspolitiker heute nicht mehr selbstverständlich ist ] trägt wesentlich zum schulischen — und später auch zum beruflichen — Erfolg bei. Ein gut geführter Unterricht, der auf den neurologischen Prinzipien des Lernens, Lesens und Schreibens beruht, könnte sogar der Lese- und Rechtschreibschwäche entgegenwirken die (durch Veränderungen im Gehirn verursacht) oft schwerwiegende Konsequenzen für die individuelle Bildungsbiographie hat.
 
Davon sind wir jedoch weit entfernt: Das pädagogische Chaos in Deutschland, das sich u.A. in der völligen Beliebigkeit der Schulausgangsschrift äußert, führt mitunter sogar dazu, dass ein Schüler die erste Klasse wiederholen muss, wenn seine Eltern zwei Kilometer von Berlin nach Brandenburg umziehen. Und es wird ernsthaft darüber diskutiert, ob man nicht die Handschrift ganz abschaffen sollte, wie dies anderswo schon geschehen ist bzw. — in Finnland etwa — bald geschehen soll. Die Argumentation hierfür könnte dümmer nicht sein: Die Kinder seien motorisch dazu nicht mehr fähig, also lassen wir das weg. [Was wird wohl geschehen, wenn sich herausstellt, dass die Kinder auch in Mathematik überfordert sein werden?]
 
Weitere Auswirkung der intensiven Nutzung digitaler Medien ist ein in diesem Ausmaß beispielloser Bewegungsmangel bei der heranwachseden Generation. Seine Folgen sind Übergewicht und als Folge davon weitere Beeinträchtigungen junger Menschen (angefangen von Bluthochdruck und Diabetes bis hin zu Senk- und Plattfüßen).
 
Die Behandlung von Jugendlichen und jungen Erwachsenen mit Aufmerksamkeitsstörungen, Schulproblemen, Computersuchtproblemen und Übergewicht stellt eine große Herausforderung dar und dauert Monate bis Jahre. Eltern und Lehrer müssen daher frühe Anzeichen solcher Probleme ernst nehmen und rechtzeitig konsequent gegensteuern.
 
 
Investitionen in digitale Informationstechnik im staatlichen Bildungsbereich stellen demzufolge eine Verschwendung von Mitteln dar — jedenfalls, so lange die Lage derart klar ist wie heute — von den deutlichen Risiken und Nebenwirkungen einmal gar nicht zu reden.
 
An Lehrern zu sparen und zugleich Millionen für digitale IT auszugeben ist verantwortungslos und bildungsfeindlich. Es kann und darf nicht sein, dass wir die Bildung der nächsten Generation — das Fundament unserer Kultur, Wirtschaft und gesamten Gesellschaft — den Profitinteressen einiger weniger weltweit agierender Firmen überlassen. Denn die Bildung junger Menschen ist auch unsere Zukunft!
 



 

 Beitrag 0-26
Wie effektiv ist die moderne Schulmedizin?

 
 

 
Wie effektiv ist die moderne Schulmedizin?

 
 
Diese Frage zu beantworten, hilft die Lektüre folgender Artikel:
 
 
 
Wie effektiv ist die Schulmedizin?
 
Zahlen zur Wirksamkeit der Schulmedizin in Großbritannien

 
 

 
Bei Rückenschmerzen etwa sind Placebos empfehlenswerter


Werner Bartens, Arzt & Wissenschaftsjournalist (2017):
 
2016 hat ein Team um Gustavo Machadeo Daten aus 35 Studien mit insgesamt über 6000 Patienten mit Rückenschmerzen analysiert.
 
Dabei zeigte sich, dass Schmerzmittel aus der großen Gruppe der nichtsteriodalen Antiphlogistika (NSAID) — Verkaufsschlager wie Ibuprofen, Diclofenac, Metamizol und Acetylsalicylsäure zählen dazu — die Schmerzen nur wenig, und nie lange mindern konnten: Die Wirkung der Mittel war vergleichbar mit der von Placebos.
 
Im Vergleich zu Placebos handelt man sich mit Medikamenten dieser Art aber ganz erhebliche Risiken ein:
 
Wie die Analyse der Daten gezeigt hat, waren Magen-Darm-Beschwerden bis hin zu bedrohlichen Blutungen bei Patienten, die das Medikament genommen hatten, 2.5 Mal häufiger als bei denen, die — natürlich ohne es zu wissen — ein Placebo bekamen.
 

Quelle: Werner Bartens: Hilft wenig, schadet viel: Schmerzmittel bei Rückenschmerzen, SZ vom 3.3.2017, S. 14.


 

 Beitrag 0-271
Je mehr man davon überzeugt ist, dass Heilung eintreten wird, desto eher ergibt sie sich

 
 

 
Welch heilende Wirkung feste Überzeugung haben kann

z.B. — aber nicht nur — als Placeboeffekt

 
 
In der FAZ vom 12.2.2017 findet sich ein Interview, bei dem es darum geht, dass ab März 2017 auch Cannabis für Schwerkranke auf Rezept erhältlich sein wird.
 
Befragt wurde Michal Popp, Inhaber und Geschäftsführer des Arzneimittelherstellers Bionorica aus Neumarkt in der Oberpfalz. Sein Unternehmen ist Deutschlands größter Cannabis-Produzent.
 


M. Popp (2017):
 
Unsere Gewächshäuser stehen in Österreich, wo wir eine Vereinbarung mit der zuständigen Behörde haben.
 
Die Anbaufläche messen wir nicht in Hektar, sondern in Quadratmetern. Mehr ist nicht nötig, denn der Wirkstoff, um den es geht, ist hochaktiv: Eige Tagesdos liegt zwischen 10 und 20 Milligramm, doch schon aus einiger einzigen Blüte gewinnen wir ein paar Gramm davon. Und wir ernten mehrmals im Jahr.
 
Alle anderen Heilpflanzen, die wir anbauen, wachsen unter freiem Himmel. Für Cannabis aber halten wir im Gewächshaus Luftfeuchtigkeit, Bewässerung, Temperatur und Lichtintensität ständig auf optimalem Niveau.
 
Während wir von allen anderen Heilpflanzen den gesamten Extrakt nutzen, holen wir aus Cannabis gezielt nur den einen Wirkstoff heraus — mit einer reinheit von 99 Prozent. Das ist Hightech.
 
Nun aber zur Wirksamkeit:
 
Dass Dronabinol [der Wirkstoff in Cannabis] gegen Übelkeit wirkt, den Appedtit anregt und beispielsweise Patienten mit multipler Sklerose hilft, ist eindeutig bewiesen.
 
In anderen Fällen ist es schwierig, den Beweis seiner Wirksamkeit zu führen, da der Placeboeffekt in den Patientenstudien mit Cannabis besonders stark auftritt:
 
Man bildet in solchen Studien ja immer zwei Gruppen. Die eine bekommt den Wirkstoff, die andere aber nicht — wobei die Leute aber nicht wissen, zu welcher Gruppe sie gehören. Nun sehen wir in den Versuchen mit Cannabis, dass hier ganz besonders viele Kranke, die den Wirkstoff nicht bekommen, von deutlicher Verbesserung ihres Leidens berichten.
 
Der Grund hierfür: Die Leute sehnen sich nach dem Stoff, weil sie ihn oft als ihre letzte Chance auf eine Linderung ihrer Leiden sehen. Deswegen fühlen sie sich schon besser, wenn sie bloß glauben, endlich damit behandelt zu werden. Es geht bei Cannabis ja immer um schon austherapierte Patienten, d.h. um solche, denen sonst nichts mehr hilft. Nur für sie kommt laut Gesetz Cannabis in Frage.
 
Das führt dazu, dass in einigen Studien der Unterschied zwischen den Patienten, die das echte Präparat erhalten und denen, die nur mit einem Placebo ohne Wirkstoff behandelt werden, nicht so deutlich ist.
 


 
Wir sehen also:
     
  • Die heilende Wirkung der Überzeugung der Patienten, gesund zu werden, kann fast so groß sein wie die Wirkung des echten Arzneimittels.
     
  • Und nicht nur das: Wo beides zusammenkommt, wird die Wirkung beider Einflüsse sich summieren.

 
 
Weiterer Beweis der Wirksamkeit fester, positiver Überzeugung ist
 
 
Simonton's Methode der Vorstellungstechniken:

 
In den 70-er Jahren war ein 61 Jahre alter Mann — nennen wir ihn Frank — an einer Variante von Halskrebs erkrankt, die fast immer tödlich verläuft. Als seine Ärzte ihn schon fast aufgegeben hatten — sein Gewicht war von 59 auf 44 kg zurückgegangen, er hatte Atembeschwerden und war schon so schwach, dass er kaum noch Speichel abschlucken konnte, zog man den Strahlenonkologen Carl Simonton hinzu. Simonton versicherte dem Patienten, dass jetzt nur noch er selbst den Verlauf seiner Krankheit beeinflussen könne. Hierzu brachte er dem todkranken Frank eine Reihe von Entspannungs- und Bildvorstellungsübungen bei, die Simonton und seine Kollegen am Cancer Counseling and Research Center in Dallas, Texas, entwickelt hatten.
 
Dreimal am Tag, so Simonton's Rat, solle Frank sich möglichst intensiv vorstellen, dass die Bestrahlung, die er erhielt, aus Millionen winziger Energiekügelchen bestünde, die seine Krebszellen bombardierten, so dass die von seinem Immunsystem ausgesandten weißen Blutkörperchen wie ein Heer römischer Soldaten über sie herfallen, sie abschlachten und die dann schließlich toten und sterbenden Krebszellen hin zu Leber und Niere schleppen konnten, damit sie von diesen beiden Organen aus dem Körper herausgeschwemmt würden.
 
Die Ergebnisse waren frappierend und überstiegen bei weitem die Behandlungserfolge, die sich in solchen Fällen bei einer reinen Strahlungstherapie einstellen: Frank blieb von den üblichen negativen Nebenwirkungen der Strahlentherapie — Schädigungen der Haut und der Schleimhäute — weitgehend verschont. Er gewann Kraft, sein früheres Gewicht stellte sich wieder ein, und nach nur 2 Monaten waren sämtliche Krebssymptome verschwunden.
 
Simonton war überzeugt, dass diese erstaunliche Genesung ohne die täglich durchgeführen Bildvorstellungsübungen nicht eingetreten wäre.
 
In einer Anschluss-Studie unterwiesen Simonton und seine Kollegen 159 Krebspatienten, die als unheilbar galten, in diesen Vorstellungstechniken — mit einem durchaus beeindruckenden Resultat:

     
    Die zu erwartende Überlebensdauer liegt in solchen Fällen bei etwa 12 Monaten.
     
    Nach 4 Jahren aber waren 63 dieser Patienten immer noch am Leben.
       
    • 14 von ihnen zeigten keine Krankheitssymptome mehr,
       
    • bei 12 war der Krebs rückläufig
       
    • und bei weiteren 17 hatte sich die Krankheit wenigstens nicht mehr verschlimmert.

     
    Die durchschnittliche Überlebenszeit der gesamten Gruppe war 24.4 Jahre — doppelt so lang wie der US-amerikanische Normwert.

 
Quelle: Stephanie Matthews-Simonton, Carl Simonton und James L. Creighton: Getting well again (New York: Bantam Books, 1980), S. 6-12.
 
 
Simonton hat noch eine Reihe ähnlicher Studien durchgeführt, stets mit positiven Resultaten.
 
Obgleich sein Verfahren umstritten blieb, fanden einige Forscher seine Versuchsergebnisse so überzeugend, dass er das Simonton Cancer Center aufbauen konnte, ein erfolgreiches Forschungs- und Behandlungszentrum in Pacific Palisades, Kalifornien, in dem Patienten mit unterschiedlichsten Erkrankungen seine Bild­vorstel­lungstechnik erlernen. Wie eine Bestandsaufnahme 1988 gezeigt hat, galt sie damals als die vierthäufigste  a l t e r n a t i v e  Krebsbehandlungsmethode.
 
Quelle: Jeanne Achterberg: Mind and Medicine: The Role of Imaginary in Healing, ASPR Newsletter 14, Juni 1988, Seite 20.
 
 
Heute wird seine Methode der Bildvorstellungstechniken nicht nur in Nordamerika, sondern auch in Europa und Japan von aufgeschlossenen Ärzten angewandt, um die mit etablierten Therapien angestrebten Heilerfolge zu beschleunigen und nachhaltiger zu machen.
 
Wer Übungsanleitungen dazu sucht, findet sie z.B. in Jeanne Achterberg: Die heilende Kraft der Imagination, 1990.
 
In Deutschland werden auch Seminare dazu angeboten.

 

 Beitrag 0-24
Der Placebo-Effekt belegt: Was uns steuert — auch als Materie — sind Überzeugungen

 
 

 
Zum ganz erstaunlichen Stellenwert des Placebo-Effekts

 
 
Bruce Lipton, ein Zellbiologe, versucht schon seit etwa 1970 seinen Fachkollegen klar zu machen, wie wichtig es ist, dass die Biologie aufhört, jedes Lebewesen nur reduziert auf seinen rein materiell existierenden Teil zu betrachten. Er hat dafür sehr gute Argumente (wie mir die Lektüre seines Buches » Intelligente Zellen — Wie Erfahrungen unsere Gene steuern « klar gemacht hat). Vieles ist allein schon seiner zusammenfassenden Erklärung des Entstehens von Leben, Bewusstsein und Gehirn zu entnehmen.
 
Wer sich nicht die Mühe machen möchte, sein Buch zu lesen, um mehr darüber zu lernen, wie der Geist den Körper steuert und beinflusst, könnte dennoch daran interessiert sein, wenigstens über den allseits bekannten — auch von der Schulmedizin anerkannten — Placebo-Effekt etwas dazuzulernen:


Bruce Lipton (S. 135-140, etwas gekürzt)
 
Jeder Medizinstudent lernt, dass Patienten sich oft schon dann besser fühlen, wenn sie nur annehmen, dass man sie behandelt hat. Dieser Effekt ist erstaunlicher Beweis für die Heilkraft des Körper-Geist-Systems. Für den typischen Schulmediziner grenzt der » doch nur eingebildete « Placebo-Effekt an Quacksalberei oder wird von ihm darauf zurückgeführt, dass der Patient schwach und leicht beinflussbar sei. Medizinische Fakultäten erwähnen den Placebo-Effekt deswegen nur am Rande, um sich so möglichst schnell ihren » wirksameren « Heilmethoden zuwenden zu können.
 
Ich [ Bruce Lipton ] halte das für einen kapitalen Fehler. Der Placebo-Effekt sollte in der medizinischen Ausbildung eine ganz wichtige Rolle spielen. Man darf die Kraft des Geistes nicht unterschätzen: Sie ist nicht weniger wirksam als Chemikalien und Skalpelle. Die Schulmedizin sollte nicht mehr länger glauben, dass unser Körper dumm und unsere Gesundheit nur mit äußerer Hilfe aufrecht zu erhalten sei.
 
Der Placebo-Effekt bedarf gründlicher wissenschaftlicher Untersuchung, denn könnte man herausfinden, wie man ihn steuert, wäre er ein höchst effizientes, nebenwirkungsfreies Intrument zur Krankheitsbekämpfung.
 
Manche Historiker weisen darauf hin, dass der Placebo-Effekt in der Medizin seit jeher eine große Rolle gespielt hat. Das muss schon deswegen so gewesen sein, da die Mediziner ja noch bis gegen Ende des 19. Jahrhunderts über gar keine wirksamen Methoden verfügten (Krankheiten wurden mit Aderlass behandelt, Wunden mit Arsen, und wenn gar nicht mehr half, kam als "Allheilmittel" Klapperschlangenöl zum Einsatz). Und doch ging es so manchem Patienten selbst nach solcher Behandlung besser — ganz so wie heute, wenn ein Arzt im weißen Kittel seinem Patienten im Brustton der Überzeugung die hohe Wirksamkeit der Pille erklärt, die er verschreibt und die doch nur ein Placebo ist.
 
Was uns heilt muss also doch in erster Linie unsere Überzeugung sein!
 
Obgleich die Frage danach, wie Placebos wirken, im Großen und Ganzen von der Schulmedizin ignoriert wird, haben sich in letzter Zeit doch auch ein paar angesehne Wissenschaftler damit beschäftigt. Ihre Ergebnisse legen nahe, dass selbst Scheinoperationen Wirkung zeitigen können:
    Eine 2002 im New England Journal of Medicine veröffentlichte Studie der Baylor School of Medicine überwachte Patienten, die sich wegen schwerer Knieschmerzen operieren lassen wollten. Der Leiter der Untersuchung, Dr. Bruce Moseley, wollte herausfinden, welche Art von Operation seinen Patienten am besten half. Er ordnete seine Patienten jeweils einer von 3 Gruppen zu:
     
    • Denen aus Gruppe 1 wurde der geschädigte Knorpel abgeschliffen.
       
    • Denen aus Gruppe 2 wurde das Gelenk gespült und so alles Material entfernt, das eine Entzündung verursachen konnte.
       
    • Gruppe 3 aber wurde nur zum Schein operiert: Der Patient wurde betäubt, Moseley machte die 3 Standardeinschnitte und redete und bewegte sich so, als führe er eine Operation durch — er planschte sogar mit etwas Salzwasser, um die Geräusche der Kniewaschung nachzuahmen. Nach 40 Minunten nähte er die Schnitte wieder zu, ganz so, wie er es bei einer gewöhnlichen Operation auch getan hätte.

    Alle 3 Gruppen erhielten gleiche postoperative Behandlung, zu der auch ein Gymnastikprogramm gehörte.
     
    Die Ergebnisse waren schockierend:
     
    • Ja, die wirklich operierten Patienten aus Gruppe 1 und 2 erfuhren die erwartete Besserung.
       
    • Der Placebo-Gruppe aber ging es ebenso gut!

     
    Dr. Moseley » wusste «, dass die Knieoperationen helfen würden, und er » wusste «, dass es im Bereich von Operationen kein Placebo-Effekt zu erwarten war — und dennoch war genau der eingetreten!
     
    Im Fernsehen ausgestrahlte Reportagen stellten die erstaunlichen Ergebnisse ausführlich dar. Sie zeigten Mitglieder der Placebo-Gruppe, die nun wandern gingen bzw. Basketball spielten — alles Dinge, die ihnen vor ihrer Scheinoperation unmöglich waren.
     
    Man hat diesen Patienten erst 2 Jahre später mitgeteilt, dass man sie gar nicht operiert hatte. Ein Mitglied dieser Gruppe, Tim Perez, konnte vor der Operation nur mit einem Stock gehen — jetzt aber spielte er mit seinen Enkeln Fußball. Im Interview sagte er: In dieser Welt ist alles möglich, wenn man es sich in den Kopf setzt: Ich weiß jetzt, dass unser Geist Wunder vollbringen kann.

Auch bei der Behandlung anderer Krankheiten, darunter Astma und Parkinson, haben Placebo-Effekte schon starke Wirkung gezeigt. Und bei der Behandlung von Depressionen waren sie gar so effektiv, dass der Psychiater, Walter Brown, Placebo-Pillen als Erstbehandlung für leichte und mittlere Depressionen vorschlug [Brown 1998]. Browns Untersuchungen haben gezeigt, dass die Placebo-Pillen sogar dann funktionierten, wenn die Patienten wussten, dass sie kein wirkstoffhaltiges Medikament erhielten.
 
 
Ein weiter Hinweis auf die Macht der Placebos (d.h. die Macht positiven Denkens) findet sich in einem Bericht des amerikanischen Gesundheitsministeriums:
    Darin steht [ Horgan, 1999 ], dass sich in einer Studie die Hälfte der betrachteten depressiven Patienten nach der Einnahme eines Medikaments besser fühlten, während es bei der Placebo-Kontrillgruppe immerhin noch 32 Prozent waren.
     
    Angesichts solcher Effektivität des Placebo-Effekts ist es nicht erstaunlich, dass die 8.2 Mrd Dollar schwere Antidepressiva-Industrie sich der Kritik stellen muss, dass die Pharmakonzerne die Wirksamkeit ihrer Mittel recht schamlos übertreibt.
     
    Irving Kirsch, ein klinischer Psychologe, hat 2002 festgestellt, dass gemäß klinischer Studien etwa 80 Prozent der Wirkung von Antidepressiva auf den Placebo-Effekt zurückzuführen seien.
     
    Um Zugriff auf die Daten der Untersuchungen zu den meist verkauften Antidepressiva zu bekommen, musste er sich auf die verfassungsrechtlich garabtierte Informationsfreiheit berufen, denn die Gesundheitsbehörden wollten sie herausgeben.
     
    In einem Interview mit dem Discovery Channel sagte Kirsch: Der Unterschied zwischen der Reaktion auf das Medikament und der Reaktion auf das Placebo betrug im Durchschnitt weniger als 2 Punkte auf einer klinischen Skala, die 50 bis 60 Punkte erreicht. Kirsch sah diesen Unterschied als, wie er wörtlich sagte, » klinisch bedeutungslos «.
     
    Eine interessante Tatsache zur Wirksamkeit von Antidepressiva ist auch, dass sie in den klinischen Versuchen im Laufe der Jahre immer besser abschnitten. Diese lässt darauf schließen, dass ihre Wirkung zum Teil auf geschickter Vermarktung beruht (allein auf dem Glauben also, dass sie wirken).
     
    Dass oft nur der Glaube an ihre Wirkung die Wirkung zeitigt, beweist der Fall Janis Schonfeld aus 1997:
     
      Sie nahm an einem Test der Wirksamkeit des Mittels Effexor teil und war absolut verblüfft, als man sie später darüber informierte, dass sie nur ein Placebo bekommen hatte:
       
      Diese Pillen nämlich hatten sie nicht nur von ihrer jahrelangen Depression befreit, die EEGs zeigten auch, dass ihre Großhirnrinde nun viel aktiver war als zuvor [ Leuchter et al., 2002 ]. Zudem hatte Schonfeld während der Behandlung an Übelkeit gelitten, einer bekannten Nebenwirkung von Effexor, über die man sie informiert hatte.
       
      Schonfeld war, nachdem die Ärzte ihr eröffnet hatten, sie habe nur ein Placebo genommen, fest davon überzeugt, dass man sich geirrt haben müsse. Die Wissenschaftler mussten ihren Bericht zweimal überprüfen, bis sie ihnen glaubte.

 
Zitierte Quellen:
 
  • Kirsch I. et al (2002): The Emperor's New Drugs: An Analysis of Antidepressant Medication Data Submitted to the U.S. Food and Drug Association. Prevention & Treatment, American Phsychological Association 5: Article 23
     
  • Leuchter A.F. et al (2002): Changes in Brain Function of Depressed Subjects During Treatment with Placebo. American Journal of Psychiatry 159(1): 122-129
     
  • Moseley J.B. (2002): A Controlled Trial of Arthroscopic Surgery for Osteoarthritis of the Knee. New England Journal of Medicine 347(2): 81-88
     
  • Horgan J. (1999): Prozac and Other Placebos. The Undiscovered Mind: How the human Brain defies Replication, Medication, and Explanation. New York, The Free Press, pp 102-136
     


 
Besonders klar — und durch Messungen der Gehirnströme über jeden Zweifel erhaben — wurde der Placebo-Effekt und die Macht der Überzeugungen nachgewiesen durch ein im Jahr 2014 an der TU München durchgeführtes Expirement:


Prof. Markus Ploner, TU München (2015):
 
Zwanzig Probanden erhielten zuerst unterschiedlich starke schmerzhafte Laserpulse abwechselnd auf zwei Bereiche auf ihrem Handrücken. Die Wahrnehmung eines jeden Schmerzreizes wurde anschließend mündlich bewertet.
 
Im weiteren Verlauf des Experiments erhielten sie die gleichen Reize noch einmal mit dem Unterschied, dass vorher beide Bereiche eingecremt wurden. Obwohl beide Cremes ohne Wirkstoff waren, bekamen die Probanden gesagt, dass eine der Cremes eine schmerzlindernde Wirkung habe.
 
Das Ergebnis: Die Probanden bewerteten die Schmerzen auf dem Hautbereich mit der angeblich schmerzlindernden Creme signifikant schwächer als auf der anderen Hautstelle.
 
Die Wissenschaftler konnten das auch im Gehirn sichtbar machen: Trotzdem die Probanden die gleichen Schmerzreize erhielten, feuerten die Nervenzellen beim zweiten Durchlauf ein anderes Muster von Signalen.
 


 
 
 
Nocebos: Die Macht  n e g a t i v e r  Überzeugung

 
 
Wenn der Geist durch  p o s i t i v e  Suggestion zur Heilung beiträgt, nennt man das den Placebo-Effekt.
Wenn nun aber umgekehrt der Geist durch  n e g a t i v e  Suggestion die Gesundheit schädigt, spricht man vom Nocebo-Effekt.
 
Natürlich beruhen beide auf ein und demselben Mechanismus:


Bruce Lipton (S. 140-141, etwas gekürzt)
 
In der Medizin kann der Nocebo-Effekt ebenso mächtig sein wie der Placebo-Effekt. Wer ins Sprechzimmer eines Arztes spricht, sollte das wissen — und vor allem sollte der Arzt sich dieses Zusammenhangs stets bewusst sein. Wenn er einem Patienten sagt » Sie haben höchstens noch 6 Monate zu leben « (und wenn der ihm glaubt), wird das die Wahrscheinlichkeit, dass es tatsächlich so kommt, deutlich erhöhen. In der Sendereihe Placebo: Mind over Matter des Discovery Channel von 2003 wird über einige höchst interessante medizinische Fälle berichtet.
     
    Einer dieser Berichte handelte von einem Arzt aus Nashville. Clifton Meador hatte gut 30 Jahre lang den Nocebo-Effekt erforscht und war dabei 1974 auf einen Schuverkäufer inm Ruhestand gestoßen, Sam Londe, bei dem man Speiseröhrenkrebs diagnostiziert hatte — eine Krankheit, die damals als mit Sicherheit tödlich galt. Londes Krebs wurde behandelt, aber unter Medizinern war klar, dass er wiederkehren würde. Daher war niemand überrascht, als Londe wenige Wochen nach der Diagnose starb.
    Die Autopsie des Toten aber brachte eine große Überraschung: Man fand nur sehr wenig Krebs in seinem Körper, auf keinen Fall genug, um daran zu sterben: In seiner Leber und seiner Lunge fanden sich ein paar Flecken, aber keine überhaupt keine Spur von Speiseröhrenkrebs, der doch für seinen Tod verantwortlich sein sollte. Woran also war Londe gestorben, wenn nicht an Krebs? Starb er, weil er glaubte, dass er sterben würde?
     
    Dieser Fall verfolgte Meador noch drei Jahrzehnte nach Londes Tod. Ich dachte, er hätte Krebs. Er dachte, er hätte Krebs. Jeder um ihn herum dachte das. Haben wir ihm die Hoffnung genommen [und so seinen Tod verursacht]?

 


 
 
 
Und hier das allgemeine Prinzip:



Bruce Lipton, (S. 142-143, etwas gekürzt)
 
Unsere Überzeugungen — seien sie positiv oder negativ — beeinflussen nicht nur unsere Gesundheit, sondern jeden Aspekt unseres Lebens. Henry Ford hatte recht, als er sagte:
 
Ob du glaubst, du kannst es,
oder ob du denkst, du kannst es nicht
du wirst stets recht behalten.

 
Unsere Überzeugungen sind wie die Filter vor dem Objektiv einer Kamera — sie verändern unseren Blick auf die Welt, und unsere Biologie passt sich dem an, was wir sehen bzw. zu sehen glauben. Wenn wir anerkennen, dass unsere Überzeugungen solche Anpassung hervorrufen, dass sie also derart mächtig sind, haben wir den Schlüssel gefunden, unser Wohlbefinden in durchaus nennenswertem Umfang zu steuern.
 
Mit unserer genetischen Veranlagung müssen wir leben — unsere Meinung und Überzeugung aber  k ö n n e n  wir ändern.
 
In meinen Vorträgen verteile ich an dieser Stelle rote und grüne Plastikfilter an die Zuhörer. Jeder ist frei, den einen oder anderen zu wählen. Dann bitte ich sie, laut in den Raum zu rufen, ob sie die Bilder, die ich nun an die Wand projeziere, als friedlich oder angsterregend wahrnehmen.
  • Wer den roten » Überzeugungsfilter « gewählt hat, wird auf dem Dia das einladende Bild eines Häuschens, Blumen, und einen sonnigen Himmel sehen sowie die Botschaft » Ich lebe in Liebe und Frieden «.
     
  • Wer nun aber durch einen der grünen Filter sieht, wird eine bedrohlichen Himmel, Fledermäuse und Schlangen sowie ein dunkles Haus sehen mit der Aussage » Ich lebe in Angst «.

 
Es begeistert mich immer wieder, wie aus demselbem in roten und grünen Farben gehaltenen Bild die einen herauslesen » Ich lebe in Liebe und Frieden « während die anderen herauslesen » Ich lebe in Angst «.
 
Dann bitte ich die Teilnehmer. durch den jeweils anderen Filter zu schauen. Es geht mir darum, zu zeigen, dass wir  w ä h l e n  können, was wir sehen.
 
Sie, lieber Zuhörer, können in Frieden oder in Angst leben. Sie  h a b e n  die Wahl, zu was es kommt.
 
Wenn Sie sich für ein Leben voller Angst entscheiden, wird Ihre Gesundheit in dem Maße nachlassen, in dem Sie sich als Reaktion darauf hinter einen Schutzpanzer zurückziehen.
 
Lehrer wie Buddha und Jesus haben uns das schon seit Jahrtausenden erzählt. Jetzt ist es auch für die Wissenschaft nachvollziehbar:
 
 
Nicht unsere Gene,
 
sondern unsere Überzeugung — subjektive Wahrnehmungen — steuern unser Leben.

 
 
 
Leben in diesem Sinne umfasst unsere  u n b e w u s s t e n , aber auch all unsere  b e w u s s t e n  Reaktionen auf unsere Umwelt.


 


Östliche Philosophie sprach es so aus (war sich aber wohl nicht bewusst, dass man unter den » Gewohnheiten « hier  a u c h  das zu verstehen hat, was jede einzelne Zelle unseres Körpers sich angewöhnt hat):


Deine Überzeugungen werden deine  Gedanken
Deine Gedanken werden deine  Worte
Deine Worte werden dein  Handeln
Dein Handeln wird zu deinen  Gewohnheiten
Deine Gewohnheiten formen deine  Werte
Deine Werte werden zu deiner  Bestimmung



 

 Beitrag 0-30
Wie Zellen aus quantenchemischer Sicht funktionieren

 
 

 
Aufbau und Funktion biologischer Zellen

 
 
Jede Zelle besteht aus zwei wichtigen Teilen:
  • dem Zellkern: Er sicher das Überleben der Zelle.
  • und einer Zellmembran, d.h. einer Hülle, die sozusagen das Gehirn der Zelle darstellt: Die Membran empfängt Umweltsignale, so dass jene — mehr oder weniger modifiziert — den Zellkern erreichen und dort zur Produktion von Produktion von Proteinen führen.

Die Umweltsignale treffen auf Proteine (sog. Regulationsproteine), die bewirken, dass ein und dasselbe Gen gut 2000 verschiedene Varianten eines Proteins erzeugen kann.
 
 
 
Warum aber will die Zelle denn überhaupt Proteine erzeugen?
 
Jede Zelle besteht aus 4 Typen großer Moleküle: Polysacchariden (Zucker), Lipiden (Fett), Nukleinsäuren (DNS/RNS) und Proteinen.
 
Die Zellen brauchen alle, aber am wichtigsten und weit zahlreicher als alle anderen sind die Proteine: Unser Körper braucht etwa 100.000 verschiedene Proteine, um zu funktionieren (kann aber, potentiell, bis zu 25.000 • 2.000 = 50.000.000 verschiedener Varianten davon erzeugen. Wir werden noch sehen, warum.
 
Jedes Protein ist eine lange Kette wie über Kugelgelenke miteinander verbundener Moleküle, die Aminosäuren sind. Die meisten tragen positive oder negative Ladung, und so bewirken elektromagenische Kräfte, dass sie einander abstoßen oder anziehen, wodurch es dann dazu kommt, dass die gesamte Kette sich biegt und letztlich die Form eines Fadens hat, den man zusammengeknüllt hat. Da die beiden End-Aminosäuren des Fadens negative Ladung haben, sich also abstoßen, haben sie die Tendenz, sich möglichst weit voneinander zu entfernen, so dass die Kette keinen beliebig kompakten zusammengeknüllten Zustand annehmen kann.
 
Die genaue räumliche Verteilung der Anordnung der Aminosären in der Kette spiegelt einen ausgeglichenen Zustand seiner elekromagnetischen Ladungen wider (eine Art Gleichgewichtszustand des Protein-Moleküls, den die Biologen seine Konformation nennen.
 
Diese sehr gelenkigen, beweglichen Proteine stellen aufgrund ihrer Bauweise ein noch eindrucksvolleres Wunder dar, die ihre präzisen 3-dimensionalen Formen erlauben jedem Protein, sich mit anderen zu verbinden: Wenn sich Proteine begegnen, sie physisch und energetisch zu einander passen, verbinden sie sich bis schließlich etwas entsteht, das an das Getriebe oder Räderwerk einer alten Taschenuhr erinnert.
 
 
 
Doch zurück zu Zelle, Zellkern und Zellmembran:
  • Wird einer Zelle ihre Membran genommen, ist die Zelle sofort nur noch totes Material.
     
  • Nimmt man ihr jedoch den Zellkern, so kann sie noch bis zu einem Monat weiter Umweltsignale aufnehmen und verarbeiten, stirbt danach aber dennoch, denn ohne Zellkern
     
    • kann sie sich nicht teilen (also fortpflanzen)
       
    • und kann defekt gewordene Proteine auch nicht mehr durch neue ersetzen (denn nur die Gene in der RNA können das, die RNA aber residiert im Zellkern als » Arbeitskopie « der DNA.
       
    • Die DNA wiederum hat man als » Sicherungskopie der Erbinformation « zu sehen. Kopien in diesem Sinne sind logische Kopien, denn chemisch unterscheiden sich DNA und RNA sehr wohl.

 
Neue wissenschaftliche Erkenntnisse zeigen, dass es  U m w e l t s i g n a l e  sind, die Protein-Erzeugung anstoßen (indem sie die Regulationsproteine in der Schutzhülle um die DNS beeinflussen, die DNA dann Information an die RNA weiterleitet und deren Gene dann neue Protein-Moleküle erzeugen).
 
Inzwischen gilt als gesichert, dass ein sehr viel dünnerer Fluss von Information auch in umgekehrter Richtung stattfindet, so dass die RNS gelegentlich auch den genetischen Code, die DNA, umschreiben wird. Howard Temin, der das in den 60-er Jahren entdeckte, wurde zunächst verlacht, bekam aber später den Nobelpreis für eben diese Entdeckung ( der reversiven Transkriptase, wie man das heute nennt ).
 
Reversive Transkriptase erlangte traurige Berühmtheit, als klar wurde, dass die RNS des AIDS-Virus über diesen Weg die DNS der infizierten Zelle manipuliert.
 
 
Genetik beschreibt den Einfluss der DNS, Epigenetik den Einfluss der Umweltsignale auf die Produktion der Proteine.
 
Da ankommende Umweltsignale durch die Regulationsproteine modifiziert werden, ist jedes neu produzierte Protein-Molekül in der nun konkret entstehenden Variante Funktion aller drei an seiner Produktion beteiligten Instanzen:
  • dem ankommenden Signal (das ein Molekül oder ein Boson sein kann),
  • dem Regulationsprotein (das mit dem Signal kollidiert) und
  • dem Gen (das zusammen mit dem neuen Zustand des Regulationsproteins zur Bildung des Proteins führt, welches die Zelle weiter entwickelt).
Ein und dasselbe Gen kann so zur Bildung von gut 2000 unterschiedlichen Varianten eines Proteins führen.
 
Damit wird klar:
 
Wie ein Körper sich fortentwickelt
 
bestimmt neben seinen Genen ganz wesentlich auch die  U m w e l t , in der er lebt
 
( d.h. nahezu alles, was daraus mit seinen Zellen in Berührung kommt )

 
 
Quelle: Lipton, B. (2006): Intelligente Zellen, Kap. 2 (S. 49-74)
 
 
 
DNS-Moleküle sind fadenförmig und bestehen aus vier stickstoff-haltigen Basen: A, T, C, G = Adenin, Thymin, Cytosin, Guanin. Die Sequenz, in der diese Basen auftreten, bestimmt die Sequenz der Aminosäuren in jedem einzelnen Protein. Zudem sind die DNS-Fäden in Segmente unterteilt, die man Gene nennt: Kopiervorlage für je ein bestimmtes Protein.
 
Nebenbei: Selbst die erst nach der Jahrtausendwende entstande Literatur zum Umfang des meschlichen Genoms, ist sich keineswegs darüber einig, um wie viele Gene genau es sich denn hierbei eigentlich handelt. Sicher scheint jetzt nur zu sein, dass kaum 25.000 sind (also viel weniger als die rund 150.000, die man noch Mitte der 90-er Jahre erwartet hatte).
 
Der Nobelpreisträger David Baltimore, einer der weltweit angesehensten Gentechniker überhaupt, schrieb 2001: F a l l s  im menschlichen Genom nicht noch viele Gene gibt, die unsere Computer bislang nicht erkennen konnten, müssen wir zugeben, dass wir unsere im Vergleich zu Würmern und Pflanzen zweifellos größere Komplexität nicht durch zusätzliche Gene gewonnen haben ...
 
Noch erstaunlicher [Bruce Lipton: Intelligente Zellen (2006) S. 64-65]:
  • Der primitive Fadenwurm — der ein aus exakt 969 Zellen bestehender, schnell wachsender, sich rasch vermehrender Organismus mit einem Gehirn aus nur etwa 300 Zellen ist — verfügt über ein Genom aus etwa 24.000 Genen.
     
  • Die Fruchtfliege aber, die einen weit weniger primitiven Organismus darstellt, hat ein nur halb so umfangreiches Genom.

Wir müssen daraus wohl schließen, dass die Komplexität und Entwicklungsstufe, die einem biologischen Wesen zugeordnet sind, kaum etwas mit der Zahl G seiner Gene zu tun hat. Allerdings korrespondiert die Zahl B der Basenpaare, die sich in einem Genom finden, auch nicht unbedingt mit der Zahl der Gene: Nach Wikipedia ist
  • ( G, B ) = ( 30.907,    200.000.000 )  beim gemeinen Wasserfloh, aber
  • ( G, B ) = ( 22.500, 3.000.000.000 )  beim Menschen


 

 Beitrag 0-25
Wie es zu biologischer Intelligenz, Leben und Bewusstsein kommt

 
 

 
Wie es zu biologischer Intelligenz, Leben und Bewusstsein kommt

 
 
In seinem Buch Intelligente Zellen — Wie Erfahrungen unsere Gene steuern beschreibt der Zellbiologe Bruce Lipton
  • welche Art von Intelligenz allein schon jeder einzelnen Zelle biologischer Wesen innewohnt,
  • nach welchem Prinzip sie funktioniert
  • und auch, dass die Natur sie nicht im Zellkern, sondern in der Zellmembran implementiert:
     
Die Membran ist — ebenso wie ein Chip im Computer — ein flüssiger, kristalliner Halbleiter mit Toren (bei Zellmembranen sind das Rezeptor-Proteine) und Kanälen (das sind spezielle Proteine, die es der Zelle erlauben, Nährstoffe aufzunehmen und Abfallstoffe auszuscheiden).
 
Lipton skizziert dann auch, wie es zu Leben, Bewusstsein, Gehirn und zunehmend mehr Intelligenz kommt:


Bruce Lipton (S. 126-129, etwas gekürzt)
 
In den vorangehenden Kapiteln wurde gezeigt,
  • dass schon die Membran jeder Zelle gewisse Intelligenz enthält,
  • dass die Membran nach Struktur und Funktionsweise einem Computer-Chip vergleichbar ist
  • und wie die Funktionen der Zellen infolge molekularer Bewegungen des "Protein-Gewebes" aufgerufen werden.

Die Bewegung der Protein-Bausteine wird durch Umweltsignale ausgelöst, wobei die Umweltsignal-Stoffe (aus der Umgebung der Zelle kommend) sich mit den in der Zelle existierenden verhaltenserzeugenden zytoplasmischen Proteinen an der Zellmembran treffen: Die Membran empfängt Reize und erzeugt in Reaktion auf jedes solche Signal eine angemessene lebenserhaltende zelluläre Reaktion. In diesem Sinne kann die Zellmembran als » Gehirn « der Zelle gesehen werden, dessen physikalische Untereinheiten die integralen Rezeptor- und Effektor-Proteine der Membran sind (IMPs).
 
Wo ein Rezeptor-Protein R einen Reiz an ein Effektor-Protein E weiterleitet, startet das einen reaktionserzeugenden Protein-Prozess.
 
Jede Zelle reagiert auf in dieser Weise auf eine Vielzahl grundlegender » Wahrnehmungen « in ihrer Welt. Sie bemerkt z.B. die Anwesenheit von Kalium, Calcium, Sauerstoff, Glukose, Histamin, Östrogen, Gift, Licht oder was auch immer für sie einen Reiz darstellen kann.
 
Die gleichzeitige Reaktion zehntausender solch reflexiver Wahrnehmungsschalter in der Membran, deren jeder einem bestimmten Umweltsignal zugeordnet ist, erzeugen gemeinsam das komplexe Verhalten einer lebenden Zelle.
 
 
Während der ersten 3 Milliarden Jahre des Lebens auf unserem Planeten bestand die Biospähre nur aus freilebenden Einzellern wie Bakterien, Algen und Protozäen. Traditionell betrachten wir diese Lebensformen als Einzelwesen, doch inzwischen weiß man, dass individuelle Zellen bestimmte Signalmoleküle freisetzen können, die das Verhalten anderer Organismen beeinflussen. Dies führt zu einem koordinierten Verhalten einer verstreuten Population einzelliger Organismen. Derartige Bildung primitiver Gemeinschaften verbesserte die Überlebenschancen der Einzeller.
     
    Die einzelligen Schleimpilz-Amöben sind gutes Beispiel dafür, wie Signalmoleküle zur Bildung einer Gemeinschaft führen: Sie leben vereinzelt im Boden und suchen nach Nahrung. Wenn jene aufgebraucht ist, erzeugen diese Einzeller einen Überschuss eines Stoffwechselproduktes namens cAMP, das sie an ihre Umgebung abgeben. Wenn diese freigesestzen Moleküle sich mit cAMP-Rezeptoren anderer Schleimpilz-Amöben verbinden, erzeugt es in ihnen ein Aggregationsverhalten, so dass ein mehrzelliger Körper (Fruchtkörper genannt) entsteht. Er stellt das Reproduktionsstadium des Schleimpilzes dar.
     
    Während der Hungerperiode teilen die alternden Zellen ihre DNS miteinander und erzeugen eine nächste Generation. Die jungen Amöben überdauern zunächst als inaltive Sporen. Sobald es aber wieder Nahrung gibt, bilden die Nahrungsmoleküle das Signal der Aktivierung und eine neue Population von Einzellern beginnt ihr Dasein.

Mir geht es hier vor allem darum, dass einzellige Organismen in einer Gemeinschaft leben, in der sie ihre » Wahrnehmung « einander mitteilen und ihr Verhalten koordinieren, indem sie Signalmoleküle freisetzen. Das cAMP war eine der evolutionär frühesten Formen eines regulativen, verhaltensgesteuerten Sekrets.
 
Lange Zeit nahm man an, die grundlegenden menschlichen Signalmoleküle (allen voran Hormone, Neuropeptide, Zytikine und Wachstumsfaktoren) seinen erst im Zuge der Bildung mehrzelliger Lebensformen entstanden. Die jüngste Forschung aber hat gezeigt, dass sich schon die Einzeller in den frühesten Stufen der Evolution solcher Botenstoffe bedienten.
 
 
Im Laufe der Evolution maximierten die Zellen die Zahl der Wahrnehmungsproteine (der IMPs) in der Membran: Um mehr wahrzunehmen und damit die Wahr­scheinlichkeit ihres Überlebens zu erhöhen, sammelten sich die Zellen zunächst in Form von Kolonien und später in Form hochorganisierter Zellverbände (die dann Organe und Gewebe des Körpers bilden). In gemeinschaftlichen Organisationsformen kommt es zur Spezialisierung der Zellen: Die intelligente Informationsverarbeitung der Zellmembran wird von den spezialisierten Zellen des Nerven- und des Immunsystems übernommen.
 
 
Erst vor etwa 700 Millionen Jahren erkannten die Zellen einen Vorteil darin, sich zu eng geknüpften mehrzelligen Gemeinschaften zusammenzuschließen, die wir als Pflanzen und Tiere bezeichnen. Die koordinierenden Signalmoleküle der freilebenden Einzeller behielten auch in diesen Gemeinschaften ihre Funktion und Rolle. Die Zellgemeinschaften aber konnten — durch Regulierung des Freisetzens und der Verteilung dieser steuernden Signalmoleküle — ihre Funktionen koordinieren und so als  e i n  Wesen agieren.
 
In Mehrzellern, die noch kein Nervensystem ausgebildet haben, implementieren die Signalmoleküle eine Art elementares "Denken", indem sie Information zwischen den Zellen transportieren. Nur in solchen Organismen nimmt noch wirklich  j e d e  Zelle sämtliche Reize der Umgebung wahr und reagiert darauf zielgerichtet.
 
Als die Zellgemeinschaften aber größer und komplexer wurden, musste eine neue Lösung gefunden werden: In zunehmend komplexeren Zellverbänden kann nicht jede Zelle einfach tun und lassen, was sie will — wirklich funktionieren kann die Gemeinschaft nur, wenn sich alle Beteiligten auf einen gemeinsamen Plan einlassen. Ein Grund hierfür ist, dass jede Zelle nur wahrnehmen kann, was in ihrer unmittelbaren Umgebung an Reizen vorhanden ist, sie hat keine Wahrnehmung dessen, was weiter entfernt oder gar außerhalb des Organismus abspielt. Die komplexen Verhaltenkontrollen, die ein mehrzelliger Organismus braucht, mussten Aufgabe zentraler Informationsverarbeitung werden. Dies führte zu einer Spezialisierung, die schuf, was man heute Nervenzellen nennt.
 
Auch entstand eine zentrale Verarbeitungsstelle: das Gehirn. Es erhielt höchste Wahrnehmungsautorität: Jede Zelle muss sich ihr beugen.
 
Dieser wichtige Punkt sollte berücksichtigt werden, wenn wir die Zellen unserer Organe und Gewebe für unseren Gesundheitszustand verantwortlich machen. Er erklärt, warum positives oder negatives Denken unsere Gesundheit fördern oder zerstören kann ( Placebo- und Nocebo-Effekt ).
 
 
In höheren, bewussteren Lebensformen entwickelt das Gehirn eine Spezialisierung, die es dem Organismus ermöglicht, sich auf seine regulatorischen Signale einzuschwingen. Dieses sog. limbische System übersetzt die chemischen Kommunikationssignale in Empfindungen, die von wirklich allen Zellen der Gemein­schaft wahrgenommen werden.
 
Wegen seiner Fähigkeit, den Fluss aller verhaltensregulierenden Signale in der Zellgemeinschaft zu koordinieren, war das limbische System ein großer evolutionärer Fortschritt. Je effizienter sich das innere Signalsystem machte, desto größer konnte das Gehirn werden. Auch entwickelten die mehrzelligen Organismen immer mehr Zellen, die auf eine zunehmend größer werdende Zahl aus der Umwelt kommender Nachrichten reagieren konnten.
 
Eine einzelne Zelle kann nur auf einfache sensorische Nachrichten (wie etwa rot, rund, aromatisch, etc.) reagieren. Erst die zusätzliche Geisteskraft vielzelliger Lebewesen ist in der Lage, diese einfachen Empfindungen zu solchen höherer Komplexität zusammenzusetzen (um z.B. einen Apfel als solchen zu erkennen).
 
Evolutionär erlerntes, grundlegendes Reflexverhalten wird durch genetisch festgelegte Instinkte an die Nachkommen vererbt. Die Evolution des Gehirns mit seiner zunehmenden Anzahl von Neuralzellen bot dem Organismus die Chance, sich nicht nur auf instinktives Verhalten zu verlassen, sondern auch aus Lebenserfahrung zu lernen. Neues Reflexverhalten entsteht durch Konditionierung. Das klassische Beispiel dafür sind Hunde, denen Pawlow beibrachte, beim Klingeln einer Glocke zu geifern, da sie gelernt hatten, dass solches Klingeln die unmittelbar bevorstehende Ankunft von Futter bedeutete. Dies war ein eindeutig unbewusstes, erlerntes Reflexverhalten.
     
  • Es gibt sehr einfache Reflexverhalten (wie etwa das Ausschlagen des Beines, wenn das Reflexhämmerchen aufs Knie schlägt),
  • aber auch außerst komplexes Reflexverhalten (dann etwa, wenn wir mit 100 km/h bei dichtem Verkehr über die Autobahn fahren und gleichzeitig tief in Gedanken oder tief in ein Gespräch verwickelt sind).
Konditionierte Verhaltensweisen können so anspruchsvoll sein, wie sie wollen: Man braucht dabei dennoch  n i c h t  zu denken, denn die neuralen Verbindungen sind durch einen vorausgegangenen Lernprozess » fest verdrahtet «, so dass immer gleiche Reaktion sichergestellt ist.
 
Man nennt solche Reaktionsmuster » Gewohnheiten «.
 
Bei niedrigen Tieren dient das gesamte Gehirn der rein gewohnheitsmäßigen Reaktion auf Reize. Pawlows Hunde sabbern reflexartig, nicht absichtlich.
 
Das Unterbewusstsein handelt  i m m e r  reflexartig: Es unterliegt nicht der Vernunft oder dem Denken.
 
Menschen und höher entwickelte Tiere haben einen besonderen Bereich des Gehirns entwickelt, mit dem sie denken, planen und  b e w u s s t e  Ent­scheidungen treffen können: die vordere Großhirnrinde. Sie ist offenbar auch der Sitz des selbst-bewussten Denkvermögens — eine Art Sinnesorgan, mit dem wir uns selbst beobachten, unsere Gefühle überwachen können und auf langfristige Erinnerungen zurückgreifen können.
 
Die Fähigkeit des Bewusstseins, die vorprogrammierte Verhaltensweisen des Unterbewusstseins zu überschreiben, ist Grundlage unseres freien Willens.
 
Wenigstens beim Menschen ist die Lernfähigkeit des Gehirns so weit entwickelt, dass wir Wahrnehmungen — statt sie selbst zu erkennen — auch von unseren Lehrern übernehmen können. Sie verankern sich in unserem Gehirn und werden zu unser eigenen » Wahrheit «. Doch was, wenn unser Lehrer im Irrtum war (wir also mit Fehlinformation gefüttert werden)? Nun: Das Unterbewusstsein reagiert auf Reize gemäß seiner Programmierung und ist nicht in der Lage, sich über langfristige Konsequenzen Gedanken zu machen. Es arbeitet, wie eine Maschine. Unsere von anderen übernommene Fehleinschätzung zu überprüfen sieht es nicht vor. Und so kommt es, dass wir uns in manchen Dingen immer wieder unangemessen verhalten.
 
Kurz: Unsere Reaktionen auf Umweltreize werden durch unsere Wahrnehmungen gesteuert, doch nicht alle unserer » Wahrnehmungen « sind zutreffend. Daher wäre es richtiger, die steuernde » Wahrnehmung « eine Überzeugung zu nennen:
 
 
Was uns steuert, sind demnach  Ü b e r z e u g u n g e n .

 

 


 
Wirklich  ü b e r z e u g t  zu sein ist wichtig,
 
denn nur rein formal positiv zu denken — darauf weist Lipton auch hin — reicht nicht:


Lipton (S. 166-171, etwas gestrafft)
 
Die Evolution der höheren Säugetiere hat eine Wahrnehmungsebene hervorgebracht, die wir Selbstbewusstsein nennen. Sie stellt einen wichtigen evolutionären Fortschritt dar, denn unterbewusstes Denken (sozusagen unser » Autopilot «) ist fest konfiguriert, wohingegen unser bewusstes Denken (vergleichbar mit maunu­eller Steuerung eines Autos) sich dynamisch, d.h. von Fall zu Fall neu, konfiguriert. Wichtige Folge hiervon ist, dass
  • bewusstes Denken pro Sekunde nur etwa 40 von außen kommende Reize verarbeiten kann,
     
  • wohingegen unser Unterbewusstsein bis zu 20 Millionen pro Sekunde verarbeitet (als etwa 500.000 mal schneller ist).

Die beiden Arten unseres Denkens arbeiten unabhängig voneinander, was zur Folge hat, dass sich bewusstes Denken auf etwas konzentrieren kann (wie etwa auf die Party, zu der Sie am Freitag gehen wollen), während gleichzeitig Ihr Unterbewusstsein dafür sorgt, dass Sie Ihr Auto auch in dichtem Verkehr sicher und unfallfrei steuern.
 
Nur das  b e w u s s t e  D e n k e n  verfügt über die Möglichkeit, auf Umwelteinflüsse auch kreativ zu reagieren. Insbesondere kann es durch Selbstreflexion sein Verhalten beobachten, während es abläuft, und es kann vorprogrammiertes Verhalten unterbrechen und neue Reaktionen entwickeln. Dieser Fähigkeit wegen ist bewusstes Denken die Quelle unseres freien Willens.
 
Beide Denkarten zusammen sind ein wirklich phänomenales Gespann: Das bewusste Denken ist unser Selbst, die Quelle unserer Kreativität und unseres freien Willens. Doch wer kümmert sich in der Zwischenzeit um das Tagesgeschäft? Das Unterbewusstsein. Und wie geht es diesen Geschäften nach? Genau so, wie es programmiert wurde.
 
 
Das Verhalten, das unser Unterbewusstsein an den Tag legt, entspricht nicht immer unseren Zielen, denn die meisten unserer grundlegenden Verhaltensweisen wurden durch die Beobachtung, vor allem auch durch die  u n b e w u s s t e  (nicht willensgesteuerte) Beobachtung anderer Menschen programmiert. Dies ist der Grund, warum viele Menschen überrascht sind, wenn sie hören, dass sie » genau so, wie ihre Mutter oder ihr Vater « reagieren (wie die Menschen also, durch deren Vorbild sie programmiert wurden). Die Vergeblichkeit unseres Kampfes mit unserem Unterbewusstsein ist eine schwierige Botschaft, denn die meisten von uns haben schon früh gelernt, dass ein starker Wille etwas Bewunderswertes ist. Also versuchen wir immer wieder, unser unbewusstes Programm zu überrumpfen. Diese Bemühungen aber treffen auf Widerstand, da die Zellen verpflichtet sind, dem unterbewussten Programm zu gehorchen.
 
Der Kampf unseres bewussten Willens gegen die uns unbewusste Programmierung kann zu ernsten neurologischen Störungen führen.
    Im auf einer wahren Geschichte beruhenden Film Shine wird das thematisiert: Der australische Konzertpianist David Helfgott trotzt seinem Vater, indem er nach London geht, um Musik zu studieren. Sein Vater aber — ein Holocaust-Überlebender — hat das Unterbewusstsein seines Sohnes dahingehend programmiert, dass die Welt ein unsicherer Ort sei, der lebensgefährlich sein kann. Der Vater besteht deswegen darauf, dass es am sichersten sei, möglichst nahe bei der Familie zu bleiben. Helfgott aber, der wusste, dass er das Zeug zu einem großartigen Pianisten hatte, versuchte sich vom Vater zu lösen, um seinen Traum wahr zu machen.
     
    In London spielt Helfgott in einem öffentlichen Musikwettbewerb das besonders schwierige Dritte Klavierkonzert von Rachmaninow. Der Film zeigt den Konflikt zwischen seinem bewussten Denken (das erfolgreich sein will) und seinem Unterbewusstsein (das es für lebengefährlich hält, sichtbar und bekannt zu werden). Helfgotts Bewusstsein erzwingt sich die Kontrolle, bis er — nun schweißüberströmt — den letzten Ton gespielt hat. Dann wird er ohnmächtig, weil ihn der Kampf mit seiner unbewussten Programmierung zu viel Energie gekostet hat. Sein Sieg über sein Unterbewusstsein kostet ihn einen hohen Preis: Als er wieder zu sich kommt, ist er geistesgestört.
Zu den konventionellen Methoden, mit destruktivem Verhalten umzugehen, gehören Medikamente und Gesprächstherapien. Neuere Ansätze legen uns nahe, unsere Programmierung zu ändern, weil man erkannt hat, dass dem unterbewussten Tonband mit Vernunft nicht beizukommen ist. Diese Methoden bauen auf Erkentnissen der Quantenphysik auf und lassen sich unter dem Begriff Energetische Psychiologie zusammenfassen, ein aufkeimendes neues Feld, das auf der Neuen Biologie beruht.
 



Lipton (S. 126-126, nur der Hauptgedanke)
 
Bevor ich mich weiter über die unglaubliche Kraft unserer Gedanken und meine Studien über die Zusammenhänge zwischen Körper und Geist auslasse, möchte ich noch eines klarstellen:
 
Ich bin keineswegs der Meinung, dass positives Denken immer körperliche Heilung bringt. Um Kontrolle über seinen Körper und sein Leben zu haben, bedarf es positiver  Ü b e r z e u g u n g  . Wenn Menschen bewusst nur so tun, als dächten sie positiv, schwächen sie sich dadurch eher, da ihnen dann ja bewusst ist, dass sie alle Möglichkeiten, Verbesserung ihres Lebens zu erreichen, erschöpft haben.
 
Da das Unterbewusstsein nun aber etwa 500.000 mal mehr neurologische Verarbeitungskapazität hat als das Bewusstsein, muss uns klar sein, welches der beiden Programme gewinnen wird: auf jeden Fall unser Unterbewusstsein (bei nur scheinbar positivem Denken also der Nocebo-Effekt ).
 



 

 Beitrag 0-27
Wie auch Geist den Körper steuert — und sich dabei durchsetzen kann

 
 

 
Wie das zentrale Nervensystem die Reaktion der Körperzellen auf Umweltreize korrigieren kann
 
kurz:
 
Wie der Geist den Körper steuert

 
Bruce Lipton erklärt es so:


Lipton (S. 134-135, gekürzt)
 
Die Erkenntnis, dass tiefe Überzeugungen Einfluss auf die Steuerung biologischer Prozesse nehmen, gewann ich aufgrund meiner Studien mit geklonten Endo­thelialzellen (Zellen aus der Innenwand der Blutgefäße): Die Zellen meiner Kulturen veränderten ihr Verhalten in Abhängigkeit der aus ihrer Umwelt kommenden Reize:
  • Wenn ich den Zellen Nährstoffe gab, bewegten sie sich darauf zu.
  • Wenn ich aber ihre Umgebung vergiftete, zogen die Zellen sich von diesem Reiz zurück, so als ob sie diese Moleküle fürchteten.

Meine Forschung konzentrierte sich auf die » Wahrnehmungsschalter « in der Membran der Zellen, die den Übergang vom einen zum anderen Verhalten steuern. Der wichtigste Schalter, mit dem ich mich befasste, hat einen Protein-Rezeptor, der auf Histamin reagiert (das der Körper als eine Art Alarmsystem einsetzt). Ich fand zwei Arten von Schaltern, H1 und H2, die auf das gleiche Histaminsignal reagieren:
  • Wenn aktiviert, rufen die H1-Schalter eine Schutzreaktion hervor ähnlich der der Zellen in den Kulturschalen mit vergifteter Umgebung.
  • Die H2-Histamin-Rezeptoren aber rufen einen Wachstumsimpuls hervor.

Nun ist es aber so, dass das Signal Adrenalin, mit dem der Körper auf allgemeine Notsituationen reagiert, ebenfalls zwei verschiedene, dieses Signal erkennende Rezeptoren hat: Alpha und Beta genannt. Die Andrealin-Rezeptoren führten zum gleichen Zellverhalten wie es bei den Histamin-Rezeptoren zustande kam:
  • Wenn in einem IMP-Schalter ein Alpha-Adrenalin-Rezeptor sitzt, löst die Anwesenheit von Adrenalin eine Schutzreaktion aus.
  • Wenn dort aber eine Beta-Andrealin-Rezeptor sitzt, aktiviert das gleiche Signal eine Wachstumsreaktion [ Lipton, Bensch, et al, 1992 ].

Wirklich aufregend aber wurde es, als ich meinen Zellkulturen gleichzeitig Histamin  u n d  Adrenalin zufügte: Ich konnte feststellen, dass die Adrenalinsignale (die im Körper vom Zentralnervensystem freigesetzt werden) stärker sind als die lokal freigesetzten Histaminsignale. Mit anderen Worten: Die Zellen in unserem Körper sind unterschiedlich einflussreich, wenn es darum geht, auf Signale zu reagieren.
 
Ich fand diese Beobachtung äußerst aufregend, da ich sie so interpretiere, dass der Geist — über das Adrenalin des zentralen Nervensystems — stärkerer Wirkung fähig ist als der Körper, dem das lokale Histaminsignal entspricht.
 
 
Ich wollte die Konsequenzen dieser Entdeckung in meinem Forschungsbericht erläutern, doch meine Kollegen traf fast der Schlag angesichts der Vorstellung, dass in einem zellbiologischen Bericht etwas über die Beziehung zwischen Geist und Körper stehen sollte. Sie wollten es nicht, da der Geist kein anerkanntes biologisches Modell abgibt. Biologen sind Newtonianer: Für sie zählt nur, was aus Materie besteht. Also fügte ich nur einen kryptischen Kommentar über die Bedeutung dieser Studie hinzu, ohne zu erklären, worin die Bedeutung zu sehen ist.
 
Mein Standpunkt: Die herkömmliche Überzeugung der Biologen, dass Geist — als örtlich scheinbar nicht lokalisierbare Energie — keine Wirkung auf Materie haben könne, ist eine erlernte Überzeugung, die nicht mehr haltbar erscheint für jeden, der die Erkenntnisse der Quantenphysik ernst nimmt. Biologen und Schul­mediziner weigern sich noch, das zur Kenntnis zu nehmen.
 


Referenzierter Forschungsbericht:
  • Lipton, Bensch, et al. (1992): Histamine-modulated Transdifferentiation of Dermal Microvascular Endothelial Cells, Experimental Cell Research 199: 279-291


 

 Beitrag 0-29
Über die — derzeit wahrscheinlichste — wahre Natur aller biologischen Organismen

 
 

 
Zur wahren Natur aller biologischen Wesen

 
 
Wie sich aus durch erarbeiteten Beobachtungen und Thesen als am wahrscheinlichsten ergibt, muss jeder biologische Organismus — angefangen bei einer einzigen Zelle bis hin zu Pflanzen, Tieren und schließlich Menschen — als eine Summe von Wellen im Sinne der Quantenmechanik verstanden werden.
 
 
Hieraus folgt, dass dieses Wesen
  • wenigstens in seinen nicht-materiellen Teilen weit länger existieren kann als sein Körper,
     
  • es in ganz extremen Ausnahmefällen sogar mehrfach mit gleicher biologischer Identität in körperliche Existenz hineingeboren werden kann
     
  • vor allem aber, dass es — wie schwach auch immer — über das gesamte Universum hinweg verteilt existieren kann.

 
Warum man von der Gültigkeit der ersten beiden dieser Aussagen ausgehen sollte sollte, wird gut erklärt auf Seite » Bruce Liptons Erkenntnisse und seine Schlussfolgerung daraus «.
 
Die dritte Eigenschaft aber wäre dann einfach nur triviale Folgerung gut gesicherter quantenphysikalischer Erkenntnisse nämlich:
  • Jede Welle breitet sich um die Stelle herum, an der sie erzeugt wurde, mit Lichtgeschwindigkeit kugelförmig ins gesamte Universum aus.
     
  • Wellenpakete, unter denen man ja die Summe sehr vieler Wellen versteht, haben i.A. nur an einer einzigen, stark lokalisierten Stelle im Universum wesentlich von Null verschiedenen Wert.
     
  • Dies impliziert, dass auch  n u r  dort eine irgendwie nennenswerte Wahrscheinlichkeit dafür besteht, dass dieses Paket von Wellen — das Wesen also, von dem wir sprechen — mit anderen Wellenpaketen so kollidiert, dass es zum Zeitpunkt dieser Kollision beobachtet und durch sie modifiziert wird.

 
Wichtige Folgerung aus all dem wäre dann auch, dass biologische Organismen, wirklich  g e n a u  betrachtet, kaum zueinander disjunkt sein können (aber auch das wissen wir ja schon: Wir brauchen da ja nur an uns selbst und an alle in unserem Körper lebenden Bakterien und/oder Viren zu denken, von einzelnen körpereigenen Zellen mal ganz abgesehen).
 
Wer Bruce Liptons Buch Intelligente Zellen gelesen hat, wird dann auch nicht mehr erstaunt darüber sein, dass jede Gemeinschaft biologischer Organismen — etwa die Gemeinschaft sämtlicher auf dieser Erde lebenden Menschen — ebenfalls biologischer Organismus im angenommenen Sinne ist. Kein Wunder also, dass die Evolution dieser speziellen Gemeinschaft durch die gleichen Naturgesetze getrieben wird, wie schon lange vor ihr (und natürlich auch jetzt noch) die Evolution großer biologischer Zellverbände ganz allgemein.

 

 Beitrag 0-127
Wie Genomvergleich uns den Weg der Evolution zu zeigen in der Lage ist

 
 

 
Was Genom-Vergleich uns zeigt

 
 
Seitdem der Mensch gelernt hat, sein eigenes Genom — ja sogar das Genom aller Lebewesen — zu kartieren, lässt sich durch den Vergleich der Genome auch der lange Weg der Evolution recht gut nachverfolgen.
 
Darwin (der Mitte des 19. Jahrhunderts lebte), hatte noch keine Möglichkeit, herauszufinden, über welchen Mechanismus Evolution durch Selektion möglich wird. Wir aber sehen heute, dass die Varianten, die er postulierte, durch natürlich auftretende Mutationen der DNA bewerkstelligt werden.
 
    Sie treten schätzungsweise mit einer Rate von 1 : 100 Millionen Basenpaaren pro Generation auf. Da jeder von uns zwei Genome zu je 3 Milliarden Basenpaaren hat — geerbt von Vater und Mutter — ergibt sich so, dass jeder von uns einzigartig wird durch etwa 60 Mutationen, die bei seinen Eltern noch nicht vorhanden waren.

 
Die meisten Mutationen treten in unwichtigen Teilen des Genoms auf und haben daher wenig oder gar keine Auswirkung. Der Grund hierfür: Mutationen in den wichtigeren Teilen des Genoms sind i.A. schädigend und werden schnell aussortiert, da sie die Fähigkeit zur Reproduktion beeinträchtigen.
 
Zu seltenen Gelegenheiten aber tritt eine Mutation auf, die einen leichten selektiven Vorteil bedeutet. Diese neue "Schreibweise" der DNA wird dann eine geringfügig höherer Wahrscheinlichkeit haben, an die Nachkommen weiter gegeben zu werden. Über sehr lange Zeiträume hinweg kann sie sich dann in allen Mitgliedern der Spezies durchsetzen und schließlich zu größeren Veränderungen der einen oder anderen biologischen Funktion führen.
 
    Sozusagen im Zeitraffer-Tempo kann man solche Evolution beobachten in Form schneller Variation krankheitserregender Viren, Bakterien und Parasiten, durch die es zu schneller Ausbreitung von Epidemien kommen kann. So sind z.B. die schnellen evolutionären Veränderungen des HIV-Virus, der AIDS verursacht, zu einer großen Herausforderung für die Entwicklung wirksamer Impfstoffe geworden.

 
Genomvergleich führt zur Erkenntnis, dass jedes Paar von Arten einen gemeinsamen Vorfahren hat, beispielsweise der Mensch und die Maus, deren Genome heute mit besonders hoher Genauigkeit bestimmt sind:
 
    Ihr Inventar protein-kodierender Gene ist bemerkenswert ähnlich, und auch die Länge der beiden Genome unterscheidet sich nur wenig. Auch die Ordnung der Gene — die Reihenfolge also, in der sie nacheinander auftreten — ist in wichtigen Abschnitter der DNA dieselbe, obgleich dazwischen durchaus mehr oder wenier nicht-kodierender Gene — sog. Junk DNA, Folgen sog. ancient repetitive elements (AREs) — zu finden sein kann. Sie entstammen "springenden Genen", die sich kopieren und an diversen anderen Stellen im Genom einfügen können, meistens ohne funktionelle Folgen. Genome von Säugetieren sind übersät mit solchen AREs, rund 45% des menschlichen Genoms bestehen aus solchem gegentischen Strandgut.
     
    Wenn man nun längere Abschnitte des Menschen- und Mausgenoms so ausrichtet, dass sich entsprechende Folgen kodierender Gene neben einander liegen, findet man häufig auch zwei identische AREs an etwa derselben Stelle, und weiß daher, dass sie als Mutation in einem gemeinsamen Vorfahren von Mensch und Maus entstanden sein müssen.

 
Die der Spezies Mensch am nächsten verwandten Arten sind Schimpansen (gefolgt von Orang-Utan und Makake): Die Genome von Schimpanse und Mensch sind, von Junk DNA mal abgesehen, zu 96% gleich. Man lese dazu auch die Meldung: Nur der Mensch verfügt über ein spezielles Gen, das nach Meinung der Forscher dafür verantwortlich sein könnte, dass wir sprechen können. Es sorgt für die Produktion einer speziellen Nukleinsäure, der sogenannten microRNA miR-941.
 


Francis S. Collins (2006):
 
Neuerdings interessiert man sich sehr für das Gen FOXP2, welches die Sprachentwicklung zu beeinflussen scheint:
 
Die Geschichte von FOXP2 begann mit der Beobachtung einer Familie in England, deren Mitglieder über drei Generation starke Schwierigkeiten beim Sprechen hatten. Sie hatten Schwierigkeiten, Worte entsprechend grammatikalischen Regeln anzuordnen oder komplexe Satzstrukturen zu erfassen. Die Muskeln ihrer Münder, Gesichter und Kehlköpfe hatten zu kämpfen, sich so zu bewegen, dass bestimmte Laute hervorgebracht wurden.
 
Mit schier unglaublicher genetischer Spürarbeit fand man heraus, dass bei den betroffenen Mitgliedern dieser Familie nur ein einziger Buchstabe des DNA-Codes im FOXP2-Gen auf Chromosom 7 falsch war. Die Tatsache, dass ein so kleiner Fehler solch tiefgreifende Sprachschwächen verursacht, ansonsten aber keine Folgen hat, war erstaunlich.
 
Noch erstaunter aber war man, als sich zeigte, dass die Sequenz desselben FOXP2-Gens bemerkenswert stabil in allen Säugetieren vokommt. Die dramatische Ausnahme ist der Mensch, bei dem sich vor etwa 100.000 Jahren zwei bedeutsame Veränderungen in der kodierenden Region des Gens ereigneten. Man nimmt nun an, dass diese Veränderung in FOXP2 zur Sprachentwicklung beim Menschen beigetragen hat.
 


 
In diesem Zusammenhang ist interessant:
 
Populationsgenetiker, die mit mathematischen Methoden die Geschichte von Tier, Pflanzen- und Bakterien-Populationen rekonstruieren, glauben durch Genom­vergleich erkannt zu haben, dass sich alle heute lebenden Menschen auf eine gemeinsame Gruppe von Vorfahren zurückführen lassen, die aus nur etwa 10.000 Personen bestand und vor 100.000 bis 150.000 Jahren gelebt haben muss.
 
Dies passt zu fossilen Befunden, die zu zeigen scheinen, dass der Aufenthaltsort dieser unserer Vorfahren Ostafrika war.
 
 
 
Quelle: Francis S. Collins: Gott und die Gene (2006), S. 100-114.

 
 
 
Ganz erstaunlich ist auch, dass die Komplexität des Genoms stark unterschiedlicher Spezien keineswegs der Komplexität ihrer durch uns beobachtbaren typischen Eigenschaften entspricht. Hier einige Beispiele:
     
  • Das menschliche Genom besteht aus nur etwa 25.000 Genen.
     
  • Schon ein Seeigel hat etwas mehr: ca. 26.000.
     
  • Das Genom von Pflanzen kann sogar deutlich mehr haben. Reis z.B. verfügt über etwa 38.000 Gene.

 
Seit 2016 denkt man Hinweise darauf zu haben, dass alles irdische Leben einen gemeinsamen Vorfahren hat.

 

 Beitrag 0-413
Unser Denken und Fühlen — wie es sich aus quantenphysikalischer Sicht heraus darstellt

 
 

 
Unser Denken und Fühlen

aus quantenphysikalischer Sicht heraus

 
 
Unser Gehirn ist ein quantenmechanisches System, welches für uns konstruiert, was wir unsere Realität nennen (z.B. Farben korresponierend zur Wellenlänge von Licht, das den Sehpurpur in unserem Auge erreicht, letztlich aber alle Bedeutung von Signalen, die unsere Sinnesorgane erreichen).
 
Rein alles, was wir als real erachten (= unsere Interpretation der uns erreichenden Signale) ist eine sich ständig — im Detail wenigstens — modifizierende Menge mit JA oder NEIN beantworteter Fragen. Jede Antwort darauf stellt genau ein Bit an Information dar und wird erzeugt durch einen Kollaps der Wellenfunktion, welche uns und insbesondere die Menge all unserer Neuronen, beschreibt: unseren Denkapparat.
 
Diese Bits aber sind, so scheint es jedenfalls, nicht irgendwo in unserem Gehirn gespeichert (wie man früher dachte), sondern bestimmen Form und Intensität elektromagnetischer Signale, deren Quelle unser Gehirn und unser Nervensystem sind.
 
Als extrem energieschwache — und daher als Wellen sehr großer Wellenlänge — werden nun aber fast alle der von unserem Gehirn erzeugten elektromagnetischen Wellen weit über unseren Schädel hinaus existieren, sich also mit Lichtgeschwindigkeit ausgehend von uns im gesamten Universum ausbreiten, bis sie sich — die einen fast sofort, die anderen erst in weiter Zukunft — dort durch Dekohärenz auflösen zu Signalen, die andere belebte oder unbelebte Materie auf quantenmechanischer Ebene, in sehr geringen Ausmaß also, hinsichtlich ihres Zustands abändern (genauer: sie verschmelzen dort mit einem Elektron eines Atoms jener Materie – so extrem gering also ist diese Auswirkung).
 
Umgekehrt können so auch Gedanken anderer Menschen oder Lebewesen das eine oder andere Atom in unserem Gehirn in einen Zustand versetzen, den es ohne jene Gedanken anderer nicht gegeben hätte.
 
Bisher ist Wissenschaft nicht in der Lage, solchen Einfluss auf unser Gehirn zu messen oder gar zu untersuchen. Vorhanden — ganz extrem schwach vorhanden — ist er aber auf jeden Fall, und es kann wohl auch nicht ausgeschlossen werden, dass in extrem seltenen Fällen solcher Einfluss dann doch eine Rolle spielt in dem Sinne, dass er uns — irgendwie, als nur flüchtiger Gedanke — bewusst wird.
 
 
Etwas häufiger werden solche Einflüsse ganz sicher auch unser unbewusstes Denken beeinflussen.

 
Nebenbei noch: Wenn auf die beschriebene Weise ein aus dem Gehirn eines Lebewesens A kommendes Photon den Zustand eines Atoms im Gehirn eines anderen Lebewesens modifiziert, wird das natürlich auch Quantenverschränkung zur Folge haben. Was sich daraus dann an Korrelation ergeben kann, ist noch weit weniger zu durchschauen.

 

 Beitrag 0-105
Hin zu einer Wissenschaft des Bio-Engineerings

 
 

 
Erste Ansätze einer Wissenschaft

Bio-Engineering

 
 
Gegeben die Erkenntnis der Quantenphysik, dass alle Materie — und damit auch jedes Lebewesen — letztlich ein System mit einander wechselwirkender Pakete von Wellen mit Wirkpotential darstellt, würde man erwarten, dass sich dies früher oder später auch über Experimente wird nachweisen lassen.
 
Und tatsächlich ist dem so. Hier einige Beispiele:

     
  • Heilung mittels Weitergabe durch die Natur elektromagnetisch kodierter Information:
     
    Mitte der 90-er Jahre hat eine von Gariaev geführte Gruppe von Wissenschaftlern Ratten durch Injektion von Alloxan in die Betazellen der Bauchspeicheldrüse eine schwere Schädigung zugefügt:
     
    Alloxan schädigt diejenigen Zellen der Bauchspeicheldrüse, die Insulin herstellen. Da nun kein Insulin mehr ausgeschüttet wurde, stieg der Blutzuckerspiegel der Ratten bis in pathologische Bereiche hinein.

       
    • Eine Gruppe der Ratten bekam keinerlei Behandlung und starb nach der Giftinjektion.
       
    • Eine andere Gruppe wurde mit Radiowellen bestrahlt, auf die mit einem Laserstrahl sog. » Heilinformation « aufgeprägt worden war: Sie war gesammelt worden durch Abscannen von elektromagnetischer Strahlung, die man empfangen hatte von den Bauchspeicheldrüsen neugeborener, vollkommen gesunder Ratten. Die organeigene Strahlung der gesunden Bauchspeicheldrüsen war erfasst, addiert und verstärkt worden, und der Laserstrahl, der auf die erkrankten Ratten gerichtet wurde, war mit der so gewonnenen Information moduliert.
       
    • Ergebnis des Experiments: Der Blutzuckerspigel der krank gemachten, dann aber betrahlten Ratten sank rasch ab. Sie wurden wieder gesund.
     
    Gariaev, Peter: Wave based Genome (in Russisch, 1994), Wave Genetic Code (in English, 1997), Moskau],
    Gariaev et al.: The DNA-wave Computer (in: Journal of Non-Locality and Remote Mental Interactions 2(1), 2003
     
     
  • Eine Arbeitsgruppe um R.O. Becker, USA, beschrieb Neubildung amputierter Extremitäten bei Lurchtieren infolge elektromagnetischer Potentialaufprägungen.
     
    Aber schon vorher — in Anfang der 70-er Jahre — hatte man erstaunliche Differenzierungs- und Dedifferenzierungseffekte beim Applizieren von Potentialen an Pflanzen und Amphibien beobachtet.
     
    Murray D.G. (1967): A Method for producing Cellular Dedifferentiation by means of very small Electric Currents (in: Transactions of the New York Academy of Science, Vol 29
    Becker R.O., Murray G. (1970): The Electrical Control System Regulating Fracture Healing in Amphibians (in: Clinical Orthopaedics and Related Research, No. 73  

     
  • Ein erstes Patent für einen Apparat und eine Methode zur Informationsübertragung mit Hilfe von Potentialfeldern für medizinische Anwendungen wurde schon Anfang der 80-er Jahre vergeben:
     
    Gellinas R.C. (1984): Apparatus and method for transfer of information by means of curl-free magnetic vector-potential fields, US Patent 4,432,098.

 
Was sich hier andeutet fasst Ulrich Warnke zusammen in der Bemerkung: Wie es scheint, könnte die Erfüllung des Wunschtraumes von der Rückführung einer kranken in eine gesunde Zelle schon bald nur noch eine Frage der Bioingenieurskunst sein.

 

 Beitrag 0-391
Über den — noch wenig konkreten — Feldbegriff der Biologen

 
 

 
Zum Feldbegriff der Biologen

 
Der in der Entwicklungsbiologie verwendete Begriff des morphogenetischen Feldes ist nicht identisch mit den von Sheldrake angenommenen Feldern (die er ursprünglich ebenso nannte, heute aber genauer als morphische Felder bezeichnet).


Fritz-Albert Popp erklärt (1997):
 
Der Feldbegriff der Biologen hat sich unabhängig von dem der Physiker entwickelt. Wo Biologie von » Kraft « oder einem » Kraftfeld « spricht, ist damit i.A. keine physikalische Kraft gemeint.
 
Ganz sicher war das so bei Alexander Gurwitz, als er in seinen Notizen 1912 von einem » Kraftfeld « sprach.
 
Während in der Physik der Feldbegriff mathematisch formuliert ist — und daher mit großer Eleganz und höchster Perfektion die Stärke lokal wirkender Kräfte genau beschreiben kann —, sind biologische Felder etwas weit weniger Konkretes:
 
Der Feldgedanke der Biologen entstand aus dem Wunsch heraus, irgendwie ausdrückbar zu machen, was die spektakulären Experimente des deutschem Embryologen Hans Dries 1891 an Erkenntnissen gebracht hatten: Sie hatten die Annahme eines lokalen (unmittelbaren) kausalen Zusammenhangs zwischen der Struktur und der zeitlichen Entwicklung des Embryos widerlegt.
    Nachdem Driesch gezeigt hatte, dass sich ein ganzer Organismus aus nur einer Zelle entwickelt, wobei nach der ersten Zellteilung jede der Tochterzellen jeweils die Hälfte des späteren Organismus ausbildet, bewies er, dass überraschenderweise zwei vollständige Organismen aus den beiden Tochterzellen entstehen, wenn man sie zwingt, sich getrennt von einander zu entwickeln.
Damit war klar geworden: Es kann keine lokale, eindeutige Ursache-Wirkungs-Relation zwischen Struktur und deren zeitlicher Entwicklung geben.
 
Obgleich die Biologen auch heute noch darüber zerstritten sind, wie weit ihre Annahmen von der strengen Gültigkeit lokaler Wechselwirkung abweichen müssen — was sich auf räumliche ebenso wie zeitliche Lokalität bezieht —, herrscht Einigkeit darüber, dass das Konzept der morphogenetischen Felder das Geschehen im Prinzip beschreiben kann. (C.H. Weddington in Major Problems in Developmental Biology, Locke M. (Hrsg.), Academic Press 1966, S. 105-124).
 
Sheldrake ging — wie er ja auch selbst sagt — bei seiner Idee morphischer Resonanz vom schon existierenden Begriff des morphogenetischen Feldes aus, hat ihn aber erweitert um sog. » morphische Resonanz « und Nichtlokalität. Unter morphischen Feldern also muss man sie diese, erst durch ihn vorgeschlagene Variante des Feldes vorstellen:
 
 
Das morphische Feld erstreckt sich nicht-lokal über die gesamte Raumzeit, was bedeuten soll, dass es Ereignisse und formgebende Prozesse miteinander ver­knüpft, welche weder am gleichen Ort noch zu gleicher Zeit stattfinden. Die Stärke dieser » Wechselwirkung « wird als weitgehend unabhängig von der räumlichen Distanz der Ereignisse angenommen.
 
Die entscheidene Aussage über dieses Feld ist die Annahme, dass es darin eine auf die Formbildung Einfluss nehmende » morphische Resonanz « gäbe, womit gemeint ist, dass — sobald Materie irgendwo Form annahm — der Einfluss dieses Feldes zur Folge hat, dass sich häufiger als nur zufällig oft gleiche oder recht ähnliche Form auch anderswo bildet — in gewisser Weise autokatalytisch — und dass jede solche Wiederholung eines formbildenden Prozesses die Wahrscheinlichkeit vergrößert, dass er nochmals wiederholt wird.
 


 
Quelle: Fritz-Albert Popp: Rupert Sheldrake in der Diskussion — Das Wagnis einer neuen Wissenschaft des Lebens (1997), S. 194-196.

 
 
Eine erste denkbare Möglichkeit, wie das morphische Feld physikalisch realiert sein könnte, hat (im selben Buch) Hans-Peter-Dürr beschrieben. Eine kurze Zusammenfassung seiner Argumentation findet sich auf Seite Wie plausibel ist Sheldrakes Idee morphischer Resonanz?

 
 
 
Auch noch interessant sind Popps Überlegungen zur Frage
 
 
Kann morphische Resonanz (wenn sie denn existieren sollte) direkt überhaupt beweisbar sein?


Fritz-Albert Popp erklärt (1997, S. 202-203):
 
Es wird oft übersehen, dass eine große Vielfalt von Effekten, die sich in unserer Realität abspielen, messtechnisch nur schwer, wenn überhaupt erfassbar ist. Unser technisches Instrumentarium muss — bei allem Respekt vor seiner rasanten Entwicklung — im Vergleich zum Sensorium biologischer Lebewesen immer noch nur als » rudimentär « bezeichnet werden.
 
Ich selbst habe erlebt, wie noch in den 1970-er Jahren fast niemand an die Existenz der Biophotonen glauben wollte, und das nur deshalb, weil es keine alle überzeugende Nachweismöglichkeit gab.
 
Gurwitz, der als erster Anzeichen für die Existenz von Biolicht fand, wurde als » falscher Prophet « gebrandmarkt, und einen Italiener, der ähnliche Beobachtungen in den 1930-er Jahren gemacht hatte, wurde totgeschwiegen. An solchen Vorstellungen hat sich bis heute [1997] kaum was gändert — und das, obgleich es inzwischen weltweit etwa 40 Gruppen von Wissenschaftlern gibt, die täglich Biophotonen messen und nun zweifelsfrei wissen, dass biologische Systeme nur leben, solange sie Biophotonen emittieren.
 
Ähnliche Vorurteile könnten uns dazu veranlassen, Sheldrakes These als Spinnerei abzutun.
 
Man sollte aber bedenken, wie schwierig es sein muss, ein nicht lokales morphisches Feld nachzuweisen, das einfach nur die Wahrscheinlichkeit für die Koinzidenz bestimmter Ereignisse ein klein wenig erhöht.
 
Bereiche unserer » Realität « zu analysieren, die sich vielleicht noch lange der Nachweisbarkeit entziehen, aber dennoch Relevanz für unsere Entwicklung haben können, wird immer eine extrem schwierige Aufgabe sein. Offensichtlich aber ist, dass es solche Bereiche gibt.
 
So können sich beispielsweise schwächste Effekte, die immer in die gleiche Richtung wirken, über Jahrzehnte dramatisch aufschaukeln, ohne dass sie in den üblichen Zeiten der Laboruntersuchungen signifikant nachweisbar wären.
 
Es scheint mir daher wertvoller, die experimentelle Herausforderung der » morphischen Felder « anzunehmen, als sie ungeprüft abzutun.

 



 

  Beitrag 1913-1
Wie Quantenmechanik und physikalische Chemie Darwin korrigieren

 
Auch Biologie ist nur Physik:

Wie Quantenmechanik und physikalische Chemie Darwin korrigieren


Nach Darwin bedeutet Evolution einfach nur zufällig eintretende Mutation gefolgt von natürlicher Auslese.

Heute wissen wir es genauer, denn unser Wissen über die allgemeinen Eigenschaften von Molekülen zeigt uns: Mutation ist letzlich der Übergang eines Quantensystems von Zustand A nach Zustand B, wobei dieser Zustandsübergang
  • entweder provoziert wurde (durch Zusammenstoß des Quantensystems mit einem Elementarteilchen, z.B. dem Zusammenstoß eines Lebewesens mit Röntgenstrahlung)

ABER: Ob ein Quantensprung von Zustand A nach Zustand B oder C führt, wird durch den Paaren ( A, B) und ( A, C) zugeordnete Übergangswahrscheinlichkeiten geregelt, die sich aus den Wellenfunktionen aller möglichen Zustände ergeben.

Daraus folgt: Auch spontan eintretende Mutation ist in aller Regel nicht ohne Richtung. Dies führt zu einer Art von Auslese, die noch  v o r  dem Prozess der natürlichen Auslese stattfindet und jene daher gewissermaßen kanalisiert (sog. Quantenauslese — durch Biologen in der Evolutionstheorie recht lange ignoriert).


Motor der Evolution ist eben diese, ständig stattfindende, Quantenauslese.

Natürliche Auslese kann nur das bewerten, was ihr von der Quantenauslese zur Bewertung vorgelegt wird.


Versteht man Evolution als einen Prozess von Übergängen zwischen virtuellen Quantenzuständen, wie es die Quantenbiologie heute zu Recht tut, so ergibt sich:

Die sich entwickelnde Komplexität der Lebensformen entsteht keineswegs aus dem Nichts und auch nicht aus dem Chaos, sondern über Quantensprünge, die einer kosmischen Ordnung gehorchen, welche unabhängig davon existiert, ob oder wie oft Quanten und Quantensysteme ihnen mögliche Zustände tatsächlich annehmen.

Unter der Aktualisierung eines Quantenzustands versteht die physikalische Chemie das Springen des Quantensystems in eben diesen Zustand. So jedenfalls gebraucht Lothar Schäfer in seinem Buch "Versteckte Wirklichkeit" diesen Begriff. Er sagt:

In gewissem Sinne ist jeder von uns zu jedem Zeitpunkt Aktualisierung eines komplizierten Quantenzustandes, der schon lange vor unserer Geburt in der Quantenstruktur des Universums als Ordnungsmuster angelegt war, also existiert hat, und der auch lange nach unserem Tod als — dann wieder als nur virtueller (sprich: als gerade nicht durch ein Quanten­system angenommener) Zustand — weiter existieren wird.

Seine Aktualisierung durch uns
  • war möglich,
  • war keineswegs notwendig,
  • könnte sich aber wiederholen.
Wie groß die Wahrscheinlichkeit solcher Wiederholung ist, scheint eine eher nur untergeordnete Frage.

Wenn identische DNS-Moleküle aber nicht durch Kopieren entstehen, sondern durch wiederholtes Auftreten ein und desselben Quantenzustandes, erhält auch der Begriff der Abstammung eine etwas andere Bedeutung ...

grtgrt
 

  Beitrag 1913-3
Vorauswahl durch quantenphysikalischen Zufall

 
 
Hans-m aus 1913-2:
Du machst es (in Beitrag 1913-2) komplizierter, als es ist.

Nach Deiner Aussage würde jedes zufällige Ereignis in der Quantenphysik seine Ursache finden.
Wenn Du eine Münze oder einen Würfel wirfst oder eine Roulettekugel ihr Feld findet, jeder "Zufall" wäre ein Ergebnis der Quantenphysik.

Hallo Hans-m,

du scheinst mich gründlich missverstanden zu haben, denn ich behaupte keineswegs, dass jeder Zufall einzig und allein ein Ergebnis der Quantenphysik sei.

Meine Aussage ist: Der Weg hin zu einem neuen Lebewesen führt stets über eine sehr lange Kette von Zuständen, die  a b w e c h s e l n d  Ergebnis von physikalischem Zufall einerseits und Zufall im Sinne deiner Beispiele andererseits sind. Hierbei gilt:

Der quantenphysikalisch zufällige Schritt besteht im Kollabieren einer Wellenfunktion, sprich: im physikalisch zufälligen Reduzieren einer Menge möglicher Quanten­zustände auf genau einen, der zu materieller Wirklichkeit W führt. Erst in dieser Wirklichkeit wirkt dann Zufall im Sinne deiner Beispiele.

Damit ist klar: Die Wirklichkeit, in der Zufall im Sinne deiner Beispiele wirkt, hätte — falls der vorangehende quantenphysikalische Zufall sich anders entschieden hätte — in eben dieser Form W gar nicht erst existiert (jedenfalls nicht hinsichtlich aller nur denkbaren Details).

Beste Grüße,
grtgrt
 

  Beitrag 1913-4
Wie auch chemische Gesetze die Evolution steuern

 
 
Wie in Beitrag 1913-3 gezeigt, wird Evolution durch zweierlei Zufall gesteuert:
  • durch einen vordergründig wirkenden (das ist der, von dem Darwin und die Beispiele aus Beitrag 1913-2 sprechen),
  • daneben aber auch durch einen hintergründig wirkenden (das ist der quantenphysikalische).

Es ist wichtig, zu sehen, dass der hintergründige den vordergründigen kanalisiert, selbst aber auch kanalisiert wird durch die den Quanten zugeordneten Wahrschein­lichkeitswellen (durch das also, was Heisenberg als die der kosmischen Ordnung zugrundeliegenden " Tendenzen und Neigungen" nennt: siehe Beitrag 1915-5).


Da nun aber Wahrscheinlichkeiten nichts anderes als dimensionslose Zahlenverhältnisse sind, kommt man nicht umhin, feststellen zu müssen:

Zitat von Lothar Schäfer in: Versteckte Wirklichkeit, S. 47:
 
An der Wurzel der Wirklichkeit finden wir Zahlenverhältnisse — nichtmaterielle Prinzipien, auf denen die Ordnung dieser Welt gegründet ist.

Die Grundlage der materiellen Welt ist somit nichtmateriell.

 


Wem das zu abstrakt ist, der sollte sich vor Augen führen, dass man — ausgehend von der Kenntnis der den Quanten zugeordneten Wahrscheinlichkeitswellen — die Struktur von Molekülen berechnen kann, letztlich also die Gesetze der Chemie.

Wie weit man da heute schon ist, weiß ich nicht genau. Auf jeden Fall gilt:
  • Schon 1998 gelang es, die Struktur von Cambrin zu berechnen. Cambrin ist mit etwa 640 Atomen ein eher kleines Protein-Molekül. Über noch größere Erfolge berichten Treppen et al., 2002, J. Phys. Chem. A. 106; 5498-5503.
  • Insbesondere weiß man: Die Struktur selbst der größten röntgenographisch erforschten Proteine kann durch quanten-chemische Berechnungen ihrer Teile vorhergesagt werden (Jiang et al., 1995, Phys. Chem. 99:10521).
Solcher Erfolg der Quantenchemie bei der zuverlässigen Berechnung der Eigenschaften von Molekülen — unabhängig von ihrer Größe — beweist ganz klar:


Alle Moleküle, ob groß oder klein, sind Quantensysteme,

und so wirkt der quantenphysikalische Zufall hinein in sämtliche chemikalischen Vorgänge (!).


Das ist für die Evolution durchaus bedeutsam, wenn man sich vor Augen führt, dass quantenphysikalischer Zufall ja nur bezogen auf das Ergebnis je eines einzelnen Ereignisses absoluter Zufall zu sein scheint, statistisch gesehen aber, wie oben gerade erklärt, durchaus kanalisierend wirkt.

grtgrt

PS: Zur Terminologie, den Zufall betreffend, siehe Beitrag 1911-1.

 

  Beitrag 1953-1
Wie konnte die Natur Leben hervorbringen?

 
 

Wie konnte die Natur Leben hervorbringen?


Hans-Peter-Dürr, argumentiert in seinen Reflexionen eines Quantenphysikers in etwa wie folgt:
 

Das Phänomen "Leben" sollte man nicht mehr als außerhalb der übrigen, sogenannten "unbelebten" Natur angesiedelt sehen.


Im Kontext der alten, auf Determinismus gegründeten Naturauffassung war das nahezu unmöglich, da der Mensch sich stets instinktiv dagegen gewehrt hat, nur als voll deterministisch arbeitendes Uhrwerk eingeordnet zu werden. Solcher Unverträglichkeit zu entgehen, zog man einen deutlichen Trennungsstrich zwischen dem Menschen und der übrigen Natur.

Diese "künstliche Trennung von Mensch und seiner Umwelt" habe viel mit der ökologischen Krise zu tun, die heute die menschliche Zivilisation existentiell bedroht. Es ist dies eine Behauptung, die ich (grtgrt) nicht so recht nachvollziehen kann. Sehr überzeugend aber finde ich alles weitere:


Die neue Physik, so Dürr,
  • gestatte uns, die störende Fessel der strengen Determiniertheit abzustreifen oder wenigstens zu lockern,
  • sei aber zur Begründung der vermuteten Willensfreiheit des Menschen wohl noch nicht ausreichend.
Diese Freiheiten nämlich seien aufgrund der [durch Wellenfunktionen fest vorgegebenen Wahrscheinlichkeiten prinzipiell und primär recht bescheiden und nahe daran durch die fast vollständige Ausmittelung der mikroskopischen "Lebendigkeit" bei makroskopischen Zusammenballungen vollends erdrückt zu werden.


Und dann kommt Dürr zu einem wirklich interessanten Punkt:

Eine vollständige statistische Ausmittelung jener Lebendigkeit erfolgt nur dann, wenn die ein Gesamtsystem bildenden Teile genügend unabhängig voneinander sind.

Da nun aber die Architektur jedes quantenmechanischen Systems nicht nur über die zwischen seinen Teilen wirksamen Grundkräfte bestimmt ist, sondern darüber hinaus durch Wahrscheinlichkeiten, die sich aus seiner Wellenfunktion ergeben, kann ein solches System nicht einfach nur als Summe seiner Teile verstanden werden — eine Tatsache, der man heute noch viel zu wenig Rechnung trägt:
  • Bei der Beschreibung von Molekülen nehmen Chemiker als selbstverständlich an, daß man dabei i.W. mit den groben Approximationen auskommt, welche nur die Intensitäten aber nicht die Phasenbeziehungen der Materiewellen der Elektronen berücksichtigen.
  • Ähnlich die moderne Biologie: Sie — so argumentiert Dürr — sei von den Erfolgen der analytischen Betrachtung des Lebendigen so beeindruckt, daß sie sich heute immer weiter von einer ganzheitlichen Betrachtungsweise entfernt. Sie tue dies in der Überzeugung, damit den Forderungen der exakten Naturwissenschaften am besten entgegenzukommem, übersehe aber, dass es hierfür einer geeigneten Ergänzung der heute dominanten rein analytischen Betrachtung bedürfte.
  • Von welch zentraler Bedeutung eine solche Ergänzung sein kann, beweist die durch die moderne Chaostheorie aufgedeckte Tatsache, dass selbst schwächste Einwirkungen zu völlig verschiedenartiger Entwicklung führen können.

Wer darüber nachdenkt, ob Leben auf diese Weise entstanden sein könnte, müsste meiner Meinung nach aber mindestens noch mit berücksichtigen, was mein Beitrag 1948-18 zu erklären versucht.


grtgrt
 

  Beitrag 1948-18
Zerfall und Evolution

 
 

Über Zerfall und Evolution


Sei S ein in sich abgeschlossenes, sich selbst überlassenes System, welches von einem Zustand z1 in einen Zustand z2 gerät.

Nehmen wir an, dieser Zustandsübergang sei atomar, seine Ursache also ein Elementarereignis (d.h. das spontane Entstehen eines Paares virtueller Elementarteilchen bzw. Kollision und Neuaufteilung von Elementarteilchen).

Nach Beitrag 1948-15 ist jeder Zustand z von S eine Mischung aus

  • Ordnung einerseits (Synonym: z.O = Form = kybernetischer Informationsgehalt) und
  • Unordnung andererseits (Synonym: z.U = Entropie = nachrichtentechnische Informationsdichte).

Den Fall z1.O = 0 mal ausgenommen, gibt es stets sehr viel mehr Zustände des Systems, die ungeordneter sind als Zustand z1. Da zudem jedes Elementarereignis absolut zufälliges Ergebnis hat, ist die Wahrscheinlichkeit, dass es zu einem weniger geordneten Zustand z2 führt größer als die, dass z2 geordneter als z1 ist.

Mit anderen Worten:

Die Wahrscheinlichkeit, dass der Zustandsübergang Zerfall bewirkt, ist größer als die, dass er evolutionär wirkt (d.h. zu mehr Form bzw Ordnung führt).


Dennoch ist die Wahrscheinlichkeit, dass er Evolution zur Folge hat eben NICHT Null.


 

  Beitrag 1953-2
Läßt sich Biologie komplett auf Physik zurückführen?

 
 

Läßt sich Biologie komplett auf Physik zurückführen?


Diese Frage, so Dürrs Standpunkt, kann aufgrund unserer heutigen Einsichten weder klar mit JA, noch klar mit NEIN beantwortet werden.

Aber schon die Frage

Könnte Leben und Bewusstein allein auf Basis physikalischer Gesetze erklärbar sein?


würde Dürr eher mit JA beantworten. Und das obgleich er auch feststellt:


Lebewesen — Pflanzen, Tiere, Menschen — mit Maschinen zu verwechseln, wäre falsch, denn:
  • Eine Maschine ist eine Menge gut in einander greifender Teile (sie passen zueinander, formen einander aber nicht).
  • Ein Lebewesen aber ist wie ein Gedicht, das auf jeder Organisationsstufe — Buchstabe, Wort, Satz, Strophe — zusätzliche Dimensionen erschließt und schon vorhandenen neue Bedeutung geben kann.

 

 Beitrag 0-23
Bestehen Lebewesen wirklich  n u r  aus Materie?

 
 

 
Bestehen Lebewesen wirklich  n u r  aus Materie?

 
 
Fragen wir spezieller: Wie wahrscheinlich ist es, dass jeder Mensch ausschließlich aus Materie besteht?
 
Materie ist nur  e i n e  Form, in der Energie auftreten kann. Legt nicht allein schon diese Tatsache die Frage nahe, ob nicht zumindestens  d e n k e n d e  Lebewesen aus mehr als nur Materie bestehen? Könnte es nicht sehr gut sein, dass z.B. jeder Mensch in seiner physischen Existenz aus Teilen besteht, die nicht in Form von Materie vorliegende Energie sind?
 
Die meisten Menschen sterben in einem Alter, das weit höher ist als das Alter jeder einzelnen Zelle, aus der sie kurz vor ihrem Tode (auf Materie reduziert) bestehen: Ihr Körper — das weiß man heute — ist einem Anzug vergleichbar, der sich abnützt und laufend dort durch neues Gewebe ersetzt wird, wo altes sich verschlissen hat. Damit aber kann doch ganz offensichtlich kein materieller Teil eines Menschen — auch nicht sein Gehirn — mit ihm selbst identifiziert werden. Wenn sein Gehirn aber nur Schnittstelle zwischen seinem materiellen und seinem NICHT materiellen Teil ist, stellen sich zwei überaus relevante Fragen:
 
  • Kann die Lebensdauer seines nicht-materiellen Teiles (seines "Geistes" also) größer sein als die seines Körpers?
  • Und wie könnte Physik seinen nicht-materiellen Teil modellieren (unter der Annahme, dass er vollständig aus Energie besteht und somit auch nur Paket von Wellen ist, die sich ständig auf- und abbauendes Kraftpotential darstellen)?

 
Wie der Placebo-Effekt — und die Tatsache, dass es ihn wirklich gibt — sehr deutlich zeigt, kann der nichtmaterielle Teil des Menschen den materiellen Teil nicht nur steuern, sondern in seiner Entwicklung positiv oder negativ beeinflussen.
 
Anders ausgedrückt: Der nicht in Form von Materie vorliegende Teil des Menschen kann den Körper des Menschen (d.h. seinen in Form von Materie vorliegenden Teil) wenigstens so weit mit gestalten, als dass er Druck aufbauen kann, der mitbestimmend dafür ist, in welche Richtung jener Körper sich entwickelt. Interessant ist, dass dieser Druck wohl auch auf Körper anderer Individuen einwirken kann:
 
    Im Jahre 1952 machte ein junger britischer Arzt — Albert Mason — einen Fehler, der ihm zu kurzer Berühmtheit verhalf: Mason behandelte einen 16-jährigen Jungen gegen sein Warzen mit Hypnose (da Mason und auch andere Ärzte damit schon öfters Erfolg hatten). Der vorliegende Fall war ein ganz besonders schwerer: Die lederne Haut des Buben erinnerte an die eines Elefanten, nicht an die eines Menschen. Während der Junge in einer hypnotischen Trance war, erzählte im Mason, die Haut auf seinem Arm werde heilen, so dass er dort bald rosarote, ganz normale Haut haben werde. Und tatsächlich, als der Junge eine Woche später wieder kam, sah der Arm zu Masons Freude sehr gesund aus. Doch als Mason den Jungen zu einem Chirurgen mitnahm, der zuvor erfolglos versucht hatte, dem Jungen zu helfen, erfuhr Mason, dass er eine Fehldiagnose gestellt hatte: Der Chirurg, äußerst erstaunt über die nun gesunde Haut, teilte Mason mit, der Junge litte nicht an Warzen, sondern stattdessen an einer unheilbaren Erbkrankheit (an Ichthyose, einer angeborenen Verhornstörung der Haut). Durch die Kraft des Geistes hatten Mason und sein Patient etwas erreicht, das zu jener Zeit als absolut unmöglich galt. Mason setzte die Hypnose-Sitzungen fort und zum allgemeinen Erstaunen wurde die gesamte Haut des Jungen allmählich gesund und rosa (gesunde Haut hatte er vorher nur auf seiner Brust gehabt).
     
    Als Mason im British Medical Journal über seine so erfolgreiche Behandlung der Ichthyose veröffentlichte [Mason, 1952], gab es eine Sensation: Die Medien stürzten sich auf ihn, und zahlreiche Patienten mit dieser bis dahin unheilbaren Krankheit baten ihn um Hilfe. Doch es zeigte sich, dass die Hypnose nicht das Wundermittel war, auf das sie gehofft hatten: Mason arbeitete mit einigen dieser Patienten, doch es gelang ihm nie mehr, ähnliche Ergebnisse zu erzielen wie mit dem Jungen. Mason selbst schrieb dieses Versagen seiner eignenen inneren Einstellung zu. Er konnte nicht wieder zu der unbefangenen Haltung zurückfinden, in der er nach seiner festen Überzeugung » einen schweren Fall von Warzen « behandelt hatte. Er war sich jetzt vollkommen bewusst, dass er etwas behandelte, was alle anerkannten Mediziner als eine angeborene, unheilbare Krankheit betrachteten. Er tat zunächst so, als sei er davon unbeeindruckt, doch später (2003) erzählte er in einem Interview im Discovery Channel, dass er diese Leichtigkeit nur vorgetäuscht habe.
     
    Die interessante Frage, die sich nun stellt, ist: Wie konnte es kommen, dass in diesem Fall der menschliche Geist stärker war als genetische Programmierung? Und wie konnte Masons innere Einstellung zum Heilungsversuch dessen Ergebnis beeinflussen?
     
    [ Mason, 1952 ]: A Case of Congenital Ichthyosiform Erythrodermia of Brocq Treated by Hypnosis. British Medical Journal 30: 442-443


 

 Beitrag 0-336
Warum Biophotonik nichts Esoterisches ist

 
 

 
Was – und wie seriös – ist Biophotonik?

 
 
Biophotonik ist ein Zweig der Biophysik,
     
  • der sich erst unter starken Geburtswehen etablieren konnte,
     
  • heute aber weltweit anerkannt ist.
     
  • Es begann damit, dass — unabhängig voneinander — zwei zunächst anerkannte Wissenschaftler (erst der Russe Alexander Gurwitsch, später dann der Deutsche Fritz-Albert Popp) entdeckt hatten, dass Biomasse Licht speichert und umso intensiver auch abstrahlt, je frischer und je wertvoller sie als Lebensmittel noch ist.

Gurwitsch hat die Anerkennung seiner Entdeckung durch Fachkollegen nicht mehr erlebt, erst Popp hat ihr zum Durchbruch verholfen (obgleich auch seine Hochschulkarriere dadurch ein Ende fand).
 
Wie im Nachhinein bekannt wurde, ist auch italienischen Physikern in den 1950-er und 1960-er Jahren dieses Licht — das man heute Biophotonen nennt, schon aufgefallen.
 
Der erste Physiker, der in Deutschland (1976) Biophotonen zweifelsfrei nachweisen konnte, war Bernhard Ruth, der damals bei Popp promoviert hat. Noch zur Jahrtausendwende gehörte seine Apparatur zu den empfindlichsten, zuverlässigsten und zeitlich stabilsten Photonenmessgeräten, die bis dahin gebaut worden waren.
 
 
Da Biolicht nun also zweifelsfrei nachweisbar geworden war, wurde es schließlich doch noch Forschungsgegenstand auch anderer Wissenschaftler. Ende der 1990-er Jahre gab es dazu weltweit schon etwa 30 Forschungsgruppen. Allein an der Tohoku-Universität in Japan wurden zwischen 1994 und 1999 gut 100 Mio Dollar für Biophotonenforschung eingesetzt.
 
Die Intensität des von Biomasse abgestrahlten Lichts reicht von einigen wenigen bis hin zu einigen tausend Photonen pro Sekunde und Quadratzentimeter Oberfläche des lebenden Systems.
 
 
Neben der Grundlagenforschung in der Biophysik spielt die Beobachtung der Biophotonen heute schon in mehreren Bereichen eine wichtige Rolle, z.B.
     
  • wenn man die Unterschiede zwischen normalen Zellen und Tumorzellen studieren möchte,
     
  • oder Lebensmittel auf Frische und Qualität zu untersuchen wünscht.
     
  • So hat sich z.B. herausgestellt, dass Eier gesunder Hühner signifikant mehr Biophotonen abgeben als Eier erkrankter Hühner.

 
Welch interessante Ergebnisse Untersuchungen solcher Art erbringen können, zeigt folgendes Beispiel:
    Man dachte zunächst, dass ein unterschiedlicher Gehalt an Lecithin die unterschiedliche Lichtemission von Batterie- und Freilandeiern auslösen würde, erlebte dann aber eine Überraschung: Die Beimengung der gleichen Menge von Lecithin, die im Dotter ohnehin schon vorhanden ist, erhöht die Lichtintensität nicht etwa um das Doppelte, sondern erstaunlicherweise um bis das 10-fache. Unabweisbare Schlußfolgerung scheint zu sein: Das das natürlich im Ei vorhandene Lecithin bei weitem nicht die gleiche Leuchtreaktion zeigt, wie das zugemischte, lann Lecithin im Ei mit Sicherheit nicht als bloße Beimengung vorliegen: Es muss im Dotter in spezifischer Weise eingebunden sein, so dass es im Lichttest kaum noch reagiert.
     
    Kein Zweifel: Der Photonentest spiegelt nicht nur Inhaltsstoffe wider, sondern auch Struktur und innere Ordnung des Lebensmittels.
     
    Insbesondere haben jene Test gezeigt:
       
    • In Freilandeiern sind keineswegs größere Lecithinmengen vorhanden sind als in Eiern der in Batterien gehaltenen Hühner — nicht einmal wenige Prozent mehr.
       
    • Lecithinmoleküle erhöhen durch ihren natürlichen Einbau in den Dotter seine Lichtspeicherfähigkeit infolge eines bedeutsamen Synergieeffekts, der — wie in einer Gesellschaft — die Wechselwirkung der einzelnen Partner begünstigt.

 
Noch viel mehr solch interessante Fakten sind skizziert in Popp: Die Botschaft der Nahrung (1999). Er schreibt dort u.A.:
 
    Wir sind primär nicht Kalorienfresser, Fleischfresser, Vegetarier oder Allesfresser, sondern im Grunde genommen Ordungsräuber und Lichtsäuger.
     
    So manch einer mag noch Zweifel daran hegen, dass wir uns tatsächlich von Licht ernähren. Bei Pflanzen aber ist das unbestreitbar so. Sie beziehen per Photosynthese ihre Energie direkt von der Sonne. Photonen verschweißen die überall vorhandenen Kohlendioxid- und Wassermoleküle zu Glukosepäckchen. Sie schließen sich in diese Zuckerdepots selbst ein und stehen als Lebensmittelquelle jedem höheren Lebewesen zur Verfügung.
     
    In Tieren und Menschen — die ja direkt oder indirekt von Pflanzen leben — werden die Zuckermoleküle wieder aufgebrochen in Kohlendioxid und Wasser. Das Kohlendioxid wird über die Lunge, das Wasser über die Haut oder mit dem Urin ausgeschieden. Im Organismus übrig bleibt die Sonnenenergie, die das Lebe­wesen auf bisher nicht verstandene Weise antreibt, versorgt und — nach Schrödinger — auch ordnet  [ Schrödinger: What is Life? (1945), Nachdruck: Was ist Leben? Die lebende Zelle mit den Augen des Physikers betrachtet (Piper 1999) ].
     
    Wie könnte bewiesen werden, dass Licht die Qualität unserer Lebensmittel bestimmt? Ich stecke ein schönes, ausgewachsenes Blatt einer Topfpflanze in ein Licht­messgerät und registriere den abklingenden Lichtstrom des Blattes. Dann wiederhole ich den gleichen Versuch mit einem schon welken Blatt der gleichen Pflanze. Ich sehe erhebliche Unterschiede: Nur das noch gesunde Blatt leuchtet lange und intensiv, bevor das gespeicherte Licht schließlich entweicht.
     
    Hohe Qualität  [ noch Ordnung bewahren zu können? ]  — so lässt sich folgern — signalisiert sich durch hohe Lichtspeicherfähigkeit.

 
 
VORSICHT aber: Leider gibt es viele Esoteriker, die das Thema Biophotonik als Rechtfertigung ihrer skurrilen Ideen missbrauchen. Man muss gelegentlich schon sehr genau hinhören, um zu sehen, wer da streng wissenschaftlich oder doch eher nur wie ein Esoteriker argumentiert.
 
Einer, vor dessen Aussagen ich — jetzt mal ganz unabhängig von Biophotonik — explizit warnen möchte, ist Ulrich Warnke. Was er so von sich gibt, scheint mir wirklich nur Pseudowissenschaft zu sein. Die Quanten­physik jedenfalls hat er nicht wirklich verstanden. Daran ändert auch die Tatsache nichts, dass er bis März 2010 Akademischer Oberrat an der Universität Saarbrücken war.
 
 
Wer dagegen Popp verdächtigt, nicht wissenschaftlich genug vorzugehen, der hat nicht verstanden, dass Popp nichts anders macht, als zu untersuchen, wie sich aus der Lichtspeicherfähigkeit von Biomasse auf die Qualität jener Biomasse schließen lässt.
 
 
 
Wie es zur Aussendung von Biophotonen kommt, ist bislang ungeklärt:
     
  • Die meisten Wissenschaftler halten sie für ein Nebenprodukt des Stoffwechsels, ähnlich wie metabolische Prozesse immer auch Abwärme produzieren, vergleichbar mit einem Verbrennungsmotor.
     
  • Einzelne Forscher folgen mehr den Überlegungen von Gurwitsch und vermuten eine weiter gehende Bedeutung der Biophotonen.
     
  • Popp denkt, dass die Lichtquanten von der DNA emittiert werden und Information enthalten, die andere DNA-Moleküle erreicht. Er weist auf die hochfrequenten Schwingungen hin, die in den Erbmolekülen stattfinden. Dabei verdrillt sich die spiralförmige DNA stärker und entspannt sich wieder und das mehrere Milliarden Mal pro Sekunde. Bei jeder dieser Schwingungen, so vermutet Popp, gebe die DNA ein Biophoton ab.


 

 Beitrag 0-122
Wie sich die physikalische Größe » Spin « definiert

 
 

 
Zum » Spin « der Elementarteilchen

 
 
Gewisse Elementarteilchen — Elektronen etwa — verhalten sie wie kleine Magnete.
 
Wir denken uns die Lage dieses Magneten beschrieben durch einen imaginären Pfeil — genannt » Spin « — und stellen dann fest, dass der eine recht merk­würdige Eigenschaft hat:
 
Wählt man irgend eine, völlig beliebige Richtung und frägt das Teilchen dann, ob sein Spin in diese Richtung zeige, so bekommt man entwder die Antwort JA oder die Antwort NEIN, niemals aber irgend eine andere Antwort.
 
Statt JA oder das NEIN sagen die Physiker « Spin up « bzw. » Spin down «.
 
 
Das Merkwürdige also ist, dass es dem Spinpfeil irgendwie nicht möglich zu sein scheint, in eine Richtung zu zeigen, die nicht die ist, auf die sich unsere Frage bezog.
 
Noch merkwürdiger: Werden zwei Teilchen gleicher Art, die Spin haben, z.B. zwei Elektronen e1 und e2, durch ein und dasselbe atomare quantenphysikalische Ereignis erzeugt, so sind sie hinsichtlich Spin mit einander verschränkt.
 
Dies bedeutet: Fragen wir e1 nach seinem Spin, so wird es mit » up « oder » down « antworten. Dieselbe Frage dann auch dem e2 gestellt, wird die jeweils andere Antwort ergeben — und das selbst dann noch, wenn e2 inzwischen ans andere Ende der Milchstraße gebracht worden ist.
 
 
Note: Der Begriff der » Verschränkung « von Quanten wurde geprägt durch Erwin Schrödinger: Discussion of Probability Relations between seperated Systems, Proceedings of the Cambridge Philosophical Society 31, 555 (1935).

 


Paul Davies (2006):
 
Teilchen mit Spin = 1/2 verhalten sich ziemlich merkwürdig, wenn ihre Achse gedreht wird (was man durch Anlegen eines Magnetfeldes bewirken kann):
    Man stelle sich einen großen Körper vor, der rotiert, z.B. unsere Erde. Wird sie um 180 Grad um eine Achse in der Äquatorebene gedreht, werden Nord- und Südpol vertauscht. Nochmalige Durchführung derselben Drehung stellt den alten Zustand wieder her.
     
    Macht man nun aber dasselbe mit einem Elektron (oder einem anderen Fermion), muss man es um nicht weniger als 720 Grad drehen — d.h. zwei volle Drehungen machen — bis es sich wieder im Ausgangszustand befindet.

Damit ist Spin eine Eigenschaft, die man nicht anschaulich machen kann. Es gibt sie aber ohne jeden Zweifel.
 
 
Erstaunlicherweise konnten Julius Weiss und Bruno Zumino ein mathematisches Schema entwickeln, welches das unterschiedliche Rotationsverhalten sämtlicher Teilchen mit Spin — sei er nun ganz oder halbzahlig (Bosonen und Fermionen) — unter einen Hut bringt. Man nennt es Supersymmetrie:

 
 
Spin 0    Spin 1/2    Spin 1    Spin 3/2    Spin 2
Higgs    Higgsino
SLepton    Lepton
SQuark    Quark    Gravitino    Graviton
    Gluino    Gluon
    Photino    Photon
    Zino    Z
    Wino    W

 
 
Da es bisher nicht gelungen ist, Superpartner nachzuweisen nimmt man an, dass wir in einem Blasenuniversum leben, in dem die Supersymmetrie wenigstens teilweise gebrochen ist.
 
Note: Ein komplett symmetrischer Zustand vergleichen mit einem, in dem die Symmetrie gebrochen ist, lässt sich veranschaulichen durch einen auf seiner Spitze stehenden Bleistift. Fällt er um — was man dann einen spontanen Symmetriebruch nennt — kann er in beliebiger Richtung am Boden liegen: Es gibt also sehr viele Zustände, die den voll symmetrischen Zustand durch einen weniger symmetrischen — dafür aber deutlich stabileren — ersetzen. In einem dieser angekommen, deutet nichts mehr hin auf die Existenz des voll symmetrischen Zustandes.
 
Konsequenz daraus:
 
Selbst wenn es Menschen niemals gelingen sollte, wenigstens für ein Teilchen seinen Superpartner nachzuweisen, wäre das noch kein Beweis dafür, dass Supersymmetrie ganz grundsätzlich nicht existiert.
 



 

 Beitrag 0-164
Was ist 1 Elektronvolt ( 1 eV )?

 
 

 
Was ist 1 eV (als Maß für Energie und Masse)?

 
 
Teilchenphysiker verwenden als Masseinheit für Energie (und oft auch Ruhemasse) das Elektronvolt (eV):

 
 
1 eV = 1.602176487 • 10-19 Joule
 
ist die Menge kinetischer Energie, die ein Elektron gewinnt, wenn es eine Beschleunigungsspannung von 1 Volt durchläuft.

 
 
Joule in eV umzurechnen (und umgekehrt) hilft z.B. der Webservice Unit Juggler.
 
In der Physik ist es üblich, auch die Ruhemasse von Elementarteilchen in eV anzugeben, was Sinn macht, da nach Einsteins Gleichung E = mc2 Masse und Energie zueinander äquivalent sind.
 
In solchen Angaben allerdings denkt man sich die Lichtgeschwindigkeit c auf 1 normiert (so dass man sie weglassen kann).
 
Wegen  J = kg(m/s)2  ergibt sich
 
1 eV  =  1.783 • 10-36 kg • c2

 
 
Die Vorsilben Mega (M), Giga (G) und Tera (T) stehen für Million, Milliarde und Billion.
 
So haben z.B. ein Elektron bzw. ein Proton eine Ruhemasse von 0.51 MeV bzw. 938.27 MeV ( streng genommen: MeV/c2 ).
 
VORSICHT also: Die Konvention, c auf 1 normiert zu sehen, kann schon auch verwirren.

 

 Beitrag 0-166
Wie man die Signifikanz experimentalphysikalischer Beobachtungen quantifiziert

 
 

 
Die Standardabweichung σ (Sigma) als Maß für Relevanz

 
 
Als sich im CERN der Verdacht zu konkretisieren begann, das Higgs-Teilchen entdeckt zu haben, war man sehr vorsichtig mit solcher Behauptung.
 
Als Maß für die Wahrscheinlichkeit, dass man tatsächlich fand, was man zu finden hoffte, gilt dort nämlich Sigma: die sog. Standardabweichung. Sie zeigt, wie selten das erwartete Signal — mit der Genauigkeit, mit der man es jeweils identifizieren konnte — in der Menge aller Signale auftritt:
     
  • Bei σ = 3 spricht man von einem » Hinweis «.
     
  • Erst ab σ = 5 fühlt man sich berechtigt, von einer » Beobachtung « bzw. » Entdeckung « zu sprechen.

σ = 3 erfüllen 0.15 Prozent aller aufgezeichneten Signale,
 
σ = 5 aber erfüllt unter 3.3 Mio Signalen nur jeweils eines.

 
VORSICHT aber: Die Konvention ist nicht umkehrbar. Mit anderen Worten: Ein Sigma-5-Nachweis bedeutet noch keinswegs, dass mit einer Wahrscheinlichkeit von 1/3300000 (= 99.99997 Prozent) ein neues oder gar ein bestimmtes Teilchen beobachtet wurde.
 
DENN: Die Standardabweichung sagt nur etwas aus über die statistische Fluktuation beobachteter  W e r t e , aber noch rein gar nichts darüber, ob gewisse beobachtete Werte tatsächlich des Effekts wegen zustande kamen, den man nachzuweisen wünscht.

 

 Beitrag 0-167
Über träge und schwere Masse

 
 

 
Masse und Gewicht


Merke:
 
     
  • Masse [ = träge Masse = Ruhemasse ] ist ein Maß für die Trägheit, d.h. für den Widerstand eines Körpers hinsichtlich seines Bewegungszustandes: Je größer die Masse eines Körpers, desto mehr Kraft ist notwendig, ihn zu bremsen oder zu beschleunigen.
     
  • Gewicht [ = schwere Masse = gravitative Masse ] ist ein Maß für die gravitative Anziehung zweier Körper (die proportional zur auf den Körper einwirkenden Gravitationskraft ist, im schwerelosen Raum also verschwindet).

 
Nur im gleichen Schwerefeld sind Masse und Gewicht zueinander äquivalent.

 
So hat z.B. ein Elektron immer und überall gleiche Masse, doch es wiegt umso weniger, je weiter es von der Erde entfernt ist.
 
So also muss man es verstehen, wenn man irgendwo liest, dass — bei geeigneter Wahl der Einheiten — träge Masse und schwere Masse stets gleich seien.
 
Siehe auch Einstein Online, wo gleich dreierlei Massenbegriffe unterschieden werden.
 


 
Einstein hat (1948) dafür plädiert, unter der Masse eines Körpers seine Ruhemasse zu verstehen - und nichts sonst.

 
Daran hält man sich bis heute, siehe Wechsel im Wortgebrauch.
 
Die sog. relativistische (oder bewegte) Masse, von der manche sprechen, ist eigentlich nur ein anderes Maß für Energie.

 

  Beitrag 2102-143
Definition: Sichtbares Licht

 
Horst in 2102-140:
Wir sollten uns darüber im Klaren sein, daß [ sichtbares ] Licht tatsächlich nichts anderes ist, als eine Bezeichnung für die subjektive Empfindung eines geringen Anteils der uns bekannten elektromagnetischen Strahlung im Frequenzbereich von 380 bis 780 Nanometer.

Auch das sichtbare Licht ist nur ein eine Definition dafür, wie wir Menschen eine elektromagnetische Strahlung wahrnehmen
Eigentlich müsste man sagen für den Menschen sichtbares Licht, denn bestimmte Tiere, wie etwa Insekten können auch noch infrarotes bzw UV-Licht "sehen"

Und was ist z.B. mit Haien, die auch andere elektromagnetische Strahlung wahrnehmen. Dadurch "sehen" sie z.B. Tiere, die sich im Sand eingegraben haben. Jeder Nervenimpuls sendet ein, wenn auch kleines, EM-Signal aus. Wie die Haie diese EM-Strahlung wahrnehmen ist unbekannt. Ob sie das EM-Bild "sehen" liegt daran, wie die Daten vom Hai-Gehirn interpretiert, bzw dem Tier ins Bewusstsein gerufen werden.
Setzte man Haie vor eine starke EM-Quelle, dann ist das so, als würde man vor einem Menschen eine Blendgranate zünden.

Ebenso könnte es sein, das ausserirdishes Leben, falls es denn existiert, eine ganz andere Wellenlänge als "Sichtbares Licht" bezeichnet.
Die Evolution schöpft immer die Möglichkeiten aus, die zur Verfügung stehen.
Leben diese Aliens etwa in der Nähe eines Pulsars, dessen EM-Felder stärker sind als das Licht zwischen 380nm - 780 nm so könnte es durchaus sein, das deren "Augen" für die Wellenlänge der Pulsar-Energie optimiert sind. Für unser sichtbares Licht sind sie womöglich absolut blind.

Wie wir unsere Welt wahrnehmen hängt nur von den Informationen ab, die uns unsere Sinne liefern. Aber auch Eigenschaften oder Ereignisse, die durch uns nicht beobachtbar sind, können existieren.

Daher dürfen wir Vorhandenes nicht ausschließlich nach dem beurteilen, was es zu sein scheint.

Wir können nie sicher sein, sein eigentlichen Wesen schon erfasst zu haben.
 


Das Wesen beispielsweise, das wir Materie zuschreiben, variiert unerwartet stark, je nachdem, auf welcher Größenskala wir sie betrachten.
 

  Beitrag 2112-7
Definition: Licht

 
 
Horst in 2112-6:
 
Ps. Und der der Rest der elektromagnetischen Strahlung?


In der Physik wird unter "Licht" grundsätzlich alle elektromagnetische Strahlung verstanden (wer das nicht will, muss von "sichtbarem Licht" sprechen).



Siehe etwa Was ist Licht?. Harald Lesch sagt dort explizit, er spreche jetzt nur über sichtbares Licht.

 

  Beitrag 1948-1
Definition: Information

 
 

Über sieben verschiedene Informationsbegriffe

Zwischenergebnisse auf dem Weg hin zu einer Antwort auf die Frage: Was ist Information im Sinne der Natur?



Information wird heute — neben Materie und Energie — vielfach als eine dritte Grundgröße angesehen (Brockhaus, S. 657). Information, als Begriff, scheint nicht auf andere Größen zurückführbar zu sein. Dennoch ist der Informationsbegriff fundamentaler Baustein aller Kommunikationsprozesse.


1. Der semantische (zwischen-menschliche) Informationsbegriff

Hier versteht man unter Information korrektes Wissen, welches man sucht, findet oder mitgeteilt bekommt.
Zwischen dem semantischen und dem nachrichtentechnischen Informationsgehalt einer Nachricht besteht KEINE wie auch immer geartete Beziehung:


2. Der nachrichtentechnische Informationsbegriff

Der Informationsgehalt einer Nachricht ist die Zahl binärer Entscheidungen, die man benötigt, eben diese Nachricht von einer ebenso komplexen anderen zu unterscheiden.

Da jede Nachricht eine Folge von Zeichen ist, kann auch jedes Zeichen als so eine Nachricht aufgefasst werden. Da nicht alle Zeichen mit gleicher Wahrscheinlichkeit auftreten, liegt es nahe, ihren Informationsgehalt mit der Wahrscheinlichkeit ihres Auftretens zu gewichten. Werden diese Produkte aufsummiert, so erhält man eine Zahl, die man nach Shannon als mittleren Informationsgehalt, Informationsdichte oder auch als Entropie der Nachricht bezeichnet.


3. Der sprachwissenschaftliche Informationsbegriff

Er verfeinert den semantischen Informationsbegriff dahingehend, dass neben Syntax und Semantik einer Nachricht auch noch deren Pragmatik Gegenstand der Betrachtung sein kann: Es kann vorkommen, dass unterschiedliche Empfänger ein und derselben Nachricht ihr unterschiedliche Information entnehmen (Pragmatik = empfängerspezifische Sicht auf semntische Inhalte).


4. Der kybernetische Informationsbegriff

Zunehmende Ordnung bedeutet zunehmende Information: Information ist das, was den Unterschied ausmacht.
Wo kybernetischer Informationsgehalt zunimmt, reduzieren sich Entropie und nachrichtentechnischer Informationsgehalt (und umgekehrt).
Die Kybernetik (das Wort bedeutet eigentlich "Steuermannskunst") abstrahiert reale Systeme hinsichtlich gewisser Eigenschaften und Verhaltensweisen zu Modellen — die man dann kybernetische Systeme nennt — und untersucht deren Struktur und Verhalten.


5. Der naturwissenschaftliche Informationsbegriff

Er wurde wesentlich geprägt durch Carl-Friedrich von Weizsäcker (Physiker und Philosoph) und kennzeichnet sich so:

Ein Telegramm enthält Information. Ist die nun als etwas Materielles oder Bewußtseinsinhalt? Antwort: weder noch:
  • Die Druckerschwärze auf einem per Fax versandten Papier ist verschieden von der Druckerschwärze des beim Empfänger ankommenden Exemplars: "Information ist gerade das, was beiden Zetteln gemeinsam ist" (Weizsäcker 1974).
  • Ähnliches gilt für den (pragmatischen) Inhalt jeder Nachricht: Das, was der Absender gedacht hat, kann verschieden sein von dem, was der Empfänger denkt. Dennoch ist beiden etwas gemeinsam. Eben das ist Information.
Und daraus folgert Weizsäcker:

"Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." (Weizsäcker 1974)


6. Der biologische Informationsbegriff

Weizsäcker findet den Gebrauch des Informationsbegriffs in Zusammenhang z.B. mit dem Chromosomensatz "völlig legitim" (Weizsäcker 1974), obwohl hier niemand spricht oder einem anderen Menschen etwas mitteilt. Spannende Frage also:

Wie lässt sich Information jenseits der menschlichen Sprache verstehen?


Und wie lässt sich verstehen, dass die Natur ganz offensichtlich Information erzeugt, wo doch gilt:

» Information ist nicht etwas, was auf der Straße herumliegt so wie Kieselsteine, sondern
Information wird erzeugt; und sie wird erzeugt nur von denjenigen, welche imstande sind, in Begriffen zu denken. «
(Weizsäcker 1973)



7. Der physikalische Informationsbegriff

Wäre so einer schon erarbeitet, müsste er wohl mindestens den biologischen und den kybernetischen verallgemeinern (und gemeinsame Wurzel beider sein).
Nicht vergessen sollte man: Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die weit mehr auf Freiheitsgrade zurückzuführen sind als auf ein Ursache-Wirkungs-Verhältnis.

Somit scheint Information die Grundlage aller Selbstorganisation zu sein.



Siehe auch: Capurro, wo u.A. berichtet wird, wie Weizsäcker den Begriff "Evolution" einordnet:

Die moderne Naturwissenschaft basiert nicht nur auf dem Begriff der Erfahrung, sondern auch auf dem der Evolution.


Was bedeutet Evolution?


Antwort: Evolution ist "Vermehrung der Menge an Form", oder anders formuliert: ein "Anwachsen der Information" (Weizsäcker 1973).

Und: "Information ist nur, was Information erzeugt." (Weizsäcker 1974).



Auch der großen Frage, wie Bewusstsein entsteht, ist Weizsäcker (allerdings ohne Ergebnis) nachgegangen:


» Das Bewußtsein taucht in der Evolution aus dem Meer des Unbewußtseins auf.
Ist also doch Form das Zugrundeliegende und Bewußtsein eine ihrer Ausprägungen? «

» Aber wie kann Form Bewußtsein erzeugen? Ist sie selbst geistig? Was könnte man damit meinen? «

(Weizsäcker 1992)



Gebhard Greiter (grtgrt)
 

Nachtrag (am 15.2.2013):

In seinem Buch "Die Evolution des Geistigen" weist Thomas Görnitz darauf hin, dass jedes physikalische Objekt — als Träger von Information —

  • zugängliche und auch
  • nicht zugängliche Information (Entropie)

trägt bzw. tragen kann. Wichtiger Teil seiner zugänglichen Information ist die Information darüber, an welcher Stelle im Universum es sich befindet.

Allgemeiner: Genau der Teil seines Zustandes, den die Natur uns (im Prinzip wenigstens) zugänglich macht, ist Träger seiner zugänglichen Information.


Wie Görnitz auf den Seiten 156-158 seines Buches zeigt, kann berechnet werden, wie groß die Entropie eines Objekts ist:

Zitat von Görnitz:
 
Wenn man sich ein Schwarzes Loch mit dem Materiegehalt unseres Universums denkt, so hätten beide gleiche Dichte und Ausdehnung. Ließe man nun noch ein Teilchen in das Schwarze Loch fallen, so würde des Teilchens zuvor zugängliche Information unzugänglich und damit zu berechenbarer Entropie.

Mit diesem Gedankenexperiment konnte ich zeigen, dass dann beispielsweise einem Planck-Black-Hole, dessen Entropie in unserem Kosmos 1 Bit ist, insgesamt etwa 1062 QuBits entsprechen (deren Menge zuvor als Menge unverborgener Information mit der Entropieformel nicht berechenbar war).

Für ein Proton [als Informationsträger] ergibt sich so, aus den heutigen astronomischen Beobachtungsdaten, ein Wert von 1041 QuBits.

Das liegt sehr nahe am früher von C.F. v. Weizsäcker vorgeschlagenen Wert von 1042 QuBits.
 


Interessant ist auch, was er auf Seite 172 sagt:

Zitat von Görnitz:
 
Entropie ist Information, die unbekannt ist, entweder weil eine Kenntnisnahme zu aufwändig oder zu uninteressant wäre (wie beispielsweise das Schicksal eines einzigen Atoms in einem Gas).

Entropie ist — salopp gesagt — Informationsmüll, wie Akten nach dem Schreddern: alle Buchstaben sind noch da, aber man kann nichts damit anfangen. Man muss sie aber los werden, um Platz für Neues zu schaffen.

Problematisch an dieser seiner Aussage aber ist, dass sie nicht unterscheidet zwischen
  • Information, die man  i g n o r i e r t , und
  • Information, die uns prinzipiell  u n z u g ä n g l i c h  ist (wie etwa die in einem Schwarzen Loch oder die in Daten, zu denen die Natur uns noch keinen Decodierungsschlüssel zur Verfügung gestellt hat).

 

  Beitrag 1951-1
Definition: Thermodynamische Entropie

 
 

Was genau ist Entropie?


Ist S ein in sich abgeschlossenes System und Z(t, S) sein Zustand zum Zeitpunkt t, so versteht man unter der Entropie E(t, S) von S zum Zeitpunkt t die Länge der kürzesten Bitfolge, über die sich der Zustand Z(t, S) komplett beschreiben lässt.


Entropie ist ein Maß für die Komplexität von Systemzuständen.

Je ungeordneter ein Systemzustand, desto höher seine Entropie.


 

  Beitrag 1954-1
Definition: Well Defined Degrees of Freedom (WDDF)

 
 

WDDF — Well Defined Degrees of Freedom


Zum physikalischen Informationsbegriff:

Grtgrt aus 1948-1:
 
Wäre so einer schon erarbeitet, müsste er wohl mindestens den biologischen und den kybernetischen verallgemeinern (und gemeinsame Wurzel beider sein).
Nicht vergessen sollte man: Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die weit mehr auf Frei­heitsgrade zurückzuführen sind als auf ein Ursache-Wirkungs-Verhältnis.

Somit scheint Information die Grundlage aller Selbstorganisation zu sein.

 


Wie in Beitrag 1948-34 schon erklärt wurde, stellen Ordnung und Unordnung die beiden Grundformen dar, in denen Information auftreten kann. Ihr Bezug zu Freiheitsgraden ist offensichtlich:
  • Ordnung setzt  G r e n z e n  für Freiheitsgrade,
  • Unordnung ist Symbol für die  A u s s c h ö p f u n g  von Freiheitsgraden.

Nicht zuletzt deswegen kommt mir bei der Suche nach einer Antwort auf die Frage, was denn nun eigentlich das Wesen eines Begriffs von Information ausmachen könnte, der tauglich wäre, Basis aller physikalischen Gesetze zu sein, der Verdacht, dass es sich hierbei um ein Naturgesetz handeln könnte,

welches Freiheitsgraden entspricht,

entlang derer sich jeder im Universum ablaufende Prozess entwickelt in dem Sinne, dass die Natur
  • ihn zwingt, sich NUR in ihrem Rahmen zu entwickeln
  • ihm ansonsten aber jede Freiheit lässt, den Rahmen, diese Freiheitsgrade also, VOLL auszuschöpfen.

Der durch die Freiheitsgrade gesetzte Rahmen in Kombination mit absolutem Zufall im Sinne der Quantenphysik könnte zur Folge haben, dass solche Prozesse selbstorganisierend sind und so Ordnung entsteht, die der Evolution fähig ist — einer Evolution, die gezielt die jeweils stabileren Strukturen begünstigt, weil die ja, eben
w e g e n  ihrer Stabilität, selbst wieder zu steuernden Faktoren werden in dem Sinne, dass sie den Zufall mehr und mehr kanalisieren:

Hinreichend stabile Strukturen verändern die Wahrscheinlichkeiten, mir der ansonsten gleich wahrscheinliche Ereignisse zufällig eintreten.


Gebhard Greiter (grtgrt)
 

  Beitrag 1954-5
-

 
 
Henry aus 1954-4:
"Ordnung" wird durch Gravitation geschaffen, "Unordnung" ist der systemimantente "Drang" nach völliger Gleichverteilung, nach Ausgleich zwischen Potentialen. Der antopozentrische Begriff der "Freiheitsgrad" hat hier keinerlei Bedeutung.

Hi Henry,

"Ordnung" wird keineswegs nur durch Gravitation geschaffen, sondern — um nur EIN Beispiel zu geben — auch durch die einem Quantensystem (einem Molekül etwa) zugeordnete Wellenfunktion ψ.

Auch meinen Begriff "Freiheitsgrade" interpretierst du viel zu eng:

Nimm z.B. ein Molekül und die ihm zugeordnete Wellenfunktion. Sie definiert sog. "Knotenflächen". Die wiederum stellen die Menge aller Raumpunkte dar, an denen sich kein einziges Elektron im Molekül aufhalten kann (kein Elektron wird sich dort zeigen, wenn man versucht, es zu beobachten).

Damit ist diese Wellenfunktion Beschreibung eines sehr komplizierten "Freiheitsgrades". Er gibt dem Orbitalmodell des Moleküls eine ganz bestimmte Struktur (siehe etwa diesen Artikel und die Bilder darin) und sagt den Elektronen, wo sie sich zeigen bzw. nicht zeigen dürfen.

Gruß,
grtgrt
 

  Beitrag 1963-13
Dekohärenz: Hier treffend charakterisiert

 
 
Irena aus 1963-12:
 
... jede Wechselwirkung ist eine Äußerung der Wellenfunktion, die durch diese Äußerung irreversibel wird (Dekohärenz).

Es geht nicht um ständigen Zerfall und Erzeugung der Materie. Es geht nur um ständige ERZEUGUNG der Materie, die durch ständige Wechselwirkungen der Quanten sich manifestiert.


Genau so sehe ich das auch.

grtgrt
 

  Beitrag 1963-32
Wichtige Klarstellung

 
Hi,

hier der Antwort zum mit E... diskutierten Thema Wellenkollaps/Dekohärenz von einem Fachmann Joachim Schulz (siehe auch http://www.scilogs.de/wblogs/blog/quantenwelt/conte...) aus Quantenforum ( http://www.quantenforum.de/viewtopic.php?f=6&t=... ):

Zitat:
Ja, genau. Der neue Zustand nach dem Kollaps ist wieder ein Quantenzustand, der durch eine neue, reduzierte Wellenfunktion beschrieben wird. Es ist nicht so, dass da aus einer Welle ein klassisches Teilchen entsteht, das von da an keine Welleneigenschaften mehr hat. Die Welt bleibt quantenmechanisch.

Gruß Irena

Hinweis von grtgrt:
 
Wichtig noch:

Die Wellenfunktion — bzw. der Zustand nach dem Kollaps — ist nicht wirklich reduziert, sondern  e r s c h e i n t  uns nur so, da man den Zustand ja stets als Linearkombination zweier zueinander orthogonaler Zustände darstellt (gegeben durch die Messfrage). Nach dem "Kollaps" aber ist einer dieser beiden Zustände aber der, in den die "Messung" das Quant gebracht hat.

Der hin und wieder angetroffene Begriff » reiner Zustand « ist stets nur relativ zur Messfrage wohldefiniert, denn Antwort auf eine quantenphysikalische Messfrage kann ganz grundsätzlich stets nur ein JA oder ein NEIN sein.

So kann man z.B. ein Photon nicht nach seiner Polarisierung fragen. Man kann stets nur eine der — unendlich vielen — möglichen Polarisierungsrichtungen R vorgeben und dann fragen: » Liebes Photon, bist du in Richtung R polarisiert? «

Die Antwort wird ein JA oder ein NEIN sein — und das auch dann, wenn das Photon vor seinem Zusammentreffen mit der Messapparatur in einer Richtung polarisiert gewesen sein sollte, die weder R noch senkrecht zu R war:

Ergebnis einer Messung ist eben stets nur Wissen über den Zustand des Photons  n a c h  der Messung.

 

 

  Beitrag 1986-1
Wie physikalische Objekte dekohärent werden (und sich so fortentwickeln) — Lebenszyklus der Elementarteilchen

 
 

Zum Lebenszyklus von Elementarteilchen

und

wie makroskopische Objekte dekohärent werden (und sich so fortentwickeln)



Es ist vernünftig, sich vorzustellen, dass jedes Elementarteilchen
  • durch ein Elementarereignis erzeugt wird
  • und im nächsten Elementarereignis, an dem es beteiligt ist, stirbt.

Ein Elementarereignis in diesem Sinne ist ein Ereignis E, welches
  • zwei virtuelle Teilchen (solche mit extrem kurzer Lebensdauer und entgegengesetzter Ladung) aus dem Nichts entstehen lässt
  • oder Kollision von Elementarteilchen (sein Input ist dann eine Menge sich allzu nahe kommender Elementarteilchen, sein Output ist eine andere Menge von Elementarteilchen).

Mit anderen Worten:

Jedes Elementarereignis E ersetzt eine Menge von Elementarteilchen durch eine andere.

Eine – und nur eine – dieser beiden Mengen kann leer sein (recht oft aber sind beide nicht leer).


Obgleich die Teilchen in Output( E ) denen in Input( E ) oft recht ähnlich sind, sollte man sie dennoch als neue Teilchen begreifen, die als Ersatz der alten ins Leben gerufen werden.

Alle Elemente von Output( E ) existieren zunächst in einem Überlagerungszustand. Erst wenn so ein Teilchen mit anderen kollidiert, — interagiert —, konkretisiert sich sein Zustand (die Kopenhagener Deutung nennt das den Zusammenbruch der Wellenfunktion des Teilchens, in modernerer Sprache sagt man stattdessen auch, das Teilchen werde dekohärent). Der Wert der Eigenschaften, die so als einziger und zugleich letzter Zustand des Teilchen dem Beobachter erfahrbar werden, sind sozusagen die einzige Äußerung, mit der das Teilchen sich seiner Umgebung mitteilt.


Makroskopische physikalische Objekte O, solche also, die aus mehr als nur einem Elementarteilchen bestehen, werden schrittweise und ständig neu dekohärent. Jeder solche Schritt besteht darin, dass ein zu O gehörendes Elementarteilchen dekohärent wird (sich also ersetzt durch andere bzw. durch ein anderes, ihm sehr ähnliches).

Beispiel: Wenn ein Elektron eine Moleküls mit einem daherkommenden Photon hinreichend hoher Energie kollidiert, kann es vorkommen, dass das Elektron ersetzt wird durch eines in einem höheren, also energiereicheren Orbital des Moleküls (oder Atoms). Das Photon hört auf zu existieren oder wird ersetzt durch ein weniger energiereiches.


Aus ein und demselbem Elemetarereignis hervorgehende Elementarteilchen e1 und e2 werden oft (aber – wie man heute erkannt zu haben glaubt – nicht immer) miteinander verschränkt sein. Verschränkung ist eine Art Verwandtschaftsbeziehung, die bewirkt, dass, wenn e1 dekohärent wird, e2 ohne jede Verzögerung in einen Zustand gerät, der bewirkt, dass wenn e2 irgendwann auch dekohärent wird, der Wert des Zustandes, in dem es sich e2 dann zeigt, korrelliert ist zu dem, in dem sich vormals e1 gezeigt hat.

Man könnte also sagen: Sind e1 und e2 miteinander verschränkte Elementarteilchen, und wird e1 dekohärent, so wird e2 virtuell dekohärent, existiert aber weiter (virtuell, d.h. immer noch in einem Überlagerungszustand). Dies gilt unabhängig davon, wie weit e1 und e2 von einander entfernt waren, als e1 dekohärent wurde (und so seine Existenz beendet hat).


Gebhard Greiter (grtgrt)

 

  Beitrag 1972-87
Was die Kollision von Elementarteilchen konkret bedeutet

 
 

Was man unter der Kollision zweier Elementarteilchen versteht


Genau dann, wenn zwei Elementarteilchen einander zwingen, gemeinsam dekohärent zu werden
( d.h. zu verschmelzen und sich neu aufzuteilen )
sagt man, sie kollidieren.



Siehe auch: Lebenszyklus eines Elementarteilchens

 

  Beitrag 2008-1
-

 
 

Zu dem, was Quantenphysiker den » Messprozess « nennen

Er passiert, wo immer Quantensysteme Q und M miteinander kollidieren,



und besteht darin, dass mit einer Messvorrichtung M kollidierende Quanten oder Quantensysteme Q durch sie gebeten werden, sich zu einem bestimmten Zustand Z( M) zu bekennen (man nennt das die durch M definierte Messfrage).

Z( M) ist durch M mehr oder weniger genau definiert und heißt

  • gemischter Zustand, wenn weniger genau gemessen wird (wobei das Messergebnis dann eine Wahrscheinlichkeitsaussage ist, die aber lediglich unsere aus der Ungenauigkeit der Messung resultierende subjektive Unkenntnis ausdrückt — keineswegs aber quantische Unbestimmtheit).

Die Messung selbst besteht darin, dass das mit M kollidierende Quant
  • sich entweder zum Zustand Z( M) bekennt
  • oder von der Messapparatur verschluckt wird.

Wenn sich das Quant zum Zustand Z( M) bekennt, wird es die Messapparatur in diesem Zustand Z( M) verlassen: M hat es dann sozusagen in den Zustand Z( M) gezwungen. Die Wahrscheinlichkeit, mit der das passiert, wird umso kleiner sein, je mehr sich Z( M) vom Zustand Z( Q) unterscheidet (hier bezeichnet Z( Q) den Zustand, in dem Q die Messapparatur M erreicht).

Der spontane Übergang von Z( Q) nach Z( M) ist das, was man als Zustandsprojektion oder — weit dramatischer — als Kollaps der Wellenfunktion bezeichnet: Die Schrödingergleichung von Q — und damit seine Wellenfunktion — werden durch eine neue, etwas abgeänderte Version ersetzt.

Wer betonen möchte, dass dieser Austausch der Schrödingergleichung spontan und ohne jeden Zeitverzug stattfindet, der nennt den Kollaps der Wellenfunktion auch einen Quantensprung. Görnitz (S. 84) weist darauf hin, dass dies stets die kleinstmögliche reale Veränderung ist, die mit oder am System Q geschehen kann.


Da die Messapparatur frei ist, jede mögliche Frage zu stellen, gilt:

Zitat von Görnitz, S. 85:
 
Quantentheorie determiniert die  M ö g l i c h k e i t e n  [ über die Schrödingergleichung , aber NICHT die Fakten.



Ein System wird sich demnach nicht beliebig entwickeln, sondern deterministisch gesetzmäßig, das aber so, dass
  • die Eigenschaft "deterministisch" sich auf die Menge in Zukunft  m ö g l i c h e r  Zustände bezieht;
  • Welche davon dann wirklich eintreten, hängt ab vom Ergebnis der Messfragen, die das System gezwungen sein wird zu beantworten.

Zitat von Görnitz, S 85:
 
Hier eröffnet sich wichtiger Spielraum im Weltgeschehen ... :

Es ist keine Willkür zu erwarten, aber auch keine absolut durchgängige Determiniertheit. [Die Freiheit, die ein Quantensystem Q hat, sich zu entwickeln, steigt mit der Anzahl und der Verschiedenheit der Messfragen, die es gezwungen wird zu beantworten.
 


Meine Zusammenfassung dessen, was
Görnitz auf den Seiten 80-85 seines Buches "Die Evolution des Geistigen" sagt


 

  Beitrag 1995-1
Inwiefern anfassbare Gegenstände nur Illusion sind

 
 

Wie es zur Illusion anfassbarer Gegenstände kommt


Jeder Gegenstand G, den man anfassen und fühlen kann, ist eine Konfiguration von Elementarteilchen.

Jedes dieser Teilchen existiert zunächst nur virtuell, d.h. noch nicht mal an einem genau definierten Ort: Es existiert nur als ein Energiepaket T, für das die Wellenfunktion ψ unseres Universums U zu jedem Punkt P der Raumzeit eine Wahrscheinlichkeit w( P,T ) dafür nennt, dass T in Punkt P als Teilchen beobachtbar wird. Wo solche Beobachtung dann tatsächlich stattfindet, bedeutet das, dass T mit wenigstens einem anderen Teilchen in dem Sinne kollidiert, dass beide miteinander verschmelzen und aus dieser Verschmelzung sehr oft neue Elementarteilchen entstehen.

Das Entstehen zweier Teilchen T aus dem Nichts ebenso wie die eben beschriebene Kollision von Elementarteilchen nennt man ein Elementarereignis E. Versteht man unter input( E) bzw. output( E) die Menge aller durch E vernichteten bzw. neu erzeugten Elementarteilchen, so kann maximal eine dieser beiden Mengen leer sein. Auf jeden Fall aber haben beide identischen Gesamtimpuls.

Der spontane, plötzliche Übergang von input( E) zu output( E) entspricht einer winzigen Äbänderung von G, die sich bemerkbar macht
  • einerseits durch aus G kommende Strahlung – Licht etwa –
  • und andererseits über eine leichte Abänderung der Kräfte, die zwischen den G darstellenden Elementarteilchen wirken in dem Sinne, dass Teilchen, die Ruhemasse haben, sich nicht beliebig nahe kommen können, dass es ihnen aber umgekehrt auch ziemlich schwer fällt, sich allzu weit voneinander zu entfernen.

Mit anderen Worten:

Ständig in G eindringende Strahlung (wenigstens die allgegenwärtige kosmische Hintergrundstrahlung) ist für die meisten in G stattfindenden Elementarereignisse E verantwortlich. Da für sehr viele der in G stattfindendes Elementarereignisse E die Menge output( E) Teilchen enthält, die aus G als Strahlung entweichen — sehr oft als sichtbares Licht —, wird G über sie durch unsere Sinne — entweder direkt oder über geeignet konstruierte Detektoren — beobachtbar.

Mehr noch: Die zwischen den G darstellenden Materieteilchen wirkenden Kräfte führen zu einem Kräftegleichgewicht, welches — da es ja durch jedes Elementarereignis nur ein klein wenig abgeändert wird — zur Folge hat, dass G seine Form i.A. nur langsam ändert (und dass Widerstand spürt, wer den Gegenstand G berührt oder gar versucht in wegzuschieben oder zusammenzudrücken).

Diese Sinneswahrnehmungen also sind es, die — aufsummiert durch unser Gehirn — zu dem führen, was wir als einen uns sichtbaren oder durch uns berührbaren Gegenstand begreifen.


Gebhard Greiter (grtgrt)
 

  Beitrag 1995-10
-

 
 
Harti aus 1995-6:
Hallo Grtgrt,

es wäre zweckmäßig zunächst mal näher zu beschreiben, zu definieren, was unter "Illusion" verstanden werden soll .

Was ich in Beitrag 1995-1 unter dem Begriff Illusion verstehe, ist dort ganz genau beschrieben — es bedarf keiner weiteren Erklärung.

Gruß, grtgrt
 

  Beitrag 1995-11
-

 
 
Horst aus 1995-8:
Hallo grtgrt,

gehe ich dann recht in der Annahme, dass somit auch Illusionen angreifbare Masse besitzen und der Schwerkraft unterliegen?

Masse und Schwerkraft finden sich in dem, für das die Illusion steht (Illusion = Erscheinungsbild).

 

  Beitrag 1995-5
-

 
 

Ein Dachziegel — und doch auch Billiarden von Kathedralen


Erst Rutherford (1871-1937) erkannte, dass jedes Atom fast nur aus Leere besteht. Zu Atom und Atomkern schrieb er:

Zitat von Rutherford:
 der Atomkern — ein Staubkörnchen auf dem Boden einer Kathedrale;

die Elektronen — wie ein paar Fliegen im Gewölbe der Kathedrale.


Dazwischen Leere — nichts.


 

  Beitrag 1995-68
Letztlich besteht unsere gesamte Welt nur aus Energie in Form von Bewegung

 
 

Auch ein Dachziegel ist — letztlich — nur durch Bewegung gegebene Energie



Seit langem weiß man, dass der Atomkern winzig ist im Vergleich zum gesamten Atom. Dennoch sind mehr als 99.9% der Atommasse im Kern konzentriert. Daher ist die Behauptung, jedes Atom sei i.W. leerer Raum, durchaus zutreffend.

Die Aussage allerdings, dort sei Vakuum, wäre falsch (die Experimentalphysik versteht unter "Vakuum" die Abwesenheit von Atomen, und das kann es im Inneren der Atome natürlich nicht geben). Auch der Ausdruck "leerer Raum" ist eher eine Metapher. Wirklich gemeint ist, dass der Raum im Inneren der Atome ausschließlich Orte enthält, an denen man zu gegebenem Zeitpunkt mit bestimmter Wahrscheinlichkeit ein Elektron antreffen könnte.

Auch wenn man noch weiter ins Kleine vordringt, wird es nicht anders: Man liest immer wieder, dass die Nukleonen (die Protonen und Neutronen also, aus denen der Atomkern besteht) aus Quarks bestehen. Jene Quarks aber stellen jeweils nur einen winzigen Bruchteil der Masse eines Protons oder Neutrons dar (nur etwa 2%). Die restlichen 98% der Masse jeden Nukleons sind gegeben durch die Bewegung der Quarks gemäß Einsteins Formel m = E/c2.


Letztlich ist alles in unserer Welt nur Energie in Form von Bewegung:

Energie — auch in Form von Materie — ist nichts anderes als Bewegung (von was auch immer).



Dem Sinne nach zitiert aus
Görnitz: Die Evolutionen des Geistigen, S. 124 und 122



Ein Elektron an einem bestimmten Ort "aufzufinden oder anzutreffen" bedeutet wirklich NUR, dass von diesem Ort ein Signal ausgeht, welches zeigt, dass dort ein Elektron und mindestens noch ein anderes Quant an ein und demselben Elementarereignis beteiligt sind. Wichtig ist, sich darüber klar zu sein, dass

beide Teilchen nicht-lokale Aspekte haben.


Eben das vergisst man allzu oft.

 

  Beitrag 1995-75
-

 
 
Stueps aus 1995-69:
 
ich meine gehört zu haben, dass die meiste Masse in Bindungsenergie gebunden ist.

Hi Stueps,

das scheint falsch zu sein, wie man folgendem Gedankenaustausch im Forum PhysikerBoard entnehmen kann:


Personen jh8979 und Gustav123 behaupten dort, die Masse des Protons käme vor allem durch die Bindungsenergie der starken Wechselwirkung.

Ein gewisser TomS widerspricht dieser Behauptung gleich zwei Mal, indem er schreibt:


Zitat von TomS:
 
Bindungsenergie ist hier irreführend, ...

Die (näherungsweise bzw. exakt) masselosen Quarks und Gluonen im Protonen bewegen sich relativistisch, d.h. die Ruhemasse des Protons entspricht einer hohen kinetischen Energie. Aber auch dieses Bild ist leicht verwirrend; es ist nicht einfach, die Masse des Protons mit unseren Alltagsbegriffen zugleich anschaulich und einigermaßen korrekt zu erklären.

Zitat von TomS:
 
... im Falle der QCD die Bindungsenergie (= die Stabilität des gebundenen Zustandes) einerseits und die Masse (des gebundenen Zustandes) andererseits nichts miteinander zu tun haben.

Bindungsenergie (pro Quark) ist letztlich die Energie, die benötigt wird, den gebundenen Zustand aufzubrechen bzw. ein Quark zu isolieren (vgl. Ionisierungsenergie eines Elektrons im Atom). Das funktioniert mit einem einzelnen Quark aufgrund des Color-Confinements sowieso nicht. Trotzdem liegt natürlich eine Bindungsenergie vor, die die Stabilität des Nukleons beschreibt. Aber diese Bindungsenergie kann man nun nicht einfach mittels E=mc2 in einen Massendefekt umrechnen; diese Vorgehensweise aus der Kernphysik ist in der QCD nicht anwendbar.
 

 

  Beitrag 1995-76
-

 
Hallo Gebhard,

ich bin mir sicher, dass Bindungsenergie eine wesentliche Rolle spielt. Jedoch eben neben der Ruhemasse der einzelnen Komponenten nicht die einzige, wie ich vermute, und in vorigem Beitrag vorgerechnet habe. Die Bindung zwischen den einzelnen Quarks wird mithilfe von Gluonen und deren "Farben" beschrieben und ist zwar schon nicht einfach nachzuvollziehen, aber wenn man sich Mühe gibt, geht es noch. Die Gluonen sind die Teilchen der starken Kernkraft. Diese Kraft hält auch die Nukleonen im Atomkern zusammen, und rührt letztlich auch von den Gluonen her. Dieser Prozess zwischen den Nukleonen ist jedoch für einen Laien fast nicht nachzuvollziehen. Das meint "TomS" wahrscheinlich in deinem Beitrag mit

Zitat:
Trotzdem liegt natürlich eine Bindungsenergie vor, die die Stabilität des Nukleons beschreibt. Aber diese Bindungsenergie kann man nun nicht einfach mittels E=mc2 in einen Massendefekt umrechnen; diese Vorgehensweise aus der Kernphysik ist in der QCD nicht anwendbar.

Die QCD beschreibt den Bindungsprozess zwischen den Nukleonen wesentlich tiefergehender als die Kernphysik und leider auch ungleich komplizierter.

Ich weiß nicht, ich lehne mich mal jetzt weit aus dem Fenster und vermute, dass relativistische Effekte in den Prozessen, die in Atomkernen stattfinden, einen wesentlichen Beitrag zur Gesamt-Ruhemasse eines Atomkerns beitragen. Und da scheinen dann die von dir erwähnten Bewegungsenergien eine weitere wesentliche Rolle zu spielen.

Nebenbei: Quarks haben eine Ruhemasse, sie sind nicht, wie vielleicht die Neutrinos, näherungsweise masselos (mindestens 1 700 000 eV c-2 für ein up-Quark sind ziemlich weit von näherungsweise nichts entfernt). Und die Masselosigkeit der Gluonen wird zwar im Standardmodell angenommen, nachweisen kann man dies jedoch zur Zeit nur experimentell. Und in Experimenten kann eine Ruhemasse von Gluonen derzeit nicht ausgeschlossen werden. Also genieße die Ausagen von "TomS" mit einer gewissen Vorsicht.

Grüße
 

  Beitrag 1995-77
-

 
Stueps aus 1995-76:
Hallo Gebhard,

ich bin mir sicher, dass Bindungsenergie eine wesentliche Rolle spielt. Jedoch eben neben der Ruhemasse der einzelnen Komponenten nicht die einzige, wie ich vermute, und in vorigem Beitrag vorgerechnet habe. Die Bindung zwischen den einzelnen Quarks wird mithilfe von Gluonen und deren "Farben" beschrieben und ist zwar schon nicht einfach nachzuvollziehen, aber wenn man sich Mühe gibt, geht es noch. Die Gluonen sind die Teilchen der starken Kernkraft. Diese Kraft hält auch die Nukleonen im Atomkern zusammen, und rührt letztlich auch von den Gluonen her. Dieser Prozess zwischen den Nukleonen ist jedoch für einen Laien fast nicht nachzuvollziehen. Das meint "TomS" wahrscheinlich in deinem Beitrag mit

Zitat:
Trotzdem liegt natürlich eine Bindungsenergie vor, die die Stabilität des Nukleons beschreibt. Aber diese Bindungsenergie kann man nun nicht einfach mittels E=mc2 in einen Massendefekt umrechnen; diese Vorgehensweise aus der Kernphysik ist in der QCD nicht anwendbar.

Die QCD beschreibt den Bindungsprozess zwischen den Nukleonen wesentlich tiefergehender als die Kernphysik und leider auch ungleich komplizierter.

Ich weiß nicht, ich lehne mich mal jetzt weit aus dem Fenster und vermute, dass relativistische Effekte in den Prozessen, die in Atomkernen stattfinden, einen wesentlichen Beitrag zur Gesamt-Ruhemasse eines Atomkerns beitragen. Und da scheinen dann die von dir erwähnten Bewegungsenergien eine weitere wesentliche Rolle zu spielen.

Nebenbei: Quarks haben eine Ruhemasse, sie sind nicht, wie vielleicht die Neutrinos, näherungsweise masselos (mindestens 1 700 000 eV c-2 für ein up-Quark sind ziemlich weit von näherungsweise nichts entfernt). Und die Masselosigkeit der Gluonen wird zwar im Standardmodell angenommen, nachweisen kann man dies jedoch zur Zeit nur experimentell. Und in Experimenten kann eine Ruhemasse von Gluonen derzeit nicht ausgeschlossen werden. Also genieße die Ausagen von "TomS" mit einer gewissen Vorsicht.

Grüße

http://de.wikibooks.org/wiki/Teilchenphysik:_Erhalt...

Stuebs, Gebhard!

Die "Farben" der Quarks sind nichts anderes als ihre Ladungen. So wie die elektromagnetische Kraft überwunden werden muss, damit z. B. Kerne verschmelzen können, muss die "Farbe" überwunden werden, damit z. B. Up- und Downquarks Nukleonen bilden können.

Um den Begriff "Bindungsenergie" richtig einzuordnen: Es wird die Energie "Bindungsenergie" genannt, die bei der Kernfusion freigesetzt wird, aber auch z. B. beim Beta-Zerfall (Radioaktivität). Aber, Stuebs, mach dir doch mal Gedanken, wie sich die entsprechende Energie innerhalb der Nukleonen verhält, bzw. wie kommt die Energie denn zustande? Wie jede Energie ist sie sinnlos, wenn sie einfach nur vorhanden ist, es muss ein Niveaugefälle vorhanden sein, oder aber, es muss einen Effekt geben, der Energie umwandelt – und das ist in den Nukleonen der Fall.

Die Nukleonen (also Protonen, Neutronen) bestehen aus Quarks, genauer aus Up- und Downquarks. Und diese Quarks werden durch die (masselosen!) Gluonen zusammengehalten, und zwar durch den ständigen Austausch von Gluonen. Gluonen sind dir Übermittler der Starken Wechselwirkung, sie gehören zum Feld der Starken Wechselwirkung, wie die Photonen als Übermittler der elektromagnetischen Wechselwirkung zum elektromagnetischen Feld gehören. Dieser Austausch ist Bewegungsenergie. (Der gesamte Prozess ist ungleich komplexer, es gehören wegen der räumlich kleinen Dimension auch virtuelle Austauschteilchen dazu) und ich maße mir nicht an, ihn auch nur Ansatzweise zu verstehen.)

Wie kommt es denn überhaupt zu einer Kernfusion? Nur aufgrund unseres allseits beliebten Tunneleffektes und wegen der hohen Temperaturen in den Sternen, hervorgerufen durch die Schwerkraft. Die Temperaturen allein würden nicht ausreichen, deshalb der Tunneleffekt, und die Temperatur bedeutet nichts anderes als Bewegungsenergie, denn für ein einzelnes Nukleon kann man nicht von Temperatur sprechen. Durch die Bewegungsenergie und der Tunneleffekt lässt sich die abstoßende Wirkung der gleichartig geladenen Nukleonen überwinden. Die dabei freigesetzte Bindungsenergie wird zum kleinen Teil als Bewegungsenergie auf die Nukleonen übertragen, zum anderen als Gammastrahlung freigesetzt – davon leben wir.

Letztlich ist es also nicht nur die "vordergründige" Wärme (was nichts anderes ist, als die Bewegungsenergie der einzelnen Atome als statistischen Wert darzustellen) der Sonnenoberfläche, die unser Leben auf unserer schönen Erde ermöglicht, sondern sie – die Bewegungsenergie – steht auch ganz am Anfang der Energieerzeugung (jetzt mal von der Gravitation abgesehen).

Und zum Schluss: Relativistische Effekte können keinerlei Einfluss auf eine "Gesamtruhemasse" haben, denn die Ruhemasse ist eine Erhaltungsgröße, so wie die Energie ebenfalls.

Diese Links könnten für uns interessant sein:

http://www.leifiphysik.de/web_ph11_g8/grundwissen/1...
http://www.buw-output.uni-wuppertal.de/ausgabe1/fodor/
http://www.teilchenwelt.de/forum/index.php?page=Thr...
 

  Beitrag 1995-9
Leben wir als Teil einer nur errechneten (simulierten) Welt?

 
 
Zara.t. aus 1995-7:
Heute weiß man, dass die Leere des Vakuums alles andere als leer ist. Jeder Punkt der Raumzeit ist eine Überlagerung von möglichen Teilchen. Besser: von virtuellen Teilchen, die nicht direkt gemessen werden können und von Möglichkeiten "reale" Teilchen zu messen.

Hi Zara,

genau so hat es mein Beitrag 1995-1 ja auch beschrieben.


Zara.t. aus 1995-7:
 
Rutherford hat noch vollkommen klassisch gedacht. Dieses Atommodell konnte nicht funktionieren. Elektronen, die wie Planeten die Sonne, den Kern umkreisen müßten in den Kern stürzen. Auch aus diesem Problem heraus entwickelte sich die Quantenmechanik.


Natürlich: Rutherfords Atommodell war noch nicht so genau, wie wir es heute wissen. Dennoch erscheint mir sein Vergleich recht erhellend.

Deine Aussage aber, dass sich "aus diesem Problem" die Quantenmechanik entwickelt hätte, stimmt so nicht. Ursache ihres Entstehens war die Entdeckung des Wirkungsquantums durch Max Planck (1899, im Dez 1900 der Fachwelt verkündet).

Nebenbei: Anton Zeilinger vermutet, dass die Quantelung aller physikalischen Größen und Prozesse darauf zurückzuführen sein könnte, dass unsere ganze Welt letztlich nur aus Information besteht und die sich eben nur durch Bitfolgen kodieren lässt.

Hätte er recht (und in dem Fall wäre sogar Energie nur Illusion), wäre es gar nicht mehr so abwegig, auch die Möglichkeit in Betracht zu ziehen, dass unser ganzes Universum — und damit sogar wir selbst — vielleicht nur Teil einer gigantisch angelegten Computer­simulation sein könnten (so wie Brian Greene das, als nicht wirklich ausschließbare Möglichkeit, allen E...es in Kap. 10 seines Buches "The Hidden Reality" ja auch schon diskutiert und auf Plausibilität hin zu durchdenken versucht).


Gruß, grtgrt


PS: Anton Zeilinger und Andreas Mücklich gehen noch weiter, indem sie vermuten, dass die Natur jedem physikalischen Objekt nur endlich viele Bits zugesteht, sich selbst zu beschreiben. Dies würde begründen, warum Heisenbergs Unschärfe-Relation gilt: Je genauer eine Eigenschaft des Objekts beschrieben ist, desto mehr jener Bits sind hierfür verbraucht, und desto weniger stehen zur Verfügung, dazu komplementäre Eigenschaften des Objekts wirklich genau zu beschreiben. Wenn das Objekt dann, wie durch Zeilinger vermutet, nur aus seiner Beschreibung besteht, ist klar, dass die Unschärfe in Wirklichkeit  U n b e s t i m m t h e i t  ist: Wirklich scharf also kann kein Objekt existieren.

Wäre unsere Welt nur eine simulierte (d.h. errechnete), müsste man jene begrenzt langen Bitfolgen als die Variablen sehen, die im simulierenden Programm das physikalische Objekt darzustellen haben. Dies würde erklären, warum sie begrenzt sind.


Nach Zeilinger lässt sich das keineswegs nur für Elementarteilchen so sehen, sondern auch für beliebig komplexe Objekte — beispielsweise für ganze Messapparaturen.
Er zeigt das am Beispiel solcher, die einen Mach-Zehnder-Interferometer nutzen, mit dem man für Photonen zwei Arten von Information sammeln kann — niemals aber Information beider Art zugleich: Diese Arten von Information sind zueinander komplementär im Sinne der Unbestimmtheitsrelation (wie Zeilinger auf Seite 202 seines Buches Einsteins Schleier recht überzeugend darlegt).

 

  Beitrag 1995-25
-

 
 
Hi E...,

danke für den Link hin zum Interview mit Anton Zeilinger.

Besonders zwei Definitionen daraus sollte man sich auch ihrer Formulierung nach gut merken:
  • Der quantenmechanische Zustand ist die Information, die wir über die Welt haben [so die Kopenhagener Interpretation
     

  Beitrag 1995-27
-

 
 
E... aus 1995-23:
... komplexe makroskopische Systeme sich in  k e i n e m  Quantenzustand befinden und deshalb auch  k e i n e  Illusion sein können.

Quelle: http://www.heise.de/tp/artikel/7/7550/1.html

Hi E...,

diese deine Aussage ist natürlich falsch, und das in gleich zweierlei Hinsicht. Hier mein Beweis:
  • Da Zeilinger im durch dich gefundenen Artikel sagt, der quantenmechanische Zustand eines Systems sei die Information ist, die wir über das System haben, ist jedes makroskopische, durch uns beobachtbare System doch ganz klar in einem solchen Zustand.
  • Als was uns das System erscheint (sein "Erscheinungszustand", die "Illusion" also) wird hervorgerufen durch uns erreichende Quanten, die — erzeugt durch sein ständiges dekohärent werden — von jenem Objekt ausgehen. Es sind Quanten, die die entsprechenden Elementarereignisse sozusagen "aus dem Objekt heraus­schlagen" (genauer: aus einer Verschmelzung des Objekts mit den Quanten seiner Umgebung, die es dekohärent machen und so auch mit seiner Umgebung verschränken können).

Gruß, grtgrt
 

  Beitrag 1995-26
-

 
Dekohärenz beudet Verschränkung des Systems mit der Umwelt. Nicht mehr und nicht weniger.
 

  Beitrag 1995-31
Zur Wechselwirkung makroskopischer Objekte mit auf sie treffenden Quanten

 
 
Sehr treffend finde ich, was Norbert Hinterberger in einem Leserbrief an die Zeitschrift "Spektrum der Wissenschaft" sagt:

Zitat von Norbert Hinterberger, Hamburg:
 
Der Teilchenbegriff ist vermutlich rein subjektiv – intersubjektiv zwar, aber eben subjektiv für den Teil der Welt, den wir klassisch sehen.

H. Dieter Zeh hat dazu wiederholt in überzeugender Weise argumentiert.

Der Welle-Teilchen-Dualismus scheint physisch diskret nicht vorhanden zu sein. Objektiv beziehungsweise physisch fundamental scheint nur die Welle zu sein.

Unter Laborbedingungen (ohne Dekohärenz) lässt sich das ja auch deutlich zeigen, wie wir hier – insbesondere in dem kleinen Film – sehen. Das Molekül wird von den Experimentatoren selbst als Materiewellenüberlagerung beschrieben, sobald wir seine Welleninterferenzen auf dem Schirm sehen. Warum lassen wir es nicht dabei?

Was uns an dieser Welle erscheint wie ein "Kollaps der Wellenfunktion" zu einem "Teilchen" an einem bestimmten Ort zu einer bestimmten Zeit im Fall einer Messung, ist einfach die inzwischen recht bekannte Tatsache, dass wir mit der Messung wie mit jeder beliebigen anderen Wechselwirkung auch das zu messende System stören oder zerstören beziehungsweise zur Dekohärenz bringen.

Das heißt aber nicht, dass die Superposition » kollabiert «. Im Gegenteil: Sie ist jetzt in einer noch großräumigeren Verschränkung definiert.
 


Nebenbei: Dass Laborbedingungen Dekohärenz ausschließen können, ist natürlich nicht wirklich richtig, denn vor Neutrinos etwa kann uns wohl kein noch so gutes Labor abschirmen.

Dies bringt mich auf noch einen anderen Gedanken:

Wo ein Quantensystem von Bosonen durchquert wird, werden entsprechende Elementarereignisse es wohl nur umbauen. Zu Dekohärenz – im Sinne einer Verschränkung des Objekts mit seiner Umgebung – kommt es wohl erst dann, wenn das Objekt mit  F e r m i o n e n  kollidiert.

grtgrt
 

  Beitrag 1995-38
-

 
 
Stueps aus 1995-37:
 
Da Neutrinos selbst auf großen Skalen so gut wie nie wechselwirken, stören sie auch erst recht nicht Laborexperimente, die sich auf kleinsten räumlichen Skalen in Bruchteilen von Sekunden abspielen. Heißt etwas salopp übersetzt:

Liebe Laborexperimente, keine Angst vor Neutrinos! Die tun nix!
 

Hi Stueps,

was du da sagst, gilt ganz sicher in sehr guter Näherung.

Die Tasache aber, dass es eben NUR in sehr guter Näherung richtig ist, bedeutet doch, dass das eine oder andere der Neurinos, die die Abschirmung des Labors nicht aufhalten konnte, dann — natürlich nur in seltenen Fällen — eben doch mit einem im Labor befindlichen Quant kollidieren kann.

Andere Frage an dich:

Warum bist du so sicher, dass derzeit realistisch machbare Laborabschirmungen wirklich jedes Quant, das nicht gerade ein Neutrino ist, vom Inneren des Labors fernhalten können? Könnte es da nicht noch weitere Ausnahmen geben (wenn man ganz genau ist)? Gravitons etwa, falls sie schon nachweisbar wären? Oder Higgs-Teilchen?

Und was, wenn vielleicht sogar ein Antimaterie darstellendes Teilchen daher käme?

Gruß, grtgrt
 

  Beitrag 1995-48
Klassische Existenz physikalischer Objekte ist eine Illusion

 
 
Stueps aus 1995-43:
 
Es ist meines Wissens nach unter Wissenschaftlern nicht die Frage, dass physikalische Systeme in klassischer Form existieren, sondern wann sie klassisch werden.

Hi Stueps,

physikalische Objekte existieren nicht in klassischer Form — sie  z e i g e n  sich nur in dieser Form (dann nämlich, wenn ein Elementarereignis passiert und zur Folge hat, dass aus dem Objekt Quanten in seine Umgebung entkommen. Sie sind es, was wir sehen bzw. registrieren, und so den Eindruck gewinnen, das Objekt selbst sei sichtbar und würde klassisch existieren).

Die Tatsache, dass pro Sekunde wahnsinnig viele solche Ereignisse passieren, suggeriert uns den Eindruck eines stehenden "Bildes" (eben ganz so, wie wir ja z.B. auch das durch eine gute Fernsehkamera erzeugte Bild eines sich gerade NICHT bewegenden Gegenstandes als stehend empfinden, obgleich doch in Wirklichkeit all die Pixel, aus denen es sich zusammensetzt, pro Sekunde öfters neu geschrieben werden als unsere Augen noch unterscheiden können).

Gruß, grtgrt
 

  Beitrag 1995-34
Was man unter einem Quantenzustand versteht

 

Ein Quantenzustand ist nach Wikipedia:

Zitat:

In der quantenmechanischen Behandlung eines physikalischen Systems ist der momentane Zustand des Systems ein mathematisches Objekt, das für jede am System mögliche (fehlerfreie) Messung und für jedes der dabei möglichen Messergebnisse die Wahrscheinlichkeit festlegt, mit der das betreffende Messergebnis erhalten wird.


Zeilingers Aussage verstehe ich so, dass wir durch die Komplexität der klassischen Systeme sie nie in eine Art quantenmechanischer Gleichung setzen können, durch die alle Teilchen mathematisch in dem System erfasst sind. Nichts anders in der klassischen Welt. Wir haben schon bei zwei makrokosmischen Objekten die Schwierigkeit sie mathematisch zu erfassen. Bei drei Objekten ist es schon praktisch unmöglich. Unterschied nur nur, die drei Objekte können wir jederzeit sehen, die Teilchen sind für unserer Wahrnehmung prinzipielle gesperrt. Hier sind wir angewiesen auf die Mathematik.

Dies bedeutet aber nicht, dass ein klassisches Objekt kein quantenmechanisches System wäre.

LG, Irena

Grtgrt ergänzt:

Was Irena hier sagt, ist schon allein deswegen richtig, weil sich die klassische und die quantenmechanische Beschreibung jeden Objekts ja nur dadurch unterscheiden, dass
  • die klassische einfach nur Fakten beschreibt (die der ständige Kollaps der Wellenfunktion erzeugt),
  • die quantentheoretische aber — als Wellenfunktion des Objekts — zudem noch alle durch solche Fakten geschaffenen Möglichkeiten.
Man lese dazu auch, was genau man under der Quantisierung eines physikalischen Objektmodells versteht.
 

  Beitrag 1972-86
Elementarteilchen sind als Energieportion NICHT verdünnbar

 
 
Wrentzsch aus 1972-84:
 
Was verhindert das Vergehen einer Energieeinheit bei räumlicher Ausdehnung,
hält etwas dagegen, sodass sich das Quant verändert und stabil wird oder die Energie Quantelt?

Hi Wrentsch,

dass ein Quant (= eine Energieportion) sich räumlich ausdehnt, bedeutet nur, dass die Punkte im Raum, an denen man das Quant potentiell wird beobachten können, immer mehr auseinander wandern – so wie seine Wellenfunktion das vorhersagt. Erst wenn das Quant mit anderen kollidiert wird es dekohärent (um sich so an einer mehr oder weniger unscharf definierten Stelle zu zeigen und gleichzeitig zu sterben: siehe Lebenszyklus eines Elementarteilchens).

Mit anderen Worten: Es ist nicht so, dass das Quant (als Energieportion) sich mehr und mehr verschmiert und damit verdünnt. Lediglich der Bereich, der alle Punkte enthält, an denen man es mit einem anderen Elementarteilchen kollidieren kann, wird ständig größer).

PS: Unter "seiner Wellenfunktion" ist — wenn man es ganz genau nimmt — die unter Berücksichtigung der ART formulierte Wellenfunktion unseres gesamten Universums zu verstehen.

Gruß, grtgrt
 

  Beitrag 1999-49
Wie Thomas Görnitz Dekohärenz erklärt

 
 
Vor einiger Zeit kam es hier im Forum zu Meinungsverschiedenheiten darüber, wie Dekohärenz wirkt.
Görnitz wenigstens erklärt sie sehr schön:




Was Thomas Görnitz über » Dekohärenz « sagt



Zitat von Görnitz, S. 196-197:
 
Das Entstehen eines Faktums bedeutet für ein System, dass an diesem alle Möglichkeiten bis auf eine verloren gehen.

Dazu muss natürlich daran erinnert werden, dass sich aus einem Faktum sofort wieder neue Möglichkeiten ergeben, die teilweise auch mit den alten übereinstimmen werden und teilweise von diesen verschieden sind. Es wird also unter den neuen solche geben, die vorher unmöglich waren, und einige der zuvor vorhandenen werden nicht wieder erneuert.

Dieser Vorgang, der früher ... als » Messprozess « bezeichnet worden ist, zerstört den linearen Charakter der quantentheoretischen Systembeschreibung. Die Linearität drückt die mögliche Addition der Zustände innerhalb eines Systems aus (Vektoraddition). Wir hatten [auch] davon gesprochen, dass das Zusammensetzen von Teilsystemen zu einem Ganzen eine » Multiplikation « ist. Daher ist die Zerlegung eines Ganzen in Teile etwas ähnliches wie eine » Division «. Solche eine Zerlegung passiert, wenn ein System von Möglichkeiten abgeschnitten wird, die in das All entfliehen. ...

Es gibt eine Reihe sehr bewährter Näherungsverfahren, die solchen Informationsverlust sehr treffend modellieren. Das wichtigste unter ihnen ist als » Dekohärenz « weithin bekannt geworden:

Bei hinreichend großen und schweren Reaktionspartnern (z.B. winzigste Staubpartikelchen) werden die Quantenkorrelationen zwischen diesen [Reaktionspartnern] sehr schnell sehr klein und können nach kurzer Zeit praktisch ignoriert werden. Dies bedeutet im Rahmen der Schichtenstruktur, dass damit zu einer klassischen Beschreibung des zugeordneten Prozesses übergegangen werden kann,  o h n e  dadurch grundlegend falsch zu werden.
 


Hinweis: Unter der » Schichtenstruktur « versteht Görnitz (S. 88) den ständigen Kollaps der Wellenfunktion in Kombination mit ihrem sofortigen Neu-Aufleben in leicht modifizierter Version. Niemand außer ihm benutzt hierfür dieses wenig passende Wort.


Quelle (auf die sich die Seitenzahlen beziehen): Thomas & Brigitte Görnitz: Die Evolution des Geistigen, 2008
 

 Beitrag 0-174
Warum es Kreativität, aber keine nicht relativen Wahrheiten gibt

 
 

 
Was formale Logik

von kreativer Logik unterscheidet

 
 
Nur formale Logik arbeitet garantiert fehlerfrei, denn sie konstruiert auf mathematischem Wege aus als wahr angenommenen Aussagen (sog. Axiomen) mit Hilfe einiger weniger, wiederholt angewandter, absolut eindeutiger Regeln Aussagen, die dann ebenfalls als wahr eingestuft werden.
     
  • Der Vorteil formaler Logik liegt darin, dass sie absolut objektiv arbeitet.
     
  • Wie man heute jedoch weiß, führt formale Logik keineswegs immer zum Ziel (Gödels Unvollständigkeitssatz).

 
Neben formaler Logik gibt es etwas, das man Beurteilungslogik nennen könnte: Man sucht — auf welchem Weg auch immer — nach Aussagen, die plausibel erscheinen, und wird sie als wahr einstufen, wenn sie unter Berücksichtigung möglichst umfangreichen Wissens als » mit an Sicherheit grenzender Wahrscheinlichkeit wahr « eingestuft werden. Diese Einstufung allerdings wird genau dann subjektiv geprägt sein, wenn sich die Wahrheit der Aussage nicht über formale Logik erschließen lässt.
     
  • Der Vorteil von Beurteilungslogik liegt vor allem darin, dass sie den Denkenden kreativ machen kann (und in sehr viel mehr Fällen zum Ziel führt, als rein formale Logik).
     
  • Erkauft wird dieser Vorteil durch die Tatsache, das Beurteilungslogik notgedrungen fehleranfällig ist.

 
Beiden Denkwegen gemeinsam ist, dass alle mit ihrer Hilfe gefundenen Wahrheiten  b e d i n g t e  Wahrheiten sind, d.h. Implikationen der Form
 
 
{ D, P }  impliziert  W

 
wo P eine Menge wohldefinierter, als wahr anerkannter Aussagen ist und D die Menge aller Definitionen der Konzepte, über die W und P sprechen.
 
Wo unterschiedliche Parteien per Beurteilungslogik zu unterschiedlichen Überzeugungen kommen, liegt das nicht selten daran, dass sie — ohne sich das klar gemacht zu haben — von leicht unterschiedlichen Definitionen D ausgehen.
 
 
Somit gilt stets ( auch im Sinne von Realität vs Wirklichkeit ):
 
 
Alle Logik ist entweder  kreativ = subjektiv und bestechlich:  r e a l e  Logik
 
oder  formal = objektiv und unbestechlich:  w i r k l i c h e  Logik.


 

 Beitrag 0-141
Kann menschliches Denken vollkommen objektiv sein?

 
 

 
Kann menschliches Denken absolut objektiv sein?

 
 
Sicher nicht, denn immer wieder lässt sich feststellen, dass auch wirklich ehrlich um Objektivität bemühte Menschen logisch allzu einseitig argumen­tieren — und das umso deutlicher, je fester sie davon überzeugt sind, recht zu haben.
 
Hier ein prominentes Beispiel:


Der Physiker Honerkamp stellt fest (2015):
 
Papst Bendedikt XVI. wird oft dafür gerühmt, dass er so beherzt gegen den Relativismus gekämpft habe. In diesem Zusammenhang wurde häufig auf die Predigt verwiesen, die er in der Messe des Kardinalskollegiums vor der Wahl des neuen Papstes im Jahr 2015 gehalten hat, wo es u.a. heißt:
 
    Wie viele Glaubensmeinungen haben wir in den letzten Jahrzehnten kennen gelernt, wie viele ideologische Strömungen, weie viele Denkweisen [...].
     
    Das kleine Boot des Denkens vieler Christen ist nicht selten von diesen Wogen zum Schwanken gebracht, von einem Extrem ins andere geworfen worden: vom Marxismus zum Liberalismus bis hin zum Libertinismus; vom Kollektivismus zum radikalen Individualismus; vom Atheismus zum Synkretismus, und so weiter [...].
     
    Einen klaren Glauben nach dem Credo der Kirche zu haben wird oft als Fundamentalismus abgestempelt, wohingegen der Relativismus — das sich 'vom Windstoß irgendeiner Lehrmeinung Hin-und-her-treiben-lassen' — als die heute zeitgemäße Haltung erscheint.
     
    Es entsteht eine Diktatur des Relativismus, die nichts als endgültig anerkennt und als letztes Maß nur das eigene Ich und seine Gelüste gelten lässt.

Dass man als Hüter eines religiösen Glaubens kein Freund des erkenntnistheoretischen Relativismus ist, muss man aus Konsistenzgründen wohl akzeptieren.
 
Aber muss man deswegen den philosophischen Relativismus als ein » vom Windstoß irgendeiner Lehrmeinung Hin-und-her-treiben-lassen « diskreditieren und verächtlich machen und dieses ihm unterstellte Treibenlassen dann auch noch auf die moralische Ebene übertragen?
 
Und sollte der Relativismus wirklich eine Diktatur sein, dann wäre sie mir lieber als eine Diktatur der "Wahrheit".
 
Der italienische Philosoph Gianni Vattimo hat das auf den Punkt gebracht: » Ich kenne viele Blutbäder, die von Menschen verübt wurden, die dachten die Wahrheit zu besitzen, aber ich habe noch nie von Blutbädern gehört, die von fanatischen Relativisten verübt worden wären. «
 


 
Meine (grtgrt's) persönliche Meinung:
 
So wie selbst mathematische Wahrheiten fast immer nur auf Basis bestimmter Voraussetzungen zutreffen, wird das wohl für alle durch Menschen erkannten Wahrheiten gelten. Und welcher Theologe möchte denn wirklich die Hand dafür ins Feuer legen, dass nicht auch Gott relativ denkt und urteilt?

 

  Beitrag 2110-26
Was Meinungen von Argumenten unterscheidet

 
 

Argumente wollen beantwortet werden.

Meinungen aber wollen nur zur Kenntnis genommen werden.


 

  Beitrag 1489-72
Vererben interessanter Webauftritte

 
 
Bernhard Kletzenbauer in 1489-71:
 
Manu hielt es zum Beispiel für sinnvoll ein Zeitforum zu errichten.
Wird es abgeschaltet wenn er stirbt?


Ich denke da auch an andere Webauftritte, die viel Knowhow enthielten und doch plötzlich verschwunden waren.

Deswegen sollte meiner Meinung nach jeder Webauftritt in seinem Wurzelverzeichnis eine Liste all der Seiten haben und pflegen, die Suchmaschinen (wie Google) als der Öffentlichkeit geschenktes Backup betrachten und deswegen auch noch zeigen dürfen, wenn das Original nicht mehr existiert.

Natürlich bedürfte es dazu der Mitarbeit der Suchmaschinen-Betreiber (bei Google, so denke ich, könnte man da auf offene Ohren stoßen).

Stichwort: Vererbung (Schenkung) von Webauftritten

 

  Beitrag 1149-147
-

 
 
Hans-m aus 1149-142:
 
Hallo Henry,
es ist schön, wie du dich in der Welt der Fremdwörter auskennst.
es wäre schöner, wenn die von deiner Identität ausgeführten schriftlichen Passagen nicht permanent die Nutzung Interaktiver Enzyklopädien, zur Findung einer verbalen Erklärung erforderlich machen würden.
 


Hallo Hans-m,

Henry ebenso wie sehr viele andere, die Fremdwörter (genauer: Fachjargon) benutzen, tun es nur aus dem Grund, weil jenes Wort seiner Semantik nach genauer definiert ist als ein deutsches Wort bzw. eines aus der Umgangssprache.

Auch sollte uns bewusst sein: Jeder von uns kann nur dort dazulernen, wo er auf etwas trifft, das er noch nicht wirklich versteht — und sei es ein Fremdwort.
Es in Wikipedia nachzuschlagen, wird uns immer Gewinn bringen: letztlich verursacht durch den, der uns mit jenem Wort konfrontiert hat.

Gruß, grtgrt

 

  Beitrag 1907-1
Meine kleine Theorie des Denkens

 
Hier zur Diskussion gestellt:

Meine kleine Theorie des Denkens


An mir selbst glaube ich beobachtet zu haben, dass es zwei grundsätzlich verschiedene Modi des Denkens gibt, die sich — wie in einem Staffellauf — regelmäßig abzuwechseln haben:
  • Wer im Büro vor seinem Schreibtisch sitzt (um dort eine konkrete, vielleicht recht knifflige Aufgabe zu lösen), denkt völlig anders als jemand, der z.B. im Zug sitzt, die Landschaft an sich vorbeiziehen sieht, und dennoch in Gedanken dasselbe Problem wälzt:
  • Im Büro bewegt sich mein Verstand, wie ein Hund, der an einer Leine durch einen Park geführt wird und deswegen den Gehweg um nicht mehr als wenige Handbreit verlassen kann.
  • Im Zug dagegen (genauer: wenn ich meine Gedanken in Muße schweifen lassen kann), bewegt sich mein Verstand — wie jener Hund, wenn er von der Leine gelassen wird — eher neben dem Weg, auch mal weiter von ihm entfernt, und hin und wieder unter diesen oder jenen Busch schuppernd. Nicht selten entdecke ich so, an was ich sonst nie gedacht hätte.

Mir ist zudem schon lange klar geworden:

Sich gedanklich in ein Problem zu verbeißen, kann nur über kurze Zeit hinweg hilfreich sein. Genauer:

  • Als Mathematiker hat man hin und wieder Beweise für Theoreme zu finden, die bis dahin noch niemand bewiesen hatte. Einen Beweis für eine schon lange im Raum stehende Vermutung zu finden, kann Wochen, ja sogar Monate dauern. Sich in diesem Fall zu verhalten, wie ein Roboter, der niemals ermüdet, ist völlig falsch aus folgendem Grunde:
    Wer so einen Beweis sucht, ist vergleichbar mit einer Person, die vor einem Urwald steht, in ihm irgendwo — sagen wir in bestimmter Richtung R(1) — einen kleinen Weiher vermutet und sich jetzt mit einer Machete einen Weg nach dort zu erkämpfen beginnt.
  • Unter der Voraussetzung, dass die vermutete Richtung genau stimmt, wäre man tatsächlich am besten ein Roboter, eine Maschine also, die nie ermüdet. Falls die angepeilte Richtung aber nicht genau die richtige ist, würde der Roboter — eben deswegen, weil er nie ermüdet — den Weiher nie finden: Er würde dann ja unaufhörlich in Richtung R(1) laufen und somit am Weiher vorbei, was schließlich zur Folge hätte, dass er sich immer weiter von ihm entfernt.
    Wer den Weg aber als jemand sucht, der ermüdet und deswegen irgendwann mal innehalten muss, um sich auszuruhen, wird während dieser Ruhepause seinen Verstand "von der Leine lassen" und dann wahrscheinlich feststellen, dass statt Richtung R(1) eine etwas andere Richtung R(2) die wahrscheinlichere ist (z.B. deswegen, weil man sich plötzlich bewusst wird, dass die bisherige Richtung, aus diesem oder jenem Grund, an den man zunächst gar nicht gedacht hatte oder der erst jetzt bemerkbar wird, nicht wirklich richtig sein kann). Mehrfache Korrekturen solcher Art führen uns dann i.A. wirklich hin zum gesuchten Ort.

Meine Konsequenz daraus:

Die Tatsache, dass der Mensch unweigerlich ermüdet, mag ein Grund dafür sein, dass er kreativ ist, also Dinge findet, die er niemals finden würde, wenn er ermüdungsfrei wäre und so seinen Geist auch niemals "von der Leine lassen" würde.

Wer jetzt denkt "Hurra, da brauch’ ich mich bloß ein bisschen auf die faule Haut zu legen und schon wird alles gut", den muss ich enttäuschen:

Es gibt Aufgaben, z.B. Rechenaufgaben bestimmter Art, die sind so schematisch und dennoch so komplex, dass sie sich wirklich nur mit engelsgleicher Geduld lösen lassen und unter unbeirrbarem Festhalten am einmal gewählten Weg (ich denke da z.B. an Störungsrechnung in der Physik).

Solche Rechnungen aber lösen wir i.A. dadurch, dass wir ein Programm schreiben, das uns gestattet, sie einem Computer zu überlassen — immer vorausgesetzt, wir halten vorher inne, um so zu erkennen, dass dieser Weg der bessere ist.

Dass Leute zu wenig innehalten und deswegen stur wie ein Ochs die Ackerfurche entlang gehen, ist gar nicht so selten. Wenig erfahrene Software-Tester etwa, so meine Beobachtung, werden oft nicht müde, ein und dieselben komplizierten, sterbenslangweiligen Eingaben immer wieder im Dialog zu machen, ohne sich Rechenschaft darüber zu geben, dass den Test zu automatisieren, viel besser wäre (und ihn zudem noch nachvollziehbar machen würde).

Auch das ist ein Beispiel dafür, dass "den Verstand von der Leine zu lassen" oft effektiver ist, als wild "an der Leine zu zerren", an der man selbst oder andere ihn zu führen suchen.
 

  Beitrag 1907-2
Zunehmende Weisheit geht einher mit abnehmender Kreativität

 
 
Interessant ist auch, welche Art des Denkens man in welchem Alter bevorzugt:


Richard Feynman war einer der wenigen Physiker, die wirklich ihr ganzes Leben lang mathematische Denkwege mit derselben Leichtigkeit gegangen sind, wie rein umgangsprachlich formulierte.

Dennoch war auch ihm schmerzlich bewusst, dass das Alter kein Freund des Physikers ist. An vielen Bürotüren im Caltech hing folgender Vers, den man Dirac zuschreibt, der lange Zeit Feynmans Vorbild war (dessen Widerstand gegen die Renormierungsmethodik Feynman dann aber doch nicht mehr verstehen konnte — was ihm die Wahrheit im Vers wohl besonders präsent machte):


Age, of course, is like a fever chill
That every physicist must fear.
He is better dead than living still
When once he's past his 30-th year.



Man kann diese Beobachtung auf Kreativität ganz allgemein bezogen sehen, doch denke ich, dass insbesondere rein formales Denken uns Menschen mit zunehmendem Alter zunehmend schwerer fällt (ich kann das auch an mir selbst durchaus beobachten).

In diesem Zusammenhang ist eine Studie interessant, die zeigt, dass selbst Leute, die hauptberuflich Wissenschaftler sind, mathematische Formulierung fürchten und zu meiden suchen: siehe den Artikel Schreckgespenst Mathematik.

Das ist schade, denn es könnte schon in wenigen hundert Jahren — dann nämlich, wenn der Mensch gelernt haben wird, Roboter zu bauen, die man von Menschen kaum noch unterscheiden kann — dazu führen, dass Roboter zu einer Art Übermensch werden ...

Isaak Asimov scheint mir ein wirklicher Visionär gewesen zu sein ...

 

  Beitrag 1942-1
Zu wörtlich Genommenes führt an der Wahrheit vorbei

 
 
Eine Meinung Platons war:

Alles sinnlich Wahrnehmbare ist nur unvollkommenes und daher recht fragwürdiges Abbild der Wirklichkeit.


Hier EINE mögliche Anwendung dieser Erkenntnis:


Wenn ich Platons Höhlengleichnis neben das stelle, was Niels Bohr uns über der Physiker Möglichkeiten sagt, die Natur zu verstehen (siehe 1896-52), so scheint mir klar:

Beider Beispiele sind treffende Illustration ein und derselben Erkenntnis, die da wäre:


Zu wörtlich genommene Beobachtung führt an der Wahrheit vorbei.

Was wir registrieren, ist schon allein deswegen ein meist nur unvollkommenes Bild der eigentlichen Sache.



Und das ist auch so, wo wir uns gegenseitig Konzepte oder Wahrheiten gezielt mitzuteilen versuchen:

Die Sprache nämlich, die zu nutzen wir gezwungen sind, ebenso wie Beispiele, auf die wir uns mit beziehen müssen, um überhaupt verstanden zu werden, wirken nicht selten wie zu wenig robuste Kartons, in denen beschädigt wird, was wir zu transportieren wünschen.

Man könnte auch sagen: Wie ein Photo übers Fax nur unvollkommen ankommt, so unvollkommen kommt an, was wir zu sagen versuchen. Nur diejenigen unserer Zuhörer, die auf derselben Abstraktionsebene denken wie wir auch, werden uns RICHTIG verstehen.

Wer z.B. die Schöpfungsgeschichte in der Bibel allzu wörtlich nimmt, kommt zum Schluss, was in der Bibel steht, sei Unsinn. Wer sich aber vor Augen führt, welche sprachlichen Bilder den Autoren der Bibel damals zur Verfügung standen und IHNEN somit am ehesten geeignet erschienen, die mitzuteilende "Idee" zu transportieren,
dem wird schnell klar, wie große Ähnlichkeit die moderne Urknalltheorie mit den wesentlichen Aussagen der biblischen Schöpfungsgeschichte hat.


Interessant noch:

Mathematische formulierte Wahrheiten sind die einzigen, die man nie zu wörtlich und auch nie zu wenig wörtlich nehmen kann.

Sie sind — genau deswegen — die einzigen, die sich beschädigungslos von Kopf zu Kopf transportieren lassen.


grtgrt

 

  Beitrag 1942-10
Über den (sehr) hohen Stellenwert perfekter Sprachbeherrschung

 
 
Gregor Lämmer aus 1942-9:
 
Die Sprache richtig zu beherrschen, ist eine Kunst, derer nur wenige fähig sind. Trotz aller Mängel der Sprache kann ein genialer Mensch mit der Sprache mehr ausdrücken, als in ihr enthalten ist.

Hierbei denke ich an Nicolás Gómez Dávila, der dies sehr trefflich ausgedrückt hat in dem Satz:

Unnütz, jemandem einen Gedanken erklären zu wollen, dem eine Anspielung nicht genügt.

An alle:

Was Gregor hier sagt, spricht mir aus der Seele.

Leider wissen heute zunehmend weniger Deutsche den Wert perfekter Sprachbeherrschung zu schätzen.


Das gilt leider auch für Germanisten, wie sie mit ihrer misslungenen Rechtschreibreform selbst bewiesen haben — Schande über sie!

grtgrt
 

  Beitrag 1942-30
Daten — Information — Deutung — Reaktion

 
 
Irena aus 1942-29:
 
wenn man beginnt, sich mit der Deutung der Information zu beschäftigen, kommt man zum Schluss, dass die Erklärung der Information als alleinigen Gründer der Materie unsinnig ist. Weil die Information immer mit einer Deutung komplementär ist.

Hallo Irena,

im Grunde genommen, muss man die folgenden 4 Begriffe nebeneinander stellen:
  • Daten (als Form, in der uns Information — irgendwie kodiert — erreicht),
  • diese Information selbst,
  • ihre Deutung
  • und die aufgrund der Deutung erfolgende Reaktion auf jene Information.

Zunächst ist festzustellen:
  • Ein und dieselbe Information kann in Form verschiedener Daten vorliegen (kann also verschieden kodiert und transportiert sein).
  • Geeignetes Abstrahieren von diesen Formen liefert uns die Information selbst (sofern wir beim Dekodieren keinen Fehler machen).
  • Jene Information zu deuten bedeutet dann nichts anderes, als zu versuchen, sich all ihre Konsequenzen auszumalen (formal gesprochen: Deutung = Übergang zur transitiven Hülle). Da jenen Übergang zu finden, schwierig sein kann, wird man dabei i.A. Fehler machen — und wenn es nur der Fehler ist, einige Konsequenzen schlichtweg zu übersehen.
  • Der Wissensstand, bei dem man so angelangt ist, triggert dann eine Reaktion, die die Realität verändert und so zu neuen Daten führt.

Diesen Zyklus immer und immer wieder zu gehen, bezeichnet man als Informationsverarbeitung — was nichts anderes als ein Prozess ist, der schrittweise Daten entgegennimmt und schrittweise Reaktion darauf erzeugt.

Der den Prozess treibende Mechanismus — ein Mensch, oder die Natur selbst — funktioniert nicht voll deterministisch.

Das wiederum hat zur Folge, dass die Reaktion durch die eingehenden Daten nicht wirklich eindeutig definiert ist (als Mensch macht man Fehler, als Natur funktioniert man im Kleinsten absolut zufällig, liefert also für unteilbare Ereignisse zufällige Reaktion, die statistisch gesehen aber dennoch wieder durch existierende Information ψ beschrieben ist).

Der Korridor der Möglichkeiten, die so zu Realität werden können und teilweise auch werden, ist demnach durch ψ — die Wellenfunktion des Universums — beschrieben und eingegrenzt.

Die Natur — als der Mechanismus, der den Prozess abarbeitet — ist gegeben durch die 4 Grundkräfte. Sie, so vermutet man heute, könnten auf eine einzige Kraft zurückführbar sein, die man dann — so meine ich — gut als den "Geist" der Natur sehen könnte.

Materie wird dann also letztlich — so wie in Beitrag 1924-1 beschrieben — durch jenen "Geist" geschaffen.


Gruß, grtgrt
 

  Beitrag 1942-32
Wie Informationsverarbeiter funktionieren sollten

 
 
Irena aus 1942-31:
Hallo grt,
ich denke, du bist zu sehr gefangen in der Welt der Programmierer.

Du magst recht haben, denn derzeit bin ich in erster Linie Informationsverarbeitungs-Experte (das beinhaltet Programmierung, ist aber noch deutlich mehr).

Auch sehe ich mich in dieser Rolle selbst als einen Information verarbeitenden Mechanismus, der nach dem oben beschriebenen Prinzip funktioniert und sich dabei bemüht, möglichst wenig Fehler zu machen, d.h.
  • gründlich zu lesen und genau zuzuhören (d.h. bei der Überführung empfangener Daten in Information jene dann nicht verfälscht oder zu stark reduziert vorliegen zu haben)
  • so erhaltene Information korrekt zu deuten (sprich: nichts dazu zu phantasieren, keine Vorurteile zu haben, und beim Bilden ihrer transitiven Hülle logisch korrekt vorzugehen) und schließlich
  • Verarbeitungsergebnisse zu erzeugen (= Reaktion), die anderen nützen und andere provozieren, mir möglichst viele weitere Daten – weitere Information also – zu liefern.

Zitat von Irena:
Zunächst kann du die Reaktion vergessen. Nicht jede Wahrnehmung einer Information bedeutet folgende Reaktion.

Auch wenn die Reaktion leer ist, sollte man sie nicht vergessen: Auch eine leere Reaktion ist eine Reaktion (und die Tatsache, dass sie leer ist, kann Bedeutung tragen).

Die leere Reaktion auch als Reaktion zu sehen ist ebenso nützlich, wie eine Zahl 0 zu haben oder — in der Mengenlehre — den Begriff der leeren Menge.


Zitat von Irena:
Sagen wir Daten ist Information.

Man sollte die beiden Begriffe NICHT gleichsetzen, da verschiedene Daten dieselbe Information darstellen können.


Gruß, grtgrt
 

  Beitrag 1942-34
Warum es wichtig ist, Fehler machen zu dürfen (und auch tatsächlich welche zu machen)

 
 
Irena aus 1942-33:
Dennoch bist du "verdammt" Fehler zu machen.

Das ist absolut richtig, und es gilt für mich ebenso wie für jeden anderen.

Aber ich habe mich oft gefragt, ob nicht genau diese Tatsache letztlich der Grund dafür ist, dass Menschen auch kreativ sind.


Der Grund, warum auch das Machen von Fehlern wichtig ist — ganz gleich, ob wir oder unsere Geschrächspartner sie machen — ist wohl der, dass jeder  e r k a n n t e  Fehler uns zwingt, eine Stelle genauer zu betrachten, über die wir sonst allzu flüchtig hinweg gegangen wären:

Fehler zwingen uns, Dinge genauer zu betrachten, als wir es sonst täten — und haben so nicht selten positive Konsequenzen ...


Zitat von Irena:
 
Es lässt sich hier eine Analogie mit der Mutationen zu ziehen. Wäre der Mechanismus der Zellteilung so perfekt, dass keine Mutationen entstünden, wäre keine Evolution möglich.

... und wohl auch keine Kreativität.

Denn mit dir bin auch ich der Meinung, dass — wo zu viele Mutationen einander zu schnell ersetzen — sie keine Zeit haben, einander zu ergänzen um so zu neuen Schöpfungen zu führen (zu komplexeren ebenso wie zu schöneren oder sinnvolleren).


Mit besten Grüßen,
grtgrt
 

  Beitrag 1916-7
Warum man versuchen sollte, eine Theorie zu widerlegen, bevor man sie als Unsinn einstuft

 
 
An alle (und besonders an E...):

Mein Prinzip ist das von Feynman, d.h.

Solange eine Theorie nicht schlüssig widerlegt ist,

sollte man sie nicht lächerlich machen (oder als esoterisch einordnen),

sondern man sollte Gründe finden, die dazu geeignet sind, sie als widerlegt zu betrachten.



Karl Popper bemerkt ganz richtig: Es ist einfacher, eine Theorie zu widerlegen, als sie zu beweisen.

Meine Konsequenz daraus: Wer nicht mithelfen will, sie zu widerlegen, der schweige wenigstens.

Beste Grüße,
Gebhard Greiter (grtgrt)
 

  Beitrag 1916-9
Was Karl Popper wirklich gesagt hat (1)

 
 
Okotombrok aus 1916-8:
 
Zitat von Grtgrt:
 
Karl Popper bemerkt ganz richtig: Es ist einfacher, eine Theorie zu widerlegen, als sie zu beweisen.

Das scheint aus dem Gedächtnis zitiert zu sein, gesagt hat er

Zitat von Karl Popper:
 
Ein Satz (oder eine Theorie) ist dann und nur dann empirisch wissenschaftlich, wenn er falsifizierbar ist.
Popper, Karl: Handlexikon zur Wissenschaftstheorie. München, Deutscher Taschenbuchverlag, 2. Auflage 1994. Seite 82


Man sollte nur in Ausnahmefällen aus dem Gedächtnis zitieren. Erst ein ordentliches Zitat mit Quellennachweis ermöglicht es dem Leser, die Aussage im Kontext zu verstehen und überhaupt erst zu überprüfen.
 


Ich grüß’ dich, Okotombrok,

ja, du hast recht, ich habe nur sinngemäß zitiert (eben aus dem Gedächtnis), und zudem gebe ich dir recht: Besser wäre ein wörtliches Zitat. Das aber erfordert, jene Stelle auch wirklich zu finden. Nun arbeite ich aber leider in keiner Umgebung, die mir einfachen Zugriff auf entsprechende Literatur gewähren würde. Die meisten Bücher, die ich gelesen habe, waren ausgeliehen. Sie nochmals einzusehen, könnte mich sehr viel Zeit kosten — Zeit, die ich nicht habe.


Da man mir (ebenfalls in diesem Forum) schon mal vorgeworfen hat, ich würde zu viel zitieren und zu wenig selbst nachdenken, sei an dieser Stelle festgestellt:

Um einzusehen, dass es einfacher ist, eine Theorie zu widerlegen als zu beweisen, muss man nicht unbedingt wissen, was Popper denn nun wortwörtlich gesagt hat.

Die Theorie etwa, "Alle Menschen haben rote, blonde oder schwarze Haare"
  • ist widerlegt, sobald man eine Person gefunden hat, die entweder Glatzkopf ist oder schlohweißes Haar hat.
  • Umgekehrt würde eine Bestätigung der These erfordern, die Haarfarbe sämtlicher Menschen festzustellen — was praktisch unmöglich ist.

Beste Grüße,
grtgrt
 

  Beitrag 1916-12
Was Karl Popper wirklich gesagt hat (2)

 
 
Henry aus 1916-10:
Grtgrt aus 1916-7:
 
Karl Popper bemerkt ganz richtig: Es ist einfacher, eine Theorie zu widerlegen, als sie zu beweisen.

Herr Popper bezieht sich auf Theorien, die eine experimentell bestätigte Basis haben, und nicht auf Theorien, die sich weder beweisen noch widerlegen lasse.
 

Hi Henry,

die Tatsache, dass ich keine Gänsefüßchen gesetzt habe, zeigt, dass ich nur sinngemäß zitiert habe.

Und weiter: Glaubst du wirklich, dass Popper den Gedanken in dieser einfachen Form, in der ich ihn mir gemerkt habe, nicht auch gedacht hat?

Desweiteren bin ich der Meinung: Was andere sagen — und seien sie noch so berühmt — soll uns vor allem Anregung sein, weiter zu denken. Welchen Sinn sollte es machen, dort stehen zu bleiben, wo ihnen die Kräfte ausgingen? Ihr Verdienst ist, uns den ersten Teil des Weges erspart zu haben — von jener Haltestelle dann weiter gehen müssen wir schon selbst (auch sie würden von uns sonst nur enttäuscht sein).

Beste Grüße,
grtgrt
 

  Beitrag 2035-187
Was Karl Popper wirklich gesagt hat (3)

 
 
Bauhof aus 2035-183:
 
Eine Theorie in der Physik ist nicht beweisbar, sondern nur widerlegbar (Karl Popper).

Hi Eugen,

wenn Popper davon spricht, dass nur widerlegbare Theorien Sinn machen, will er damit keineswegs sagen, dass eine Theorie nicht beweisbar sein kann.
Es geht ihm vielmehr darum, dass man als Theorie nur etwas bezeichnen sollte, dessen Wahrheit  e n t s c h e i d b a r  ist (prinzipiell wenigstens).

Hätte man nämlich eine Theorie, die weder beweisbar noch widerlegbar ist, wäre die ja absolut nutzlos.

Beispiel einer beweisbaren — und gerade deswegen NICHT widerlegbaren — Theorie ist z.B. die Ansicht "Die Quadratwurzel aus 625 ist 25". Sie ist
  • zutreffend,
  • beweisbar
  • nicht widerlegbar
  • und ganz sicher eine Theorie für jeden, der sich noch keinen Beweis dafür überlegt hat.

Popper spricht wohl auch nicht von "widerlegbar" sondern von "falsifizierbar" und meint damit:


Sollte die Theorie falsch sein, muss es möglich sein, ein Gegenbeispiel zu finden — einen Beweis dafür, dass sie falsch ist.


Gruß, grtgrt
 

  Beitrag 2035-196
-

 
 
Bauhof aus 2035-193:
 
Es geht nicht primär ums Falsifizieren, sondern zunächst erst mal darum, ob eine physikalische Theorie oder Aussage überhaupt falsifizierbar ist. Das heißt, wenn eine physikalische Theorie nicht falsifizierbar ist, dann muss man dieser "Theorie" den Theorie-Status aberkennen. Das heißt einfach ausgedrückt: Diese Theorie ist so schlecht, dass sie nicht mal falsch sein kann.

Genau so sehe ich das auch.

Die Begriffe "widerlegbar" und "falsifizierbar" bedeuten aber keineswegs dasselbe:
  • eine widerlegbare Theorie ist falsch,
  • eine falsifizierbare kann falsch oder richtig sein.

grtgrt
 

  Beitrag 2035-203
-

 
 
Stueps aus 2035-202:
Hallo Leute,

ich habe Popper diesbezüglich immer so verstanden:

Eine Theorie muss, um überhaupt als solche etabliert werden zu können, überprüfbar sein.

So kann ich ein fliegendes Spaghettimonster als Schöpfer unserer Welt postulieren, nur überprüfen kann ich so etwas nicht. Ich kann es also weder bestätigen, noch falsifizieren (widerlegen).


Danke Stueps,

genau so hat Popper es gemeint.

Bleibt nur noch anzumerken: Falsifizierbarkeit impliziert Überprüfbarkeit.


Gruß, grtgrt
 

  Beitrag 2035-208
-

 
Henry aus 2035-205:
(Das eine Theorie überprüfbar sein muss, damit sie bewertet werden kann, ist banal).

Hallo Henry,

ganz und gar nicht. Genau darauf wollte m.E. Eugen mit "nicht einmal falsch" abzielen.

Henry aus 2035-205:
Popper hat definitiv nicht einfach überprüfbar gemeint, sondern er ist davon ausgegangen, dass eine Theorie, die auf Induktion beruht, nicht verifiziert, aber sehr wohl falsifiziert werden kann.

M.E. hat Popper eben grundsätzlich auf Überprüfbarkeit hingewiesen, um dann zu zeigen, dass wir nur induktiv (laienhaft: vom Kleinen auf´s Große schließend) überprüfen können. So können wir aus unserer "Innensicht" niemals etwas global beweisen, wohl aber etwas widerlegen:

Das alte und viel bemühte Beispiel mit den schwarzen Schwänen. Die Theorie "es gibt keine schwarzen Schwäne" gilt solange als bestätigt (nicht jedoch bewiesen!), wie wir nur weiße Schwäne beobachten. Sobald ein schwarzer Schwan auftaucht, gilt diese Theorie jedoch als widerlegt/falsifiziert.

Diese Theorie ist überprüfbar und somit auch falsifizierbar.

Henry, der zweite Teil deines Satzes bezüglich Induktion ist natürlich richtig.

Grüße
 

  Beitrag 2035-209
-

 
 
Bauhof aus 2035-207:
Grtgrt aus 2035-201:
 
Als Logiker muss ich Dir da ganz entschieden widersprechen. Der Begriff "widerlegbar" ist synonym zu "es gibt einen Gegenbeweis" (ob man ihn kennt oder nicht, spielt dabei keine Rolle).

Hallo Grtgrt,

als Logiker und Mathematiker kannst du das so sehen. Aber hier in der Physik wird das offenbar nicht so eng gesehen. In dem Wiki-Artikel z.B. wird synonym von Falsifizierbarkeit/Widerlegbarkeit gesprochen.

M.f.G. Eugen Bauhof

Hallo Eugen,

wenn sich zwei Wissenschaften verschiedener Logik bedienen würden, wäre das alarmierend.

Es ist aber gar nicht so. Weder bei Popper, noch in Texten über Popper finde ich irgendetwas, dem ich nicht zustimmen könnte.

Auch der Artikel, dessen Link Du uns da schickst, enthält nirgendwo eine Gleichsetzung der Begriffe "Falsifizierbarkeit" und "Widerlegbarkeit". Er suggeriert lediglich eine gewissen Nähe dieser Begriffe (und die ist ja tatsächlich gegeben).

Beste Grüße,
Gebhard
 

  Beitrag 2035-215
-

 
 
Bauhof aus 2035-207:
 
Grtgrt aus 2035-201:
 
Der Begriff "widerlegbar" ist synonym zu "es gibt einen Gegenbeweis" (ob man ihn kennt oder nicht, spielt dabei keine Rolle).

Hallo Grtgrt,

als Logiker und Mathematiker kannst du das so sehen. Aber hier in der Physik wird das offenbar nicht so eng gesehen. In dem Wiki-Artikel z.B. wird synonym von Falsifizierbarkeit/Widerlegbarkeit gesprochen.

M.f.G. Eugen Bauhof


Hallo Eugen,

in der Sprache der Physiker muss man sagen:

Eine physikalische Theorie ist genau dann  f a l s i f i z i e r b a r , wenn gilt:

Es ist ein Experiment denkbar, das — wenn die Theorie falsch sein sollte — etwas der Theorie Widersprechendes aufdeckt.



Gruß, grtgrt
 

  Beitrag 1916-15
Was es bedeutet, eine physikalische Theorie zu beweisen

 
 
An alle:

Wer schon mal in einer dunklen Nacht einen längeren, total unbeleuchteten Weg durch Wald oder Felder gegangen ist, der wird wissen, wie froh man ist, irgendwann dann doch wieder auf ein oder zwei Straßenlaternen zu treffen: Sie zeigen uns, dass wir noch auf dem rechten Weg sind.

Wo ich jemand zitiere, den ich für kompetent halte, spielen solche Zitate für mich deselbe Rolle wie jene Straßenlaternen: Sie zeigen mir — und hoffentlich auch dem Leser meiner Beiträge — dass da jemand so ähnlich dachte wie ich, und ich deswegen so falsch nicht liegen kann.

Den genauen Wortlaut zu kennen, wäre interessant, ist aber nicht so wichtig, wenn man sicher sein kann, dass derjenige wirklich so gedacht hat.

Mit anderen Worten: Was mein Verhältnis zu Theorien betrifft, ist es genau so, wie H... das in Beitrag 1916-14 beschreibt.


PS: Vielen Dank für den Link, H.... Ich wusste bisher nicht, dass jemand sich schon Gedanken darüber gemacht hat, wie Universen interagieren könnten (Ausnahme natürlich die Theorie, nach der Baby-Universen aus Schwarzen Löchern hervorgehen).

Gruß
grtgrt
 

  Beitrag 1923-19
Nur mathematische Gesetze, NICHT aber mathematische Methodik sind Naturgesetz

 
 
Henry aus 1923-15:
Die Mathematik funktioniert aber nur, wenn wir ihr Werte bereitstellen, sie liefert die Werte nicht aus sich heraus.

Hi Henry,

da kann ich dir nicht recht geben — insbesondere alle Stringtheoretiker sehen das ganz anders. Sie nämlich werden nicht müde, immer wieder darauf hinzuweisen, dass
  • das Standardmodell der Elementarteilchen-Physik etwa 20 freie Variable hat (Werte also, die es NICHT selbst bereitstellt),
  • wohingegen die Stringtheorie – die das Verhalten der Natur zu modellieren, rein nur mathematische Gesetze betrachtet – alle jene Konstanten selbst schon liefert. Stringtheorie kennt nur einen Parameter: die String-Kopplungskonstante. Ihr Wert ist spezifisch zu einem (der vielen möglichen) Universen.

Henry aus 1923-15:
Außerdem wissen wir, dass die Mathematik selbst nicht vollständig ist.

Auch das ist so nicht richtig: Kurt Gödel hat lediglich bewiesen, dass kein formaler KALKÜL, der wenigstens die natürlichen Zahlen und alle für sie gültigen Gesetze der Addition und Multiplikation modellieren kann, nicht beides sein kann: vollständig UND widerspruchsfrei.

So ein Kalkül aber ist nur ein kleiner, wenn auch wesentlicher Teil der Mathematik. Im übrigen darf man mathematische Methodik nicht verwechseln mit mathematischen Gesetzen — nur jene sind Naturgesetz.


Beste Grüße,
grtgrt
 

  Beitrag 1923-39
Gödels Satz - eine Klarstellung

 
 
Hi Henry,

natürlich ist es für Leute, die keine Vorlesungen über mathematische Logik gehört haben, schwierig, zu verstehen, was Gödels Satz genau sagt.

Wenn du mir nicht glaubst, dann glaube vielleicht Lothar Schäfer (habe eben jetzt im Index zu seinem Buch nachgesehen und bin so zu Seite 71 geführt worden, wo steht):

Zitat von Schäfer:
 
In der Mathematik ist Gödels Theorem der Beweis, dass komplexe logische Systeme, wie Arithmetik, zu ihrer Begründung Postulate benötigen, die sie nicht mit ihren eigenen Lehrsätzen beweisen können, sondern nur mit Begriffen eines umfassenderen Systems, das sozusagen auf einer höheren Stufe operiert.

Kein mathematisches System ist in sich abgeschlossen, weil Axiome, die für den Beweis seiner Lehrsätze benötigt werden, sich nicht selbst beweisen können.
 


Der springende Punkt ist:

Jeder KALKÜL im Sinne von Gödels Satz ist nur EIN logisches System.


Die Mathematik als Ganzes (als Vereinigung ALL ihrer logischen Systeme) kann man vergleichen mit einer Ebene, die komplett überdeckt ist mit Kreisringen, die sämtlich denselben Mittelpunkt M haben. Jeder dieser Kreisringe R( K) entspricht EINEM der mathematischen Kalküle K, und es gilt:
  • Aussagem in Inneren des Kreisringes R(K) sind die Axiome, auf denen K aufbaut (die K also nicht beweisen kann bzw. als wahr voraussetzt).
  • Aussagen auf dem Kreisring R(K) sind all die Aussagen, die K beweisen kann.
  • Alle weiteren Aussagen liegen ausserhalb von R(K). Sie zu beweisen benötigt man einen mächtigeren, dem K übergeordneten Kalkül. Auch der aber ist ein mathematischer Kalkül.

Nochmals also: Verwechsle bitte nie die Mathematik mit nur einem einzigen formalen Kalkül.

Was ich als den Mittelpunkt M aller R(K) bezeichne ist im übrigen nichts anderes als das Axiom vom Widerspruch (Aristoteles hat es wohl als Erster in seiner überaus grundlegenden Bedeutung klar erkannt). Es ist Basis all unseres logischen Denkens.

Beste Grüße,
grtgrt
 

  Beitrag 2060-47
Nur versucht, die Gedanken anderer logisch nachzuvollziehen, wird dazulernen

 
 
Emmins in 2060-45:
 
Ich neige dazu, Diskussionen durch zusätzliche Gesichtspunkte etwas komplizierter zu machen. Gerade wenn man Lösungen für Probleme sucht, tut man m.E. gut daran, Positionen anderer nachzuvollziehen ...


Gerade das scheint mir ein besonders sinnvolles und fruchtbares Vorgehen ...

Interessanter für jeden an solcher Diskussion Beteiligten wird es zudem noch sein.

 

  Beitrag 1964-93
Was man braucht, eine Hypothese als NICHT-falsifizierbar zu erkennen

 
 
Irena aus 1964-90:
Grtgrt aus 1964-89:
 
Wodurch siehst du bewiesen, dass die Hypothese der Baby Universen nicht falsifizierbar sei?

Nicht ich muss beweisen. Es muss ein beobachtbarer Tatbestand geben, dem diese Hypothese widerspräche.

Hi Irena,

aus meiner Sicht, ist die Sache so:

Eine Hypothese ist falsifizierbar, sobald man sich eine Situation vorstellen kann, die jener Hypothese widerspricht (z.B. ein Experiment mit entsprechenden Ausgang).

Daraus folgt:
    Solange man sich keine solche Situation vorstellen kann, kann man die Hypothese nicht als falsifizierbar bezeichnen — als NICHT falsifizierbar erkannt ist sie deswegen aber noch lange nicht (!). Vielmehr ist über ihre Falsifizierbarkeit einfach noch nicht entschieden.
    Das liegt daran, dass man ja nicht ausschließen kann, dass — irgendwann in der Zukunft — jemand doch ein Experiment findet, dem ein Ausgang möglich sein könnte, der die Hypothese als falsch entlarvt.
Somit ist klar:
    Eine Hypothese darf erst dann als NICHT falsifizierbar bezeichnet werden, wenn es einen Beweis dafür gibt — ein logisches Argument also, welches aus der Annahme, sie sei falsifizierbar, einen Widerspruch herleitet.

Beste Grüße,
grtgrt
 

  Beitrag 1995-22
Ontologie vs Ontosophie

 
 
Henry aus 1995-21:
 
Warum schreibst du dann nicht "mit den Sinnen erfassen", z. B.? Wenn ich dich zitieren darf: "Jeder Gegenstand G, den man anfassen und fühlen kann, ist eine Konfiguration von Elementarteilchen." Für mich ist das mitnichten hinreichend allgemein formuliert. ...


Und "Ontologie" ist die Lehre vom "Sein".


Nun, Henry,

vielleicht hast du recht. Habe das jetzt korrigiert zu "Jeder Gegenstand G, den man anfassen, fühlen oder auch nur sehen kann".


Unser Missverständnis, die Ontologie betreffend, war darauf zurückzuführen, dass

Ich würde es tatsächlich vorziehen, wenn die Philosophen statt "Ontologie" treffender "Ontosophie" sagen würden. Irgendwie scheinen sie dieses Wort aber nicht gemocht zu haben, da es ja — obgleich erst Mitte des 18. Jahrhunderts aufgekommen — heute wohl nicht mehr gebraucht wird.

Wie so oft bei Philosophen, scheint mir ihre Definition auch sonst wenig logisch: Was bitte soll "das Ende" denn mit "dem Sein" zu tun haben?

Auch der Unterschied zwischen dem "Sein" und dem "Seienden" ist mir keineswegs klar.

Und führt nicht das auf der Philosophenseite (dort von einem Philosophen) gegebene Beispiel im Bild zur Dreifaltigkeitslehre eher auf Ontologie im Sinne der Informatiker?


Danke also, habe was dazugelernt.

Gruß, grtgrt
 

  Beitrag 1997-155
Das unfruchtbare (mittelalterliche) Denken und das neue (wissen

 
 
Harti in 1997-153:
 
Der Hinweis auf irgendwelche Autoritäten, die anderer Ansicht sind, überzeugt mich nur, wenn ich aus deren Darlegungen folgern kann, dass meine Ansichten falsch sind.


Genau so soll man sich verhalten!

Nebenbei: Es gilt heute — im Gegensatz zum frühen Mittelalter — als unwissenschaftlich, Argumente, die man sich zutraut nachzuprüfen, im Zweifelsfalls nicht auch 
w i r k l i c h  nachzuprüfen und ggfs. zu  v e r w e r f e n :  Natürlich nur unter Vorlage schlüssigerer Argumente.


Wer das nicht zulassen will, denkt wie die kirchlichen Inquisitoren, welche die Begründer modernen wissenschaftlichen Denkens eingesperrt, gefoltert oder sogar am lebendigen Leibe verbrannt haben.

 

  Beitrag 2016-43
Was es bedeutet, wie ein Wissenschaftler zu denken

 
 
Henry aus 2016-41:
 
Keine (physikalische) Theorie ist beweisbar, sondern nur falsifizierbar.

Na ja: Zumindestens durch Beobachtung zu bestätigen ist so mache Theorie doch (weswegen denn auch Einstein so scharf drauf war, dass damals jemand sich die Mühe machen sollte, zu beobachten, ob man anläßlich einer Sonnenfinsternis die durch seine Theorie vorhergesagte Ablenkung des an der Sonne vorbeiziehenden Lichts im von ihm vorhergesagten Ausmaß bestätigt fände).

Nebenbei: Einstein hatte Glück, dass das deutsche Team auf der Krim damals — der Spionage verdächtigt — am Arbeiten gehindert wurde.
Zu dem Zeitpunkt nämlich, war seine Vorhersage noch um einen Faktor 2 falsch. Erst zwei britische Teams konnten ihn anlässlich einer in Afrika und Südamerika beobachtbaren späteren Sonnenfinsternis bestätigen — hinsichtlich seiner dann schon korrigierten Vorhersage.

Man sieht: Auch mit dem Falsifizieren ist das so ein Sache ....


Henry aus 2016-41:
 
... oder um nicht ganz abzuheben, es lässt sich nicht entscheiden, ob die Raumzeit real ist oder nicht, ob Raum und Zeit tatsächlich eine Einheit bilden oder nicht, ob es ein Blockuniversum ist oder nicht. Man kann die eine oder die andere Ansicht vertreten, ohne gegen physikalische Gesetze zu verstoßen.

Als mathematisches Objekt betrachtet (oder auch als physikalisches Modell) ist die Raumzeit durchaus hinreichend real, um sagen zu können, ob durch sie Raum und Zeit untrennbar verschmelzen oder ob nur ihre Beziehung zueinander — wie kompliziert auch immer die sein mag — Gegenstand des Modells ist.


Worauf es mir ankommt: Es ist unerheblich, ob man sich als Philosoph, Physiker, Informatiker, oder sonst was sieht — was zählt ist einzig und allein, dass man keiner Aussage einen Wahrheitswert zuordnet, den gültige Logik als falsch oder auch nur als derzeit unbegründet sehen müsste.

Mindestens unterscheiden sollte man hierbei die folgenden 4 einander jeweils ausschließenden Fälle
  • WAHR
  • FALSCH
  • UNENTSCHEIDBAR
  • derzeit keinem dieser Fälle hinreichend gut begründbar zuzuordnen.

Was man da als "hinreichend gut begründbar" zu sehen hat, hängt davon ab, wie sicher man sein möchte (oder anderen suggeriert zu sein).

 

  Beitrag 1997-157
-

 
 
Bauhof in 1997-156:
 
Henry und viele andere haben es jahrelang versucht, Harti mit sachlich vorgetragen Argumenten zu überzeugen. Hat nicht gefruchtet. Deshalb sind dann auch ab und zu deutliche Worte angebracht, wenn jemand keinem Argument zugänglich ist.

Auch der Profi Zara.t. gebraucht manchmal deutliche Worte, wenn es "zu bunt wird". Zu Henry sagte er im Beitrag 1981-62 folgendes:

Zitat:
Leute passt auf, an dem was Henry erzählt stimmt fast nix

Das habe ich jetzt nicht zitiert, um Henry vorzuführen, sondern nur damit du dir eine Vorstellung machen kannst, welche deutlichen Worte Zara.t. dir gegenüber möglicherweise gebrauchen wird, wenn du in Sachen Zwillingsparadoxon nicht zur Einsicht kommst.

Eugen Bauhof


Na ja, Eugen,

ich muss gestehen, dass ich hin und wieder durchaus versucht bin, Gleiches zu Dir zu sagen.


Bauhof in 1997-156:
 
Henry und viele andere haben es jahrelang versucht, Harti mit sachlich vorgetragen Argumenten zu überzeugen. Hat nicht gefruchtet.


Vielleicht deswegen, weil einiges seiner Argumente durchaus richtig waren ( von Euch aber nicht als richtig erkannt wurden )?

Wir sollten berücksichtigen: Wahres ist von Falschem oft extrem schwierig zu unterscheiden. Und weiter:


W e n n  eine Aussage wahr ist,

gilt das unabhängig davon, wie viele Personen und wie viele Fachbücher sie als falsch einstufen.



Es wundert mich deswegen sehr, dass selbst Du, Okotombrok und besonders Henry meistens nur  M e i n u n g e n  verbreiten, aber ganz selten versuchen, der Frage nachzugehen, wo in einer  S c h l u s s f o l g e r u n g  der Fehler liegen könnte.

In meinem Beruf kommt es gar nicht so selten vor, dass jemand ein ihm zunächst unumstößlich erscheinendes Urteil doch revidiert, sobald er versucht hat, den anderen durch einen  B e w e i s  zu überzeugen (Beweis = Zerlegung einer Schlussfolgerung in eine Folge einfacherer, immer kleinerer Schlussfolgerungen so lange, bis beide Personen sehen, wo denn nun genau die eine oder andere einem Denkfehler aufgesessen ist).


Beste Grüße,
Gebhard

 

  Beitrag 2016-55
Zum Stellenwert von Falsification

 
 
E... aus 2016-54:
Grtgrt aus 2016-50:
(...)
Und noch eine Sache: Zutreffende Theorien kann man natürlich niemals (zurecht) falsifizieren. Aber genau diese Theorien sind ja die wertvollen (!).
(...)

Was bitte ist denn ein (zu recht oder zu unrecht) falsifizieren?


Etwas zurecht falsifiziert zu haben bedeutet, beim Falsifizieren keinen Denkfehler gemacht zu haben.



Wer z.B. Software testet, denkt oft, der Testtreiber hätte einen Fehler gefunden. Hin und wieder aber stellt sich raus, dass der Fehler im Testtreiber lag, also nicht dort, wo man ihn vermutet hat. Analoges kann natürlich auch beim Versuch der Falsifizierung einer Theorie passieren.

 

  Beitrag 2016-57
-

 
Zitat von Gebhard:
Nun Henry,

es ist halt doch "so eine Sache" mit der Falsifikation:

Hätte man das Team in Kiew nämlich seine Beobachtungen durchführen lassen, hätten seine Zahlen dem widersprochen, was Einstein damals voraussagte.
Die Wahrscheinlichkeit ist groß, dass man dann seine Theorie als widerlegt betrachtet hätte (und nicht einfach nur seine Rechnung, die den Fehler wirklich enthielt).
Wer nämlich macht sich die Mühe, etwas Kompliziertes zu verstehen, wenn andere ihm sagen, es gäbe schon ein Gegenbeispiel?

Und noch eine Sache: Zutreffende Theorien kann man natürlich niemals (zurecht) falsifizieren. Aber genau diese Theorien sind ja die wertvollen (!).

Logisch korrekte Falsifikation ist demnach nicht mehr als ein Weg, Sackgassen schnell als solche zu erkennen.

Gruß, grtgrt

Hallo, Gebhard!

Erst noch mal zur Philosophie und Physik (oder allgemeiner den Naturwissenschaften). Natürlich hab ich da auch Blödsinn geschrieben, was wohl zum Teil an der Fragestellung lag. Weshalb sollte es einen Unterschied zwischen Philosophie und Physik geben? Es gibt gar keinen, es sind zwei völlig verschiedene Ebenen der Betrachtungsweise.

Was man nach meiner Ansicht aber sagen kann ist, dass man, um Naturwissenschaft zu betreiben, möglichst objektiv vorgehen sollte. Dazu gehört auch, die Philosophie (im Sinne einer Weltsicht) außen vor zu lassen. Andererseits kann ein schlüssiges philosophisches Weltbild nicht auf die Erkenntnisse der Naturwissenschaften verzichten.

Weiter ist die Frage, ob wir z. B. in einem Blockuniversum leben oder nicht oder ob die Raumzeit real ist oder nicht erst einmal gar keine philosophische Frage. Das Blockuniversum ist eine (mögliche) Folgerung aus den Annahmen der SRT (Nichtgleichzeitigkeit der Ereignisse), und ob die Raumzeit real ist oder nicht ist Spekulation und hat erst einmal überhaupt keinen Einfluss auf die Voraussagen, die sich nach der Theorie tätigen lassen. "Philosophisch" werden all diese Erkenntnisse oder Interpretationen, wenn wir uns mit den Folgen für unser Dasein und für unser Selbstverständnis als Menschen beschäftigen.

Wie arbeiten Physiker (oder allgemein Naturwissenschaftler)? Es ist ein Zusammenspiel von Theorie und Experiment. Nebenbei: Das Erstellen eines Computerprogramms und seine Testphasen mit der Entwicklung einer physikalischen Theorie vergleichen zu wollen ist – sage wir mal – zumindest weit hergeholt.

Die Theorie muss selbstverständlich zunächst einmal darauf geprüft werden, ob sie nicht bereits weitgehend bestätigten Erkenntnissen widerspricht, und ob sie in sich widerspruchsfrei ist. In erster Linie aber darf sie nicht dem widersprechen, was wir "Naturgesetzte" nennen, also z. B. den verschiedenen Erhaltungssätze oder den verschiedenen Konstanten. Und hier beginnt auch schon die Einsicht, dass jede Theorie erst einmal nur eine Theorie "auf Abruf" sein kann. Logischer Weise ist für die Konstanten und Erhaltungssätze die Allgemeingültigkeit zu fordern, und starke Indizien sprechen dafür, das dem so ist. Aber wir können es nicht wissen! Wir sind noch nie in anderen Gegenden unseres Kosmos gewesen, wir wissen nur von den experimentellen Ergebnissen hier auf der Erde (kosmisch gesehen macht es keinen Unterschied, ob wir auf der Erde oder in einer Raumstation sind). Und vielleicht noch wichtiger: Wir wissen nicht, ob sich die Konstanten / Erhaltungssätze in der Zeit ändern.

Dann muss eine Theorie Annahmen / Voraussagen machen, die sich experimentell überprüfen lassen. Nun sagt eine akzeptable Theorie natürlich nicht nur eine Aussage wie z. B. "Lichtstrahlen werden durch das Gravitationsfeld der Sonne abgelenkt". Aber selbst die Bestätigung dieser Voraussage ist eben nur die Bestätigung EINES Experimentes, das nach wissenschaftlichen Kriterien aber eigentlich nicht nur an der Sonne mehrfach wiederholt werden muss, und zwar unter IDENTISCHEN Voraussetzungen, sondern es müsste, um allgemein gültig zu sein, an ALLEN Sternen und auch sonstigen schweren Objekten überprüft werden. Dann, und NUR dann kann davon gesprochen werden, dass die Voraussage der Theorie in diesem Punkt allgemeingültig bestätigt ist. Und das ist nur eine Aussage, die z. B. die ART macht. Um tatsächlich sagen zu können, die ART ist bestätigt, müssen sämtliche ihrer Voraussagen experimentell in ähnlicher Weise bestätigt werden. Und es sind ja noch nicht einmal alle Lösungen für die Gleichungen der ART gefunden worden, geschweige denn überprüft.

Das oben Gesagte zeigt, warum eine Theorie nicht verifiziert werden kann, und auch, warum eine noch so gut durchdachte und im Experiment bestätigte Theorie sehr wohl falsifiziert werden kann. Wirklich falsifiziert wäre sie aber nur, falls sie den Grundlagen der Physik (Naturgesetze) widerspräche oder falls sich die Grundlagen selbst als falsch erweisen sollten. Und so ganz unwahrscheinlich ist das gar nicht.
 

  Beitrag 2016-58
-

 
 
Hallo Henry,

alles, was du in Beitrag 2016-57 sagst, sehe auch ich so: Du hast recht.

Wenn ich die Methodik der Falsifikation nicht ganz so konkurrenzlos dastehen lassen möchte, liegt das einfach daran, dass sie ausschließlich dazu dienen kann "gedankliches Unkraut" baldmöglichst zu beseitigen. Zutreffende Modelle zu erstellen, hilft sie aber nicht. Bestätigung durchs Experiment aber hilft, auch wenn — wie du ganz richtig feststellst — so eine Bestätigung noch lange kein Beweis ist (und es einen wirklichen Beweis möglicherweise nie geben kann).

Das Erstellen von Software ist wirklich was ganz anderes als das Erarbeiten einer physikalischen Theorie.

Mein Beispiel "Software-Test" war lediglich gedacht, darauf hinzuweisen, dass, wo Widersprüche entdeckt werden, zunächst mal nicht klar ist, auf welcher der beiden Seiten der entsprechende Denkfehler denn liegt, oder ob der entdeckte Widerspruch denn wirklich die Ursache hat, die man denkt, dass er hat (gerade dafür ist Einsteins Rechenfehler ja schon ein sehr schönen Beispiel).

Beste Grüße,
grtgrt
 

  Beitrag 2035-227
-

 
 
Bauhof aus 2035-226:
Grtgrt aus 2035-225:
 
Eine falsifizierbare Theorie ist eine, die widerlegt werden kann,  W E N N  sie falsch ist  ( und eben nur dann ).

Hallo Grtgrt,

und wie würdest du eine nicht falsifizierbare Theorie charakterisieren?

M.f.G Eugen Bauhof


Eine nicht falsifizierbare Theorie ist eine, die zu widerlegen selbst dann nicht gelingt, wenn sie falsch ist.

Die Stringtheorie etwa legt nahe, dass es grob 10500 verschiedene Typen möglicher Universen gibt. Eine Theorie z.B., die sagt oder voraussetzt, dass es im Kosmos zu jedem dieser Typen wenigstens ein Universum gibt, dessen Kräfte und Elementarteilchen sich so verhalten, wie dieser Typ beschreibt, ist nicht falsifizierbar (nach allem, was wir derzeit wissen und für bestätigt halten).

 

  Beitrag 2035-233
-

 
 
Bauhof aus 2035-232:
Henry aus 2035-229:
 
Falsifizierbarkeit bzgl. einer Theorie bedeutet nicht, DASS eine Theorie falsch ist, sondern erlaubt die Frage, OB sie falsch ist.

Hallo Henry,

ja.
Vielleicht noch etwas genauer:
Falsifizierbarkeit beinhaltet die Möglichkeit des Scheiternkönnens. Denn Falsifizierbarkeit besagt, dass Theorien nur dann wissenschaftlicher Charakter zukommt, wenn sie mit möglichen oder doch denkbaren Beobachtungen in Widerspruch stehen können. Wenn eine Theorie mit allen möglichen Beobachtungen prinzipiell von vornherein nicht widerlegbar wäre, dann kommt ihr kein wissenschaftlicher Charakter zu.

M.f.G. Eugen Bauhof


Das ist richtig, kann aber noch verschärft werden:


F a l s i f i z i e r b a r k e i t  bedeutet, dass die Theorie, WENN sie falsch sein sollte, tatsächlich auch als falsch erkannt werden kann.


W i d e r l e g b a r k e i t  bedeutet, dass die Theorie als falsch erkannt werden kann (und somit tatsächlich falsch ist).


 

  Beitrag 2059-1
Über Streitkultur (speziell im Umfeld Theoretischer Physik)

 
 

Das sicherste Anzeichen dafür, dass jemand die Argumente ausgehen, ist stets, dass er dazu übergeht, nur noch so zu antworten, dass er seinem Gesprächspartner Dummheit vorwirft.

Speziell für Vertreter der Theoretischen Physik gilt, was einer von ihnen selbst sagt (und viele andere denken oder dachten):

Zitat von Magueijo (2003):
 
Tatsächlich gibt es in der Wissenschaft keine bessere Methode, verrückt zu werden, als die Zweifel, die von anderen an der eigenen Idee vorgebracht werden, als persönliche Angriffe anzusehen — selbst wenn die Bemerkungen vor Verachtung oder Bosheit triefen und wenn man absolut sicher ist, dass alle Anwesenden einen für einen ausgemachten Dummkopf halten.

So ist das nun mal in den Naturwissenschaften. Jede neue Idee ist so lange dummes Geschwätz, bis sie jede erbarmungslose Kritik überlebt hat.
 

Sich solch erbarmungsloser Kritik wirklich zu stellen ist notwendig, um zu zeigen, dass die eigene Theorie — obgleich sie falsifizierbar sein sollte — nicht zum Widerspruch geführt werden kann.

 

  Beitrag 1209-32
Die Natür könnte immer "noch verrückter" sein ...

 
 
Haronimo in 1209-29:
 
Obwohl manche hier meinen, dass du zu viel Unsinn verbreitest ...


Das beste, was mir passieren könnte, wäre, wenn es jemand gelänge, mir dies oder das, was ich so schreibe, tatsächlich als Unsinn nachzuweisen ...

Aber so mancher denkt da wohl, dass hoch Spekulatives auf jeden Fall falsch sein müsse.


Ich jedenfalls will nicht vergessen, dass Bohr, Wheeler und einige andere mehrfach darauf hinwiesen, dass man als Theoretischer Physiker gar nicht gewagt genug denken könne: Die Natur könnte immer "noch verückter" sein.

Selbst die Geschichte der Mathematik kennt einige Beispiele, wo nicht die etablierten Professoren recht hatten, sondern der blutige Anfänger (Kronecker vs Cantor sind da ein recht schönes Beispiel).

 

  Beitrag 1209-33
Was Logik uns sagt, hat anderes Gewicht als was Meinungen uns sagen

 
 
Grtgrt in 1209-32:
 
Haronimo in 1209-29:
 
Obwohl manche hier meinen, dass du zu viel Unsinn verbreitest ...


Das beste, was mir passieren könnte, wäre, wenn es jemand gelänge, mir dies oder das, was ich so schreibe, tatsächlich als Unsinn nachzuweisen ...


Meinungen können falsch sein.

Strenge, unangreifbare Logik ist der einzige Kritiker, dem ich mich beuge.

 

  Beitrag 1209-35
-

 
 
Haronimo in 1209-34:
Grtgrt in 1209-33:
 
Meinungen können falsch sein.

Aber Meinungsfreiheit nicht.Sonst befänden wir uns in ein diktatorische Umfeld .Wer will dass schon ?

Ja, Haronimo,

Meinungsfreiheit ist wichtig.

Ich will auch gar niemand seine Meinung nehmen — wenn ich sie für falsch halte (und die Person mir nicht ganz gleichgültig ist), konfrontiere ich sie halt mit Gegen­argumenten. Sollte man sie nicht einsehen, bleibt unser beider Meinung halt nebeneinander stehen.

Warum andere das nicht immer so locker sehen, kann ich nicht so recht verstehen.

Gruß, grtgrt
 

 Beitrag 0-17
Nur mathematische Logik führt zu absolut objektiver Schlussfolgerung

 
 

 
Nur mathematische Logik führt zu absolut objektiver Schlussfolgerung

 
 
In der Medizin — das ist zweifelsfrei erwiesen — spielt die Erwartungshaltung der Patienten eine große Rolle: Ein Medikament wirkt umso besser, je mehr der Patient davon überzeugt ist, dass es Wirkung haben wird. Man nennt das den Placebo-Effekt.
 
Aber schlimmer noch: Wo Arzneimittel getestet werden, ist es wichtig, dass solcher Test im Doppel- oder gar Dreifachblindverfahren durchgeführt wird, was bedeutet, dass das Wissen darüber, welcher Patient das zu testende Mittel bekam und wem stattdessen nur ein Placebo verabreicht wurde (ein Mittel also, das gar keine Wirkung haben sollte), weder den Versuchspersonen noch den Personen, die die Versuchspersonen beobachten, bekannt wird.
 
Letzteres zu erreichen kann schwierig sein, wenn das zu testende Mittel noch während des Versuches beobachtbare Nebenwirkungen haben kann: Der die Patienten beobachtende Arzt wird, wo sich solche Nebenwirkung zeigt, — und sei es nur Übelkeit oder Schlaflosigkeit — geneigt sein, anzunehmen, dies sei ein Patient, der das echte Mittel (das Verum) erhielt. Ganz gleich, ob dem dann wirklich so sein sollte: Er wird mindestens unbewusst voreingenommen reagieren, was sich auf jeden Fall dort auf die Objektivität seiner Beobachtungsergebnisse auswirken wird, wo zwischen Wirkung und Nichtwirkung nur schwer unterschieden werden kann.
 
Mit anderen Worten: Es gibt nicht nur den Placebo-Effekt, sondern auch den sog. Experimentator-Effekt, der ebenfalls zu nur scheinbar richtigen Ergebnissen führt.
 
Somit gilt:

Absolut objektive Beobachtung
 
ebenso wie absolut objektive Schlussfolgerung,
 
sind nur möglich, wo sie sich das Erkannte allein mathematischer Gesetzmäßigkeiten wegen zeigt.

 
Mathematik ist demnach der einzige uns bekannte Denkmechanismus, mit dessen Hilfe sich absolut objektive Schlussfolgerungen ziehen lassen.


 

 Beitrag 0-540
Wo auch heute noch selbst manche Physiker falsch argumentieren

 
 

 
In Sachbüchern für Physik

gelegentlich anzutreffende Denkfehler



Falsch ist, dass ...
 
... es eine kleinste Portion von Energie gäbe (und jede andere ganzzahliges Vielfaches davon sei):

 
Im Buch A Big bang in a little Room (Zeya Morali, 2017) liest man auf Seite 32:
    ... the smallest denomination that the energy of tiny particles can take is known as a quantum of energy: A photon can have 1 quantum of energy, or 2 quanta, or 72 quanta, or any other whole-number-multiple ... but not 3/4 of a quantuim, or 42+1/3 quanta of energy, say.

 
Das ist falsch, denn:
    Tatsächlich wahr ist, dass die Energie eines Photons stets gegeben ist als Produkt von Plancks Wirkungsquantum und der Frequenz des Photons. Letztere kann beliebig klein werden, wie z.B. die Tatsache beweist, dass kosmischer Raum — schon seit dem Urknall — expandiert und daher die Wellenlänge der Photonen (z.B. die der kosmischen Hintergrungstrahlung) sich ständig vergrößert.

 
Wie man sieht, verwechselt die Autorin des Buches Energie mit Wirkung: Ein ganz gravierender Fehler, der einer promovierten theoretischen Physikerin, die heute als Wissenschaftjournalist arbeitet, besser nicht unterlaufen sollte.
 
In ihrem Buch besonders aussagekräftig und wohl auch richtig dargestellt sind vor allem Inhalt und Geschichte der Inflationstheorie einschließlich der ewiger Inflation: Dieser Teil des Buches — Kapitel 3, 4 und 5 — ist auf jeden Fall lesenswert. Er berichtet, was die Urheber jener Theorien — Guth, Linde und Vilenkin — der Buchautorin in Interviews selbst mitgeteilt haben.
 
Mehr zum Buch insgesamt sagt Sabine Hossenfelders Rieview.
 
Mein Ratschlag: Wer an Kosmologie als Wissenschaft interessiert ist — statt an wilder, absolut unbegründeter Spekulation ergänzt um geradezu naiv anmutende Hinweise der Autorin auf Gott — lese die Kapitel 3 bis 5 des Buches, aber nichts weiter sonst.
 
|
 
Auf Seite 38 des Buches zeigt sich, dass Morali das wichtigste Experiment der Quantenphysik — das Doppelspaltexperiment — noch nicht richtig verstanden hat, und auch nicht Hugh Everett's Viele-Welten-Theorie. Sie schreibt:
    "According to Everett's speculation, when Suarez set up his double-slit experiment [...], the moment he made a quantum measurement of the path of the photon — to check if it took the left or the right slit — reality fractured, creating two almost identical clone universes. The only difference between the two would be that in one [...] Suarez detected that the photon traveled through the left slit, while at the same instant his parallel self in an alternative version of Zaragoza was recording the outcome that the photon had traveled through the right slit."

Tatsächlich richtig ist: Niemand kann beobachten, dass das Photon durch nur einen Spalt kommt: Es kommt IMMER durch beide.
 
Genauer: Beim Versuch, Pfadinformation zu erhalten, muss man hinter die Spalten Polarisationsfilter setzen, welche ankommendendes Licht spaltenspezifisch senkrecht zu einander polarisieren: Wie man feststellt, verschwindet dann die Interferenz (einfach deswegen, da senkrecht zu einander polarisiertes Licht nicht interferieren kann). Leider scheint das bisher auch einigen anderen Physikern noch gar nicht so richtig klar zu sein. Sie stellen dann das Verschwinden der Interferenz beim Versuch, Pfadinformation zu erhalten, als großes Geheimnis hin: als etwas Unerklärbares, das mit beitrage zur angeblichen "Unverständlichkeit" des Quantenverhaltens.
 
Schlimmer noch: Der Physiker David Deutsch argumentiert in seinem Buch The Fabric of Reality (1997) allen Ernstes, dass das Doppelspaltexperiment die Existenz der "vielen Welten" im Sinne von Hugh Everett III beweise. Er denkt wirklich — wie Morali ja auch —, sie alle würden in gleich konkreter Weise existieren. Tatsächlich aber existieren sie nur als logische Gebilde im Konfigurationsraum aller Möglichkeiten, über deren Eintreten oder Nicht-Eintreten die Zukunft entscheiden wird.
 




Falsch ist, dass ...:
 
... es unter unendlich viele Paralleluniversionen mindestens zwei mit genau gleichem Inhalt geben muss,
 
oder ein Affe, wenn er nur hinreichend lange tippen könnte, mit Sicherheit irgendwann Shakespears gesammelte Werke reproduziert haben würde.

 
Beides wird von zahlreichen Sachbuchautoren — gelegentlich auch von Professoren der Physik, u.A. von Alexander Vilenkin — so behauptet. Genauer:
 
Einige Kosmologen — und z.B. auch zahlreiche populärwissenschaftliche Darstellungen der Multiversentheorie — stellen es als selbstverständlich hin, dass alles, was möglich ist, in irgend einem (sog. Parallel-) Universum auch tatsächlich vorkomme. Die Wahrscheinlichkeitstheorie, so schreiben sie, würde es beweisen, wenn man davon ausgehe, dass es unendlich viele Universen gäbe.
 
Aber tut sie das wirklich? Ganz offensichtlich nicht, denn:

    Wer sich eine Menge von N gleich wahrscheinlichen Teilchenkonfigurationen vorstellt, wird zu Recht behaupten können, die Wahrscheinlichkeit dafür, dass eine ganz bestimmte davon wirklich auftritt, sei 1/N (also positiv). Wenn nun aber N gegen unendlich strebt, strebt 1/N gegen Null. Betrachtet man also eine unendlich große Menge möglicher Zustände eines Universums, kann nicht mehr be­hauptet werden, die Wahrscheinlichkeit dafür, dass ein ganz bestimmter davon wirklich eintreten werde, sei positiv. Ebenso wenig kann behauptet werden sie sei Null. Sie ist also undefiniert, und somit kann man weder sicher sein, dass sich der fragliche Zustand ergibt, noch kann man sicher sein, dass er sich nicht ergibt.
     
     
    Man erkennt: Nicht jede Argumentation, die im Falle nur endlich vieler Alternativen schlüssig wäre, kann auch noch angewandt werden, wo es sich um mehr als nur endlich viele Alternativen handelt.

 



 

 Beitrag 0-454
In welchem Ausmaß ist alles Weltgeschehen deterministisch?

 
 

 
Wie deterministisch entwickelt sich die Welt?

 
 
Wenn wir unter der Welt den Inhalt der Raumzeit aus Sicht der Physik verstehen, so lässt sich feststellen:
 
     
  • Die kleinsten Geschehnisse, die Physik kennt, sind Quantenfluktuationen. Ihr Ergebnis ist — nach allem, was man weiß — absolut zufällig.
     
  • Erst wo sich, aus welchen Gründen auch immer, mehr makroskopische Strukturen und Objekte bilden, verhalten die sich (nur aus makroskopischer Sicht heraus) zunehmend deterministisch.

 
Erst aus gröberer Sicht heraus also ergibt sich — gut korrespondierend mit der Größe Form schaffender Strukturen — zunehmend deterministischeres Verhalten. Auf Quantenebene aber, d.h. was Abänderung sämtlicher Objekte durch Geschehnisse kleinstmöglicher Wirkung betrifft, entwickeln auch große Objekte sich nicht-deterministisch: getrieben durch Quantenfluktuation verändert sich auf extrem kleiner Skala ständig was an ihnen.
 
Quantenfluktuation nagt an der Form aller Objekte ebenso, wie Wind und Wetter am Zustand nie renovierter Gebäude nagen und sie so schließlich zerfallen lassen.
 
 
Die Evolution (und Bewusstsein) — so scheint es — wirken zielgerichtet.
 
Quantenflunktuation aber will einfach nur Veränderung herbeiführen.


 

  Beitrag 1963-1
Eine neue — sehr naheliegende — Deutung quantenphysikalischer Messergebnisse (und verschränkter Quanten)

 
 


Eine neue — wirklich naheliegende — Deutung quantenphysikalischer Messergebnisse


Gebhard Greiter (grtgrt)



Die ständig stattfindenden Dekohärenzprozesse (allgemeiner: die Neudefinition der Wellenfunktion eines Quantensystems in jedem Elementarereignis) wird gegenwärtig so interpretiert, dass hierdurch Realität produziert wird: ein konkreter Zustand, den man wohl am treffendsten als eine Art Schnappschuss begreift, der die Stelle, an der das Elementarereignis passiert, abphotographiert: Details dazu in den Beiträgen 1915-107, 1915-66 und 1915-86 (die man am besten versteht, wenn man sie in eben dieser Reihenfolge nachliest).

Zudem gibt es das heute viel diskutierte Phänomen der Quantenverschränkung, welches dadurch gekennzeichnet ist, dass Messungen der Eigenschaften zueinander verschränkter Quanten zueinander korrelliertes (in bestimmten Beispielen sogar absolut identisches) Ergebnis liefern, obgleich der Wert der jeweils beobachteten Größe auch da noch ein absolut zufällig eintretender ist.

Beispiel: Wenn ein Atom zwei zueinander verschränkte Photonen aussendet und man deren Polarisation misst, stellt man fest, dass beide stets gleich polarisiert sind. Andererseits kann der konkrete Wert der Polarisation für so ein Paar in keiner Weise vorausgesagt werden. Er ist ebenso wahrscheinlich wie der jeweils andere (wenn die Versuchsanordnung so ist, dass die eingesetzten Polarisationsfilter genau zwei Werte möglich machen).

Diese Beobachtung kann so interpretiert werden, dass die Messung uns nicht einen Schnappschuss jener Photonen zeigt, sondern nur einen Schnappschuss einer Projektion p dieser Photonen auf einen Teilraum unserer Welt, der weniger Dimensionen hat als diese Welt selbst und zudem noch so beschaffen ist, dass auf bestimmte Weise zueinander verschränkte Photonen unter dieser Projektion denselben "Schatten" werfen (sprich: auf ein und dasselbe Objekt abgebildet werden).

Eine Möglichkeit, sich jene Schattenwelt vorstellen, wäre, sich daran zu erinnern, dass der Stringtheorie entsprechend unser Universum über seine 4 uns sichtbaren Dimensionen hinaus noch bis zu 7 weitere, sog. aufgerollte Dimensionen hat. Es könnte also gut sein, dass jene Projektion p das Photon einfach nur in einen Teilraum projeziert, der durch einige dieser aufgerollten Dimensionen aufgespannt wird. Er ist dann auf jeden Fall nur endlich groß, aber ohne Anfang und Ende.


Meine Frage an Euch alle:

Kann mir jemand beweisen, dass diese Deutung KEINEN Sinn macht (bzw. falsch sein muss)?



grtgrt

PS: Man könnte noch weiter gehen, indem man sich frägt, ob unsere Welt nicht vielleicht zwei unterschiedliche Existenzformen hat: Eine, die das ist, was wir als unsere reale Welt W wahrnehmen, und eine andere, die ihr Bild unter p ist: p( W) also. Vielleicht also ist p gar keine Projektion, sondern eher ein Isomorphismus, der uns — im Beispiel oben — ein wirkliches Objekt einfach nur ausschnittsweise zeigt: eben so, dass wir denken, wir sähen zwei unterschiedliche Photonen?

 

  Beitrag 2075-193
-

 
 
Stueps in 2075-188:
 
Im Speziellen deutet die (für uns Laien sehr schwer nachzuvollziehende) Verletzung der Bellschen Ungleichung darauf hin, dass diese Art Zufälle echt sind, und nicht auf Parametern beruhen, die wir nicht erkannt haben und erkennen können.


Hallo Stueps,

meinem Verständnis nach beweist die Bellsche Ungleichung (in Kombination mit Aspects Experimenten) nicht das Vorliegen von absolutem Zufall, sondern stattdessen nur die sog. » spukhafte Fernwirkung « — die Tatsache also, dass miteinander verschränkte Quanten zueinander korrelliertes Verhalten aufweisen  o h n e  dass vorher schon bestimmt worden sein kann, wie sie auf welche Messfrage antworten werden.

Gruß, grtgrt
 

  Beitrag 2009-78
Statt ( Zeit, Länge, Masse ) besser ( Zeit, Geschwindigkeit, Energie)

 
 
Bauhof in 2009-73:
Grtgrt in 2009-71:
 
FRAGE an alle: Kann mir jemand ein physikalisches Gesetz nennen, in dessen mathematischer Formulierung die Lichtgeschwindigkeit c irgendwie anders auftritt als nur in Form eines Quotienten v/c, wo v für die Geschwindigkeit eines bestimmten physikalischen Objekts steht?

Hallo Grtgrt,

E2 = (p•c)2 + (m•c2)2 ; mit p = Impuls
Auf was willst du hinaus?

M.f.G. Eugen Bauhof


Hallo Eugen,
Hallo Stueps,

meine Frage war falsch gestellt. Was ich wirklich fragen wollte war:

Kann mir jemand ein physikalisches Gesetz nennen,
in dessen mathematischer Formulierung die relativistische Geschwindigkeit v eines bestimmten physikalischen Objekts
in irgend einer anderen Form auftritt als in der Form v/c, wo c die Lichtgeschwindigkeit bezeichnet?


So gestellt — das fällt mir eben jetzt auf — weiß ich selbst sogar die Antwort: Sie lautet NEIN ( denn es ist ja stets v = (v/c)c ).


Nun zu Eugens Frage, worauf ich damit hinaus wollte:

Die Größe eines physikalischen Objekts wird üblicherweise über 3 Grundgrößen spezifiziert. Sie sind


Zeit (als Vielfaches von Sekunde)   —   Länge (als Vielfaches von Meter)   —   Masse (als Vielfaches von Kilogramm)



Dazu äquivalent wäre das Grundgrößensystem

Zeit (als Vielfaches von 1 sec)   —   Geschwindigkeit (als Vielfaches von c)   —   Energie (als Vielfaches von 1 eV)



Da c und eV "Naturkonstanten" sind, braucht der Mensch dann nur noch festzulegen, was er unter 1 sec verstehen möchte.

Mit anderen Worten: Begriffe wie Meter oder Joule sind gar nicht notwendig (bzw. sind einfach nur Namen, mit denen der Mensch bestimmte Vielfache von ( c sec ) bzw. von 1 eV bezeichnet. Die festzulegen ist er natürlich frei, und so definiert er gegenwärtig 1 m = ( c/299 792 458 ) sec.

Nach heute gültiger Konvention versteht man unter 1 sec die Periode einer Mikrowelle, die mit einem ausgewählten Niveauübergang im Caesiumatom in Resonanz ist. Daher wird sie als Atomsekunde bezeichnet. Atomuhren basieren auf der Messung dieses Übergangs.

Spannende Frage wäre jetzt:

Ist das wirklich auch aus Sicht der Natur die natürlichste Wahl für eine Grundgröße der Zeit?

Oder haben wir die erst noch zu entdecken?


 

  Beitrag 2009-81
-

 
 
Stueps aus 2009-79:
Grtgrt aus 2009-78:
Spannende Frage wäre jetzt:

Ist das wirklich auch aus Sicht der Natur die natürlichste Wahl für eine Grundgröße der Zeit?

Hallo Gebhard:

... m.E. wäre die natürlichste Wahl die Planck-Zeit.

Grüße


Hi Stueps,

in Planck-Zeit findet sich zwar eine konkrete Formel für die Planck-Zeit, aber es steht dort auch, dass es sich dabei um eine "Abschätzung" handelt.

Ferner steht dort

"Die Planck-Zeit ... beschreibt das kleinstmögliche Zeitintervall, für das die bekannten Gesetze der Physik gültig sind".


Die erste dieser beiden Aussagen suggeriert mir, dass die Natur die Planck-Zeit (und z.B. auch die Planck-Länge) nicht genau, sondern nur ihrer Größenordnung nach definiert sind.

Noch genauer: Nicht die Natur definiert die Werte von Planck-Zeit, Planck-Länge, usw. sondern unsere Modelle zusammen mit unserer Vorstellung von "Modell macht hinreichend genaue Aussagen bis hin zur Größenordnung ..." tun das.

Was ich sagen will ist: Es ist ein bisschen Geschmackssache, was man als "hinreichend genaue Aussagen" einstuft, und es ist zeitabhängig, was wir als "unsere besten Modelle" der Natur verfügbar haben, und deswegen ist die Planck-Skala eher nur eine Größenordnung denn eine wohldefinierte Naturkonstante.

Beste Grüße,
grtgrt
 

  Beitrag 2009-107
Seit 1983 ist die Lichtgeschwindigkeit Basis aller Längenmaße

 
 
Henry aus 2009-103:
 
ES WURDE NICHT DER BETRAG DER LICHTGESCHWINDIKGEIT FESTGESETZT, SONDERN DER WERT IST DIE DEFINTION FÜR EIN METER!


Bauhof aus 2009-104:
Hallo Henry,

ist das nicht nur Wortklauberei?
Wenn der Wert von c mit Hilfe der Strecke von einem Meter definiert wurde, dann ist das doch nur die operative Beschreibung einer Festsetzung. Wo siehst du da einen Unterschied in der Ausdrucksweise? Bist du zufrieden, wenn ich schreibe, der Wert der Lichtgeschwindigkeit ist exakt definiert zu c = 299 792 458 m/s ?

M.f.G. Eugen Bauhof

Henry aus 2009-106:
 
Hallo, Eugen und auch E...!

Ich hab es nicht glauben wollen und halte meine Argumentation immer noch für richtig, aber Fakt ist wohl, dass der Wert von c TATSÄCHLICH festgelegt wurde!

http://de.wikipedia.org/wiki/Boulder-Gruppe

Das überrascht mich doch sehr! Immerhin kann man sagen, dass es abweichende Messungen gibt, aber die sind äußerst gering und man hat sich wegen des Bezugs zum Meter so entschieden. Nun ja, sorry dafür!

An alle:

Die Gleichung c = 299 792 458 m/s ist ganz klar eine Definition des Meters (und das schon allein deswegen, weil nicht der Mensch, sondern die Natur die Größe der Lichtgeschwindigkeit bestimmt).

Und genau so verstehe ich auch den Artikel der Boulder-Gruppe, auf den Henry hinweist. Im letzten Satz seines Abschnittes "Das Ende der Messung der Lichtgeschwindigkeit" steht dort ja sogar explizit, dass die Definition des Meters abgeändert wurde.

Sollte die Lichtgeschwindigkeit also über die Zeit hinweg leicht schwanken, ändert das nichts an der Zahl 299 792 458. Es schwankt dann lediglich die Länge des Meters.

Gruß, grtgrt

 

  Beitrag 2009-110
-

 
 
Henry aus 2009-108:
 
Auf der 17. Generalversammlung für Maß und Gewicht im Jahr 1983 wurde die Lichtgeschwindigkeit im Vakuum auf c = 299.792.458 m/s definiert.

Dieser krumme Wert wurde gewählt, um eine möglichst geringe Abweichung vom Urmeter zu haben. (Auszug aus eben jenem Artikel im Wikipedia)

 

Hallo Henry,

da drückt sich Wikipedia einfach nur ungenau aus. Statt "Lichtgeschwindigkeit" ist die "Darstellung der Lichtgeschwindigkeit als Vielfaches von m/s" gemeint.

Und wenn Du's mir immer noch nicht glauben solltest, dann lies bitte die Original-Veröffentlichung der Boulder-Group. Es wird dort (zu Beginn des letzten Absatzes auf Seite 191) gesagt:

Zitat:
 
The new definition of the meter, accepted by the 17th Confe´rence Ge´ne´rale des Poids et Mesures in 1983, was quite simple and elegant:

"The metre is the length of the path traveled by light in vacuum during a time interval of 1/299 792 458 of a second."

 

Gruß, grtgrt

 

  Beitrag 1985-353
Erst die nachvollziehbare Begründung einer Meinung macht die Meinung wertvoll

 
 
Henry in 1985-352:
 
Meine Ansichten sind (jedenfalls meistens, ...) ganz gut mit Hintergrundwissen abgesichert.
 


Was Du da sagt, Henry, bezweifle ich ja gar nicht.

Das Problem ist nur: Wenn Du mir nur deine Meinung mitteilst — ohne mir zu sagen, wie sie sich begründet oder woher Du sie hast — nimmst Du mir, wenn sie nicht mit meiner übereinstimmen sollte, jede Möglichkeit, zu prüfen, wer von uns beiden denn jetzt recht haben könnte bzw. wo  m e i n  Denkfehler liegen könnte. Kurz:


Die nachvollziehbare Begründung einer Meinung ist mehr wert als nur die Meinung selbst.



 

 Beitrag 0-156
Rotverschiebung kann 3 unterschiedliche Ursachen haben

 
 

 
Rotverschiebung kann 3 Ursachen haben

 
 

Rotverschiebung durch Dopplereffekt
 
 
Rotverschiebung beim Verlassen eines Schwerefeldes
 
 
Rotverschiebung durch Expansion des Raumes
 
 
Rotverschiebung kann 3 Komponenten haben

 
 
Quelle: Andreas Müller, Max-Planck-Institut für extraterrestrische Physik, Garching

 
 
Warum auf eine Gravitationsquelle zukommendes Licht blauverschoben, von ihr ausgesandtes aber rotverschoben ist, erklärt sehr schön Helmut Hetznecker auf den Seiten 82-84 seines Buches Kosmologische Strukturbildung, Spektrum-Verlag 2009:
 
Wie Einsteins Spezielle Relativitätstheorie zeigt, sind Masse und Energie äquivalent. Selbst Photonen haben demnach in einem Schwerefeld Gewicht.
 
Verlässt nun also ein Strahlungsquant den Potentialtopf einer Gravitationsquelle, so verliert es Energie — ganz so wie ein Ball, den man senkrecht nach oben wirft. Nun ist die Energie jeden Photons aber proportional zu seiner Frequenz. Sie also wird geringer (= rotverschoben), wenn das Photon sich von der Gravitationsquelle entfernt.

 

 Beitrag 0-217
Gravitation dehnt Zeit und Licht

 
 

 
Formeln für
 
Gravitative Rotverschiebung und entsprechende Dehnung der Zeit

 
 
Im Schwerefeld vergrößert sich die Wellenlänge von Licht, und alle Uhren gehen dort langsamer.
 
So sagt Einsteins Theorie, und 1959 von Pound und Rebka erstmals vorgenommene Messungen haben es bestätigt:
 
 
Gravitative Rotverschiebung führt zu einem optischen Dopplereffekt, der gegenüber der Ruhe-Wellenlänge λ0 zu einer Wellenlängen-Änderung
 
 
Δλ   =   mEGL/2c2rR2

 
führt. Hierin bezeichnen mE und rE Masse und Radius der Erde, L die Höhendifferenz, die das Licht ausgehend vom Erdboden hin zum höher gelegenen Detektor überwinden muss, G Newtons Gravitationskonstante, und c die Lichtgeschwindigkeit.
 
 
Beim Experiment von Pound und Rebka betrug der Höhenunterschied 22,5 Meter, so dass die vorhergesagte Rotverschiebung einer Eisen-57-Spektrallinie Δλ0  =   4,9 • 10-15 betrug — im Einklang mit Messungen, die diesen Wert 1959 mit einer Ungenauigkeit von 10% — bestätigten.
 
 
1964 gelang es Pound und Snider, ihn mit einer Ungenauigkeit von unter 1% zu messen.

 
 
Da die Zeit über eine Frequenz ν definierbar ist und dann ν = c/λ gilt, lässt sich aus der gravitativen Rotverschiebung auf die Zeitdehnung Δt schließen, die für eine Uhr eintritt, welche in der Entfernung r vom Schwerpunkt einer Masse m eines Körpers K vom Radius rS  =  2Gm/c2 retaltiv zur Zeit t0 eines Beobachters fern vom Gravitationsfeld. Man hat
 
 
Δt(r)   =   Δt0 ( 1 – rS/r )1/2

 
 
Die Größe rS ist übrigens der sog. Schwarzschild-Radius des Körpers K.
 
Befindet sich eine Raumsonde   Δt = 1 Jahr lang   r = 35 km   entfernt vom Rand eines Schwarzen Lochs mit 10 Sonnenmassen, so vergehen während dessen für weit entfernt außerhalb des Schwerefeldes weilende Beobachter   Δt0 = 2,5 Jahre  .

 
 
Für eine kreisförmige Umlaufbahn muss der Orbitalradius größer als das 1,5-fache von rS sein.
 
Die gravitative Zeitdehnung für eine Uhr im Orbit ist dann   Δt(r)   =   Δt0 ( 1 – 3rS/2r )1/2  .

 

 
 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 302-303.

 

 Beitrag 0-405
Zur Dichte Dunkler Energie (= der Energie des Vakuums)

 
 

 
Zur Dichte Dunkler Energie



Helmut Satz (2016):
 
Wie die Auswertung von Messergebnissen zeigt, entspricht die Vakuumenergie des Universums etwa 7 Protonen pro Kubikmeter.
 
Mit anderen Worten: Leerer Raum von der Größe des Erdballs enthält an Dunkler Energie in etwa so viel Energie wie 1 Gramm Wasser.
 
Eben deswegen macht Dunkle Energie sich erst auf intergalaktischer Skala bemerkbar. Kleine Objekte — unsere Erde oder auch Sterne — kann sie nicht vergrößern.
 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 164


 

 Beitrag 0-211
Kosmologische Konstante und die Energie des Vakuums

 
 

 
Die kosmologische Konstante

 
 
Im November 1915 publizierte Einstein die erste von ihm selbst als fertig erachtete Fassung seiner Feldgleichung der Allgemeinen Relativitätstheorie (ART).
 
Wie ihm erst ein Jahr später bewusst wurde, hatte er darin eine Integrationskonstante stillschweigend weggelassen, d.h. angenommen, ihr physikalisch einzig sinnvoller Wert sei Null.
 
Diese Größe — heute durch den griechischen großen Buchstaben Λ bezeichnet und kosmologische Konstante genannt — hat sich inzwischen als wichtiger Parameter unseres Universums herausgestellt. Physikalisch lässt sie sich auffassen
     
  • entweder als eine Eigenschaft der Raum-Zeit-Geometrie
     
  • oder als Energiedichte des Vakuums.

Jeder positive Wert dieser Konstanten resultiert in beschleunigter Raumexpansion — und seit 1998 weiß man, dass viele unserer astronomischen Beobachtungen auf eben sie hindeuten.

     
    Interessant ist, dass Einstein selbst, diese Konstante zwar zunächst doch berücksichtigt hat, dies aber später — 1931, George Gamov gegenüber — als seine größte Eselei bezeichnete (da sie seinem Glauben an ein statisches Universum widersprach).
     
    Dieses Beispiel zeigt sehr schön, wie wichtig es zu sein scheint, den Aussagen der Mathematik zu vertrauen — also nicht zu glauben, dass durch sie aufgedeckte Möglichkeiten nicht doch etwas mit physikalischer Realität zu tun haben könnten.
     
    |
     
    Heute gilt Λ als die einfachste Erklärung für die Triebkraft der kosmischen Expansion: für das, was man Dunkle Energie nennt (oder auch negative Gravitation).
     
    Man kann es auch so sagen: Dunkle Energie ist ein Konzept, welches Einsteins kosmologische Konstante verallgemeinert zu einer zeitlich variablen Größe.
     
    Der aus kosmologischen Beobachtungen ermittelte derzeitige Wert der Zahl ist um etwa 120 Größenordnungen kleiner, als der durch die Quantenfeldtheorie vorhergesagte. Irgendwas also hat man bisher noch nicht verstanden. Man könnte aber auch auf die Idee kommen, diese Diskrepanz als Anzeichen dafür zu deuten, dass Gravitation — als durch die Quantentheorie bisher vernachlässigte Kraft — selbst im Vakuum noch eine recht große Rolle spielt.

 
 
Ist H der Hubbleparameter und setzt man ΩΛ = Λ/(3H2), so zeigen Einsteins Gleichungen, dass die Expansion des Raumes sich beschleunigt, solange ΩΛ größer als die halbe Massendichte Ωm/2 ist.
 
Die beste Übereinstimmung mit heute vorhandenen Beobachtungsdaten ergibt sich, wenn man Ωm = 0,3 und ΩΛ = 0,7 annimmt, was ganz deutlich die Bedingungen für beschleunigte Expansion des Raumes erfüllt.
 
 

 
Verletzt das Vakuum den Energie-Erhaltungssatz?

 
 
Dass physikalische Größen wie Energie und Impuls in einem geschlossenen System weder verschwinden, noch zusätzlich auftauchen können, ist ein ganz zentraler Grundsatz der klassischen Physik und war wichtiger Ausgangspunkt von Einsteins Entwicklung der ART.
 
Für expandierende Raumzeiten allerdings, lassen sich solche Erhaltungssätze bisher  n i c h t  begründen.
 
Paul Davies und Edward R. Harrison — beides Kosmologen — argumentierten schon in den 80-er Jahren, dass man die Expansion des Raumes als Energiequelle sehen müsse, ohne dass klar sei, woher jene Energie kommt.
 
Und auf der Frühjahrstagung 2015 der Deutschen Physikalischen Gesellschaft wies Gerhard Schäfer (Universität Jena) darauf hin: "Das Thema Energie in der relativistischen Kosmologie ist eine Katastrophe."
 

 
 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 188 bzw. 191-192.
 
Lies auch: Das Rätsel der kosmischen Vakuumenergiedichte und die beschleunigte Expansion des Universums
 
Lies ferner: Dis komologische Konstante


 

 Beitrag 0-65
Sind Dunkle Energie und die Energie des Vakuums ein und dasselbe?

 
 

 
Ist Dunkle Energie die Energie des Vakuums?

 
 
Wenn Wissenschaftler die durch Forschungssatelliten gesammelten Daten analysieren (insbesondere die von WMAP und neueren Satelliten), kommen sie zu dem erstaunlichen Schluss, dass glatte 73 Prozent des Universums aus sogenannter » Dunkler Energie « bestehen.
 
Sie, so die häufigste Vermutung, sei die Energie des Vakuums.
 
Irritierend aber ist, dass die theoretisch vorhergesagten Werte für die Menge an Vakuumenergie von jenen Beobachtungen um ganze 120 Größenordnungen
abweichen (!).
 
Schon Tesla — der Erfinder des Wechselstroms, der mehr als 700 Patente angemeldet hatte, von denen einige zu Meilensteinen der Geschichte der Techniken zum Erzeugen und Transportieren von Strom geworden sind — hat als erster die Meinung vertreten, dass sich aus dem Vakuum Energie gewinnen ließe. Allerdings machte er sich falsche Vorstellungen über deren Menge: Heute nämlich lässt sich der Betrag Dunkler Energie auf der Erde berechnen und stellt sich dabei als extrem gering heraus.
 
Peinlich ist, dass die Physiker heute keine Idee haben, wie sich die Vakuumsenergie berechnen ließe.
 
Als unerschöpfliche Energiequelle wird sie sich bis auf weiteres — und vielleicht nie — nutzen lassen. Ob Tesla eine Idee dazu hatte, weiß man nicht. Auf jeden Fall hat er nichts dergleichen seinen Notizbüchern anvertraut.

 

  Beitrag 2016-148
Was wir bislang über Dunkle Energie zu sagen wissen

 
 
Struktron in 2016-147:
Hallo alle miteinander,
obwohl ich wenig Zeit habe, habe ich mal das Wichtigste hier gelesen und festgestellt, dass die dunkle Energie etwas in Vergessenheit geraten ist.
Einen eigene Theorie dazu kann ich momentan nicht ausarbeiten, weil ...
Lothar W.


Hi Lothar,

kann Du uns wenigstens bestätigen, dass auch aus deiner Sicht der gegenwärtige Stand der Erkenntnis aussieht wie folgt:



Ist Dunkle Energie nur die Energie des Vakuums?


Einige Forscher vermuten, dass die Vakuumenergie die in der Kosmologie diskutierte Dunkle Energie ist, die wesentlichen Einfluss auf die kosmologische Konstante und damit auf die zeitliche Entwicklung des Universums hat.

John Baez etwa schreibt:

Zitat von Baez:
People talk a lot about
  • » vacuum energy « or » zero-point energy « - that is, the energy density of empty space.
  • In cosmology, people also call this quantity the » cosmological constant «, or » dark energy «.


Dennoch ist heute noch  k e i n e s w e g s  bewiesen, dass sich hinter allen vier dieser Begriffe ein und dasselbe Phänomen verbirgt.

Tatsache ist:

Die absolut größte Abweichung zwischen den Aussagen aktueller physikalischer Modelle einerseits und tatsächlich beobachteter Eigenschaften der Natur andererseits besteht ganz klar darin, dass
  • Unsere Modelle zu eine Energiedichte des Vakuums von 10108 J/cm3 führen,
  • wohingegen Beobachtungen nur auf einen Wert in der Größenordnung 10-9 bis 10-11 J/m3 hinweisen.

Diese geradezu abenteuerliche Diskrepanz — immerhin ein Faktor von etwa 10120 zeigt deutlich, dass hier noch irgendwo ein Zusammenhang sein muss, den weder Physiker noch Kosmologen bisher entdeckt haben.

Und so schreibt Lisa Randall denn auch:


Zitat von Randall auf Seite 416 und 417 in "Die Vermessung des Universums":
 
Die Erklärung des Wertes der dunklen Energie ist das vielleicht größte Rätsel, mit dem Physiker und Kosmologen heute ringen:

Die Quantenmechanik sagt uns, dass das Vakuum — der Zustand, in dem es keine dauerhaften Teilchen gibt — tatsächlich mit flüchtig existierenden Teilchen angefüllt ist, die nur [extrem] kurze Zeit existieren umd dann sofort wieder zu verschwinden. Sie können beliebige Energie besitzen, manchmal sogar eine, die so groß ist, dass Gravitationseffekte nicht mehr vernachlässigbar sind.

Diese hochenergetischen Teilchen tragen extrem viel Energie zum Vakuum bei: weit mehr als die lange Entwicklung unseres Universums zu gestatten scheint: Damit das Universum so aussieht wie wir es wahrnehmen, muss der Wert der Vakuumenergie verblüffende 120 Größenordnungen kleiner sein als die Energie, die wir der Quantenmechanik zufolge erwarten würden.

Mit diesem Problem ist noch eine weitere ungelöste Frage verbunden:

Warum leben wir eigentlich zu einer Zeit, in der Materie, dunkle Materie [= Materie die nicht mit Licht wechselwirkt und dunkle Energie vergleichbare Dichte haben? Die Tatsache, dass diese Dichten so nahe beieinander liegen erscheint rätselhaft, da diese Koinzidenz (grob gesprochen) erst zu unserer Zeit gegeben ist. Im frühen Universum machte die dunkle Energie einen viel größeren Bruchteil des Ganzen aus, und auch in fernerer Zukunft wird sie einen viel größeren Bruchteil ausmachen.
 

Lisa Randall weist auch darauf hin (Seite 414-415 ihres Buches), dass Expansion des Raumes Strahlung und Materie verdünnt, die Dichte dunkler  E n e r g i e  aber bislang nicht verändert hat.

Die Existenz dunkler  M a t e r i e  hält man für bewiesen, da Galaxien größere Anziehungskraft ausüben als durch ihre sichtbare Materie erklärbar (besonders gut beobachtbar ist das, wo sich im Raum Gravitationslinsen finden). Neuerdings vermutet man auch, dass die ISS schon dunkle Materie registriert haben könnte.
Wie nahe Teilchen-Detektoren dem Nachweis dunkler Materie sind, findet sich gut hier beschrieben.

Mehr zu den 20 Größenordnungen Unterschied zwischen Modell und Wirklichkeit findet sich in: Five Answers to the same Question.

 

 Beitrag 0-494
Wie macht sich Dunkle Materie bemerkbar?

 
 

 
Dunkle Materie — weswegen?



Sabine Hossenfelder erklärt (2018):
 
Das Universum verbirgt etwas vor uns. Man weiß das seit 1930, als Fitz Zwicky das Hooker-Telekop mit einem Spiegel von 2,5 Meter Durchmesser auf den Coma-Galxienhaufen richtete: ein paar hundert Galaxien. Sie bewegen sich mit einer Geschwindigkeit, die abhängt von der Gesamtmasse, deren Gravitationskraft sie als haufen zusammenhält.
 
Zu seinner Überraschung stellte Zwicky nun aber fest, dass sie sich deutlich schneller bewegen, als mit dieser Masse erklärt werden kann. Und so vermutete er, dass der Haufen weitere Materie enthielt, die kein Licht abgab: Dunkle Materie (daher also der Name).
 
Als Vera Rubin — 40 Jahre später — die Rotation von mehr als 60 Galaxien untersuchte, stellte sie fest, dass in jeder von ihnen die äußeren Sterne schneller als erwartet ums Zentrum der jeweiligen Galaxi kreisen.
 
Das Tempo aber, das ein Stern benötigt, um in einer stabilen Umlaufbahn zu bleiben, hängt ab von der Gesamtmasse im Zentrum seiner Bewegung, und dass sich die äußeren Arme jener Galaxien so schnell drehen, konnte nur bedeuten, dass jene Galaxien mehr Masse enthalten musste als sichtbar war.
 
Inzwischen weiß man, dass die Schwankungen der kosmischen Hintergrundstrahlung nur zu den Daten passen, wenn mehr Materie vorhanden ist als sichtbar.
 
Sie ist auch nötig, um die Bildung galaktischer Strukturen im Universum unseren Beobachtungen anzupassen.
 
Weitere Hinweise auf dunkle Materie liefert der Gravitationslinsen-Effekt: Galaxienhaufen krümmen den Weg des Lichts mehr, als man nach ihrer sichtbaren Masse erwarten müsste.
 
 
 
Damit scheint klar:
 
Dunkle Materie existiert.
 
Aus was aber könnte sie bestehen?

 
Hier die wichtigsten Vermutungen dazu:
     
  • Die erste Vermutung war, dass Galaxien unerwartet viel schwer erkennbare stellare Objekte enthalten, wie etwa Schwarze Löcher oder Braune Zwerge. Sie aber müsste es dann aber auch in der Milchstraße geben, und sie müssten häufig Gravitatonslinseneffekte auslösen, die man so nicht beobachtet.
     
  • Der Gedanke, dass der Raum bevölkert ist von zahlreichen recht kompakte Objekten, die kleiner sind als Sterne, ist noch nicht völlig verworfen, allerdings ist unklar, wie sie entstanden sein könnten.
     
  • Daher favorisiert man derzeit eine andere Art dunkler Materie: Teilchen, die sich in Wolken sammeln und in nahezu kreisförmigen Halos um die sichtbaren Scheiben galaktischer Materie schweben.
     
    Teilchen bekannter Art interagieren jedoch fast alle zu heftig und verklumpen zu sehr, als dass sie solche Halos formen könnten — mit Ausnahme von Neutrionos, aber die sind zu leicht, bewegen sich zu schnell und verklumpen zu wenig.

Was also ist jene unbekannte Dunkle Materie? Sie muss etwas bisher noch Unbekanntes sein.
 
Seit 1990 gab es etwa 25 unterschiedliche Ideen, die in Beobachtungsprojekte mündeten, mit dem Ziel, eine Antwort zu finden — bisher ohne jeden Erfolg.
 


 
Quelle: Sabine Hossenfelder: Das hässliche Universum (2018), S. 259-263
 
Lies auch: Was lässt sich über Dunkle Materie sagen?
 
Ein Lösungsvorschlag aus 2019


 

 Beitrag 0-499
Wie sich zeigt, dass Galaxien in einen Halo Dunkler Materie eingebettet sind

 
 

 
Wie man die Masse von Erde und Sonne errechnet

und warum Galaxien in » Dunkle Materie « eingettet zu sein scheinen



Helmut Satz (2016) rechnet vor:
 
Nach Isaac Newton ist die Anziehungskraft F zwischen zwei Massen M und m im Abstand R von einander gegeben durch
 
 
F  =  GMm / R2  ,

 
 
wobei G = 6.7 × 10-11 m3/kg s2 die universelle Newtonsche Gravitationskonstante ist.
 
Dieses Gesetz ist Spezialfall des ersten Newton'schen Hauptsatzes der Mechanik, welcher lautet:
 
 
F = ma  ,

 
 
worin a die Beschleunigung ist, die eine Masse M unter Einwirkung einer Kraft F erfährt.
 
Auf der Erdoberfläche können wir die durch die Schwerkraft erzeugte Beschleunigung messen. Sie ist — wie schon Galilei durch seine Fallstudien gezeigt hat — für alle Massen gleich ( 9.8 m/s2 ).
 
Wenn wir den Radius der Erde kennen ( 6.4 × 106m ), erhalten wir durch Zusammenführen beider Gleichenungen
 
 
M  =  aR2 / G  =  5.3 × 1024 kg

 
 
für das Gewicht der Erde. Wir haben sie nun also "gewogen".
 
Die Planetenbahnen werden bestimmt durch das Wechselspiel der anziehenden Schwerkraft der Sonne und der ihr entgegengesetzt wirkenden, durch die Kreisbewegung hervorgerufenen Zentrifugalkraft
 
 
K  =  mv2 / R  ,

 
 
wobei hier m die Masse des Planeten ist, R der Radius seiner als kreisförmig angenommenen Bahn um die Sonne und v seine Umlaufgeschwindigkeit.
 
Zusammen mit der ersten Gleichung liefert uns das
 
 
v2 = GM/R  ,

 
worin M die Erdmasse ind R = 4 × 108 km den Abstand zwischen Erde und Mond bezeichnet.
 
Mit Hilfe von 2πR für die wieder als kreisförmig angenommende Umlaufbahn kommt daraus
 
 
T2  =  (2π)2 R3 / ( GM )

 
für die Umlaufzeit T von bekanntlich 30 Tagen.
 
Eben diese Gleichung gilt auch für den Umlauf der Planeten um die Sonne, wenn wir M als Sonnenmasse nehmen.
 
So also ergibt sich die Keplersche Regel v2 ∼ GM/R, die von allen Planeten des Sonnensystems respektiert wird. Die darin als M auftretende Sonnenmasse kann man bestimmen aus unserem Wissen über Umlaufzeit (1 Jahr) und Abstand zur Sonne ( 1.5 × 1011 m ) im Fall der Erde: MSonne = 2 × 1030 kg.
 
Wir sehen: Die Sonnenmasse ist etwa 500 000 Mal so groß wie die Erdmasse.
 
 
Wenn nun, wie bei den Randsternen von Spiralgalaxien, die Umlaufgeschwindigkeit unabhängig vom Abstand zum Schwerkraftzentrum wird, bei steigendem R also konstant bleibt, so muss nach der letzten Gleichung (6) die Galaxienmasse innerhalb der Umlaufbahn dieser Randsterne linear mit R wachsen. Da sich nun aber weiter außen kaum noch Sterne finden, muss da wohl tatsächlich dunkle Materie sein (bzw. dazu äquivalente Konzentration von Energie).
 
Die Dichte der » Dunklen « Materie ( Mdm/R3 ) fällt mit R-2 ab, wenn die Masse linear mit R ansteigt.
 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 179-180


 

 Beitrag 0-360
Der bisher interessanteste Versuch, Dunkle Materie zu erklären

 
 

 
Wie man sich ein Quark-Gluonen-Plasma vorzustellen hat

 
Nukleonen — Protonen und Neutronen — in ihre Bestandteile, die jeweils 3 Quarks, zu zerlegen, ist ihrer so extrem starken Wechselwirkung wegen (sie wirkt wie ein Gummiband, das nicht zerreißen kann) unmöglich. Wie aber muß man sich dann ein Plasma vorstellen, dessen Teilchen nur Quarks und Gluonen sind?
 


Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 252-253 :
 
Die Kraft, welche — als sog. starke Wechselwirkung — in Protonen und Neutronen die Quarks zusammenhält, hat die erstaunliche Eigenschaft, dass sie mit zunehmendem Abstand der Quarks stärker (statt schwächer) wird. Eben deswegen lässt sich kein einzelnes Quark aus einen Proton oder Neutron herausbrechen.
 
Je näher Quarks nun aber zusammenrücken, desto schwächer wird jene Kraft. Man nennt das asymptotische Freiheit.
 
Dieses Verschwinden der Kraft macht sich bemerkbar, sobald Protonen und Neutronen auf extrem engen Raum zusammengedrückt werden — wie etwa in Neutronensternen und Schwarzen Löchern.
 
Dabei können die Mitglieder dieser Dreierverbände von Quarks einander so nahe kommen, dass die Kraft praktisch gar nicht mehr vorhanden ist, sie also gar keine Bindung an ihre Verbundpartner mehr spüren. Sie erkennen in einem solchen Zustand ihren eigenen Verbund vom Typ Proton oder Neutron nicht mehr, sondern verhalten sich mehr oder weniger wie absolut freie Teilchen.
 
Als solch freies Quark-Gluonen-Plasma hat die kosmische Materie direkt nach dem Urknall tatsächlich vorgelegen.
 


 
 
 
Gibt es Himmelskörper, die nur aus Quarks bestehen?

Sie wären dunkel und die ältesten überhaupt:



Hans Jörg Fahr in » Mit oder ohne Urknall «, S. 255-257 :
 
Etwa 10-6 sec nach dem Urknall (= 1 Mikrosekunde) war das Quark-Gluonen-Plasma so weit abgekühlt, dass es zu kondensieren begann. Es war dies der Zeitpunkt, zu dem sich Protonen und Neutronen gebildet haben — vielleicht aber auch größere ladungsfreie farbneutrale Verbände von Quarks.
    Zum Vergleich: Wenn man Wasserdampf schnell und stark abkühlt, bilden sich winzige Schneeflocken.

Wie Crawford und Greiner ( 1994: The Search for Strange Matter ) errechnet haben, sind bei diesem Zerfall des Plasmas in schneeflockenartige Gebilde als Ergebnis am wahrscheinlichsten Teilchenverbände, die zu etwa gleichem Anteil aus up-, down- und strange-Quarks bestehen und sich nach einem inneren Schalenmodell unter Wahrung von Paulis Ausschließungsprinzip aufbauen lassen.
 
Man schätzt, dass sich auf diese Weise Multi-Quark-Kokons ergeben haben könnten, deren Durchmesser zwischen 10-7 cm bis hin zu 10 Zentimertern gereicht haben könnte. Edward Witten sagt voraus, dass sie i.W. zwischen 109 bis 1018 Gramm schwer sein sollten mit einem durchschnittlichen Durchmesser von dem einer Billardkugel. [ Bei einer zufälligen Kollision eins solchen Körpers mit der Erde würde er sie einfach durchschlagen und dabei lediglich eine Schockwelle im Erdkörper auslösen, mit der eventuell fürchterliche Verheerungen und Erdbeben einhergingen. ]
 
Die ganz normalen, uns heute bekannten Protonen und Neutronen würden sich dann sozusagen erst aus dem noch nicht kondensierten Rest der Quarks ergeben haben — nachdem die meisten strange-Quarks bereits in die leichteren Ups und Downs zerfallen waren und sich deswegen danach nur noch die üblichen farb­neutralen Dreier-Verbände bilden konnten.
 
Solche nur aus Quarks bestehen Mammutobjekte — weit kleiner, aber gut vergleichbar mit Neutronensternen — müssten sich heute noch auffinden lassen und könnten sogar den überwiegenden Teil aller Dunklen Materie darstellen. Sie wären sozusagen dunkle Sterne mit maximal wenigen Zentimetern Durchmesser: Winzige Staubkörner verglichen mit leuchtenden Sternen.
 
Unmengen von ihnen könnten sich gravitativ verklumpen, ohne dass dabei elektromagnetische Strahlung entstünde.
 
So wäre z.B. zu erklären, dass der Hydra-Zentaurus Galaxien-Haufen (ein Nachbar des Virgo-Clusters, in dem wir zuhause sind) mit seinen nie gesehenen 1015 Sonnenmassen nur wenig leuchtende Materie enthält.
 



 

 Beitrag 0-279
Wieso Dunkle Materie als schon relativ gut quantifiziert gelten kann

 
 

 
Dunkle Materie: 3 Wege, sie zu quantifizieren

 
 
Weg 1:
    Galaxien finden sich meist in größere Strukturen — sog. Galaxienhaufen — eingebunden. Man erwartet, dass diese Gebilde durch ihre eigene Schwerkraft gebunden Systeme sind. Nun sind aber die Geschwindigkeiten der Galaxien in diesen Haufen so groß, dass sie auseinander fliegen müssten, wenn es darin nicht etwas gäbe (dunkle Materie), welches zusätzliche Gravitationskräfte zur Folge hat.
     
    Durch Vermessung der Geschwindigkeiten von Galaxien wurde für eine ganze Reihe von Haufen eine Massenbilanz aufgestellt, die dazu zwingt, einen hohen Anteil an unsichtbarer Materie für diese Objekte anzunehmen.
     
    Die nicht leuchtende Masse, die einzelne Galaxien in einem sphärischen » Halo « umgibt, reicht hierfür jedoch bei weitem nicht aus. Mindestens das 10-fache an dunkler Materie ist nötig.

 
Weg 2:
    Beobachtung der mittels Satelliten registrierbaren starken Röntgenstrahlung der Galaxienhaufen:
     
    Sie stammt — so nimmt man an — von einem 100 Mio Grad heißen Gas zwischen den Galaxien, das wohl nur durch die Schwerkraft nicht sichtbarer Massen gebunden sein kann, da es sonst aus dem Haufen verdampfen müsste. Der Wert der Dichte passt zu dem aus der Bewegung der Galaxien erschlossenen.

 
Weg 3:
    Viele Galaxienhaufen wirken als Gravitationslinsen, d.h. sie lenken Lichtstrahlen ab, die von weiter entfernten Galaxien zu uns gelangen, so dass wir hinter dem Haufen liegende Galaxien mehrfach sehen. Die Art der Verzerrung erlaubt Rückschlüsse auf die Massenverteilung in den Galaxienhaufen. Auch diese Beobachtung führt auf den gleichen hohen Anteil von (vermuteter) dunkler Materie.

 
 
Man kommt so auf 3 unterschiedlichen Wegen zum selben Ergebnis:

 
Etwa 15 Prozent — genauer: zwischen 12 und 18 Prozent — der kritischen Dichte unseres Universums scheinen Dunkle Materie zu sein.
 
Note: Die normale, aus uns bekannten chemischen Elementen bestehende Materie erreicht nur etwa 5 Prozent der kritischen Dichte.
 
Diese Schätzungen erfassen nicht über jeden der Haufen gleichmäßig verteilte Materie oder Energie, solche also, die noch keine Klumpung zeigt.

 
 
Quelle: Gerhard Börner: Schöpfung ohne Schöpfer? (2006), S. 56-57


 

 Beitrag 0-133
Dunkle Materie: Die derzeit populärsten Hypothesen

 
 

 
Wie man versucht, sog. » Dunkle Materie « zu erklären

 
 
Die empirische Beweislage zugunsten dunkler Materie ist mittlerweile erdrückend:
 
Verschiedene astronomische Beobachtungen in Kombination mit Messwerten zur kosmischen Hintergrundstrahlung haben dazu geführt, dass man die heute vorhande Menge dunkler Materie recht genau zu beziffern weiß:
 
Die uns bekannte Materie — solche, die Licht ausstrahlt — stellt nur etwa 1/6 aller im All vorhandenen Gravitationsquellen dar.

 
 
Konkrete Indikatoren für Dunkle ( d.h. mit Licht  n i c h t  wechselwirkende ) Materie sind:
     
  • Die Sterne rotieren um galaktische Zentren zu schnell, ganz so, als ob da mehr Masse in der Galaxie wäre als wir sehen.
     
  • Galaxien in Galaxienhaufen bewegen sich so, als wären da deutlich mehr Massen beteiligt.
     
  • Gravitationslinseneffekte treten auch dort auf, wo wir keine Massen sehen.
     
  • Im Bulletcluster messen wir den Massenschwerpunkt an anderer Stelle als wir sichtbares Gas sehen.
     
  • in der kosmologischen Hintergrundstrahlung gibt es eine Resonanz, die nur mit zusätzlicher Masse zu erklären ist, die nicht elektromagnetisch wechselwirkt.

 
Galaxien scheinen eingebettet in jeweils eine Wolke dunkler Materie. Was aber ist dunkle Materie?
 
Zahlreiche mögliche Antworten auf diese Frage sind bisher als falsch erkannt worden.
 
 
Insbesondere kann man inzwischen mit Sicherheit ausschließen, dass dunkle Materie sich aus nicht leuchtenden Himmelskörpern zusammensetzt:
    Beweis hierfür sind Berechnungen zu Kernreaktionen im frühen Universum — dem etwa 380.000 Jahre alten Universum. Die nämlich sagen die derzeitige Dichte leichter chemischer Elemente, etwa die Dichte von Wasserstoff, Deuterium, Helium und Lithium, recht genau voraus, und diese Zahlen stimmen hervorragend überein mit dem, was Astronomen beobachten. Diese Übereinstimmung gilt als einer der spektakulärsten Erfolge der Urknalltheorie.
     
    Da diese Ergebnisse recht empfindlich reagieren auf leicht abgeänderte Annahmen über die damals vorhandene Menge an Protonen und Neutronen, sind sie unvereinbar mit der Annahme, dass Dunkle Materie einfach nur gewöhnliche, nicht leuchtende Materie sein könnte.
     
    Aus Planeten und kleinen Sternen bestehen kann die Dunkle Materie deswegen nicht. Untersuchung von Gravitationslinsen bestätigen das.

 
Noch nicht entschieden ist über zwei andere Hypothesen, deren eine von den Kosmologen und deren andere von den Kernphysikern kommt:

     
  • Möglichkeit 1:
     
    Die jede Galaxis einhüllende Wolke dunkler Materie könnte aus einer Vielzahl Schwarzer Löcher bestehen. Man hat keine klare Vorstellung davon, wie sie entstanden sein könnten. Diese Möglichkeit aber widerspricht nicht den Beobachtungen.
     
     
  • Möglichkeit 2:
     
    Dunkle Materie könnte aus Teilchen bestehen, die wir noch nicht kennen. Nennen wir sie DM-Teilchen. Sie müssten

       
    • massereich und stabil sein
       
    • und dürften keinerlei Ladung tragen (weder elektrische Ladung noch Farbladung im Sinne der QCD).

     
    Man stellt sich das so vor:
     
    Als das Universum noch sehr heiß und sehr dicht war, gab es recht häufig Kollisionen aller möglichen Teilchen, aus denen dann auch solche hervorgingen, die deutlich energiereicher waren als die von uns heute beobachteten.
     
    Als Folge der Ausdehnung des Raumes kühlte das Universum sich dann ab, so dass Kollisionen dann immer seltener die Kraft hatten, die schweren DM-Teilchen zu erzeugen. Da man annimmt, sie seine stabil, konnten sie dann nur noch durch Annihilation (sehr heftigen Zusammenprall) ausgelöscht werden. So ein Zusammenprall aber wurde immer unwahrscheinlicher, so dass DM-Teilchen dann — grob gesprochen — irgendwann weder zerstört noch neu geschaffen wurden. Physiker nennen das einen » Freeze out «.
     
    Die theoretische Physik kann die nach diesem (bisher nur hypothetischen) Freeze-out verbliebenen Reste berechnen und so die Menge der im heutigen Universum noch vorhandenen DM-Teilchen hinsichtlich ihrer physikalischen Eigenschaften vorhersagen. Man kommt so zum Ergebnis, dass DM-Teilchen über die schwache Kraft wechselwirken und eine Masse im Bereich von 0.1 bis 1 TeV haben sollten. Vertreter dieser Theorie nennen sie daher WIMPs weakly interacting massive particles «). Der LHC im CERN scheint gerade noch stark genug, sie zu entdecken.
     
    Für diese Theorie spricht, dass, falls unsere Welt supersymmetrisch sein sollte, die für diesen Fall vorhergesagten Neutralinos Kandidat für DM-Teilchen sein könnten:
     
    Ein WIMP nämlich ist einem Neutralino recht ähnlich, sollte aber auch deutlich mehr Masse haben — vermutlich bis hin zum 100-fachen einer Protonenmasse.
     
    Wie Neutrinos durchdringen WIMPs die Erde fast ohne jeden Zusammenstoß mit deren Teilchen. Die Bezeichnung » Dunkle Materie « wäre dann irreführend, denn dunkle Körper absorbieren Licht, ohne welches zu emittieren.
     
    Obgleich weit mehr dunkle als gewöhnliche Materie zu existieren scheint, wären WIMPs sehr dünn verteilt: In jedem Qubikkilometer Raum um uns herum erwartet man etwa ein halbes Milliardstel Gramm dunkler Materie. Sie umgibt uns wie eine Art extrem schwacher Geruch.
     
    Mit ihrer hohen Geschwindigkeit von etwa 1 Million km/h würden WIMPs, wenn sie mit einem Atomkern kollidieren, etwas Energie abgeben. Die aber ist so gering, dass man einen 1018 Tonnen (= 1% der Mondmasse) schweren Detektor bauen müsste, um mit der Stärke dieser Strahlung eine herkömmliche 100-Watt-Birne zu betreiben.
     
    Man sucht WIMPs deswegen mit Vorrichtungen tief unter der Erde, muss die Detektoren aber auch dort gegen die natürliche Radioaktivität des Felsgesteins abschirmen, da die deutlich intensiver ist als das erwartete Signal dunkler Materie. Mehr dazu in Kirko Stimmer: Suche nach WIMPs.
     
    Die Vermutung, dunkle Materie bestehe aus WIMPs, stützt u.A. eine Beobachtung aus 2015.
     
     
  • Möglichkeit 3: Bisher unbekannte große Gaswolken
     
    Am 18.4.2015 registrierte das Parkes-Radioteleskop in Australien einen nur eine Millisekunde andauernden Ausbruch von Radiostrahlung im All.
    Es war schon das 17. Mal, dass so ein Radioblitz beobachtet wurde. Bisher aber wusste niemand, woher sie kamen. Weil sie nur extrem kurz andauern, wurden sie oft erst Monate oder Jahre später in aufgezeichneten Daten entdeckt.
     
    Dieses Mal aber haben die Astronomen in Australien Kollegen auf der ganzen Welt sofort benachrichtigt, und so kam es, dass von mehreren Erdteilen aus sechs Tage lang ein Nachglimmen des Blitzes beobachtet werden konnte. Dies hat dazu geführt, dass man feststellen konnte: Der Blitz kam aus einer von uns etwa 6 Milliarden Lichtjahre entfernten Galaxie. Er könnte entstanden sein bei einem Zusammenstoß zweier Neutronensterne.
     
    Noch interessanter: Die Astronomen konnten feststellen, dass die Strahlung auf dem Weg zu uns gebrochen wurde. Und so entdeckten die Forscher bisher unbekannte heiße Gaswolken zwischen uns und der Galaxie, aus der der Blitz kam. Die Dichte dieser Wolken passt zur bislang vermissten Materie.
     
    Quelle: Christian Endt: Astronomen finden verborgene Materie, SZ vom 26.2.2016

 
 
Quelle i.W. Gian Francesco Giudice: Qdyssee im Zeptoraum — Eine Reise durch die Physik des LHC, Springer 2012, S. 304-312.


 

 Beitrag 0-538
Dunkle Materie — Warum sie eben doch auch ganz normale Materie sein könnte

 
 

 
Dunkle Materie
 
— Warum sie eben doch auch ganz normale Materie sein könnte —

 
 
Über das wahre Wesen sog. Dunkler Materie gibt es bisher nur Spekulationen.
 
Gut zusammengefasst finden sie sich erklärt und nach Plausibilität eingeordnet in Sabine Hossenfelders Vortrag.
 
Letztlich steht Hossenfelder heute im Lager derer, die denken, Einsteins Gravitationstheorie bedürfe doch noch irgend welcher Korrektur.
 
Ich selbst bin da ganz entschieden anderer Meinung:
 


Gebhard Greiter (2021):
 
Meine ganz persönliche Meinung zu Dunkler Materie:
 
Dass Galaxien als Materietöpfe zu sehen in dem Sinne, dass sie in je einer Wolke kosmischen Staubes schwimmen, die in ihnen und nahe an ihnen dichter ist als anderswo (aber dennoch im Inneren der Galaxie von fast konstanter Dichte), könnte ich mir tatsächlich noch am ehesten als Erklärung für die Existenz dunkler Materie vorstellen, denn:
 
Es kann ja tatsächlich der gesamte Inhalt des Universums (soweit er Materie darstellt) als gigantische Staubwolke aufgefasst werden mit "Staubkörnern" jeder nur denkbaren Größe (angefangen bei einzelnen Elementarteilchen und Molekülen bis hin zu Sternen und Schwarzen Löchern). Galaxien sind Schwerpunkte dieser Wolke von "Staub": Regionen also, in denen sie deutlich dichter ist als anderswo. Hiervon beobachtbar sind aner nur kleine Teilwolken enthalten, die sich lokal so weit verdichtet haben, dass sie zu leuchten begannen: entweder als Gaswolke oder gar als Stern. Dennoch muss es da aber jede Menge weiteren Staubes geben, der noch weit davon entfernt ist, sich derart weit verdichtet zu haben, dass er sich entweder stark erhitzen konnte oder wenigstens so dicht wurde, dass er in der Lage ist, zu verstecken, was hinter ihm existiert.
 
Mein Verdacht: Dieser Rest des "Staubes" (vor allem soweit er aus ganzen Gesteinsbrocken besteht) macht in Summe das aus, was wir dunkle Materie nennen, besteht aber letzlich doch nur aus stark verdünnter ganz normaler Materie jeder nur denkbaren Art von Bruchstücken früherer Sterne: Man hat (was Astrophysiker heute aber NICHT glauben) möglicherweise nur unterschätzt, wie viel das insgesamt an Staub sein kann: an Staub, der zu dünn sind, um durch uns beobachtbar zu sein (sei es in Folge eigener Lichtabstrahlung oder da er für uns nennenswert verdunkeln könnte, was hinter ihnen liegt).
 
Wenn man sich eine solche Wolke aus Staub und nicht allzu großen Gesteinsbrocken vorstellt, wird – wenn sie im Inneren der Galaxie liegt – ihre Umgebung von Sternen sie in jede Richtung fast gleich stark zu ziehen bemüht sein, so dass sie sich weder auflösen noch groß in nur eine Richtung bewegen oder sich gar schnell weiter verdichten kann.
 
Dass man sich bei entsprechenden Berechnungen gewaltig irren kann, scheint mir jedenfalls durchaus möglich.
 
Denken wir dazu mal an interstellare Objekte:
 
Aufgrund der großen Entfernungen können sie in der Regel nur erkannt werden, wenn sie unser Sonnensystem passieren. Man hat bisher nur ganze zwei entdeckt. Wie will man da wissen, wie viele es wirklich geben könnte?
 
Mit anderen Worten: Ich kann mir bisher einfach nicht vorstellen, wie es gelungen sein sollte, für Gesteinsbrocken jeder nur denkbaren Größe deutlich unterhalb typischer Mond abzuschätzen, in welcher Dichte sie in Galaxien oder dem Weltraum tatsächlich vorkommen.
 
|
 
Ich muss zugeben, dass ich von Modified Newtonian Gravity (MOND) rein gar nichts halte. Diese Theorie scheint mir — ihrer Qualität nach — gut vergleichbar mit der Theorie der Epizyklen aus dem Mittelalter: Sie konnte Beobachtungsergebnisse (die Bahnen der Planeten, wie wir sie von der Erde aus sehen) erstaunlich genau erklären, hat sich aber dennoch als falsch erwiesen (und war um Welten komplexer als die ganz einfache Newtonsche Theorie).
 
Ich würde mir wünschen, dass die Astrophysiker mal versuchen würden, zu quantifizieren, wie sich der Prozentsatz Dunkler Materie in sehr alten Regionen des Weltalls vergleicht mit dem in z.B. unserer Lokalen Gruppe. Mein Verdacht nämlich ist, dass die Dichte Dunkler Materie korrelliert sein könnte mit der Zahl der Supernovae, die in einer betrachteten Region des beobachbaren Universums schon stattgefunden haben. Jede Supernova nämlich zerstört lokal, was Gravitation an Verklumpung von Gas und Staub schon hat schaffen können und erhöht in einer wirklich großen Umgebung des explodierten Sterns die Zahl der "Staubteilchen" großer Granularität (= Gesteinsbrocken, welche die Macht der Explosion eines Sternes in seine Umgebung geblasen hat).
 
Mit anderen Worten: Würde man feststellen, dass der Prozentsatz Dunkler Materie für weit von uns entfernete (und daher jüngere) Galaxiencluster kleiner ist als für uns nahe liegende, wäre das starker Hinweis darauf, dass Dunkle Materie eben doch ganz normale, nicht leuchtende Materie ist bestehend aus dünnen, da weiträumig verstreuten Wolken von Gesteinsbrocken, wie Supernovae sie ja wohl zur Folge haben können.
 


 
Erstaunlicher Weise hat meine Vermutung, dass Galaxien des frühen Universums weniger Dunkle Materie enhielten, inzwischen Bestätigung gefunden: Man lese den Bericht » Kaum Dunkle Materie in frühen Galaxien « (2017):
 
 
 

 
 
VORSICHT aber: Selbst wenn es offenbar richtig zu sein scheint, dass Galaxien im frühen Universum kaum Dunkle Materie enthielten, so muss das noch lange nicht bedeuten, dass deswegen auch schon meine oben vernutete Begründung dafür richtig ist.
 
Man lese deswegen auf jeden Fall auch, welche Schlussfolgerungen man aus der Beobachtung des Bullet Clusters zieht (in dem sich zwei mit einander kollidierende Galaxienhaufen mischen): Es sieht so aus als würde sich dort Dunkle und normale Materie mit anderer Geschwindigkeit vom Zusammenstoß befreien als die Gaswolken.
 
 
 
Einen erfolgreichen Versuch, Ströme Dunkler Materie in unserer nahen Umgebung zu beobachten skizziert das Video » Verborgenes Netz Dunkler Materie entdeckt « (2021).
 
 
Warum die meisten Astrophysiker heute vermuten, dass Dunkle Materie aus WIMPs (= "Weakly Interacting Massive Particles") besteht, bekommt man gut erklärt im Vortrag von Prof. Thomas Lohse (2017). Er erklärt auch, wie sich im Bullet Cluster normale und Dunkle Materie anders verschieben als das leuchtende Gas.

 

 Beitrag 0-89
Leben wir in einer Welt gebrochener Supersymmetrie?

 
 

 
Sind supersymmetrische Ansätze der Teilchenphysik
 
sinnvoller als nur eichsymmetrische?

 
 
Unter einer Eichtheorie versteht man eine physikalische Feldtheorie, die einer lokalen Eichsymmetrie genügt (was bedeutet, dass die von der Theorie vorhergesagten Wechselwirkungen sich nicht ändern, wenn eine bestimmte Größe lokal frei gewählt wird).
 
In der Quantenmechanik etwa werden Teilchen nicht mehr durch Ort und Impuls, sondern durch die sogenannte Wellenfunktion ψ(x,t) beschrieben. Sie ist ein Feld, also eine — i.A. komplexwertige — Funktion von Raum und Zeit. Eindeutig aber ist sie keineswegs, denn
 
für jedes reele φ beschreiben  ψ(x,t)  und  e ψ(x,t)  denselben Zustand.

 
Es handelt sich hier um eine globale Symmetrie ( mathematisch gegeben durch die Lie-Gruppe U(1), denn die besteht gerade aus allen komplexen Zahlen e ).
 
 
Das Problem mit den Eichtheorien ist, dass sie
  • nicht eindeutig sind
     
  • und auf unendlich große Zwischenergebnisse führen, die durch Renormierung zurechtgestutzt werden müssen, damit die Theorie der Realität entsprechende Aussagen macht.

Zudem gibt es unendlich viele mögliche Eichtheorien, und diejenigen, die man auswählt, die Wechselwirkungen der Physik zu beschreiben, müssen ad hoc zurechtgestutzt werden, damit sie mit den Beobachtungen der realen Welt übereinstimmen. Schlimmer noch: Die Eichtheorien sagen nichs darüber aus, wie viele verschiedene Arten von Teilchen es geben sollte.
 
Die Physiker würden statt der Eichtheorien gerne eine eindeutige Theorie haben, die klar dazu Stellung nimmt, wie viele Teilchenarten es gibt. Ein Schritt hin zu einer Theorie mit diesen Eigenschaften wurde 1974 mit der Erfindung der sog. Supersymmetrie getan. Ausgangspunkt war die Frage, wie eine vollkommen symmetrische Welt beschaffen sein müsse, in der jedem Fermion ein Boson mit gleicher Masse entsprechen würde.
 
In der Natur beobachten wir solche Symmetrie nicht, aber das könnte man damit erklären, dass die Symmetrie gebrochen wurde wie im Fall der elektroschwachen Wechselwirkung. Brechung der Symmetrie tritt immer dann ein, wenn der symmetrische Zustand instabil, der gebrochen symmetrische aber stabil ist:
 
 
 
gebrochene Symmetrie
 
Quelle: Crashkurs in Quantenmechanik
 
Die gezeigte Situation wäre symmetrischer, wenn die Kugel auf der Bergspitze läge — die Lage aber ist nicht stabil.

 
 
 
Mathematisch ergeben sich Möglichkeiten, Supersymmetrien zu beschreiben, die möglicherweise zu Beginn des Urknalls bestanden, dann aber gebrochen wurden mit dem Effekt, dass die uns bekannten Teilchen kleiner Masse entstanden, während ihre Superpartner — Teilchen mit sehr großer Masse — sich schon bald in einen Schauer leichterer Teilchen aufgelöst haben.
 
Um heute Superteilchen zu erzeugen müssten wir Bedingungen schaffen wie zu Beginn des Urknalls. Die dazu notwendigen hohen Energien aber lassen sich heute selbst im CERN noch bei weitem nicht erzeugen. Man bräuchte dazu Teilchenbeschleuniger von mindestens der Größe unseres Sonnensystems.
 
 
Man sieht: Das alles ist noch mit sehr viel WENN und ABER versehen, weist aber doch einen großen Pluspunkt auf:
 
Es gibt verschiedene Spielarten einer supersymmetrischen Feldtheorie. Sie alle variieren das Thema durch Einschränkungen der Symmetrie, was ur Folge hat, dassvso eine Theorie dann auch nur eine begrenzte Anzahl verschiedener Teilchenarten zulässt: Einge Versionen enthalten hunderte, doch andere lassen sehr viel weniger zu, und keine der Theorien sagt voraus, dass die Zahl der fundamentalen Teilchen unendlich sein könnte.
 
Das beste aber ist: Supersymmetrische Theorien kommen ohne Renormierung aus, erfordern also keine Verletzung von Regeln der Mathematik.
 
Das wäre gut, aber die Physiker wissen, dass da noch etwas fehlt — sie wissen nur nicht was.
 
Verschiedene supersymmetrische Theorien stimmem recht gut mit den verschiedenen Erscheinungen der realen Welt überein, aber keine erklärt alles.
 
    Besondere Erwähnung verdient eine, die man die N = 8 Superschwerkraft nennt:
     
    Ihr liegt ein hypothetisches Boson zugrunde, das Graviton, welches die gravitative Wechselwirkung vermittelt.
     
    Es wird begleitet von
     
    • 8 weiteren Teilchen (daher N = 8), die man Gravitinos nennt,
       
    • 56 Materieteilchen (vor allem Quarks und Elektronen)
       
    • sowie 98 weiteren Teilchen, die nicht-gravitative Wechselwirkung vermitteln (Photonen, Gluonen und andere Bosonen)
     
    Das ist eine große Menge verschiedener Teilchen, aber die Theorie sagt sie voraus und lässt keine weiteren zu.
     
    Wie energiereich die Gravitinos seien, sagt die Theorie nicht. Es könnte sich um geisterhafte Teilchen mit extrem wenig Masse handeln, die praktisch nie mit irgend etwas wechselwirken. Andererseits könnten sie aber auch extrem massereich sein, so dass Menschen wohl nie werden Beschleuniger bauen können, die hinreichend viel Energie bereitstellen, sie zu erzeugen und zu beobachten.

 
Die Problem sind immens, doch für supersymmetrische Theorien spricht mindestens, dass sie widerspruchsfrei sind und endlich und keinerlei Renormalisierung bedürfen. Sie vermitteln den Physikern das Gefühl, mit ihnen auf der rechten Spur zu sein.
 
 
Wie aber kann es je gelingen, sie zu überprüfen?
 
Dieses Punktes wegen nimmt die Kosmologie, die ja das gesamte Universum zu erforschen sucht, heute solch gewaltigen Aufschwung. Heinz Pagels — geschäftsführender Direktor der New Yorker Akademie der Wissenschaften — sage 1983 (Zitat): Wir sind bereits in die Ära der Physik nach dem Beschleuniger eingetreten. Für sie wird die gesamte Geschichte des Universums zum Prüfstand der fundamentalen Physik.
 
Uns so widmen sich die Kosmologen heute mit nicht geringem Eifer auch der Teilchenphysik ...
 
 
 
Quelle: John Gribbin: Auf der Suche nach Schrödingers Katze — Quantenphysik und Wirklichkeit, Piper 2004, S. 282-286.

 
 
 
Was Supersymmetrie (SUSY) wahrscheinlich macht

 
Warum man sich heute vor allem auf supersymmetrische Varianten der Stringtheorie konzentriert — warum man also glaubt, die Physik unserer Welt müsse supersymmetrisch sein —, liegt vor allem daran, dass man nachrechnen konnte, dass die Kopplungskonstanten der starken Wechselwirking (rot), der schwachen Wechselwirkung (grün) und der elektromagnetischen Kraft (violett) mit steigender Energie nur dann konvergieren, wenn Supersymmetrie gegeben ist:
 
 
 
Kopplungskonstanten konvergieren nur unter der Annahme von Supersymmetrie
 
Quelle: DESY

 
 
Supersymmetrische Teilchen haben sich bisher hartnäckig ihrer Entdeckung entzogen. Es stellt sich daher die Frage, ab welchem Zeitpunkt die experimentellen Fakten so stark gegen SUSY sprechen, dass man sich trotz all ihrer Vorzüge nach etwas anderem umschauen muss.
 
Wann also kann man sagen, dass SUSY (Supersymmetrie) falsifiziert wurde? Diese Frage ist nicht leicht zu beantworten, da SUSY eine gebrochene Symmetrie sein muss (ansonsten hätten die Superpartner die gleichen Massen wie die Teilchen des Standardmodells und wären schon lange beobachtet worden). Wie der Übergang von voller zu gebrochener SUSY vor sich gegangen sein könnte, ist noch unverstanden.
 
Verzichtet man in der Stringtheorie auf Supersymmetrie, so sagt sie Tachyonen voraus (Teilchen, die sich grundsätzlich nur schneller als Licht bewegen). Erst die Superstringtheorie garantiert, dass keine Tachyonen involviert sind und gewährleistet die Erhaltung des wertvollen und bisher immer verifizierten Kausalitätsprinzips ('Ursache kommt vor der Wirkung').
 


 

 Beitrag 0-132
Supersymmetrie und die GUT (Grand Unified Theory) vereinigen 3 Kopplungskonstanten

 
 

 
Supersymmetrie und die GUT

 
 
Die Idee der Supersymmetrie (SUSY) hat mehrere Wurzeln:
     
  • Julius Wess und Bruno Zumino erfanden sie als Vermutung,
     
  • Neveu und Schwarz — sowie unabhängig von ihnen Pierre Ramond — haben sie 1971 in der Stringtheorie entdeckt.

Ihr heutiges Gewicht erlangte SUSY, als
     
  • 1976 Scherk, Gliozzi und Olive zeigen konnten, dass supersymmetrische Stringtheorie frei von bestimmten Unendlichkeiten ist und
     
  • 1981 Schwarz und Green einen Beweis dafür fanden, dass die gesamte Stringtheorie supersymmetrisch ist (dies zu betonen spricht man heute von Superstrings und Superstringtheorie).

Erst der Schwarz und Green 1984 gelungene Nachweis, dass die Stringtheorie — da supersymmetrisch — frei von Anomalien und Unendlichkeiten ist, hat die Stringtheorie von einem Außenseiter zum einem ebenso zentralen Thema wie SUSY gemacht.
 
 
 
Noch lange bevor die Idee der Supersymmetrie als möglicherweise brauchbar anerkannt war, sind Howard Georgi und Sheldon Glashow auf die Vermutung gestoßen, dass die starke und die elektroschwache Kraft unterschiedliche Facetten einer einzigen Kraft sein könnten.
 
Ihr Vorschlag ist heute bekannt als Grand Unified Theory (GUT).
 
 
Das Standardmodell hingegen beschreibt die starke, die schwache und die elektromagnetische Kraft durch eine Eichsymmetrie, die sich in 3 Lie-Gruppen ausdrückt und somit 3 Kopplungskonstanten hat. Sie bestimmen die Stärke der jeweiligen Kraft und lassen sich recht genau durch Messung bestimmen.
 
Wie aber soll dann die GUT — und damit eine einzige Kopplungskonstante — alle drei Kräfte beschreiben können, wo sie doch unterschiedliche Stärke haben?
 
 
Die Antwort darauf versteckt sich im Vorhandensein virtueller Teilchen:
 
Betrachten wir zunächst nur die elektromagnetische Kraft. Der klassischen Physik zufolge übet ein elektrisch geladenes Objekt — eine Elektron etwa — eine Kraft aus, die sich mit dem Quadrat der Entfernung vom Objekt verringert. Nun lehrt uns die Quantenmechanik aber, dass der Raum ständig und überall mit Wolken virtueller Teilchen durchsetzt ist. Das Elektron stößt sie ab bzw. zieht sie an, je nachdem, ob sie negativ oder positive Ladung tragen.
 
Damit ist die Stärke der Ladung des Elektrons — aus gewisser Entfernung gesehen — reduziert durch einen Schwarm positive geladener, zum Elektron hin gezogener virtueller Teilchen. Näherd man sich dann aber dem Elektron, so verschwindet diese Wirkung zusehens, da zwischen uns und dem Elektron dann zunehmend weniger solcher Teilchen sein werden.
 
Dieser Effekt lässt sich vergleichen mit dem Licht einer Straßenlaterne, das im Nebel vor uns auftaucht: Wir werden sie umso klarer erkennen, je näher wir ihr kommen (weil dann zwischen ihr und uns weniger Nebel sein wird, der Licht verschluckt).
 
Wir sehen also:
  • In der klassischen Physik hängt zwar die Stärke der elektromagnetischen Kraft von der Entfernung ab, nicht aber die Ladung des Objekts.
     
  • Anders in der Quantenmechanik: Hier nehmen wir die Ladung als entfernungsabhängig wahr.
In der QED aber kommt der elektrischen Ladung die Rolle der Kopplungskonstanten zu, und so muss sie entfernungsabhängig sein.
 
Auch die Kopplungskonstante der QCD hängt von der Entfernung ab. Hier aber wächst sie mit zunehmender Entfernung, da virtuelle Gluonen die Farbladungen verstärken, nicht aber abschirmen. [Für die Entdeckung dieser Abhängigkeit erhielten Gross, Politzer und Wilczek 2004 den Nobelpreis.]
 
 
 
Entfernungsabhängigkeit der Werte dreier Kopplungskonstanten
 
Quelle: Giudice: Odyssee im Zeptoraum, Springer 2012

 
 
 
Noch bei einem Abstand von 2 Nanometern lassen sich alle 3 Kopplungskonstanten gut messen. Rechnet man das Ergebnis solcher Beobachtung um auf Ent­fernungen von nur noch 10-32 Metern, kommt es fast schon zu einer Übereinstimmung aller 3 Konstanten.
 
Die eigentliche Überraschung aber:
 
Führt man jene Berechnung auch unter der Annahme von Supersymmetrie durch,
 
so ergibt sich — im Rahmen experimenteller Fehlergrenzen — tatsächlich für alle 3 Konstanten derselbe Wert.

 
Dies also ist der Grund dafür, dass man heute vermutet, unsere Welt sei supersymmetrisch.
 
Der Beweis hierfür — so denkt man heute — könnte sich noch mit dem LHC im CERN finden lassen, denn wie andere Überlegungen (s.u.) zeigen, sollten die Superpartner der uns inzwischen bekannten Teilchen jeweils nicht mehr als etwa 1 TeV Energie tragen.

 
 
 
Begründen lässt sich das so: Jedes der beiden Teilchen, die ein Superpaar bilden, trägt viel zur Dichte der Higgs-Substanz bei. Beider Beiträge sind exakt gleich, haben entgegengesetztes Vorzeichen und sollten einander daher aufheben. Wer die Berechnung ein erstes Mal durchführt, dem erscheint diese vollkommene Aufhebung großer Beiträge wie ein großes Wunder.
 
Zufall aber ist das keineswegs — denn was sich hier manifestiert ist die Macht gegebener Symmetrien: Die Higgs-Substanz — im gewöhnlichen Raum durch virtuelle Teilchen gestört — bleibt im Superraum vollkommen unberührt.
 
In Wirklichkeit aber kommt es der Anwesenheit virtueller Teilchen wegen zu einer spontanen Brechung dieser Symmetrie, so dass die Aufhebung der durch die beiden Superpartner produzierten Beiträge nur noch grob gegeben ist. Unter der Voraussetzung, dass der verbleibende Effekt nicht wieder ein Natürlichkeitsproblem zur Folge hat, kommt man zum Schluss, dass die Massen der erwarteten Superpartner auf etwa 1 TeV begrenzt sein sollten.
 
 
 
Nebenbei noch:
 
SUSY wird nicht nur im Rahmen der Stringtheorie betrachtet, sondern ist heute auch eine schon vollständig spezifizierte Erweiterung des Standardmodells der Elementarteilchen. Doch der Preis dafür ist hoch: Eine enorme Menge freier, d.h. nur durch Messung bestimmbarer Parameter.
 
Rüdiger Vaas nennt 12 Varianten der SUSY-Theorie, die jeweils unterschiedlich viel freie Parameter haben (zwischen 3 und 105).
     
  • Eine davon — CMSSM — gilt schon fast als widerlegt, da sie durch Zwangsbedingungen stark simplifiziert ist, deren Parameterraum sich als Ergebnis von Messungen am LHC schon als nahezu leer erwiesen hat.

 
Im Rahmen des Standardmodells sind nur Protonen, Elektronen und Neutrinos völlig stabile Teilchen (wobei sich Elektronen und Neutrinos aber in einander um­wandeln können). Alle andere Teilchen zerfallen, wenn frei, in Sekundenbruchteilen — abgesehen von freien Neutronen, deren Lebensdauer knapp 15 Min beträgt.
 
 
Auch GUT existiert als Theorie in mehreren Varianten:
     
  • Die einfachste davon — mit Symmetriegruppe SU(5) — würde erst durch SUSY so ergänzt, dass die Kehrwerte der Kopplungsstärken der schwachen, der starken und der elektromagnetischen Kraft ab etwa 1016 GeV gleich sind.
     
    Eben diese GUT-Variante aber gerät derzeit in Bedrängnis, da sie bisher nicht entdeckten Protonenzerfall voraussagt. Im übrigen sind die im Bild gezeigten Kurven für die Entwicklung der Kopplungsstärken in zunehmend höhere Energiebereiche hinein schon ab etwa 200 GeV extrapoliert (!).
     
  • In anderen GUT-Modellen — darunter einem mit Symmetriegruppe SO(10) — konvergiert die Stärke der Kräfte auch ohne SUSY.
     
  • All das zeigt, dass SUSY — dann aber auch die Stringtheorie — sich durchaus noch als Irrweg erweisen könnten.

Ende der 80-er Jahre begann das Interesse an den GUT-Theorien nachzulassen — nicht zuletzt deswegen, weil jede von ihnen eine bestimmte (wenn auch das Alter unseres Universums um etwa 20 Größenordnungen übersteigende) mittlere Zerfallszeit für Protonen voraussagt, bisher aber noch kein einziger Protonenzerfall beobachtet werden konnte — und das, obgleich es eine ganze Reihe von Detektoren gibt, in denen nach Anzeichen dafür gesucht wird.
 
GUT widerspricht dem Standardmodell der Elementarteilchenphysik, denn ihm zufolge kann es keinen Protonenzerfall geben, da er den Erhaltungssatz für die Baryonenanzahl verletzen würde.
 
 
 


 

 Beitrag 0-330
Magnetische Monopole — gibt es sie?

 
 

 
Magnetische Monopole — gibt es sie?

 
 
Die GUT-Theorien sagen die Existenz magnetischer Monopole voraus, d.h. die Existenz von Elementarteilchen, deren jedes einen einzelnen magnetischen Nord- oder Südpol darstellt.
 
Warum aber hat man solche Teilchen bisher nicht gefunden?
 
Alan Guth — nachdem er 1979 die Inflationstheorie vorschlug — hat sich mit dieser Frage eingehend befasst und glaubt errechnet zu haben, dass derartige Teilchen nur entstehen können bei Temperaturen, wie sie in unserem Universum schon kurz nach Beginn der Inflationsphase nicht mehr geherrscht haben.
 
Da der durch Menschen einsehbare Teil des Weltalls damals aber extrem kleinen Durchmesser hatte — wohl kleiner als die Plancklänge —, sein nicht wahrscheinlich, dass er damals mehr als nur ganz wenige magnetische Monopole enthalten haben kann. Sie könnten heute durchaus noch existieren, wären dann aber in unserem Universum extrem selten, da nun ja über einen kugelförmigen Bereich verteilt, dessen Radius ca. 43 Mrd. Lichtjahre beträgt.
 
Wir dürfen deswegen nicht erwarten, auch nur ein oder zwei davon wirklich zu finden.

 

 Beitrag 0-139
Eichsymmetrie und seine Basis: Das Noethersche Theorem

 
 

 
Das Noethersche Theorem

 
 
Emmi Noether — eine ganz herausragende Mathematikerin — hat entdeckt, dass jede nicht diskrete (d.h. fließende, also kontinuierliche) Symmetrie einer physikalischen Theorie einen Erhaltungssatz zur Folge hat.
 
Ihr Theorem sagt z.B.
  • Invarianz gegenüber jeder Verschiebung der Zeitkoordinate impliziert den Energie-Erhaltungssatz.
     
  • Invarianz gegenüber jeder Verschiebung der Raumkoordinaten impliziert den Impuls-Erhaltungssatz.
     
  • Invarianz gegenüber Drehungen im Raum impliziert den Drehimpuls-Erhaltungssatz.

Noethers Entdeckung dieser Zusammenhänge hilft bei der Entwicklung von Theorien:
 
Wo Experimente darauf hindeuten, dass es für eine Größe einen Erhaltungssatz geben könnte, kann man das als Hinweis darauf deuten, dass in der Theorie eine Symmetrie zu finden sein sollte (auch wenn zunächst nicht klar ist, welche das sein könnte).
 
 
In der Physik — und auch in Noethers Theorem — ist mit einer Symmetrie nicht notwendig eine geometrischer Art gemeint:
Ein symmetrisches Modell ist dort eines, welches
  • unter einer gewissen Menge von Transformationen seiner selbst invariant ist
     
  • und diese Menge von Transformationen sich als Gruppe im mathematischen Sinne darstellt.
Man spricht dann von Eichtransformationen und von Eichsymmetrie.
 
 
Erstes Beispiel einer eichinvarianten Theorie war die Maxwellsche Theorie der Elektrodynamik:
    Es werden dort sog. Eichfelder transformiert, und die Invarianz besteht darin, dass die messbaren Felder — das elektrische und das magnetische Feld — durch die Transformation sich nicht ändern, obgleich sie sich aus den Eichfeldern — das sind hier elektromagnetische Potentiale — berechnen lassen.
     
    Diese Symmetrie impliziert den Erhaltungssatz für elektrische Ladung.

Mit den Eichfeldern hat man sozusagen grundlegendere Felder eingeführt, die nicht direkt messbar sind und durch eine Eichtransformation umdefiniert werden können ohne dass der physikalische Gehalt sich ändert. [Hohnerkamp, 2015]
 
Man könnte nun denken, dass solche Hintergrundfelder einzuführen und ihre Symmetrie (Eichinvarianz) zu betrachten, künstlich und überflüssig ist.
 
Dennoch erwies eben diese Idee sich als Schlüssel zur Formulierung der sog. Quantenelektrodynamik (QED).
 
Und nicht nur das: Sie wies auch den Weg zur verallgemeinerten Quantenfeldtheorie der elektroschwachen Theorie und schließlich der heutigen Standardtheorie zur Beschreibung der starken, der schwachen und der elektromagnetischen Wechselwirkung — der Grand Unified Theory (GUT).
 
Während in der QED das Eichfeld für ein Photon steht, beschreiben die Eichfelder der allgemeineren Standardtheorie auch die Austauschteilchen der starken und schwachen Wechselwirkung. Hier also sind die Eichfelder keine Hilfsfelder mehr wie in der klassischen Elektrodynamik, sondern die Bosonen selbst.
 
 
Wir sehen:
 
Es war die Idee der Eichsymmetrie,
 
die letztlich zur gelungenen Vereinheitlichung von nun schon 3 der insgesamt 4 physikalischen Grundkräfte geführt hat.

 
Selbst in der Allgemeinen Relativitätstheorie — für die es bisher ja noch keine Quantenversion gibt — findet sich das Eichprinzip verwirklicht: Das Eichfeld ist dort die Metrik, und die Eichtransformationen sich die allgemeinen Koordinatentransformationen. [Hohnerkamp, 2015]
 
 
Quelle: Josef Honerkamp: Wissenschaft und Weltbilder, Springer 2015, S. 228-233

 
 
Nach Wolfgang Osterhage (Seite 154) besteht die Eininvarianz darin, dass man den Potential-Nullpunkt frei wählen (ihn "eichen") kann, ohne dass das Einfluss auf physikalische Vorgänge hat.
 
Er sagt auch, dass die Erhaltungssätze für Leptonen- und Baryonenzahl mit Quantensymmetrien verknüpft seien und es über die bisher hier genannten Symmetrien für Zeit und Raum nur noch eine weitere geben könne: die Supersymmetrie. Sie beeinflusst den Spinwert — erhöht oder erniedrigt ihn um 1/2 —, macht also aus Fermionen Bosonen und aus Bosonen Fermionen.

 
 
Über die vier oben schon erwähnten Erhaltungssätze hinaus — die für Energie, Impuls, Drehimpils und Ladungsdichte — gibt es noch zwei weitere:
     
  • den für die Baryonenzahl ( garantiert durch die SU(2) Symmetrie des starken Isospins ) und
     
  • den für die Leptonenzahl ( garantiert durch die SU(2) Symmetrie des schachen Isospins ).

Neben den fließenden, also kontinuierlichen Symmetrien gibt es weitere, die diskret sind. Es sind dies
     
  • Ladungskonjugation (C, charge),
     
  • Parität (P, räumliche Spiegelung) und
     
  • Zeitumkehr (T, time).

Auch jede Kombination von ihnen erhält — fast immer — das Verhalten des betrachteten Systems. Seltsamerweise aber gibt es da Ausnahmen: Bestimmte Prozesse, in denen die  s c h w a c h e  Wechselwirkung eine Rolle spielt, verletzen C, P oder CP.

 

 Beitrag 0-222
Gravitative Eichtheorien — können sie ART und Quantentheorie vereinen?

 
 

 
Die Einstein-Cartan-Theorie

 
 
Nach Fertigstellung seiner Allgemeinen Relativitätstheore hat Einstein bis hin zu seinem Tode versucht, sie zu einer sog. Einheitlichen Feldtheorie zu verallgemeinern: zu einer Theorie, in der neben der Gravitationskraft auch die eltromagnetische Kraft mit berücksichtigt sein sollte (die Kernkräfte waren zunächst noch gar nicht bekannt).
 
Schon 1925 dachte er, eine Lösung zu haben, die er dann aber doch bald wieder verwarf.
 
 
Einen Ansatz, den er 1928-1931 zusammen mit dem Franzosen Elie Cartan entwickelt hatte — Fernparallelismus mit Torson — betrachtet man heute erneut:
 
Es liegt ihm die Idee zugrunde, dass Spin Torsion erzeugt und somit zu einer gewissen Verdrillung der Raumzeit führen könnte.
 
    Dennis Sciama — Steven Hawkings Doktorvater — betont, dass man diese Idee nicht einfach nur als ad-hoc-Modifikation der ART zu sehen hat, sondern dass sie auf einer tiefen gruppentheoretisch und geometrisch begründbaren Grundlage ruht. Er sagt (Zitat):
     
    Wenn der Elektronenspin 1915 schon entdeckt gewesen wäre, dann habe ich wenig Zweifel, dass Einstein es für wünschenswert gehalten hätte, die Torsion in seine ursprüngliche Formulierung der ART mit einzubeziehen. Allerdings sind die normalerweise auftretenden Abweichungen zahlenmäßig  s e h r  klein, so dass der Vorteil zunächst nur ein gänzlich theoretischer wäre:
     
    Zur ART abweichende Aussagen werden erst für Materiedichten ab etwa 1054 Gramm pro Kubikzentimeter erwartet bei Abständen unter 10-26 cm.
     
    Zum Vergleich: Selbst Neutronensterne haben eine Dichte von » nur « 1016 Gramm pro Kubikzentimeter.

 
Für Theoretiker hat die Einstein-Cartan-Theorie einige Vorzüge: Sie könnte einen besseren klassischen Grenzfall einer künftigen Quantengravitationstheorie liefern als die ART, welche die Torsion ignoriert.
 
Und schon in den 70-er Jahren wurde erkannt, dass die sog. Einfache Supergravitationstheorie äquivalent ist zur Einstein-Cartan-Theorie im Falle eines masselosen Feldes mit Spin.
 
Die Supergravitationstheorie gilt als vielversprechende Etappe auf dem Weg zu einer Weltformel, da sie grundlegende Symmetrien zwischen Kräften und Materie enthält und ein Grenzfall der M-Theorie ist (ebenso wie die 5 Stringtheorien).
 
    Im Februar 1930 schrieb Einstein an Cartan: ... komme mir mit dieser Theorie vor wie ein Affe, der nach langem Suchen eine ungeheuere Kokosnuss gefunden hat, sie aber nicht öffnen kann, so dass er nicht einmal weiß, ob etwas drin ist.
     
    Cartan muss es ähnlich gesehen haben, denn er antwortete schon wenige Tage später, man stehe ratlos vor einer Mauer, es sei unklar, wie ein Loch hineingeschlagen werden könnte, und er hoffe auf ein göttliches Wunder.
     
    Solcher und noch anderer Schwierigkeiten wegen, hat Einstein diesen Ansatz dann nicht weiter verfolgt.
     
    Wer denkt, Einstein hätte danach nichts mehr geleistet, irrt sich: Trotz der vielen Sackgassen, in die er geriet, hat er noch bis 1 Tag vor seinem Tod Rechnungungen durchgeführt, von denen er hoffte, dass sie ihn zur angestrebten einheitlichen Feldtheorie führen ...
     
    Sein Nachlass — etwa 63.000 Dokumente und Notizen — wird Forscher noch lange beschäftigen.

 
Die Einstein-Cartan-Theorie ( EC-Theorie ) — für spinlose Materie identisch mit der ART — ist Spezialfall einer noch umfassenderen Klasse von Gravitationstheorien, den sog.
 
 
Gravitative Eichtheorien auf Basis der Lorentz-Poincaré-Gruppe

 
 
Obgleich sie mathematisch schon hervorragend ausgearbeitet sind, wissen selbst viele Physiker nichts von ihnen. Das ist erstaunlich, denn sie schlagen eine Brücke hin zur Elementarteilchenphysik, also zur Quantenphysik (die mit Einsteins Theorie zu vereinen, ja erklärtes Ziel aller Quantengravitationstheorien ist).
 
Die nach Poincaré benannte Symmetriegruppe — sie umfasst die Lorentz-Gruppe — hat 10 Parameter:
     
  • vier für Verschiebungen (Translationen raumzeitlicher Art)
     
  • drei für Drehungen (räumliche Rotation)
     
  • drei für die Loretz-Transformationen (raumzeitliche Rotationen)

Sie alle beschreiben den Übergang von einem Bezugssystem zu einem anderen, welches sich relativ zum ersten mit konstanter Geschwindigkeit bewegt.
 
Diese Symmetriegruppe repräsentiert sämtliche innerhalb der relativistischen Mechanik möglichen Transformationen. Außerdem lassen sich mit ihr im Rahmen der SRT sämtliche Elementarteilchen klassifizieren hinsichtlich Mass und Spin. Entscheidend hierbei ist, dass Ruhemasse, Spin und Ladung nicht der quantenmecha­nischen Unbestimmtheitsrelation unterliegen: Sie lassen sich gleichzeitig sehr genau messen und gelten daher als eindeutig bestimmte Eigenschaften der Elementarteilchen.
 
Mittels der Poincaré-Gruppe — so zeigte sich in den 60-er Jahren — lässt sich auch eine Gravitationstheorie formulieren: die Poincaré-Eichtheorie.
 
Tatsächlich ist es möglich, noch allgemeinere Geometrien und Symmetrien zu wählen. Sie führen zur Klasse der metrisch-affinen Eichtheorien (mit etwa 100 freien Größen). Die Poincaré-Eichtheorie ist ein Spezialfall der Weyl-Cartan-Eichtheorien (die auch Stauchung berücksichtigen), und die wiederum sind Spezialfall der metrisch-affinen-Eichtheorien (die zudem noch Scherung berücksichtigen).

 
 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 466-479.


 

 Beitrag 0-500
Einstein Feldgleichung wenigstens grob verstehen

 
 

 
Einsteins Feldgleichung

erklärt und kommentiert durch Helmut Satz



Helmut Satz (2016):
 
Die ursprünglich von Einstein aufgestellten Gleichungen lauteten
 
 
Rμν  –  (1/2) R gμν  =  c-4 8πG Tμν  ,

 
wobei G die Newtonsche Gravitationskonstante und c die Lichtgeschwindigkeit bezeichnet.
 
Die Indizes μ und ν geben Zeit und Raum an und durchlaufen somit die Werte 0 (Zeit) und 1,2,3 (Raum).
 
Der sog. metrische Tensor gμν definiert die Raumzeit ohne Gravitation, d.h. den flachen Minkowski-Raum. R ist ein Skalenfaktor (sog. Ricci-Krümmungsskalar).
 
Der sog. Energie-Impuls-Tensor Tμν beschreibt den Rauminhalt. d.h. die Energiedichte ρ im Raum sowie den daraus resultierenden Druck p.
 
Der sog. (Ricci-) Krümmungs-Tensor Rμν schließlich beschreibt die durch den Rauminhalt erzeugte Krümmung von Raum und Zeit.
 
Alle Tensoren der Gleichung sind symmetrisch (so dass man statt 16 nur 10 Gleichungen hat).
 
 
Eine Aussage dieser Gleichungen ist, dass sich die Größe des Weltraums aufgrund seines Inhalts verändern kann.
Das Maß dieser Änderung ist der schon erwähnte Skalenfaktor R = a(t) — er skaliert die Abstände im Raum und somit die Raumgröße.
 
Für ihn ergeben sich aus Einsteins Gleichung zwei Beziehungen, die als erster 1922 der russische Physiker Alexander Friedmann hergeleitet hat. Die erste
 
 
H2  =  (( da/dt )/a )2  =  ( 8πG/3 )ρ – k/a2  ,

 
bestimmt die Geschwindigkeit v = da/dt, mit der sich die Skala verändert ( H ist somit das, was man heute den sog. Hubble-Parameter nennt).
 
ρ ist die Energiedichte im Raum, und
 
k spezifiziert die Raumstruktur: Für flachen Raum ist k = 0, für sphärischen k = 1 unf für hyperbolischen k = –1.
 
 
Friedmanns zweite Gleichung bestimmt die Veränderung der Skalengeschwindigkeit (da/dt)dt = a'' = v' und sagt:
 
 
a''/a  =  –( 4/3 )πG ( ρ + 3p )  ,

 
Dieser zweite von Friedmann abgeleitete Zusammenhang zeigt, dass Einsteins Wunsch nach einem statischen Universum durch seine Gleichungen in ihrer Urform (s.o.) nicht erfüllbar ist, denn selbst wenn man bei sphärischer Krümmung des Raumes (k = 1) Friedmanns zweite Gleichung zu irgend einem Zeitpunkt da/dt = 0 zulassen würde, zeigt die Gleichung, dass sich das rasch wieder ändern muss.
 
Einstein sah nun aber, dass die mathematische Struktur seiner Gleichungen eine Abänderung erlaubt: Man kann der linken Seite einen additiven Term hinzufügen, so dass die Gleichung dann lautet:
 
 
Rμν  –  (1/2) R gμν  +  Λμν  =  c-4 8πG Tμν  ,

 
wo Λ eine universelle, positive, räumlich und zeitlich konstante Größe ist (eine sog. kosmologische Konstante).
 
Sie hat zur Folge, dass sich zur rechten Seite beider Gleichungen von Friedmann die Zahl Λ/3 addiert.
 
 
 
Damit schien Einsteins Wunsch nach einem statischen Universum zunächst erfüllbar: Bei sphärischer Raumkrümmung nämlich (k = 1) gibt es gemeinsame Werte Λ, p und ρ, welche die erste und die zweite Ableitung von a nach der Zeit zu Null machen.
 
Schon bald aber wurde klar, dass jede noch so kleine zeitliche Schwankung der Energiedichte das statische Universum instabil machen würde in dem Sinne, dass der Raum dann sofort zu expandieren oder zu kontrahieren beginnen würde.
 
Hinzu kam Hubbles Entdeckung, des expandierenden Weltalls: Das Universum ist tatsächlich nicht statisch.
 
Einstein soll deswegen die Einführung seiner "kosmologischen" Konstanten als "größte Eselei seines Lebens" bezeichnet haben.
 
Heute denkt man eher, dass seine Konstante vielleicht doch Sinn macht:
 
Mit Λ = 0 nämlich kann man zwar ein expandierendes Universum erhalten, aber nur eines, bei der die Expansionsrate mit der Zeit abnimmt.
Mitte der 1990-er Jahre gesammelte Supernova-Daten zeigen nun aber, dass die Expansionsrate sich mit der Zeit vergrößert statt verkleinert, was ein positives, hinreichend großes Λ erfordert.
 
Erst damit lassen sich die neueren Vorstellungen von Multiversum und Iflation problemlos in den gegebenen Rahmen einfügen.
 
Man schreibt den Λ-Term dann auf die rechte Seite der Gleichung, um zu betonen, dass die Entwicklung der Krümmung des Raumes
     
  • nicht nur durch die von den Objekten im Raum kommende Energiedichte T bestimmt ist,
     
  • sondern eben auch durch ein dem Raum selbst innewohnendes, konstantes Feld Λ der Gravitation entgegen wirkender Energie.

Mit Hilfe der genannten Supernova-Beobachtungsdaten kann man die Größe von Λ dann sogar errechnen.
 
Und so gibt man Einsteins Feldgleichung heute die Form
 
 
Rμν  –  (1/2) R gμν  =  c-4 8πG Tμν  –  Λμν  ,

 
 
Der Energie-Impuls-Tensor T: Quelle des Gravitationsfeldes
 
Der Energie-Impuls-Tensor

 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 181-184


 

 Beitrag 0-220
Einsteins Verhältnis zur Philosophie

 
 

 
Einstein und die Philosophie

 
 
Wert und Problematik der Philosopie — und des Arbeitens der Philosophen — hat meiner Ansicht nach besonders treffend Einstein erkannt:


Einstein zur Philosophie (Zitate):
 
Ist nicht die ganze Philosopie wie in Honig geschrieben? Es schaut wunderbar aus, wenn man es betrachtet, aber wenn man ein zweites Mal hinschaut, ist alles weg.
 
Die Philosophie gleicht einer Mutter, die alle übrigen Wissenschaften geboren und ausgestattet hat. Man darf sie in ihrer Nacktheit und Armut daher nicht geringschätzen, sondern muss hoffen, dass etwas von ihrem Don-Quixote-Ideal auch in ihren Kindern lebendig bleibe, damit sie nicht in Banausentum verkommen.
 
... Oft und gewiss nicht ohne Berechtigung ist gesagt worden, dass der Naturwissenschaftler ein schlechter Philosoph sei. Warum also sollte es nicht auch für den Physiker das Richtigste sein, das Philosophieren den Philosophen zu überlassen?
 
... In einer Zeit, in welcher die Physiker über ein festes, nicht angezweifeltes System von Fundamentalbegriffen zu verfügen glaubten, mag dies wohl so gewesen sein, nicht aber in einer Zeit, in welcher das Fundament der Physik problematisch geworden ist, wie gegenwärtig [1936].
 
In solcher Zeit des durch die Erfahrung erzwungenen Suchens nach einer neuen, solideren Basis kann der Physiker die kritische Betrachtung der Grundlagen nicht einfach der Philosophie überlassen, weil nur er selbst am besten weiß und fühlt, wo ihn der Schuh drückt.
 


Einstein — obgleich stets ein besonders pragmatisch denkender und handelnder Physiker — nahm die Philosophie ernst:
     
  • Schon als 13-jähriger las er Kants Kritk der reinen Vernunft.
     
  • Früh schon befasste er sich eingehend mit den Werken von Ernst Mach und Henri Poincaré.
     
  • Während seiner Zeit in Berlin war Einstein Mitglied eines Philosophenkreises, in dem eifrig diskutiert und gelesen wurde. Noch Jahre später rezipierte er mit Begeisterung Spinoza.
     
  • Auch wies Einstein mehrfach darauf hin, dass Philosophie eingefahrene Vorurteile zu erkennen, wenn nicht sogar zu überwinden hilft.

 
 
Einstein über Wissenschaft und Kunst

 
Auf Bitte eines Zeitschriftenherausgebers zur Modernen Kunst schrieb Einstein:


Einstein (Jan 1921):
 
Wo die Welt aufhört, Schauplatz des persönlichen Hoffens, Wünschens und Wollens zu sein, wo wir uns ihr als freie Geschöpfe bewundernd, fragend, schauend gegenüberstellen, da treten wir ins Reich der Kunst und Wissenschaft ein.
     
  • Wird das Geschaute und Erlebte in der Sprache der Logik nachgebildet, so treiben wir Wissenschaft,
     
  • wird es durch Formen vermittelt, deren Zusammenhänge dem bewussten Denken unzugänglich, doch intuitiv als sinnvoll erkannt sind, so treiben wir Kunst.

Beiden gemeinsam ist die liebevolle Hingabe an das Überpersönliche, Willensferne.
 


 
Quelle: Rüdiger Vaas: Jenseits von Einsteins Universum (2016), S. 411-427.


 

 Beitrag 0-298
Magnetische Monopole — ein immer noch ungeklärtes Rätsel der Physik?

 
 

 
Ladungseigenschaften:
 
Das einzig Unsymmetrische am Elektromagnetismus

 
 
Trotz der so wunderschön symmetrischen Beziehung zwischen elektrischer und magnetischer Wechselwirkung — die James Clark Maxwell 1864 aufgedeckt und mathematisch formuliert hat — gibt es da ein bis heute nicht geklärtes Phänomen:
 
 
Warum treten elektrische Ladungen einzeln auf (als Elektronen und Positronen),
 
magnetische Ladungen aber stets paarweise (als sog. Nord- und Südpol eines Magneten)?

 
 
Und warum haben, wenn ein Stabmagnet auseinander gebrochen wird, beide der so entstehanden Teile jeweils wieder einen Nord- und einen Südpol?. Es gilt dies übrigens bis hinunter zu den einzelnen Atomen.
 
Andererseits ist selbst noch die ganze Erde ein Magnet mit zwei solchen Polen: Ihr Magnetfeld wird erzeugt von ihrem Kern, der i.W. aus einer riesigen rotierenden Kugel aus flüssigem Eisen besteht. Die Detais ihrer Rotationsbewegung bestimmen die Richtung des Feldes und damit die Lage der beiden entgegengesetzt geladenen magnetischen Pole der Erde. Da die magnetischen Pole in ständiger Bewegung sind, stimmen sie nicht exakt überein mit den geogra­phischen Polen der Erde. Tatsächlich haben die magnetischen Pole der Erde ihre Richtung im Verlauf der vergangenen Jahrmilliarden mehrfach vertauscht und könnten es jederzeit wieder tun.
 
Der theoretische Physiker Paul Dirac fand 1931 einen mathematischen Beweis dafür, dass die Existenz magnetischer Monopole mit der Quantenmechanik, d.h. mit unserem heutigen Standardmodell der Elementarteilchen, verträglich ist. Er konnte sogar zeigen, dass — ganz analog zu elektrischen Ladungen — auch alle magnetischen Ladungen stets ganzzahliges Vielfaches einer kleinstmöglichen Ladungsportion sein müssen.
 
Es scheint kein Naturgesetz zu geben, welches die Existenz magnetischer Monopole, d.h. die Existenz von Materieteilchen mit nur  e i n e m  magnetischen Pol, ver­bieten würde. Dennoch ist trotz intensiver Suche bis heute kein einziges solches Objekt gefunden worden. Gibt es sie also wirklich?
 
Selbst wenn es Monopole geben sollte, wären sie offenbar extrem selten — weit seltener als die allgegenwärtigen elektrischen kleinsten Ladungsportionen (die in Gestalt von Elektronen und Positronen existieren).

 

 Beitrag 0-434
Magnetische Monopole — warum es sie geben kann, obgleich wir keine finden

 
 

 
Warum es magnetische Monopole geben kann,

obgleich wir keine finden



John D. Barrow (2011):
 
Die von Alan Guth vorgeschlagene, heute allgemein akzeptierte Inflationstheorie liefert eine naheliegende Erklärung für gleich 3 Phänomene:
     
  • die erstaunliche Isoptropie und Flachheit des beobachtbaren Universums,
     
  • die Nähe seiner Expansionsrate zur kritischen Trennungslinie zwischen ewiger Expansion und späteren Big Crunch,
     
  • und das Fehlen einer gewaltigen Menge von Monopolen.

 
Magnetische Monopole können entstehen, wenn in verschiedene Richtungen weisende magnetische Kräfte in Konflikt geraten. Der Inflationstheorie nach aber war die Region, aus der unser sichtbares Universum entstand — heutiger Durchmesser 3 • 1027 cm — nur etwa 3 • 10-25 cm groß gewesen.
 
Die Wahrscheinlichkeit, dass eine derart kleine Region frei von magnetischen Fehlanpassungen, d.h. frei von Monopolen ist, dürfte groß sein, selbst wenn sich in jedem Kubikzentimer des vor-inflationären Raumes Milliarden solch magnetischer Fehlstellen fanden.
 
 
Das hohe Maß an Glätte, das wir im Universum beobachten, scheint darauf zurückführbar, dass in einem inflationären Raum unser gesamtes sichtbares Universum das aufgeblähte Bild einer winzigen Fluktuation ist, die durch Photonen geglättet wurde, welche die Energieüberschüsse von heißeren hin zu kühleren Regionen transportierten.
 


 
Quelle: John D. Barrow: Das Buch der Universen (2011), S. 212-213

 
 
Historische Notiz: Die Inflationstheorie hat sich durchgesetzt während eines 2-wöchigen Wörkshops, der Juni/Juli 1982 in Cambridge stattfand. Eine erste Zusammenfassung seiner Ergebnisse gaben J.D. Barrow und M.S. Turner: » The inflationary universe. Birth, death and transfiguration « in: Nature 298 (1982), p. 801-805. Dieser Nature-Artikel wurde hand­schriftlich eingereicht und war schon 5 Tage später veröffentlicht.
 
Ausführlicher sind die Ergebnisse jenes Workshops beschrieben in G. Gibbons, S.W. Hawking und S.T.C. Siklos (Hrsg.): The Very Early Universe, Cambridge 1983.


 

 Beitrag 0-36
Wir kennen nun mit größter Wahrscheinlichkeit schon wirklich  a l l e  Fermionen

 
 

 
Was das gefundene Higgs-Teilchen uns bewiesen hat

 
 
Wie berichtet wird, ist über die Eigenschaften des 2012 entdeckten Higgsteilchens nun bewiesen, dass die Wahrscheinlichkeit, dass die Natur über die 12 heute im Standardmodell der Elementarteilchenphysik genannten Fermionen hinaus noch weitere kennt, jetzt kleiner als 10-7 ist.
 
Anders gesagt:
    Wir scheinen nun wirklich  a l l e  Fermionen zu kennen.
     
    Zudem dürfen wir nun auch davon ausgehen, dass das top-Quark (welches 350000-mal schwerer als das Elektron ist) tatsächlich das masse-reichste aller stabilen Elementarteilchen ist.

 
DENN: Das Higgs-Teilchen gibt allen anderen Teilchen ihre Masse. Da im CERN zusätzliche Fermionen bislang nicht gefunden wurden, müss­ten sie schwerer sein als die bisher bekannten. Das aber hätte zur Folge, dass sie auch stärker mit dem Higgs-Teilchen wechselwirken. Diese Wechsel­wirkung wiederum würde die Eigen­schaften des Higgs-Teilchens derart verändern, dass man es mit heute verfügbaren Teilchenbeschleunigern noch  n i c h t  hätte nachweisen können.