Wirtschaft ohne Ethik — Wollen wir das?

   


Zum Begriff physikalischer Objekte

   





D i s k u s s i o n


 Beitrag 0-187
Astronomie in Zahlen

 
 

 
Astronomisches

 
 
Unsere Sonne strahlt und verliert so jede Sekunde 4,24 Mio Tonnen ihrer Masse.
 
Daraus folgt: Sie verliert in 1 Milliarde Jahren etwa 22 Erdmassen. Dies sind jedoch nur 0,007 Prozent ihrer heutigen Masse. [src]

     
    mS = Sonnenmasse = 1,98 • 1030 kg
     
    mE = Erdmasse = 4,24 • 109 kg

 
 
Die am 14.9.2015 erstmals gemessenen Gravitationswellen entstanden vor 1,3 Milliarden Jahren bei Zusammenprall zweier Schwarzer Löcher, deren Masse
29 bzw. 36 Sonnenmassen betrug. Das daraus resultierende größere Schwarze Loch aber war nur 62 Sonnenmassen schwer.
 
Damit gingen im Moment ihrer Ver­einigung (der 0,45 sec währte) etwa 3 Sonnenmassen an Energie in Form entstehender Gravitationswellen verloren.
 
Quellen: SpeWiss, gmx, FFr1, FFr2, seeVideo, MP, MPVideo, genauer, origin, Gassner
 
 

 
 


 

 Beitrag 0-540
Wo auch heute noch selbst manche Physiker falsch argumentieren

 
 

 
In Sachbüchern für Physik

gelegentlich anzutreffende Denkfehler



Falsch ist, dass ...
 
... es eine kleinste Portion von Energie gäbe (und jede andere ganzzahliges Vielfaches davon sei):

 
Im Buch A Big bang in a little Room (Zeya Morali, 2017) liest man auf Seite 32:
    ... the smallest denomination that the energy of tiny particles can take is known as a quantum of energy: A photon can have 1 quantum of energy, or 2 quanta, or 72 quanta, or any other whole-number-multiple ... but not 3/4 of a quantuim, or 42+1/3 quanta of energy, say.

 
Das ist falsch, denn:
    Tatsächlich wahr ist, dass die Energie eines Photons stets gegeben ist als Produkt von Plancks Wirkungsquantum und der Frequenz des Photons. Letztere kann beliebig klein werden, wie z.B. die Tatsache beweist, dass kosmischer Raum — schon seit dem Urknall — expandiert und daher die Wellenlänge der Photonen (z.B. die der kosmischen Hintergrungstrahlung) sich ständig vergrößert.

 
Wie man sieht, verwechselt die Autorin des Buches Energie mit Wirkung: Ein ganz gravierender Fehler, der einer promovierten theoretischen Physikerin, die heute als Wissenschaftjournalist arbeitet, besser nicht unterlaufen sollte.
 
In ihrem Buch besonders aussagekräftig und wohl auch richtig dargestellt sind vor allem Inhalt und Geschichte der Inflationstheorie einschließlich der ewiger Inflation: Dieser Teil des Buches — Kapitel 3, 4 und 5 — ist auf jeden Fall lesenswert. Er berichtet, was die Urheber jener Theorien — Guth, Linde und Vilenkin — der Buchautorin in Interviews selbst mitgeteilt haben.
 
Mehr zum Buch insgesamt sagt Sabine Hossenfelders Rieview.
 
Mein Ratschlag: Wer an Kosmologie als Wissenschaft interessiert ist — statt an wilder, absolut unbegründeter Spekulation ergänzt um geradezu naiv anmutende Hinweise der Autorin auf Gott — lese die Kapitel 3 bis 5 des Buches, aber nichts weiter sonst.
 
|
 
Auf Seite 38 des Buches zeigt sich, dass Morali das wichtigste Experiment der Quantenphysik — das Doppelspaltexperiment — noch nicht richtig verstanden hat, und auch nicht Hugh Everett's Viele-Welten-Theorie. Sie schreibt:
    "According to Everett's speculation, when Suarez set up his double-slit experiment [...], the moment he made a quantum measurement of the path of the photon — to check if it took the left or the right slit — reality fractured, creating two almost identical clone universes. The only difference between the two would be that in one [...] Suarez detected that the photon traveled through the left slit, while at the same instant his parallel self in an alternative version of Zaragoza was recording the outcome that the photon had traveled through the right slit."

Tatsächlich richtig ist: Niemand kann beobachten, dass das Photon durch nur einen Spalt kommt: Es kommt IMMER durch beide.
 
Genauer: Beim Versuch, Pfadinformation zu erhalten, muss man hinter die Spalten Polarisationsfilter setzen, welche ankommendendes Licht spaltenspezifisch senkrecht zu einander polarisieren: Wie man feststellt, verschwindet dann die Interferenz (einfach deswegen, da senkrecht zu einander polarisiertes Licht nicht interferieren kann). Leider scheint das bisher auch einigen anderen Physikern noch gar nicht so richtig klar zu sein. Sie stellen dann das Verschwinden der Interferenz beim Versuch, Pfadinformation zu erhalten, als großes Geheimnis hin: als etwas Unerklärbares, das mit beitrage zur angeblichen "Unverständlichkeit" des Quantenverhaltens.
 
Schlimmer noch: Der Physiker David Deutsch argumentiert in seinem Buch The Fabric of Reality (1997) allen Ernstes, dass das Doppelspaltexperiment die Existenz der "vielen Welten" im Sinne von Hugh Everett III beweise. Er denkt wirklich — wie Morali ja auch —, sie alle würden in gleich konkreter Weise existieren. Tatsächlich aber existieren sie nur als logische Gebilde im Konfigurationsraum aller Möglichkeiten, über deren Eintreten oder Nicht-Eintreten die Zukunft entscheiden wird.
 




Falsch ist, dass ...:
 
... es unter unendlich viele Paralleluniversionen mindestens zwei mit genau gleichem Inhalt geben muss,
 
oder ein Affe, wenn er nur hinreichend lange tippen könnte, mit Sicherheit irgendwann Shakespears gesammelte Werke reproduziert haben würde.

 
Beides wird von zahlreichen Sachbuchautoren — gelegentlich auch von Professoren der Physik, u.A. von Alexander Vilenkin — so behauptet. Genauer:
 
Einige Kosmologen — und z.B. auch zahlreiche populärwissenschaftliche Darstellungen der Multiversentheorie — stellen es als selbstverständlich hin, dass alles, was möglich ist, in irgend einem (sog. Parallel-) Universum auch tatsächlich vorkomme. Die Wahrscheinlichkeitstheorie, so schreiben sie, würde es beweisen, wenn man davon ausgehe, dass es unendlich viele Universen gäbe.
 
Aber tut sie das wirklich? Ganz offensichtlich nicht, denn:

    Wer sich eine Menge von N gleich wahrscheinlichen Teilchenkonfigurationen vorstellt, wird zu Recht behaupten können, die Wahrscheinlichkeit dafür, dass eine ganz bestimmte davon wirklich auftritt, sei 1/N (also positiv). Wenn nun aber N gegen unendlich strebt, strebt 1/N gegen Null. Betrachtet man also eine unendlich große Menge möglicher Zustände eines Universums, kann nicht mehr be­hauptet werden, die Wahrscheinlichkeit dafür, dass ein ganz bestimmter davon wirklich eintreten werde, sei positiv. Ebenso wenig kann behauptet werden sie sei Null. Sie ist also undefiniert, und somit kann man weder sicher sein, dass sich der fragliche Zustand ergibt, noch kann man sicher sein, dass er sich nicht ergibt.
     
     
    Man erkennt: Nicht jede Argumentation, die im Falle nur endlich vieler Alternativen schlüssig wäre, kann auch noch angewandt werden, wo es sich um mehr als nur endlich viele Alternativen handelt.

 



 

  Beitrag 1985-353
Erst die nachvollziehbare Begründung einer Meinung macht die Meinung wertvoll

 
 
Henry in 1985-352:
 
Meine Ansichten sind (jedenfalls meistens, ...) ganz gut mit Hintergrundwissen abgesichert.
 


Was Du da sagt, Henry, bezweifle ich ja gar nicht.

Das Problem ist nur: Wenn Du mir nur deine Meinung mitteilst — ohne mir zu sagen, wie sie sich begründet oder woher Du sie hast — nimmst Du mir, wenn sie nicht mit meiner übereinstimmen sollte, jede Möglichkeit, zu prüfen, wer von uns beiden denn jetzt recht haben könnte bzw. wo  m e i n  Denkfehler liegen könnte. Kurz:


Die nachvollziehbare Begründung einer Meinung ist mehr wert als nur die Meinung selbst.



 

 Beitrag 0-200
Batterien mit nahezu unbegrenzter Lebensdauer

 
 

 
Interessante Forschungsergebnisse

 


 

 Beitrag 0-365
Wie sich unser Weltbild entwickelt hat

 
 

 
Geschichte des heliozentrischen Weltbildes

 
 
Als erster vertreten hat es Aristarch von Samos (310-230 v. Chr.), ein griechischer Astronom und Mathematiker.
 
Er hatte aus der Messung des Entfernungsverhältnisses (Erde - Mond) zu (Erde - Sonne) die Einsicht gewonnen, dass die Sonne weit größer sein müsse als der Mond. Hieraus entwickelte er die Vorstellung, dass nicht die Erde, sondern die Sonne das Zentrum der Welt sein müsse.
 
Andere Mathematiker — so z.B. die Pythagoräer, Erastostenes von Kyrene oder Appolonius von Perge — kamen zur selben Ansicht. Sie führten sogar konkrete Rech­nungen durch, die später Ptolemäus (etwa 100 n.Chr.) aber nicht nur ignorierte, sondern sogar explizit abgelehnt hat.
 
 
Erst im Spätmittelalter waren die nicht mehr übersehbaren Unzulänglichkeiten der Positionsbestimmungen nach Ptolemäus Auslöser für ein neues Weltbild:
     
  • Alfons von Kastilien beauftragte 1250 ein ganzes Konsortium von Gelehrten mit einer Reform des Weltsystems. Sie sollten dessen » Schönheitsfehler « beseitigen und und genauere astronomische Tabellen erstellen. Zunächst war dieses Bemühen erfolglos.
     
  • Doch selbst als sehr viel später (1543) das berühmte Buch De revolutionibus orboim coelestium von Nikolaus Kopernikus erschienen war mit der Idee, die Sonne ins Zentrum der Welt zu stellen, war solch neues Denken noch keineswegs Bestandteil der Wissenschaft.
     
  • Erst 8 Jahre nachdem Kopernikus verstorben war, kamen neue Berechnungstafeln für die Position der Himmelskörper heraus: Reinholds prutenische Tafeln sollten die als zu ungenau erkannten Alfonsischen ablösen, erwiesen sich aber schon bald als als auch nicht viel besser. Heute kennt man den Grund dafür: Kopernikus ging — in Ermangelung besseren Wissens — von kreisförmigen Planetenbahnen aus, was zur Folge hatte, dass es wieder einer Reihe von Epizyklen bedurfte.

 
Interessant auch:
     
  • Selbst Martin Luther (1483 - 1546) hat das heliozentrische Weltbild noch abgelehnt. Er nahm eine Bibelstelle aus dem Alten Testament allzu wörtlich. Es dämmerte da ein ernster, selbst heute noch nicht voll ausgestandener Konflikt herauf: Der Widerspruch zwischen wörtlich ausgelegten Bibelstellen und wissen­schaftlicher Erkenntnis.


 

 Beitrag 0-379
Über die Geburtswehen der Neuzeit

 
 

 
Über die Geburtswehen der Neuzeit

 
 
Galileo Galilei (1564-1642) war der erste, der den von der katholischen Kirche tradierten Offenbarungsbegriff als zu eng erkannt hat und dem klar wurde, dass die Heilige Schrift kein Naturkundebuch sein möchte. Er schrieb:
    » Ich bin geneigt zu glauben, die Autorität der Hl. Schrift habe den Zweck, die Menschen von jenen Wahrheiten zu überzeugen, welche für ihr Seelenheil notwendig sind und ... durch keine Wissenschaft noch irgend ein anderes Mittel als eben durch Offenbarung des Hl. Geistes sich Glaubwürdigkeit verschaffen können.
     
    Dass aber derselbe Gott, der uns mit Sinnen, Verstand und Urteilsvermögen ausgestattet hat, uns deren Anwendung nicht erlauben ... will, das bin ich, scheint mir, nicht verpflichtet zu glauben. «

Bibel und Wissenschaft — auch das hat er betont — können sich nicht widersprechen, da es ja nur eine Wahrheit geben kann.
    » Weil zwei Wahrheiten sich offenbar niemals widersprechen können, ist es die Aufgabe der weisen Ausleger der Hl. Schrift, sich zu bemühen, den wahren Sinn der Aussprüche ... herauszufinden. «

Als gehorsamer Diener seiner Kirche bekannte sich Galilei zu einer Frömmigkeit auch jenseits aller Kirchlichkeit, die ihm sagte, dass die Natur als Schöpfung Gottes gleichfalls Offenbarung sei.
 
So wie es Aufgabe der Theologie sei, die in den Heiligen Schriften verborgene Wahrheit der Gottheit zu entziffern, zu lesen und zu verstehen, so fühlte er als Natur­forscher die Verpflichtung, im offenen Buch des Himmels lesen zu lernen, um so noch tiefer in die eine erhabene Wahrheit unseres Daseins einzudringen.
 
Das Schicksal seines Vorgängers Bruno Giordano — den man öffentlich verbrannt hatte — vor Augen, beschloss er, dem Druck der Inquisition nachgebend, zu widerrufen. Im anschließenden lebenslangen Hausarrest aber hat er heimlich für eine Verbreitung seiner wissenschaftlichen Erkenntnisse gesorgt.
 
Dass die katholische Kirche — damals vom norddeutschen Protestantismus schon fast 100 Jahre lang in die Enge getrieben — seinen vielversprechenden Weg doppelter Offenbarung nicht als Chance erkannt, sondern in hochmütiger Verblendung brutal niedergetreten hat, hat die Durchsetzung seiner Ideen nur verzögert.
 
Sie wurden weiter befördert durch Johannes Kepler (1571-1630), der im fernen Prag lehrte und als Protestant die Inquistion der katholischen Kirche nicht fürchten musste. So klar wie Galilei allerdings hat er die Gleichwertigkeit des Buches der Offenbarung und des Buches der Natur nicht betont.
 
 
Fatalerweise hatte die Kirche durch ihre krankhafte Angst vor einer von biblischen » Wahrheiten « zu sehr abweichenden naturwissenschaftlichen Forschung den Weg geebnet zu einem Weltverständnis, in dem Materie und Geist von nun als als strikt von einander getrennt gelten:

 
 
Rene Descartes (1596 - 1650) war zwar überzeugt von der Existenz eines Gottes und der Unsterblichkeit der menschlichen Seele, lehne jedoch Religion — gleich welcher Art — völlig ab. Mit seinen radikalen Lehren wagte er wichtige Werke nur noch anonym zu veröffentlichen. Er zog öfters um, hielt seine Adresse geheim und korrespondierte mit anderen Gelehrten nur auf dem Umweg über einen Freund, der als einziger seine Adresse kannte.
 
Bekannt sind Descartes Ausspruch » Cogito, ergo sum « — » Ich denke, also bin ich « und seine Überzeugung, dass der Mensch aus zwei Substanzen bestehe:
  • der res extensa, d,h. der Materie, die räumliche Ausdehnung hat,
  • sowie der res cogitans, dem denkenden Geist, zu dem auch die Seele gehört.
Nach seiner Überzeugung kann die Seele auf den Körper einwirken ebenso wie der Körper auf die Seele.
 
 
Das also waren die Konsequenzen von Denkverboten ...
 
... sehr zum Schaden auch der Kirche selbst, denn: Von nun an ging die Naturwissenschaft ihren völlig eigenen Weg, ohne die auf ihrem ewig gestrigen Weltbild sitzen gebliebenen und in ihrer gefährlichen Macht zunehmend geschwächten Religionshüter weiter zu beachten.
 
Leider hat sich dadurch die von Galileo propagierte eine Wahrheit, die ganzheitliche, aufgespalten in zwei von einander getrennte Wahrheiten: die der Naturwissenschaft und die der Geisteswissenschaft. An diesem fatalen Schisma leiden wir heute noch.
 
Erst die Quantenphysik scheint nun auf einen Mauerfall hin zu zielen und könnte langfristig zu einer » Wiedervereinigung « zwischen Leib und Seele, Materie und Geist führen, so dass dann endlich auch die Schranken fallen, die bisher verhindern, dass ihr — doch ganz ohne Zweifel gegebenes, für uns sehr wichtiges — Zusammenwirken vorurteilslos untersucht wird.

 
 
Was im Mittelalter die panische Angst der Kirche vor dem selbstständigen Denken einiger Wissenschaftler war,
 
ist heute die blinde Intoleranz von Leuten wie Richard Dawkins,
 
die jeden der Esoterik verdächtigen,
 
der es wagt, auch nur leise Zweifel anzumelden am heute vorherrschenden, rein materialistischen Weltbild.


 

 Beitrag 0-505
Wenn Kinder Smartphones zu früh und zu intensiv nutzen

 
 

 
Wenn Kinder Smartphones zu früh und zu intensiv nutzen

 
 
Man lese, was Neurologen feststellen:
 
 
Online-Spiele-Sucht:
 
2020 liegt der tägliche Medienkonsum bei sechs Stunden

 
Stand Mitte 2020: » Der Medienkonsum nimmt bei Kindern und Jugendlichen von Jahr zu Jahr zu. Schon vor der Corona-Krise waren die 14- bis 19-Jährigen nach aktuellen Untersuchungen fast sechs Stunden täglich online.
 
Bei Jugendlichen, die Symptome einer Mediensucht zeigen, ist die Nutzungszeit noch erheblich höher. Und während der Corona-Pandemie ist der Konsum weiter gestiegen. Etwa 700.000 Kinder und Jugendliche nutzen Computerspiele riskant oder pathologisch. In der Zeit des Corona-Lockdowns war bei den 10- bis 17-Jährigen wochentags eine Steigerung der Gamingzeiten um 75 Prozent zu verzeichnen. «
 
Zu diesem Ergebnis kommt eine Untersuchung der Krankenkasse DAK zusammen mit Suchtexperten des Universitätsklinikums Hamburg-Eppendorf (UKE).
 
Wer jetzt denkt, all das sei nur der Corona-Krise wegen so, der unterschätzt den Ernst der Entwicklung, denn:
     
  • Experten haben schon auf Basis einer Erhebung im September 2019 die Gaming-Gewohnheiten von einer halben Million Jugendlicher als » riskant « eingestuft.
     
  • Die Zahlen für den Konsum sozialer Medien lagen nur leicht darunter.
     
  • Bei rund 3 Prozent der 10- bis 17-Jährigen (rund 150 000 Schülern) stieß man auf "pathologische Nutzung".


 

 Beitrag 0-357
Data Mining — der Menschen erster Schritt ins Zeitalter Künstlicher Intelligenz (KI)

 
 

 
Data Mining Algorithms: Ihr Wert und Siegeszug

 
 
Wer heute über KI — sog. künstliche Intelligenz — spricht, meint damit immer häufiger einfach nur die sich besonders schnell etablierenden Data Mining Software.
 
Insbesondere Amazon hat schon sehr früh erkannt, welch enorm großen Wert Wissen darstellt, welches sich nahezu mühelos nicht nur von Endkunden, sondern auch von Geschäftspartnern abgreifen lässt. Nicht zuletzt deswegen, so wird berichtet, zwinge Amazon alle Händler, welche die die Implemntierung ihres Online Shops Amazon überlassen, zur Offenlegung sämtlicher von ihnen an Warenlieferanten bezahlten Rechnungen — eben mit dem Hintergedanken, schnell zu lernen, welche Marksegmente Amazon besser selbst direkt bedienen sollte und welche Lieferanten dabei am nützlichsten sein könnten.
 
Kurz:
 
 
Möglichst umfassender Einsatz von Data Mining Software
 
— kombiniert mit dem Sammeln aller nur denkbaren Information über Mitarbeiter, Geschäftspartner und mögliche Kunden —
 
macht Optimierungspotential sichtbar,
 
von dem Unternehmen noch bis kurz vor der Jahrtausendwende nicht zu träumen wagten.

 
 
Das Information reines Gold darstellen kann, wurde erst klar, nachdem Firmen wie Google, Facebook und Amazon uns vorexerziert hatten, wie man Daten nutzt (sie in wirklich großem Stil zu sammeln ist eine noch andere Kunst).
 
 
Nicht wirklich demokratisch regierte Staaten — Russland etwa, aber noch in weit größerem Maße China — haben das längst auch erkannt. Sie investieren in diese Technolgie bewusst und sehr zielgerichtet wahrscheinlich mindestens so große Summen wie Google, Facebook und Amazon zusammen.
 
Schon in naher Zukunft wird jedem offensichtlich werden:
 
 
 
Macht über andere
 
— in wirtschaftlicher wie politischer Hinsicht —
 
werden in ganz ungeahntem Ausmaß die haben, welche über die umfangreichsten Datensammlungen verfügen.

 
 
 
Heute (2018) ist die Zeit gekommen, in der große — vereinzelt aber auch schon mittelständische Unternehmen — mehr und mehr den Wunsch haben — ja die Notwendigkeit sehen — im Kleinen nachzuahmen, was die großen Datensammler dieser Welt uns in schier unglaublicher Dimensionen schon einige Zeit vormachen.
 
Hierzu benötigen sie Unternehmensberater mit ganz neuen Fähigkeiten. Es muss jetzt nämlich zunehmend dringender die Frage beantwortet werden: Wie kann auch unser Unternehmen lernen, mit Information so umzugehen, wie z.B. Amazon das jetzt schon kann?
 
 
    Bericht der FAZ vom 24./25.2.2018, Seite C1:
     
    Während früher die Hälfte aller McKinsey-Berater Wirtschaftswissenschaftler waren, wächst nun der Anteil der Datenanalytiker und Programmierer (so sagt einer von ihnen, der selbst Mathematiker ist).
     
    Der Deutschlandchef der Boston Consulting Group, Karsten Kratz, ergänzt, dass sein Haus heute keine Beraterteams mehr zu Kunden schicke, die nicht auch Datenspezialisten umfassen.
     
    Und so manch älterer Unternehmensberater beginnt zu fürchten, dass KI früher oder später auch ihn selbst — als Berater — ersetzen könnte.
     
    Und tatsächlich: Eine Studie der Beratungsgesellschaft PWC kommt zur Meinung, dass bereits heute etwa 20% der typischen Wertschöpfung der Unternehmensberater durch KI generierbar seien. Dieses Berufsbild also wird sich deutlich wandeln müssen.
     
    Viel schlimmer noch sieht es für andere Berufe aus: Carl Bendedikt Frey und Michael Osborne (Forscher an der Oxford University) kamen schon 2013 zum Schluß, dass fast die Hälfte aller Amerikaner in Berufen arbeite, von denen abzusehen sei, dass sie im Zuge der Digitalisierung bis etwa 2030 nahezu komplett ver­schwunden sein werden.
     
    Wie sich die entsprechende Situation in Deutschland darstellt, zeigt ein Bericht an die Bundesregierung aus 2015.

 
Lies auch: Auf welche Entwicklung die deutsche Bundesregierung sich in Sachen Digitalisierung einzustellen versucht und was sie als wichtige Eckpunkte der gegenwärtigen Situation erkannt zu haben glaubt. Dass chinesische Spitzenfunktionäre derart halbherzige Bemühungen und Einsichten der Europäer als Chinas große Chance bereifen, ist verständlich, scheint aber nur wenigen in seiner ganzen politischen Dimension klar zu sein: Wir reiben uns erstaunt die Augen, sorgen uns um ein bisschen mehr Gewinn und vergessen dabei ganz, dass wir vielleicht besser das Fürchten lernen sollten.
 
Sogar beim Ausbau absolut notwendiger Infrastruktur — dem schnellen Internet — soll Deutschland in Europa nur auf Platz 15 liegen. Schlimmer noch ...
 
 


 

 Beitrag 0-173
Zu naive Nutzung der Möglichkeiten des Internets gefährdet unsere Gesellschaft

 
 

 
Das Internet in Kombination mit der Unkontrollierbarkeit einiger seiner Pioniere

ist auf dem besten Weg

hin zu lückenloser Überwachung und Ausbeutung fast aller

 
 
Eines sollte uns allen völlig klar sein:
 
Je mehr wir übers Internet vernetzte Software nutzen — vor allem auch in Geräten, die wir ständig mit uns tragen — desto mehr geben wir den derzeit weltweit mächtigsten Unternehmen auch Gelegenheit, uns und andere auszuspionieren:
 
Das fängt an beim Herzschrittmacher und endet mit modernen Autos — oder mit Brillen wie Google Glass oder mit Fernsehgeräten, die protokollieren, welchen Teil welcher Sendungen wir uns wann angesehen haben — mit Maschinen also,
     
  • die uns vordergründig zwar dienen,
     
  • die uns aber in ganz unglaublich hohem Maße auch höchst effektiv ausspionieren, indem sie Daten über uns und unser Verhalten sammeln.

So unkontrolliert, wie diese Daten heute vermarktbar sind, erreichen sie letzlich jeden, den sie interessieren, kurz: jeden, der uns in irgend einer Weise — wie offen oder versteckt auch immer — zu beeinflussen oder auszunutzen sucht: Werbeagenturen, Versicherungen, Spionage-Organisationen, Terroristen ...
 
 
Kombiniert mit der Free-Sharing-Kultur und unserem eigenen Drang, mit anderen frei zu kommunizieren — z.B. Bilder von uns und unserer Umgebung unüberlegt ins Netz zu stellen — machen wir selbst das Internet zu einen Mechanismus, der mehr und mehr Potential ansammelt, unsere ganze Gesellschaft so umkrempeln zu können, dass dann nur noch ganz wenige von uns Macht über das eigene Schicksal haben werden.
 
Wie sich diese Gefahr — bisher von nur wenigen wirklich wahrgenommen — konkretisiert und schnell vergrößert, wird anhand von Beispielen und seit 1995 schon eingetretenen gesellschaftlichen Entwicklungen dargestellt im überaus lesenswerten Buch
 
 
Andrew Keen: Das digitale Debakel — warum das Internet gescheitert ist und wie wir es retten können (2015)
 
Die Originalausgabe erschien 2015 unter dem Titel The Internet is Not the Answer (Atlantic Books Ltd., London)

 
 
Keen will aufrütteln. Er fordert seine Zuhörer auf, endlich darüber nachzudenken, in was für einer Gesellschaft wir leben wollen.
 
Keen erklärt uns, was es heißt, wenn wir bei Amazon ein Buch bestellen oder Uber nutzen statt ein klassisches Taxi. Er behauptet nicht, dass das Internet "böse" sei, will uns aber klar machen, dass es Entwicklungen zulässt, die uns zum Verhängnis werden müssen, wenn wir nicht versuchen, die Technologie zu kontrollieren (oder wenn solche Kontrolle noch lange auf sich warten lässt, da zu viele von uns noch nicht verstehen, wie gefährlich das Netz seiner bislang  u n k o n t r o l l i e r t e n Entwicklung wegen  schon geworden ist — und so auch gesellschaftlichen Schaden verursacht.
 
Keen sucht uns anhand recht überzeugender Beispiele klar zu machen, dass die Naivität, in der die meisten von uns heute die Möglichkeiten des Internets nutzen, für den Großteil der Gesellschaft äußerst gefährlich zu werden droht, auf jeden Fall aber zu Machtlosigkeit und Verelendung vieler führen muss.

 

 Beitrag 0-258
Zu wenig Ausbildung macht arbeitslos — und das immer schneller

 
 

 
Automatisierung durch Roboter
 
beseitigt mehr und mehr Arbeitsplätze in Entwicklungsländern

 
 
While outsourcing used to be the most financially sensible choice for companies operating in countries with no labor cost advantage, that role has been taken over by automation. Companies like Nike have closed some of their factories in China in favor of automation, and they subsequently saw their profits rise (for Nike, by 16 percent during its 2013 fiscal year).
 
This doesn’t bode well for low-skilled workers who depend on these jobs to live.
 
 
Sources:

 

 Beitrag 0-344
Gut oder schlecht? — Warum es vielleicht doch auch extrem Reiche geben muss.

 
 

 
Muss Geld vielleicht wirklich extrem ungleich verteilt sein?

 
 
In der Süddeutschen Zeitung (SZ vom 24.1.2018, S. 15) wird berichtet, dass  45 Reiche die Hälfte des Vermögens aller Deutschen besitzen .
 
Auf den ersten Blick klingt das nach einer großen Ungerechtigkeit, da all dieses Geld ja letztlich nur deshalb erwirtschaftet werden konnte, weil es über jene 45 extrem reichen Personen hinaus auch noch 80 Millionen anderer gibt.
 
 
Zu bedenken ist aber auch:
 
Die Verteilung des Vermögens jener 45 auf alle würde jeden von uns kaum reicher machen.
 
Wäre das gesamte Vermögen aller Deutschen aber absolut gleichmäßig auf alle verteilt, käme es wahrscheinlich zu gar keinen Großinvestitionen mehr: Die demokra­tischen Prozesse, die dann notwendig wären, entsprechend viel Geld für ein bestimmtes Projekt zusammem zu bekommen, würden einen Großteil der Mittel, um die es geht, auffressen — d.h. vernichten.
 
Wie die Beispiele Elon Musk — oder auch Bill Gates — zeigen, würde sich für so manches, was heute durch Großkapitalisten einfach in die Wege zu leiten ist — weil i.W. nur sie entscheiden —, wohl gar keine Mehrheit finden. Es würde also nie verwirklicht werden.
 
Welcher Ägypter hätte, wenn vor 4000 Jahren alle Macht und alle Mittel gleich verteilt gewesen wären, eine Pyramide bauen können, die wir heute als Kulturerbe einstufen?
 
 
Und nicht zuletzt: Wer Geld ausgibt — insbesondere sehr viel Geld — schafft natürlich auch Arbeitsplätze, von denen andere leben können. Man könnte also fragen: Ist jedes Anhäufen großer Vermögen nicht letztlich doch nur zeitlich verzögertes Verteilen von Wohlstand?

 

 Beitrag 0-430
Ethische Grundsätze im Wandel der Zeit

 
 

 
Ethische Grundsätze im Wandel der Zeiten

 
 
Max Tegmark macht sich in seinem Buch Leben 3.0 — Mensch sein im Zeitalter Künstlicher Intelligenz (2017) Gedanken darüber, dass die Geschichte ethische Grundsätze zwei ganz unterschiedlicher Kategorien kennt:


Tegmark schrieb:
 
Noch Kant behauptete, er könne aus sog. "ersten Prinzipien" Schlüsse ziehen, mit denen man heute eher nicht einverstanden ist — dass nämlich
     
  • Masturbation schlimmer sei als Selbstmord,
     
  • Homosexualität verabscheuenswürdig,
     
  • das Töten unehelicher Kinder in Ordnung gehe
     
  • und dass Ehefrauen, Bedienstete und Kinder, ähnlich wie Objekte, Eigentum seien.

 
Wenn wir in die Zukunft schauen, in der das Leben potentiell im ganzen Kosmos und über Jahrmilliarden hinweg gedeihen könnte — vielleicht auch künstlich erzeugtes Leben (sich ihrer selbst bewusste KI etwa) — dann stellt sich die Frage, auf welches Minimum ethischer Prinzipien man sich dazu einigen könnte.
 
An diesem Gespräch sollten wir uns alle beteiligen.
 
Ich fand es faszinierend, die ethischen Ansichten vieler Denker über viele Jahre hinweg hörend und lesend zu verfolgen, und so, wie ich es sehe, lassen sich die Punkte, denen sie [ heute ] den Vorzug geben, in 4 Prinzipien zusammenfassen:
     
  • Utilitarismus: Positive, bewusste Erfahrungen — für Menschen, Tiere und künstliche Intelligenzen — sollten maximiert, Leid aber minimiert werden.
     
  • Vielfalt: Eine abwechslungsreiche Vielfalt positiver Erfahrungen ist besser als viele Wiederholungen genau gleicher Erfahrungen, selbst wenn letztere sich als diejenigen erwiesen haben, die positiver nicht sein könnten.
     
  • Autonomie: Bewusste Wesen und Gesellschaften sollten die Freiheit haben, ihre eigenen Ziele zu verfolgen, sofern diese nicht mit einem übergeordneten Prinzip in Konflikt geraten.
     
  • Vermächtnis: Vereinbarkeit mit Szenarien, die die meisten Menschen heute als glücklich erachten würden, und Unverträglichkeit mit Szenarien, die so gut wie alle Menschen heute als furchtbar einstufen würden.

 
Was das Gute betrifft, so trifft man in den meisten Kulturen auf die sog. goldene Regel » Man sollte andere behandeln, wie man selbst wünscht, von anderen behandelt zu werden «.
 
Eine andere Regel, die in zahlreichen Jahrhunderten hoch gehalten wurde, war die Betonung auf das Schöne, Gute und Wahre, auf die man bei Bhagavad Gita ebenso wie bei Platon und Sokrates trifft, aber auch im Motto heute noch renommierter Institute: Das Institute for Advanced Study in Princeton etwa hat zum Motto Wahrheit und Schönheit, während die Harvard University immerhin noch auf Veritas (= Wahrheit) setzt.
 


 
Das Prinzip Don't be evil wird wenigstens noch in Google's corporate code of conduct explizit erwähnt, auch wenn andere Unternehmen — Großbanken etwa — weit davon entfernt scheinen, sich solches Ziel zu setzen.

 

 Beitrag 0-458
Wenn Arbeitgeber über Leichen gehen

 
 

 
Wollen wir eine Welt, in der nur noch Profit zählt?

 
 
Lies z.B.

 Beitrag 0-493
Wie politisch darf Kirche sein?

 
 

 
Kirche und Politik

allgemeiner:

Zum Unterschied zwischen ehrlicher und verhängnisvoller Politik

 
 
Gerne wird über die Frage gestritten, in welchem Ausmaß Kirche — oder ob sie denn überhaupt — sich in die Politik einmischen dürfe.
 
Dabei ist die Antwort doch ganz einfach:
 
Wer als Vertreter einer Organisation zu einer politischen Frage Stellung bezieht, darf das dann und nur dann tun, wenn die Frage Interessen oder moralische Grundsätze der durch ihn vertretenen Organisation betrifft.
     
  • Wenn z.B. ein Kirchenvertreter im Namen seiner Kirche sich zum Tempolimit auf Autobahhnen äußern würde, wäre das mehr als nur unangebracht.
     
  • Ebenso schlimm aber ist, wenn er sich zu humantären Fragen, die kontrovers diskutiert werden, NICHT äußert (wenn also z.B. führende Vertreter der christlichen Kirchen ungerechte, unmenschliche Behandlung von Flüchtlingen stillschweigend hinnehmen).

Richtig gehandelt haben Kirchenvertreter,
     
  • als sie Einspruch erhoben gegen einen Gesetzesentwurf von Bundesminister Spahn, nach dem es erlaubt worden wäre, Hirntoten Organe zu entnehmen, obgleich das doch nur möglich ist, wenn man — anders als bei palliativer Sterbebegleitung — die Körperfunktionen zwecks Organentnahme auf jeden Fall aufrecht erhält.
     
    In diesem Fall argumentierten die Kirchenvertreter sachkundig und theologisch, so dass heute jedem gestattet ist, in Ruhe zu sterben (statt angehängt an medizinische Apparate).

Inkompetente, Vertrauen der Wähler mißbrauchende Politik liegt z.B. dort vor, wo Politiker Lobbyisten blind vertrauen und sie — was heute nicht selten ist — sogar Gesetzesentwürfe (!) mit formulieren lassen.
 
Undemokratische — und daher verdammenswerte — Einflussnahme von Kirchenvertretern, z.B. islamischer Imame — liegt dort vor, wo jungen Menschen die Freiheit genommen wird, sich selbst für einen Glauben zu entscheiden, der ihnen als der am ehesten richtige erscheint. Wo Politiker das zulassen — oder durch entsprechende Schulpolitik sogar fördern —, werden sie ihrer Aufgabe, neutral zu agieren und Jugendliche zu schützen, NICHT gerecht.
 
All das aber nimmt man heute noch viel zu wenig ernst.
 
Was Vertreter der christlichen Kirchen betrifft, ist ihnen i.A. leider immer noch vorzuhalten, dass sie sich allzu selten rechtzeitig und entschieden genug äußern:
     
  • einerseits dort, wo ihr Einspruch Menschen helfen könnte (sie z.B. vor dem Ertrinken im Mittelmeer bewahren könnte),
     
  • andererseits aber auch dort, wo durch ihr Schweigen Kollegen vor berechtigter Strafverfolgung geschützt und Geschädigte um ihr Recht gebracht werden.

 
 
Und bedenken wir auch: Fürs gute Gelingen einer Gemeinschaft sind nicht nür ihre Führer zuständig. Was sie an Meinung und Handeln zu bündeln versprachen, muss von jedem einzelnen Mitglied der Gemeinschaft ausgehen. Wo solche Quelle versiegt, kann der Politker ja nur seine eigene Meinung als die aller verkaufen.

 

 Beitrag 0-501
Zu Markus Gabriel — dem derzeit (wie Searle es sieht) "besten deutschen Philosophen"

 
 

 
Über Markus Gabriels vermeintliche Glanzleistung

 
 
Im folgenden sei erklärt, warum ich Markus Gabriels bekannteste These (nach der die Welt nicht existiert) für einen exzellenten Marketing-Trick halte — aber ganz sicher nicht für eine wissenschaftliche Glanzleistung.
 
Die Argumentation, mit der er operiert, ist logisch unhaltbar und schon rein handwerklich von ganz unglaublich schlechter Qualität. Warum sie an Hochschulen unwidersprochen bleibt, ja offenbar sogar mit offenem Munde bestaunt wird, ist mir absolut unerklärlich, denn:

     
    Wenn ein Philosoph behauptet, zeigen zu können, dass es die Welt nicht gibt (wie in [de] und [en] geschehen), so sollte man sich zunächst fragen, welchen Existenzbegriff er zugrundelegt, und wie logisch er in dieser Sache argumentiert.
     
    Was aber, wenn sich dann, wie im vorliegenden Fall im Zuge solcher Prüfung sehr deutlich zeigt, dass dieser Herr – obgleich Inhaber eines Lehrstuhls für Erkenntnistheorie – noch nicht einmal wohldefinierten Existenzbegriff vorzuweisen hat?
     
    Was soll man davon halten, dass einer seiner US-amerikanischer Kollegen (John Searle) ihn trotz solch gravierender handwerklicher Fehler als "Deutschlands derzeit besten Philosophen" einordnet?
     
    Und was erst soll man sich denken, wenn man dann zudem noch feststellt, dass nun schon über ein ganzes Jahrzehnt hinweg unter den zahlreichen Hochschullehrern für Philosophie im deutschsprachigen Raum anscheinend nur ein einziger – der Österreicher Peter Strasser – Gabriels handwerklich völlig unakzeptable Argumentation als das erkannt hat, was sie ist: pseudologisches Geschwätz ("ontologisches Laraifari", wie Strasser es nennt).

 
Kann angesichts solcher Tatsachen die Mehrzahl der Hochschullehrer für Philosophie noch als kompetent angesehen werden – oder ist man nur zu feige, Unsinn zu nennen, was Unsinn ist?
 
In welchem Umfang Sinn macht, was Gabriel an Hochschulen ebenso wie in aller Öffentlichkeit uns als wichtiges Forschungsergebnis zu verkaufen versucht, möge jeder selbst beurteilen anhand seiner Antrittsvorlesung, in der er argumentiert:

     
    Die Welt, als das allumfassende Ganze, ist nicht auflistbar. Daraus, so Gabriel, könne man erkennen, dass sie gar nicht existiert.
     
    Diese These, so verprach Gabriel 2011, werde er zum Kern des Forschungsprogramms an seinem Lehrstuhl machen (!).
     
    Ist es nicht erstaunlich, was Hochschulphilosophie heute mit einem Lehrstuhl für Erkenntnisphilosophie belohnt?
     
    Wen wundert es da noch, dass so mancher, der – z.B. als Naturwissenschaftler – gewohnt ist, logisch zu denken, nicht mehr bereit ist, Philosophie als wertvoll einzustufen? Gabriel versucht zwar noch, Logik dort anzuwenden, wo sie anwendbar ist, merkt aber nicht, dass er sie – rein schon vom Handwerklichen her – deutlich weniger gut beherrscht als Naturwissenschaftler, vor allem auch Mathematiker. Wieso also begibt er sich dann in seiner Vorlesung auf mengentheoretisches Glatteis und rutscht auch prompt darauf aus (ohne es selbst zu merken)?
     
    Details dazu hierzu hier.
     
    Man lese auch: Gebh. Greiter (2020): Neuer Realismus: Ohne jeden Wert, da widersprüchlich

 
Mein Eindruck ist: Gabriel sieht seine Aufgabe darin, Meinungen zu produzieren, mit denen er sich profilieren kann. Ob sie wirklich Sinn machen und hin zu Wahrheit führen, scheint ihm zweit- oder gar drittrangig zu sein. Er weiß, dass man von ihm erwartet, sie zu begründen, seine Begründungen aber sind wenig durchdacht und versuchen, uns gelegentlich für dumm zu verkaufen. Nennenswerte Qualität kann ich darin nur selten erkennen. Er hört sich gerne reden, anderen zuzuhören ist nicht seine Stärke. An mir jedenfalls, redet er vorbei.
 
Kurz: Gabriel ist extrem redegewandt, nutzt diese Fähigkeit aber nicht, um Qualität seiner Argumentation anzustreben. Er will beeindrucken — und das um jeden Preis.
 
Pseudologisches Geschwätz als Forschungsergebnis zu verkaufen, gelingt ihm mühelos. Offenbar, da er es gar nicht mehr als solches erkennt. Seine Kollegen – fast alle jedenfalls – scheint das sprachlos zu machen: Warum ordnen sie sich ihm scheinbar willenlos unter und tun so, als wäre alles vernünftig, was er uns als da so anzudrehen versucht? Dabei könnte es doch wirklich interessant werden, sobald sich jemand dazu aufraffen wollte, seine Herausforderung anzunehmen. Dafür aber scheinen sie sich, Strasser ausgenommen, zu fürchten. Vergessen wir sie!
 
Fazit also: Als Freund sorgfältigen Erwägens und ehrlicher Suche nach Wahrheit, wie z.B. Karl Jaspers es war, wird Gabriel wohl nicht in die Geschichte eingehen. Vielleicht werden auch andere ihn später als das erkennen, was er mir zu sein scheint: so eine Art Boris Johnson gegenwärtiger deutscher Philosophie.
 
Wen es interessiert, der lese auch meine Meinung über die Qualität von Gabriels sog. Neuem Realismus, von dem uns "der derzeit beste deutsche Philosoph" (so Searle) in seinem Buch über die Nichtexistenz der Welt — stolz wie ein Gockel auf dem Mist — sogar noch verkündet, bei welchem Mittagessen er ihn erdacht habe.
 
|
 
Note: Als jemand, der Gabriels so unsagbar stümperhafte Erklärung seiner provokativen These, dass
  • erstens die Welt nicht existiere (alles andere schon)
     
  • und zweitens jeder von uns die Wirklichkeit so erkenne, wie sie tatsächlich ist (und nicht stets subjektiv gefärbt),
nur aus rein argumentationstechnischer Sicht heraus beurteilen kann, ist mir nicht klar, aus welchem Grund er seinen Neuen Realismus inzwischen in Neutralen Realismus umbenannt hat.
 
Ich hoffe aber, wir das als ersten Schritt hin zum Wunsch verstehen dürfen, in Zukunft bessere Argumente dafür zu liefern, warum es die Welt nicht gibt.
 
Bisher nämlich ist Gabriel uns ja immer noch eine klare Definition dafür schuldig, was man unter Existenz denn eigentlich zu verstehen habe. Einfach nur zu sagen, existent zu sein bedeute in einem Sinnfeld aufzutreten und die Welt existiere nicht, da, wer sie aufzulisten versucht, sie dadurch um ständig neue Tatsachen erweitert, überzeugt mich halt so ganz und gar nicht.
 
Da Gabriel behauptet, die Welt als Ganzes sei, da nicht auflistbar, der einzige Gegenstand unseres Denkens, der nicht existiert, könnten Mathematiker ihm vorhalten, dass, wäre seine Argumentation richtig, die Menge aller reellen Zahlen auflistbar sein müsste. Zudem könnte man ihn fragen, wie das denn mit der Menge aller ganzen Zahlen sei: Auch sie kann ja niemand komplett als Liste hinschreiben.
 
Mathematiker aber — so scheint mir — gibt es in Gabriels Welt gar nicht. Er sieht die Welt ja, wie er denkt, wie sie wirklich ist. Es bleibt an uns darüber zu rätseln, was er denn unter der wirklichen Welt versteht. Es ist ganz offensichtlich eine, wie sie sich nur ihm selbst zeigt. Ich jedenfalls mache mir ein anderes, weniger widersprüchliches, eher logisches Bild davon.
 
Neu war Gabriels Realismus — aber nur als beispiellos naive, unzulässige Vereinfachung. Den Namen Neutraler Realismus aber verdient er nicht: Kant würde sich im Grabe umdrehen ob solcher Verdrehung der Wahrheit.
 
Die Welt jedenfalls existiert, denn sie existiert wenigstens als ein Konzept, über das wir nachdenken.

 

 Beitrag 0-508
Warum in Deutschland Unternehmen für kriminelles Handeln nicht bestraft werden können

 
 

 
Wirtschaftskriminalität

Warum in Deutschland kriminelles Handeln juristischer Personen nicht strafbar ist

 
 
Der Grund hierfür wird überaus klar und deutlich beschrieben durch einen Kommentar von Ronen Steinke in der SZ vom 4.9.2020.
 
Er schrieb ihn, da sich die SPD als Teil der Großen Koaltion gegen den Willen einiger durch die Unionsparteien geführten Bundesländer dafür eingesetzt hat, die ent­sprechende Gesetzeslücke zu schließen.
 
In den USA etwa, die ja ganz und gar nicht in Verruf stehen, die Freiheit des Marktes über Gebühr einzuengen, haften (nach einem Unternehmensstrafrecht, das sich dort sehr bewährt hat) auch Konzerne — als juristische Person — für kriminelles Handeln. Es gibt Fälle, in denen dort schon Strafen in Milliardenhöhe ausgesprochen wurden.
 
Nach deutschem Recht können nur Personen, aber nicht juristische Personen, bestraft werden (und natürlich will die Lobby großer Unternehmen diesen Zustand uneingeschränkt erhalten wissen: Er erlaubt ja schließlich, die Schuld ggfs. einfach einigen wenigen Personen zuschieben). Man lese
Gegen den Plan, die Gesetzeslücke zu schließen, haben im September 2020 gemeinsam scharf protestiert: Baden-Württemberg, Bayern, Niedersachsen, Nordrhein-Westfalen, Rheinland-Pfalz und Schleswig-Holstein (alle mehrheitlich durch Unionspolitiker geführt).

 

 Beitrag 0-515
Wie sich Deutschlands Gesellschft wandelt

 
 

 
Wie sich unsere Gesellschaft wandelt



Michael Schmidt-Salomonn (2028):
 
In Deutschland sind wir in den letzten Jahrzehnten Zeugen eines historisch einmaligen Säkularisierungs- und Pluralisierungsprozesses geworden. Die empirischen Daten, die die Forschungsgruppe Weltanschauungen in Deutschland (fowid) vorgelegt hat, sprechen in diesem Zusammenhang eine deutliche Sprache:
 
Von 1870 bis 1970 war Deutschland noch eine weitgehend homogene christliche Gesellschaft, in der über 90 Prozent der Bevölkerung entweder katholisch oder evangelisch waren. Tatsächlich ging der Anteil der Kirchenmitglieder auf dem Gebiet der Bundesrepublik Deutschland innerhalb von 100 Jahren nur um magere 6 Prozent zurück: von 98,6 Prozent in 1871 über 95 Prozent in 1939 und dann 93,6 Prozent in 1970.
 
Danach aber — in den letzten knapp 50 Jahren — sind die weltanschaulichen Verhältnisse gewaltig ins Wanken geraten: Der Anteil der Katholiken und Protestanten ist seither um fast 40 Prozentpunkte geschrumpft — von 93,6 Prozent in 1970 auf 55 Prozent im Jahr 2016. Gleichzeitig hat sich der Bevölkerungsanteil der konfessionsfreien Menschen nahezu verzehnfacht.
 
Nichts ist beständiger als der Wandel.
 
Darwins berühmtes Wort trifft, soweit wir wissen, auf alle Phänomene im Universums zu: für lebende ebenso wie für tote Materie, für den Aufstieg und Untergang biologischer Arten ebenso wie für menschlicher Zivilisationen — und es gilt nicht zuletzt auch für die weltanschauliche Einstellung moderner Gesellschaften.
 
In Deutschland sind wir in den letzten Jahrzehnten Zeugen eines historisch einmaligen Säkularisierungs- und Pluralisierungs-prozesses geworden.
 
Empirische Daten, vorgelegt von der Forschungsgruppe Weltanschauungen in Deutschland (fowid) sprechen in diesem Zusammenhang eine deutliche Sprache: Von 1870 bis 1970 war Deutschland noch eine weitgehend homogene christliche Gesellschaft, in der über 90 Prozent der Bevölkerung entweder der katholischen oder der evangelischen Kirche angehörten.
 
Tatsächlich ging der Anteil der Kirchenmitglieder auf dem Gebiet der Bundesrepublik innerhalb von 100 Jahren nur um magere 6 Prozent zurück: von 98,6 Prozent im 1871 auf etwas über 95 Prozent im Jahr 1939 und weiter auf 93,6 Prozent im Mai 1970.
 
Danach aber, in den letzten knapp 50 Jahren, sind die weltanschaulichen Verhältnisse gewaltig ins Wanken geraten: DerAnteil der Katholiken und Protestanten isteither um fast 40 Prozentpunkte geschrumpft: von 93,6 Prozent in 1970 auf 55 Prozent im Jahr 2016. Gleich-zeitig hat sich der Bevölkerungsanteil der konfessionsfreien Menschen nahezu ver-zehnfacht, nämlich von 3,9 Prozent in 1970 auf 36,2 Prozent Ende 2016 — und dieser Effekt ist keineswegs in erster Linie auf die Wiedervereinigung mit dem "gottlosen Osten" zurückführbar; Er der den Anteil der Konfessionsfreien in Gesamtdeutschland gerade einmal um etwa 10 Prozent erhöht.
 
Mit einem Bevölkerungsanteil von über 36 Prozent leben heute deutlich mehr konfessionsfreie Menschen in Deutschland als Katholiken (28,5 Prozent) oder Protestanten (26,5 Prozent). Hinzu kommen noch rund 4,9 Prozent konfessionsgebunde Muslime sowie 3,9 Prozent Mitglieder sonstiger Religionsgemeinschaften (u.a. der orthodoxen Kirchen, der Freikirchen, des Judentums, des Hinduismus und des Buddhismus).
 
Man sieht: Die Zivilgesellschaft ist im historischen Vergleich deutlich heterogener geworden.
 


 
Zitiert aus: Michael Schmidt-Salomonn: Der blinde Fleck des deutschen Rechtssystems — Über die Missachtung des Gebots der weltanschaulichen Neutralität (2018)


 

 Beitrag 0-530
Woher das Böse kommt

 
 

 
Das Böse – woher es kommt



Albert Camus (Nobelpreisträger für Literatur, Religionskritiker, 1947):
 
Das Böse in der Welt geht fast immer von Unwissenheit aus, und der gute Wille kann ebenso viel Schaden anrichten wie die Bosheit, wenn er nicht aufgeklärt ist.
 
Die Menschen sind eher gut als böse, und eigentlich geht es gar nicht um diese Frage. Die sind nur mehr oder weniger unwissend, und das nennt man dann Tugend oder Laster, wobei das hoffnungsloseste Laster das der Unwissenheit ist, die alles zu wissen vermeint und sich deshalb das Recht nimmt, sogar zu töten:
 
Die Seele des Mörders [bzw. religiösen Fanatikers] ist blind, und es gibt keine wirkliche Güte oder wahre Liebe ohne größtmögliche Klarsichtigkeit.
 


 
Quelle: Albert Camus: Die Pest, Rowohlt, 92. Auflage (2020), S. 150


 

 Beitrag 0-537
Über fehlende Steuergerechtigkeit

 
 

 
Über Steuergerechtigkeit
 
 
Wie die Spitzenverdiener dieser Welt es schaffen, so gut wie keine Steuer zu bezahlen, z.B.

     
  • In 2007, Jeff Bezos, then a multibillionaire and now the world’s richest man, did not pay a penny in federal income taxes. He achieved the feat again in 2011.
     
  • In 2018, Tesla founder Elon Musk, the second-richest person in the world, also paid no federal income taxes.
     
  • Michael Bloomberg managed to do the same in recent years.
     
  • Billionaire investor Carl Icahn did it twice.
     
  • George Soros paid no federal income tax three years in a row.
     


 

 
 
Warren Buffet — der, wie man hier sieht, am geschicktesten darin ist, jede vom Gesetz gelassene Steuerlücke zu nutzen —
 
ist der einzige dieser Herren, der zugibt, wie ungerecht all das ist, und der dafür plädiert, Abhilfe zu schaffen.

 
 

 
 
Quelle: ProPublica, June 2021


 

 Beitrag 0-541
Der Erdüberlastungstag: Alle 10 Jahre 1 Monat früher

 
 

 
Der Erdüberlastungstag



ZDF und ARD, Berichte vom 29.7.2021:
 
Die Weltbevölkerung lebt auf großem Fuß. Am 29. Juli 2021 hat sie rechnerisch schon alle erneuerbaren Ressourcen für das gesamte Jahr verbraucht.
 
Genauer:
 
 
Der Erdüberlastungstag — jedes Jahr 3 Tage früher.
     
  • 1970 waren die Ressourcen für Nahrung, Wasser oder Energie erst am 29. Dezember verbraucht.
     
  • 1990 stellte sich die Überlastung bereits am 11. Oktober ein.
     
  • 2010 hatten die Menschen am 7. August den Erdüberlastungstag erreicht.
     
  • 2021 lebt die Menschheit bereits ab dem 29. Juli für den Rest des Jahres auf Pump. Ohne Corona-Krise wären es noch einige Tage früher.
     
     
    Das heißt: Von nun an sind schon nach 7 Monaten alle im laufenden Jahr nachwachsenden Rohstoffe, die die Ökosysteme auf unserer Erde produzieren, aufgebraucht. Ab da wird für den gesamten Rest des Jahres auf Reserven zurückgegriffen, die eigentlich den nachfolgenden Generationen vorbehalten sein sollten.
     
    Schon seit 1970 begann der Mensch, natürliche Ressourcen schneller zu verbrauchen als die Natur sie ersetzen kann.
     
    Diese Entwicklung beschleunigt sich bisher unaufhaltsam. Eben das sollte unseren Kindern und Enkeln nun wirklich Angst machen.
     
    Schlimmer noch: Unser Verbrauch ist nicht nur auf pump, er zerstört sogar schnelle Regenerationsfähigkeit der Erde als Quelle unserer Ressourcen.
     
    |
     
    Interessant auch: 2020 hatte sich der Erdüberlastungstag wegen des Lockdowns um fast drei Wochen nach hinten verschoben, auf den 22. August. "Das ist tatsächlich eine Auswirkung von Corona gewesen", sagte Rolf Buschmann vom Bund für Umwelt und Naturschutz Deutschland.
     
    Laut einer Analyse des Global Footprint Networks war in Deutschland der nationale Erdüberlastungstag bereits Anfang Mai erreicht. "Wenn alle Länder so wirtschaften würden wie Deutschland, bräuchten wir nicht einen, sondern knapp drei Planeten", betonte Germanwatch-Sprecher Vogel.

 



 

  Beitrag 1909-3
Die an grenzenloser Gier nach Geld erstickenden Banker

 
 
Cybertine,

dein Beitrag 1909-1 spricht mir aus der Seele.

ABER: Man müsste die Tatsachen, die darin erwähnt werden, in der Öffentlichkeit wesentlich mehr diskutieren und thematisieren.

Dass das nicht passiert, ist aber eindeutig auch unsere eigene Schuld. Wer von uns sog. "mündigen Bürgern" macht sich denn die Mühe, mal den Bundestagsabgeordneten zu besuchen, der unseren Wahlkreis vertritt, und dem klar zu machen, dass wir von ihm erwarten, diese Probleme WIRKLICH zu thematisieren?

Erster Schritt, ihn zu überzeugen, müsste wohl sein, Beispiele zu finden, die er ohne viel Nachdenken auch sofort verstehen und hinsichtlich juristischer und gesellschaftspolitischer Brisanz auch sofort richtig einzuordnen versteht.


Hier ein Beispiel:

Vor einigen Monaten las ich in der Zeitung, dass Banken, die an der Londoner Börse am Hochfrequenzhandel beteiligt sind, viel Geld dafür bezahlen, dass die Leitungen, die ihren Computer mit dem der Börse verbinden, möglichst kurz sind. Die Großbanken kämpfen da um jeden Meter! Warum ist das so?

Nun: Der Hochfrequenzhandel ist d a s Werkzeug der Banker, mit dem sie Geld abschöpfen. Er erlaubt ihnen, buchstäblich JEDE Kursschwankung auszunützen, um Geld zu machen. Nicht selten erzeugen sie diese Kursschwankungen gezielt sogar selbst — und das auch noch über sog. Leerkäufe (das sind solche, wo sie für Aktien, die sie kaufen, keine Zahlung zu leisten brauchen, wenn sie nur hinreichend schnell — nur Bruchteile von Sekunden später — das betreffende Aktienpaket wieder abstoßen. Was bei ihnen hängen bleibt, ist, bei den großen Summen, um die es da geht, nicht selten ein schöner Batzen Geld: Geld, um das sie so andere Aktionäre erleichtert haben.

Genau betrachtet manipulieren sie so den Kurs der betreffenden Aktie. Manipulation ist das deswegen, weil nur börsen-zugelassene Händler möglich ist, so zu handeln: Die Markteilnehmer, welche durch jene Banker an der Börse vertreten werden, stehen außen vor, da ihnen schon vom System her nicht möglich ist, auch nur annäherend so schnell auf Kursschwankung zu reagieren. Da der Gewinn, den die Banker aus einer solchen Transaktion herausschinden, den Wert der gehandelten Aktie reduziert, bin ich der Meinung, dass das als Diebstahl zu werten ist:

Schließlich zweigen sie so ja Geld für sich oder ihre Bank ab, welches eigentlich dem die Aktie ausgebenden Unternehmen und seinen Aktionären gehört (!):
den Aktionären, um genau zu sein, die dem Unternehmen ihr Geld lange genug zur Verfügung stellen, damit es damit auch arbeiten kann.


Warum nur wird das weder durch den Gesetzgeber noch durch Juristen so gesehen?

Nur wenn wenigstens ein hohes Gericht hier wirklich mal auf Diebstahl erkennen sollte, könnte sich da was ändern. Ansonsten bleibt nur das Hoffen auf den Gesetzgeber — der aber scheint zu dumm, zu gleichgültig, oder durch zu viele Leute vertreten, die das Unrecht schlichtweg nicht als Unrecht sehen wollen, da sie sonst auf Zuwendungen seitens der Lobbyisten verzichten müssten.

Ist leider so!


Nebenbei: Ein Gesetz, das Ganze zu verhindern, könnte schlicht und einfach lauten:

Leergeschäfte sind verboten,
und wer Aktien kauft (bzw. verkauft) darf Aktien desselben Unternehmens frühestens 24 Std. später verkaufen (bzw. kaufen).


Leider müsste dieses Gesetz weltweite Gültigkeit haben (da es sonst wirkungslos wäre). Die aber ist nicht erreichbar.

Damit können wir wohl doch nur darauf hoffen, dass irgendwann auch hochrangige Juristen einsehen, dass das, was hier passiert, hart an Diebstahl grenzt und deswegen entschiedener gesellschaftlicher Ächtung bedarf.

Träumen wir weiter ... s. z.B. Cum Ex ...
 
 

  Beitrag 1909-4
-

 
 
Grtgrt aus 1909-3:
 
... darauf hoffen, dass irgendwann auch hochrangige Juristen einsehen, dass das, was hier passiert, hart an Diebstahl grenzt und deswegen entschiedener gesellschaftlicher Ächtung bedarf.

Träumen wir weiter ...
 

In der Süddeutschen Zeitung (16/17. Feb. 2013) bespricht ein Anreas Zielcke Frank Schirrmachers Buch "Ego", welches – wie er sagt – "uns das Grausen lehrt". So wird da etwa festgestellt:


Inzwischen beträgt die Haltezeit von Aktien an der Wall Street im Mittel sage und schreibe 22 Sekunden.

Es ist noch nicht lange her, da waren es im Schnitt mehr als 4 Jahre.


Und Zielcke fährt fort:

Zitat:
 
... bei dieser Gelegenheit zerbröselt der Hochgeschwindigkeitshandel eines der Fundamente der Rechtsordnung: ausgerechnet das unternehmerische Eigentum.

... Eine verantwortliche Rolle des Miteigentümers eines Unternehmens – die ja der Aktienbesitz darstellt – ist damit hinfällig. Wer, wenn nicht die Eigentümer, tragen dann die Verantwortung?
 

 

  Beitrag 1909-7
Das Internet als Chance, sich gesellschaftlich Gehör zu verschaffen

 
 
Dass Lobbyisten Politiker möglichst oft zu treffen und zu sprechen suchen, wird sich nicht unterbinden lassen (man kann ja schlecht verlangen, dass Abgeordnete nur noch mit Abgeordneten sprechen, und sachkundig müssen sie sie ja auch machen dürfen).

Problem dabei ist nur, dass das notwendige Gegengewicht — das ebenso regelmäßige Anhören unabhängiger Experten, vor allem Wissenschaftler — nicht gegeben ist. Und dass, sobald man dieses Gleichgewicht per Gesetz herstellen wollte, jene Wissenschaftler schon im Vorfeld durch Geldspenden der Lobby ihrer Unabhängigkeit beraubt würden: es würde sich lediglich der Focus des Lobbyismus verschieben.

Insofern scheint die einzige Lösung darin zu bestehen, dass wirklich jeder Gruppe der Gesellschaft ermöglicht wird, ihre Stimme hinreichend deutlich zu erheben — eben unüberhörbar. Wirkungsvollster Weg hin zu diesem Ziel dürften Möglichkeiten sein, die uns erst das Internet eröffnet hat (und der feste Wille aller Betroffenen, sich auch wirklich zu äußern — schon daran scheitert es ja oft).

 

  Beitrag 1909-10
Die Diktatur der heute allgegenwärtigen Zielvereinbarung

 
 
Hans-m aus 1909-9:
Bekanntlich fängt Fisch vom Kopf her an zu stinken.

Nicht der kleine Mann bringt das Chaos und die ungerechtigkeit in Wirtschaft und Politik. Dafür hat er gar nicht die Macht.
Die Führungskräfte, egal ob in Politik oder Wirtschaft sind an der Misere schuld.


Das scheint mir eine zu einfache Sicht — die Wahrheit ist wohl eher,
  • dass es in allen Gesellschaftsschichten Gauner und Betrüger gibt und in allen Schichten nur wenige, die einsehen, dass soziale Verantwortung zu tragen wichtiger sein muss als der eigene Geldbeutel.
  • Dazu kommt, dass die heutige Arbeitswelt den Arbeitenden entmündigt, indem sie ihn — über variable Gehaltsanteile und entsprechende Zielvereinbarungen — zwingt, sein Handeln nach nur einem einzigen Gesichtspunkt auszurichten: Profitmaximierung  n u r  im jeweiligen Verantwortungsbereich der jeweiligen Person.

Das beginnt schon damit, dass Einkäufer großer Behörden oder Unternehmen sich deswegen gezwungen sehen, ganz grundsätzlich auf Festpreisprojekten zu bestehen auch dort noch, wo der Komplexität der vergebenen Aufgabe wegen jedem Fachmann klar sein muss, dass die Chancen, das Projekt erfolgreich zu machen, weit höher wären, wenn man stattdessen einen Dienstleistungsvertrag anstreben würde.

Und es endet damit, dass neuerdings sogar Banken kriminell werden:

Zitat von Titelseite der Süddeutschen Zeitung vom 16/17. März 2013:
 
Schwerer Betrugsverdacht gegen Banken

Geldinstitute und Händler sollen den deutschen Fiskus durch kriminelle Aktiengeschäfte um viele Milliarden Euro geprellt haben.
Staatsanwälte ermitteln in Hessen und Bayern.

 

Welch furchtbare Folgen zu einseitig gestaltete Zielvereinbarungen haben können, zeigt sich selbst bei Personen, denen im heutigen Wirschaftsleben SEHR viel Macht und Einfluss gegeben ist.

Beispiel: Jürgen Fritsche, Co-Chef der Deutschen Bank, soll es 2013 — vor dem Entwicklungsausschuss des Bundestages — explizit abgelehnt haben, die moralische Dimension als Argument in der Debatte um die Spekulation mit Preisen für Nahrungsmittel mit zu berücksichtigen.

Zeigt das nicht sehr deutlich, dass wir nicht mehr von menschlichen Wesen regiert werden sondern nur noch von Mechanismen, denen das Erfüllen einer Ziel­vereinbarung auf einem eng abgegrenzten Bereich das  A L L E R W I C H T I G S T E  ist?

Und wer von uns beugt sich diesem Trend nicht?

 

  Beitrag 1985-350
Durch Gravitation oder Beschleunigung hervorgerufene Kräfte sind ununterscheidbar

 
 
Stueps in 1985-340:
 
Beschleunigung und Gravitation fasse ich in ihren Effekten und Wirkungen als ein und die selbe Sache auf. Beide lassen sich wohl auch mit den selben Gleichungen mathematisch behandeln?


Auf Seite Abenteuer Universum — Beschleunigung und Gravitation liest man:

Zitat:
 
So wie uns Einstein vor Augen führte, dass Energie und Materie dasselbe sind, überlegte er auch, dass

man die Wirkung der Gravitation nicht von der Wirkung einer beschleunigten Bewegung unterscheiden kann.


Ein im Kosmos umherfliegender Astronaut kann mit keinem Mittel feststellen, ob er sich nun bewegt, oder ob er still­steht und der ganze übrige Kosmos an ihm vorbeizieht. Verschließen wir seine Sichtluken gar, kann er nicht mal mehr eine Bewegung feststellen. Denn nun hat er keinen Bezugspunkt mehr, an dem er sich orientieren könnte.
 

 

  Beitrag 1951-22
Wie definiert man Systemkomplexität?

 
 
Hi C...,

danke für deinen Hinweis und deine Aufmerksamkeit.

Du hast völlig recht, ich habe meine Vorstellungen über Systemkomplexität durcheinander gebracht und bin so zu einer wenig sinnvollen Antwort auf die Frage nach der Komplexität unseres Gehirns gekommen.

Tatsache ist, wie du ganz richtig sagst, dass ich bisher den Begriff "Komplexität" nur im umgangssprachlichen Sinne verwendet habe.

Andererseits war in meinem Hinterkopf das Wissen vorhanden, dass man für Systeme, auf die der 2. Hauptsatz der Thermodynamik anwendbar ist, den Begriff sehr wohl präzisieren kann:
  • Genau diese Systeme nämlich haben (wenigstens potentiell) Zustände maximaler Entropie — Zustände also, die sämtliche im System vorhandene Information nachrichtentechnisch kodieren. Da sie nun aber in dieser Form exakt quantifizierbar ist, kann man ihren Umfang als die dem System innewohnende Komplexität definieren.
  • Dieses Vorgehen funktioniert aber NICHT mehr für Systeme, in denen die einzelenen Teilchen eingeschränkten oder gar individuell eingeschränkten WDDF haben. Für sie gibt es — nicht einmal mehr potentiell — wenigstens einen Zustand maximaler Entropie. Der nämlich könnte nur dann eintreten, wenn sich die durch den WDDF der einzelnen Teilchen gegebenen Restriktionen auf Nichts reduzieren. Dann aber hätte das System — unser Gehirn etwa — seine Funktionsfähigkeit (und daher auch seine Identität) verloren: In einem Sarg dahinfaulende Gehirnmasse kann man eben nicht mehr als Gehirn bezeichnen.

Langer Rede kurzer Sinn also:

Ich kenne keine präzise Definition für die Komplexität von Systemen,
in denen die Voraussetzungen für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik NICHT gegeben sind.


Damit muss ich meine letzte Aussage in Beitrag 1951-15 ergänzen durch den Zusatz: "Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung gar nichts aus".


Danke nochmals, C..., deine Aufmerksamkeit hat mir wichtige Einsicht beschert.

Mit besten Grüßen,
grtgrt
 

  Beitrag 1951-29
Informierende Komplexität entspricht durch Ordnung gegebener Information

 
 
C... aus 1951-28:
 
Meiner Meinung nach hat Entropie nichts mit Komplexität zu tun. Eher im Gegenteil:

Im Rahmen eines Ordnungssystems für ein Zustandssystem ist die Entropie genau dann maximal, wenn es innerhalb des Zustandssystems möglichst viele Zustände gibt, welche man mit dem Ordnungssystem nicht voneinander unterscheiden kann.

Hi C...,

ich verstehe, was du meinst.

Aber was du als "Komplexität" siehst, würde ich eher als "informierende Komplexität" bezeichnen (auch eine komplexe Nachricht kann ja sehr gut wenig informierend sein).

Aus meiner Sicht gilt:

Komplexität kodiert Information

Informierende Komplexität ist der Teil davon, der zu kybernetisch kodierter Information führt.


Gruß, grtgrt
 

  Beitrag 1951-130
Warum beobachtet man an DNS (= DNA) Molekülen so hohe Stabilität?

 
 
Stueps aus 1951-127:
 
Das Konzept "DNS" beinhaltet trotz hoher Stabilität ein hohes Maß an Flexibilität.

Hi Stueps,

die Stabilität kann ich mir nicht wirklich erklären, das hohe Maß an Flexibiliät schon eher:

Solche Flexibilität, so scheint mir, ergibt sich aus der Tatsache, dass ein DNS-Molekül einerseits sehr komplex, andererseits aber auch sehr modular ist und seine Bausteine irgendwie "genormt" erscheinen. Leider verstehe ich nichts von Chemie, und so kann ich das nicht genauer ausdrücken.

ußere Bedingungen, so wie du, hätte ich jetzt ganz und gar nicht als Grund vermutet. Wäre interessant, zu hören, wie du zu diesem Eindruck kommst.

Gruß, grtgrt
 

 Beitrag 0-447
Meilensteine der Menschheitsgeschichte

 
 

 
Meilensteine der Menschheitsgeschichte

 
 
Schon vor mehreren 100 000 Jahren lebten Vorgänger des Menschen. Sie sind nachgewiesen durch Knochenfunde in zeitlich datierbaren geologischen Schichten. Seit Jahrzehntausenden gab es dem modernen Menschen anatomisch völlig ähnliche Menschen. Reste erster Werkzeuge, ja sogar Malereien sind mindestens 30 000 Jahre alt. Eine dokumentierte, zusammenhängende Geschichte hat der Mensch aber erst seit etwa 5000 Jahren.
 
 
Die Menscheitsgeschichte hat vier tiefgreifende Einschnitte:
     
  • Nur erschließbar ist der erste große Schritt der Entstehung der Sprachen, der Erfindung von Werkzeugen und der Gebrauch des Feuers. Es ist dies das Zeitalter, in dem der Mensch erst Mensch wurde im Gegensatz zu einem uns nicht vorstellbaren nur rein biologischen Menschsein. Wann das genau war und über wie lange Zeiträume sich die einzelnen Entwicklungsschritte erstreckt haben, wissen wir nicht. Dieses Zeitalter muss sehr lange zurückliegen und das Vielfache der dagegen fast schon verschwindend kurzen dokumentierten Menscheitsgeschichte betragen haben.
     
  • Zwischen 5000 und 3000 v.Chr. entstanden die alten Hochkulturen in Ägypten, Mesopotamien, am Indus und — etwas später — am Hoangho in China. Sie waren kleine Lichtinseln in der breiten Masse der schon den ganzen Planeten bevölkernden Menschheit von vielleicht 100 000 Individuen.
     
  • In der Zeit von 800 bis 200 v.Chr. erfolgte dann die geistige Grundlegung der Menschheit, von der sie bis heute zehrt. Dies geschah gleichzeitig, aber unabhängig von einander in China, Indien, Persien, Palestina und Griechenland.
     
  • Seitdem gab es nur noch ein einziges, geistig und materiell einschneidendes Ereignis von ebenso großem weltgeschichtlichen Rang: Es war der Beginn des wissenschaftlich-technischen Zeitalters, vorbereitet in Europa seit Ende des Mittelalters, geistig konstituiert im 17. Jahrhundert, in breiter Entfaltung seit Ende des 18. Jahrhunderts und in überstürzt schneller Entwicklung seit Mitte des 20. Jahrhunderts.


 

  Beitrag 949-49
Kann uns ein physikalisches Objekt auf den Kopf fallen?

 
 
E... aus 949-48:
... denn physikalische Objekte sind alles andere als nur Konzepte.

Hi E...,

du scheinst nicht verstanden zu haben, dass
  • Physik und Natur keinswegs dasselbe sind
  • und dass mir zwar ein physisches Objekt auf den Kopf fallen kann (der Hammer etwa), aber eben nicht ein physikalisches.

Beste Grüße,
grtgrt
 

  Beitrag 949-58
Physikalisches Objekt = eine Sicht der Physiker auf die Natur

 
 
Henry aus 949-57:
es reicht, darauf hinzuweisen, dass sich "physisch" auf den (materiellen) Körper bezieht und physikalisch auf die Wissenschaft, die sich mit Gesetzen und Zusammenhängen befasst, die wir durch Messung über die Welt erhalten können - die Physik.

Siehst du, Henry,

nach eben dieser deiner Definition ist ein physikalisches Objekt eben doch nur eine durch die Physik (als Wissenschaft) konstruierte  S i c h t  auf das Objekt.

In der Informatik nennt man so was einen "View" (und der ist i.A. weit weniger als das gesamte Objekt).

Beste Grüße,
grtgrt
 

  Beitrag 1376-21
Identität eines physikalischen Objekts

 
 
Hi Stueps,

du hast natürlich völlig recht, wenn du sagst, ein Objekt trage keine Energie sondern sei Energie.

Andererseits aber lässt sich ja wohl nicht leugnen, dass ich von einem Objekt erst dann sprechen kann, wenn die Energieportion, aus der es besteht, in einer Form vorliegt, die diesem Objekt einen Typ gibt (und die es irgendwie unterscheidbar macht im Meer aller Energie unseres Universums).

Wir kommen hier wieder auf die schon einmal diskutierte Frage, was genau (bzw. wie konkret genau) ein Objekt denn eigentlich sein muss, um als physikalisches Objekt bezeichnet werden zu können. Reicht eine konzeptuelle Abgrenzung, oder muss das Objekt sich in wirklich beobachtbarer Weise von seiner Umgebung abgrenzen? Wenn jene Abgrenzung aber wahrnehmbar ist, könnte man es dann nicht wirklich auch als Energieträger sehen? In dem Sinne also war meine sprachliche Wendung des "Tragens" von Energie gemeint.

Wie du ferner schon sagst: Energie altert nicht. Und wie der Energieerhaltungssatz uns lehrt, verbraucht sie sich auch nicht — sie kann sich höchstens umverteilen oder sich in unterschiedlicher Form zeigen.

Damit ist klar: Als Energie betrachtet, kann ein physikalisches Objekt (z.B. ein Mensch) auf keinen Fall altern. Altern — und sich mehr oder weniger plötzlich verändern — kann nur die Form, in der sich das Objekt beobachtbar macht, und die dazu führt, dass es sich von anderen physikalischen Objekten abgrenzt und so für uns überhaupt erst zu einem wohldefinierten Objekt wird.

Klar ist auch: Solche Alterung kann nur dann in vielen kleinen Schritten erfolgen, wenn das Objekt kein atomares ist (also kein Elementarteilchen).

Würdest du mir da zustimmen?

Beste Grüße,
grtgrt
 

  Beitrag 1376-62
Beispiel 1

 
 
Stueps aus 1376-61:
Man könnte weiter fragen, ob es noch das selbe Photon ist, das z.B. ein Elektron anregt, und danach wieder emittiert wird?
Wenn man erste Frage mit ja beantworten kann, tendiere ich zu der Auffassung, dass auch in einem Medium für das Licht keine Zeit vergeht.

Aber es könnten sich aus dieser Sicht vielleicht WIdersprüche entwickeln: Falls es immer das selbe Photon ist, welches durch ein Medium marschiert, und dabei absorbiert und emittiert wird, wie "merkt" es etwas von diesen Wechselwirkungen?

Hi Stueps,

das Schöne am Modellieren ist, dass man da gewisse Freiheiten hat. Die ergeben sich daraus, dass ja durchaus mehrere Modelle geben kann, die sämtlich in dem Sinne gültig sind, dass jedes dieser Modelle ein Verhalten aufweist, welches analog dem an der Natur beobachteten ist.

In diesem Fall aber sollte man dann am besten mit dem einfachsten dieser Modelle arbeiten.

Im konkreten Fall ist das einfachste Modell das, in dem man annimmt, dass ein Photon durch Wechselwirkung mit einem anderen Elementarteilchen sein Leben beendet.


Grtgrt aus 1376-30:
 
Man sollte berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

Zitat von Niels Bohr:
Die Physik kann nicht ergründen, wie die Natur funktioniert.
Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

Beste Grüße,
grtgrt
 

  Beitrag 1376-63
Beispiel 2

 
 
Henry aus 1376-50:
 
Es gibt keine wie auch immer geartete "Lebensbatterie", ...

Hi Henry,

ich behaupte ja gar nicht, dass die Natur eine Lebensbatterie kennt, sie ist lediglich der Teil meines Modells der Natur, der diesem Modell die Fähigkeit verleiht, für jedes betrachtete materielle physikalische Objekt dessen Rest-Lebenserwartung zutreffend abzuschätzen:

Bitte beachte:

Grtgrt aus 1376-30:
 
Man sollte berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

Zitat von Niels Bohr:
Die Physik kann nicht ergründen, wie die Natur funktioniert.
Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.

Beste Grüße,
grtgrt
 

  Beitrag 1701-16
Physikalische Objekte: Wie Okotombrok sie versteht.

 
Hallo Grtgrt,

Grtgrt aus 1701-15:
 
Licht ist ein physikalisches Objekt (und als solches unser Modell für einen Teil der Natur).

Mehr dazu auf Seite Zum Wesen physikalischer Aussagen.
 

auf deiner oben genannten Homepage schreibst du:
Zitat:
Physikalische Objekte sind nichts anderes als gedankliche Modelle, . . .
So weit kann ich nicht mitgehen. Mit physikalischen Objekten meint man direkt beobachtbare Dinge.
Tauscht man aber den Begriff "physikalisches Objekt" gegen den Begriff "physikalische Größe" aus, so kann ich nur zustimmen.

Weiter:
Zitat:
. . . die der Mensch sich macht, aus dem Wunsch heraus,
das Verhalten der Natur verstehbar und vorhersagbar zu machen.
Auf physikalische Größen bezogen stimme ich dir vollkommen zu.

mfg okotombrok
 

  Beitrag 1701-18
Physikalische Größen sind: quantifizierbare Eigenschaften physikalischer Objekte

 
Grtgrt aus 1701-17:
Hi Okotombrok,

ist ein Atom oder ein Elektron in deinen Augen eine physikalisches Objekt oder nur eine physikalische Größe?
Und ein ganzes Universum: Sollte man es wirklich nur als Größe bezeichnen?

Ich würde unter einer Größe eher eine Zahl verstehen (etwas ohne Struktur).

Gruß, grtgrt

Gebhard,

verstehst du nicht, was Okotombrok bemerkt? Falls physikalische Objekte unsere gedanklichen Modelle SIND, gibt es keine beobachtbare Außenwelt. Und ob du nun unter einer Größe eine Zahl verstehst oder nicht - in der Physik ist darunter etwas anderes und genau definiertes gemeint (Größen sind messbare Eigenschaften an Objekten). Wenn wir schon diskutieren, wollen wir uns doch bitte an die Begriffe so halten, wie sie allgemein anerkannt sind.
 

  Beitrag 1894-5
Zu physikalischen Objekten

 
 
Hi Henry,

es scheint mir nicht richtig, nur das, was sich schon als Materie zeigt, als physikalisches Objekt elementarster Art zu bezeichnen. Unteilbare Bausteine des Kosmos sind ganz sicher schwingende Energie-Portionen (nur einige davon zeigen sich zeitweise im Zustand Materie).

Nun zu Ereignissen: Als Position eines Ereignisses kann man nur die Summe aller Punkte verstehen, an denen sich die am Ereignis beteiligten Quanten dann gerade befinden. Es ist aber keineswegs so, dass die Position eines Quantums nur ungenau beobachtbar wäre: Sie ist wirklich auch ungenau definiert.

Warum das so ist, wird sehr schön erklärt auf Seite Teilchen sind Wellenpakete.

Damit ist klar: Unter der Position eines Ereignisses muss man sich (aus diesen beiden Gründen) eine kleine Region der Raumzeit vorstellen (eine Punktemenge, die Vereinigung von N Punktemengen ist, wenn am Ereignis N Quanten beteiligt sind) — also nicht einen einzigen Punkt im Sinne der Mathematik, sprich: im Sinne der die Raumzeit modellierenden differenzierbaren Mannigfaltigkeit.

Nun zur Frage, ob Wahrscheinlichkeitswellen wirklich existieren: Da Interferenz am Doppelspalt zeigt, dass sie interferieren, müssen sie ja wohl existieren. Eine ganz andere Frage ist, was es denn bedeuten mag, zu existieren. Hierzu hat Niels Bohr mal was sehr Treffendes gesagt (siehe meine Seite Zum Wesen physikalischer Aussagen und dem, was man die Realität nennt).

Zu Stringtheorie (ST) und Schleifen-Quanten-Gravitation (SQG): Zwischen beiden besteht insofern ein ganz gewaltiger Unterschied, als die ST eine hintergrund- abhängige Theorie ist, wohingegen die SQG (ebenso wie die ART) ohne Bezug zu irgend einem Hintergrund formuliert ist. RZQ ist hintergrund- unabhängig, also viel näher an SQG als an ST.

Ich sehe RZQ als eine Art vergröberte SQG, wobei mir aber nicht klar ist, ob die gröbere oder die feinere Sicht die natürlichere ist.

Das liegt daran, dass ich die Spin-Networks nicht wirklich verstehe. Als gut verständlich (und "anschaulich") würde ich sie nicht einzustufen. Hast du den Artikel, auf den ich oben verweise, gelesen?

Gruß, ggreiter
 

  Beitrag 1894-62
Physikalische Objekte sind Modelle, das Verhalten der Natur zu erklären

 



Physikalische Objekte (die Zeit etwa) sind gedankliche Modelle,

die der Mensch sich macht, aus dem Wunsch heraus,

das Verhalten der Natur verstehbar und vorhersagbar zu machen.



Man darf solche Modelle aber auf keinen Fall mit der Natur selbst verwechseln (und so kann es für jeden Teil der Natur — die Zeit ist da keine Ausnahme — mehr oder weniger genaue Modelle geben: Sie sind dann natürlich auch mehr oder weniger einfach und werden daher auch nicht notwendig alle Aspekte des jeweils betrachteten Phänomens gleich gut modellieren.

Dass auch grobe Modelle — wie etwa das von Aristoteles — sehr weit tragen können, ist unbestritten. Was aber, wenn man über eine Grenze der Anwendbarkeit eines einfachen Modells hinausgehen möchte? Eben dann braucht man ein genaueres, weniger einfaches Modell.


Man sollte zudem berücksichtigen, dass physikalische Modelle nicht den Anspruch erheben, die Struktur der Natur zu modellieren (das wäre — nach dem, was Niels Bohr uns sagt — ja sogar unmöglich). Sie sind einzig und allein dazu da, das Verhalten der Natur nachzubilden, sprich: Man verlangt lediglich, dass sie eine gedachte Maschinerie sind, deren Verhalten isomorph zum Verhalten der Natur ist.

Zitat von Niels Bohr:
Die Physik kann nicht ergründen, wie die Natur funktioniert.
Aufgabe der Physik ist lediglich, zu untersuchen, wie die Natur sich uns zeigt.


 

  Beitrag 1376-28
Lebenszklus, Lebensbatterie, Entropie

 
 
Hi Stueps,

meine erste Antwort auf deine Anregung das Stichwort Entropie betreffend war falsch: Die Lebensbatterie eines Objektes lässt sich doch über Entropie definieren. Genauer: Sie definiert den — mit Hilfe der Entropiegesetze gut präzisierbaren — Freiraum, den ein Objekt hat, sich fortzuentwickeln, ohne durch diese Fortentwicklung seine Identität aufgeben zu müssen.

Hier die Argumentationskette, die mich zu dieser Meinung führt:

Zunächst muss festgestellt werden, dass ich von Objekten spreche, die Ansammlung nur endlich vieler Elementarteilchen sind, und dass ich zunächst davon ausgehe, dass deren Anzahl über die gesamte Lebensdauer des Objekts hinweg begrenzt ist. Dies anzunehmen ist keine Einschränkung, solange wir Objekte bestimmten Typs vorliegen haben (Atome, Moleküle, oder Objekte aus unserem täglichen Leben).

Sei also N eine positive ganze Zahl und sei X irgendein Objekt, welches während seiner ganzen Existenz — genau genommen ist das die Existenz seiner Identität — aus maximal N Elementartteilchen zusammengesetzt ist. Da N eine endliche Zahl, ist, gibt es auch nur endlich viele Zustände Z, in denen sich diese Elementarteilchen zusammenfinden können: Konfigurationen also, die durch ein kompliziertes Kräftegleichgewicht gebildet und zusammengehalten werden (es ergibt sich als Folge aller vier Grundkräfte).

Diese endlich große Zahl möglicher Konfigurationen ist nichts anderes als eine obere Grenze für die Entropie, die das Objekt maximal zu unterstützen in der Lage ist (das Maximum an Information also, die dieses Objekt irgendwann in seinem Leben darstellen kann).

Wo Objekte nicht gerade aus nur einem einzigen Elementarteilchen bestehen, kann man sie gut vergleichen mit Baumkronen, die einem ständigen Luftzug ausgesetzt sind — und hin und wieder sogar einem richtigen Sturm:
  • Die Blätter entsprächen den Elementarteilchen,
  • die Äste und Zweige den sie in bestimmter Konfiguration zusammenhaltenden 4 Grundkräften,
  • und der Luftzug, Wind oder Sturm entspricht den Scharen durchs All streunender Schwärme noch in gar keine Struktur eingebundener Elementarteilchen (Neutronen, Photonen, u.a.). Die meisten von ihnen durchqueren das Objekt so als wäre es gar nicht da, einige wenige aber kollidieren mit dem Objekt zugeordneten Elemenarteilchen und führen so zu einem nächsten Objektzustand.

So wie jedes Gleichgewicht ist auch ein Kräftegleichgewicht selbstheilend in dem Sinne, dass Störungen, wenn sie denn hinreichend klein sind, sich selbst beheben.

Dies hat zur Folge, dass, wo das Objekt aus einem Zustand Z1 in einen nächsten Zustand Z2 gestoßen wird, jener dem Z1 recht ähnlich sein wird. Dennoch wird er (so sagt uns der zweite Hauptsatz der Thermodynamik) mit an Sicherheit grenzender Wahrscheinlichkeit von höhere Entropie haben.

In den extrem wenigen Fällen, wo das NICHT so ist, spricht man von einer Mutation des Objekts. Sie kann den Wert des Objektes vergrößern oder verkleinern (das Objekt also, wenn es denn ein Lebewesen ist, krank machen oder es — ein ganz klein wenig wenigstens — zu einem höher entwickelten Lebewesen machen. In Verbindung mit Darwins Selektionsprinzip ist so erklärt, warum der Zusammenstoß von Elementarteilchen zwar in der Regel, aber eben nicht immer, zu höherer Ordnung führt, also zu weniger Entropie.


Zusammenfassend lässt sich feststellen:

Was ich in Beitrag 1376-15 die Lebensbatterie eines Objektes X im Zustand Z nenne, ist nicht anderes als das Paar

B = ( e(X,Z), e(N) )


worin e( N) eine obere Grenze für im Objekt enthaltene Entropie bezeichnet und e( X, Z) die Entropie von X im Zustand Z ist.

Die Differenz   1 – e( X,Z)/ e( N)   ist dann zu deuten als die in der Lebensbatterie noch vorhandene Restladung (so normiert, dass 1 der voll geladenen Batterie entspricht).

Dem 2. Hauptsatz der Thermodynamik entsprechend wird sie mit an Sicherheit grenzender Wahrscheinlichkeit bei jedem Zustandsübergang kleiner, so dass klar ist: X wird irgendwann sterben, d.h. wird irgendwann so entstellt sein, dass es seine Identität verliert — eben ganz so, wie auch ein Mensch sich mit zunehmendem Alter mehr und mehr verändert, schließlich in einen Sarg gelegt wird, und dort weiter zerfällt, so dass man irgendwann nicht mehr sagen kann, was man da noch vorfindet sei ein Objekt vom Typ Mensch.

Nachdem man die kleinstmögliche Version der Zahl N nicht kennen kann, wird man auch die Restladung der Lebensbatterie stets nur mit gewisser Unschärfe kennen.


Also Stueps, danke, denn ohne deine zwei Anregungen wäre ich auf diese Erklärung so schnell nicht gekommen.

Beste Grüße,
grtgrt

PS: Ich habe oben so getan, als würden Zustandsübergänge sich stets ergeben durch Zusammenstoß des Objekts mit streunenden Elementarteilchen. Das ist nicht ganz richtig, denn es gibt in jedem Quantensystem ja auch spontane Zustandsübergänge, sogar solche, von denen Chemiker durchaus wissen, mit welcher Wahrscheinlichkeit in etwa sie eintreten. Am Gesamtergebnis meiner Betrachtung ändert sich dadurch aber rein gar nichts.

 

 Beitrag 0-184
Womit sich Physiker beschäftigen

 
 

 
Womit sich Physiker beschäftigen



Hohnerkamp (2013):
 
Der berühmte US-amerikanische Festkörperphysiker und Nobelpreisträger Philip Warren Anderson beklagte 1994 dass es in der öffentlichen Aufmerksamkeit für physikalische Forschungsergebnisse ein großes Missverhältnis gäbe:

     
    Kosmologische Fragen sowie das Schicksal für Theorien fundamentaler Wechselwirkungen würden zuhauf in Büchern und Zeitschriften diskutiert, und publikumswirksam würde eine » Theorie für Alles « als Ziel propagiert.
     
    Dabei könnten sich höchstens 20% aller Physiker als Kosmologen oder Teilchenphysiker bezeichnen.
     
    Alle anderen seien mit praktischen Anwendungen der Physik beschäftigt oder mit Phänomenen, die zu komplex sind, um sie direkt aus den Gesetzen für die fundamentalen Kräfte bzw. Wechselwirkungen erklären zu können.

 
Das Studium der komplexen Systeme ist ein mindestens so großes Gebiet wie die beiden anderen, die sich als Elementarteilchenphysik mit den kleinsten bzw. als Kosmologie mit den größten Objekten unserer Welt beschäftigen.
 
Keineswegs nur die Physik fester Körper mit ihren ungewöhnlichen Materiezuständen (wie etwa Supraleitfähigkeit) gehört zu ihren Themen, sondern auch Phänomene wie Strukturbildung, Selbstreproduktion, Leben und Bewusstsein.
 
Hier beginnen die Grenzen zwischen den Fächern zu verschwimmen, wie sich ja auch schon an Namen wie » Physikalische Chemie « oder » Biochemie « zeigt.
 


Quelle: Josef Hohnerkamp: Was können wir wissen? (Springer, 2013), S. 71-78
 
Siehe auch, woran Physiker als Ingenieure arbeiten.


 

  Beitrag 2016-63
Warum Himmelskörper sich drehen

 
 
Rockdee aus 2016-62:
 
Wie kommt es, dass Galaxien und Planeten am rotieren sind, liegt das an der Gravitation?

Hier der  V e r s u c h  einer Antwort:

Da es für die Geschwindigkeit der Ratation eines Himmelskörpers — sei er Mond, Planet, oder ganze Galaxie — keine Regel zu geben scheint, könnte ich mir gut vorstellen, dass so ein Himmelskörper dann in Rotation gerät, wenn ein anderer, ihn stark anziehender, sehr schnell an ihm vorbeiwandert (ohne ihn mitzunehmen).

Diese nur kurzzeitig wirkende Kraft scheint mir vergleichbar, mit der, die ich auf einen Globus ausübe, wenn ich mit dem Finger kurz drüberwische, damit er mir die Seite zuwendet, die ich gerade betrachten möchte: Der Globus gerät so in Rotation (und dass die nur kurz anhält, liegt daran, dass dort, wo er mit seiner Aufhängung verbunden ist, Reibungskraft wirkt — bei Himmelskörpern ist die nicht vorhanden, weswegen dort die Rotation anhält, bis sie durch ein ähnliches Ereignis, welches ja recht selten ist, nach Richtung und Geschwindigkeit mehr oder weniger deutlich neu festgesetzt wird).

Dass auch Astrophysiker scheinbar keine bessere Erklärung haben, zeigt der Artikel Warum dreht sich die Erde?.

 

  Beitrag 2023-3
Zur Schleifen-Quanten-Gravitation: Skizze und Status

 
 
Mirko 8 aus 2023-1:
Hallo zusammen !
Wenn Zeit bei geringer Gravitation schneller vergeht,wie schnell vergeht dann die Zeit in Quantensystemen?
Gibt es eine Quantengravitationstheorie ?

Hi Mirko,

es gibt (nur) den  A n s a t z  einer solchen Theorie: die sog. Schleifen-Quanten-Gravitation.

Carlo Rovelli und Lee Smolin — die beiden Hauptvertreter der entsprechenden Ideen — skizzieren die Grundzüge des Modells in den beiden folgenden Papieren:

Liest aber man zudem noch den letzten Abschnitt VI eines an die Physiker gerichteten Papiers vom Jan. 2012 (Seite 18-20), so bekommt man den Eindruck, dass man mit dieser Theorie derzeit wohl ähnlich wenig vorankommt, wie mit der dazu konkurrierenden Stringtheorie.

Lee Smolin hat gar mal geschrieben (ich weiß nicht mehr wo):

Zitat:
 
Wenn die Stringtheorie oder die Schleifen-Quanten-Gravitation die Lösung selbst wären,
würden wir es inzwischen wissen.

Sie mögen Anhaltspunkte sein, kleine Teile der Antwort, sie mögen wichtige Erkenntnisse enthalten, sind aber keinesfalls mehr.

 

Wenn in Richtung Schleifen-Quanten-Gravitation in naher Zukunft was vorangehen sollte, dann wohl am ehesten, wenn ein Buch, an dem der Zeitforscher Julian Barbour gerade schreibt, fertiggestellt ist.

Von mathematischer Seite her wird ganz sicher relevant werden, was in einem fast schon fertigen Buch von Connes und Marcolli zusammengestellt ist.

Gruß, grtgrt

PS: Dass im Inneren eines beliebigen Quantensystems die Zeit besonders schnell vergeht (weil einzelne Quanten kaum Masse haben) ist natürlich NICHT zu erwarten, denn so wie um uns herum Objekte großer Masse existieren, existieren die natürlich auch um jenes Quantensystem herum.

 

 Beitrag 0-367
Kosmische Strahlung: Das All durchquerende extrem stark beschleinigte Ionen

 
 

 
Kosmische Strahlung

kommt bei uns an als sog. » Höhenstrahlung «

 
 
Schon um 1900 war sog. » Höhenstrahlung « bekannt, ihrer Natur nach aber noch nicht verstanden. Ab 1912 hat man entdeckt, dass sie mit zunehmender Höhe nicht abnahm, sondern sogar noch deutlich intensiver wurde.
 
Was die Natur der ursprünglich für energiereiche Gammastrahlung gehaltenen Teilchen anbelangt, so wurde die erst bekannt, nachdem in den 1930-er Jahren verbesserte Messmöglichkeiten zur Verfügung standen.
 
Es zeigte sich, dass jene » kosmische Strahlung « aus Protonen, Elektronen und ionisierten Atomen besteht. In Labors sind sie nicht mehr nachweisbar, da sie beim Durchqueren der Erdathmosphäre Wechselwirkungen auslösen, die zur Metamorphose jener Primärstrahlung in eine aus anderen Partikeln zusammengesetzte Sekundärstrahlung führen.
 
Die Erforschung der kosmischen Strahlung zählt heute zu einem recht spannenden Themenbereich der Astrophysik und ist noch lange nicht abgeschlossen.
 
Bei den meisten Atomkernen handelt es sich um Protonen (87%) und Heliumkerne. Nur etwa 1 Prozent sind schwerere Elemente.
 
Sie kommen keineswegs nur von der Sonne. Die Milchstraße steuert ebenso viel bei, doch der interessanteste Teil — unglaublich hochenergetische Teilchen — kommt aus den Tiefen des Universums. Letztere verfügen über Energien von bis zu 1020 eV und sind damit deutlich energiereicher als alles, was heute in Beschleuniger-Anlagen wie dem CERN produzierbar ist: Ein einziges solch hochbeschleunigtes Proton kann ebenso viel Energie haben wie ein Stein von 1 kg Masse, wenn er von der Spitze des Eiffelturms geworfen am Boden aufschlägt. Es ist dies das 1027-fache seiner Ruhemasse.
 
Welche Mechanismen zu derart stark beschleunigten Teilchen führen ist heute erst im Ansatz bekannt. Supernovae dürften einen großen Teil davon produzieren. Die in ihren Schockwellen mitgeführten Magnetfelder können den Teilchen Energien bis 1018 eV verleihen (so argumentierte Enrioco Fermi 1949). Die noch energiereicheren kommen ganz sicher von außerhalb der Milchstraße und könnten beim Zusammenstoß von Galaxien entstehen.
 
 
Quelle: Dieter B. Herrmann: Das Urknall-Experiment (2014), S. 216-220


 

 Beitrag 0-224
Unterschiede zwischen Quantenphysik und klassischer Physik

 
 

 
Unterschiede zwischen

Quantenphysik und klassischer Physik

 
 
Basis der klassischen Physik ist die Annahme, dass jedes System durch seine Einzelbestandteile vollständig bestimmt sei. Erst Quantenphysik hat uns gelehrt, dass das nicht so sein muss:
 
Wenn etwa ein Elektron auf ein Positron trifft, so kann aus diesem System ein Paar von Lichtquanten werden. Mit anderen Worten: Ein System von zwei Fermionen, die beide Ruhemasse haben und sich nicht mit Lichtgeschwindigkeit bewegen können geht über in ein System von zwei Bosonen, die sich nur mit Lichtgeschwindigkeit bewegen.
 
Dieses Beispiel zeigt, dass die Teile, in die ein Quantensystem zerfallen kann, derart unterschiedlicher Art sein können, dass die naive Vorstellung, das Quantensystem  b e s t e h e  aus, sich von selbst verbietet.
 
In diesem Sinne besteht auch ein Tisch nicht aus Atomen oder Elementarteilchen, sondern kann lediglich in sie zerlegt werden. Er ist ein Ganzes, welches Eigenschaften hat, die auf Basis der kleinsten Teilchen, aus denen er aufgebaut scheint, noch nicht einmal formulierbar sind.
     
  • Der große Unterschied der Quantenphysik gegenüber der klassischen Physik besteht also darin, dass quantenphysikalische Objekte nur selten so verstanden werden können, dass sie aus den Teilchen bestehen, durch deren Verschmelzung sie entstanden oder in die es möglich ist, sie zu zerlegen.

 
Trotzdem also die Quantenphysik uns zeigt, dass naiver Reduktionismus Grenzen hat, gilt dennoch:
     
  • Die Quantentheorie ist die bisher genaueste Theorie, welche der Physik zur Verfügung steht.
     
  • und zudem noch die einzige, deren Vorhersagekraft bisher noch an keinerlei Grenzen gestoßen ist.

Die Quantentheorie beinhaltet einen ausgereiften mathematischen Formalismus, mit dem sich sehr gut arbeiten lässt (und das ohne Rücksicht darauf, ein wie tiefes oder auch nur einheitliches philosophisches Verständnis die zusammen arbeitenden Physiker erlangt haben).
 
Thomas Görnitz schreibt, es zeige sich hier, dass etwas zu  b e h e r r s c h e n  und etwas wirklich zu  v e r s t e h e n , zwei unterschiedliche Dinge sind:
     
  • Wir beherrschen die Quantenphysik über ihren zuverlässigen mathematischen Formalismus, und das obgleich einige ihrer bedeutendsten Mitentwickler — ja sogar die, welche diesen Formalismus schufen — der Meinung waren, die Theorie sei "unverstehbar".

 
Note: Schon im Jahr 2000 ging man davon aus, dass etwa 1/4 des Bruttosozialproduktes hochentwickelter Industriestaaten auf Anwendungen der Quantenphysik beruhe: Die gesamte Festkörperphysik, die Halbleitertechnologie, Computer, Laser, Solarzellen, Kernkraftwerke, aber auch viele medizinische Untersuchungs- und Behandlungsmethoden und -werkzeuge (man denke z.B. an Kernspintographen oder die Positronen-Emissions-Spektrographie).
 
Supraleitung und Suprafluidität gelten als besonders spektakuläre Quantenzustände, da sie sogar  m a k r o s k o p i s c h e  Phänomene sind.
 
Man sollte also nicht glauben, die Quantentheorie sei nur auf den Bereich der Mikrophysik beschränkt.
 

 
 
Elementarteilchen sind emergente Phänomene

 
Die Tatsache, dass sich Quantensysteme der reduktionistischen Methode entziehen, scheint mir darin begründet zu sein, dass selbst Elementarteilchen nicht wirklich unzerlegbar sind, sondern — als Buckel von Wellenpaketen — ja nur  e m e r g e n t e  Phänomene darstellen:
 
 
Jedes Elementarteilchen ist Summe extrem vieler Wellen, deren Menge ständigem Wandel unterliegt.

 
Den Beweis hierfür liefert die Quantenfeldtheorie. Sie nämlich sieht jedes Elementarteilen als Summe von Feldanregungen, deren jede — einzeln für sich — Welle genau einer Frequenz ist. Die Zeitspanne, über die hinweg so eine Welle existiert, kann beliebig kurz sein, muss aber — nach Heisenbergs Ungleichung für die Unbestimmtheit von Lebensdauer und Energie — umso größer sein, je kleiner die Frequenz (und damit die Energie) der Welle ist.
 

 
 
Jede klassische Systembeschreibung ist unvollkommen, da ...

 
... sie das betrachtete System
     
  • ausschließlich als Summe seiner Teile beschreibt,
     
  • hierbei selbst festlegt, was genau sie als seine kleinsten, nicht weiter zerlegbaren Teile sehen möchte,
     
  • und zudem noch sämtliche Bezüge ignoriert, die das beschriebene System hin zu seiner Umwelt hat oder haben könnte.

 
Henadische Gesamtheiten — vor allem lebendige Systeme — sind auf diese Weise nur völlig unzureichend beschrieben.
 
Dies erkennt sofort, wer sich vor Augen führt, dass kein einziges Lebewesen – ähnlich wie ein Uhrwerk – erst in kleinste Teile zerlegt und dann verlustfrei daraus wieder zusammengesetzt werden kann.

 
 
System-Isolation

 
Aus Sicht klassischer Physik sind Systeme nur dann isoliert, wenn sie sich räumlich nicht durchdringen, noch besser: wenn sie rämlichen Abstand von einander haben.
 
Ganz anders in der Quantenphysik: Hier gelten zwei Systeme als isoliert voneinander, wenn ihnen Wechselwirkung unmöglich (bzw. weitgehenst unmöglich) gemacht wurde. Dies kann auch dann der Fall sein, wenn sie sich räumlich durchdringen. Bestes Beispiel hierfür ist durch eine Glasfaser gesandtes Licht.
 
Nur isolierte Quantensysteme werden sich nicht miteinander verschränken, denn: Jede Wechselwirkung erzeugt Verschränkung.

 

  Beitrag 2115-2
Zum Spannungsfeld der Quantenfluktuation (das Vakuum zu verstehen)

 
 
Gnom in 2115-1:
 
Die Lebewesen auf unserem Planeten können nur ein bestimmtes Lichtspektrum erkennen. Sei dies nun mit oder ohne Hilfsmittel.
Es ist anzunehmen, dass es noch weitere Varianten (sehr naiv gedacht) von Licht (Strahlung) gibt, die den Lebewesen auf unserem Planeten nicht zugänglich sind.

Wenn es um das Licht geht, dann spricht man einerseits von der Wellen- und andererseits von der Teilchennatur des Lichts.
Licht ist nichts anderes als Energie. U. a. kann also der Mensch Energie in bestimmten, festen Spektralgrenzen Erfahren (messen, nutzen) und nennt diese Erfahrung Licht oder Strahlung.

Die eigentliche Natur des Lichts hat der Mensch aber noch nicht erkannt.
In seinem Bemühen, sich der Natur anzunähern, schaffte er sich gedankliche Hilfskonstruktionen (Physik, Mathematik, Philosophie), mit deren Hilfe er versucht, die Natur zu begreifen.

Was ist nun, wenn der Äther ein Urfeld, quasi das Urgerüst des gesamten Universums ist? ...

Aus diesem Urfeld entsteht Materie, die wiederum mit dem Urfeld interagiert. Soll heißen, das Urfeld bei bestimmten Bedingungen zu bestimmten Formen der Energieübertragung anregt. Energie fließt also von der Materie wieder dorthin zurück, von wo die Materie herkam, sie fließt wieder zurück ins Urfeld.

Ist es möglich, dass das, was wir Menschen als Licht (oder Energie) erfahren, nichts anderes ist, als das Fließen dieser Energie im Urfeld? Wobei dieses Urfeld das gesamte Universum ausfüllt und durchdringt, nicht nur den Raum, sondern auch das, war wir Menschen als Materie bezeichnen.

Demnach wäre alles mit allen verwoben und verbunden und Zustandsänderungen (egal welcher Art) wären nur, naiv ausgedrückt, Unterschiede im unendlich großen Energiespektralraum des Urgerüsts, aus dem und durch dem auf (für den menschlichen Geist) unerklärliche Weise das existiert, was der Mensch für sich als Realität erkennt.

Dieses Urgerüst, der Äther, wäre also ein unerschöpflicher Energiepool aus dem etwas auf Grund von Energieübertragung, Energieverdichtung oder Energiewandlung entsteht, quasi eben eine Art Energieurgerüst, ein Urenergiefeld, das bisher vom Menschen mit seinen Mitteln, die Natur zu begreifen und zu verstehen noch nicht nachgewiesen werden kann, so wie z. B. vor tausend Jahren noch niemand auf unserem Planeten in der Lage war, Radiosender zu betreiben, weil es einfach zur damaligen Zeit den Menschen nicht möglich war, diese Art der Strahlung mit den damaligen "Mitteln" erkennen zu können.

So gesehen, wäre der Äther nicht nur das Medium, in dem sich Licht bewegt, sondern er wäre das Licht selber – aber eben in dem entsprechen angeregtem, u. a. für den Menschen erfahrbaren (Energie-) Spektrum.

Wäre der Äther, das Urgerüst, in seinem Urspektrum, unter diesen Bedingungen experimentell nachweisbar?


Hallo Gnom,

die Ergebnisse von Experimenten, die zum ersten Mal Michelson & Morley durchgeführt haben, zeigen klar, dass es keinen Äther gibt in dem Sinne, dass er als ein Medium betrachtet werden könnte, in dem sich Lichtwellen analog zu Wasserwellen oder analog zu Schallwellen ausbreiten.

Andererseits scheint das Vakuum gut vergleichbar mit einem Spannungsfeld, in dem es ständig zu Entladungen beliebig kleiner Portionen solcher Spannung kommt (zu sog. Quantenfluktuation). Mit anderen Worten:

Das Entstehen eines Paares virtueller Teilchen scheint nichts anderes zu sein als Umwandlung einer sehr kleinen — wie man heute denkt  b e l i e b i g  kleinen — Portion von Spannungsenergie in zwei Wellenpakete, denen die Möglichkeit gegeben ist, sich einzeln mit anderen Wellenpaketen zu etwas Neuem zu vereinigen — wobei sie sich aber in aller Regel einfach nur wieder mit ihrem Bruder vereinigen um sich so wieder ins (nur scheinbare ?) Nichts zurückzuziehen.

Wenn man also je nochmals von existierendem Äther sprechen sollte, wird man sehen, dass er grundlegend andere Eigenschaften hat als die, die man ihm früher zuschrieb.

Deswegen ist, dieses Wort Äther zu nutzen, i.A. nur irreführend.
Man spricht stattdessen vom Vakuum und stellt sich Fragen zu seiner Natur (genau wissend, dass man sie über das eben Gesagte hinaus noch nicht verstanden hat).

Gruß, grtgrt
 

  Beitrag 2027-1
Denkbare Gründe für die Quantelung aller Wirkung

 
 

Wo immer in unserer Welt Wirkung eintritt, ist sie Vielfaches des Planckschen Wirkungsquantums.


Dieser Diskussionsfaden soll dazu dienen,

über denkbare, d.h. mindestens rein logisch mögliche Ursachen dieser Tatsache nachzudenken.


Ich persönlich kann mir mindestens zwei völlig unterschiedliche Begründungen für die Existenz des Wirkungsquantums vorstellen:

Möglichkeit 1:
    Unsere Welt (das Universum und alles, was darin geschieht) könnte tatsächlich eine rein nur errechnete sein — eine Simulation also, die sich als Menge von Information darstellt, die ständig über ein uns nicht bekanntes Regelwerk fortgeschrieben wird (etwa in dem Sinne, in dem Expertensysteme durch wiederholte Anwendung eines Regelwerkes auf vorhandene Information neue Information erzeugen).

Möglichkeit 2:
    Unser Universum könnte tatsächlich ein System schwingender Strings sein, deren jeder endliche Länge hat und demnach nur Schwingungszustände ganz bestimmter Frequenzen annehmen kann.

Zunächst erscheint uns Möglichkeit 1 als die mit Abstand unwahrscheinlichste, da es dann ja jemand geben müsste, der diese Simulation programmiert und gestartet hat.

Auf den zweiten Blick aber wäre es nicht weiter erstaunlich, dass wir ihn nicht kennen (falls es ihn gibt): Schließlich und endlich kennt ja auch keines der heute allgegen­wärtigen Software-Programme seinen Erzeuger oder weiß, dass es ihn gibt.

Sicher ist: Die Möglichkeit 2 führt auf weit mehr Fragen, als nur auf die nach dem Schöpfer der Möglichkeit. Solche Fragen wären z.B.

  • Als wichtigste: Wie kommt es, dass das System jener Strings (bzw. auch einzeln jeder String selbst) ständig neue Konfiguration annimmt?
  • Und was genau schwingt da eigentlich?
  • Können Strings vergehen und neue entstehen?
  • Wie viele Dimensionen (Freiheitsgrade) kann so ein "String" haben?

 

  Beitrag 2027-3
Programme, die sich selbst kennen (und sich sogar selbst modifizieren können)

 
 
Bauhof aus 2027-2:
Grtgrt aus 2027-1:
 
Auf den zweiten Blick aber wäre es nicht weiter erstaunlich, dass wir ihn nicht kennen (falls es ihn gibt):
Schließlich und endlich kennt ja auch keines der heute allgegen­wärtigen Software-Programme seinen Erzeuger oder weiß, dass es ihn gibt.
 

Hallo Grtgrt ,

dein Vergleich hinkt gewaltig, denn keines der heute allgegenwärtigen Software-Programme kann irgendetwas wissen.

M.f.G. Eugen Bauhof

Hallo Eugen,

es gibt durchaus Software-Programme, die (auf bestimmter Abstraktionsebene) sehr viel über sich selbst wissen. Man nennt sie "regelbasiert arbeitende Programme".

Mehr noch: Es gibt sogar solche, die in der Lage sind, sich selbst — auf Basis dieses Wissens — zu modifizieren (trainierbare KI Software wie etwa künstliche neuronale Netze).

Beste Grüße,
grtgrt
 

 Beitrag 0-536
SUSY, Supergravitation und Stringtheorie — Wie sie sich zur Superstringtheorie ergänzen

 
 

 
SUSY,  SUGRA  und Stringtheorie

 
 
Ein theoretischer Physiker, hat mir den Zusammenhang zwischen
     
  • Supersymmetrie (SUSY),
     
  • den 5 Varianten heute bekannter Stringtheorie
     
  • und der 11-dimensionalen Supergravitationstheorie (SUGRA)

nahezu wörtlich folgendermaßen erklärt:


Gesprächsnotiz (2021):
 
Der SUSY liegt die Vorstellung zugrunde, dass Fermionen (F) und Bosonen (B) zwei unterschiedliche Zustände eines einzigen Superteilchens sind.
 
Dies ist ganz analog zu verstehen zur Isospin-Symmetrie in der Kernphysik, wonach man sich das Proton und das Neutron als zwei unterschiedliche Zustände des Nukleons vorzustellen hat. Sie unterscheiden sich nur durch die 3-Komponente I3 des Isospins I, der mathematisch eine drehimpuls-artige Größe ist. Dem Proton ordnet man die Isospinkomponente I3 = 1/2 und dem Neutron I3 = -1/2 zu. Der zugrundeliegende Raum ist dann der Isospinraum.
 
Im sogenannten Superraum, dem Zustandsraum der SUSY, liegen Fermionen und Bosonen, als unterschiedliche Realisierungen eines Superteilchens, nebeneinander. Nebeneinander heißt, dass wenn man ein Fermion mit Spin J hat, man immer auch einen Superpartner mit Spin J + 1/2 oder J - 1/2 finden kann.
 
Mittels einer SUSY-Transformation im Superraum kann ein gegebenes Fermion F mit Spin J in ein benachbartes Boson B mit Spin J -1/2 oder J +1/2 überführt werden. Dadurch sind Fermionen und Bosonen ineinander transformierbar und hinsichtlich dieser Eigenschaft symmetrisch, 'supersymmetrisch', wie man sagt.
 
Führt man die SUSY-Transformation nochmals durch, erhält man das ursprüngliche Fermion zurück, allerdings hat sich dieses nun in der 4-dimensionalen Raumzeit verschoben. Eine Verschiebung eines Punktes in der Raumzeit wird aber durch die Translationsgruppe der Poincare-Gruppe beschrieben. Die SUSY hat deswegen zur Folge, dass man von globalen zu lokalen Eichtransformationen übergehen kann, was aber die Einführung von Eichfeldern notwendig macht.
 
Da die lokale Poincare-Invarianz eine notwendige Eigenschaft der ART ist, besteht ein Zusammenhang zwischen der ART und SUSY.
 
Das Graviton mit Spin J = 2 kann im Rahmen der lokalen SUSY sinnvoll eingeführt werden, wenn sein SUSY-Partnerteilchen ein Fermion mit Spin J = 3/2 ist, Diese Partnerteilchen bezeichnet man als Rarita-Schwinger-Feld (RSF): Es versteht sich als Eichfeld zum Graviton. Die Feldgleichung des RFS ist die Rarita-Schwinger-Gleichung. Man kann nun verschiedene Fälle der SUSY untersuchen, indem man die Anzahl N der Generatoren der Superalgebra variiert. N = 1 heisst dann einfache Supergravitation (SUGRA), und N > 1 erweiterte SUGRA.
 
Man kann zeigen, dass die SUGRA in der 4-dimensionalen Raumzeit nur für maximal N = 8 möglich ist. Die Zahl N der Generatoren der SUSY-Algebra spielt eine wichtige Rolle in der Klassifikation der unterschiedlichen Varianten der Superstringtheorien.
 
 
Übergang zu 11-dimensionaler Raumzeit:
 
Die bisher beschriebene SUGRA ist auf einer 4-dimensionalen Raumzeit definiert. Die SUGRA ermöglicht die Einbeziehung von Fermionen in die ART. Edward Witten konnte zeigen, dass zur Einbeziehung der elektromagnetischen, schwachen und starken Wechselwirkung man die ursprüngliche Kaluza-Klein-Theorie um 7 Dimensionen erweitern muss. und dass es unterhalb 11 Raumzeit-Dimensionen unterschiedliche Versionen der SUGRA gibt. SUGRA wird erst dann eindeutig, wenn die Dimension der Raumzeit genau 11 ist.
 
Dass sich in Raumzeiten mit mehr als 11 Dimensionen keine konsistente SUSY-Theorie mehr formulieren läst, wurde 1977 erkannt durch W. Nahm in: Supersymmetries and their representations, Nuclear Physics B135 (1978).
 
Der Anschluss der SUGRA an die Stringtheorie erfolgte, als erkannt wurde, dass auch die 11-dimensionale SUGRA störungstheoretisch nicht zu renormieren ist. Die Stringtheorie wurde aber ja gerade deswegen entwickelt, weil sie die Unendlichkeiten vermeidet, die bei Wechselwirkungen auftreten.
 
Aus diesem Grund sind die Superstringtheorien Typ I, Typ IIA und Typ IIB supersymmetrisch. Ebenfalls supersymmetrisch sind die beiden heterotischen Stringtheorien E8xE8 und SO(32) .
 
 
Interessant auch: Strings der Theorie vom Typ I sind offene Strings. Alle anderen Varianten der Stringtheorie haben in sich geschlossene Strings zum Gegenstand.