Entropie





welt-verstehen/Entropie+Wissen+Gleichgewicht+Systemkomplextität, stw6029EWGS

Über Entropie

   





D i s k u s s i o n


 Beitrag 0-460
Entropie ist fehlendes Wissen — und daher ein recht relativer Begriff

 
 

 
Entropie ist fehlendes Wissen

 
 
Entropie ist relativ, denn sie steht immer für fehlendes Wissen:
     
  • entweder für fehlendes Detailwissen über den Zustand eines physikalischen Systems
     
  • oder für fehlendes Wissen über die Bedeutung einer empfangenen Nachricht.


 

 Beitrag 0-116
Entropie ist durch uns nicht wahrgenommene Information

 
 

 
Entropie im thermodynamischen Sinne

 
 
Erfunden hat diesen Begriff der deutsche Physiker Rudolf Clausius. Er hat ihn mathematisch definiert als
 
Entropie  =  Wärme dividiert durch Temperatur

 
Hierbei ist Wärme die Summe der kinetischen Energie der sich gegeneinander bewegenden Teile des Systems.
 
Entropie hat eine Eigenschaft, die der ältere Begriff "Energie" nicht hat: Wenn ein System sich selbst überlassen ist, wie etwa eine Tasse Tee auf einer Tischplatte, so wird die Summe der Entropie dieser Portion Tee und der Entropie der Umgebungsluft niemals abnehmen. Diese Beobachtung führte Clausius zur Entdeckung des Zweiten Hauptsatzes der Thermodynamik:
 
Ohne äußere Einflüsse wird die Entropie eines Systems niemals abnehmen.

 
Dieses Gesetz bestätigt sich durch die Beobachtung, dass in einem System ungleichmäßig verteilte Wärme stets aus der Region höherer Temperatur in die Region niedrigerer Temperatur fließt.
 
Sich das präsent zu machen stelle man sich zwei würfelförmige Eisenblöcke gleicher Größe vor. Block B1 sei 100 Grad warm, Block B2 aber nur 1 Grad. Wenn wir sie aneinander rücken, so dass sie sich entlang einer Seite berühren, wird Wärme vom heißeren Block in den kälteren fließen. Die Summe der Wärme-Energie beider bleibt hierbei erhalten,
  • doch wird B1 die Entropiemenge Wärme/Temperatur = 1/100 verlieren,
     
  • während B2 die Entropiemenge 1/1 gewinnt.
Somit steigt die Entropie des Gesamtsystems um 1/1 - 1/100 = 0.99 (sie würde sinken nur dann, wenn die Temperatur aus der kühleren in die wärmere Region flösse).
 
 
Boltzmann war mit all dem noch nicht zufrieden, da er sich die Frage stellte, was das Verhältnis Wärme/Temperatur (Entropie also) denn eigentlich bedeute.
Was man damals schon wusste, war nur:
  • Wärme ist die Bewegungsenergie der chaotisch hin und her fliegenden Atome.
     
  • Temperatur entspricht der mittleren Energie der einzelnen Moleküle.
     
  • Gasdruck ist das Ergebnis der kollektiven Stöße der Moleküle gegen die Wand des Behälters.
Noch rätselhaft aber war das Wesen der Entropie. Man wusste nur, dass die Entropie eines Gesamtsystems sich als Summe der Entropien seiner Teilsysteme darstellt. Zudem kannt man das Ergebnis von vier in diesem Zusammenhang interessanter Experimente (durchgeführt mit 4 Paaren gleicher Glasbehälter mit flachen, rechteckigen Seitenwänden):

     
  • Versuch 1: Man fülle einen der Behälter mit einem farbigen Gas, mit Bromgas etwa, das braun ist, und lasse den anderen leer (gasfrei). Verbindet man die beiden Flaschen dann mit einem Schlauch und öffnet den Durchfluss, so dehnt das Bromgas sich aus und wird schnell den gesamten zur Verfügung stehenden Raum füllen. Da sich die Gasmoleküle nicht sehr oft treffen und von den Wänden wie Tennisbälle elastisch zurückgeworfen werden, behalten sie ihre ursprüngliche Geschwindigkeit, nehmen nun aber doppelt so viel Raum ein wie vorher. Konsequenz daraus: Die Temperatur des Gases bleibt erhalten, sein Druck aber verringert sich.
     
  • Versuch 2: Man fülle zwei der Flaschen mit Wasser: eine davon mit heißem, die andere mit kaltem und presse sie dann aneinander. Wie oben schon beschrieben wird eine Wärmeausgleich stattfinden: Die sich schneller bewegenden Moleküle werden langsamer, die langsameren werden schneller.
     
  • Versuch 3: Das dritte Paar von Flaschen fülle man mit zwei verschiedenen Gasen, die eine mit Brom (braun), die andere mit Luft (farblos). Verbindet man ihre Öffnungen mit einem Schlauch und öffnet den Durchfluss, werden die beiden Gase sich vermischen, bis schließlich der gesamte Innenraum der Flaschen einheitlich mit einenr schwach-braunen Mischung aus Brom und Luft gefüllt ist.
     
  • Versuch 4: Das vierte Flaschenpaar fülle man mit Brom gleicher Temperatur und so, dass der Druck in beiden Flaschen gleich groß ist. Nachdem die Verbindung geöffnet ist, sieht man keinerlei Veränderung, obgleich auch jetzt viele Moleküle von der einen in die jeweils andere Flasche wandern.

 
In allen 4 Versuchen bleibt die in den Flaschen enthaltene Gesamtenergie konstant. Die Entropie im Inneren des Flaschenpaars wird in Versuch 1, 2 und 3 steigen,
in Versuch 4 aber konstant bleiben. Was nun ist der Grund hierfür?
 
Hier nun hatte Boltzmann die Eingebung, die ihn bekannt gemacht hat: Er sah den Unterschied in der  A n o r d n u n g  der Moleküle zu Beginn und nach Ende der Experimente, und ihm wurde bewusst: Ein zufälliger Prozess würde mit sehr viel größerer Wahrscheinlichkeit zu einer Anordnung der Moleküle führen, wie sie nach dem Experiment vorliegt, statt zu einer, wie sie zu Beginn vorlag.
 
Wieso aber verändert Versuch 4 die Entropie des Gesamtsystems nicht (wo wir doch wissen, dass auch hier viele Moleküle aus der einen in die andere Flasche gelangen und so doch auch zu einem neuen Zustand des Systems führen)?
 
Der Grund hierfür: Der Beobachter hat keine Möglichkeit, diese beiden verschiedenen Zustände von einander zu unterscheiden (weder durch Hinsehen, noch mit chemischen oder physikalischen Verfahren). Die Tatsache, dass die Entropie in Versuch 4 unverändert bleibt, ist deutlicher Hinweis darauf, dass sie nur etwas mit dem zu tun haben kann, was wir über das System  w i s s e n .
 
 
Genau das ist der Grund, warum man Entropie auch mit Unordnung (= fehlender Information) gleichsetzt.
 
Boltzmann sah diese Beziehung und führte sie noch weiter aus: Der Wert der Entropie eines Systems wächst von Null (wenn wir alles über den Systemzustand wissen) bis hin zu einem Maximalwert (der dann eintritt, wenn wir praktisch nichts wissen): Entropie quantifiziert das Ausmaß unseres Unwissens über die Einzelheiten der Bewegungen gegen einander beweglicher Teile des Systems.
 
 
Über diesen Umweg — die Identifikation von Entropie mit fehlender Information — brachte Boltzmann das Konzept der Information in die Physik.
 
Dass er dann zu seiner berühmten Formel
 
Entropie  =  k • log( Z )

 
gelangt ist (mit Z als Anzahl aller möglichen Systemzustände), liegt daran, dass
  • die Formel verträglich sein musste mit der Tatsache, dass die Entropie der Teilsysteme eines Systems die Summe der Entropien der Teilsysteme ist — und das obgleich doch die Anzahl aller Zustände des Gesamtsystems das  P r o d u k t  der entsprechenden Zahlen für die Teilsysteme ist.
     
  • Die Boltzmann-Konstante k schließlich ist einfach nur ein Normierungsfaktor, der Boltzmanns Quantifizierung der Entropie verträglich macht mit der von Clausius (Entropie = Wärme/Temperatur).

 
 
 
Entropie im informationstechnischen Sinne

 
 
Die Physik — so schreibt Honerkamp — versteht unter Entropie das Ausmaß uns fehlenden Wissens über dem Mikrozustand eines physikalischen Systems:
Je mehr Mikrozustände (z.B. einer Menge von Gas) möglich sind, desto unwahrscheinlicher wird es, dass ein ganz bestimmter vorliegt, und desto höher ist deswegen die Entropie des Systems der sich unabhängig voneinander bewegenden Teilchen.
 
Informationstechnisch präzisiert man das wie folgt:
 
 
Bezeichnet Z die Zahl aller einem System möglichen Zustände, so ist
 
 
log2( Z ) sein maximal möglicher Informationsgehalt.

 
Als informationstechnische Entropie des Systems (synonym: Unordnung) bezeichnet man den Teil dieser Information, der sich einem Beobachter nicht erschließt, wenn es Systemzustände gibt, die aus seiner Sicht ununterscheidbar sind.
 
Man sieht also:
 
Der Begriff » Information « ebenso wie die Gleichung
 
Informationgehalt = maximal möglicher Informationsgehalt abzüglich Entropie
 
machen erst Sinn, wenn man einen betrachtenden, denkenden Menschen ins Spiel bringt: Sie sind nur relativ zu ihm wohldefiniert.

 
 
 

Note: Physiker tun sich häufig schwer mit dem Entropiebegriff. Dies aber nur dann, wenn ihnen nicht bewusst ist, dass er sich aus informationstechnischer Sicht heraus eben doch ein klein wenig anders definiert als in der Thermodynamik.
 
 
Bücher, die sich ganz dem Nachdenken über das Wesen der Information widmen, sind:

 

 Beitrag 0-406
Thermodynamisches Gleichgewicht maximiert die Entropie idealer Gase

 
 

 
Entropie und thermodynamisches Gleichgewicht

 
 
Ein in sich abgeschlossenes System frei gegen einander beweglicher Teilchen — man nennt solche Systeme ideale Gase — befindet sich genau dann im thermischen Gleichgewicht, wenn es absolut gleichförmige Struktur hat, d.h. wenn die Gleichförmigkeit der Teilchenverteilung praktisch nicht mehr wachsen kann.
 
Was in populärwissenschaftlicher Literatur als "Unordnung" bezeichnet wird, ist nichts anderes als das Ausmaß, in dem die Teilchenverteilung gleichförmig ist.
 
Da die Gleichförmigkeit der Teilchenverteilung mit der Temperatur des Gases — d.h. mit der Geschwindigkeit seiner sich frei gegen einander bewegenden Teilchen — steigt, lässt sich auch sagen: Die Entropie des Systems — sie quantifiziert unser fehlendes Wissen über seinen Miikrozustand — wächst mit seiner Temperatur.
 
 
 
Gegenstand der Wärmelehre sind Teilchensysteme, die man mit sehr guter Näherung als ideales Gas betrachten kann.
 
Genau genommen aber kennt die Natur keine idealen Gase. Der Grund hierfür: Da jedes Teilchen Energie darstellt und daher Gravitation erzeugt, reduziert es die Freiheit der sich relativ zu ihm bewegenden anderen Teilchen.

 

 Beitrag 0-154
Entropie korrespondiert mit Systemkomplexität

 
 

 
Entropie korrespondiert mit Systemkomplextität

und auch mit der Genauigkeit, mit der man den jeweiligen Systemzustand kennt

 
 
Ist S ein in sich abgeschlossenes System und Z(t,S) sein Zustand zum Zeitpunkt t, so macht es Sinn, unter der Kompexität K(t,S) von S zum Zeitpunkt t die Länge der kürzesten Bitfolge zu verstehen, über die sich der Zustand Z(t,S) komplett beschreiben lässt.
 
 
Je komplexer die einem System möglichen Zustände sind, desto höher kann
 
seine Entropie (im informationstechnischen Sinne) sein.

 
 
Note: Entropie ist eine  s u b j e k t i v e  Größe: Sie ist umso kleiner, je genauer der Beobachter den Systemzustand kennt.

 

 Beitrag 0-403
In schnell expandierenden Gasen ist Entropie kein Maß für Strukturlosigkeit (= sog. "Unordnung")

 
 

 
Zum 2. Hauptsatz der Thermodynamik

und dem

Zusammenspiel von Dichte, Entropie und Ordnung

 
 
Nach dem 2. Hauptsatz der Thermodynamik kann die Entropie eines sich selbst überlassenen Systems praktisch nie abnehmen und wird maximal sein, wenn absolutes Gleichgewicht herrscht (dann also gar nichts mehr passieren kann).
 
Wie aber verträgt sich dieses Gesetz mit der Tatsache, dass der Inhalt unseres Universums zunächst ein absolut gleichmäßig verteiltes dichtes Plasma war — eine absolut strukturlose Welt — sich dann aber schnell immer reichhaltigere Strukturen — Atome, Sterne, Galaxien — entwickelt haben (Ordnung also) und die Entropie des Universums dennoch ständig nur zunahm?
 
Kann es also wirklich richtig sein, dass — wie man oft liest — Entropie ein Maß für Unordnung ist?
 
 
Helmut Satz, Prof. em. für Theoretische Physik, stellt klar:


Zitat von S. 141 in seinem Buch Kosmische Dämmerung:
 

Zunahme von Entropie ist nicht — wie mitunter behauptet wird — gleichbedeutend mit
 
Zunahme von Unordnung (= Strukturlosigkeit).

 
 
Ausführlicher (S. 136-141):
 
 
Lange Zeit wurde das scheinbare Dilemma zwischen dem Entstehen von Struktur im Universum und dem 2. Hauptsatz der Thermodynamik dadurch umgangen, dass man annahm, dass sich unsere Welt zunächst in einem nicht näher definierten Zustand niedriger Entropie befand, um sich dann über die zeit hinweg immer von einem geordneten Zustand in einer zunehmend ungeordneten mit entsprechend höherer Entropie zu entwickeln — eben solange, bis es dann den sog. » Wärmetod « sterben würde, sprich: von maximaler Entropie und ohne jede Struktur sein würde.
 
Nach heutigem Wissen ist diese Vorstellung nun aber nicht mehr haltbar: Wir denken, den Zustand des Universums direkt nach dem Urknall zu kennen (strukturloeses Plasma), haben zudem gelernt, dass der Raum ständig expandiert, und fragen uns nun, ob diese Expansion das Erreichen eines Gleichgewichts (d.h. einen Zustand maximaler Entropie) denn überhaupt jemals erlaubt.
    Wenn Teilchen elektrisch geladen sind und die Zahl der positiv bzw. negativ geladenen gleich groß ist, kann bei hoher Temperatur und Dichte könnte nur ungeordnetes Plasma Zustand höchster Entropie sein. Bei niedriger Temperatur aber würden sie sich zu ladungsneutralen Gruppen (Atomen und Molekülen) zusammenfinden.
     
    Für ein Medium aus nicht oder nur schwach wechselwirkenden Teilchen ist der Zustand größter Entropie immer ein ungeordnetes, strukturloses und daher absolut gleichförmig verteiltes Gas. Wenn die Wechselwirkung infolge fallender Temperaturen aber stärker wird, kann es zu Kristallbildung kommen.

Schon 1975 hat David Kayzer den Einfluss expandierenden Raumvolumens auf den 2. Hauptsatz der Thermodynamik als mögliche Ursache für das Entstehen kosmischer Strukturen vorgeschlagen. Wird nämlich ein Behälter, der Gas im thermischen Gleichgewicht enthält, rasch vergrößert, bilden im expandierenden Gas die Expansionsrate und die Relaxationsgeschwindigkeit zwei kritische, einander entgegengesetzte Faktoren:
    Ist die Expansionsrate hinreichend klein, hat das System genügend Zeit, ständig neu maximale Entropie zu erreichen,
     
    andernfalls aber wächst die maximale Entropie rascher als die tatsächliche, so dass das System sich ständig weiter vom thermischen Gleichgewicht — absoluter Strukturlosigkeit — entfernt.

Das, so sei betont, steht in Einklang mit dem 2. Hauptsatz: Die Entropie nimmt ständig zu, erreicht aber nie das dem jeweiligen Volumen (= der jeweiligen Dichte) zugeordnete Maximum.
 


 
Quelle: Helmut Satz: Kosmische Dämmerung (2016), S. 136-141

 
 
Kommentar: Dieses Buch beschreibt glasklar der Astrophysiker aktuellstes Verständnis davon,
     
  • wie es zum Urknall kam
     
  • und wie Materie, Raum, und die heutige Struktur des Universums entstanden sind.

Lediglich Kapitel 6 des Buches — wo es um das richtige Verstehen des 2. Hauptsatzes der Thermodynamik geht und seine Nicht-Anwendbarkeit auf die Evolution des Universums — könnte etwas geschickter formuliert sein. Es wird dort erklärt:

 
Dass unser Universum in seiner bisherigen Geschichte ständig an Struktur gewonnen hat, scheint dem 2. Hauptsatz der Thermodynamik zu widersprechen. Das aber ist nicht so, denn:
 
Der 2. Hauptsatz — den jeder Physiker als mit Sicherheit richtig erachtet — besagt, dass die Entropie eines sich selbst überlassenen idealen Gases bei nahezu jedem Zustandsübergang zunehmen wird.
 
In populärwissenschaftliche Büchern wird Entropie als ein Maß für "Unordnung" bezeichnet, was aber nur grob richtig ist:
     
  • Mit "Unordnung" ist Strukturlosigkeit gemeint (wohingegen "Ordnung" als "von reichhaltiger Struktur" zu verstehen ist).
     
    Der Autor versucht dann zu erklären, warum Entropie und Strukturlosigkeit keineswegs immer proportional zu einander wachsen.
     
    Mich erinnert das daran, dass nach Josef Hohnerkamp Entropie uns fehlendes Wissen über den Mikrozustand eines Systems quantifiziert und daher ein relativer Begriff ist: Unterschiedliche Betrachter eines Systems können unterschiedlich viel Wissen über seinen Mikrozustand haben.
     
  • Der 2. Hauptsatz gilt nur für sog. "ideale Gase", d.h. für Systeme, deren Teile sich — abgesehen von Zusammenstößen — absolut unbeeinflusst von einander bewegen.
     
  • Gaswolken im All aber (ebenso wie das Plasma direkt nach dem Urknall) können  n i c h t  als ideales Gas eingestuft werden, da ja Elementarteilchen stets von mindestens der Gravitationskraft zu einander hin gezogen werden. Sie ist zwar extrem schwach, addiert sich aber vorzeichenlos, da Gravitation — im Unterschied zur elektromagnetischen oder auch der starken Wechselwirkung — keine ladungsabhängige Kraft ist (Summanden sich also nicht zu Null aufaddieren können).

Fazit also:

Den 2. Hauptsatz der Thermodynamik aufs Universum anwenden zu wollen, wäre falsch.


 

 Beitrag 0-260
Entropie und der thermodynamische Zeitpfeil: Boltzmanns Theorie

 
 

 
Entropie und der 2. Hauptsatz der Thermodynamik

erklärt durch Klaus Mainzer

 
 
Boltzmanns statistisch-mechanischer Ansatz bestand darin, das makroskopische Geschehen durch mikroskopische Vorgänge mit sehr vielen Teilchen und sehr vielen Freiheitsgraden zu erklären:
 
Ein beobachtbarer Makrozustand — beschrieben durch ortsabhängige Dichte, Druck, Temperatur — kann i.A. durch eine große Anzahl Z von Mikrozuständen verwirklicht werden.
 
Nach Boltzmann ist  die Entropie  S = k • ln( Z )  des Makrozustandes eines Systems ein Maß für die Wahrscheinlichkeit, mit der sich die Moleküle eines Gases so gruppieren, dass es den beobachtbaren Makrozustand einnimmt.
 
 
Boltzmann wies darauf hin, dass der 2. Hauptsatz der Thermodynamik — welcher sagt, dass die Entropie geschlossener Systeme niemals abnimmt — nicht allein aus den Gesetzen der Mechanik folgt, sondern nur gelten kann unter der zusätzlichen Annahme einer extrem unwahrscheinlichen Anfangsbedingung.

     
    Ungleichmäßige Verteilungen gehen dann in Gleichverteilung über.
     
    Im allgemeinen ändert eine zeitliche Umkehr der mikroskopischen Bewegungen nichts an der Konvergenz hin zur Gleichverteilung.
     
    Der 2. Hauptsatz gilt also nicht mit Sicherheit, sondern stets nur mit extrem großer Wahrscheinlichkeit.
     
    Zudem sind irreversible Vorgänge nur besonders häufig und wahrscheinlich, ihre Umkehrung aber selten und unwahrscheinlich.

 
Insbesondere lässt der 2. Hauptsatz lokal Abweichungen (Schwankungen, Fluktuationen) zu, deren experimentelle Bestätigung Boltzmann nicht mehr bewusst miterlebt hat: 1905 zeigte Einstein, dass die den Botanikern damals schon lange bekannte Brownsche Bewegung Fluktuationen darstellt, welche lokale Durch­brechungen des durch den 2. Hauptsatz postulierten Wahrscheinlichkeitstrends darstellen: Mikroskopische, in einer Flüssigkeit aufgeschwemmte Teilchen zeigen, dass sie von Atomen zufällig einmal von einer, dann von einer anderen Seite stärker angestoßen werden. Es kommt so zu einer regellosen Zitterbewegung, obgleich sich doch aller Wahrscheinlichkeit nach die Stöße voll kompensieren müssten.

 
 
Über den thermodynamischen Zeitpfeil

 
Poincaré und Zermelo betonten (1896), dass jeder Zustand eines mechanischen Systems mit endlich vielen Freiheitsgraden sich irgendwann wiederholen — oder wenigstens annähernd wiederholen — müsse. Da also sämtliche Zustände wenigstens annähernd wieder neu eintreten, könne es einen Zeitpfeil, der mit Entropiezunahme verbunden ist, nicht geben.
 
Boltzmann begegnete dieser Argumentation mit dem Einwand, dass mit zunehmender Zahl der Freiheitsgrade die Wiederkehrzeiten extrem lang würden.
 
Insgesamt, so Boltzmann, komme man zum Ergebnis, dass die Gesetze der Mechanik zeitlich reversibel, das wirkliche Geschehen aber nahezu irreversibel sei.
 
Es gebe also 2 Möglichkeiten:
    1. Die Welt könne aus einem sehr unwahrscheinlichen Anfangszustand weit weg von Gleichverteilung entstanden sein.
     
    2. Wenn die Welt nur groß genug ist, gibt es irgendwo starke Abweichungen von der Gleichverteilung.

Bei der Auflösung solche außergewöhnlicher Zustände ist der Prozess einsinnig und wird als Zeitpfeil empfunden.
 
Nach Boltzman gibt es also gar keine ausgezeichnete Zeitrichtung.
 
 
Die Tatsache, dass wir Menschen ein Zeitbewusstsein haben, könnte — so hat man dann aus Boltzmanns Theorie gefolgert — gut darauf zurückzuführen sein, dass der Bereich des Universums, in dem wir leben, noch weit vom Gleichgewicht entfernt ist.
 
Die am ehesten geeignete Grundlage einer Theorie des Lebens wäre dann eine Thermodynamik des Nicht-Gleichgewichts.

 
 
Quelle: Klaus Mainzer: Zeit — von der Urzeit zur Computerzeit, Beck'sche Reihe (1995, 2011), S. 76-79.

 

 Beitrag 0-543
Über Entropie, dissipative Strukturen, und Leben

 
 

 
Entropie

— Hier erklärt als Unlust von Energie sich zu wandeln —

 
 
Im Forum gutefrage.net hat ein Naturwissenschaftler, der sich dort Hamburger02 nennt, zwei recht lesenswerte Erklärungen abgegeben.
 
Da dieser Herr Ilya Prigogine's Theorie dissipativer (= Energie entwertender) Strukturen verstanden zu haben scheint — was ich von mir nicht behaupten kann —, sei hier wiedergegeben, was er schrieb:
 


 
Entropie ist einer der abstraktesten Begriffe, die es in der Physik gibt, und daher gar nicht mal so einfach zu erklären.
 
Entropie kann man nicht anfassen, sehen oder direkt messen. Auch viele Lehrer, Physiker und Chemiker haben mit diesem Begriff größte Schwierigkeiten und können kaum erklären, was Entropie eigentlich sein soll.
 
Selbst Einstein oder Hawking hatten damit so ihre Probleme und teils sogar bezweifelt, ob es Entropie wirklich gibt oder ob das nicht bloß ein künstlicher menschgemachter Begriff sei.
 
Inzwischen ist aber nachgewiesen, dass Entropie tatsächlich existiert als etwas, das naturgesetzlichen Charakter hat. Ich versuche, den jetzt etwas anders zu erklären, als man das sonst hört oder liest:
 
Der Energieerhaltungssatz (= 1. Hauptsatz der Thermodynamik) macht nur Aussagen über die Energiemenge.
 
Nun hat man aber im Laufe der Zeit festgestellt, dass Energie nicht nur nach ihrer Menge beurteilt werden kann, sondern auch danach, wie einfach es ist, gegebene Energie Arbeit verrichten zu lassen. d.h. wie einfach es ist, sie von der Form, in der sie vorliegt in irgend eine andere Form umzuwandeln. Hiernach nämlich bemisst sich ihr Wert.
     
  • Höchsten Wert besitzt sie als Gravitationsenergie. Sie nämlich lässt sich mit Abstand am leichtesten in eine andere Energieform umwandeln, z.B. in kinetische Energie. Dazu braucht man einen Gegenstand nur loszulassen und er fällt von alleine nach unten, nimmt also Geschwindigkeit auf.
     
  • Geringsten Wert als Wärmeenergie bei Umgebungstemperatur. Sie arbeiten zu lassen ist nahezu unmöglich. So besitzt die Luft der Atmosphäre durch ihre Temperatur zwar jede Menge innere Energie, aber mit der z.B. eine Maschine zu betreiben oder einen Körper zu beschleunigen, ist praktisch unmöglich.

 
Entropie quantifiziert fehlenden Wert von Energie in diesem Sinne.
 
Umso höher die Entropie eines Systems, desto weniger nutzbar ist seine Energie, um Arbeit zu leisten.

     
    Will das mal an einem Beispiel verdeutlichen. Wenn du irgendwo ein Kilo Äpfel kaufst, reicht nicht nur die Kenntnis der Menge, also 1 kg, denn musst du entsprechend der Qualität dieser Äpfel unterschiedliche Preise bezahlen. Die teuersten Äpfel haben Handelsklasse A. Sie besitzen noch keine Entropie. Die sind makellos und die kann man unbeschränkt in andere Apfelprodukte umwandeln, sei es ein Apfel zum essen, in Apfelkuchen, Apfelsaft oder was immer du willst. Äpfel der Handelsklasse B haben schon kleine Qualitätsmängel. Die bietet man nicht mehr unbedingt auf einer Obstschale zum Essen an, aber Apfelkuchen oder Apfelsaft kann man noch gut daraus machen. Billig sind sogenannte Saftäpfel. Die kommen gar nicht mehr in den Handel, sondern werden nur noch zu Apfelsaft gemacht. Die schlechteste Qualität haben völlig verfaulte Äpfel, denn aus denen kann man gar nichts mehr machen. Diese verfaulten Äpfel haben damit die maximale Entropie, sie bestehen nur noch aus Abfall.

 
Nun sagt der 2. Hauptsatz der Thermodynamik aus, dass in einem geschlossenen System die Entropie immer nur zunehmen, aber niemals abnehmen kann. Dieser Grundsatz gilt im gesamten Universum sowohl für die Energie als auch für die Äpfel. Wenn jemand eine Kiste mit Äpfeln der Handelsklasse A hat, muss er nichts tun, damit die Entropie zunimmt. Die Äpfel faulen im Laufe der Zeit ganz von alleine. Es ist aber noch niemals beobachtet worden, dass aus einer Kiste faulender Äpfel im Laufe der Zeit von alleine Äpfel der Handelsklasse A wurden.
 
Energie verfault nicht, da spricht man von Entwertung (= Dissipation). Alle Energie strebt danach, entwertet zu werten und das geht auch von alleine.
 
Kurz: Alle Energie strebt dazu, sich letztlich in Wärme umzuwandeln. Bei allen praktischen Prozessen, bei denen Energie umgewandelt wird, entsteht — meistens durch Reibung — auch Abwärme, mit der man nichts mehr anfangen kann. In dieser Abwärme steckt die entstandenen Entropie. Diese Abwärme verringert immer auch den Anteil der Energie, der umwandelbar bzw. arbeitsfähig bleibt. Zusammenfassung: Entropie ist ein Maß für die Nutzbarkeit von Energie. Je höher die Entropie eines Systems, umso mehr hat seine Energie sich schon entwertet und umso geringer ist ihre Fähigkeit, Arbeit zu leisten.
 
Alle Energie im Universum hat das natürliche Bestreben, sich zu entwerten.
 
Nur Kräfte, die auf Teile des Systems wirken, können Entwertung von Systemenergie aufhalten oder rückgängig machen.
 
Um die Entropie in einem geschlossenen System zu verringern, muss immer Energie zugeführt werden. Man braucht Kräfte, die ordnend eingreifen., d.h. von aussen kommende Energie, die arbeitet.
 
 
    Hätte man also eine Kiste mit Äpfeln mittleren Entropie (= solche, die erst wenig angefault sind), könnte man aufwertend eingreifen, indem man überall das Faulige wegschneidet und wegwirft, so dass man aus dem Rest immerhin noch Saft machen könnte.
     
    Genauso wäre das auch mit Energie. Um die Entropie eines geschlossenen Systems zu verringern, muss man von außen hochwertige Energie zuführen. Der Energieabfall, Entropie also, würde dann in der Umwelt landen und deren Entropie entsprechend erhöhen.
     
    Häufig wird Entropie im Schulunterricht auch als ein Maß für im System herrschende Unordnung bezeichnet. Hohe Ordnung bedeutet dabei hohe Qualität, also niedrige Entropie, während maximale Unordnung maximale Entwertung (= maximale Entropie) bedeutet.
     
    Unordnung bedeutet fehlende Arbeit verrichtende (= Ordnung schaffende) Energie.


 


 
An was man Leben als solches erkennen kann



Hamburger02 ( mit einer Präzisierung durch Brian Greene ):
 
Note: Was im Folgenden erklärt wird, war gedacht als Antwort auf eine Frage, die lautete:
    Auch aus unserer alltäglichen Erfahrung kann Ordnung nur dort entstehen, wo Arbeit von außen geleistet wird.
    Also muss es auch etwas (jemanden?) geben, das oder der die Ordnung (das Leben) auf der Erde schafft. Ist das nicht aus der Thermodynamik so??

Hamburger02 beantwortet sie wie folgt (ergänzt durch eine Präzisierung seitens Brian Greene):
 
Das ist nur in der Nähe des Thermodynamischen Gleichgewichtes so. Dieses Argument, der 2. Hauptsatz der Thermodynamik würde der Entstehung von Leben widersprechen, kommt gerne mal von Kreationisten, ist aber falsch. Meine Erfahrung ist außerdem aus Diskussionen zu diesem Thema, dass fast alle, die dieses Argument bringen, es nur nachplappern, selbst aber das Wesen und die Bedeutung der Entropie überhaupt nicht verstanden haben.
 
Ich hole dazu etwas aus: Mitte des 19. Jahrhunderts erkannten unabhängig voneinander Rudolf Clausius und William Thomsen (ab 1892 zu Lord Kelvin befördert), dass natürliche Prozesse immer nur in eine Richtung ablaufen, was daran liegt, dass dabei Energie immer entwertet wird, indem ihre Arbeitsfähigkeit verringert wird ("Dissipation of energy"). Clausius führte dann einen Äquivalenzwert für die Verminderung der Arbeitsfähigkeit ein und nannte diesen » Entropie «. 1877 leitete Ludwig Boltzmann statistisch die Größe der Entropie her, wodurch sie berechenbar wurde. In den 1960er Jahren vollendete dann H. D. Baehr das Lehrgebäude der klassischen Thermodynamik und führte die Begriffe Exergie und Anergie in die Thermodynamik ein.
     
  • Exergie ist dabei die Energie, die 0 Entropie enthält und beliebig umwandelbar (arbeitsfähig) ist,
     
  • während Anergie zu 100% Entropie darstellt und somit keinerlei Arbeit mehr leisten kann.

 
Und nur nebenbei: Baehr kannte ich sehr gut persönlich, da er mein Lehrer war.
 
Alle, die mit der Thermodynamik und insbesondere dem 2. Hauptsatz mit der Aussage über die Entropie beginnen, beginnen mit der Betrachtung geschlossener Systeme nahe des Thermodynamischen Gleichgewichtes und lernen den Grundsatz
 
» Entropie kann niemals abnehmen sondern immer nur zunehmen «

 
[mit einer kleinen Einschränkung, die Brian Green erklärt, z.B. auf den Seiten 24-33 seines Buches Until the End of Time: Er macht uns klar, dass man schreiben sollte:

 
» Mit fast an Sicherheit grenzender Wahrscheinlichkeit
 
wird in einem energetisch abgeschlossenen System jeder Zustandsübergang bewirken, dass
 
die Entropie des Systems zugenommen hat.
«

 
 
Man sieht deswegen oft die Entropie an den Zeitpfeil gekoppelt, denn wenn Vorgänge immer nur in eine Richtung verlaufen können, da Entropie nur zunehmen kann, dann kann auch die [ thermodynamische ] Zeit stets nur in eine Richtung laufen und andersrum, wenn die Entropie abnehmen könnte, müsste auch die Zeit rückwärts laufen.
 
Diesen Grundsatz haben auch so ziemlich alle Physiker verinnerlicht und den hatte auch Stephen Hawking bis 1986 vertreten, (siehe z.B. hier).
 
 
Und da wären wir bei Ilya Prigogine und seiner Theorie Dissipativer Strukturen angelangt:
 
In einem Gesamtsystem wird Entropie [ mit an Sicherheit grenzender Wahrscheinlichkeit ] niemals sinken. Sie kann aber lokal in einem System sinken und dadurch neue Strukturen erzeugen. Die Senkung der Entropie lokal geschieht aber immer auf Kosten der Umwelt, deren Entropie dadurch umso schneller zunimmt. Die lokale Abnahme der Entropie ist unabdingbare Voraussetzung, dass neues wie z.B. Sonnensysteme oder Leben entstehen kann.
 
Wie es gelingt, dass eine lokale Abnahme der Entropie, z.B. bei der Entstehung von Leben, entstehen kann und wie diese lokale Abnahme der Entropie zur Selbstorganisation führt, wird in der Theorie Dissipativer Strukturen beschrieben.
 
Der Kern dieser Theorie beschreibt die Fälle, in denen Energie, und zwar viel mehr als bei obigen Systemen, aus der Umwelt in ein System gepumpt wird. Treten nun in diesem System mindesten 3 Wechselbeziehungen zwischen den einzelnen Systemelementen auf, dann können sich diese gegeneinander aufschaukeln und das ganze System zum Kippen bringen. Das ist der Moment der Selbstorganisation, in dem das System nach dem Kippen mit einer höheren Ordnungsstruktur das Chaos wieder verlässt.
 
Sowohl die ständige Entropiezunahme in geschlossenen bzw. toten Systemen als auch die lokale Entropieabnahme in lebenden Systemen hat eine gemeinsame Triebfeder. Sie besteht darin, dass sich jegliche Energie versucht, so schnell wie möglich zu entwerten. Exergie versucht von alleine immer zur Anergie zu werden. Dieses bestreben der Energie, Arbeit zu leisten und dabei an Arbeitsfähigkeit zu verlieren ist die Triebkraft für alle Vorgänge in der Natur. Das geht von einfachen Prozessen wie dem Herunterfallen eines Glases vom Tisch und dem Zerschellen auf dem Boden, das bewirkt dass der Regen herunterfällt und in strudelnden Bächen und Flüssen zum niedrigsten Energieniveau, dem Meer, strebt und bewirkz auch, dass Wälder abfackeln, wenn man nur einen kleinen Impuls (z.B. brennende Zigarette) dafür gibt.
 
Dissipative Strukturen, zu denen auch das Leben gehört, spielen sich grundsätzlich fernab des thermodynamischen Gleichgewichtes ab. Hier führt der Begriff von Unordnung im Zusammenhang mit der Entrópie völlig in die Irre. Das liegt daran, dass die statistische Herleitung der Entropie über die Vorstellung von Ordnung und Unordnung immer voraussetzt, dass sich ein System im thermodynamischen Gleichgewicht befindet.
 
Das ist bei lebenden Systemen aber nie der Fall, die sind extrem weit vom thermodynamischen Gleichgewicht entfernt.
 
Daher macht es hier keinen Sinn, Entropie mit Unordnung zu assoziieren, sondern da macht es nur noch Sinn, Entropie als ein Maß für die bereits erfolgte Entwertung von Energie hin zur Wärme zu betrachten.
 
Nun hat Prigogine festgestellt, dass in sogenannten dissipativen Strukturen, zu denen jegliches Leben gehört, die Energieentwertung, also die Umwandlung von Exergie in Anergie, noch viel schneller geht, als bei rein physikalischen Vorgängen. Wenn hochwertige Energie, also Exergie, irgendwelche Voraussetzungen vorfindet, wo sie die Möglichkeit hat, sich auf diesem schnellen Weg zu entwerten und dabei besonders viel Entropie zu erzeugen, dann nutzt sie diesen Weg auch.
 
Bei den dissipativen Strukturen, zu denen wie gesagt alles Leben gehört, tritt aber das Phänomen auf, dass in ihnen zwar enorm viel Entropie erzeugt wird, dass sie aber die Fähigkeit haben, noch schneller diese Entropie an die Umwelt abzugeben, als in ihrem inneren erzeugt wird, wodurch im Inneren solcher Strukturen bzw. Systemen die Entropie tatsächlich sinkt.
 
Genau dieses Phänomen, dass Leben zwar besonders viel Entropie erzeugt, aber gleichzeitig noch mehr Entropie an die Umwelt abgeben kann und dadurch die innere Entropie im Gegensatz zu toten Systemen erniedrigen kann, zeichnet Leben als solches aus. Tote Systeme sind dazu nicht in der Lage. Und Schuld daran ist das Bestreben der Energie, sich so schnell wie möglich zu entwerten.
 
Dieser ganz grundsätzliche Unterschied zwischen toten und lebenden Systemen, nämlich die eigene innere Entropie aktiv zu verringern, dient Forschern nach außeriridischem Leben als Hauptkriterium dafür, solches zu entdecken, selbst wenn es äußert exotische Formen annimmt, die wir ohne dieses Kriterium womöglich gar nicht als Leben erkennen würden. Basierende auf dieser prinzipiellen Eigenschaft von Leben ist man auch zu der Erkenntnis gekommen, dass Leben auch ohne die typischen irdischen Rahmenbedingungen entstehen kann, z.B. auch auf Silizium- anstatt auf Kohlenstoffbasis.
 



 

  Beitrag 1948-39
Entropie und Informationskapazität werden mit derselben Elle gemessen

 
 
Henry aus 1948-37:
Nein, ich sprechen NICHT von Information im nachrichtentechnischen Sinne, sondern von Information bzg. auf die Thermodynamik. Die Entropie beschreibt das abgeschlossene System, das sich stetig durch permanente Umwandlung aller Energien in Wärmeenergie einem Zustand minimaler Information und maximaler Entropie zubewegt.

Hi Henry,

du scheinst noch nicht realisiert zu haben, dass die Begriffe

» Entropie « und » fehlender Informationsgehalt « gleiche Definition haben.


Es ist zudem falsch zu glauben, dass das System durch "ständige Umwandlung aller Energien" einem Zustand mit minimalem Informationsgehalt zustrebt.

Richtig ist: Der Bewegung seiner Teilchen wegen wechselt das System ständig seinen Zustand. Und hierbei ergibt sich, dass der neue Zustand i.A. einer ist, der weniger Informationsgehalt hat als der ursprüngliche. Ursache hierfür ist: Es gibt deutlich mehr Zustände, die anderen gleichen, also Zustände, die recht individuell aussehen (und daher hohen Informationsgehalt haben).

Gruß, grtgrt
 

  Beitrag 1948-46
Voraussetzung für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik ist ...

 
 
Thomas der Große aus 1948-42:
 
Jedenfalls wäre es toll, wenn Du Deinen Erhaltungssatz an Beispielen erläutern könntest.


Hi Thomas,

ein ganz zentrales Beispiel ist der 2. Hauptsatz der Thermodynamik. Er stellt fest:


Ein großes System von Teilchen, die sämtlich ein und denselben Freiheitsgrad haben,

wechselt schrittweise all seine kybernetisch dargestellte Information (Ordnung also) in nachrichtentechnisch dargestelle um.



Die Vorbedingung, dass sämtliche Teilchen des Systems denselben WDDF haben, ist notwendig, wie folgendes Beispiel zeigt:

Nimm an, du hast einen großen, mit Wasser gefüllten Topf, in den man dann eine gute Portion sehr feinen Quarzsand gibt und gut umrührt. Nachdem der Sand sehr fein ist, wird er sich beim Umrühren fast gleichmäßig im Wasser verteilen, so dass, wenn man das Rumrühren aufhört, ein System "braune Brühe" existiert, welches fast schon maximal mögliche Entropie hat (d.h. fast alle darin enthaltene Information liegt in nachrichtentechnischer Form vor).

Nachdem man den Topf dann aber einige Stunden oder gar Tage in Ruhe hat stehen lassen, werden sich die Sandteilchen — da ihr spezifisches Gewicht größer ist als das von Wasser — fast alle ganz am Boden des Topfes befinden, und das Wasser drüber wird klar und rein sein.

Das, so denkt man zunächst, widerspreche dem 2. Hauptsatz der Thermodynamik. In Wirklichkeit aber ist dem keineswegs so:

Da nämlich jedes Sandteilchen höheres Gewicht als ein Wasseratom hat, zerrt die Gravitationskraft an jedem einzelnen Sandteilchen viel mehr als an jedem einzelnen Wasser­atom. Die Voraussetzung also, dass sämtliche gegeneinander beweglichen Teilchen im Topf identischen WDDF haben müssen, ist NICHT gegeben, und so lässt sich der Satz gar nicht erst anwenden (!).


Gruß, grtgrt
 

  Beitrag 1951-7
Systemkomplexität

 
 
C... aus 1951-6:
 
hast du den Begriff "Komplexität" definiert?
Hat ein hoch komplexes System (z.B. ein Lebewesen oder ein Gehirn) demnach hohe Entropie?


Hi C...,

unter "Komplexität" verstehe ich, was man im umgangsprachlichen Sinne (ohne eigene Definition also) darunter versteht.

Wenn ich dennoch eine Definition geben muss, so sage ich:


Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.



Begründung: Die Komplexität eines Systems steht und fällt mit seiner Fähigkeit, Information festzuhalten. Es macht daher Sinn, zu definieren:


Unter der Komplexität eines in sich abgeschlossenen Systems versteht man seine Kapazität als Informationsspeicher.



Über die Schwierigkeit, sie zu quantizifieren, spricht Beitrag 1951-22.


C... aus 1951-6:
 
M.E. benötigt man zunächst mindestens zwei Systeme mit verschiedenen Unterscheidungskriterien: z.B. einen Mikrozustand und einen Makrozustand.
In System 1 unterscheidbare Zuststände (Mikrozustände) müssen im System 2 (Makrozustand) ununterscheidbar sein.

Im genannten Beispiel zweier verschiedener Systeme können dieselben Makrozustände somit durch verschiedene Mikrozustände realisiert werden.
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.

Was du hier sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Gruß,
grtgrt
 

  Beitrag 1951-15
Beispiele (1) und die implizite Voraussetzung im 2. Hauptsatz der Thermodynamik

 
C... aus 1951-12:
Grtgrt aus 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.


Ich fürchte, dem kann ich nicht folgen.
Du hattest doch versucht, Entropie über den Begriff "Komplexität" zu definieren.
Wenn du jetzt "Komplexität" über den Begriff "Entropie" definierst, drehst du dich im Kreis.

Hi C...,

ich will nicht einen Begriff mit Hilfe des anderen definieren, sondern will einfach nur sagen, dass beide Begriffe dasselbe meinen (steht ja schon so im Titel diesen Themas).

Du wirst mich jetzt fragen: Ja warum gibt es dann zwei Worte? Nun, das liegt einfach nur am Sprachgebrauch, der sich da eingebürgert hat. Von "Entropie" wurde zunächst nur in der Theorie der Gase gesprochen, in der Thermodynamik also.

Heute muss man das so sehen:
  • Der Begriff "Komplexität" ist der umgangssprachliche. Er ist auf alle Systeme anwendbar.
  • Wo man statt seiner den Begriff "Entropie" verwendet, bedeutet das, dass man damit implizit mit sagt, dass man von einem System spricht, in dem alle gegen einander beweglichen Teile denselben oder fast denselben WDDF (Well Defined Degree of Freedom) haben — eben ganz so, wie das typischerweise in einer Gaswolke der Fall ist.

Letzteres gerät heute allzu oft in Vergessenheit, und dabei erklärt sich doch nur so, dass z.B. ein Ei leicht vom Tisch fällt und am Boden zerschellt, das Umgekehrte aber gar nicht vorkommt: Kein zerborstenes Ei setzt sich rein nur vom Zufall gesteuert wieder schön zusammen um sich dann sogar noch auf den Tisch hinauf an die alte Stelle zu begeben.

Siehe auch mein nicht ganz so burschikos gewähltes Beispiel in Beitrag 1948-46.


C... aus 1951-12:
 
Ist deiner Definition gemäß für ein Gehirn ein Zustand denkbar, der höhere Entropie hat, als diejenige eines Proteindrinks gleicher mikroskopischer Zusammensetzung und Masse?

Das würde ich eher verneinen, denn die Atome unseres Gehirns sind in ihrer Bewegungsfreiheit mit Sicherheit weit weniger frei als die in einer Flüssigkeit, und sei es denn ein Proteindrink.

Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung aber gar nichts aus (man vergleiche die Diskussion in Beitrag 1951-22).


Beste Grüße,
grtgrt
 

  Beitrag 1951-17
-

 
Grtgrt aus 1951-7:
Ein System S1 heißt  komplexer als  ein System S2,

wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.

Hallo Gebhard, nee, oder?
Da habe ich ein genau entgegengesetztes Verständnis, welches ich gern immer anhand unseres menschlichen Hirns erläutere:

Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

(Natürlich kann man das Leben an sich in seiner Vielfalt als noch komplexer auffassen, aber das tut für meine Erläuterung erst mal nix zur Sache.)

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?
 

  Beitrag 1951-19
-

 
Stueps aus 1951-17:
 
Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.

Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?

Hi Stueps,

du hast schon recht, aber du sprichst nicht nur über aus Unordnung kommendem Informationsgehalt (dem nachrichtentechnisch kodierten, den wir Entropie nennen), sondern auch über den aus Ordnung resultierenden (dem kybernetisch kodierten).

Siehe Beitrag 1948-1.


Gruß, grtgrt
 

  Beitrag 1951-18
Beispiele (2)

 
 
C... aus 1951-12:
 
Zitat von Grtgrt:
Was du hier [Anm.: d.h. C... in Beitrag 1951-6 sagst, verstehe ich nicht. Kannst du mir das genauer erklären ( und begründen bzw. motivieren )?

Bilde mittels "System 1" systematisch 6-stellige Zahlen, indem du z.B. 6 mal würfelst. Die Wahrscheinlichkeit, eine 111111 zu würfeln, ist dieselbe wie diejenige, eine 355621 (in dieser Reihenfolge) zu werfen.
Du kannst nun ein übergeordnetes Ordnungssystem ("System 2") festlegen, in welchem du z.B. 111111 oder 555555 als ein 'Sextett' bezeichnest. Die Ziffernfolge z.B. 55 oder 33 innerhalb einer beliebigen sechstelligen Zahl bezeichne als Duplett.

Mit diesem Ordnungssystem ist nun die Wahrscheinlichkeit ein Sextett (wozu auch 111111 gehört) zu würfeln, geringer, als diejenige ein Duplett (wozu auch 355621 gehört) zu würfeln, weil es nur 6 von 6^6 Möglichkeiten für ein Sextett gibt, während es 30*6^4 von 6^6 = 5/6 (ob´s stimmt, wirst du besser wissen - jedenfalls mehr) Möglichkeiten gibt, ein Duplett zu erhalten.

Die Entropie eines Dupletts ist mit S = k*log(W) somit höher als die eines Sextetts.


C...,

mir scheint, du willst mich aufs Glatteis führen!

Oder willst du einfach nur sehen, ob ich den Unterschied zwischen bedingter und nicht-bedingter Wahrscheinlichkeit kenne?

Sei's drum. Meine Defininition sagen, dass für jeden Systemzustand Z gilt:


Entropie
= Komplexität
= nachrichtentechnischer Informationsgehalt
= kleinste Zahl binärer Entscheidungen, die ausreichen, den Zustand Z komplett zu beschreiben



Wann aber ist Z als Sextett oder als Duplett komplett beschrieben?

Die Antwort auf diese Frage ist ganz klar davon abhängig, ob ich ein konkretes Duplett (bzw. Sextett) als Duplett (bzw. Sextett) von anderen gleicher Art unterscheiden soll, oder ob ich einen Zustand dieser Art von irgendeiner 6-stelligen Folge der 6 Ziffern 1 bis 6 zu unterscheiden habe.

Für welchen Fall also willst du, dass ich dir den nachrichtentechnischen Informationsgehalt berechne?

  • Ein Sextett von anderen Sextetts zu unterscheiden, erfordert 3 binäre Entscheidungen.
  • Ein Duplett von anderen 6-stelligen Dupletten zu unterscheiden erfordert mindestens 35 binäre Entscheidungen erfordern (kann aber – je nach Exemplar – auch 3 mal so viel erfordern [ wir betrachten Folgen, nicht Mengen, gewürfelter Ergebnisse ).
  • Ein Sextett oder ein Duplett als Element des kartesischen Produktes { 1,2,3,4,5,6 }6 zu identifizieren, erfordert stets 36 binäre Entscheidungen.


Nun zur spannenden Frage, warum das so ist: Ganz einfach:

  • Im ersten Fall hat das betrachtete System nur 6 Elemente (jedes in stark redundanter Codierung),
  • im zweiten Fall hat es 65 (Redundanz in ihrer Codierung haben nur jene, in denen erst die beiden letzten Ziffern gleich sind)
  • und im letzten Fall hat das System sogar 66 Elemente (alle redundanzfrei codiert).

Dieses Beispiel zeigt, so finde ich, recht deutlich, wie sich der konkret zugelassene WDDF auf die Komplexität des Systems auswirkt: Mehr Freiheit führt zu mehr durch das System darstellbaren Nachrichten.

Man erkennt auch, dass nicht die Form der Codierung eines Zustandes, sondern nur der Zustand selbst (als Abstraktum) zur Zahl der durch das System kodierbaren Nachrichten beiträgt.


Gruß, grtgrt
 

  Beitrag 1951-22
Wie definiert man Systemkomplexität?

 
 
Hi C...,

danke für deinen Hinweis und deine Aufmerksamkeit.

Du hast völlig recht, ich habe meine Vorstellungen über Systemkomplexität durcheinander gebracht und bin so zu einer wenig sinnvollen Antwort auf die Frage nach der Komplexität unseres Gehirns gekommen.

Tatsache ist, wie du ganz richtig sagst, dass ich bisher den Begriff "Komplexität" nur im umgangssprachlichen Sinne verwendet habe.

Andererseits war in meinem Hinterkopf das Wissen vorhanden, dass man für Systeme, auf die der 2. Hauptsatz der Thermodynamik anwendbar ist, den Begriff sehr wohl präzisieren kann:
  • Genau diese Systeme nämlich haben (wenigstens potentiell) Zustände maximaler Entropie — Zustände also, die sämtliche im System vorhandene Information nachrichtentechnisch kodieren. Da sie nun aber in dieser Form exakt quantifizierbar ist, kann man ihren Umfang als die dem System innewohnende Komplexität definieren.
  • Dieses Vorgehen funktioniert aber NICHT mehr für Systeme, in denen die einzelenen Teilchen eingeschränkten oder gar individuell eingeschränkten WDDF haben. Für sie gibt es — nicht einmal mehr potentiell — wenigstens einen Zustand maximaler Entropie. Der nämlich könnte nur dann eintreten, wenn sich die durch den WDDF der einzelnen Teilchen gegebenen Restriktionen auf Nichts reduzieren. Dann aber hätte das System — unser Gehirn etwa — seine Funktionsfähigkeit (und daher auch seine Identität) verloren: In einem Sarg dahinfaulende Gehirnmasse kann man eben nicht mehr als Gehirn bezeichnen.

Langer Rede kurzer Sinn also:

Ich kenne keine präzise Definition für die Komplexität von Systemen,
in denen die Voraussetzungen für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik NICHT gegeben sind.


Damit muss ich meine letzte Aussage in Beitrag 1951-15 ergänzen durch den Zusatz: "Darüber, wie komplex ein Gehirn ist, sagt diese meine Meinung gar nichts aus".


Danke nochmals, C..., deine Aufmerksamkeit hat mir wichtige Einsicht beschert.

Mit besten Grüßen,
grtgrt
 

  Beitrag 1959-1
Die genaue Formulierung des Entropie-Gesetzes

 
 


Zustandsentropie und Entropie-Entwicklung geschlossener Systeme


Sei S ein in sich abgeschlossenes System — z.B. unser Universum — und seien weiter Z1 und Z2 zwei diesem System mögliche Zustände.



Man nennt Z2 von höherer Entropie als Z1,

wenn es dem System leichter fällt, sich aus Zustand Z1 nach Zustand Z2 zu begeben als umgekehrt von Z2 nach Z1.



Diese Definition verallgemeinert den 2. Hauptsatz der Thermodynamik ( dessen Voraussetzungen nur für Gase erfüllt sind ) auf ganz beliebige, in sich abgeschlossene Systeme.


Nur diese Definition des Entropie-Begriffs ist verträglich mit beidem:

  • einerseits mit der Aussage, dass die Entropie eines in sich abgeschlossenen Systems stets nur zunimmt (extrem selten auftretende Zustandsübergänge mal ausgenommen)
  • und andererseits auch mit den bekannten Tatsachen,
    • dass sich im Universum Materie zu Klumpen (Planeten, Sternen, Galaxien) gruppiert
    • und kein vom Tisch gefallenes und dann am Boden zerschelltes Ei sich von selbst wieder zusammensetzt.
       
    • Mit der Tatsache also, dass alle im System vorhandenen Teile sich entsprechend der dort ebenfalls vorhandenen Kraftfelder gruppieren unter Berücksichtigung gegebener oder nicht gegebener Freiheitsgrade (automatischer Abbau von Ungleichgewicht).


Gebhard Greiter (grtgrt)
 

  Beitrag 1959-3
-

 
 
Pepe aus 1959-2:
 
Wo siehst Du denn eine Unverträglichkeit zwischen dem 2. Hauptsatz und den Punkten die du nennst?

Wo sich Materie zusammenklumpt, entsteht bleibende Struktur (und somit kybernetisch kodierte Information).
Das steht im Widerspruch zum 2. Hauptsatz der Thermodynamik, nach dem sich ja alle Teilchen im Gesamtsystem immer gleichmäßiger verteilen müssten.

Gruß, grtgrt
 

  Beitrag 1959-5
-

 
 
Henry aus 1959-4:
 
Entropie ist ... das Maß für die Anzahl der möglichen Zustände, die ein System ohne äußere Einwirkung einnehmen kann; und jeder dieser möglichen Zustände ist gleich wahrscheinlich.

Hi Henry,

diese Formulierung deiner letzten Aussage kann so nicht richtig sein, denn wäre sie richtig, würde daraus folgen, dass die Entropie eines Systems eine (für das System spezifische) Konstante wäre.

Das aber kann nicht sein, denn der 2. Hauptsatz der Thermodynamik sieht sie als zustands-spezifische Größe (als Maß für die "Ordnung" bzw. "Unordnung" des Systems, wie du weiter oben ja selbst sagst). Wahrscheinlich aber wolltest du ja sagen:


Je größer die Anzahl möglicher Zustände, die ein System ohne äußere Einwirkung annehmen kann,
desto größer ist die  m a x i m a l e  durch dieses System unterstützte Entropie.


Was nun einen einzelnen Systemzustand betrifft, so würde ich sagen:


Die Entropie eines Systemzustandes Z ist proportional zur Anzahl aller dem System möglichen, von Z nicht unterscheidbaren Zustände.


Meiner Ansicht nach gilt der 2. Hauptsatz der Thermodynamik so aber nur für Gase (noch genauer: nur für ideale Gase). Für andere Systeme muss man ihn differenzierter formulieren, was aber leider nur in wenigen Büchern wirklich passiert.


Gruß, grtgrt


PS: Von Zuständen zu sprechen, die von Z nicht unterscheidbar sind, macht nur Sinn, wenn man den einzelnen Teilchen eine jeweils eigene Identität einräumt (so dass, wenn zwei — die ansonsten wie Zwillinge gleiche Eigenschaften haben — ihren Platz vertauschen, das zu einem neuen Zustand führt). In der Quantenphysik allerdings würde man diese beiden Zustände als ein und denselben betrachten.

Meine Formulierung in Beitrag 1959-1 umgeht dieses Problem (ist also unabhängig davon, ob jemand nicht unterscheidbare Zustände des Systems miteinander identifiziert oder nicht).


 

  Beitrag 1959-10
-

 
 
Henry aus 1959-9:
 
JEDEM Zustand des Systems kann ein Wert der Entropie zugeordnet werden, das ist allein abhängig von der Gesamtzahl ALLER möglichen Zustände und hat nichts mit der Größe der Ordnung in einem System zu tun. Nur scheint es in unserem Kosmos so zu sein, dass die Wahrscheinlichkeit, einen Zustand größerer Unordnung einzunehmen, größer ist als Zustände größerer Ordnung. Das hat aber mit der Anzahl der Zustände zu tun, die eine größere Unordnung repräsentieren, diese Anzahl ist sehr viel größer als die Anzahl geordneter Zustände, und deshalb ist die Wahrscheinlichkeit, in einem "Schnappschuss" in einer Gaswolke einen Zustand von Unordnung zu machen größer als für einen Zustand von Ordnung.

Nachtrag auf eine Gaswolke bezogen: Auch wenn keine anderen Kräfte in der Wolke vorliegen als die kinetischen, also die Bewegung der Moleküle, gibt es eine Wahrscheinlichkeit, dass sich die Gesamtzahl der Moleküle in eine Raumbereich ansammelt und so eine gewisse Ordnung entsteht. Und diese Anordnung hat die gleiche Wahrscheinlichkeit wie jede ander Anordnung auch. Die Wolke befindet sich ständig in einem neuen Zustand, nur lassen sich die einzelnen Zustände wegen der größeren Anzahl von "unordentlichen" Zuständen nicht voneinander unterscheiden.

In der kosmischen Realtät sieht es aber anders aus: Bei entsprechend niedrigen Temperaturen und der Gravitation innerhalb der Gaswolke wird sich eine Gaswolke zusammenziehen und es entsteht ein Stern. Und korrekter Weise dürfte man nicht einfach von "Gaswolken" sprechen, denn es ist natürlich nicht nur Gas, sondern es sind auch Staub in riesigen Mengen und Gesteinsbrocken, die sich in einer solchen Wolke finden.
 

Hi Henry,

so formuliert stimme ich dir zu (ohne jede Einschränkung).


Vielleicht interessiert dich noch, was Andreas Mücklich in seinem Buch "Das verständliche Universum" sagt. Er schreibt dort:

Zitat von Mücklich, aus Seite 51 und 52 seines Buches:
 
Sie [die Entropie beschreibt ganz allgemein, wie wahrscheinlich ein bestimmter Ablauf geschieht. ...

Oft wird die Entropie sehr nachlässig als ein Maß für die Unordnung bezeichnet. Demnach nähme gemäß dem zweiten Hauptsatz der Wärmelehre die Unordnung im Universum ständig zu. Bei dieser oberflächlichen Argumentation kann man sich nur wundern, wie Sterne, Planeten und Leben überhaupt entstehen konnten.

Und doch steht die Entropie diesen Prozessen nicht im Weg, denn sie wird durch den Begriff der Unordnung im Sinne der Gleichverteilung leider nicht ausreichend beschrieben:
  • Für die zusammenstoßenden Teilchen eines idealen Gases mag dies noch korrekt sein. Hier wirken keine Kräfte zwischen den Teilchen, und der wahrscheinlichste Zustand ist ein gleichmäßig durchmischtes Gas.
  • Aber wenn wir Körper betrachten, zwischen denen eine anziehende Gravitationskraft wirkt, so stimmt dieses Bild nicht mehr. Jetzt können Zustände mit höherer Entropie auch klumpiger sein als mit niedriger Entropie. Ein Planet ist demnach ein Körper mit einer höheren Entropie als seine ursprünglichen Bestandteile und keineswegs ein Widerspruch zum zweiten Hauptsatz der Thermodynamik.

Gruß, grtgrt