welt-verstehen/Entropie, stw1838E

Unsere Welt zu verstehen:  Entropie



 Beitrag 0-116
 
 

 
Entropie im thermodynamischen Sinne
hmsgnr0116z

 
 
Erfunden hat diesen Begriff der deutsche Physiker Rudolf Clausius. Er hat ihn mathematisch definiert als
 
Entropie  =  Wärme dividiert durch Temperatur

 
Hierbei ist Wärme die Summe der kinetischen Energie der sich gegeneinander bewegenden Teile des Systems.
 
Entropie hat eine Eigenschaft, die der ältere Begriff "Energie" nicht hat: Wenn ein System sich selbst überlassen ist, wie etwa eine Tasse Tee auf einer Tischplatte, so wird die Summe der Entropie dieser Portion Tee und der Entropie der Umgebungsluft niemals abnehmen. Diese Beobachtung führte Clausius zur Entdeckung des Zweiten Hauptsatzes der Thermodynamik:
 
Ohne äußere Einflüsse wird die Entropie eines Systems niemals abnehmen.

 
Dieses Gesetz bestätigt sich durch die Beobachtung, dass in einem System ungleichmäßig verteilte Wärme stets aus der Region höherer Temperatur in die Region niedrigerer Temperatur fließt.
 
Sich das präsent zu machen stelle man sich zwei würfelförmige Eisenblöcke gleicher Größe vor. Block B1 sei 100 Grad warm, Block B2 aber nur 1 Grad. Wenn wir sie aneinander rücken, so dass sie sich entlang einer Seite berühren, wird Wärme vom heißeren Block in den kälteren fließen. Die Summe der Wärme-Energie beider bleibt hierbei erhalten,
  • doch wird B1 die Entropiemenge Wärme/Temperatur = 1/100 verlieren,
     
  • während B2 die Entropiemenge 1/1 gewinnt.
Somit steigt die Entropie des Gesamtsystems um 1/1 - 1/100 = 0.99 (sie würde sinken nur dann, wenn die Temperatur aus der kühleren in die wärmere Region flösse).
 
 
Boltzmann war mit all dem noch nicht zufrieden, da er sich die Frage stellte, was das Verhältnis Wärme/Temperatur (Entropie also) denn eigentlich bedeute.
Was man damals schon wusste, war nur:
  • Wärme ist die Bewegungsenergie der chaotisch hin und her fliegenden Atome.
     
  • Temperatur entspricht der mittleren Energie der einzelnen Moleküle.
     
  • Gasdruck ist das Ergebnis der kollektiven Stöße der Moleküle gegen die Wand des Behälters.
Noch rätselhaft aber war das Wesen der Entropie. Man wusste nur, dass die Entropie eines Gesamtsystems sich als Summe der Entropien seiner Teilsysteme darstellt. Zudem kannt man das Ergebnis von vier in diesem Zusammenhang interessanter Experimente (durchgeführt mit 4 Paaren gleicher Glasbehälter mit flachen, rechteckigen Seitenwänden):

     
  • Versuch 1: Man fülle einen der Behälter mit einem farbigen Gas, mit Bromgas etwa, das braun ist, und lasse den anderen leer (gasfrei). Verbindet man die beiden Flaschen dann mit einem Schlauch und öffnet den Durchfluss, so dehnt das Bromgas sich aus und wird schnell den gesamten zur Verfügung stehenden Raum füllen. Da sich die Gasmoleküle nicht sehr oft treffen und von den Wänden wie Tennisbälle elastisch zurückgeworfen werden, behalten sie ihre ursprüngliche Geschwindigkeit, nehmen nun aber doppelt so viel Raum ein wie vorher. Konsequenz daraus: Die Temperatur des Gases bleibt erhalten, sein Druck aber verringert sich.
     
  • Versuch 2: Man fülle zwei der Flaschen mit Wasser: eine davon mit heißem, die andere mit kaltem und presse sie dann aneinander. Wie oben schon beschrieben wird eine Wärmeausgleich stattfinden: Die sich schneller bewegenden Moleküle werden langsamer, die langsameren werden schneller.
     
  • Versuch 3: Das dritte Paar von Flaschen fülle man mit zwei verschiedenen Gasen, die eine mit Brom (braun), die andere mit Luft (farblos). Verbindet man ihre Öffnungen mit einem Schlauch und öffnet den Durchfluss, werden die beiden Gase sich vermischen, bis schließlich der gesamte Innenraum der Flaschen einheitlich mit einenr schwach-braunen Mischung aus Brom und Luft gefüllt ist.
     
  • Versuch 4: Das vierte Flaschenpaar fülle man mit Brom gleicher Temperatur und so, dass der Druck in beiden Flaschen gleich groß ist. Nachdem die Verbindung geöffnet ist, sieht man keinerlei Veränderung, obgleich auch jetzt viele Moleküle von der einen in die jeweils andere Flasche wandern.

 
In allen 4 Versuchen bleibt die in den Flaschen enthaltene Gesamtenergie konstant. Die Entropie im Inneren des Flaschenpaars wird in Versuch 1, 2 und 3 steigen,
in Versuch 4 aber konstant bleiben. Was nun ist der Grund hierfür?
 
Hier nun hatte Boltzmann die Eingebung, die ihn bekannt gemacht hat: Er sah den Unterschied in der  A n o r d n u n g  der Moleküle zu Beginn und nach Ende der Experimente, und ihm wurde bewusst: Ein zufälliger Prozess würde mit sehr viel größerer Wahrscheinlichkeit zu einer Anordnung der Moleküle führen, wie sie nach dem Experiment vorliegt, statt zu einer, wie sie zu Beginn vorlag.
 
Wieso aber verändert Versuch 4 die Entropie des Gesamtsystems nicht (wo wir doch wissen, dass auch hier viele Moleküle aus der einen in die andere Flasche gelangen und so doch auch zu einem neuen Zustand des Systems führen)?
 
Der Grund hierfür: Der Beobachter hat keine Möglichkeit, diese beiden verschiedenen Zustände von einander zu unterscheiden (weder durch Hinsehen, noch mit chemischen oder physikalischen Verfahren). Die Tatsache, dass die Entropie in Versuch 4 unverändert bleibt, ist deutlicher Hinweis darauf, dass sie nur etwas mit dem zu tun haben kann, was wir über das System  w i s s e n .
 
 
Genau das ist der Grund, warum man Entropie auch mit Unordnung (= fehlender Information) gleichsetzt.
 
Boltzmann sah diese Beziehung und führte sie noch weiter aus: Der Wert der Entropie eines Systems wächst von Null (wenn wir alles über den Systemzustand wissen) bis hin zu einem Maximalwert (der dann eintritt, wenn wir praktisch nichts wissen): Entropie quantifiziert das Ausmaß unseres Unwissens über die Einzelheiten der Bewegungen gegen einander beweglicher Teile des Systems.
 
 
Über diesen Umweg — die Identifikation von Entropie mit fehlender Information — brachte Boltzmann das Konzept der Information in die Physik.
 
Dass er dann zu seiner berühmten Formel
 
Entropie  =  k • log( Z )

 
gelangt ist (mit Z als Anzahl aller möglichen Systemzustände), liegt daran, dass
  • die Formel verträglich sein musste mit der Tatsache, dass die Entropie der Teilsysteme eines Systems die Summe der Entropien der Teilsysteme ist — und das obgleich doch die Anzahl aller Zustände des Gesamtsystems das  P r o d u k t  der entsprechenden Zahlen für die Teilsysteme ist.
     
  • Die Boltzmann-Konstante k schließlich ist einfach nur ein Normierungsfaktor, der Boltzmanns Quantifizierung der Entropie verträglich macht mit der von Clausius (Entropie = Wärme/Temperatur).

 
 
 
Entropie im informationstechnischen Sinne

 
 
Die Physik — so schreibt Honerkamp — versteht unter Entropie das Ausmaß uns fehlenden Wissens über dem Mikrozustand eines physikalischen Systems:
Je mehr Mikrozustände (z.B. einer Menge von Gas) möglich sind, desto unwahrscheinlicher wird es, dass ein ganz bestimmter vorliegt, und desto höher ist deswegen die Entropie des Systems der sich unabhängig voneinander bewegenden Teilchen.
 
Informationstechnisch präzisiert man das wie folgt:
 
 
Bezeichnet Z die Zahl aller einem System möglichen Zustände, so ist
 
 
log2( Z ) sein maximal möglicher Informationsgehalt.

 
Als informationstechnische Entropie des Systems (synonym: Unordnung) bezeichnet man den Teil dieser Information, der sich einem Beobachter nicht erschließt, wenn es Systemzustände gibt, die aus seiner Sicht ununterscheidbar sind.
 
Man sieht also:
 
Der Begriff » Information « ebenso wie die Gleichung
 
Informationgehalt = maximal möglicher Informationsgehalt abzüglich Entropie
 
machen erst Sinn, wenn man einen betrachtenden, denkenden Menschen ins Spiel bringt: Sie sind nur relativ zu ihm wohldefiniert.

 
 
 

Note: Physiker tun sich häufig schwer mit dem Entropiebegriff. Dies aber nur dann, wenn ihnen nicht bewusst ist, dass er sich aus informationstechnischer Sicht heraus eben doch ein klein wenig anders definiert als in der Thermodynamik.
 
 
Bücher, die sich ganz dem Nachdenken über das Wesen der Information widmen, sind:

 


aus  Notizen  zu
tags: stw1401E: Entropie


Über Entropie


Impressum

B G E