Zitat von S. 141 in seinem Buch Kosmische Dämmerung:
Zunahme von Entropie ist nicht — wie mitunter behauptet wird — gleichbedeutend mit
Zunahme von Unordnung (= Strukturlosigkeit).
Ausführlicher (S. 136-141):
Lange Zeit wurde das scheinbare Dilemma zwischen dem Entstehen von Struktur im Universum und dem 2. Hauptsatz der Thermodynamik dadurch umgangen, dass man annahm, dass sich unsere Welt zunächst in einem nicht näher definierten Zustand niedriger Entropie befand, um sich dann über die zeit hinweg immer von einem geordneten Zustand in einer zunehmend ungeordneten mit entsprechend höherer Entropie zu entwickeln — eben solange, bis es dann den sog. » Wärmetod « sterben würde, sprich: von maximaler Entropie und ohne jede Struktur sein würde.
Nach heutigem Wissen ist diese Vorstellung nun aber nicht mehr haltbar: Wir denken, den Zustand des Universums direkt nach dem Urknall zu kennen (strukturloeses Plasma), haben zudem gelernt, dass der Raum ständig expandiert, und fragen uns nun, ob diese Expansion das Erreichen eines Gleichgewichts (d.h. einen Zustand maximaler Entropie) denn überhaupt jemals erlaubt.Wenn Teilchen elektrisch geladen sind und die Zahl der positiv bzw. negativ geladenen gleich groß ist, kann bei hoher Temperatur und Dichte könnte nur ungeordnetes Plasma Zustand höchster Entropie sein. Bei niedriger Temperatur aber würden sie sich zu ladungsneutralen Gruppen (Atomen und Molekülen) zusammenfinden.
Für ein Medium aus nicht oder nur schwach wechselwirkenden Teilchen ist der Zustand größter Entropie immer ein ungeordnetes, strukturloses und daher absolut gleichförmig verteiltes Gas. Wenn die Wechselwirkung infolge fallender Temperaturen aber stärker wird, kann es zu Kristallbildung kommen.
Schon 1975 hat David Kayzer den Einfluss expandierenden Raumvolumens auf den 2. Hauptsatz der Thermodynamik als mögliche Ursache für das Entstehen kosmischer Strukturen vorgeschlagen. Wird nämlich ein Behälter, der Gas im thermischen Gleichgewicht enthält, rasch vergrößert, bilden im expandierenden Gas die Expansionsrate und die Relaxationsgeschwindigkeit zwei kritische, einander entgegengesetzte Faktoren:Ist die Expansionsrate hinreichend klein, hat das System genügend Zeit, ständig neu maximale Entropie zu erreichen,
andernfalls aber wächst die maximale Entropie rascher als die tatsächliche, so dass das System sich ständig weiter vom thermischen Gleichgewicht — absoluter Strukturlosigkeit — entfernt.
Das, so sei betont, steht in Einklang mit dem 2. Hauptsatz: Die Entropie nimmt ständig zu, erreicht aber nie das dem jeweiligen Volumen (= der jeweiligen Dichte) zugeordnete Maximum.
Entropie ist einer der abstraktesten Begriffe, die es in der Physik gibt, und daher gar nicht mal so einfach zu erklären.
Entropie kann man nicht anfassen, sehen oder direkt messen. Auch viele Lehrer, Physiker und Chemiker haben mit diesem Begriff größte Schwierigkeiten und können kaum erklären, was Entropie eigentlich sein soll.
Selbst Einstein oder Hawking hatten damit so ihre Probleme und teils sogar bezweifelt, ob es Entropie wirklich gibt oder ob das nicht bloß ein künstlicher menschgemachter Begriff sei.
Inzwischen ist aber nachgewiesen, dass Entropie tatsächlich existiert als etwas, das naturgesetzlichen Charakter hat. Ich versuche, den jetzt etwas anders zu erklären, als man das sonst hört oder liest:
Der Energieerhaltungssatz (= 1. Hauptsatz der Thermodynamik) macht nur Aussagen über die Energiemenge.
Nun hat man aber im Laufe der Zeit festgestellt, dass Energie nicht nur nach ihrer Menge beurteilt werden kann, sondern auch danach, wie einfach es ist, gegebene Energie Arbeit verrichten zu lassen. d.h. wie einfach es ist, sie von der Form, in der sie vorliegt in irgend eine andere Form umzuwandeln. Hiernach nämlich bemisst sich ihr Wert.
- Höchsten Wert besitzt sie als Gravitationsenergie. Sie nämlich lässt sich mit Abstand am leichtesten in eine andere Energieform umwandeln, z.B. in kinetische Energie. Dazu braucht man einen Gegenstand nur loszulassen und er fällt von alleine nach unten, nimmt also Geschwindigkeit auf.
- Geringsten Wert als Wärmeenergie bei Umgebungstemperatur. Sie arbeiten zu lassen ist nahezu unmöglich. So besitzt die Luft der Atmosphäre durch ihre Temperatur zwar jede Menge innere Energie, aber mit der z.B. eine Maschine zu betreiben oder einen Körper zu beschleunigen, ist praktisch unmöglich.
Entropie quantifiziert fehlenden Wert von Energie in diesem Sinne.
Umso höher die Entropie eines Systems, desto weniger nutzbar ist seine Energie, um Arbeit zu leisten.
Will das mal an einem Beispiel verdeutlichen. Wenn du irgendwo ein Kilo Äpfel kaufst, reicht nicht nur die Kenntnis der Menge, also 1 kg, denn musst du entsprechend der Qualität dieser Äpfel unterschiedliche Preise bezahlen. Die teuersten Äpfel haben Handelsklasse A. Sie besitzen noch keine Entropie. Die sind makellos und die kann man unbeschränkt in andere Apfelprodukte umwandeln, sei es ein Apfel zum essen, in Apfelkuchen, Apfelsaft oder was immer du willst. Äpfel der Handelsklasse B haben schon kleine Qualitätsmängel. Die bietet man nicht mehr unbedingt auf einer Obstschale zum Essen an, aber Apfelkuchen oder Apfelsaft kann man noch gut daraus machen. Billig sind sogenannte Saftäpfel. Die kommen gar nicht mehr in den Handel, sondern werden nur noch zu Apfelsaft gemacht. Die schlechteste Qualität haben völlig verfaulte Äpfel, denn aus denen kann man gar nichts mehr machen. Diese verfaulten Äpfel haben damit die maximale Entropie, sie bestehen nur noch aus Abfall.
Nun sagt der 2. Hauptsatz der Thermodynamik aus, dass in einem geschlossenen System die Entropie immer nur zunehmen, aber niemals abnehmen kann. Dieser Grundsatz gilt im gesamten Universum sowohl für die Energie als auch für die Äpfel. Wenn jemand eine Kiste mit Äpfeln der Handelsklasse A hat, muss er nichts tun, damit die Entropie zunimmt. Die Äpfel faulen im Laufe der Zeit ganz von alleine. Es ist aber noch niemals beobachtet worden, dass aus einer Kiste faulender Äpfel im Laufe der Zeit von alleine Äpfel der Handelsklasse A wurden.
Energie verfault nicht, da spricht man von Entwertung (= Dissipation). Alle Energie strebt danach, entwertet zu werten und das geht auch von alleine.
Kurz: Alle Energie strebt dazu, sich letztlich in Wärme umzuwandeln. Bei allen praktischen Prozessen, bei denen Energie umgewandelt wird, entsteht — meistens durch Reibung — auch Abwärme, mit der man nichts mehr anfangen kann. In dieser Abwärme steckt die entstandenen Entropie. Diese Abwärme verringert immer auch den Anteil der Energie, der umwandelbar bzw. arbeitsfähig bleibt. Zusammenfassung: Entropie ist ein Maß für die Nutzbarkeit von Energie. Je höher die Entropie eines Systems, umso mehr hat seine Energie sich schon entwertet und umso geringer ist ihre Fähigkeit, Arbeit zu leisten.
Alle Energie im Universum hat das natürliche Bestreben, sich zu entwerten.
Nur Kräfte, die auf Teile des Systems wirken, können Entwertung von Systemenergie aufhalten oder rückgängig machen.
Um die Entropie in einem geschlossenen System zu verringern, muss immer Energie zugeführt werden. Man braucht Kräfte, die ordnend eingreifen., d.h. von aussen kommende Energie, die arbeitet.
Hätte man also eine Kiste mit Äpfeln mittleren Entropie (= solche, die erst wenig angefault sind), könnte man aufwertend eingreifen, indem man überall das Faulige wegschneidet und wegwirft, so dass man aus dem Rest immerhin noch Saft machen könnte.
Genauso wäre das auch mit Energie. Um die Entropie eines geschlossenen Systems zu verringern, muss man von außen hochwertige Energie zuführen. Der Energieabfall, Entropie also, würde dann in der Umwelt landen und deren Entropie entsprechend erhöhen.
Häufig wird Entropie im Schulunterricht auch als ein Maß für im System herrschende Unordnung bezeichnet. Hohe Ordnung bedeutet dabei hohe Qualität, also niedrige Entropie, während maximale Unordnung maximale Entwertung (= maximale Entropie) bedeutet.
Unordnung bedeutet fehlende Arbeit verrichtende (= Ordnung schaffende) Energie.
Hamburger02 ( mit einer Präzisierung durch Brian Greene ):
Note: Was im Folgenden erklärt wird, war gedacht als Antwort auf eine Frage, die lautete:Auch aus unserer alltäglichen Erfahrung kann Ordnung nur dort entstehen, wo Arbeit von außen geleistet wird.
Also muss es auch etwas (jemanden?) geben, das oder der die Ordnung (das Leben) auf der Erde schafft. Ist das nicht aus der Thermodynamik so??
Hamburger02 beantwortet sie wie folgt (ergänzt durch eine Präzisierung seitens Brian Greene):
Das ist nur in der Nähe des Thermodynamischen Gleichgewichtes so. Dieses Argument, der 2. Hauptsatz der Thermodynamik würde der Entstehung von Leben widersprechen, kommt gerne mal von Kreationisten, ist aber falsch. Meine Erfahrung ist außerdem aus Diskussionen zu diesem Thema, dass fast alle, die dieses Argument bringen, es nur nachplappern, selbst aber das Wesen und die Bedeutung der Entropie überhaupt nicht verstanden haben.
Ich hole dazu etwas aus: Mitte des 19. Jahrhunderts erkannten unabhängig voneinander Rudolf Clausius und William Thomsen (ab 1892 zu Lord Kelvin befördert), dass natürliche Prozesse immer nur in eine Richtung ablaufen, was daran liegt, dass dabei Energie immer entwertet wird, indem ihre Arbeitsfähigkeit verringert wird ("Dissipation of energy"). Clausius führte dann einen Äquivalenzwert für die Verminderung der Arbeitsfähigkeit ein und nannte diesen » Entropie «. 1877 leitete Ludwig Boltzmann statistisch die Größe der Entropie her, wodurch sie berechenbar wurde. In den 1960er Jahren vollendete dann H. D. Baehr das Lehrgebäude der klassischen Thermodynamik und führte die Begriffe Exergie und Anergie in die Thermodynamik ein.
- Exergie ist dabei die Energie, die 0 Entropie enthält und beliebig umwandelbar (arbeitsfähig) ist,
- während Anergie zu 100% Entropie darstellt und somit keinerlei Arbeit mehr leisten kann.
Und nur nebenbei: Baehr kannte ich sehr gut persönlich, da er mein Lehrer war.
Alle, die mit der Thermodynamik und insbesondere dem 2. Hauptsatz mit der Aussage über die Entropie beginnen, beginnen mit der Betrachtung geschlossener Systeme nahe des Thermodynamischen Gleichgewichtes und lernen den Grundsatz
» Entropie kann niemals abnehmen sondern immer nur zunehmen «
[mit einer kleinen Einschränkung, die Brian Green erklärt, z.B. auf den Seiten 24-33 seines Buches Until the End of Time: Er macht uns klar, dass man schreiben sollte:
» Mit fast an Sicherheit grenzender Wahrscheinlichkeit
wird in einem energetisch abgeschlossenen System jeder Zustandsübergang bewirken, dass
die Entropie des Systems zugenommen hat. «
Man sieht deswegen oft die Entropie an den Zeitpfeil gekoppelt, denn wenn Vorgänge immer nur in eine Richtung verlaufen können, da Entropie nur zunehmen kann, dann kann auch die [ thermodynamische ] Zeit stets nur in eine Richtung laufen und andersrum, wenn die Entropie abnehmen könnte, müsste auch die Zeit rückwärts laufen.
Diesen Grundsatz haben auch so ziemlich alle Physiker verinnerlicht und den hatte auch Stephen Hawking bis 1986 vertreten, (siehe z.B. hier).
Und da wären wir bei Ilya Prigogine und seiner Theorie Dissipativer Strukturen angelangt:
In einem Gesamtsystem wird Entropie [ mit an Sicherheit grenzender Wahrscheinlichkeit ] niemals sinken. Sie kann aber lokal in einem System sinken und dadurch neue Strukturen erzeugen. Die Senkung der Entropie lokal geschieht aber immer auf Kosten der Umwelt, deren Entropie dadurch umso schneller zunimmt. Die lokale Abnahme der Entropie ist unabdingbare Voraussetzung, dass neues wie z.B. Sonnensysteme oder Leben entstehen kann.
Wie es gelingt, dass eine lokale Abnahme der Entropie, z.B. bei der Entstehung von Leben, entstehen kann und wie diese lokale Abnahme der Entropie zur Selbstorganisation führt, wird in der Theorie Dissipativer Strukturen beschrieben.
Der Kern dieser Theorie beschreibt die Fälle, in denen Energie, und zwar viel mehr als bei obigen Systemen, aus der Umwelt in ein System gepumpt wird. Treten nun in diesem System mindesten 3 Wechselbeziehungen zwischen den einzelnen Systemelementen auf, dann können sich diese gegeneinander aufschaukeln und das ganze System zum Kippen bringen. Das ist der Moment der Selbstorganisation, in dem das System nach dem Kippen mit einer höheren Ordnungsstruktur das Chaos wieder verlässt.
Sowohl die ständige Entropiezunahme in geschlossenen bzw. toten Systemen als auch die lokale Entropieabnahme in lebenden Systemen hat eine gemeinsame Triebfeder. Sie besteht darin, dass sich jegliche Energie versucht, so schnell wie möglich zu entwerten. Exergie versucht von alleine immer zur Anergie zu werden. Dieses bestreben der Energie, Arbeit zu leisten und dabei an Arbeitsfähigkeit zu verlieren ist die Triebkraft für alle Vorgänge in der Natur. Das geht von einfachen Prozessen wie dem Herunterfallen eines Glases vom Tisch und dem Zerschellen auf dem Boden, das bewirkt dass der Regen herunterfällt und in strudelnden Bächen und Flüssen zum niedrigsten Energieniveau, dem Meer, strebt und bewirkz auch, dass Wälder abfackeln, wenn man nur einen kleinen Impuls (z.B. brennende Zigarette) dafür gibt.
Dissipative Strukturen, zu denen auch das Leben gehört, spielen sich grundsätzlich fernab des thermodynamischen Gleichgewichtes ab. Hier führt der Begriff von Unordnung im Zusammenhang mit der Entrópie völlig in die Irre. Das liegt daran, dass die statistische Herleitung der Entropie über die Vorstellung von Ordnung und Unordnung immer voraussetzt, dass sich ein System im thermodynamischen Gleichgewicht befindet.
Das ist bei lebenden Systemen aber nie der Fall, die sind extrem weit vom thermodynamischen Gleichgewicht entfernt.
Daher macht es hier keinen Sinn, Entropie mit Unordnung zu assoziieren, sondern da macht es nur noch Sinn, Entropie als ein Maß für die bereits erfolgte Entwertung von Energie hin zur Wärme zu betrachten.
Nun hat Prigogine festgestellt, dass in sogenannten dissipativen Strukturen, zu denen jegliches Leben gehört, die Energieentwertung, also die Umwandlung von Exergie in Anergie, noch viel schneller geht, als bei rein physikalischen Vorgängen. Wenn hochwertige Energie, also Exergie, irgendwelche Voraussetzungen vorfindet, wo sie die Möglichkeit hat, sich auf diesem schnellen Weg zu entwerten und dabei besonders viel Entropie zu erzeugen, dann nutzt sie diesen Weg auch.
Bei den dissipativen Strukturen, zu denen wie gesagt alles Leben gehört, tritt aber das Phänomen auf, dass in ihnen zwar enorm viel Entropie erzeugt wird, dass sie aber die Fähigkeit haben, noch schneller diese Entropie an die Umwelt abzugeben, als in ihrem inneren erzeugt wird, wodurch im Inneren solcher Strukturen bzw. Systemen die Entropie tatsächlich sinkt.
Genau dieses Phänomen, dass Leben zwar besonders viel Entropie erzeugt, aber gleichzeitig noch mehr Entropie an die Umwelt abgeben kann und dadurch die innere Entropie im Gegensatz zu toten Systemen erniedrigen kann, zeichnet Leben als solches aus. Tote Systeme sind dazu nicht in der Lage. Und Schuld daran ist das Bestreben der Energie, sich so schnell wie möglich zu entwerten.
Dieser ganz grundsätzliche Unterschied zwischen toten und lebenden Systemen, nämlich die eigene innere Entropie aktiv zu verringern, dient Forschern nach außeriridischem Leben als Hauptkriterium dafür, solches zu entdecken, selbst wenn es äußert exotische Formen annimmt, die wir ohne dieses Kriterium womöglich gar nicht als Leben erkennen würden. Basierende auf dieser prinzipiellen Eigenschaft von Leben ist man auch zu der Erkenntnis gekommen, dass Leben auch ohne die typischen irdischen Rahmenbedingungen entstehen kann, z.B. auch auf Silizium- anstatt auf Kohlenstoffbasis.
Henry aus 1948-37:Nein, ich sprechen NICHT von Information im nachrichtentechnischen Sinne, sondern von Information bzg. auf die Thermodynamik. Die Entropie beschreibt das abgeschlossene System, das sich stetig durch permanente Umwandlung aller Energien in Wärmeenergie einem Zustand minimaler Information und maximaler Entropie zubewegt.
Thomas der Große aus 1948-42:
Jedenfalls wäre es toll, wenn Du Deinen Erhaltungssatz an Beispielen erläutern könntest.
C... aus 1951-6:
hast du den Begriff "Komplexität" definiert?
Hat ein hoch komplexes System (z.B. ein Lebewesen oder ein Gehirn) demnach hohe Entropie?
C... aus 1951-6:
M.E. benötigt man zunächst mindestens zwei Systeme mit verschiedenen Unterscheidungskriterien: z.B. einen Mikrozustand und einen Makrozustand.
In System 1 unterscheidbare Zuststände (Mikrozustände) müssen im System 2 (Makrozustand) ununterscheidbar sein.
Im genannten Beispiel zweier verschiedener Systeme können dieselben Makrozustände somit durch verschiedene Mikrozustände realisiert werden.
Je mehr Mikrozustände denselben Makrozustand realisieren, umso wahrscheinlicher ist der Makrozustand.
Die Entropie des Makrozustands ist dann proportional dem Logarithmus der Anzahl der Mikrozustände, die ein und denselben Makrozustand repräsentieren.
C... aus 1951-12:Grtgrt aus 1951-7:Ein System S1 heißt komplexer als ein System S2,
wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.
Ich fürchte, dem kann ich nicht folgen.
Du hattest doch versucht, Entropie über den Begriff "Komplexität" zu definieren.
Wenn du jetzt "Komplexität" über den Begriff "Entropie" definierst, drehst du dich im Kreis.
C... aus 1951-12:
Ist deiner Definition gemäß für ein Gehirn ein Zustand denkbar, der höhere Entropie hat, als diejenige eines Proteindrinks gleicher mikroskopischer Zusammensetzung und Masse?
Grtgrt aus 1951-7:Ein System S1 heißt  komplexer als ein System S2,
wenn für S1 ein Zustand denkbar ist, der höhere Entropie hat als jeder dem S2 mögliche Zustand.
Stueps aus 1951-17:
Das menschliche Gehirn ist die komplizierteste, komplexeste Struktur, die wir kennen. Sie ist die am weitesten von Entropie entfernte Struktur (vergleicht man sie z.B. mit einem sich selbst überlassenen Gasgemisch, wo die Entropie den maximal möglichen Wert hat).
Ein Hirn ist zweifellos komplexer als ein Gasgemisch.
Oder hab ich dich und deine Ausführungen irgendwo falsch verstanden?
C... aus 1951-12:
Zitat von Grtgrt:Was du hier [Anm.: d.h. C... in Beitrag 1951-6