Information





Ist Information eine Grundgröße der Natur?

   





D i s k u s s i o n


 Beitrag 0-117
Die am ehesten brauchbare Definition des Begriffs » Information «

 
 

 
Was ist Information ( im Sinne von Physik und Informatik )?

 
 
Die sinnvollste Definition für den Begriff » Information «, die ich mir vorstellen kann, ist:
 
Information (genauer: every piece of information) entspricht einer Menge von Fragen, deren jede
  • nur die Antwort JA oder NEIN gestattet
     
  • und zudem noch beantwortet ist.

Diese Definition, wenn allgemein akzeptiert, wäre elegante Lösung eines Problems, das der Physiker von Baeyer auf Seite 120 seines Buchs Das informative Universum wie folgt beschreibt:


Hans Cristian von Baeyer (2003, Zitat):
 
Shannons technische Definition der Informationsmenge in einer Nachricht — die Anzahl der Ziffern einer Binärdarstellung der Nachricht — unterscheidet nicht zwischen Sinn und Unsinn:

    Eine besondere Folge von Ziffern, beispielsweise meine Kreditkarten-Nummer, trägt dieselbe Shannon-Information wie eine Zufallsfolge derselben Länge.
     
    Vielleicht kann man daher das Problem der Information vom anderen Ende her aufziehen, denn das Gegenteil von bedeutungstragender Information ist zufällige Information ...

 


Und natürlich hat von Baeyer auch noch einen anderen wichtigen Aspekt vergessen: Nachrichten können redundant und/oder redundant codiert sein, so dass die Länge der sie darstellenden Bitfolge den Umfang darin enthaltender Information als deutlich zu groß beschreibt.
 
Mit anderen Worten: Die Länge der Binärkodierung einer Nachricht sagt noch nichts darüber aus, wie viel Information (im umgangssprachlichen Sinne) jene Nachricht enthält. Sie stellt lediglich eine obere Grenze für den Informationsgehalt der Nachricht dar.
 
Interessant an Shannons Ansatz ist eigentlich nur, dass er Information als gequantelt zeigt und dass jedes solche Quant genau einem Bit entspricht.
 
Dies harmoniert mit der Tatsache, dass auch jedes quantenphysikalische Experiment nur Informationsquanten produzieren kann: Es kann — ganz grundsätzlich — nur auf JA-NEIN-Fragen antworten.
 
 
 
Note: Shannon's Informationsbegriff ist rein nachrichten-technischer Natur. Für Datentransport gilt tatsächlich, dass die Länge der Bitfolge dem Umfang der Nachricht entspricht.
 
 
 
Shannons Informationsbegriff

 
 
 
Wir sehen: Information im Sinne von Shannon's Informationstheorie ist  b e d e u t u n g s f r e i  (abstrakt).
 
 
 
Wenn Physiker — Wheeler, Zeilinger und einige andere — Information als Urstoff des Universums bezeichnen, meinen sie damit:
 
 
Urstoff des Universums
 
= Information gegeben als JA/NEIN-Antworten der Natur auf quantenphysikalische Messfragen
 
= der Teil der Wirklichkeit, der Teil unserer Realität ist.

 
Die Tatsache, dass Quantenphysik solcher Information Bedeutung zuordnet — wenn auch nur in beschränktem Ausmaß — macht diesen Urstoff des Universums zu einem Teil unserer Realität. Quantenphysikalische Messfragen sind unsere einzige Möglichkeit, mit der Wirklichkeit zu kommunizieren. Leider werden solche Fragen aber nie mit einem ganzen Satz, sondern stets nur mit einen JA oder NEIN beantwortet.

 

 Beitrag 0-120
Über die schier unfassbare Mächtigkeit mathematischer Formeln

 
 

 
Wie viel implizites Wissen kann eine Nachricht enthalten?

 
 
Jede Nachricht ist kodierte Information, deren Menge gegeben ist durch die Länge der kürzesten Bitfolge, die jene Nachricht darstellen kann (Shannon).
 
Interessanterweise aber kann so eine Nachricht implizites Wissen enthalten, dessen Menge unbegrenzt groß sein kann.
 
Dies jedenfalls legt uns das folgende Beispiel nahe (wie eigentlich auch schon jede Gleichung, die einen Funktionsgraphen beschreibt):
 
 
Nach fast einem Jahrzehnt intensivster Arbeit veröffentlichte Einstein sein Papier (die Nachricht) über Allgemeine Relativitätstheorie. Höhepunkt des Artikels ist Einsteins Feldgleichung
 
Rjk – R gkj/2 + λ gjk  =  –8π G Tjk

 
Die Notation ist derart komprimiert, dass die ersten 50 Seiten des Papiers dazu dienten, die Bedeutung der Symbole zu erläutern. Schreibt man die Gleichung aber
mit Hilfe der üblichen Koordinaten zur Festlegung von Orts- und Zeitpunkten aus, so explodiert sie zu zehn miteinander verknüpften Gleichungen, von denen jede einzelne — je nach Umständen — aus mehreren hundert Einzelbeiträgen bestehen kann.
 
Da diese Gleichung für jeden Punkt des Raumes unabhängig gilt, umfasst sie unendlich viele Beziehungen (bzw. eine extrem hohe Zahl endlich vieler, wenn man Raum und Zeit als gequantelt anerkennt).
 
Die Symbole auf der linken Seite der Gleichung sind vollständige Beschreibung der Geometrie der Raumzeit, wohingegen die auf der rechten Seite die Verteilung und Stärke der Gravitationsquellen darstellt.
 
John Wheeler beschrieb diese Tatsache mit den Worten: Die Materie sagt der Raumzeit, wie sie sich zu krümmen hat, und die Raumzeit sagt der Materie, wie sie sich zu bewegen hat.
 
 
Einsteins "Nachricht" (die Formel bzw. sein Veröffentlichung) stellt letztlich ein Meer von Wissen dar, das auszuloten uns selbst heute noch erst in winzig kleinen Ansätzen gelungen ist.
 
Dieses Wissen zu entpacken, dient u.A. der wissenschaftliche Großrechner Blue Waters. Selbst er und seine Nachfolger werden damit nie fertig werden.
 
 
 
Fazit also:
 
Das uns durch eine Nachricht endlicher Länge (ja sogar durch eine ausgesprochen kurze Nachricht) zugänglich gemachte Wissen kann beliebig viel sein. Erstaunlich ist das noch nicht, denn wer uns den Weg zu einer großen Bibliothek weist, macht uns ja auch weit mehr Wissen zugänglich als ein Einzelner je verdauen kann. Wirklich überraschend aber ist, in welch kompakter Form mathematische Formeln uns Führer durch solch riesige Mengen von Fakten sein können.
 
 
 
Quelle: Hans Christian von Baeyer: Das informative Universum, C.H.Beck 2005, Kap. 16.


 

 Beitrag 0-121
Über die Schwierigkeit, Nachrichten zu decodieren

 
 

 
Über das Problem der

Decodierung von Nachrichten

 
 
Träger aller Information sind Nachrichten. Wie aber sind sie codiert?
 
Die Informatik sieht jede Nachricht als eine Folge von Bits, der es gilt, Semantik zuzuordnen.
 
Aber schon OCR-Programme müssen jede Nachricht sehen als eine Folge von Bildern (einzelner Buchstaben), die es erst mal zu unterscheiden und dann in Äquivalenzklassen einzuordnen gilt. Wie schwierig das sein kann, erkennt, wer sich handschriftlich erzeugte Texte — Briefe aus verschiedenen Jahrhunderten etwa oder Briefe geschrieben von verschiedenen Personen — ansieht.
 
 
Die kompliziertesten Nachrichten, die jeder von uns kennt, sind solche, die sich uns darstellen als eine 3-dimensionale Plastik geschaffen durch einen Bildhauer oder durch die Natur selbst.
 
 
Jedes im Körper eines biologischen Wesens vorkommende Protein etwa ist eine solch plastische Nachricht.
Machen wir uns das zunächst mal klar:

     
    Jedes DNA-Molekül hat die Form einer wendeltreppenartig gewundenen Leiter, deren Sprossen aus nur vier verschiedenen Arten von Bausteinen bestehen. Man nennt sie die Basen Adenin, Thymin, Cytosin und Guanin (abgekürzt: A, T, C, G). Zwei immens lange Kettenmoleküle bilden die seitliche Berandung der Leiter und winden sich umeinander zu einer Helix.
     
    Die die Basen darstellenden Moleküle sind in sie hineingesteckt, zeigen paarweise zueinander und sind in der Mitte über über eine schwache chemische Bindung miteinander verhakt (so dass jedes solche Paar eine Sprosse der Leiter darstellt).
     
    Die gesamte Leiter besteht aus 24 getrennten, ungleich langen Teilstücken, die zu den verschiedenen Chromosomen gehören. Sie enthält etwa 3 Milliarden Stufen
     
     
    Liest man die Basen entlang einer Seite der Leiter ab, so ergeben sich Folgen wie z.B. TTT CAT TAG TTG GAG ... usw.
     
    Jeweils 3 der Basen bilden ein Wort, das man als Codone bezeichnet und das einer von 20 Aminosäuren entspricht (d.h. einem der 20 elementaren Bausteine biologischer Körper).
     
    Dennoch: die 3 Basen eines Codones sind selbst noch nicht die Aminosäure. Sie sind lediglich der Code für eine.
    So ist etwa TCA (aber auch TCT, TCC, TCG, AGT und AGC) ein Code für Serin.
     
     
    Im nächsten Schritt werden — streng nach Vorgabe der DNA — die Aminosäuren zu Proteinen verknüpft, den Molekülen der lebenden Materie, deren jedes in folgendem Sinne eine 3-dimensionale Plastik darstellt, deren  F o r m  Semantik zukommt und daher eine Nachricht darstellt:

 
Die in  d i e s e n  Nachrichten enthaltene Information zu entschlüsseln wird eben zur eigentlichen Aufgabe der Bioinformatik und gestaltet sich aus folgendem Grund extrem schwierig:
 
Verantwortlich für das Wachstum, das Gedeihen und die richtige Funktion der Zellen unseres Körpers sind die Proteine, deren jedes zwar ein Kettenmolekül ist, zusammengebaut nach dem Plan der DNA, welches aber als Kette zusammengeknüllt ist zu einem Knäuel vergleichbar mit dem, das zustande kommt, wenn wir einen Faden zwischen den Findern zu einem etwa kugelförmigen Etwas zusammenknüllen.
 
Erstaunlich ist nun, dass die  F o r m  in der sich das kettenartige Molekül durch die Wirkung schwacher chemischer Bindungskräfte zusammengeknüllt hat, für unsere Gesundheit wichtige Information trägt.
 
Diese wundersame Transformation von etwas 1-Dimensionalem in etwas 3-Dimensionales nennt man den Vorgang der Proteinfaltung. Ihn zu verstehen ist für Chemiker und Biologen eine ebenso schwierige Aufgabe wie für Neurologen das Verstehen der Gehirnfunktionen und wie es zu Bewusstein kommt.
 
Wie also windet und faltet sich ein kettenartiges Molekül, dessen Zusammensetzung aus elementaren Bausteinen heute als vollkommen bekannt vorausgesetzt werden kann, über einen Zeitraum von Sekunden oder gar Stunden in eine stets gleiche Form (einer 3-dimensionalen Plastik), welche stets dieselbe Information darstellt?
 
Entstehen hierbeit durch Mutation "Druckfehler" — die dann i.A. sogar vererbt werden —, verursachen sie Krankheiten. Die erste, deren Ursache, man auf einen solchen Defekt zurückführen konnte, war eine meist tödlich endende Blutkrankheit: die sog. Sichelzellenanemie. Schon heute aber kennt man zahlreiche andere Krankheiten, die ebenso entstehen (z.B. Alzheimer und die Bluterkrankheit).
 
Herauszufinden, welche Mechanismen genau ein Kettenmolekül veranlassen sich zu falten, und weshalb es dies immer gleich, unter bestimmten Umständen aber doch anders tut, ist demnach wichtig für die Entwicklung von Verfahren, die solche, die Krankheit verursachenden  P r o z e s s f e h l e r  verhindern oder gar korrigieren können.
 
 
 
Vom Standpunkt der Informatik her muss man aber zunächst besser verstehen, wie es kommt, dass nicht nur Folgen von Zeichen (Folgen von Bits etwa), sondern auch  A n o r d n u n g  von Teilen der Nachricht Information darstellt.
 
Wichtiger Ausgangspunkt solcher Überlegungen ist die fast triviale Erkenntnis, dass beide Verfahren sich mischen.
 
Machen wir uns das klar anhand eines durch einen Drucker erzeugten einfarbigen Bildes, welches ja einfach nur aus schwarzen und weißen Punkten besteht, welche matrixartig gruppieren.
 
Zum Drucker kommt die Folge dieser Punkte als eine Folge von Bits vermehrt um Bits, die Zeilenvorschub darstellen. Wären letztere nicht vorhanden, würde man der gedruckten Folge schwarzer und weißer Punkte nicht mehr ansehen, welches Bild sie darstellt, d.h. welche Information sie trägt.
 
Wir sehen also:
 
 
Es gibt den Punkten (den Bits) zugeordnete Information,
 
aber auch Information, die erst durch die  A n o r d n u n g  der Punkte (der Bits) zustandekommt.

 
Man drückt das für gewöhnlich aus, indem man feststellt:
 
 
Das Ganze ist mehr als die Summe seiner Teile

 
Im Fall der Plastik ist jene Matrix eine 3-dimensionale. Heute schon existierende 3-D-Drucker berücksichtigen das.
 
Auch Bitmatrizen noch höherer Dimension kann man sich vorstellen, ob — und ggfs. wie — solche in der Natur auftreten ist heute noch unerforscht.

 

  Beitrag 1915-133
Existiert alles Existierende nur als Information über sich selbst?

 
 
Gregor Lämmer aus 1915-132:
 
Eigentlich existiert für mich kein Quantensystem, sondern ein Informationssystem, das Quanten hervorbringt.

Somit ist bei mir Existenz nichts anderes als die Information über die Existenz!


Ja Gregor,

so sehen ich und einige andere das inzwischen auch: siehe Beitrag 1961-1 und meine aus den Überlegungen in 1961-4 kommende Aussage:



Ein Ding D(Q) existiert in genau dem Ausmaß,

in dem — wie indirekt auch immer — Information darüber existiert.

( Information verstanden als Menge wahrer Aussagen )



Gruß, grtgrt
 

  Beitrag 1915-134
Ist selbst Wirklichkeit einfach nur Information?

 
 
An alle:

Die durch Gregor und mich in 1915-133 dargelegte Meinung teilt z.B. Andreas Mücklich. Er schreibt:


Wirklichkeit = Information über die Wirklichkeit


und ergänzt dann noch eine interessante Idee, die ich so noch nirgendwo angedeutet fand:


Mücklich sieht jedes Quantenobjekt als eine Portion von Information, die darzustellen nur endlich viel Speicher zur Verfügung steht.
Dessen Größe wiederum sei durch den Typ des Objekts bestimmt.

Wenn das so zuträfe, so zeigt er, würde sich aus der Endlichkeit des Speichers eine Begründung für Heisenbergs Unschärfe-Relation ergeben:

Seine Argumentation hierfür:
    Stehen z.B. zur Darstellung von Ort und Impuls eines Teilchens zusammengenommen nur endlich viele Bits zur Verfügung, so können durch sie nicht beide Größen beliebig genau dargestellt sein: Je genauer der eine Wert, desto mehr Bits werden zu seiner Darstellung benötigt, und umso weniger genau kann der andere festgehalten sein.
    Zusätzlich — so würde dann auch gelten — kann  a u c h  e i n z e l n  keine Größe mit beliebiger Genauigkeit definiert sein. Man hätte dann also sogar noch eine Verschärfung der Unschärfe-Relation gefunden (!).

Mit dieser Deutung steht Mücklich zunächst alleine — interessant aber finde ich sie allemal.

Da es nun aber einen Unterschied gibt zwischen der Wirklichkeit und dem, was wir dafür halten — unserer Realität — sollte man Mücklichs Aussage präzisieren zu:


Wirklichkeit = abstrakte Information über die Wirklichkeit

Realität = durch denkende Wesen mit Bedeutung versehene Information über die Wirklichkeit


Gruß, grtgrt
Quelle: Andreas Mücklich: "Das verständliche Universum (2011), ab Seite 209




Hinweis: Was Görnitz abstrakte Information nennt, wird von Lyre — noch treffender — als potentielle Information bezeichnet. Er schreibt:


An ur-alternative represents exactly one bit of potential information.

One has to be aware of the difference between syntactic and semantic information.


I call syntactic information any amount of structural distinguishability which can be measured in bits.

Beyond this the semantic aspect of information takes care of the fact that information only exists under a certain concept or on a certain semantic level.

For example, a letter printed on a paper refers to different amounts of information if it is regarded under the concept "letter of an alphabet of a certain language" or under the concept "molecules of printer’s ink".


Quelle: Holger Lyre: Multiple Quantization and the Concept of Information (1996), International Journal of Theoretical Physics, Vol. 35, No. 11



Festhalten sollte man:

Abstrakte Information ist alles, dem sich Bedeutung zuordnen lässt.


Wohldefinierte Informationskapazität hat alles, was Menge von JA/NEIN-Fragen ist.


Konkrete Information ist alles, was Menge beantworteter JA/NEIN-Fragen ist.



 

  Beitrag 1948-1
Die 7 verschiedenen Informationsbegriffe

 
 

Über sieben verschiedene Informationsbegriffe

Zwischenergebnisse auf dem Weg hin zu einer Antwort auf die Frage: Was ist Information im Sinne der Natur?



Information wird heute — neben Materie und Energie — vielfach als eine dritte Grundgröße angesehen (Brockhaus, S. 657). Information, als Begriff, scheint nicht auf andere Größen zurückführbar zu sein. Dennoch ist der Informationsbegriff fundamentaler Baustein aller Kommunikationsprozesse.


1. Der semantische (zwischen-menschliche) Informationsbegriff

Hier versteht man unter Information korrektes Wissen, welches man sucht, findet oder mitgeteilt bekommt.
Zwischen dem semantischen und dem nachrichtentechnischen Informationsgehalt einer Nachricht besteht KEINE wie auch immer geartete Beziehung:


2. Der nachrichtentechnische Informationsbegriff

Der Informationsgehalt einer Nachricht ist die Zahl binärer Entscheidungen, die man benötigt, eben diese Nachricht von einer ebenso komplexen anderen zu unterscheiden.

Da jede Nachricht eine Folge von Zeichen ist, kann auch jedes Zeichen als so eine Nachricht aufgefasst werden. Da nicht alle Zeichen mit gleicher Wahrscheinlichkeit auftreten, liegt es nahe, ihren Informationsgehalt mit der Wahrscheinlichkeit ihres Auftretens zu gewichten. Werden diese Produkte aufsummiert, so erhält man eine Zahl, die man nach Shannon als mittleren Informationsgehalt, Informationsdichte oder auch als Entropie der Nachricht bezeichnet.


3. Der sprachwissenschaftliche Informationsbegriff

Er verfeinert den semantischen Informationsbegriff dahingehend, dass neben Syntax und Semantik einer Nachricht auch noch deren Pragmatik Gegenstand der Betrachtung sein kann: Es kann vorkommen, dass unterschiedliche Empfänger ein und derselben Nachricht ihr unterschiedliche Information entnehmen (Pragmatik = empfängerspezifische Sicht auf semntische Inhalte).


4. Der kybernetische Informationsbegriff

Zunehmende Ordnung bedeutet zunehmende Information: Information ist das, was den Unterschied ausmacht.
Wo kybernetischer Informationsgehalt zunimmt, reduzieren sich Entropie und nachrichtentechnischer Informationsgehalt (und umgekehrt).
Die Kybernetik (das Wort bedeutet eigentlich "Steuermannskunst") abstrahiert reale Systeme hinsichtlich gewisser Eigenschaften und Verhaltensweisen zu Modellen — die man dann kybernetische Systeme nennt — und untersucht deren Struktur und Verhalten.


5. Der naturwissenschaftliche Informationsbegriff

Er wurde wesentlich geprägt durch Carl-Friedrich von Weizsäcker (Physiker und Philosoph) und kennzeichnet sich so:

Ein Telegramm enthält Information. Ist die nun als etwas Materielles oder Bewußtseinsinhalt? Antwort: weder noch:
  • Die Druckerschwärze auf einem per Fax versandten Papier ist verschieden von der Druckerschwärze des beim Empfänger ankommenden Exemplars: "Information ist gerade das, was beiden Zetteln gemeinsam ist" (Weizsäcker 1974).
  • Ähnliches gilt für den (pragmatischen) Inhalt jeder Nachricht: Das, was der Absender gedacht hat, kann verschieden sein von dem, was der Empfänger denkt. Dennoch ist beiden etwas gemeinsam. Eben das ist Information.
Und daraus folgert Weizsäcker:

"Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." (Weizsäcker 1974)


6. Der biologische Informationsbegriff

Weizsäcker findet den Gebrauch des Informationsbegriffs in Zusammenhang z.B. mit dem Chromosomensatz "völlig legitim" (Weizsäcker 1974), obwohl hier niemand spricht oder einem anderen Menschen etwas mitteilt. Spannende Frage also:

Wie lässt sich Information jenseits der menschlichen Sprache verstehen?


Und wie lässt sich verstehen, dass die Natur ganz offensichtlich Information erzeugt, wo doch gilt:

» Information ist nicht etwas, was auf der Straße herumliegt so wie Kieselsteine, sondern
Information wird erzeugt; und sie wird erzeugt nur von denjenigen, welche imstande sind, in Begriffen zu denken. «
(Weizsäcker 1973)



7. Der physikalische Informationsbegriff

Wäre so einer schon erarbeitet, müsste er wohl mindestens den biologischen und den kybernetischen verallgemeinern (und gemeinsame Wurzel beider sein).
Nicht vergessen sollte man: Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die weit mehr auf Freiheitsgrade zurückzuführen sind als auf ein Ursache-Wirkungs-Verhältnis.

Somit scheint Information die Grundlage aller Selbstorganisation zu sein.



Siehe auch: Capurro, wo u.A. berichtet wird, wie Weizsäcker den Begriff "Evolution" einordnet:

Die moderne Naturwissenschaft basiert nicht nur auf dem Begriff der Erfahrung, sondern auch auf dem der Evolution.


Was bedeutet Evolution?


Antwort: Evolution ist "Vermehrung der Menge an Form", oder anders formuliert: ein "Anwachsen der Information" (Weizsäcker 1973).

Und: "Information ist nur, was Information erzeugt." (Weizsäcker 1974).



Auch der großen Frage, wie Bewusstsein entsteht, ist Weizsäcker (allerdings ohne Ergebnis) nachgegangen:


» Das Bewußtsein taucht in der Evolution aus dem Meer des Unbewußtseins auf.
Ist also doch Form das Zugrundeliegende und Bewußtsein eine ihrer Ausprägungen? «

» Aber wie kann Form Bewußtsein erzeugen? Ist sie selbst geistig? Was könnte man damit meinen? «

(Weizsäcker 1992)



Gebhard Greiter (grtgrt)
 

Nachtrag (am 15.2.2013):

In seinem Buch "Die Evolution des Geistigen" weist Thomas Görnitz darauf hin, dass jedes physikalische Objekt — als Träger von Information —

  • zugängliche und auch
  • nicht zugängliche Information (Entropie)

trägt bzw. tragen kann. Wichtiger Teil seiner zugänglichen Information ist die Information darüber, an welcher Stelle im Universum es sich befindet.

Allgemeiner: Genau der Teil seines Zustandes, den die Natur uns (im Prinzip wenigstens) zugänglich macht, ist Träger seiner zugänglichen Information.


Wie Görnitz auf den Seiten 156-158 seines Buches zeigt, kann berechnet werden, wie groß die Entropie eines Objekts ist:

Zitat von Görnitz:
 
Wenn man sich ein Schwarzes Loch mit dem Materiegehalt unseres Universums denkt, so hätten beide gleiche Dichte und Ausdehnung. Ließe man nun noch ein Teilchen in das Schwarze Loch fallen, so würde des Teilchens zuvor zugängliche Information unzugänglich und damit zu berechenbarer Entropie.

Mit diesem Gedankenexperiment konnte ich zeigen, dass dann beispielsweise einem Planck-Black-Hole, dessen Entropie in unserem Kosmos 1 Bit ist, insgesamt etwa 1062 QuBits entsprechen (deren Menge zuvor als Menge unverborgener Information mit der Entropieformel nicht berechenbar war).

Für ein Proton [als Informationsträger] ergibt sich so, aus den heutigen astronomischen Beobachtungsdaten, ein Wert von 1041 QuBits.

Das liegt sehr nahe am früher von C.F. v. Weizsäcker vorgeschlagenen Wert von 1042 QuBits.
 


Interessant ist auch, was er auf Seite 172 sagt:

Zitat von Görnitz:
 
Entropie ist Information, die unbekannt ist, entweder weil eine Kenntnisnahme zu aufwändig oder zu uninteressant wäre (wie beispielsweise das Schicksal eines einzigen Atoms in einem Gas).

Entropie ist — salopp gesagt — Informationsmüll, wie Akten nach dem Schreddern: alle Buchstaben sind noch da, aber man kann nichts damit anfangen. Man muss sie aber los werden, um Platz für Neues zu schaffen.

Problematisch an dieser seiner Aussage aber ist, dass sie nicht unterscheidet zwischen
  • Information, die man  i g n o r i e r t , und
  • Information, die uns prinzipiell  u n z u g ä n g l i c h  ist (wie etwa die in einem Schwarzen Loch oder die in Daten, zu denen die Natur uns noch keinen Decodierungsschlüssel zur Verfügung gestellt hat).

 

  Beitrag 1948-9
Henrys Meinung

 
Information

Nun gut, Information. Ein schwieriges Gebiet. Ich denke, es macht es nicht einfacher, dass wir uns bereits auf einer bestimmten Ebene der Information befinden, wenn wir hier über "Information" diskutieren, nämlich auf der Ebene, in denen wir Begriffen eine Bedeutung beimessen, denn gewöhnlich sehen wir doch in Information etwas, was uns Bedeutung vermittelt. Etwas, was Bedeutung hat, kann auch einen Wert haben ("Wert" nicht im Sinne von "wertvoll", sondern eher von "messbar"). Information ist also eigentlich eine Unterscheidungsmöglichkeit. Nur, wenn Information vermittelt, dass ein "Dieses" anders ist, als ein "Jenes", ist sie eine "nützliche" Information. Wobei "nützlich" eigentlich schon zu einer anderen Ebene gehört, nämlich zur Ebene der Interpretation von Information.

Wie ist nun die grundlegende Ebene, die kosmische Ebene zu sehen? Wenn ich das richtig sehe, beginnt mit Thermodynamik die Betrachtung von Information auf diese Weise, als die Beschreibung eines Systems in bestimmten Zuständen. Da sich die Thermodynamik mit Systemen beschäftigt, die aus ungeheuren Anzahlen von Teilen bestehen – z. B. die Moleküle in einem bestimmen Volumen von Gas – ist die Information, die daraus gewonnen wird, statistischer Natur.

Das Beispiel ist bekannt: In einem Behälter befindet sich Gas, dass durch eine Abtrennung auf einer Seite des Behälters gehalten wird. Das System "Gas" befindet sich - auf den gesamten Behälter bezogen - in einen ausgezeichneten Zustand. JEDE Änderung des Zustandes – in dem nämlich die Trennwand entfernt wird – ist vom ursprünglichen Zustand unterscheidbar. Hat der ursprüngliche Zustand die Wahrscheinlichkeit "eins", dass sich alle Moleküle in einer Hälfte des Behälters befinden, so geht die Wahrscheinlichkeit gegen "null", je länger die Trennwand entfernt ist (sie wird aber nie "null" werden).

Wenn das Gas sich im gesamten Behälter verteilt hat, wird sich jede Änderung des Zustandes makroskopisch nicht mehr ermitteln lassen, da wir nicht in der Lage sind, die Wege der einzelnen Moleküle zu verfolgen. Die Information über den tatsächlichen Zustand ist eine rein statistische Information, und das Ganze nennen wir Entropie, das heißt, die Entropie gibt uns eine Information über die Wahrscheinlichkeit eines Zustandes, und diese Wahrscheinlichkeit wird über Vektoren in einem so genannten Phasenraum dargestellt (drei räumliche und eine zeitliche Angabe oder "Freiheitsgrade", das multipliziert mit der Anzahl der beteiligten Teilchen, das ist anständig groß!).

Und diese Art der Berechnung auf den gesamten Kosmos erweitert ergibt den wahrscheinlichen Zustand (die Information) über eben den Kosmos, beginnend mit dem Urknall, der demzufolge in einem Zustand sehr niedriger Entropie begonnnen haben muss (und mit dieser Annahme gehen einige Probleme einher, das ist aber ein anderes Thema).

Nach meiner Ansicht ist aber der Zustand eines Systems vollkommen unabhängig davon, ob ein Beobachter das System wahrnimmt oder nicht, aber erst durch die Beobachtung des Zustandes formt sich Information, ganz im Sinne von "in-form-ieren", nicht überraschend halte ich also Information nicht für eine Grundgröße der Natur.
 

  Beitrag 1948-10
Ist Information die EINZIGE Grundgröße der Natur?

 
 
Henry aus 1948-9:
... erst durch die Beobachtung des Zustandes formt sich Information, ganz im Sinne von "in-form-ieren".

Kann man wirklich sagen, dass Information erst durch Betrachtung eines Zustandes entsteht?


Mir scheint, Zustand ist Darstellung von Information, und ihn zu betrachten, ist ein Weg, ihm einen Teil dieser Information zu entlocken, sie also nach anderswo hin zu übertragen, wodurch dann dort neuer Zustand — als Kodierung dieser und anderer Information — entsteht.

Auf diese Weise wäre auch nachvollziehbar, dass Weizsäcker sagt:

Information ist nur, was Information erzeugt.


Mir also scheint vernünftig zu sagen:

Zustand ist kodierte Information.


Man könnte dann weiterfragen:

Sind Energie und Masse nicht einfach nur Information in verschiedener Kodierung?


Wenn ja, wäre Information die EINZIGE Grundgröße der Natur (!).


 

  Beitrag 1948-11
Zustand ist (eine) Darstellung von Information, Information ist Zustandsabstraktion

 
 
µchip aus 495-1:
 
Wenn ich einen durch eine Trennwand unterteilten Behälter auf der einen Seite mit Stickstoff und auf der anderen mit Sauerstoff fülle, ist doch die Tatsache, dass die Gase getrennt vorliegen, auch eine Information. Warum "darf" sie einfach verschwinden, wenn ich die Trennwand rausnehme und die Entropie walten lasse?

Antwort:

Information ist Spiegelbild des Zustandes. Wird die Trennwand herausgenommen, mischen sich die Gase, es kommt dann also zu einem neuen Zustand (und auch dazu, dass die alte Information ungültig wird, sich also durch neue zu ersetzen hat).

 

  Beitrag 1948-15
Zum Informations-Erhaltungssatz (1)

 
 
Henry aus 1948-14:
 
Was heißt es denn, dass in dem Beispiel mit dem Gaskasten sich das Gas nahezu gleichmäßig verteilt, also Entropie wirkt? Es geht doch effektiv Information verloren! Falls das Universum wirklich so tickt, dass sich letztlich alles in (Wärme-) Energie umwandelt, kann die Vermutung, das in der Energie Information gespeichert ist, nicht zielführend sein.

Man muss das differenzierter sehen, denn mehr und mehr gleichmäßige Verteilung des Gases führt
  • zwar zu einer ABNAHME von Information im kybernetischen Sinne,
  • aber zu einer ZUNAHME von Information im nachrichten-technischen Sinn.

Abstrahiert man also von der Form, in der Information im System steckt, könnte man sagen: Am Informationsgehalt insgesamt ändert sich gar nichts (weswegen ich denn auch an den Erhaltungssatz für Information als Parallele zum Energie-Erhaltungssatz sehe).

grtgrt
 

  Beitrag 1948-27
Zum Informations-Erhaltungssatz (2)

 
 
Thomas der Große aus 1948-24:
Wohl kann man mit jedem Deiner 7 Informationsbegriffe eine ganze Bibliothek füllen.

Hi Thomas,

ich jedenfalls würde mir extrem schwer tun, damit eine ganze Bibliothek zu füllen.

Was ich (als eine Art Zusammenfassung meiner i.W. nur aus Capurros Papier entnommenen Erkenntnis) in Beitrag 1948-1 aufgeschrieben habe, war schon alles, was ich zu dem Zeitpunkt über das Thema wusste.

Zu dem Wenigen, was inzwischen dazu kam, bin ich auch nur gelangt beim Versuch, auf Beiträge anderer Forumsteilnehmer zu reagieren, durch den Versuch also, logisch zu denken.


Thomas der Große aus 1948-24:
Vielleicht wäre es ein Ansatz, die Informations-Begriffe durch Erhaltungssätze grob zu klassifizieren und damit entsprechenden Systemtheorien zuzuordnen,
denn in einem fliegenden Wechsel von Systemen werden wir kaum zu Potte kommen oder gar Deine Frage verstehen.

Für den zwischen-menschlichen Informationsbegriff (1) ebenso wie für den sprachwissenschaftlichen (3) kann ich mir keinen Erhaltungssatz vorstellen.


Was ich als den Erhaltungssatz für Information sehe, ist eher eine Definition. Sie lautet:

Für jedes in sich abgeschlossene System S gilt


( kybernetischer Informationsgehalt von S )  =  ( maximal durch S realisierbare Entropie ) – ( nachrichtentechnischer Informationsgehalt von S )



Bleiben uns also die Informationsbegriffe (5), (6) und (7).

Insbesondere an (7) — dem physikalischen Begriff der Information — sehen wohl nicht nur wir noch wirklich viele Fragezeichen.

Der beste Weg, sie zu klären bzw. eine Klärung zu versuchen, dürfte sein, dass wir uns gegenseitig alle nur denkbaren Fragen stellen und zu beantworten suchen. Wenn du und andere da mitmachen wollten, würde mich das sehr freuen.

Mit anderen Worten: Ich bin keineswegs schlauer als irgend jemand von euch, aber vielleicht schaffen wir es ja gemeinsam, uns gegenseitig etwas klüger zu machen. Genau das wäre doch wohl der Zweck eines solchen Forums (mal abgesehen vom Spaß, den man am Diskutieren selbst haben kann).

Beste Grüße,
grtgrt
 

PS: Die von mir favorisierte Definition des Begriffs » Information « findet sich in Beitrag 0-117.
 

  Beitrag 1948-16
Codierte, decodierte, und übermittelte Information

 
 
Henry aus 1948-12:
 
Man könnte alles Mögliche sagen: z. B. dass zu einer Codierung jemand gehört, der entcodiert. Ich bin der Überzeugung, dass Information erst durch einen Betrachter zu Information wird.

Hi Henry,

warum willst du die Sache komplizierter machen, als sie ist: Tatsache ist doch
  • es gibt durch Codierung festgehaltene Information
  • ebenso wie durch Decodierung extrahierte Information.

Weizsäcker sagt: Information im naturwissenschaftlichen Sinne ist der Durchschnitt beider (siehe Punkt 5 in Beitrag 1948-1).

Vielleicht wäre übermittelte Information ein treffenderes Wort für diesen Durchschnitt.

Gruß, grtgrt
 

  Beitrag 1948-18
Über Zerfall und Evolution

 
 

Über Zerfall und Evolution


Sei S ein in sich abgeschlossenes, sich selbst überlassenes System, welches von einem Zustand z1 in einen Zustand z2 gerät.

Nehmen wir an, dieser Zustandsübergang sei atomar, seine Ursache also ein Elementarereignis (d.h. das spontane Entstehen eines Paares virtueller Elementarteilchen bzw. Kollision und Neuaufteilung von Elementarteilchen).

Nach Beitrag 1948-15 ist jeder Zustand z von S eine Mischung aus

  • Ordnung einerseits (Synonym: z.O = Form = kybernetischer Informationsgehalt) und
  • Unordnung andererseits (Synonym: z.U = Entropie = nachrichtentechnische Informationsdichte).

Den Fall z1.O = 0 mal ausgenommen, gibt es stets sehr viel mehr Zustände des Systems, die ungeordneter sind als Zustand z1. Da zudem jedes Elementarereignis absolut zufälliges Ergebnis hat, ist die Wahrscheinlichkeit, dass es zu einem weniger geordneten Zustand z2 führt größer als die, dass z2 geordneter als z1 ist.

Mit anderen Worten:

Die Wahrscheinlichkeit, dass der Zustandsübergang Zerfall bewirkt, ist größer als die, dass er evolutionär wirkt (d.h. zu mehr Form bzw Ordnung führt).


Dennoch ist die Wahrscheinlichkeit, dass er Evolution zur Folge hat eben NICHT Null.


 

  Beitrag 1948-21
Warum Evolution nicht ständig schon im Keim erstickt wird

 
 
Henry aus 1948-19:
 
Du musst etwas ganz Entscheidendes berücksichtigen, denn die Beschreibung rein thermodynamisch ist nur die halbe Miete:
Die Gravitation! Sie wirkt dem "allgemeinen Zerfall" entgegen.

Hi Henry,

die rein thermodynamische Sicht ist tatsächlich nur die halbe Miete, das aber keineswegs der Gravitation wegen:

Die Wahrscheinlichkeit, mit der ein Zustand z per Elementarereignis Nachfolgezustand von z1 wird ist nämlich nur in sehr geringem Maße dadurch gegeben, um wieviel mehr oder weniger er geordnet ist als z1. Wesentlich entscheidender ist, wie unterschiedlich z von z1 ist.


Schließlich und endlich kann ein Elementarereignis den Systemzustand ja nur marginal abändern!


Beste Grüße,
grtgrt
 

  Beitrag 1948-20
Warum nicht nur das Ausmaß an Ordnung den Nachfolgezustand bestimmt

 
 
Henry aus 1948-12:
 
Ich bin der Überzeugung, dass Information erst durch einen Betrachter zu Information wird.

Hallo Henry,

wenn jemand aus einem Systemzustand "Information" X entnimmt, die durch nichts und niemand dort reingelegt wurde, dann ist X reine Phantasie, Desinformation also.

Genau deswegen scheint mir dein Modell in die Irre führend (also NICHT sinnvoll).

Beste Grüße,
grtgrt
 

  Beitrag 1948-35
Von Schwarzen Löchern freigegebene Information

 
 
E... aus 1948-31:
Guten Morgen Grtgrt.

Dein Erhaltungssatz bzw. Definition bezieht sich auf abgeschlossene Systeme. Nun ist ein schwarzes Loch mit Sicherheit ein abgeschlossenes System.
Was geschieht Deiner Meinung nach mit den Informationen die in ihm (dem schwarzen Loch) verschwinden? Bleiben sie dergestalt erhalten das man sie wieder ans Tageslicht befördern kann?

Hi E...,

diese Frage solltest du Steven Hawking stellen. Soweit ich weiß
  • war er urprünglich der Meinung, in einem Schwarzen Loch festgehaltene Information wäre daraus nicht mehr zu befreien.
  • Später aber hat er erkannt, dass dem nicht so ist, da Schwarze Löcher sich (sehr) langsam, aber doch sicher selbst auflösen durch Abgabe von etwas, das man heute wohl die "Hawking Strahlung" nennt. Sie "verdampfen" regelrecht. Damit wird auch jene Information wieder frei: in Form vom Schwarzen Loch abgegebener Entropie.

Information in diesem Sinne ist natürlich immer nur abstrakte Information (= Struktur, die Information tragen kann).

Gruß, grtgrt
 

PS: In Wikipedia liest man: "Die Hawking-Strahlung bedeutet eine Verletzung des zweiten Hauptsatzes der Schwarzloch-Dynamik, da die Strahlung die Masse – und damit die Horizontfläche – des Schwarzen Loches verringert. Allerdings wird gleichzeitig eine entsprechende Menge Entropie in Form von Strahlung abgegeben, was einen tieferen Zusammenhang zwischen beiden Größen nahelegt."

 

  Beitrag 1948-39
Entropie und Informationskapazität werden mit derselben Elle gemessen

 
 
Henry aus 1948-37:
Nein, ich sprechen NICHT von Information im nachrichtentechnischen Sinne, sondern von Information bzg. auf die Thermodynamik. Die Entropie beschreibt das abgeschlossene System, das sich stetig durch permanente Umwandlung aller Energien in Wärmeenergie einem Zustand minimaler Information und maximaler Entropie zubewegt.

Hi Henry,

du scheinst noch nicht realisiert zu haben, dass die Begriffe

» Entropie « und » fehlender Informationsgehalt « gleiche Definition haben.


Es ist zudem falsch zu glauben, dass das System durch "ständige Umwandlung aller Energien" einem Zustand mit minimalem Informationsgehalt zustrebt.

Richtig ist: Der Bewegung seiner Teilchen wegen wechselt das System ständig seinen Zustand. Und hierbei ergibt sich, dass der neue Zustand i.A. einer ist, der weniger Informationsgehalt hat als der ursprüngliche. Ursache hierfür ist: Es gibt deutlich mehr Zustände, die anderen gleichen, also Zustände, die recht individuell aussehen (und daher hohen Informationsgehalt haben).

Gruß, grtgrt
 

  Beitrag 1948-46
Voraussetzung für die Anwendbarkeit des 2. Hauptsatzes der Thermodynamik ist ...

 
 
Thomas der Große aus 1948-42:
 
Jedenfalls wäre es toll, wenn Du Deinen Erhaltungssatz an Beispielen erläutern könntest.


Hi Thomas,

ein ganz zentrales Beispiel ist der 2. Hauptsatz der Thermodynamik. Er stellt fest:


Ein großes System von Teilchen, die sämtlich ein und denselben Freiheitsgrad haben,

wechselt schrittweise all seine kybernetisch dargestellte Information (Ordnung also) in nachrichtentechnisch dargestelle um.



Die Vorbedingung, dass sämtliche Teilchen des Systems denselben WDDF haben, ist notwendig, wie folgendes Beispiel zeigt:

Nimm an, du hast einen großen, mit Wasser gefüllten Topf, in den man dann eine gute Portion sehr feinen Quarzsand gibt und gut umrührt. Nachdem der Sand sehr fein ist, wird er sich beim Umrühren fast gleichmäßig im Wasser verteilen, so dass, wenn man das Rumrühren aufhört, ein System "braune Brühe" existiert, welches fast schon maximal mögliche Entropie hat (d.h. fast alle darin enthaltene Information liegt in nachrichtentechnischer Form vor).

Nachdem man den Topf dann aber einige Stunden oder gar Tage in Ruhe hat stehen lassen, werden sich die Sandteilchen — da ihr spezifisches Gewicht größer ist als das von Wasser — fast alle ganz am Boden des Topfes befinden, und das Wasser drüber wird klar und rein sein.

Das, so denkt man zunächst, widerspreche dem 2. Hauptsatz der Thermodynamik. In Wirklichkeit aber ist dem keineswegs so:

Da nämlich jedes Sandteilchen höheres Gewicht als ein Wasseratom hat, zerrt die Gravitationskraft an jedem einzelnen Sandteilchen viel mehr als an jedem einzelnen Wasser­atom. Die Voraussetzung also, dass sämtliche gegeneinander beweglichen Teilchen im Topf identischen WDDF haben müssen, ist NICHT gegeben, und so lässt sich der Satz gar nicht erst anwenden (!).


Gruß, grtgrt
 

  Beitrag 1999-46
Leben — Information — Entropie

 
 

Görnitz über

Leben, Information, Entropie


Zitat von Görnitz, S 173:
 
Information ist zu begreifen als eine Entität, die dadurch definiert ist, letztlich auf sich selbst bezogen zu sein.


Information ist wesentlich Codierung, also Information über Information.

 


  • Die Alltagssprache meint mit Information meist den Informationsgehalt. Streng genommen aber kommt man zu dem erst durch Decodierung.
  • Unter Bedeutung ist etwas zu verstehen, was erst der Empfänger der Information ihrem Informationsgehalt zuordnet.
  • Leben, so Görnitz, zeichnet sich dadurch aus, dass nur Lebendes in der Lage ist, einer Information Bedeutung zuzuordnen:


Zitat von Görnitz, S 173 (leicht komprimiert):
 
Der wichtigste Gesichtspunkt für eine Erklärung von Leben ist aus unserer Sicht


aktive interne Informationsverarbeitung:

Lebewesen sind dadurch ausgezeichnet, dass sie auf Information aus ihrer Umwelt reagieren können [ und in der Lage sind, ihr Bedeutung zuzuordnen ].



... Dies geschieht, indem Lebendes eingehende Information mit schon vorhandener Information verknüpft (vor allem mit solcher, die Abläufe in ihm steuert).

... Dann wird aufgrund der entstehenden Verbindung von neuer und vorhandener Information eine Reaktion erfolgen können.
 


Konsequenz daraus:
 
Leben beginnt, wo abstrakter Information Bedeutung zugeordnet wird,
 
so dass Wissen entsteht (= etwas, das gewusst werden kann).



Grtgrt aus 1948-1:
 
Interessant ist auch, was Görnitz auf Seite 172 sagt:

Zitat von Görnitz:
 
Entropie ist Information, die unbekannt ist, entweder weil eine Kenntnisnahme zu aufwändig oder zu uninteressant wäre (wie beispielsweise das Schicksal eines einzigen Atoms in einem Gas).

Entropie ist — salopp gesagt — Informationsmüll, wie Akten nach dem Schreddern: alle Buchstaben sind noch da, aber man kann nichts damit anfangen. Man muss sie aber los werden, um Platz für Neues zu schaffen.

Problematisch an dieser seiner Aussage aber scheint mir, dass sie nicht unterscheidet zwischen
  • Information, die man  i g n o r i e r t , und
  • Information, die uns prinzipiell  u n z u g ä n g l i c h  ist (wie etwa die in einem Schwarzen Loch oder die in Daten, zu denen die Natur uns noch keinen Decodierungsschlüssel zur Verfügung gestellt hat).


Seitenangaben beziehen sich auf Görnitz' Buch "Die Evolution des Geistigen" (2008)

Früher kaum dargestellte Aspekte der Quantenphysik erläutert Görnitz auch in seinem anderen Buch: "Quanten sind anders" (1999, 2006).


 

  Beitrag 1999-48
Was genau man unter absolutem Zufall verstehen sollte

 
 
Harti aus 1999-20:
Hallo Grtgrt, ...

Grtgrt aus 1999-18:
Kurz: Ich gehe davon aus, dass jene Auswahl tatsächlich absolut zufällig  i s t  (und uns nicht nur als absolut zufällig  e r s c h e i n t ).

Die Annahme "absoluten Zufalls" im Naturgeschehen, also die Feststellung, dass eine Wirkung absolut keine Ursache hat, ist unwissenschaftlich, also reine Glaubenssache. Diese Ansicht ( "Theorie") kann nämlich nicht widerlegt werden. Diese Folgerung wurde meines Wissens auch nicht von den Vertretern der Kopenhagener Deutung gezogen; was man allerdings nicht sicher sagen kann, weil die "Kopenhagener Deutung" unterschiedlich vertreten wird.

Hallo Harti,

im Grunde genommen sehe ich das auch so.

Andererseits aber scheint mir die Kopenhagener Deutung — insbesondere in der Vertiefung, die auch Anton Zeilinger vertritt — in sich konsistenter als anderes. Ich bin insbesondere ein Anhänger der Ansicht (oder Definition):

Alles was existiert, existiert nur in dem Ausmaß, in dem Information darüber existiert.


Wendet man das auf den Begriff » Zufall « an, so muss man sagen:


Man sollte genau dort von  a b s o l u t e m  Zufall sprechen,

wo etwas geschieht, über dessen Ursache die Natur uns keinerlei Information zur Verfügung stellt.


Beste Grüße,
grtgrt
 

  Beitrag 2050-1
Mögliche Qualitäten eines quantenmechanischen Zustandes

 
 


Es gibt Überlagerungszustände verschiedener Qualität



Normalerweise wir der Begriff » Überlagerungszustand « anhand von Schrödingers Katze erklärt. Dieses Gleichnis allerdings sagt uns nur die halbe Wahrheit. In Wirklichkeit gilt:

Wird über den Zustand eines physikalischen Objekts gesprochen, so kann es vorkommen, dass man den fehlender Information wegen nicht genau kennt. Dieses Fehlen aber kann von zweierlei Qualität sein:
 
  • Fall 1: Es kann sein, dass entsprechende Information nicht existiert.
    In diesem Fall nennt man den Zustand des Objekts einen (absoluten) Überlagerungszustand. Er besteht, wie jeder Überlagerungszustand, aus der Menge aller Werte, die prinzipiell Wert des Zustandes sein könnten.

  • Fall 2: Es kann aber auch sein, dass jene Information zwar existiert, wir sie aber noch nicht gefunden haben.
    In diesem Fall ist der Zustand
    —  Aus Sicht aller, die ihn kennen, konkret (mit einem einzigen wohldefinierten Wert)
    —  Aus Sicht aller anderen aber ein noch unbestimmter (bestehend aus der Menge aller denkbaren Werte).


In Fall 1 spreche ich von einem absoluten Überlagerungszustand, in Fall 2.2 aber von einem scheinbaren.


Dass beide Fälle vorkommen — und die Natur sogar auf beide verschieden reagiert — zeigen verschiedene Varianten des Doppelspalt-Experiments:
Interferenz entsteht genau dann, wenn die Versuchsanordnung es prinzipiell unmöglich macht, zu erkennen, durch welchen Spalt jedes einzelne Photon gekommen ist. Damit liegt, den Weg der Photonen betreffend, absolute Unbestimmtheit vor: Pfadinformation wird nicht erzeugt.

Dass auch scheinbare Überlagerungszustände vorkommen – und somit beobachterspezifische Unbestimmtheit –, sehen wir an einer kleinen Verallgemeinerung der Geschichte von Schrödingers Katze:
    Wir nehmen an, die Box, in der sich die Katze befindet, wird von zwei Personen beobachtet, die sich gegenüber sitzen, die Box zwischen ihnen, so dass jede der beiden Personen genau eine Wand der Box sieht: Person A eine aus Glas, Person B eine aus Blech. Auf diese Weise wird der Zustand der Katze
    —   aus Sicht von A ein  k o n k r e t e r  Zustand sein,
    —   aus Sicht von B aber ein nur  s c h e i n b a r e r   Überlagerungszustand.
    Sobald aber A dem B berichtet, was A sieht, wird der Zustand auch für B konkret.


Damit wird nun auch klar, warum es Dinge gibt, die für einen Beobachter existent, für den anderen aber nicht existent sind:


Jedes Ding erscheint uns in genau dem Ausmaß als existent, in dem wir Information darüber haben.


Nur für die Natur selbst gilt strenger:

Jedes Ding existiert in genau dem Ausmaß, in dem es Information darüber gibt.



Gebhard Greiter (grtgrt)

 

  Beitrag 2050-3
Was ist der Kenntnisstand der Natur (bzw. der einer Person)?

 
 
Horst aus 2050-2:
 
Erkläre doch mal, woran du erkennen kannst, was ein existierendes "Ding" ist.
Zum Beispiel existiert ja angeblich "die Zeit" – welche nachprüfbaren Informationen kannst du denn darüber erhalten?

Nun, Horst,

es ist ja geradezu das Ziel meiner beiden Definitionen, den Begriff des Existierens zu relativieren (sogar sehr stark zu relativieren).


Betrachten wir das mal anhand des folgenden Beispiels:

Nehmen wir an, jemand sagt uns, es gäbe ein in China am 1.1.2013 geborenes Mädchen, dessen Eltern es WXY rufen.
    Als Konzept » in China am 1.1.2013 geborenes Mädchen, dessen Eltern es WXY rufen « existiert es. Existiert es aber auch als ein Mensch aus Fleisch und Blut? Da wir das nicht wissen können, liegt — aus unserer Sicht — scheinbare Unbestimmtheit vor.
    Nachdem aber nichts passiert, was Naturgesetze nicht gestatten, wird die Natur stets jene Instanz sein, der am meisten Information zugänglich ist. Mehr noch: Ihr ist stets wirklich ALLE Information zugänglich.
    Es könnte also gut sein, das jenes Mädchen tatsächlich als ein Mensch aus Fleisch und Blut existiert. Seine Eltern zumindestens wüssten das, und so würde jenes Mädchen aus ihrer Sicht (und auch aus Sicht der Natur) weit konkreter existieren als aus unserer.


Horst aus 2050-2:
 
Und in welchem Ausmaß existiert denn ein "Ding" dann, wenn es UNS(!) als Informationsempfänger (Beobachter) nicht gäbe?

Auch diese Frage wird durch mein Beispiel recht gut beantwortet:
    Aus Sicht seiner Eltern und auch objektiv (d.h. aus Sicht der Natur) existiert jenes Mädchen tatsächlich als lebender Mensch.
    Zudem ist seine Existenz völlig unabhänging von unserer (dann jedenfalls, wenn wir nicht zufällig Vater oder Mutter dieses Mädchens sein sollten).


Horst aus 2050-2:
 
Zitat:
Nur für die Natur selbst gilt strenger:
Jedes Ding existiert in genau dem Ausmaß, in dem es Information darüber gibt.
 
Du machst also einen Unterschied zwischen "UNS" und der Natur?
Gehören wir nicht auch zur Natur?
 
Und wie stellt die Natur fest, welche Informationen es über existierende "Dinge" gibt?


Der Unterschied zwischen uns und der Natur ist relevant, da der Kenntnisstand der Natur stets ein sehr viel umfassenderer ist als der eines einzigen Menschen oder einer Gruppe von Menschen.

Da nichts passieren kann, das die Naturgesetze nicht zulassen, sind sie — und damit die Natur — an allem Entstehen von Information ja explizit beteiligt. Und so gilt:


Zutreffende Information (und nur solche meine ich), existiert genau dann,

wenn mindestens die Natur sie kennt als  k o r r e k t e  Antwort auf eine Frage, die prinzipiell entscheidbar ist.



Praktischer ausgedrückt könnte man sagen:

Ist X eine Instanz, so dass der Begriff » die Gesamtheit   I n f o ( X )  aller von X schon zur Kenntnis genommenen Information « einen Sinn macht, so macht insbesondere Info(Natur) Sinn und ist die Vereinigung aller Mengen Info(X), wo X ein Lebewesen, eine Gruppe von Lebewesen, eine Organisation, oder die Natur selbst bezeichnet.


Wenn Du mich jetzt frägst, wie die Natur Information zur Kenntnis nimmt, dann kann ich Dir nur sagen:

Nach meiner  D e f i n i t i o n  kennt die Natur ALLE korrekten Antworten auf Fragen, die prinzipiell beantwortbar sind (Mathematiker sagen: die entscheidbar sind).
Ob eine Frage entscheidbar ist oder nicht, kann natürlich zeitabhängig sein.

Mit anderen Worten: Zu sagen, Information Z ( genauer: zutreffende Information Z ) existiere, bedeutet


Z  ist  k o r r e k t e  Antwort auf eine Frage, die entscheidbar ist.


Unbestimmtheit im Sinne der Quantenphysik liegt genau dort vor, wo es Fragen gibt, die (im Moment wenigstens)  u n e n t s c h e i d b a r   sind.


Gruß, grtgrt

PS: Du könntest mich jetzt natürlich noch fragen, was ich unter einen "Ding" verstehe. Meine Antwort: Ich verstehe darunter alles, was Gegenstand einer Frage sein kann.

 

  Beitrag 2050-9
Was ist Realität?

 
 
Horst aus 2050-7:
 
Deinen Schlußsatz

Zitat von grtgrt:
 
Jedes Ding erscheint uns in genau dem Ausmaß existent, indem wir Information darüber haben.

Du könntest mich jetzt natürlich noch fragen, was ich unter einen "Ding" verstehe. Meine Antwort: Ich verstehe darunter alles, was Gegenstand einer Frage sein kann.

interpretiere ich mal dahingehend, dass z. B. auch die "Seele" oder "Ehre" oder "Würde" und insbesondere "Zeit" Gegenstand einer Frage sein können und damit für dich existente (reale?) "Dinge" sind, weil wir nachprüfbare Informationen darüber haben.

Welche Informationen hast du nun z. B. von dem "Ding" Seele und insbesondere vom realen "Ding" Zeit?


Hallo Horst,

einmal mehr stellst Du mir ausgesprochen spannende Fragen.

Ja, auch "Seele", "Ehre", "Würde" und insbesondere "Zeit" sind "Dinge", die für mich existieren, da ich Information darüber habe. Dass jene Information aber nachprüfbar ist, habe ich nirgendwo gefordert. Sie darf nur keine Falschinformation sein. Tatsache ist halt: Nicht alles, was richtig ist, ist auch als richtig nachweisbar.

Existenz beginnt dort, wo ein "Ding" definiert wird. Sobald es definiert ist, ergeben sich logische Konsequenzen daraus. Wir werden stets nur einige davon kennen, wirklich alle aber finden sich in Info( Natur ).


Wann aber wird ein Ding "real"? Da würde ich sagen:

Real zu sein ist eine Eigenschaft, die einem Ding mehr oder weniger zukommen kann und aus der Sicht unterschiedlicher Personen vielleicht sogar in unterschiedlichem Ausmaß (ganz so wie etwa Schönheit). Es könnte Sinn machen zu definieren:


Ein Ding ist umso realer, je größer die Zahl der Mengen Info( P ) ist, die Information darüber enthalten.


Kurz: Je mehr ein Ding Gegenstand des Denkens aller Wesen ist, die denken können, desto realer ist es.



Wie aber lässt sich nun feststellen, welche Information ich z.B. über Dinge wie "Seele" oder "Zeit" habe?

Dazu müssen wir uns zunächst klar machen, dass  k o r r e k t e  Information zweierlei sein kann:
  • Definierende Information einerseits
  • und logische Schlußfolgerung daraus andererseits.

Selbst wenn zwei Personen ein Ding "Seele" kennen, bedeutet das noch lange nicht, dass sie es gleich definiert sehen.

Bei einem Ding "Seele" mag das selbstverständlich — und durchaus zulässig — sein. Wie aber steht es z.B. mit dem Ding "Zeit"?

Wer von der Zeit spricht, geht davon aus, dass er nicht frei ist, diesen Begriff selbst zu definieren. Wir wissen: Unter der Zeit verstehen wir etwas, das wir erforschen müssen, denn definiert hat dieses "Ding" ja die Natur selbst bzw. ihr Schöpfer, wenn es den geben sollte.

Damit aber stehen wir vor der Frage,
  • wie sich korrekte Information von Falschinformation unterscheiden lässt
  • und wie es uns gelingt, korrekte Information zu sammeln (sprich: von der Natur zu erfragen).

Information zu sammeln bedeutet immer, etwas zu finden, von dem man erst zu beweisen hat, dass es keine Falschinformation ist.
Wo diese Unterscheidung noch aussteht, muss das, was da gefunden wurde, als Theorie bezeichnet werden.

Und so kann ich dir nur sagen: Alles was ich über "Seele" und "Zeit" zu sagen hätte, wäre nichts als Theorie in diesem Sinne.


Mit besten Grüßen,
grtgrt
 

  Beitrag 2050-15
Was ist Zeit?

 
 
Haronimo in 2050-14:
Hallo grtgrt ,

Wenn die Existenz beginnt, beginnt die Zeit der Existenz , oder ist Existenz=Zeit?

Hallo Haronimo,

meiner Auffassung nach kommt es zur Existenz von Zeit alleine dadurch, dass da etwas existiert  u n d  sich fortentwickelt (wohin auch immer).

Meine Begründung: Zeit ist eine zweistellige Relation, die jedem passierenden Wirkungsquantum Ursachen zuordnet.
Solange absolut nichts existiert, kann es daher auch keine Zeit geben.

Gruß, grtgrt
 

  Beitrag 2050-10
Eine Idee fortzudenken — das vor allem ist wichtig!

 
 
Okotombrok aus 2050-4:
 
Mein Tipp: versuche den Informationsbegriff in der Quantenmechanik wie ihn Zeilinger versteht (den hast du doch gelesen) und von Weizsäcker entwickelt und formuliert hat ("Einheit der Natur"; "Aufbau der Physik") in deren Sinne einmal zu verstehen, anstatt im Sinne deines Mathegehirns.


Ich schätze die Ideen von Bohr, Heisenberg, Weizsäcker und Zeilinger sehr — bin mir aber bewusst, dass sie dazu da sind, weitergedacht zu werden.