Über sieben verschiedene Informationsbegriffe
Zwischenergebnisse auf dem Weg hin zu einer Antwort auf die Frage: Was ist Information im Sinne der Natur?
Information wird heute — neben
Materie und
Energie — vielfach als eine dritte Grundgröße angesehen (Brockhaus, S. 657). Information, als Begriff, scheint nicht auf andere Größen zurückführbar zu sein. Dennoch ist der Informationsbegriff fundamentaler Baustein aller Kommunikationsprozesse.
1. Der semantische (zwischen-menschliche) Informationsbegriff
Hier versteht man unter Information korrektes Wissen, welches man sucht, findet oder mitgeteilt bekommt.
Zwischen dem semantischen und dem nachrichtentechnischen Informationsgehalt einer Nachricht besteht KEINE wie auch immer geartete Beziehung:
2. Der nachrichtentechnische Informationsbegriff
Der
Informationsgehalt einer Nachricht ist die Zahl binärer Entscheidungen, die man benötigt, eben diese Nachricht von einer ebenso komplexen anderen zu unterscheiden.
Da jede Nachricht eine Folge von Zeichen ist, kann auch jedes Zeichen als so eine Nachricht aufgefasst werden. Da nicht alle Zeichen mit gleicher Wahrscheinlichkeit auftreten, liegt es nahe, ihren Informationsgehalt mit der Wahrscheinlichkeit ihres Auftretens zu gewichten. Werden diese Produkte aufsummiert, so erhält man eine Zahl, die man nach Shannon als
mittleren Informationsgehalt,
Informationsdichte oder auch als
Entropie der Nachricht bezeichnet.
3. Der sprachwissenschaftliche Informationsbegriff
Er verfeinert den semantischen Informationsbegriff dahingehend, dass neben Syntax und Semantik einer Nachricht auch noch deren
Pragmatik Gegenstand der Betrachtung sein kann: Es kann vorkommen, dass unterschiedliche Empfänger ein und derselben Nachricht ihr unterschiedliche Information entnehmen (Pragmatik = empfängerspezifische Sicht auf semntische Inhalte).
4. Der kybernetische Informationsbegriff
Zunehmende Ordnung bedeutet zunehmende Information: Information ist das, was den Unterschied ausmacht.
Wo kybernetischer Informationsgehalt zunimmt, reduzieren sich Entropie und nachrichtentechnischer Informationsgehalt (und umgekehrt).
Die Kybernetik (das Wort bedeutet eigentlich "Steuermannskunst") abstrahiert reale Systeme hinsichtlich gewisser Eigenschaften und Verhaltensweisen zu Modellen — die man dann kybernetische Systeme nennt — und untersucht deren Struktur und Verhalten.
5. Der naturwissenschaftliche Informationsbegriff
Er wurde wesentlich geprägt durch Carl-Friedrich von Weizsäcker (Physiker und Philosoph) und kennzeichnet sich so:
Ein Telegramm enthält Information. Ist die nun als etwas Materielles oder Bewußtseinsinhalt? Antwort: weder noch:
- Die Druckerschwärze auf einem per Fax versandten Papier ist verschieden von der Druckerschwärze des beim Empfänger ankommenden Exemplars: "Information ist gerade das, was beiden Zetteln gemeinsam ist" (Weizsäcker 1974).
- Ähnliches gilt für den (pragmatischen) Inhalt jeder Nachricht: Das, was der Absender gedacht hat, kann verschieden sein von dem, was der Empfänger denkt. Dennoch ist beiden etwas gemeinsam. Eben das ist Information.
Und daraus folgert Weizsäcker:
"Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahrhunderts etwas von ihnen ahnen lernt." (Weizsäcker 1974)
6. Der biologische Informationsbegriff
Weizsäcker findet den Gebrauch des Informationsbegriffs in Zusammenhang z.B. mit dem Chromosomensatz "völlig legitim" (Weizsäcker 1974), obwohl hier niemand spricht oder einem anderen Menschen etwas mitteilt. Spannende Frage also:
Wie lässt sich Information jenseits der menschlichen Sprache verstehen?
Und wie lässt sich verstehen, dass die Natur ganz offensichtlich Information erzeugt, wo doch gilt:
» Information ist nicht etwas, was auf der Straße herumliegt so wie Kieselsteine, sondern
Information wird erzeugt; und sie wird erzeugt nur von denjenigen, welche imstande sind, in Begriffen zu denken. «
(Weizsäcker 1973)
7. Der physikalische Informationsbegriff
Wäre so einer schon erarbeitet, müsste er wohl mindestens den
biologischen und den
kybernetischen verallgemeinern (und gemeinsame
Wurzel beider sein).
Nicht vergessen sollte man: Auch auf der Ebene physikalischer Systeme treten Phänomene der selbstorganisierten Strukturbildung auf, die weit mehr auf Freiheitsgrade zurückzuführen sind als auf ein Ursache-Wirkungs-Verhältnis.
Somit scheint Information die Grundlage aller Selbstorganisation zu sein.
Siehe auch:
Capurro, wo u.A. berichtet wird, wie Weizsäcker den Begriff "Evolution" einordnet:
Die moderne Naturwissenschaft basiert nicht nur auf dem Begriff der Erfahrung, sondern auch auf dem der Evolution.
Was bedeutet Evolution?
Antwort: Evolution ist "Vermehrung der Menge an Form", oder anders formuliert: ein "Anwachsen der Information" (Weizsäcker 1973).
Und: "Information ist nur, was Information erzeugt." (Weizsäcker 1974).
Auch der großen Frage, wie
Bewusstsein entsteht, ist Weizsäcker (allerdings ohne Ergebnis) nachgegangen:
» Das Bewußtsein taucht in der Evolution aus dem Meer des Unbewußtseins auf.
Ist also doch Form das Zugrundeliegende und Bewußtsein eine ihrer Ausprägungen? «
» Aber wie kann Form Bewußtsein erzeugen? Ist sie selbst geistig? Was könnte man damit meinen? «
(Weizsäcker 1992)
Gebhard Greiter (grtgrt)
Nachtrag (am 15.2.2013):
In seinem Buch "Die Evolution des Geistigen" weist Thomas Görnitz darauf hin, dass jedes physikalische Objekt — als Träger von Information —
- nicht zugängliche Information (Entropie)
trägt bzw. tragen kann. Wichtiger Teil seiner zugänglichen Information ist die Information darüber, an welcher Stelle im Universum es sich befindet.
Allgemeiner:
Genau der Teil seines Zustandes, den die Natur uns (im Prinzip wenigstens) zugänglich macht, ist Träger seiner zugänglichen Information.
Wie Görnitz auf den Seiten 156-158 seines Buches zeigt, kann berechnet werden, wie groß die Entropie eines Objekts ist:
Zitat von Görnitz:
Wenn man sich ein Schwarzes Loch mit dem Materiegehalt unseres Universums denkt, so hätten beide gleiche Dichte und Ausdehnung.
Ließe man nun noch ein Teilchen in das Schwarze Loch fallen, so würde des Teilchens zuvor zugängliche Information unzugänglich und damit zu berechenbarer Entropie.
Mit diesem Gedankenexperiment konnte ich zeigen, dass dann beispielsweise einem Planck-Black-Hole, dessen Entropie in unserem Kosmos 1 Bit ist,
insgesamt etwa 1062 QuBits entsprechen (deren Menge zuvor als Menge unverborgener Information mit der Entropieformel nicht berechenbar war).
Für ein Proton [als Informationsträger] ergibt sich so, aus den heutigen astronomischen Beobachtungsdaten, ein Wert von 1041 QuBits.
Das liegt sehr nahe am früher von C.F. v. Weizsäcker vorgeschlagenen Wert von 1042 QuBits.
Interessant ist auch, was er auf Seite 172 sagt:
Zitat von Görnitz:
Entropie ist Information, die unbekannt ist, entweder weil eine Kenntnisnahme zu aufwändig oder zu uninteressant wäre (wie beispielsweise das Schicksal eines einzigen Atoms in einem Gas).
Entropie ist — salopp gesagt — Informationsmüll, wie Akten nach dem Schreddern: alle Buchstaben sind noch da, aber man kann nichts damit anfangen. Man muss sie aber los werden, um Platz für Neues zu schaffen.
Problematisch an dieser seiner Aussage aber ist, dass sie nicht unterscheidet zwischen
- Information, die man i g n o r i e r t , und
- Information, die uns prinzipiell u n z u g ä n g l i c h ist (wie etwa die in einem Schwarzen Loch oder die in Daten, zu denen die Natur uns noch keinen Decodierungsschlüssel zur Verfügung gestellt hat).