|
Ulrich Warnke (2011):
Bewusstsein ist die treibende Kraft und die Fähigkeit eines Wesens,
Information als solche zu erkennen und zielgerichtet — intelligent also — zu verarbeiten.
Bewusstsein ist demnach ein P r o z e s s . Aber hätte nach dieser Definition nicht jeder Computer ein Bewusstsein? Nein, keineswegs, denn:
Allein nur das Bewusstein zu betrachten, bedeutet, die Rolle des Unterbewusstseins nicht ausreichend zu würdigen.
Das Unterbewusstsein des Menschen befähigt ihn,
Information auch über Gefühle zu empfangen und intelligent zu verarbeiten:
Deutlich über 95% aller in einem Menschen stattfindender Intformationsverarbeitung wird vom Unterbewusstsein erbracht. Es nimmt etwa 109 Informationseinheiten pro Sekunde auf. Kaum 1% davon gelangt über die Bewusstheitsschwelle.
Wichtiger noch: Unsere über das Bewusstsein gesteuerte Vernunft hat keine Kontrolle über die automatisch ablaufenden Gefühlsaktivitäten des Unterbewusstseins, und das ist gut so, denn die Automatik des Unterbewusstseins reagiert hochintelligent und um Größenordnungen schneller als unser bewusst arbeitender Verstand. Dies dient unserem Schutz, und zudem bekommen wir so die Möglichkeit, uns in unserem bewussten Denken auf das jeweils Wesentliche zu konzentrieren, so dass wir nicht gehemmt werden durch einen Zwang, alle uns ständig überflutende Information komplett verarbeiten zu müssen: Wir können in eigener Entscheidung Prioritäten setzen.
KI oder ein Computer aber haben kein Unterbewusstsein. Und das ist der wichtigste Grund dafür, dass sie keine Gefühle kennen, also auch nur emotionslos arbeiten können.
Und so gilt: Kein geistig gesunder Mensch wird jemals durch KI voll ersetzbar sein.
Brigitte und Thomas Görnitz (2002):
Ein Mensch ist bewusst, wenn er sich dessen bewusst werden kann.
Man erkennt hieraus: Wesen mit Bewusstsein müssen in der Lage sein, sich selbst zu reflektieren. Wie im folgenden gezeigt wird, ist das nur möglich, wenn die konkrete Information, welche ihr Wissen über sich selbst darstellt, durch einen quantenphysikalischen Zustand ihres Gedächtnisses gegeben ist:
Das Wesen des Bewusstseins wird erkennbar an seiner höchsten Stufe, dem reflektierenden Bewusstsein: Es muss in der Lage sein, sich bis hin zum Selbstbewusstsein entwickeln zu können.
Selbst der Mensch erwirbt die Fähigkeit zum Ich-Bewusstsein erst n a c h seiner Geburt.
Reflektiertes Bewusstsein ist Information, die sich selbst kennt. Bewusstsein an sich muss also das Potential haben, sich selbst zu kennen.
Sich selbst reflektierendes Bewusstsein muss die Möglichkeit haben, konkrete Information über sich selbst auf eine echte Teilmenge dieser Information quasi "isomorph" abzubilden. Dies kann — schon aus mathematischen Gründen heraus — nur dann gelingen, wenn der Zustandsraum des dem Bewusstsein zur Vergüngung stehenden Gedächtnisses unendlich große Kardinalität hat, d.h. wenn er ein quantentheoretischer Zustandsraum ist.
Denn: Klassische Strukturen sind eindeutig, können also nur endlichen Zustandsraum haben.
Beweis: Sollte ein Zustandsraum isomporph auf eine Teilmenge seiner selbst abbildbar sein, wäre er nicht eindeutig.
Görnitz (2002, sinngemäß):
Wenn es sich bei den von manchen erhofften Systemen des » künstlichen « Lebens um biologische Einheiten handelte — was bis heute nicht der Fall ist —,
so wären sie wohl tatsächlich Lebewesen, von denen nicht auszuschließen wäre, dass sich ihre Art ohne Zutuin des Menschen fortentwickelt.
Bei Objekten aber, die auf Basis heutiger Mikroprozessoren gebaut werden, oder nur Software sind, kann stets nur von s i m u l i e r t e r Intelligenz gesprochen werden.
Auch bewusstsein-ähnliches Verhalten können sie nur simulieren — dies allerdings, wie sich heute schon zeigt, in ganz erstaunlicher Perfektion.
Dennoch darf das nicht als Hinweis darauf gesehen werden, dass bei ihnen echtes Bewusstsein auch nur ansatzweise gegeben ist:
In einem mathematisch strengen Sinn haben sie nur streng deterministisches Verhalten, ganz ähnlich einem Fotoapparat, der Bilder zwar getreu wiedergibt, dem aber auch nicht im Entferntesten klar ist, was sie inhaltlich zeigen.
Pseudozufallszahlen zu verwenden oder auf tatsächlich absolut zufällig eintreffen Signale von außen zu reagieren, ändert nichts daran.
Tatsache aber ist:
Die Perfektion, mit der sich Leben, Bewusstsein und Intelligenz simulieren (vortäuschen) lässt, kann stets nur in dem Ausmaß zunehmen, in dem es dem Menschen gelingt, das Verhalten echter Lebewesen zu analysieren und durch Regelwerke zu beschreiben.
Das simulierte Verhalten kann niemals besser sein — wird aber kaum weniger gut sein — als die Regeln, welche Menschen durch solche Analyse gefunden haben.
Penrose (auf S. 105 seines Buches Computerdenken) nennt Konsequenzen davon:
Aber warum sollte uns diese spezielle Aussage Pk(k) beunruhigen?
Wie wir im Laufe obiger Beweisführung festgestellt haben, konnten wir einsehen, dass Pk(k) wahr ist. Formalisten — Leute, die nur formales Denken gelten lassen wollen — sollte das beunruhigen, denn gerade durch unsere Schlußfolgerung haben wir bewiesen, dass der formalistische Begriff von » Wahrheit « notwendigerweise unvollständig ist.
Sollte man also überhaupt nicht von Wahrheit reden, sondern nur von Beweisbarkeit innerhalb eines bestimmten formalen Systems [einer KI]?
Von diesem Standpunkt aus aber könnte man Gödels Argumentation in ihrer oben gegebenen Gestalt nicht entwickeln, denn wesentliche Teile dieser Beweisführung beruhen auf Schlussfolgerungen darüber, was tatsächlich wahr bzw. nicht wahr ist.
David Deutsch
Understanding is one of the higher functions of the human mind and brain, and a unique one.
Many other physical systems, such as animals' brains, computers, and other machines, can assimilate facts and act upon them.
But at present we know of nothing that is capable of understanding an explanation — or of wanting one in the first place — other than a human mind. Every discovery of a new explanation, and every act of grasping an existing explanation, depends on the uniquely human faculty of creative thought.
Uwe aus 2120-77
Wenn ich mir einen Vogel anschaue, dann hat der doch schon relativ intelligente Züge in seiner Lebensweise. Irgend ein Programm muss ihm ja mitteilen, dass er für die Aufzucht seiner Brut ein Nest braucht, also muss er rechtzeitig passendes Baumaterial dafür suchen und es geschickt an einem passenden Ort verbauen. Können wir ausschließen, dass das vollkommen frei von Intelligenz passiert? Oder Krähen, die Nüsse auf die Fahrbahn werfen, damit sie von den darüberfahrenden Autos geknackt werden...
Ich glaube schon, dass auch Tiere eine Intelligenz besitzen, denn sie verständigen sich untereinander und wie ich von meinem Hund weiß, können sie sogar träumen. Bei meinem Schäferhund kommt es hin und wieder vor, dass er im Schlaf heult oder zuckt. Das bedeutet doch, dass er auch Situationen des Alltags speichert und verarbeitet.
Selbst bei Pflanzen kann man Verhaltensweisen beobachten, die auf ein gewisses Maß an Intelligenz oder gar Bewusstsein hindeuten. Der Schutz vor Fressfeinden zum Beispiel oder die Kommunikation zwischen einzelnen Pflanzen.
Wenn ich darüber nachdenke, dann braucht eine KI wirklich nur eine Initialzündung in Form eines genialen Algorithmuses und ich könnte mir durchaus vorstellen, dass es ähnlich (keinesfalls analog!) der Evolution des Menschen auch bei Computern zu spontanen Systemfehlern kommen könnte, die entweder zum Absturz führen, oder aber auch zur Verbesserung...
Du bist mit deinem Sohn unterwegs. Er stürzt einen Abhang hinab (nur einige Meter, aber außerhalb deiner Reichweite). Du hast kein Seil, ihn zu erreichen. Was machst Du, welche Hilfsmittel stehen Dir zu Verfügung, ihm zu helfen? Du hast nur dein Fahrrad und Werkzeug. Du könnstest z.B. die Schläuche deiner Fahrradreifen aneinanderknoten, und vielleicht auch noch das Ganze mit der Fahrradkette verlängern. Könnte diese Lösung auch einer KI einfallen? |
Michio Kaku (Die Physik des Unmöglichen, S. 161):
Menschen mit einer ganz bestimmten Hirnverletzung haben die Fähigkeit verloren, Gefühle zu erleben, obgleich sie weiter logisch denken können:
Der Neurologe Antonio Damasio (vom College of Medicine an der University of Iowa) hat Patienten mit dieser Art von Hirnverletzung untersucht und kam dabei zum Schluss, dass sie "zu wissen, aber nicht zu fühlen" scheinen.
Er fand, dass solche Personen schon bei den kleinsten zu treffenden Entscheidungen wie gelähmt erscheinen: Da ihnen Emotionen fehlen, diskutieren sie endlos über Optionen, können sich aber lange nicht für die eine oder andere entscheiden. Sie verfallen in lähmende Unentschlossenheit. Einer der Patienten von Damasio z.B. benötigte eine halbe Stunde allein dafür, sich für den nächsten Termin bei Dr. Damasio zu entscheiden.
Wissenschaftler glauben, dass Gefühle im limbischen System verarbeitet werden, das tief im Zentrum unseres Gehirns verborgen liegt. Es bewirkt, dass wir manchmal so eine bestimmte "Ahnung" haben, die nicht begründbar ist, dann aber eben doch zu unserer Entscheidung führt.
Wenn wir z.B. einkaufen gehen fällen wir unbewusst Tausende von Werturteilen über nahezu alles, was wir sehen: Wir finden dies hier zu teuer, jenes zu billig und noch anderes zu bunt, zu dämlich oder genau richtig.
Für Menschen mit der oben erwähnten Hirnverletzung kann das Einkaufen deswegen zum Albtraum werden, da alles den gleichen Wert zu haben scheint.
Wenn Roboter immer intelligenter werden und irgendwann eine von ihrem Programmierer nicht vorgedachte Wahl zu treffen hätten, könnte sich bei ihnen eine ganz ähnlich Entscheidungsunfähigkeit einstellen.
Die Situation erinnert an die Parabel vom Esel, der zwischen zwei Haufen Heu sitzt und verhungert, da er sich nicht entscheiden kann, von welchem Haufen er fressen möchte.
Dies veranlasste Rosalind Picard (vom MIT Media Lab) festzustellen:
Sie [ Roboter und KI-Systeme ] haben kein G e f ü h l für die wichtigen Dinge. Das ist einer ihrer größten Mängel, Computer k a p i e r e n es einfach nicht.
Marvin Minsky vom MIT, Mitbegründer der KI, bringt es auf den Punkt:
Die Geschichte der KI ist schon komisch: Ihre ersten Leistungen waren wunderbare Dinge. KI der ersten Stunde konnte logische Beweise führen oder z.B. auch selbständig Lösungen für Differentialgleichungen finden.
Aber dann haben wir versucht, Maschinen zu konstruieren, die Antworten auf Fragen geben sollten, bei denen es einfach um Geschichten aus einem Lesebuch der ersten Klasse ging. Bis heute aber gibt es keine Maschine, die das kann.
Michio Kaku (S. 158):
Manche Forscher glauben, man müsse Software beibringen, zu lernen, wie ein Kind lernt:
Beobachten, dabei Information sammeln, sie als Erfahrung abspeichern, Eltern, Lehrer und Bücher um Rat fragen, aber nicht zuletzt auch immer wieder eigene Ideen auszuprobieren.
Auch ein Koch etwa richtet sich nach Rezepten, versucht aber auch immer wieder, davon abzuweichen, um so etwas Auszuprobieren, an das vor ihm noch nie jemand gedacht hat.