next up previous contents index
Next: Zusammenfassung und Schlußfolgerungen Up: Die Grenzen der künstlichen Previous: Intelligenz nicht-algorithmischer künstlicher Systeme

     
Kann ein Bewußtsein jeden Algorithmus transzendieren ?

Die wohl populärste Arbeit aus der jüngeren Vergangenheit zu den Grenzen der künstlichen Intelligenz ist die des Mathematikers R. Penrose Penrose[Pen89]. Er führt eine Reihe von Argumenten gegen die Möglichkeiten einer künstlichen Intelligenz an. Er bezieht sich dabei allerdings primär auf die Bewußtseinsfrage, d.h. damit auf die starke KI-These, d.h. gegen die Annahme, daß Maschinen - bei entsprechendem Aufbau - Bewußtsein zukommen könnte. Nach einer `Rundreise' durch Mathematik, Logik und Physik führt Penrose in dem letzten Kapitel seines Buches eine Reihe von Argumenten dafür an, daß

Die Schlagkraft seiner Argumente erscheint allerdings eher etwas enttäuschend. Hinzu kommt, daß er in einer Passage über den Begriff von Intelligenz die Möglichkeit einzuräumen scheint, daß ein Algorithmus tatsächlich Intelligenz simulieren könnte. Es heißt dort:
..., if it turns out that AI people are eventually able to simulate intelligence ... In that case the issue of `intelligence' would not be my real concern here. I am primarily concerned with `consciousness'.
Einige seiner Argumente sind im folgenden aufgeführt:

Dasjenige Argument, das noch die größte Überzeugungskraft zu haben scheint, - auch nach seinen eigenen Worten10.27 - ist das folgende, das bereits in der philosophischen Literatur einige Diskussion hervorrief:


Lucas Lucas[Luc61] führt die Gödelschen Unvollständigkeitsbeweise von formalen Systemen an, die zumindest die elementare Arithmetik enthalten: Gödel zeigte, daß sich zu jedem formalem System eine wahre arithmetische Aussage konstruieren läßt, die jedoch nicht durch das formale System bewiesen werden kann - und damit auch nicht als `wahr' von diesem System erkannt werden kann. Das Argument von Lucas ist nun, daß wir Menschen aufgrund unserer Einsichtsfähigkeit hingegen sehr wohl die Wahrheit einer derart konstruierten arithmetischen Aussage erkennen können. Damit wäre nach Lucas gezeigt, daß das menschliche Denken nicht-algorithmisch ist.10.28

Gegenargumente die in der Folge entwickelt wurden, berufen sich beispielsweise darauf, daß faktisch der dem Denken eines Mathematikers zugrunde liegende Algorithmus unbekannt ist und insofern die entsprechende wahre arithmetische Aussage nicht konstruiert und damit auch nicht von dem Mathematiker als wahre Aussage erkannt werden kann.10.29

Penrose nun geht von der Annahme aus, daß das menschliche Denken algorithmisch ist und folgert daraus aufgrund der Tatsache, daß mathematische Begriffe, Beweise und Einsichten kommunizierbar sind, daß es einen allen Mathematikern zugänglichen Algorithmus für die Beurteilung mathematischer Wahrheit (`judging mathematical truth')10.30 geben müsse. Dieser wäre dann nur ein Teil der möglicherweise sehr komplizierten Algorithmen die den allgemeinen Denkprozessen eines Menschen zugrunde liegen. Weiter, so Penrose, müsse dieser Algorithmus sehr einfach sein, denn es sei ja gerade die Grundidee mathematischer Beweise, daß jeder Beweisschritt so einfach ist, daß er von jedermann ohne Zweifel nachvollzogen werden kann.10.31 Damit müsse sich dieser Algorithmus prinzipiell bestimmen lassen, wobei der obige Einwand, daß der dem faktischen Denken eines Mathematikers zugrunde liegende Algorithmus unbekannt sei, nicht mehr angewendet werden könne.


Aus der Sicht der Kolmogoroffkomplexität ist folgendes dieser Argumentationsweise entgegenzuhalten:

Der Gödelsche Beweis zeigt, daß sich unendlich viele mathematische Theoreme konstruieren lassen, die zu ihrem Beweis je `individuelle' algorithmische Information benötigen.10.32 Damit ist es mit einem Algorithmus - der per definitionem nur einen endlichen algorithmischen Informationsgehalt hat - nicht möglich, alle Theoreme zu beweisen. Somit kann es also den von Penrose gesuchten kurzen präzise beschriebenen Algorithmus nicht geben.


Gleichermaßen gilt aber auch für Menschen schon allein aufgrund ihrer beschränkten Lebenszeit, daß sie nicht alle wahren Theoreme als wahr erkennen können. Aber auch schon bei sehr langen Beweisen, ist die intersubjektive Übereinstimmung nur noch schwer zu erreichen. Ohnehin treten bei der mathematischen Beweisführung oft genug Fehler auf, die teilweise auch über lange Zeit unbemerkt bleiben. Dies zeigt beispielsweise die Geschichte des Polyedersatzes,10.33 bei der die Definition eines Polyeders immer wieder verändert wurde, weil Gegenbeispiele für die zur jeweiligen Zeit akzeptierte Version des Polyedersatzes gefunden wurden. Wenn man grob überschlägt, wie lange die Beschreibung des menschlichen Gehirns wäre, so kommt man auf eine Größenordnung von etwa 1014=100 000 000 000 000 oder mehr Buchstaben.10.34 Daß eine solch lange Beschreibung des zugrunde liegenden Algorithmus nicht von einem Mathematiker erfaßt werden kann, um daraus den zugehörigen unableitbaren arithmetischen Ausdruck zu bestimmen, versteht sich von selbst.10.35 Dabei wird der zu bestimmende Ausdruck sogar noch unvorstellbar viel länger werden.10.36 Daß man bei einem solch langen Ausdruck nicht daran denken kann, daß ein Mensch die Wahrheit des Ausdrucks einsehen kann, ist wohl offensichtlich. Auf der anderen Seite zeigt gerade der Gödelsche Beweis, insbesondere Chaitins informationstheoretische Version von Gödels Beweis10.37 - daß sich ein Beweis mit wenigen formalen Mitteln nicht führen läßt. Somit ist es also auch nicht möglich, daß beispielsweise Generationen von Mathematikern - zumindest im Prinzip10.38 - sukzessive die Wahrheit einer solchen langen Aussage nach allgemein akzeptierten und festgeschriebenen Regeln beweisen könnten !

Damit wäre also dargelegt, daß Argumentationen, die mit dem Gödelschen Unvollständigkeitstheorem für den nicht-algorithmischen Charakter des menschlichen Bewußtseins argumentieren, nicht durchschlagend sind.


next up previous contents index
Next: Zusammenfassung und Schlußfolgerungen Up: Die Grenzen der künstlichen Previous: Intelligenz nicht-algorithmischer künstlicher Systeme
Achim Hoffmann
2002-07-12