next up previous contents index
Next: Schlußfolgerungen für die KI Up: Trifft Dreyfus' Kritik die Previous: Zur Interpretation einer Turingmaschinentabelle

Warum wirkt die phänomenologische Kritik so überzeugend ?

Im folgenden werden zwei Gründe für die Überzeugungskraft der phänomenologischen Kritik erörtert. Diese Gründe zeigen auf, inwiefern die Kritik neue nützliche Sichtweisen auf einige Probleme der KI eröffnet.

Möglicherweise beruht der gesamte Disput um die physical symbol system hypothesis einfach auf den beiden unterschiedlichen   Sichtweisen: Der Systementwickler auf der einen Seite und der Systembenutzer auf der anderen Seite.

Die Befürworter der Hypothese fragen danach, ob ein physikalisches symbolmanipulierendes System möglich ist, das intelligentes Verhalten simuliert. Hingegen fragen die Gegner der physical symbol system hypothesis, ob ein pysikalisches symbolmanipulierendes System entwickelt werden kann, das intelligentes Verhalten simuliert: genauer, das Symbole derart manipuliert, wie es die bewußten menschlichen Denkprozesse zu tun scheinen.

Denn die menschlichen bewußten Denkprozesse sind in der Tat wesentlich durch implizites Wissen bestimmt, statt schematisch Symbole zu manipulieren, die explizit bestimmte Wissensfragmente repräsentieren. Dies leitet sich bereits aus der Tatsache ab, daß das menschliche Bewußtsein in seiner Fassungskapazität sehr beschränkt erscheint, während die menschlichen Denkprozesse insgesamt von großer Kolmogoroffkomplexität zu sein scheinen.8.17

Wenn man das menschliche Wissen operationalisieren will - und dies tut der Entwickler von intelligenten Systemen im wesentlichen - so ist man daher typischerweise mit der Implizitheit menschlichen Wissens in den unbewußten Denkprozessen konfrontiert.

Die phänomenologische Kritik betont letztlich lediglich den starken Einfluß dieses unbewußten Wissens - und dessen enorme Komplexität - auf die bewußtwerdenden Gedanken und damit auf das menschliche Verhalten.

Daher mag der Schluß überzeugen, daß pysikalische symbolmanipulierende Systeme nicht adäquat sein können, wenn sie immer nur Symbole manipulieren, die etwas repräsentieren, das uns Menschen durch  Introspektion8.18 bewußt wird. Denn das Bewußtwerdende reicht in der Tat nicht aus, um unsere Denkprozesse vollständig zu beschreiben.8.19


Auf der anderen Seite, der Benutzerseite, sieht die Lage etwas anders aus: Hier stellt sich die Frage, ob es ein System geben kann, das im wesentlichen den Turingtest besteht - das nämlich in einer bestimmten Klasse von Situationen intelligente oder nützliche Reaktionen zeigt. Bei dieser äußerlichen Problembeschreibung ist es schwer einzusehen, warum es keine algorithmische Beschreibung für ein nützliches Antwortverhalten geben können sollte.

Die Gegner der physical symbol system hypothesis hingegen, haben lediglich mit der phänomenologischen Kritik dargelegt, daß eine direkte Vorgehensweise bei der Entwicklung intelligenter Systeme nicht möglich ist. Versucht man, die Ontologie, die ein Experte in einem bestimmten Problembereich äußert, durch Symbole zu repräsentieren, so ist man damit noch lange nicht am Ziel angelangt - so die phänomenologische Kritik. Genauergenommen behautet die phänomenologische Kritik, daß die verbleibende Strecke zum Ziel überhaupt nicht überwunden werden kann. Jedoch bietet sie an dieser Stelle keine plausible Argumentation dafür an, daß der Rest der Strecke nicht doch auf irgendeine Weise algorithmisiert werden kann. Diese Fragestellung wird schlicht unterschlagen.

Der von der phänomenologischen Kritik hervorgehobene Aspekt der wechselnden Ontologie - je nach Situation - ist ebenfalls kein Einwand für einen Benutzer. Der Benutzer wird in der Regel keine Schwierigkeiten haben, sich vorzustellen, daß bestimmte interne Zustände eines Systems Unterschiedliches repräsentieren können - je nachdem, wie das System gegenwärtig eingesetzt wird.8.20 Letzteres wird allerdings für den Entwickler zum Problem, wenn er alle möglichen Interpretationen interner Zustände bereits während der Systementwicklung vorhersehen soll. Dies ist jedoch auf die Entwicklerperspektive beschränkt.

Die Bedeutung eines systeminternen Zustands ist nur solange eine feste Bedeutung, solange sie bloß innerhalb des Systems definiert werden soll. Dabei bleibt die Rolle des Systems inmitten einer `Lebenswelt', z.B. einer menschlichen Gemeinschaft, außer Betracht. Hingegen kann die Benutzerinterpretation der Systemzustände - je nach Systemeinsatz - wechseln.


Die Komplexitätsdifferenz zwischen bewußten und unbewußten Denkprozessen wirft das folgende Problem auf: Da die bewußten Denkprozesse - solange sie überhaupt algorithmisch erscheinen - nur von geringer Kolmogoroffkomplexität sein können, müssen die unbewußten Denkprozesse von entsprechend hoher Kolmogoroffkomplexität sein. Sozusagen ist die `Maschinenebene' (Pylyshyns funktionale Architektur) von weitaus komplexerer Gestalt als eine einfache universelle Turingmaschine oder die Maschinenebene eines realen Computers. Dies läßt die mögliche Korrespondenz der menschlichen unbewußten Denkprozesse und einem Computer schwer erkennen.8.21 Der Computer ist ja tatsächlich viel einfacher strukturiert und muß erst durch ein entsprechend komplexes Programm, das dabei nur zu einem kleinen Teil zu den bewußten Denkprozessen korrespondiert, zu einem vergleichbar komplexen System gemacht werden.

Dadurch ist die mögliche Simulation der sehr komplexen unbewußten Denkprozesse durch eine `entsprechend komplexe' Turingmaschine so wenig offensichtlich.


next up previous contents index
Next: Schlußfolgerungen für die KI Up: Trifft Dreyfus' Kritik die Previous: Zur Interpretation einer Turingmaschinentabelle
Achim Hoffmann
2002-07-12