next up previous contents index
Next: Über eine formale Theorie Up: Methodologische Probleme der künstlichen Previous: Die Begründung von Prinzipien

   
Methodologischer Zirkel bei der Suche nach einfachen Prinzipien

Zum einen ist klar, daß eine formale Symbolmanipulation im Sinne der universellen Turingmaschine zumindest a posteriori ausreicht, um Intelligenzleistungen zu erklären. Smolensky Smolensky[Smo88] und andere erhoffen sich jedoch aus der Postulierung einer subsymbolischen Verarbeitungsebene Erkenntnisse für die Kognitionswissenschaft. Welcher Art können solche Erkenntnisse sein ? Im Hinblick auf die Komplexität der betrachteten kognitiven Prozesse wurde in Hoffmann Hoffmann[Hof90b] gezeigt, daß allein die Beschreibung von neuronalen bzw. subsymbolischen Informationsverarbeitungsmodellen mindestens die gleiche algorithmische Information erfordert, wie die Beschreibung der kognitiven Phänomene auf einer symbolischen Ebene. In Hoffmann Hoffmann[Hof90b] wird gezeigt, daß die genaue Beschreibung eines konnektionistischen Informationsverarbeitungsmodells mindestens von der gleichen Komplexität im Sinne der algorithmischen Informationstheorie ist, wie die von den beschriebenen Modellen berechnete Ein-/Ausgabefunktion. Dies gilt gleichermaßen für lernende konnektionistische Modelle. Bei den konnektionistischen Modellen kommt also zu der ohnehin erforderlichen Beschreibungskomplexität noch die außerordentlich schwierige Analyse der Netzwerkdynamik7.10   hinzu, um ein Verständnis für die kognitiven Prozesse zu ermöglichen.

Man könnte an eine mehrschichtige Betrachtung kognitiver Phänomene denken, wie sie etwa von Dennett Dennett[Den71,Den87] oder Pylyshyn Pylyshyn[Pyl84] vorgeschlagen wurde. Dadurch würde man zwar sehen, daß kognitive Prozesse durch subsymbolische Prozesse konstituiert werden können, jedoch wird man den Ablauf der kognitiven Prozesse selbst nicht besser beschreiben und vorhersagen können. Gleich welche Betrachtungsebene man wählt, die erforderliche Beschreibungskomplexität, um kognitive Prozesse präzise zu beschreiben, kann höchstens größer - nicht aber kleiner werden, als auf einer symbolischen Ebene und einer zugrundeliegenden universellen Turingmaschine.7.11  


Aufgrund der angenommenen hohen erforderlichen algorithmischen Information     für die Beschreibung intelligenten Verhaltens, liegt damit das folgende methodologische Problem vor:  

In empirischen Wissenschaften wird in der Regel ein kleiner überschaubarer Untersuchungsrahmen geschaffen. Innerhalb dieses Rahmens können dann Versuche durchgeführt werden, um auf gesetzesartige Zusammenhänge zwischen einzelnen Phänomenen des Forschungsgebietes schließen zu können. Sobald solch gesetzesartige Zusammenhänge formuliert wurden, können diese in erweiterten Versuchsrahmen geprüft und gegebenenfalls falsifiziert werden.7.12 Bei den erweiterten Versuchsrahmen wirken mehr Einflußfaktoren auf die hypothetisch gesetzesartig verbundenen Phänomene ein. Es ist dabei allerdings eine essentielle Voraussetzung, daß die hinzukommenden Einflußfaktoren den formulierten gesetzesartigen Zusammenhang nicht stören. Ansonsten würden sich die innerhalb des ersten überschaubaren Untersuchungsrahmens formulierten gesetzesartigen Zusammenhänge als unzutreffend herausstellen.7.13

Mit anderen Worten besteht in den empirischen Wissenschaften die typische Herangehensweise darin, zunächst kleine Untersuchungsbereiche abzugrenzen, um innerhalb dieser gesetzesartige Zusammenhänge zu erkennen, die ansonsten bei zahlreichen Störeinflüssen schwieriger herauszukristallisieren wären.

Die gleiche Herangehensweise wird in der Regel auch auf dem Gebiet der KI und der Kognitionswissenschaft vorgeschlagen bzw. praktiziert. Dabei werden Algorithmen entworfen und für kleine Bereiche (sogenannte Spielzeugwelten) ausprobiert. Wenn die Algorithmen in diesen Welten erfolgreich eingesetzt werden konnten, so erhofft man sich eine Übertragbarkeit auf größere Bereiche von praktischer Bedeutung. Im folgenden soll an dem Fallbeispiel des maschinellen Lernens erläutert werden, daß ein solches Vorgehen in der KI und der Kognitionswissenschaft besondere Probleme birgt.7.14

Wenn intelligentes Verhalten tatsächlich viel algorithmische Information erfordert - und dafür spricht eine ganze Menge, u.a. die bisherigen Versuche in der KI - dann liegt die folgende typische Situation vor:

In einem abgegrenzten Versuchsbereich wird nur ein kleiner Teil der für ein allgemein intelligentes Verhalten erforderlichen algorithmischen Information benötigt.

Angenommen in dem abgegrenzten Bereich hat die Ein-/Ausgabefunktion eines `intelligenten' Wesens eine Kolmogoroffkomplexität von 1 000 Bits. Wenn ein Programm entwickelt wird, das die geforderte Ein-/Ausgabefunktion realisiert, kann man in aller Regel die Grundidee oder das Prinzip, das in dieses Programm eingearbeitet wurde, und die bereichsspezifischen Daten voneinander trennen.7.15 Hierbei wird die Trennung zwischen Prinzip und dem Rest in der Regel auf den konzeptionellen Ideen der Entwickler basieren, die bereits vor der vollständigen Entwicklung vorhanden waren. Eine solche Trennung könnte beispielsweise in dem folgenden quantitativen Verhältnis der algorithmischen Information resultieren:

Damit liegen Zahlenverhältnisse Prinzip : Daten und Bereichskomplexität : Daten vor, wie in der untenstehenden Tabelle in der ersten Zeile.

Werden diese Prinzipien auf einen größeren Bereich übertragen, z.B. auf einen Bereich, in dem anstatt 1 000 Bits 100 000 Bits an algorithmischer Information erforderlich sind, so erhält man die Zahlenverhältnisse der zweiten Zeile der Tabelle.


Gesamtkomplexität Prinzip : Daten Bereichskomplexität : Daten
1 000 Bits 70 : 30 100 : 30
100 000 Bits 0,7 : 99,3 100 : 99,3


Damit spielen die Prinzipien in dem erweiterten Bereich eine zunehmend geringere Rolle. Je größer der Bereich ist, desto mehr Daten (prozentual von der Gesamtbereichskomplexität) müssen zu den `erforschten Prinzipien' hinzu kommen, um ein korrekt arbeitendes System in dem erweiterten Bereich zu erhalten. Die Aufgabe der adäquaten Behandlung eines abgegrenzten Bereiches wird also überproportional schwieriger mit zunehmender Komplexität des Bereiches.

Daher wird eine lineare Extrapolation von den Schwierigkeiten in einem Versuchsbereich auf einen größeren Bereich, die man bei der Verwendung von entwickelten und getesteten `Prinzipien' haben wird, typischerweise unzutreffend sein. In der Tat wird die Bedeutung der entwickelten `Prinzipien' asymptotisch gegen Null gehen. Entsprechendes gilt für deskriptive Theorien kognitiver Prozesse.  

Der erhoffte Effekt, mittels einer entwickelten `Technik', die die `Prinzipien' der menschlichen Herangehensweise oder einer anderen künstlichen und erfolgreichen Strategie repräsentieren soll, in größeren Problembereichen schneller zu einer Lösung zu kommen, wird sich typischerweise nicht einstellen.

Diese Schlußfolgerung aus den vorhergehenden Betrachtungen wird in der Tat durch viele Aktivitäten in der KI Forschung bestätigt.

Neben den bereits erwähnten Ansätzen des General Problem Solvers (GPS)   von Newell & Simon oder der Entwicklung möglichst mächtiger Logikkalküle, die mittlerweile wieder aufgegeben wurden, gibt es auch einige aktuelle Ansätze, bei denen ihre Vertreter Hoffnung auf die Entdeckung allgemeiner Prinizipien haben:

Dazu zählen die erwähnten subsymbolischen Ansätze zur Informationsverarbeitung, welche z.B. von Smolensky Smolensky[Smo88] mit großen Hoffnungen vertreten werden, aber auch die Idee selbstorganisierender Systeme, wie sie beispielsweise   von Maturana & Varela MaturanaVarela[MV87] vertreten wird. Diese beiden Ansätzen ist in den Abschnitten 8.4 bzw. 8.5 eine eingehendere Betrachtung gewidmet.

Eine weitere neuerdings populär gewordene Idee beruht darauf, Systeme zu entwickeln, die in einer konkreten (`Lebens'-) Umgebung eingebettet werden und dort zunächst einfache Aufgaben bewältigen sollen, z.B. mobile Roboter.7.16 Die Fähigkeit zur Lösung solch elementarer Aufgaben, wie die sichere und gegebenfalls zielgerichtete Fortbewegung wird als Voraussetzung für intelligentes Verhalten auf einer höheren Ebene angesehen.7.17 Somit repräsentiert dies einen `bottom-up' Ansatz zur künstlichen Intelligenz, der an die (phylogenetische) Entwicklung biologischer Intelligenz angelehnt ist. Dies steht im Gegensatz zur traditionellen künstlichen Intelligenz die in diesem Sinne einen `top-down' Ansatz verfolgt; also die abstrakten Intelligenzleistungen zuerst simulieren will, um dann - je nach Bedarf - eventuell schrittweise zu elementareren Leistungen zu kommen.

Im Bereich des maschinellen Lernens, insbesondere Lernen, das auch induktives Schließen beinhaltet, wird derzeit das sogenannte Inductive Logic Programming propagiert.7.18 Dieser Ansatz wurde zumindest anfänglich mit großen Hoffnungen beladen und als ein mögliches allgemeines Verfahren zum maschinellen induktiven Lernen betrachtet. Mittlerweile sind die Hoffnungen deutlich gedämpft, wie aus mündlichen Äußerungen Muggletons bekannt ist. Dies bestätigt die Schlußfolgerungen aus den mathematischen Analysen des induktiven maschinellen Lernens in Abschnitt 6.3.


Somit besteht bei der Vorgehensweise der folgende methodologische Zirkel:

Es werden als schwierig angesehene Aufgaben oder Aufgabengruppen (eventuell unvollständig) definiert. Der Modellentwickler prüft daran eine häufig introspektiv gewonnene Hypothese für die Prinzipien zur Lösung der Aufgabe. Dadurch sind die Prinzipien aber genau auf die gestellten Aufgaben ausgerichtet.     Ein allgemeiner Einsatz der Prinzipien ist nicht erfolgreich, weil der Ansatz zu einfach ist (zu geringe Kolmogoroffkomplexität). Somit geben die `Prinzipien' des jeweils neuen Ansatzes nur wieder, was bei dem Entwurf der Aufgabe bzw. bei dessen menschlicher Lösung vorgegeben wurde. Teilweise wird der Wissenschaftler auch schon an das `Lösungsverfahren' bzw. die `Prinzipien' denken, bevor er die Testaufgabe konzipiert.


Mit diesen Problemen wird sich auch Pylyshyn konfrontiert sehen, wenn man beginnt die elementaren Funkionen seiner funktionalen Architektur in empirischen Untersuchungen zu isolieren.   Der jeweilige Wissenschaftler wird schon beim Versuchsaufbau seine Vorstellungen von der funktionalen Architektur einfliessen lassen müssen - sonst hätte er überhaupt keinen Anhaltspunkt für die zu variierenden Größen im empirischen Experiment. Dies jedoch impliziert, daß der Erkenntnisgewinn aus den jeweiligen empirischen Untersuchungen äußerst beschränkt ist.


Stimuliert durch die eher enttäuschenden Ergebnisse der bisherigen Forschungsbemühungen in der künstlichen Intelligenz sieht Minsky als einen wesentlichen Aspekt von Intelligenz, daß es sich dabei nicht um ein einheitliches System handelt, sondern um eine Vielzahl von unterschiedlichen Funktionseinheiten, die interagieren.7.19


next up previous contents index
Next: Über eine formale Theorie Up: Methodologische Probleme der künstlichen Previous: Die Begründung von Prinzipien
Achim Hoffmann
2002-07-12