next up previous contents index
Next: Literatur Up: Philosophische Probleme und Komplexität Previous: Kann ein Bewußtsein jeden

   
Zusammenfassung und Schlußfolgerungen

Im folgenden sollen die wichtigsten Punkte der vorhergehenden Kapitel noch einmal angesprochen werden und daraus resultierende Schlußfolgerungen - einerseits für eine Methodologie einer künstlichen Intelligenz und andererseits für die Philosophie - gezogen werden.

Der zentrale Begriff der Arbeit war der Begriff der Kolmogoroffkomplexität oder - synonym - der algorithmischen Information, welcher ein Beschreibungskomplexitätsmaß ist.   Es wird gemessen, wie lang eine Beschreibung gegebener Phänomene mindestens sein muß - unabhängig davon, ob man die Phänomene durch Allgemeinaussagen, durch Konstruktionsvorschriften oder durch eine Vielzahl von Regeln, die gegenseitig voneinander abhängen beschreibt. Letzteres kommt dem Konnektionismus entgegen, der sich nicht nur durch technische Neuerungen, sondern auch aufgrund philosophischer Argumente seit einigen Jahren einem zunehmenden Interesse sowohl in der Philosophie, der Kognitionswissenschaft als auch in der Informatik erfreut.

In Abschnitt 8.4 wurde der Konnektionismus aus der Perspektive der Kolmogoroffkomplexität betrachtet. Dabei wurde betont, daß mögliche Intelligenzleistungen konnektionistischer Systeme im wesentlichen auf die Strukturkomplexität, d.h. die Beschreibungskomplexität, des Gesamtsystems zurückgeführt werden müssen. Damit konnte aufgezeigt werden, daß die konnektionistische Idee als Grundlage einer Kognitionswissenschaft, wie es etwa Smolensky SmolenskySmolensky[Smo88] fordert, keine merkliche Annäherung an die komplexen Phänomene darstellt, von denen eine Kognitionswissenschaft handeln soll.

Die auf den ersten Blick so überzeugende Nähe zur biologischen Funktionsweise des menschlichen Gehirns einerseits und die dynamischen Systemeigenschaften, die der Wittgensteinschen Regelanwendung und Regelfortschreibung andererseits zu entsprechen scheinen, täuscht leicht über die wirklichen Probleme einer Kognitionswissenschaft - die hohe Komplexität menschlicher Kognitionen im Sinne einer Beschreibung - hinweg. Wie in Hoffmann Hoffmann[Hof91b] aufgezeigt wurde, gehen auch Anstrengungen, die biologische Funktionsweise menschlicher oder tierischer Neuronen möglichst genau zu modellieren, an dem Problem, menschliche Kognitionen zu beschreiben oder zu erklären, im wesentlichen vorbei.

Der Hauptanteil an der Erklärung des emergenten Verhaltens eines großen konnektionistischen Netzwerkes - wie etwa dem menschlichen Gehirn - geht weniger auf die detaillierte Funktionsweise einzelner Neuronen zurück, sondern auf die spezifische, hochkomplexe Topologie des Netzwerkes.

Experimente mit konnektionistischen Systemen, menschliche kognitive Leistungen - zumindest im kleinen Maßstab - nachzubilden, werden dadurch leicht fehlinterpretiert. Der Erfolg solcher Experimente läßt keine Verallgemeinerung auf die besondere Eignung konnektionistischer Modelle zur Erklärung oder Simulation menschlicher Kognitionen zu.

Dieser Fehlschluß, der gleichermaßen vielen nicht-konnektionistischen, sogenannten symbolischen Ansätzen zur Kognitionswissenschaft und der künstlichen Intelligenz zugrunde liegt, wurde in Abschnitt 6 behandelt.

Dort wurde aufgezeigt, daß aufgrund der sehr hohen Beschreibungskomplexität menschlicher Kognitionen, die Gefahr besteht, Experimente zu entwerfen, die nur einen sehr kleinen Teil der insgesamt notwendigen Beschreibungskomplexität erfordern. Dadurch ist es möglich, einfache Erklärungsmodelle für das jeweilige Experiment zu finden. Jedoch ist es typisch, daß diese einfachen Erklärungsmodelle sich nicht auf umfassendere Phänomenbereiche übertragen lassen. In diesem Zusammenhang wurde auf die Bedeutung von universalistischen Vorstellungen menschlicher Kognitionen hingewiesen. Die universalistischen Vorstellungen sind verantwortlich für den spezifischen Aufbau eines Experiments und der Einschätzung der Repräsentativität des Experiments für die Gesamtheit menschlicher Kognitionen.

Damit konnte in der Arbeit mit Hilfe des Begriffs der Kolmogoroffkomplexität aufgezeigt werden, inwiefern für Wissenschaften mit einem hochkomplexen Gegenstandsbereich, wie die Kognitionswissenschaft und die künstliche Intelligenz, eine andere Methodologie in Ansatz gebracht werden muß, als in Wissenschaften wie der Physik, in denen der Gegenstandsbereich von vergleichsweise geringer Komplexität ist.

An dieser Stelle stellt sich allerdings die Frage, wie die Forderung nach einer anderen, neuen Methodologie in Kognitionswissenschaft und KI inhaltlich erfüllt werden kann.

Hierzu scheint die phänomenologische Kritik, aber auch die Analyse des menschlichen Regelfolgens eine wichtigen Beitrag zu leisten. Die generelle Kritik an der Möglichkeit einer künstlichen Intelligenz aus der Perspektive der Phänomenologie Heideggers trifft in ihrer radikalen Form11.1 nicht nur die KI selbst, sondern auch eine Kognitionswissenschaft, die auf operationale Beschreibungen menschlicher Denkprozesse abzielt.

Die phänomenologische Kritik an der generellen Möglichkeit einer künstlichen Intelligenz wurde in Kapitel [*] zurückgewiesen. Ihre Zurückweisung bietet damit auch eine Grundlage für die Möglichkeit einer symbolisch orientierten Kognitionswissenschaft, wie sie unter anderem von Fodor & Pylyshyn in FodorPylyshyn[FP88] gefordert wird.

Letztlich gründet die Zurückweisung der phänomenologischen Kritik darin, daß die phänomenologische Perspektive auf der Basis eines sehr beschränkten Bewußtseins beruht, das versucht, hochkomplexe kognitive Prozesse zu beobachten und zu erklären. Diese Basis hat bei KI-Systemen oder formalen Beschreibungen - wie sie im Falle der Kognitionswissenschaft zur Debatte stehen - kein Pendant.

Daß sich bereits aufgrund dieser beiden genannten Bedingungen - das beschränkte Bewußtsein und die komplexen kognitiven Prozesse - eine Heideggers Analyse entsprechende Erscheinung der menschlichen Kognitionen im Bewußtsein ergibt, wurde in Abschnitt 8.3 aufgezeigt.

Ein Problem, das ebenfalls mit einem beschränkten Bewußtsein zu tun hat, wurde bei der Frage nach Kreativitätsleistungen aufgezeigt. In Abschnitt 8.6 wurde die Anwendung des Begriffs der topischen Kreativität auf Maschinen als Kategorienfehler reklamiert.

Die Nichtanwendbarkeit des (topischen) Kreativitätsbegriffs auf Maschinen bedeutet dabei allerdings nicht, daß Maschinen grundsätzlich nicht zu einer vergleichbaren Leistung imstande sind. Ein vergleichbares Ergebnis ist im Prinzip erzielbar, wenn auch der Weg dorthin ein völlig anderer ist, weil Computern kein Bewußtsein zugeschrieben wird. Dieses jedoch wurde als erforderlich für die Unterscheidung zwischen topischer und kombinatorischer Kreativität herausgestellt. Inwiefern man allerdings eine von Computern scheinbar hervorgebrachte (topische) Kreativitätsleistung nicht der Maschine, sondern dem Programmierer oder Entwickler zuschreiben kann oder muß, ist zunächst noch eine offene Frage. Scheinen doch die Grenzen zwischen kombinatorischer und topischer Kreativität mit zunehmender Systemkomplexität ihre Klarheit zu verlieren.

Als eine andere Konsequenz zunehmender Systemkomplexität kann letztlich auch der Wittgenstein'sche Regelbegriff gesehen werden. Wie in Abschnitt 8.3 ausgeführt, hat eine komplexe Regel bei dem Versuch, sie einfach zu erfassen, genau die von Wittgenstein beobachteten Eigenschaften: Die Regel hat - einerlei wie man sie formuliert - immer nicht näher angebbare Ausnahmen.

Der interessantere Aspekt von Wittgensteins Untersuchungen scheint in dieser Hinsicht aber die Regelfortschreibung zu sein.

Hierbei genügt es für eine künstliche Intelligenz sicher nicht, festzustellen, daß eine Regelfortschreibung, eine Veränderung, Weitung oder Verengung einer Regel stattfindet. Hingegen ist es für eine künstliche Intelligenz entscheidend, wie eine Regel in jedem konkreten Einzelfall fortgeschrieben wird.

Nun schließt sich der Kreis; ich komme zurück zu den methodologischen Problemen einer KI oder Kognitionswissenschaft.

Sowohl der späte Wittgenstein als auch Heideggers Phänomenologie weisen nicht nur darauf, daß die kognitiven Prozesse von sehr hoher Kolmogoroffkomplexität sind, sondern daß gerade die Regelfortschreibung ebenfalls von erheblicher Komplexität ist.

In diesem Zusammenhang sollen die drei folgenden Stufen von Wissen unterschieden werden:

1.
Beziehungen zwischen Objekten oder Begriffen, die sich modelltheoretisch beschreiben lassen. Hierfür läßt sich z.B. die Prädikatenlogik nutzen.
2.
Weiteres `Wissen', welches sich zwar noch auf eine gegenwärtige statische Zustandsbeschreibung einer `äußeren Welt' bezieht, die aber nicht unter 1. fällt. Dazu zählt unsicheres Wissen, unvollständiges Wissen, Präferenzen unter konkurrierenden Hypothesen, etc. Für diese Wissensarten wurden und werden in der künstlichen Intelligenz verschiedene Repräsentations- und Schlußformalismen entwickelt.
3.
`Wissen' das beschreibt, wie Regeln, Begriffe, oder Wissen der ersten beiden Stufen fortgeschrieben werden. Dies bezieht sich damit auf die dynamischen Aspekte von Wissen auf der ersten und zweiten Stufe (und eventuell auch auf der dritten Stufe).

Während die erste Stufe sich verhältnismäßig leicht durch  Introspektion11.2 oder Analyse von Fachtermini explizieren läßt, trifft man bei der zweiten Stufe schon auf mehr Schwierigkeiten.

Bei Wissen der dritten Stufe erscheint es unklar, ob es introspektiv überhaupt erfaßt werden kann. Aber für eine weiterführende künstliche Intelligenz wäre die Explizierung solcher Regeln unabdingbar. Mithin weist die phänomenologische Kritik an der symbolischen künstlichen Intelligenz darauf hin, daß eine KI Methoden entwickeln muß, um entweder menschliches Wissen dieser Art explizieren zu können oder aber Wissen dieser Art anderweitig zu rekonstruieren.

Bereits einzelne Exemplifizierungen dieses Wissens anhand von faktischen Regelfortschreibungen scheinen nur in beschränkten Maße möglich zu sein (z.B. beim induktiven Schließen).

Wenn aber die Annahme zutrifft, daß die dritte Stufe eine erhebliche Kolmogoroffkomplexität aufweist, so würde dies auch bedeuten, daß einzelne Exemplifizierungen nicht viel nutzen, um die zugrundeliegenden konkreten Regeln zur Regelfortschreibung zu gewinnen.

Dies würde wohl auch die praktische Undurchführbarkeit von Pylyshyns Vorschlag zur Grundlegung einer Kognitionswissenschaft implizieren. Wenn nämlich das `Wissen' der zweiten und dritten Stufe von hoher Komplexität ist, so bedeutet das für Pylyshyn zumindest, daß seine funktionale Architektur von hoher Komplexität ist - denn diese Regeln   in ihrer reinen Form, das heißt abgesehen von irgendwelchen konkret involvierten Inhalten, gehören ganz sicher zu seiner funktionalen Architektur. Festzustellen welche Form dieser Regeln die reine, also die kognitiv unbeeinflußbare Form ist, wird auf erhebliche Schwierigkeiten stoßen, wenn die Inhalte des 'Wissens' der dritten Stufe nicht introspektiv zugänglich sind. Noch viel schwieriger ist es dann, festzustellen ob der Inhalt sich durch kognitive Faktoren verändert !


Eine wichtige erkenntnistheoretische Frage, die hier auftaucht, ist die Folgende:

Inwieweit können (algorithmische) Regeln der Regelfortschreibung   auf andere Weise rekonstruiert werden, als durch Introspektion ?

Die künstliche Intelligenz interessiert sich ohnehin eher dafür, wie die Regeln aussehen sollten, als dafür, wie sie bei einem einzelnen Indiviuum tatsächlich aussehen. Daher sind für die KI die Möglichkeiten einer Rekonstruktion von besonderem Interesse.


Weiterhin bietet der Begriff der Kolmogoroffkomplexität unter anderem für die folgenden philosophischen Problembereiche neue Perspektiven.

Die Feststellung eines philosophischen Regelcharakters, z.B. bei der menschlichen Begriffs- und Sprachverwendung, erscheint vor dem Hintergrund des Begriffs der Kolmogoroffkomplexität als unnötig restriktiv. Diese nur qualitative Einordnung liegt auch Dreyfus' Kritik an der KI zugrunde. Durch die Einführung des quantitativen Aspektes konnte in Kapitel 9 die Frage nach den generellen Grenzen der KI einer solchen Präzisierung zugeführt werden, daß sie zumindest theoretisch beantwortet werden könnte.


Insbesondere im Hinblick auf die offensichtliche Komplexitätsbeschränkung der bewußt wahrnehmbaren Denk- und Reflexionsprozesse   erscheinen Betrachtungen der folgenden Art interessant:


Die komplexitätstheoretischen Zweifel an der These von Maturana und Varela aus Abschnitt 8.5 über das Zustandekommen intelligenter kognitiver Systeme scheint besonders interessant für weitere Forschung in der theoretischen Informatik und deren Konsequenzen für die Philosophie zu sein. Sollten sich die Hinweise auf unüberwindliche Komplexitätsschranken erhärten, so könnte dies von großer Bedeutung für die gegenwärtige Diskussion um die Verteilung von Intelligenz, Sprachverstehen und anderes auf die phylogenetische bzw. ontogenetische Entwicklung werden. Denn während der ontogenetischen Entwicklung ist das Individuum zum großen Teil auf seine eigene Beurteilung seiner Klassifikationsleistung angewiesen - es bekommt nicht ständig eine Rückmeldung, ob etwas richtig verstanden wurde oder ob eine Handlung erfolgreich war. Insofern scheint ein erheblicher Teil der ontogenetischen Entwicklung auf einer Selbstorganisationsfähigkeit zu beruhen.


Sollte sich beispielsweise herausstellen, daß die phylogenetische Entwicklung den allergrößten Teil des Sprachverstehen bestimmt - also die während des kindlichen und erwachsenen Lebens erlernten Sprachverwendungregeln und das Sprachverstehen insgesamt nur einen fast vernachlässigbaren Einfluß haben, so könnte dies die Quine'sche These der generellen Nichtübersetzbarkeit erschüttern.


Würde sich hingegen herausstellen, daß unter ganz bestimmten Voraussetzungen die Entwicklung zu komplexen kognitiven Systemen durch Selbstorganisation möglich ist, so könnte dies einen starken Hinweis auf die tatsächlich (dann notwendigerweise) vorherrschenden Entwicklungsbedingungen geben.

Erkenntnisse solcher Art könnten Einfluß auf einen weiten Bereich philosophischer Fragestellungen haben.


next up previous contents index
Next: Literatur Up: Philosophische Probleme und Komplexität Previous: Kann ein Bewußtsein jeden
Achim Hoffmann
2002-07-12