next up previous contents index
Next: Methodologischer Zirkel bei der Up: Methodologische Probleme der künstlichen Previous: Methodologische Probleme der künstlichen

   
Die Begründung von Prinzipien

In diesem Abschnitt soll dafür argumentiert werden, daß jeglicher Grund, der etwas als die Prinzipien der Intelligenz auszeichnen könnte, auf eine platonische Sichtweise des   Phänomens Intelligenz zurückgeführt werden kann und weiterhin, daß dies immer in eine Sackgasse weisen muß !

Für die folgenden Überlegungen wird - in Anlehnung an Ryle Ryle[Ryl49] - Intelligenz weiterhin als eine Fähigkeit betrachtet - d.h. Intelligenz als eine gewisse Disposition auf Reize mit entsprechendem Verhalten zu reagieren. Somit könnte man auch sagen, Intelligenz löst das Problem auf Reize in entsprechender Weise zu reagieren. Diese Betrachtungsweise schließt für eine deskriptive Theorie nicht aus, auf intentionale Zustände bezugzunehmen oder Reize intentional zu interpretieren. Das genannte Problem auf Reize zu reagieren, ist dabei eigentlich eine Klasse von Probleminstanzen. Eine Probleminstanz besteht darin, auf spezifische Reize7.2 geeignet zu reagieren. Wie bereits erläutert wurde, sind Algorithmen allgemeine Verfahren. Das heißt, sie lösen eine große (unendliche) Klasse von Probleminstanzen eines bestimmten Problemtyps. Was sind aber die Problemtypen, die Intelligenz in der Lage ist, zu lösen ? Was sind die Problemtypen, die Denken imstande ist, zu lösen ? in der gegenwärtigen Forschungslandschaft der KI haben sich unter anderem die in Kapitel 2 skizzierten Teilgebiete der künstlichen Intelligenz etabliert.


Mögliche Gründe für gerade diese Unterteilung könnten sein:

Ein wichtiger Gesichtspunkt, aufgrund dessen zumindest auch die gegenwärtige Unterteilung vorliegt, ist sicherlich, daß jedes Gebiet eigene Techniken hat. Hierbei sind trotzdem bestimmte Gebiete grundlegender als andere. Beispielsweise finden Techniken aus dem Gebiet Suchen und Problemlösen nicht nur beim Probleme lösen, sondern auch auf dem Gebiet des maschinellen Lernens, des Bildverstehens oder des automatischen Beweisens wichtige Anwendungen. Ähnlich ist es mit dem Gebiet des automatischen Beweisens und des maschinellen Lernens. Wie dem auch sei, die Probleme, die in den einzelnen Teilgebieten betrachtet werden, sind oft recht spezieller Natur.

Zum Beispiel untersucht man auf dem Gebiet Suchen und Problemlösen mit welchen Verfahren am effektivsten in großen kombinatorischen Räumen ein lokales oder globales Optimum gefunden werden kann; dabei sind Bewertungsfunktionen angegeben, die topologisch nahegelegenen Punkten einen ähnlichen Wert geben sollen, d.h. sie tun es nicht in allen Fällen, aber immerhin in einer großen Zahl der Fälle. Die Topologie über dem Suchraum wird dabei von einem zugrunde liegenden Suchverfahren definiert.

Inwiefern solche Probleme als die Probleme angesehen werden können, die typischerweise von intelligenten Wesen gelöst werden, ist schwer zu sagen. In ihrer expliziten Formulierung werden sie sicherlich nicht im Alltag bearbeitet. Doch kommt man nicht umhin, festzustellen, daß gerade derartige Suchprobleme sehr wahrscheinlich in fast allen Prozessen des menschlichen Denkens mitenthalten sind - auch wenn es noch unbekannt ist, wie das menschliche Denken im Einzelnen vor sich geht.

Wie dem auch sei, für jede endliche Problemklasse, von der angenommen wird, sie werde typischerweise von Intelligenz gelöst, gibt es Algorithmen, die alle Probleminstanzen dieser Klasse lösen. So gibt es beispielsweise für jede endliche Zahl von prädikatenlogischen Formeln einen Algorithmus, der entscheidet, ob sie innerhalb eines gegebenen Axiomensystems gelten. Fordert man hingegen einen Algorithmus, der beliebige prädikatenlogische Formeln entscheidet, so wurde gezeigt, daß es einen solchen Algorithmus nicht gibt.7.3 Weiterhin läßt sich beobachten, daß es für eine endliche Zahl von Formeln nicht nur einen korrekten Algorithmus gibt. Es gibt sogar beliebig viele verschiedene Algorithmen, die auch in ihrer Grundstruktur sehr verschieden sein können.

Diese Unterschiede können sich sogar in ihrem Ein-/Ausgabeverhalten zeigen. Dabei können die verschiedenen Algorithmen für Eingaben, die nicht zu der vorgesehenen endlichen Zahl von Formeln gehören, ganz unterschiedliche Ausgabeverhalten zeigen. Diese Unterschiede wären für die intendierte Aufgabenstellung - die genannte endliche Zahl von prädikatenlogischen Formeln zu entscheiden - nicht von Bedeutung, weil sich ihr potentielles - sehr unterschiedliches - Verhalten bei den intendierten Eingaben nie zeigen würde. Man kann sich die Ausgaben eines geeigneten Algorithmus für die intendierte endliche Zahl von Formeln, die es korrekt zu entscheiden gilt, auch als den Anfang einer unendlichen Zeichenkette vorstellen. Abgekürzt Z=AR, wobei Z die unendliche Zeichenkette bezeichnet, A den endlichen Anfang von Zund R den unendlichen Rest von Z, wobei in Z die gewünschten Ausgaben auf die verschiedenen Eingaben in einer festgelegten Reihenfolge codiert sind. Der Anfang A der Zeichenkette ist festgelegt - jedes Zeichen muß der korrekten Antwort auf eine der intendierten Formeln beschreiben. Der Rest der Zeichenkette R jedoch kann beliebig aussehen. Aus der Sicht der algorithmischen Informationstheorie kann man sagen, daß sich eine solche Zeichenkette immer zumindest auf die Länge von Akomprimieren läßt.

Das Beispiel der Entscheidbarkeit prädikatenlogischer Formeln scheint vielleicht kein gutes Beispiel zu sein, da immerhin für eingeschränkte Bereiche Algorithmen entwickelt wurden, die tatsächlich für eine unendliche Zahl von Formeln die richtige Antwort bestimmen. Zum Beispiel für die Aussagenlogik, Aristoteles Klassenlogik oder für die prädikatenlogischen Formeln der Presburger-Arithmetik.7.4 In diesen Fällen gäbe es keinen Rest R, es würde Z=A gelten, da ein korrektes Berechnungsergebnis für alle (unendlich vielen) Eingabewerte gefordert ist. Für diese eingeschränkten Bereiche gibt es also sogar eine sehr kurze Beschreibungen von Z, das heißt, Z könnte sehr stark komprimiert werden. Der Bereich des logischen Schließens wurde spätestens seit der griechischen Antike als eine geistige Tätigkeit angesehen, die man bemüht war zu formalisieren. Mithin zweifelte eigentlich niemand daran, daß es Prinzipien des logischen Schließens gibt, die eben nur noch in einer entsprechenden Formalisierung fixiert werden müssten.

Einer solchen Fixierung der Prinzipien entspricht die extreme Komprimierung von der unendlich langen Zeichenkette Z auf eine endliche, kurze Zeichenkette. Diese komprimierte Beschreibung von Z repräsentiert dabei einen Schlußkalkül für den entsprechenden Bereich. Einige Ergebnisse der heutigen Informatik legen allerdings gewisse Zweifel an der Annahme nahe, daß der Bereich des logischen Schließens zu den Prinzipien des menschlichen Denkens gehört.

Beispielsweise bewiesen Fischer und Rabin 1974 Fischer[FR74], daß für jeden Ableitungsalgorithmus und für jede endliche Axiomatisierung der Presburger-Arithmetik der Beweis von (schwierigen) Formeln sehr lang wird. Genauer gesagt wächst die Zahl der erforderlichen Beweisschritte hyperexponentiell mit der Länge der Formel, sie ist also von der Größenordnung 22n bei einer Formellänge von n.

Ein anderes Ergebnis von Cook 1971 Cook[Coo71], der Beweis der sogenannten NP-Vollständigkeit des Erfüllbarkeitsproblems aussagenlogischer   Formelmengen deutet in eine ähnliche Richtung. Nach einer bisher noch unbewiesenen, aber von den allermeisten der führenden theoretischen Informatiker angenommenen Hypothese (der sogenannten P $\not=$ NP-Hypothese) bedeutet das Ergebnis von Cook, daß es keinen Algorithmus gibt, der für aussagenlogische Formelmengen ihre Erfüllbarkeit entscheidet und dafür weniger als eine in der Länge der Formelmenge exponentiell wachsende Zahl von Rechenschritten benötigt, obgleich ein Beweis der Erfüllbarkeit erheblich kürzer ist. Die benötigte Zahl von Rechenschritten rührt also nur daher, daß es nicht möglich ist, einen Erfüllbarkeitsbeweis systematisch mit weniger Rechenschritten zu finden, bzw. auszuschließen, daß es einen Solchen gibt.

Mit anderen Worten deuten diese Ergebnisse darauf hin, daß dem menschlichen logischen Schließen andere Prinzipien zugrunde liegen, als die ausgearbeiteten formalen   Ableitungskalküle. Ja, sie deuten an, daß es gar keine solchen Ableitungskalküle bzw. etwas, das durch ein Ableitungskalkül vertreten werden kann, im menschlichen Denken gibt - auch nicht für Bereiche wie die Aussagenlogik.

Die Überlegung, daß das menschliche Denken vermutlich hochgradig parallel vor sich geht, genügt nicht um die Bewältigung des erforderlichen großen Rechenaufwandes für die Entscheidung aussagenlogischer Formeln zu erklären. Bei einer geschätzten Zahl von 1011 Neuronen, kann dies auch nur in einer um einen Faktor von höchstens 1011 beschleunigten Verarbeitung resultieren.7.5 Diese Konstante von 1011 wird bei dem exponentiellen Wachstum der Zahl der Rechenschritte bei größeren Formelmengen rasch `aufgefressen'. Schließlich muß man wohl davon ausgehen, daß ein Mensch mit Millionen von Aussagen über seine Lebenswelt umgehen kann.


All dies läßt also selbst Zweifel daran rechtfertigen, daß das logische Schließen in dem Sinne, wie es Aristoteles zu formalisieren begann, zu den Prinzipien des menschlichen Denkens oder der menschlichen Intelligenz gehört.7.6 Worüber es sicherlich keine Zweifel gibt, ist, daß Menschen bei kleinen Formelmengen korrekt logisch schließen können. Mithin sie also für eine endliche, genauer eine kleine Zahl von Formeln korrekte Schlüsse ziehen können. Für diese kleine Zahl von Formelmengen lassen sich allerdings eine Vielzahl von Algorithmen denken, die für diese bestimmten Formelmengen korrekt arbeiten.7.7 Je größer die Menge der geforderten richtig zu entscheidenden Formelmengen ist, desto weniger Freiheitsgrade für die Wahl eines geeigneten Algorithmus gibt es.

Dies würde im Extremfall in Ergebnissen münden, wie dem von Kurt Gödel: Daß es überhaupt keinen Algorithmus für das allgemeine Entscheidungsproblem der Prädikatenlogik gibt.7.8

Durch die Erweiterung der Klasse von Problemen, die beispielsweise von einem Deduktionsalgorithmus gelöst werden sollen, wird die Wahl der möglichen Algorithmen zunehmend eingeschränkt. In diesem Sinn ist eine Idealisierung von bestimmten (endlichen) Problemklassen, die Menschen zweifelsfrei durch ihr Denken lösen können, zu einer großen (eventuell unendlichen) Problemklasse dafür verantwortlich, daß sich bestimmte Verfahren - bzw. eine bestimmte Klasse von Verfahren - als die einzig zulässigen herauskristallisieren. Erst durch eine solche Idealisierung von bestimmten Problemklassen lassen sich auch einige Teile der algorithmischen Information, die für das Hervorbringen intelligenten Verhaltens erforderlich ist, als Prinzipien gegenüber dem übrigen Teil der algorithmischen Information auszeichnen.


Eine mögliche Trennung könnte beispielsweise wie folgt aussehen:

Wie oben ausgeführt, scheint eine solche Unterteilung allerdings nicht angemessen zu sein. Aber wie sollte stattdessen eine angemessene Unterteilung aussehen ?

Welche Unterteilung auch vorgenommen wird, das was dann als Prinzipien bezeichnet wird, wird eine bestimmte Klasse von Problemen lösen können. Wahrscheinlich werden die Prinzipien so allgemein sein, daß eine unendliche Problemklasse von den Prinzipien `gelöst' werden kann. Diese unendliche Problemklasse kann unmöglich aus der Erfahrung stammen. Sie kann vielmehr nur eine Extrapolation von einer endlichen Zahl von Probleminstanzen sein, die aus der Erfahrung stammen können.

Wohingehend die Extrapolation durchgeführt wird, kann damit nur durch platonische Ideen begründet werden. Daß dies problematisch ist - auch für die Praxis der Forschung in der künstlichen Intelligenz - zeigen unter anderem die bisherigen Mißerfolge.

Beispielsweise geht der Trend im Bereich der Wissensrepräsentation und der Deduktionssysteme mittlerweile dahin, Formalismen wie die Prädikatenlogik deutlich einzuschränken, so daß nicht nur vollständige und korrekte Ableitungskalküle existieren, sondern     auch effiziente Ableitungsverfahren. Es werden Überlegungen angestellt, die Vollständigkeit aufzugeben, um effiziente Verfahren zu erhalten. Man versucht sogar aus Komplexitätsgründen auf Konsistenz im großen Rahmen zu verzichten, um aus inkonsistenten Datenbasen trotzdem noch einigermaßen nützliche Schlüsse zu ziehen.7.9

Der Leitgedanke bei den Deduktionssystemen, mächtige Formalismen für unendliche Objektbereiche und beliebig große Formelmengen möglichst mit vollständigen und korrekten Ableitungsverfahren zu entwickeln, hat insofern den Erfolg in der künstlichen Intelligenz sicher nicht beflügelt, sondern eher behindert !

Wie in Abschnitt 4.2.2 bereits erwähnt, sind derzeit neue Ansätze in der künstlichen Intelligenz bzw. der Kognitionswissenschaft populär geworden, deren Vertreter sich die Entdeckung der allgemeinen Prinzipien von Intelligenz bzw. menschlicher Kognitionen versprechen.


next up previous contents index
Next: Methodologischer Zirkel bei der Up: Methodologische Probleme der künstlichen Previous: Methodologische Probleme der künstlichen
Achim Hoffmann
2002-07-12