Sei n die Zahl der Objekte in X. Dann gibt es 2n verschiedene Teilmengen oder Hypothesen über X. Weiterhin gibt es 22n verschiedene Hypothesenmengen über X.
Das heißt, um eine beliebige Hypothesenmenge beschreiben zu können, werden mindestens Binärzeichen benötigt. Eine allgemeine Lerntheorie muß eine konstante und wird in der Regel eine verhältnismäßig geringe Komplexität (Länge) haben. Dabei soll sie auf beliebige Bereiche anwendbar sein.
Für die folgenden asymptotischen Betrachtungen
wird weiter von den
folgenden Vereinbarungen ausgegangen.
Sei X eine abzählbare Menge. Sei
,
eine
unendliche Menge von Teilmengen von X, wobei gilt:
,
wenn i < j.
Sei
eine unendliche Menge von Hypothesenmengen
wobei gilt:
.
Zum Beispiel könnte HMN die Menge aller Mengen von
aussagenlogischen Formeln mit höchstens 17 Disjunktionstermen in disjunktiver
Normalform über 1, 2, 3,
Aussagenvariablen sein.
Das notwendige asymptotische Wachstum von Hypothesenmengen
Im allgemeinen kann man wohl davon ausgehen, daß die zu lernenden Hypothesen bzw. Klassifikationsregeln bei zunehmendem Umfang des Anwendungsbereiches immer komplizierter werden. Die Klassifikationsregeln müssen in den umfangreicheren Bereichen mehr Randbedingungen explizit enthalten, unter denen sie gelten.
Der Zusammenhang aus Theorem 1 läßt sich für asymptotische Betrachtungen wie folgt formulieren:
Beweis siehe Hoffmann [Hof91a].
Obiges Theorem zeigt das Verhältnis von Hypothesenkomplexität zu
Hypothesenzahl in einer Hypothesenmenge bei sehr großer
Komplexität. das Verhältnis gilt ungeachtet des betrachteten Lernverfahrens.
Es zeigt, daß die Zahl der Hypothesen
exponentiell mit der Komplexität der kompliziertesten
Hypothese ansteigt. Daraus
resultiert das folgende Dilemma, bei dem
Versuch eine allgemeine formale Lerntheorie aufzustellen, die auch in der Lage ist, auf komplexe Hypothesen zu schließen:
Entweder muß diese Lerntheorie sehr lang sein, oder aber
sie muß mit einer sehr großen Menge von Erfahrungsdaten versorgt werden,
um eine entsprechend komplexe Hypothese zu gewinnen.
Anders ausgedrückt bedeutet dies, wenn eine kurz zu beschreibende
formale Lerntheorie in der Lage ist, komplexe Hypothesen zu bilden,
dann muß die zugrunde liegende Hypothesenmenge auch noch eine Vielzahl anderer,
ebenso komplexer Hypothesen enthalten.
Dies impliziert, daß eine entsprechend große Menge an Erfahrungsdaten
erforderlich ist, um die vielen Konkurrenzhypothesen der Zielhypothese
ausschließen zu können.
Theorem 1 und 2 spiegeln einen fundamentalen Sachverhalt wider. Es zeigt den Zusammenhang auf, zwischen dem Informationsgehalt einer Lerntheorie, der Information in den Erfahrungsdaten und der Information, die in der resultierenden Hypothese enthalten ist. Im folgenden Abschnitt wird gezeigt, was dies für das induktive Schließen aus Beispielen im Rahmen des wahrscheinlich annähernd korrekten Lernens bedeutet.
Es lassen sich verschiedene Arten unterscheiden, wie Erfahrungsdaten für Induktionsschlüsse gesammelt werden. Im folgenden werden die Konsequenzen des obigen Sachverhaltes für das induktive Schließen im Rahmen des wahrscheinlich annähernd korrekten Lernens untersucht. Dafür kann die folgende Untergrenze für die Zahl von erforderlichen Beispielen angegeben werden.
Für einen Beweis siehe Hoffmann [Hof91a].
Die Zahl der benötigten Beispiele wächst also asymptotisch
mindestens linear mit der
Komplexität der kompliziertesten Hypothese in der betrachteten
Hypothesenmenge.
In der Praxis können Menschen im Gegensatz dazu häufig aus sehr
viel weniger Beispielen verlässliche induktive
Schlüsse ziehen.7.22