next up previous contents index
Next: Einige kombinatorische Überlegungen Up: Effektive Berechenbarkeit und die Previous: Universelle Turingmaschinen

        
Algorithmische Informationstheorie -
Kolmogoroffkomplexität

Die algorithmische Informationstheorie ist ein kleiner und wenig bekannter Zweig der Informatik. Heute wird er im wesentlichen als Teilgebiet der Komplexitätstheorie behandelt. Entstanden ist dieses Gebiet in den sechziger Jahren durch drei voneinander unabhängige Arbeiten, die kurz hintereinander veröffentlicht wurden. Alle drei Arbeiten befaßten sich mit dem Problem der kürzestmöglichen Beschreibung einer gegebenen Zeichenkette. Die drei Autoren waren R. J. Solomonoff, A. N. Kolmogoroff und G. J. Chaitin. Solomonoff war ein Schüler Carnaps, der sich im Rahmen des Induktionsproblems damit beschäftigte, wie Beobachtungsdaten möglichst kompakt dargestellt werden können und dadurch zu induktiven Schlüssen führen. Seine Untersuchungen sind in seinem Artikel A Formal Theory of Inductive Inference 1964 Solomonoff[Sol64] erschienen. Der zweite Autor - der russische Mathematiker A.N. Kolmogoroff führte derartige Betrachtungen in seiner Arbeit Three Approaches to the Quantitative Definition of Information 1965 Kolmogoroff[Kol65] ein. Nach ihm wird heute auch die Länge der kürzesten Beschreibung einer Zeichenkette Z als die Kolmogoroffkomplexität von Z, K(Z)bezeichnet. Chaitins Arbeit On the Length of Programs for Computing Finite Binary Strings Chaitin[Cha66] wurde 1966 veröffentlicht.

Die minimale Länge der Beschreibung einer Zeichenkette kann von dem jeweiligen Aufbau der betrachteten universellen Turingmaschine abhängen. Daher sollen für weitere Betrachtungen die folgenden Dinge wie folgt festgelegt werden.

Ein grundlegendes Theorem der algorithmischen Informationstheorie ist das sogenannte Invariance Theorem welches besagt, daß der besondere Aufbau der betrachteten universellen Turingmaschine U lediglich einen Unterschied in der Kolmogoroffkomplexität einer Zeichenkette Z von einer Konstanten c ausmacht. Dies läßt sich einsehen, indem man sich überlegt, daß auf jeder universellen Turingmaschine U jede andere universelle Turingmaschine U' durch ein Programm von fester Länge c simuliert werden kann. Mithin ist c als eine kleine Zahl anzunehmen, wenn man von überschaubaren Varianten einer universellen Turingmaschine ausgeht (ihre Beschreibung darf nicht zu lang werden). Das Invariance Theorem ist geradezu Voraussetzung für die algorithmische Informationstheorie, da ansonsten alle Aussagen stets auf eine spezifische universelle Turingmaschine bezogen werden müßten. Im Gegensatz dazu kann man aufgrund des Invariance Theorems von der Komplexität sprechen, die den Zeichenketten inhärent ist und nicht von einem Interpretationsmechanismus abhängt.

Das Invariance Theorem ist die theoretische Grundlage dafür, daß man von der Komplexität von Zeichenketten in einem gewissen absoluten Sinn sprechen kann.

Diese Tatsache der absoluten Komplexität von Zeichenketten, das heißt, der Unmöglichkeit Zeichenketten unter eine bestimmte Mindestlänge zu komprimieren - sie nicht kürzer beschreiben zu können, soll Gegenstand der nachfolgenden Kapitel sein.



 
next up previous contents index
Next: Einige kombinatorische Überlegungen Up: Effektive Berechenbarkeit und die Previous: Universelle Turingmaschinen
Achim Hoffmann
2002-07-12