next up previous contents index
Next: Grundlagen Up: Inhalt Previous: Inhalt

Einleitung

Wie kann ein Etwas - ein Mensch, ein Tier oder ein Roboter - Erkenntnis über seine Umwelt durch seine Sinne erlangen und diese Erkenntnis dazu nutzen, um in irgendeiner Hinsicht zielorientiert zu agieren ?

Dies sind alte Fragen der Philosophie - sie könnten aber auch das Gegenstandsgebiet der künstlichen Intelligenz charakterisieren.

Insofern könnte man sagen, künstliche Intelligenz behandelt im großen Maßstab betrachtet philosophische Fragen.

Wichtige Fragen der täglichen Arbeit in der künstlichen Intelligenz sind beispielsweise: Was ist Bedeutung ? Was ist Rationalität ? Was ist vernünftiges Schließen ? Wie lassen sich Entscheidungen treffen und begründen ? etc.

Umgekehrt liegt es ebenfalls auf der Hand, daß philosophische Theorien zu den genannten Fragestellungen auch Eingang in die künstliche Intelligenz finden.


In der Philosophie ist die Frage nach der Natur von Bewußtsein, von Absichten, Intentionen, etc. und wie sie im Zusammenhang mit materiellen Gehirnsubstanzen oder gar mit künstlich intelligenten Wesen gedacht werden kann, von erheblichem Interesse.

Der Funktionalismus geht beispielsweise von der Annahme aus, daß jedem Bewußtseinszustand, jedem intentionalen Zustand ein entsprechender funktionaler Zustand des menschlichen Gehirns, bzw. eines anderen Trägersystems, korrespondiert.1.1

D.h. das `Trägersystem' kann eine Menge von funktionalen Zuständen einnehmen, und zwar derart, daß die Zustandsübergänge innerhalb des `Trägersystems' genau zu den Veränderungen der Bewußtseinszustände korrespondieren.

Somit will der Funktionalismus also Bewußtseinszustände durch die Angabe jeweils entsprechender Dispositionen, aus einem gegebenen Bewußtseinszustand in einen anderen Bewußtseinszustand überzugehen, bzw. bestimmtes Verhalten zu zeigen, erklären. Damit könnten Bewußtseinszustände auch durch ein entsprechendes Computerprogramm und einem je korrespondierenden Abarbeitungszustand erklärt werden. Fodor Fodor[Fod75] vertritt diesen Funktionalismus und zwar in der Form, daß er eine angeborene Lingua mentis voraussetzt, die bereits alle je erforderlichen Elemente für eine mentale Repräsentation beinhaltet. Hierin geht Fodor weiter als Chomsky, der die Idee einer angeborenen universalen Tiefengrammatik für die menschliche Sprachfähigkeit vertritt.1.2 Während Chomsky sich auf die rein syntaktischen Strukturen beschränkt, bezieht sich Fodor auf semantische Repräsentationen.

Putnam Putnam[Put91] führt unter anderem als Argumente gegen den Funktionalismus den `Bedeutungsholismus'1.3 an. Vor dem Hintergrund einer holistischen Sichtweise sei es schwer einzusehen, wie elementare semantische Einheiten für sich genommen eine spezifische Bedeutung haben sollen. Block Block[Blo78] führt eine Reihe von Argumenten an, die es unplausibel erscheinen lassen, daß sich Bewußtsein auf bloße funktionale Beziehungen gründen könnte und damit unabhängig vom menschlichen Gehirn möglich wäre. Hierbei wird insbesondere auf Qualia eingegangen, das sind Bewußtseinsphänomene wie Schmerzempfindungen, die mehr sein müssen, als nur die physischen Reaktionen, z.B. ein verzerrtes Gesicht. In dieser Arbeit soll die Bewußtseinsproblematik allerdings ganz ausgeklammert werden, da sie von keinerlei Bedeutung für die folgenden Betrachtungen ist.



Der Gegenstand der Arbeit ist die Komplexität der Beschreibung einer künstlichen Intelligenz1.4 bzw. einer deskriptiven Theorie menschlicher Kognitionen. Für beide Fragestellungen spielt das Bewußtsein keine Rolle, da es lediglich um die Beschreibung und deren Eigenschaften von Intelligenzphänomenen geht, nicht aber um das Intelligenzphänomen selbst.


Der Wunsch, intelligente Wesen künstlich zu erzeugen, ist sehr alt; er läßt sich bis in die griechische Mythologie zurückverfolgen McCorduck[McC79]. Aber erst durch die Erfindung des Computers, der die Konstruktionsmöglichkeiten von mechanischen Apparaturen in ihrer Vielfältigkeit unglaublich weit übertrifft, wurden die Voraussetzungen für eine künstliche Intelligenz geschaffen, für deren Durchführung bereits erste Pläne weit vorher (z.B. bei Babbage Babbage[Bab70]) existierten. Der Forschungsbereich der künstlichen Intelligenz - kurz KI - hat sich vor etwas mehr als drei Jahrzehnten konstituiert. Vielleicht ist hier Alan M. Turing mit seinem Artikel Computing machinery and Intelligence 1950 Turing[Tur50] als einer der Pioniere zu nennen. Als eigentliche Geburtsstunde der heutigen künstlichen Intelligenz oder vielleicht genauer der Artificial Intelligence gilt die Dartmouth-Konferenz, die im Jahre 1956 stattfand. Seitdem haben zahlreiche Fachtagungen stattgefunden.


Auf den meisten internationalen Konferenzen zur künstlichen Intelligenz werden regelmäßig auch philosophische Beiträge vorgetragen, wodurch Einsichten in die Probleme der künstlichen Intelligenz gewonnen werden sollen. Aber auch für die Philosophie konnten neue Einsichten aus der künstlichen Intelligenz gewonnen werden: Beispielsweise weist Frixione Frixione[Fri91] auf die Entwicklungen in der Logik hin, die in der KI von der antipsychologistischen Annahme der umfassenden deduktiven Rationalität hin zu Modellen führen, die Inkonsistenzen in großen Aussagensystemen zulassen, ohne daß dadurch jede Aussage als wahr abgeleitet werden kann, wie es bei der klassischen Logik der Fall ist. McCarthy McCarthy[McC88] sieht die Möglichkeit, daß man in der KI so etwas wie eine Metaerkenntnistheorie entwickelt, die ähnlich wie die Metamathematik in der Mathematik, Aussagen über Möglichkeiten und Grenzen von bestimmten Erkenntnistheorien macht.1.5 Aber auch in kleinerem Maßstab kann die KI philosophische Einsichten fördern. Beispielsweise weist Münch Münch[Mün90] darauf hin, daß möglicherweise die Frühwerke Husserls erst durch die Entwicklungen der heutigen KI angemessen rezipiert werden können.


Die künstliche Intelligenz, der man große Erfolge schon für die 60er Jahre vorhersagte, stieß in den vergangenen Jahrzehnten jedoch auf größere Probleme, so daß ihre Erfolge weit unter den Erwartungen blieben. Allerdings gab es schon von Anbeginn Zweifel, ob menschliche Intelligenz überhaupt algorithmisch beschreibbar ist.

Schon vor der eigentlichen `Geburtsstunde' der künstlichen Intelligenz, wurde die Frage nach ihren Grenzen diskutiert. Alan M. Turing, der 1937 die nach ihm benannte Turingmaschine entwickelte, erörterte 1950 in seinem bereits erwähnten Artikel Computing machinery and intelligence Turing[Tur50] die Frage, ob Maschinen denken können. Die Turingmaschine wird allgemein als das theoretische Modell heutiger Computer betrachtet. Turing präzisierte in dem Begriff seiner Turingmaschine die intuitive Vorstellung dessen, was als durch Verfahrensregeln effektiv konstruierbar bzw. berechenbar gilt. Turing bemühte sich festzustellen, welche Prozesse sich durch eindeutige Regeln beschreiben lassen und damit deterministisch ablaufen. Ob die Aktivitäten des menschlichen Geistes, die menschliche Willensbildung oder das menschliche Denken deterministisch ablaufen, beschäftigte die Menschen allerdings schon sehr viel länger. Schon bei den Vorsokratikern, den frühen Atomisten, kam eine Diskussion um die Frage auf, ob der Mensch determiniert sei. In der heutigen Debatte um die Grenzen der künstlichen Intelligenz läßt sich zwar nicht genau diese Frage wiederfinden, es bestehen aber trotzdem sehr beachtliche Parallelen. Die alten Griechen hatten in erster Linie das Problem zu klären, wie eine deterministische Welttheorie, beispielsweise der Atomismus des Demokrit, mit dem wohl jedem Menschen vertrauten Gefühl der Freiheit sich für bestimmte Handlungen entscheiden zu können, vereinbaren läßt. Demgegenüber ist in der Debatte um die künstliche Intelligenz die Frage zu klären, ob wir das, was wir als Intelligenz bezeichnen, bei Maschinen wiederfinden können. Waren bis vor einigen Jahrzehnten Maschinen, die komplizierten Regeln deterministisch folgen noch nicht technisch realisierbar, so lassen sich heute und noch mehr in naher und fernerer Zukunft Maschinen konstruieren, die Millionen oder sogar Milliarden von Regeln folgen können. Nichtsdestotrotz gelang es dem Logiker Kurt Gödel bereits 1931 Gödel[Göd31] - also vor mehr als 50 Jahren - zu zeigen, daß es kein endliches formales System gibt, mit dessen Hilfe sich genau alle wahren Formeln der elementaren Arithmetik ableiten lassen. Diese Aussage zusammengenommen mit der allgemeinen Anerkennung der Turingmaschine als Modell beliebiger technisch realisierter Maschinen hat allerdings zur Folge, daß es auch nie eine Maschine geben wird, die genau alle wahren Sätze der elementaren Arithmetik konstruieren kann.

Ein Unterschied in der Fragestellung der griechischen Antike gegenüber der heutigen Diskussion um die künstliche Intelligenz liegt darin, daß man bei der KI nur von einer endlichen Zahl von Regeln, nach denen eine Maschine arbeitet, ausgeht. Die Griechen hingegen befaßten sich mit mit der metaphysischen Determinismusproblem, welches unabhängig von der Natur eines eventuell zugrunde liegenden Regelschemas zu behandeln ist. Daß die Tatsache, daß Maschinen nur endlich vielen Regeln folgen, nicht völlig unerheblich ist, zeigt genau das Gödelsche Ergebnis von 1931. Es gibt eben kein endliches Axiomensystem, und damit auch kein endliches Regelwerk und keinen Algorithmus, aus dem genau alle wahren Sätze der Arithmetik abgeleitet werden können. Aufgrund dieses Ergebnisses wurden in der Tat eine Reihe von Versuchen unternommen zu beweisen, daß eine künstliche Intelligenz - eine Maschinenintelligenz - von vornherein unmöglich ist.1.6


Auf der anderen Seite wurden in den letzten Jahren immer häufiger Argumente gegen die Möglichkeit einer künstlichen Intelligenz vorgebracht, die sich auf die Phänomenologie Heideggers gründen.

Heidegger setzte seine Phänomenologie der Alltäglichkeit der Phänomenologie seines Lehrers Edmund Husserl entgegen, die sich primär mit Erscheinungen in der wissenschaftlich-philosophischen Reflexion beschäftigte. Heidegger untersuchte hingegen, wie uns die Welt im alltäglichen Umgang begegnet. Damit kontrastierte er in Sein und Zeit die modelltheoretisch orientierte Sichtweise der 20er Jahre, die vielleicht am deutlichsten in Wittgensteins Tractatus-logico-philosophicus ihren philosophischen Ausdruck fand. Heidegger hingegen entwickelte seinen Begriff von Zuhandenheit. Die Zuhandenheit meint, daß Gegenständlichkeiten im alltäglichen Lebensvollzug gar nicht erst bewußt werden - gar nicht erst thematisiert werden - eben nur zuhanden sind. Im Gegensatz dazu steht bei Heidegger die Vorhandenheit. Die bewußte Reflexion einer konkreten Ontologie, von vorhandenen Gegenständen, wie es die modelltheoretische Vorstellung vorgibt, geschieht nur in besonderen Situationen.

Der weitaus unter den Prophezeiungen der sechziger Jahre zurückgebliebene Fortschritt der Forschung in der künstlichen Intelligenz und deren praktische Anwendungserfolge trugen erheblich dazu bei, daß immer mehr Stimmen laut wurden, die die generellen Möglichkeiten einer maschinellen Intelligenz in Zweifel zogen. An dieser Stelle kam die Philosophie Heideggers als tiefsinnige Fundierung der Kritik sehr willkommen. Sie wurde von Dreyfus bereits 1965 Dreyfus[Dre65] in diesen Zusammenhang gebracht - zu einer Zeit, in der sie zunächst wenig beachtet wurde.

Im wesentlichen wird Heideggers Sein und Zeit in diesem Zusammenhang so interpretiert, daß Heidegger nachwies, daß das menschliche Denken nicht stereotypen Regeln folgt; ja daß das menschliche Denken sich nicht einmal an festen ontologischen Vorstellungen orientiert. Beides wird hingegen Maschinen als inhärente Eigenschaft zugeschrieben, - sie müssen stereotypen Regeln folgen und dabei mit einer festen Repräsentation einer Ontologie arbeiten und unterscheiden sich bereits allein darin fundamental vom menschlichen Denken.

Im folgenden werden dreierlei Regelbegriffe verwendet werden: Der algorithmische Regelbegriff   wird in Kapitel 3 formal eingeführt. Im Gegensatz dazu wird der philosophische Regelbegriff verwendet werden, welcher in Abschnitt 8.1 erläutert wird. Der Terminus der stereotypen Regel   soll als vorwissenschaftlicher Begriff des algorithmischen Regelbegriffs verstanden werden.


Auch neuere erkenntnistheoretische Sichtweisen, wie Wittgensteins Spätphilosophie, die sich in seinen Philosophischen Untersuchungen niederschlug, oder damit eng verwandte Sichtweisen, wie der Quine'sche Holismusgedanke, betonen die enorme Komplexität menschlicher Begriffs- bzw. Sprachverwendung. Dadurch, durch die genannten phänomenologisch motivierten Kritiken an der traditionellen künstlichen Intelligenz und durch einige technische Neuerungen, kam in den 80er Jahren ein Trend in der künstlichen Intelligenz auf, der bereits Ende der 50er Jahre schon einmal eine Blüte erlebte.

Neuronale Netzwerke, heute oft auch als konnektionistische Systeme bezeichnet, geben aufgrund der genannten philosophischen Sichtweisen Hoffnung zu einem neuen, erfolgreicheren Weg zu einer künstlichen Intelligenz.

Diese Forschungsrichtung, der Konnektionismus, scheint vielen der in der philosophischen Erörterung deutlich gewordenen Eigenschaften menschlichen Denkens zu entsprechen. Hier wird eine künstliche Intelligenz angestrebt, die sich gänzlich von dem symbolischen, dem programmorientierten Ansatz zu einer künstlichen Intelligenz entfernt.

Die Unzulänglichkeiten der symbolischen künstlichen Intelligenz werden im konnektionistischen Ansatz vielfach als überwunden angesehen. Smolensky Smolensky[Smo88] und andere sehen daher den Konnektionismus auch als adäquate theoretische Grundlage einer Kognitionswissenschaft.

Die Kognitionswissenschaft, als die Wissenschaft vom menschlichen Denken, muß natürlich die philosophischen Erkenntnisse noch eher berücksichtigen, als eine künstliche Intelligenz, die im wesentlichen daran interessiert ist, das Ergebnis menschlichen Denkens nachzubilden. Schließlich gelingt es Flugzeugen auch auf andere Weise zu fliegen, als ihren natürlichen Vorbildern - den Vögeln. Insofern könnte man sich eine künstliche Intelligenz, die auf ganz andere Weise zu intelligenten Leistungen kommt als der Mensch, noch vorstellen, doch eine Kognitionswissenschaft soll das spezifisch menschliche Denken beschreiben.

Wie bereits erwähnt, hatte die künstliche Intelligenz weit geringere Erfolge zu verzeichnen, als man in den 60er Jahren vorhersagte. Dabei hatte man in den darauffolgenden Jahrzehnten zahlreiche Ansätze zur Modellierung menschlicher Intelligenzleistungen entwickelt. Viele Ansätze erschienen anfänglich durchaus vielversprechend. Doch ließ sich generell die Tendenz feststellen, daß sich die Ansätze weitaus weniger nutzbringend für die Lösung sogenannter `real-world problems'1.7 einsetzen liessen, als für die ursprünglich konzipierten `Testprobleme'1.8 mit denen die Ansätze während ihrer Entwicklungszeit geprüft wurden.


In der kontrovers diskutierten Frage nach den Grenzen der künstlichen Intelligenz nahm die Arbeit ihren gedanklichen Ursprung.1.9 Der Frage also, ob menschliche Denkprozesse algorithmisch sind ? Beide Positionen erscheinen plausibel:

Beide Positionen gehen von unterschiedlichen Voraussetzungen aus: Im ersten Fall werden die hervorzubringenden Intelligenzleistungen fixiert und ein geeigneter Algorithmus angegeben. Im zweiten Fall wird ein Algorithmus fixiert und eine Intelligenzleistung gefordert, die der Algorithmus nicht erfüllen kann.

Diese Problematik läßt sich - solange man endliche Mengen von Intelligenzleistungen betrachtet, nicht lösen. Dies liegt an der Inadäquatheit des Algorithmenbegriffs für diese Fragestellung, wie er in seiner formalen Definition für mathematische Zwecke und potentielle Unendlichkeiten in der bekannten Form1.11 vorliegt. Im Bereich von Intelligenzleistungen, die auch von Menschen hervorgebracht werden können, - insbesondere wenn man an bestimmte Anwendungen wie medizinische Diagnose, Konstruktionsaufgaben etc. denkt, bewegt man sich zunächst immer im endlichen Bereich. Eine unendliche Menge von intelligenten Leistungen eines Menschen muß Spekulation bleiben, solange Menschen nur eine endliche Zeit leben. Für eine Diskussion um die Grenzen der KI auf der Basis von endlichen Mengen von Intelligenzleistungen muß auch der Algorithmenbegriff entsprechend eingeschränkt werden. Genauer - die Länge eines zu betrachtenden Algorithmus darf nicht beliebig sein, sondern muß durch eine Maximalzahl von Regeln, oder eine maximale Programmlänge eingeschränkt sein. Dann erst kann man sinnvoll über Grenzen einer künstlichen Intelligenz sprechen.

Somit entwickelte sich die Arbeit aus der Neubetrachtung vieler Fragestellungen zum Thema einer möglichen künstlichen Intelligenz bzw. der algorithmischen Natur menschlicher Denkprozesse auf der Basis des modifizierten Algorithmenbegriffs. Dies bezieht sich nicht nur auf philosophische Kritiken an der KI, wie der von Dreyfus, sondern geht über metaphorische Nachbildungen des menschlichen Gehirns durch künstliche neuronale Netze oder der Selbstorganisation eines kognitiven Systems bis zum Begriff der Kreativität. Eine besondere methodologische Problematik in der KI und der Kognitionswissenschaft, die aufgrund der nun in den Vordergrund getretenen Endlichkeit von Mengen von zu fordernden Intelligenzleistungen bzw. von zu beschreibenden Denkprozessen deutlich wurde, wird im zweiten Teil der Arbeit behandelt.

Zu der genannten Einschränkung des zu betrachtenden Algorithmenbegriffs bot sich der formale Begriff der Kolmogoroffkomplexität an. Der Begriff der Kolmogoroffkomplexität befaßt sich mit der Beschreibungskomplexität von Zeichenketten, welche zur Beschreibung von Intelligenzphänomenen genutzt werden können. Hierbei konnte gezeigt werden, daß sich in einem gewissen absoluten Sinn von der Komplexität einer Zeichenkette sprechen läßt. Die Kolmogoroffkomplexität mißt dabei die kürzestmögliche Beschreibung einer Zeichenkette. Ursprünglich wurde dieser Begriff von A. N. Kolmogoroff entwickelt, um einer mathematischen Fassung von Zufall näher zu kommen.1.12

Die Kolmogoroffkomplexität kann auch als Maß für die Zahl von Regeln aufgefaßt werden, die notwendig sind, um gegebene Phänomene - z. B. konkrete Intelligenzleistungen - zu beschreiben oder zu erklären.

Aus der neuen Perspektive der Kolmogoroffkomplexität wird in der Arbeit zunächst eine methodologische Erklärung für das häufige Scheitern der vielen Ansätze zu einer künstlichen Intelligenz an `real-world problems' gegeben. Für die Diskussion um die Adäquatheit des symbolischen bzw. des konnektionistischen Ansatzes für die künstliche Intelligenz bzw. für die Kognitionswissenschaft ermöglicht die Perspektive neue grundlegende Einsichten. Erkenntnistheoretische und sprachphilosophische Positionen werden unter dem Komplexitätsaspekt in Beziehung zu einer möglichen künstlichen Intelligenz gesetzt. Letztlich wird noch die Frage nach den Grenzen der künstlichen Intelligenz mittels des Begriffs der Kolmogoroffkomplexität einer scharfen Präzisierung zugeführt.


Die Arbeit ist wie folgt aufgebaut:


Im ersten Teil wird in die künstliche Intelligenz, in die Grundbegriffe der theoretischen Informatik sowie in Ideen zu einer Grundlegung der Kognitionswissenschaft eingeführt. Dazu wird im folgenden Kapitel zunächst ein grober Überblick über die künstliche Intelligenz gegeben. Im dritten Kapitel wird auf die theoretischen Grundlagen von deterministisch arbeitenden Maschinen eingegangen werden. Am Ende dieses Kapitels wird der zentrale Begriff dieser Arbeit, der Begriff der algorithmischen Information bzw. der Kolmogoroffkomplexität eingeführt. In Kapitel 4 werden verschiedene Positionen zur Frage der Repräsentation von Wissen dargestellt sowie ein Versuch der Fundierung der Kognitionswissenschaft vorgestellt.


Im zweiten Teil der Arbeit werden wissenschaftstheoretische Betrachtungen zu einer Methodologie der künstlichen Intelligenz und Kognitionswissenschaft angestellt. Zu diesem Zweck wird zunächst im fünften Kapitel die philosophische Diskussion um das Universalienproblem kurz referiert. Die Frage nach dem Ursprung von Universalien erscheint für eine angemessene Eingrenzung des zu untersuchenden Phänomenbereichs in der künstlichen Intelligenz und Kognitionswissenschaft erforderlich. Im darauffolgenden Kapitel wird auf methodologische Probleme einer Wissenschaft eingegangen, die versucht komplexe Phänomene durch generelle Prinzipien zu beschreiben. Hier wird deutlich werden, daß eine scharfe Abgrenzung des Allgemeinbegriffs von Intelligenz bzw. von Kognitionen von besonderer Bedeutung ist. In der Tat läßt sich ein methodologischer Zirkel aufweisen, der bei der gängigen Herangehensweise in zumindest einem Teilgebiet der künstlichen Intelligenz besteht:

Durchgeführte Fallstudien in Experimentalwelten bestätigen im wesentlichen lediglich, was bei der Konzeption der Fallstudie bereits implizit angenommen wurde.
Dies wird am Beispiel des maschinellen Lernens ausgeführt.


Im dritten Teil der Arbeit wird auf die Zusammenhänge des in der Arbeit eingenommenen Komplexitätsblickwinkels mit verschiedenen neueren philosophischen Positionen eingegangen.

Dabei wird zunächst der Zusammenhang zwischen aktuellen philosophischen Kritiken an der (symbolischen) künstlichen Intelligenz und dem Begriff der Kolmogoroffkomplexität erörtert. Hierbei geht es insbesondere um die phänomenologische Kritik an der künstlichen Intelligenz von Dreyfus und Winograd & Flores.

Kapitel acht behandelt sprachphilosophisch-erkenntnistheoretische Positionen in diesem Zusammenhang. Ein Trugschluß wird bei der häufig durch philosophische Überlegungen (z.B. Wittgensteins Regelbegriff) begründeten Forderung nach subsymbolischen bzw. konnektionistischen Systemen aufgezeigt. Die Forderung ist nur formal, d.h. äußerlich, nicht aber in ihrer inhaltlichen Füllung gerechtfertigt. Formal gesehen, ist komplexes sinnvolles Verhalten von zufälligem Verhalten nicht zu unterscheiden. (In beiden Fällen ist die Verhaltensbeschreibung von hoher Kolmogoroffkomplexität.) Der Unterschied zeigt sich erst im konkreten Inhalt; welches Verhalten in welcher Situation gezeigt wird.

Im neunten Kapitel wird die vieldiskutierte Frage nach den prinzipiellen Grenzen der künstlichen Intelligenz erörtert und durch eine Einschränkung präzisiert.

Hierbei werden auch die Grenzen der in der Arbeit vorgelegten Argumentation - nämlich die Begrenzung auf das Turingmaschinenmodell - diskutiert. Dem Argument, daß mögliche physikalische Systeme mit analogen und/oder asynchronen Signalen nicht durch Turingmaschinen zu modellieren sind, und mithin eine Argumentation basierend auf dem Turingmaschinenmodell hinfällig ist, wird ein komplexitätstheoretisches Argument entgegengesetzt. Argumente gegen die Möglichkeit einer KI die sich auf das menschliche Bewußtsein berufen, werden ebenfalls behandelt.

Im Schlußkapitel werden die in der Arbeit neu aufgeworfenen Gesichtspunkte noch einmal kurz angesprochen. Es werden Konsequenzen der in der Arbeit vorgestellten Überlegungen für die Philosophie sowie für die Forschung in der künstlichen Intelligenz aufgezeigt. Mögliche weitergehende Forschungsarbeiten werden umrissen sowie deren potentielle Konsequenzen für die Philosophie skizziert.


next up previous contents index
Next: Grundlagen Up: Inhalt Previous: Inhalt
Achim Hoffmann
2002-07-12