SUFI'S DRAI : Wozu Diskontexturalitäten in der AI ? von |
|
Die Polykontexturale Logik
geht von der Hypothese aus, daß sich die Welt des Wissens nicht unter ein einziges
Prinzip subsumieren läßt. Es wird angenommen, daß kein Mechanismus der
Vereinheitlichung des Wissens auffindbar sei, daß sich die Methoden des Wissenserwerbs
nicht homogenisieren lassen. Kurz, die Polykontexturalitätstheorie optiert, daß unsere
Welt als Pluri-versum und nicht als Universum verstanden werden muß. Diese Polykontexturalisierung der Welt gilt insbesondere für das Wissen (der Welt) selbst, soll es als innerweltliches Ereignis gelten können. Wissen ist danach immer schon als ein Vieles gedeutet: mehrdeutig, komplementär, komplex, polysemisch, disseminativ, unentscheidbar, antinomisch, spekulativ, usw. In welche Zirkularitäten der Konzeptionalisierung wir uns verstricken, wenn wir auf das Postulat der Eindeutigkeit und Linearität des Wissens setzen, hat Hubert Dreyfus in seinem Wien-Vortrag "Cybernetics as the last State of Metaphysics" 1968 für die AI-Forschung in Rückgriff auf die Hermeneutik Heideggers deutlich gemacht /1/. Dreyfus´ philosophische Kritik an Minsky´s Statement "There is no reason to suppose machines have any limitations not shared by men" besteht darin, daß er auf einen "infinite regress" bzw. circulus vitiosus aufmerksam macht. Wird nämlich vorausgesetzt, daß die Welt aus einer indefiniten Mannigfaltigkeit von Informationseinheiten (bits) besteht, dann muß eine Entscheidung, bzw. ein Kontext anerkannt werden, der angibt, welche Informationen für eine Berechnung relevant sind. Wird dies zugegeben, dann besteht die Welt nicht mehr homogen nur aus Informationen, sondern auch aus Kontexten von Informationen, im Widerspruch zur Annahme. Wird jedoch der Kontext zur Information erklärt, so entsteht der Zirkel, daß das, was die Information bestimmen soll, selbst Information ist. Wir stoßen hier auf das Problem des Verhältnisses von Information und Bedeutung. Nach dem klassischen Paradigma wird Bedeutung auf Information reduziert. Das transklassische Paradigma insistiert auf der Irreduzibilität von Information und Bedeutung /2, p.2/. Dreyfus hat bekanntlich daraus den Schluß gezogen, daß diese Zirkularität (des hermeneutischen Zirkels) die prinzipiellen Grenzen der AI-Forschung markiere, und somit das Minsky-Projekt unweigerlich zum Scheitern verurteilt sei. Die Voraussetzung in der Argumentation, die Dreyfus mit Minsky teilt, ist die Anerkennung der Alleinherrschaft der Formkonzeption der klassischen Logik und ihrer semiotisch begründeten Operativität. Beide akzeptieren, wenn auch mit entgegengesetzten Konsequenzen, die Unhintergehbarkeit der klassischen Logik als Organon (der AI-Forschung und -Entwicklung). Der polykontexturale Ansatz teilt vorerst mit Dreyfus den Phänomenbestand des hermeneutischen Zirkels und akzeptiert damit die Ergebnisse aus der Tradition der ´transzendental-phänomenologischen-hermeneutischen-grammatologischen´ Logik, zieht daraus jedoch den Schluß, daß nicht die Struktur des Phänomenbestands sich einer Formalisierung prinzipiell entziehe, sondern daß der Mangel an Reichweite und Komplexität des Formalen bei der klassischen Logik zu suchen sei. Entweder ist die Struktur des Wissens, der Wissensrepräsentation und der Wissensproduktion, komplex und zirkulär und läßt sich daher nicht formalisieren, dann gilt die Feststellung Herbert Stoyans "Wissensbasierte Programme von heute wissen also nichts; auf sie ist der Begriff nicht anwendbar" nicht nur temporär, sondern prinzipiell; oder aber die philosophische und kognitionswissenschaftliche Tradition hat sich geirrt und Wissen ist logifizierbar, dann gibt es keinen Grund, warum nicht demnächst Stoyans Feststellung korrigiert werden muß /3, p.258/. Der polykontexturale Ansatz geht davon aus, daß die Komplexität und irreduzible Mehrdeutigkeit schon des elementarsten kognitiven Aktes der Wissensproduktion eine die Strukturgrenzen der Logik erweiternde transklassische Logik als Organon verlangt. Die Dreyfus´sche Kritik b1eibt dem Logozentrismus der HermeneutIk verhaftet: die Dichotomie ´Formalisierbarkeit des Binarismus vs. Nichtformalisierbarkeit ganzheitlicher Komplexionen´ ist Ausdruck einer einheitlichen auf Präsenz bezogenen Vorstellungsmetaphysik. In "Cognition and Volition: A Contribution to a Theory of Subjectivity", in "Innsbrucker Beiträge zur Kulturwissenschaft 1976", skizziert Gotthard Günther einen formalen und weitere Formalisierungsarbeiten leitenden Mechanismus des simultanen Zusammenspiels von kognitiven und volitiven Prozessen zur Erzeugung von Wissen, der sich nicht mehr in einer Präsenz versammeln läßt /4/. Wissen ist somit definiert durch eine Simultaneität von zwei ´parallel´ sich vollziehenden Prozessen:
Beide Prozesse konstituieren und restituieren sich gegenseitig, d.h. was für den einen Operator ist, ist für den anderen Operand und umgekehrt. Wegen ihrer Simultaneität, die nicht in der Zeit abläuft, sondern Zeit ermöglicht, ist eine Entkopplung des Zusammenspiels mit Hilfe einer Typentheorie nicht möglich. Die polykontexturale Logik bietet so den Sprachrahmen für das Wechselspiel von Programm und Datenstruktur als Operator und Operand. Wegen seiner Verortung in der Polykontexturalität fungiert ein Programm immer zugleich auch als Datenstruktur in einer anderen Lokalität, und eine Datenstruktur fungiert zugleich auch als Operator in einer anderen Kontextur. Geregelt wird dieses Spiel durch eine Auflösung des Identitätsprinzips in eine Dynamik von Selbigkeit und Gleichheit eines Objekts. Die Polykontexturalitätstheorie gibt den Sprachrahmen zur ´Darstellung´ komplexer linguistischer Strukturen und hat weitreichende Konsequenzen für die Konzeption der Operativität formaler Systeme. Analoge Zirkularitäten entstehen auch bei der Begründung der natürlichen Zahlen, wenn als Folge der Monokontexturalität der klassischen Arithmetik, die uneingeschränkte Gültigkeit des Prinzips der potentiellen Realisierbarkeit angenommen werden ums. /8/
Es ist eine natürliche Folge der Polykontexturalitätsthese, daß sich das Identitäts- und Linearitätsprinzip der natürlichen Zahlen auflöst:
Damit ist die Beweiskraft der Gödelschen Theoreme und ihre Relevanz für die AI-Forschung entschieden relativiert auf die Annahme identitiver formaler symbolverarbeitender Systeme, und die Frage Gerhard Frey's "Sind bewusstseinsanaloge Maschinen möglich?" ist wohl erneut zu stellen /9, 10/. "One final remark. When in the past philosophy has asked itself whether the very core of the soul is cognition and volition only its subordinate attribute, or whether subjectivity is basically volition with some secondary cognitive capacities, our own analysis suggests that the whole controversy of the primacy of reason or will has its origin in an illegitimate mataphysical assumption. Our classic tradition believed that not only bona fide objects but subjects also are positively identifiable. (A significant expression of it is Kant´s term "Ich an sich".) The transclassic logic denies the validity of this assumption. lt stipulates that subjects are only negatively identifiable. We shall explain what we mean by seeking an analogy in modern music. The English composer Edward Elgar once wrote a piece which he called "Enigma Variations". In this composition the variations of a theme are given but the theme itself is not stated. In our terminology: The theme is not positively identifiable only negatively. Likewise, our theme "subjectivity" is not stated if we speak of the I, the Thou, of cognition or volition. All these terms are only variations of a hidden theme which can never be directly identified. The Greek classic term for truth is Aletheia which means "that which is not concealed". To seek out that which is not concealed is the self-confessed aim of our classic scientific tradition. Cybernetics, however, will only attain its true stature if it recognizes itself as the science which reaches out for that which is hidden. /4, p.242/." veröffentlicht in ÖGAI-Journal (Tagung der Österreichischen Gesellschaft für Künstliche Intelligenz), Band 8 (1989) p.31-38 Rudolf Kaehr |
|
Literaturverzeichnis | |
/1/ Dreyfus,
H.L.: Cybernetics as the last State of Metaphysics. Akten des XVI. Int. Kongr. f. Philos.,
Wien, 1968.
/2/ Neue Tendenzen in der KI-Forschung, Metakritische Untersuchungen über den Stellenwert der Logik in der neueren Künstliche-Intelligenz-Forschung, BMFT u. Stiftung Warentest, Berlin, 1980. 2nd cit. /3/ Stoyan, H.: Wissen wissensbasierte Programme etwas? in: Heyer, G.; Krems, J.; Görz, G. (Hrsg.): Wissensarten und ihre Darstellung. Informatik Fachberichte 169, Berlin 1987. /4/ Günther, G.: Cognition and Volition. A Contribution to a Theory of Subjectivity, gekürzte Fassung in: Kanitscheider,B. (Hrsg.),Sprache und Erkenntnis, Festschrift für Gerhard Frey, Innsbruck (Innsbrucker Beiträge z. Kulturwissenschaft Bd.19) 1976. /5/ Kaehr, R.; Goldammer, E.v.: Again Computers and the Brain, J.of Molecular Electronics, Vol. 4 S31-S37 (1988). /6/ Kaehr,R.; Goldammer, E.v.: ´Lernen´ in Maschinen und lebenden Systemen. Design und Elektronik, 21.März 1989. /7/ Günther G.: Natural Numbers in Trans-Classic Systems, J. of Cybernetics, Vol. 1, No. 3 (1971). /8/ Parikh, R.J.: Existence and Feasibility in Arithmetic, Research Report, Boston University, 1971. /9/ Frey, G.: Sind bewußtseinsanaloge Maschinen möglich? Studium Generale, Jahrgang 19, Heft 3 (1966). /10/ Leidimair, K: Natur und Geist - ein nicht hintergehbares Verhältnis? Heidegger oder künstliche Intelligenz? Klagenfurter Beiträge zur Technikdiskussion Heft 22 (1988). |
|
Contact webmaster@vordenker.de
|