Web Navigator

SCIENCE ECONOMICS ARTS
METAPHON SEARCH IMPRESSUM
 

Autonomie in Biologie und Technik

Kognitive Netzwerke - Artificial Life - Robotik

von E. von Goldammer & J. Paul


I. Ausgangs-Situation

Der Versuch, eine wissenschaftliche Beschreibung lebender Systeme im Sinne einer "ganzheitlichen", d.h. nicht-reduktionistischen �Theorie des Lebens� zu entwickeln, hat in den 70er Jahren zu einem fundamentalen Wechsel des bis dahin g�ltigen wissenschaftlichen Paradigmas einer strikten Trennung von Beobachter und Beobachtetem gef�hrt. Der Beobachter wird zum "Teil des zu beschreibenden Systems" /1/:

"Ein lebender Organismus ist eine selbst�ndige autonome, organisatorisch geschlossene Wesenheit,

und (1)

ein lebender Organismus ist selbst Teil, Teilhaber und Teilnehmer seiner Beobachtungswelt."

 

Diese beiden sich zueinander komplement�r verhaltenden Aussagen setzen zun�chst einmal �Autonomie�, d.h. �Selbst-Regelung� f�r lebende Systeme notwendig voraus. Dabei ist der Begriff der �Selbst-Regelung� synonym mit dem Ausdruck �Regelung der Regelung�, und das bedeutet in der Terminologie der Kybernetik:

"Ein lebendes System regelt seine Regelung (selbst)." (2)

Die Akzeptanz einer derartigen Aussage hat erhebliche Konsequenzen f�r die (kybernetische) Beschreibung autonomer Systeme, denn sie verlangt die organisatorische Geschlossenheit autonomer Systeme im Sinne der "Closure Thesis" /2/:

Closure Thesis: (3)

"Every autonomous system is organizationally closed.

. . . organizational closure is to describe a system with no input and no output . .."

Diese Anschauung ist mit dem Wiener�schen Begriff des "Feedback" schlechthin unvereinbar. Hier wird der �bergang von der klassischen Kybernetik (1. Ordnung), deren Beschreibungsobjekte ausschlie�lich �Input/Output�-Systeme sind, zur "Kybernetik 2. Ordnung" deutlich, die es ganz offensichtlich mit (operativ) geschlossenen, d.h. autonomen Systemen zu tun hat.

Der epistemologisch entscheidende Punkt resultiert aus der Erkenntnis, da� �operative Geschlossenheit� und �Autonomie� lebender Systeme unvereinbar sind mit einer Beschreibung des Systems aus seinem (vom Beobachter festgelegten) System/Umgebungs-Verh�ltnis heraus. Mit anderen Worten, die durch den Beobachter definierte Abgrenzung von System und Umgebung, durch die ein Input/Output-Verh�ltnis erst definiert wird, ist immer unterschiedlich zur Grenzbildung, die das autonome System durch seine (operative) Geschlossenheit relativ zu allen anderen Systemen erzeugt. Es existieren also zwei vollst�ndig unterschiedliche, nicht zu vereinbarende (standortabh�ngige) Beschreibungsvarianten:

i) einmal vom Standpunkt eines externen Beobachters eines (von ihm definierten) Systems und dessen Umgebung aus,

und

ii) vom Ort des autonomen (lebenden) Systems selbst (unter Einbeziehung des Beobachters) heraus, also der vom autonomen System festgelegten Grenzziehung zwischen sich und seiner Umgebung. (4)

Parallel zur Entstehung der besonderen Rolle des Beobachters in der Konzeption einer �Theorie lebender Systeme� steht in diesem Kontext die Fragestellung nach der Relation von System und Umgebung, die wiederum unter dem Aspekt der kognitiven F�higkeiten als primordialer Eigenschaft von �Leben �berhaupt� verstanden wird /3/:

"Lebende Systeme sind kognitive Systeme, und Leben als Proze� ist ein Proze� der Kognition. Diese Aussage gilt f�r alle Organismen, ob diese ein Nervensystem besitzen oder nicht." (5)

Auf dem Weg zu einer �Theorie lebender Systeme� kommt der Konzeption der �Autopoiese� von Maturana und Varela /4/ eine zentrale Rolle zu. Dabei stellt die �Theorie autopoietischer Systeme� den Versuch einer rein semantischen, d.h. nicht-formalen Theorie lebender Systeme dar, mit der erkl�rten Absicht, eine biologische (nicht-physikalistische) Begrifflichkeit lebender Systeme zu entwickeln - das ist ihr Verdienst. Was auf der Basis einer rein semantischen Theorie jedoch nicht gelingen kann, ist eine Symbiose von Computer- und Biowissenschaften im Sinne der Simulation biologischer Systeme und der daraus resultierenden Konstruktion entsprechender technischer Artefakte - das ist das Problem.


II. Wissenschaftlich-technische Problemstellung

W�hrend alle bis heute bekannten Modelle der Neuroinformatik ausschlie�lich klassische Input/Output-Systeme - also offene Systeme - beschreiben, stellen die von der �Kybernetik 2. Ordnung� geforderten Modelle biologisch kognitiver Netzwerke geschlossene Systeme dar. Hier besteht ganz offensichtlich ein unvereinbarer Widerspruch in der Vorstellung zwischen �offenen� und �geschlossenen� Systemen, Netzwerken oder Modellen der Beschreibung. Entscheidend ist dabei die Erkenntnis, da� nur geschlossene Systeme eine Umgebung besitzen k�nnen, w�hrend offene Systeme prinzipiell keine Umbebung besitzen.

Wird also nach einem Modell zur Beschreibung kognitiver Prozesse gesucht, dann mu� dieses den Aspekt der �Geschlossenheit� beinhalten, denn

K o g n i t i o n ist die F�higkeit eines Systems, aus eigener Leistung zwischen

sich und seiner Umgebung eine Unterscheidung treffen zu k�nnen. (6)

Dies wiederum setzt notwendigerweise die Existenz einer Umgebung f�r das System - vom Standpunkt des Systems aus - voraus und nicht lediglich nur vom Standpunkt eines Beobachters des Systems aus, wie dies heute in aller Regel beim Begriff �Umgebung� naiverweise angenommen wird (siehe dazu Aussage 4). Es sei hier der Hinweis gestattet, da� bei dieser Definition von Kognition zwischen �Kognition� und �Bewu�tsein� unterschieden wird. Um bei einem System von �Bewu�tsein� zu sprechen, mu� dieses �ber kognitive F�higkeiten verf�gen; die Umkehrung der Aussage, da� kognitive Systeme �ber �Bewu�tsein� verf�gen, ist nicht allgemeing�ltig. Sich diesen Sachverhalt zu verdeutlichen, ist notwendig, wenn �Kognition� als eine charakteristische Eigenschaft lebender Systeme angesehen wird (vgl. Aussage 5), durch welche diese sich von den toten Objekten der Physik und Chemie unterscheiden.

Eine Definition der jeweiligen Begriffe wie �Umgebung� oder �Kognition� ist, wenn (Kognitions-) Wissenschaft ernsthaft betrieben werden soll, zwingend notwendig. Die Bedeutung einer solchen Definition f�r technische Entwicklungen kognitiver Systeme l��t sich anschaulich an dem Beispiel eines Roboters demonstrieren:

Betrachtet sei zun�chst der Roboter in einem Automobilwerk, dessen Aufgabe darin bestehen soll, Schrauben an einer Karosserie zu befestigen - selbstverst�ndlich handelt es sich hierbei nicht um ein kognitives System. Ein unvoreingenommener Beobachter dieses Roboters wird ohne weiteres eine Unterscheidung zwischen diesem Roboter und seiner Umgebung (den Schrauben, der Karosserie, etc.) treffen k�nnen. Vom Standpunkt des Roboters aus (gem�� Aussage 4), stellt sich die Situation jedoch v�llig anders dar: dieser Roboter besitzt keine Umgebung. Die "Schrauben", "ihr Weg vom Regal zur Karosserie", etc. sind Teile des Robotprogramms; sie sind sozusagen als Objekte vom Konstrukteur einprogrammiert und geh�ren zum Computerprogramm, das die Bewegungsabl�ufe steuert. Letzteres ist f�r die Funktion dieses technischen Systems ebenso bedeutsam wie die f�r den Beobachter sichtbare Stahlkonstruktion. Auf der anderen Seite sollte ein zur Kognition bef�higter Roboter in der Lage sein, zwischen sich und seiner Umgebung eine Unterscheidung treffen zu k�nnen, damit er sich - um im Bilde zu bleiben - nicht selbst auseinander schraubt. Bis heute gibt es noch keine mit kognitiven F�higkeiten ausgestattete Roboter. Daran �ndert sich auch nichts durch die Einf�hrung oder Implementierung von neuronalen Netzwerken, von Fuzzy-Reglern oder gar einer Kombination aus beiden, den sogenannten NeuroFuzzy-Systemen.

 

1. Physikalische Systeme sind "offene" Systeme

Ber�cksichtigt man, da� es sich bei der Fuzzy Logik um einen Kalk�l und bei den neuronalen Netzwerken um Modelle handelt, denen ein Kalk�l zugrunde liegt, so wird schon an dieser Stelle deutlich, da� zumindest aus konzeptioneller Sicht der Begriff des �NeuroFuzzy-Systems� einem wissenschaftlichen Eintopf gleichkommt, in dem Unterschiedliches miteinander verkocht werden soll, in der Hoffnung, da� durch die Einf�hrung von Prinzipien wie �Selbstorganisation� oder �Unscharfes Schlie�en�, getreu der Homunkulus-Idee, ein �intelligentes� System entstehen m�ge. Ohne eine klare Definition dessen, was beschrieben, modelliert oder konstruiert werden soll, stellen solche oder �hnliche Begriffskombinationen jedoch eine konzeptionell-wissenschaftliche Sackgasse dar.

Die oben gegebene Definition von �Umgebung� und �Kognition� erfordert, und das kann gar nicht oft genug betont werden, die Annahme �geschlossener� Systeme. Um die Konsequenz des Postulats der �Geschlossenheit� lebender Systeme zu verdeutlichen, ist es angebracht, die entsprechende Begriffsbildung in den Naturwissenschaften einmal zu hinterfragen. Aus Physik und Chemie sind wir gew�hnt, uns �ber den Systembegriff nur wenig oder gar keine Gedanken zu machen. �Offene� und �geschlossene� Systeme werden allenfalls in der Thermodynamik abgehandelt und dort im allgemeinen als geometrische Abgrenzungen verstanden, d.h., die Systeme werden durch einen Raumbereich definiert. Die Unterscheidung zwischen �geschlossen� und �offen� bezieht sich in der Physik darauf, ob Materie, die ein solcher Raumbereich enth�lt, bei Prozessen in dem Raumbereich verbleibt oder nicht. Ein im Rahmen dieser Begriffsbildung als �geschlossen� festgelegtes physikalisches System l��t im Gegensatz zu einem �offenen� keine Materie durch seine Begrenzungen str�men. Ist die Begrenzung eines Systems nicht nur f�r Materiestr�me, sondern f�r alle Energiestr�me undurchl�ssig, dann wird ein derartig festgelegtes physikalisches System als �abgeschlossen� oder �isoliert� bezeichnet. Man erkennt, da� bei dieser Systemdefinition an eine r�umliche Vorstellung appelliert wird. Diese auf den ersten Blick vermeintlich anschauliche Systemdefinition ist jedoch sowohl aus mathematischer wie auch aus physikalischer Sicht nicht nur unzweckm��ig, sondern im h�chsten Ma�e wissenschaftlich inkonsequent. Sie stammt aus einer Zeit, in der die Stoffmenge (gemessen in �mol�) als physikalische Gr��e allgemein noch nicht akzeptiert war und die �chemische Energie� als Energieform von den Physikern ignoriert wurde.

Nun haben aber physikalische Systeme immer eine gemeinsame Eigenschaft, n�mlich Energie in verschiedenen Formen mit anderen (physikalischen) Systemen auszutauschen. Dabei �ndert sich der physikalische Zustand des betrachteten Systems von einem, sagen wir Zustand 1 in einen Zustand 2 - oder anders ausgedr�ckt von einem Anfangszustand zu einem Endzustand. Die Ver�nderungen der das System beschreibenden physikalischen Variablen ist das, was in der Physik gemessen wird. �ndert sich der Zustand eines Systems nicht, dann kann man auch nichts messen oder anders herum ausgedr�ckt, tauscht das betrachtete System keine Energie mit einem anderen System aus, dann �ndert sich nichts an dem System und es l��t sich infolgedessen auch nichts messen. Das bedeutet aber im vorliegenden Kontext �offener� und �geschlossener� Systeme, da� es in der Physik keinen Sinn macht, Systeme zu betrachten, die keine Energie austauschen k�nnen - die Physik (und Chemie) kennt nur Systeme, die offen sind, d.h. einen Austausch von Energie mit anderen Systemen zulassen. F�r die formale Darstellung physikalischer Systeme sind Begriffe wie �offen� und �geschlossen� v�llig �berfl�ssig /5/, was nicht �berraschend ist, da sich beide Begriffe wechselseitig bedingen. Nur wenn auch physikalische Systeme, bei denen keine Energie mit anderen Systemen ausgetauscht werden kann - die im sprichw�rtlichen Sinne als geschlossen angesehen werden m��ten - eine physikalische Bedeutung h�tten, m��ten die Begriffe von �Offenheit� und �Geschlossenheit� im Zusammenhang mit der Systemfestlegung in einer physikalischen Theorie ber�cksichtigt werden. Solche hypothetischen "geschlossenen" (physikalischen) Systeme befinden sich in einem physikalischen Zustand, in dem sie bis in alle Ewigkeiten verharren, an ihnen l��t sich nichts messen und damit sind sie aus physikalischer Sicht bedeutungslos. Kurz, der Begriff der �Geschlossenheit� macht in der Physik und Chemie keinen Sinn.

F�r die Systemdefinition in der Physik und Chemie werden die verschiedenen Energieformen, die an dem System ausgetauscht werden, als Summe bilanziert. Man erh�lt auf diese Weise eine Differentialgleichung - die sogenannte Gibbs�sche Funktion - die das damit jeweilig definierte physikalische System vollst�ndig beschreibt, d.h. es handelt sich hierbei um die allgemein g�ltige Definition eines physikalischen Systems ohne geometrische Begrenzung (n�heres siehe Ref. 5):

(7)

In der Gleichung (7) stehen links die �nderung der Gesamtenergie E des betrachteten physikalischen Systems und rechts die einzelnen Energieformen, wie mechanische Energieformen (Bewegungsenergie, Rotationsenergie, , etc.), W�rmeenergie, TdS oder chemische Energie, , etc., die das betrachtete System mit einem anderen System austauscht, und die das betrachtete System auszeichnen. Betrachtet wird die Ver�nderung der Energie von einem Zustand 1, der durch einen konstanten Wert von E=E1(=const.) und konstante Werte der korrespondierenden Variablen gegeben ist, und einem Zustand 2, dessen Energie E2 und die Werte der korrespondierenden Variablen wiederum einen konstanten Wert besitzen. Tauscht das System keine Energie aus (Geschlossenheit), d.h. sind alle Werte dXi auf der rechten Seite gleich null (d.h. Xi=const.), dann ist das System f�r eine physikalische Betrachtung relativ bedeutungslos. Es befindet sich in einem Zustand, bei dem der Wert der Energie und alle das System aus physikalischer Sicht charakterisierenden Gr��en (definiert durch die Variablenpaare ) einen konstanten Wert besitzen. Das System verharrt in diesem Zustand solange bis ein Energieaustausch mit einem anderen System stattfindet. W�rde an dem System keine Energie ausgetauscht, dann verharrt es bis in alle Ewigkeiten in einem Zustand, dessen charakteristische Variablen ohne Energieaustausch auch nicht bestimmbar w�ren - mit anderen Worten, es w�re dann sinnlos von einem physikalischen System zu sprechen.

Wie man sieht, sind geometrische Systemabgrenzungen hierbei v�llig �berfl�ssig. Die Systemdefinition ist in der Physik durch eine abstrakte mathematische Beschreibung gegeben, in der Begriffe wie �offen� oder �geschlossen� keinen Platz haben. Das "System existiert", d.h. die rechte Seite von Gl. (7) ist ungleich null oder das "System existiert aus formaler Sicht nicht", d.h. die rechte Seite der Gl.(7) ist null und somit dE=0; daran �ndern auch noch so spitzfindige philosophische Argumente nichts. Wie obsolet geometrisch-r�umliche Abgrenzungen in der Physik geworden sind, geht schon aus der Atomphysik hervor. In diesem Zusammenhang sei nur an die Heisenberg�sche Unsch�rferelation erinnert.

Zusammenfassend l��t sich festhalten:

Zur vollst�ndigen Beschreibung des Zustandes eines physikalischen
Systems geh�rt neben der Angabe der Werte verschiedener f�r
das System (von einem Beobachter festgelegten) charakteristischer
physikalischer Variablen immer die Angabe des Wertes seiner Energie.

Ein physikalisches System ist definiert durch die Angabe
des Wertes seiner Energie und der komplement�ren
Variablenpaare , die f�r eine ad�quate Systembeschreibung
vom Experimentator als notwendig erachtet und von ihm
festgelegt werden. (8)

Der Begriff des �Gleichgewichts� bezieht sich immer auf einen physikalischen Zustand, stellt also begrifflich nichts Neues dar. Befindet sich ein physikalisches System im Gleichgewicht, dann tut sich aus physikalischer Sicht nichts an dem System. Lebende Systeme sind aus physikalisch-chemischer Sicht immer "fernab" vom physikalisch-chemischen Gleichgewicht. W�ren sie im physikalischen Gleichgewicht, dann w�ren sie im sprichw�rtlichen Sinne "mausetot" und damit auch nicht zur Kognition bef�higt.

Lebende Systeme werden permanent von Energie durchstr�mt, d.h. in sie str�mt sowohl Energie hinein wie auch heraus. Was dagegen niemals aus ihnen heraus oder in sie hineinstr�mt, ist Information und zwar auch dann nicht, wenn Elektroden im Gehirn angelegt werden. Es str�mt immer nur Energie, das gilt auch f�r den Wahrnehmungsapparat oder die vom Experimentator im Gehirn angelegten Elektroden - hier k�nnte man allenfalls in der Sprache der Nachrichtentechnik von Signalen sprechen, die erst in dem empfangenden System selbst und/oder im Kopf des Experimentators: (Shannon�sche Informationstheorie) zur Information f�r das System und/oder den Experimentator werden. Dabei ist die Bedeutung der Information f�r das System nicht notwendigerweise identisch mit der Bedeutung der Information die "im Kopf des Experimentators errechnet" wird - das ist das Problem.

 

2. Die Reduktion biologischer Systeme zu "offenen" Systemen oder der Reduktionismus in der Biologie

Da durch jede Messung die Ver�nderung zwischen einem Anfangs- und einem Endzustand bestimmt wird, reduziert jede experimentelle Wissenschaft, bei der die Messung im Vordergrund steht, ein System zu einem offenen (Teil-) System, bei dem es einen �Anfang� und eine �Ende�, einen �Input� und einen �Output� gibt. Das sind Begriffe, die nur im Zusammenhang mit offenen Systemen einen Sinn ergeben, und damit wird auch klar, warum in den klassischen Naturwissenschaften der Begriff des �Systems� im allgemeinen nur eine untergeordnete Rolle spielt, von �Geschlossenheit� zu sprechen ist in diesem Kontext sinnlos. Das gilt auch f�r die Biologie, die, wenn �berhaupt von Systemen gesprochen wird, in aller Regel auf die aus formaler Sicht obsoleten r�umlich-geometrischen Vorstellungen der Physik und Chemie zur�ckgreift.

Nun wird aber von Seiten der modernen Kybernetik �Geschlossenheit� eines Systems f�r die Existenz einer �Umgebung� und diese wiederum f�r die Beschreibung �kognitiver� Prozesse gefordert, und es sind gerade die kognitiven F�higkeiten, die lebende Systeme von toter Materie signifikant unterscheiden. Damit stellt sich diese Thematik nicht nur den Ingenieur- und Computerwissenschaften bei ihren Bem�hungen um eine Modellierung und Simulation kognitiver Prozesse, sondern sie stellt sich auch und gerade den Biowissenschaften.

So reduziert sich aus wissenschaftlich konzeptioneller Sicht das System �Affe�, bei dem beispielsweise die Hirnaktivit�t als Funktion (vom Experimentator) vorgegebener �u�erer optischer Reize durch Elektroden gemessen wird, auf das System eines lebenden, nicht-trivialen Signal- oder Datenfilters, bei dem ein lebendes neuronales Netzwerk eingesetzt wird. Durch die experimentelle Anordnung ist das System �Affe� bzw. dessen Gehirn (f�r den Experimentator) zu einem offenen System reduziert worden. �ber den (visuellen) Wahrnehmungs- oder Kognitionsproze�, der sich im System �Affe� w�hrend der experimentellen Situation abspielt, erf�hrt der Experimentator durch solche oder �hnlich durchgef�hrten Messungen nichts. An dieser Situation w�rde sich nat�rlich auch dann nichts �ndern, wenn experimentell die M�glichkeit best�nde, die Aktivit�t jedes einzelnen Neurons bis ins letzte Detail vermessen zu k�nnen. Erfolgreicher dagegen sind derartige Experimente, wenn es sich beispielsweise um Untersuchungen des Stoffwechsels handelt, dann befindet man sich jedoch eindeutig im Kontext von Physik und Chemie, und das ist ganz offensichtlich eine andere Beschreibungsdom�ne als die der kognitiven Prozesse.

Wo liegen die epistemologischen Schwierigkeiten bei dem Experiment der Messung von Hirnaktivit�ten im Kontext einer wissenschaftlichen Beschreibung kognitiver Prozesse ?

a) Da ist zun�chst die heute noch immer gebr�uchliche, jedoch wissenschaftlich v�llig einseitige Verwendung des Begriffs von �Information�, wie er 1948 von Shannon eingef�hrt wurde, zu nennen. In der von Shannon entwickelten Informationstheorie wird der Informationsgehalt von Signalen in Analogie zu physikalischen Objekten als eine me�bare Gr��e angesehen. Die N�tzlichkeit dieser ausschlie�lich objektbezogenen Konzeption von Information f�r die Daten- und Signal�bertragung in der Nachrichtentechnik ist unbestritten. Aus der Sicht einer modernen Kybernetik, die sich insbesondere auch mit der Beschreibung lebender Systeme besch�ftigt, reicht diese Begriffsbildung jedoch nicht mehr aus, denn ein Signal wird erst in einem von dem empfangenden System (selbst) festgelegten Kontext zur Information f�r das betreffende System, d.h. Information existiert nicht sui generis.

Solange sowohl Biologen als auch (Neuro-)Informatiker diesen relativ einfach nachzuvollziehenden Sachverhalt ignorieren, werden ihren Bem�hungen auf dem Weg zu einer Theorie kognitiver Prozesse keine durchschlagenden Erfolge beschieden sein.

b) Die "Festlegung" physikalischer Systeme als "offene Systeme" ist nat�rlich keine blo�e Marotte der Physiker, sondern entspringt dem Bem�hen, physikalisch-chemische Systeme und Prozesse auch mathematisch beschreiben zu k�nnen. Dabei stellt die Mathematik als formale Sprache ein extrem effizientes Hilfsmittel f�r die wissenschaftliche Kommunikation dar. Die formale Beschreibung eines geschlossenen Systems im Sinne der �Closure Thesis� (vrgl. Aussage 3) ist auf der Basis der klassischen Mathematik nicht m�glich /6/ /7/.

An dieser Stelle taucht sofort die Frage auf, wie technische Systeme mit kognitiven F�higkeiten konstruiert werden sollen, wenn diese Prozesse mathematisch nicht darstellbar sind? Hier offenbart sich ein Problem, welches sowohl die Fundamente der KI-Forschung, der Neuroinformatik aber auch der Robotik tangiert - es zu ignorieren, l�st das Problem nicht.

Bis heute ist diese Erkenntnis der Nicht-Formalisierbarkeit kognitiver Prozesse mit den Mitteln der klassischen Mathematik sowie die sich daraus ergebenden wissenschaftlich-technischen Konsequenzen von Seiten dieser Disziplinen noch nicht einmal im Ansatz erkannt worden. Daraus resultiert auch der ungebrochene Glaube, man werde mit Hilfe der Modelle neuronaler Netzwerke und/oder ihrer Kombination mit den Methoden der Fuzzy-Logik, wenn man denn nur die Rechenleistungen (massive Parallelit�t) gen�gend steigern kann, eines Tages zu kognitiven, und damit zu autonomen Systemen in der Technik gelangen; aus wissenschaftlicher Sicht ist diese Vorstellung naiv. Die Modelle der Neuroinformatik sind mit ihren Input- und Output-Schichten offene Systeme par exellence, und damit sind sie non_kognitiv.

c) Selbst wenn es gelingen sollte, die Aktivit�ten aller Neuronen des Gehirns zu messen, so w�re dieser Erfolg mikro-elektro-mechanischer Experimentierkunst noch kein Garant f�r einen Erkenntnisfortschritt auf dem Gebiet der Kognition. Dies soll im folgenden am Modell eines finiten Automaten demonstriert werden /8/.

Prinzip eines trivialen Automaten

Abb.1 : Prinzip eines "Trivialen Automaten"

In der Abb.1 ist das Prinzip eines extrem einfachen Automaten dargestellt. Es soll angenommen werden, da� dieser Automat durch vier Werte (A,B,C,D) der Eingangsvariablen x und durch zwei Werte (0,1) der Ausgangsvariablen y charakterisiert sei. Zwischen den Werten der Eingangs- und Ausgangsvariablen existiere ein funktionaler Zusammenhang wie z.B. der in Tab.1 angegebene. D.h., liegt am Eingang die Sequenz (ABCD) an, dann wird die Sequenz (0110) durch den Automaten errechnet, die am Ausgang anliegt. Anders ausgedr�ckt, wann immer der Maschine als Eingangssignal (Ursache) das Symbol x=A angeboten wird, ist das Resultat ihrer Operation das Ausgangssymbol (Wirkung) y=0. Eine solche Maschine wird von Von Foerster als "Triviale_Maschine" bezeichnet, ihre Funktion in der Datenverarbeitung w�re z.B. die eines digitalen Filters, wie etwa die (adaptierten) neuronalen Netzwerke, die ebenfalls zur Klasse der trivialen Maschinen geh�ren. Die Adaptionsphase bei den neuronalen Netzwerken kann sozusagen als Trivialisierungsprozess dieser Netzwerkmodelle angesehen werden.

Triviale Automaten sind: 1) synthetisch determiniert; 2) analytisch determinierbar; 3) vergangenheitsunabh�ngig; und 4) vorhersagbar. Automaten dieser Art sind nicht nur langweilig, mit ihnen k�nnte man noch nicht einmal einen herk�mmlichen Computer bauen.

f

x

y

A

0

B

1

C

1

D

0

Tabelle 1 : Funktionaler Zusammenhang y = f(x) f�r einen "Trivialen Automaten"

In der Abb.2 ist ein Automat angegeben, der sich von seinem trivialen Pendant dadurch unterscheidet, da� die Operationen dieser Maschine von den jeweiligen "inneren Zust�nden" z der Maschine abh�ngen. Der Maschinentyp wird im folgenden mit dem Akronym NTA (Nicht_Trivialer_Automat) abgek�rzt. Betrachtet sei wiederum der einfachste Fall eines NTA mit nur zwei internen Zust�nden I und II, wie dies in der Tab.2 angezeigt ist.

Wird an den Eingang (Ursache) das Signal x=A angelegt, so ist das Resultat der Operation (Wirkung) y=0. Eine Sequenz (A,A,A,...) ergibt die Sequenz (0,0,0,...) am Ausgang. Entsprechend ergibt die Sequenz (B,B,B,...) als Resultat die Sequenz (1,1,1,...) am Ausgang. Will man nun wissen, was C bewirkt, d.h. wird an den Eingang das Signal (Ursache) x=C angelegt, dann ist das Resultat der Operation (Wirkung) y=1. Die Wiederholung dieses Vorgangs (erneutes Anlegen von C an den Eingang) liefert jedoch y=0, da der Automat beim ersten Anlegen von C vom Zustand I in den Zustand II �bergegangen ist. Wird jetzt an den Eingang wiederum x=B angelegt, dann ist das Resultat in diesem Fall y=0 und die Sequenz (B,B,B,...) w�rde jetzt zu (0,0,0,...) f�hren, da sich der Automat jetzt im Zustand II befindet. Wird x=D angelegt, dann ergibt sich y=1. Eine Sequenz (D,D,D,....) ergibt, wie man der Tab.2 entnehmen kann, die Sequenz (1,0,1,0,...) bzw. wenn vom Zustand I aus gestartet wird, (0,1,0,1,...).

Prinzip eines nicht-trivialen Automaten

Abb. 2 : Prinzip eines "Nicht-Trivialen-Automaten"

f

Zustand I

Zustand II

x

y

z�

x

y

z�

A

0

I

A

1

I

B

1

I

B

0

II

C

1

II

C

0

II

D

0

II

D

1

I

Tabelle 2 : Funktionaler Zusammenhang y = f(x; z)
f�r einen "Nicht-Trivialen Automaten"

Angenommen der NTA stellt ein zu untersuchendes unbekanntes Objekt dar, dann wird ein Experimentator, der den funktionalen Zusammenhang y=F(x,z) und z�=Z(x,z) aus der Tab.2 durch wiederholtes Experimentieren erst finden soll, diesen Zusammenhang zwischen x, y und z nach einer Reihe von Versuchen m�glicherweise finden. Die interessante Frage ist, wie gro� ist die Anzahl der m�glichen NTA�s, die durch jeweils eine Tabelle (entsprechend der Tab.2) repr�sentiert werden?

Nehmen wir an, da� sich die Eingangsgr��en durch zweistellige Bin�rzahlen darstellen lassen, also A=00, B=01, C=10, D=11, dann gibt es f�r diesen relativ einfach Fall bereits insgesamt 6.1076 verschiedene Kombinationen, wobei jede Kombination einem NTA bzw. einer Tabelle entspricht (siehe Ref. 6). Die Anzahl der m�glichen NTA�s w�chst astronomisch an, wenn sich die Zahl der Eingangsvariablen und/oder der Zust�nde erh�ht /9/.

Maschinen dieser Art werden in Ref.6 als 1) synthetisch determiniert, 2) analytisch unbestimmbar, 3) vergangenheitsabh�ngig und 4) unvoraussagbar bezeichnet.

Es ist in diesem Kontext nicht weiter relevant nach dem wissenschaftlichen Nutzen von Messungen der Hirnaktivit�t bei Tieren zu fragen, das steht hier nicht zur Debatte. Fest steht jedoch, da� auf diese Weise keine Erkenntnisse �ber den Proze� der Kognition gewonnen werden k�nnen, der Vergleich mit einem NTA liegt auf der Hand. Wenn aber die F�higkeit zur Kognition ein wesentliches Merkmal lebender Systeme ist, dann tragen Experimente dieser Art, wenn �berhaupt, nur wenig zu einer "Theorie lebender Systeme" bei und damit n�tzen sie einem Ingenieur, der kognitive F�higkeiten in einem technischen System abbilden m�chte, nichts.

An dieser Stelle ist es angebracht, sich in einem Gedankenexperiment folgenden hypothetischen Fall vorzustellen: Angenommen, einem Ingenieur sei die Konstruktion eines technischen Systems mit kognitiven F�higkeiten gelungen - wie will die "Nachwelt" den Algorithmus eines solchen Systems erforschen, wenn dieser nicht publiziert wurde?

Durch Messungen der elektrischen Signale, d.h. deren Amplituden und/oder Frequenzen, gelingt dies aus den oben dargelegten Gr�nden ebensowenig, wie es einem Biologen gelingt, aus elektrophysiologischen Messungen der Hirnaktivit�t etwas �ber den Proze� der Kognition zu erfahren. Schlimmer noch, selbst der Algorithmus eines einfachen Programms, wie es heute in jedem gew�hnlichen Computer abl�uft, l��t sich auf diesem Weg nicht finden (vrgl. dazu Ref.9).

Fassen wir kurz zusammen:

- Die Systemdefinition in der Physik erfolgt �ber mathematische Differentialgleichungen. Alle r�umlich-geometrischen Systemdefinitionen sind sp�testens seit Einf�hrung der Quantenmechanik in die Physik v�llig obsolet geworden.

- Das komplement�re Begriffspaar �offen� und �geschlossen� hat in einer physikalischen Theorie, in der me�bare Gr��en dominieren, keinen Platz.

- Kognitive Prozesse geh�ren in eine andere Dom�ne der Beschreibung und nicht in die Beschreibungsdom�ne physikalisch-chemischer Prozesse.

- Benutzt man f�r die Beschreibung kognitiver Prozesse den Sprachrahmen, der durch die klassische (zweiwertige) Logik aufgespannt wird, dann f�hrt die Beschreibung kognitiver Prozesse zu Systemen bzw. Modellen, die als �geschlossen� im Sinne eines logischen circulus vitiosus angesehen werden m�ssen. Der Versuch ihrer Beschreibung auf der Basis offener Systeme oder Modelle ist identisch mit einer Systemreduktion (Reduktionismus); nur in diesem Falle sind die Kalk�le der klassischen (mono-kontexturalen) Logikkonzepte widerspruchsfrei anwendbar /10/ /11/ /12/, der zu beschreibende Proze� jedoch ist f�r das formale Modell verloren gegangen.

- Das Problem das es zu l�sen gilt, ist seit mehr als 2000 Jahren unter verschiedenen Etiketten wie die �Dichotomie von Geist und Materie� oder die �Subjekt-Objekt-Spaltung� bekannt. Heute tritt es als das Problem einer Verkn�pfung verschiedener Beschreibungsdom�nen erneut auf, n�mlich einmal der physikalisch-chemischen Prozesse auf der einen Seite und der kognitiven Prozesse auf der anderen Seite.

- Die Entwicklung einer vereinheitlichten Theorie beider Beschreibungsdom�nen ist prim�r ein wissenschaftslogisches und kein experimentelles Problem, worauf in der Vergangenheit schon mehrfach hingewiesen wurde - siehe dazu Ref.10-12.


III. Autonome Systeme: Beschreibung und Konstruktion

Sowohl die Modellierung autonomer Systeme, deren Simulation sowie die Formulierung einer Theorie lebender Systeme stellen eine �u�erst komplexe interdisziplin�r orientierte Aufgebe dar, die, ebenso wie die Konstruktion autonomer Fahrzeuge, d.h. zur Kognition bef�higter technischer Artefakte, eine (formale) Sprache als Kommunikationshilfe und Konstruktionsgrundlage voraussetzt. Eine ad�quate formale Sprache mu�, wie in Abschnitt II dargelegt wurde, so strukturiert sein, da� verschiedene Beschreibungsdom�nen durch daf�r geeignete Operatoren miteinander vernetzt werden k�nnen, und nicht wie bisher beziehungslos irgendwie nebeneinander stehen. Das ist sozusagen die minimale Voraussetzung f�r eine vereinheitlichte Theorie physikalischer (und chemischer) mit kognitiven (und volitiven) Prozessen, wie sie nun einmal in lebenden Systemen ganz offensichtlich auftreten.

Da alle wissenschaftlichen Aussagen logisch fundiert sein m�ssen, ist als formale Sprache zun�chst ein Logik-Kalk�l gefordert, bei dem verschiedene logische Dom�nen /13/ durch geeignete Operatoren bereits so miteinander vernetzt sind, da� eine Beschreibung, d.h. Modellierung und Simulation, simultan-parallel ablaufender physikalisch-chemischer und kognitiv-volitiver Prozesse m�glich wird.

Ein derart parallel vernetzter Kalk�l ist durch die Poly-Kontextural-Logik (PKL) und die ihr zugrunde liegende Stellenwerttheorie bereits gegeben. Das Problem einer formal wissenschaftlichen Beschreibung lebender Systeme in einem "ganzheitlichen" Sinne besteht in der Aufgabe, diesen Kalk�l in ad�quater Weise mit Semantiken zu f�llen. Dies stellt die bereits erw�hnte komplexe interdisziplin�re Aufgabe dar, f�r die es keine historischen Vorbilder gibt. Wissenschaftsgeschichtlich gesehen ist dies eine v�llig neue Situation, denn in der Vergangenheit wurde parallel zur Entwicklung der begrifflichen Fassung einer Theorie, die aus der experimentellen Beobachtung abgeleitet wurde, ein Formalismus entwickelt. Die mathematisch formale Weiterentwicklung einer solchen Theorie f�hrte dann zur Reduktion der Bedeutungsvarianz der verwendeten Begriffe /14/.

Eine weitere grunds�tzliche Schwierigkeit auf dem Weg zu einer �Theorie lebender Systeme� resultiert aus der Tatsache, da� wir nicht �ber die F�higkeit verf�gen, Begriffe simultan-parallel zu denken, schlimmer noch, eine derartige Parallelit�t von Prozessen kann weder gemessen noch sonst in irgendeiner Weise unmittelbar wahrgenommen werden. Das bedeutet jedoch nicht, da� solche Prozesse m�glicherweise gar nicht existieren - f�r das Verst�ndnis lebender Systeme sind sie von fundamentaler Bedeutung. Erst die Begrifflichkeit einer derartigen Prozessualit�t, bei der Probleme wie z.B. Mehrzeitigkeit, Polyrhythmie, etc. auftauchen und theoretisch zu bew�ltigen sind, f�hren zu einer �Therorie des Lebens�.

Alle heute bekannten parallelen Rechnerarchitekturen und die auf diesen Plattformen ablaufenden Algorithmen lassen sich grunds�tzlich auch sequentiell abarbeiten, ohne da� der durch sie abgebildete Proze� eine qualitative Ver�nderung erf�hrt - was sich dabei ver�ndert ist die Bearbeitungsgeschwindigkeit des Algorithmus. Diese Art von Parallelit�t ist nicht gemeint, wenn hier von simultaner Parallelit�t die Rede ist.

Da menschliche Denkprozesse sequentiell ablaufen, und sich simultan-parallel ablaufende Prozesse prinzipiell nicht messen lassen, ist f�r die Entwicklung einer �Theorie des Lebens� der Computer ein unverzichtbares Hilfsmittel (zur Modellierung) und Werkzeug (zur Simulation). Der Weg zu einer �Theorie des Lebens� f�hrt sowohl methodisch wie auch methodologisch �ber die Computerwissenschaften im Sinne einer Symbiose von Computer- und Biowissenschaften.

Obwohl die Bezeichnung �Neuroinformatik� den Eindruck erweckt, als w�re durch die Renaissance dieses Gebietes zu Beginn der 80er Jahre eine derartige Symbiose bereits erfolgt, tr�gt der Schein, wie dies auch aus den Argumenten des Abschnitts II hervorgeht. Ber�cksichtigt man, da� einige Modelle der Neuroinformatik in den Lehrb�chern der Physik bzw. der Elektrotechnik unter anderen Bezeichnungen abgehandelt werden, wie beipielsweise als nicht-lineare Signal- und Daten-Filter und als solche seit Jahren bekannt sind und technisch erfolgreich appliziert werden, dann wird wiederum deutlich, da� es auf diesem Weg zu einer wirklichen Symbiose von Bio-. und Computerwissenschaften kaum kommen kann. So stellt beispielsweise das Paradigma der Neuroinformatik (bzw. des Neo-Konnektionismus) f�r die Psychologie einen R�ckfall in den Behaviorismus dar, der heute unter Psychologen als �berholt angesehen wird. Das Problem wird noch deutlicher, wenn man sich vergegenw�rtigt, da� die adaptierten Netzwerkmodelle zur Kategorie der �trivialen Automaten� gez�hlt werden m�ssen, was aus Sicht der Lernpsychologie allenfalls der "Konzeption des N�rnberger Trichters" entsprechen w�rde, wenn es denn eine solche �berhaupt gibt.

Interessanter und vielleicht auch wegweisender sind in diesem Zusammenhang Entwicklungen anzusehen, die unter der Bezeichnung �Artificial Life� /15/ der �Multiple Agents� /16/ bekannt wurden sowie alle Bem�hungen seitens der modernen Robotik, autonome Systeme zu konzipieren /17/. Hier wird zumindest der Versuch unternommen, Eigenschaften zu simulieren und nachzubilden, die lebende Systeme auszeichnen. Auch wenn man diese Experimente noch als sehr rudiment�r und aus wissenschaftlicher Sicht teilweise vielleicht sogar als naiv ansehen mu�, so sorgen zumindest alle jene Ans�tze, die zu technisch-wirtschaftlichen Umsetzungen f�hren, wie die der Robotik, f�r den notwendigen Druck, um eine Umsetzung des eingangs erw�hnten Paradigmenwechsels in den (Bio-)Wissenschaften zu beschleunigen, wo diese Entwicklungen bisher kaum zur Kenntnis genommen wurden. Im folgenden soll die Thematik autonomer Systeme im Zusammenhang mit der Robotik etwas n�her beleuchtet werden.

 

1. Konzeption eines adaptiven Reglers -
- supervised & unsupervised learning

In der Regelungstechnik besteht ein Problem darin, geeignete Regler so zu entwerfen, da� sie nicht nur sehr allgemein anwendbar, sondern vor allem stabil und robust sind. Dabei kommen heute auch neuronale Netzwerke (NN), Fuzzy-Regler (FR) und die Kombination aus beiden, die NeuroFuzzy-Systeme (NFS) zur Anwendung. Der Vorteil dieser "unkonventionellen" Methoden liegt vor allem darin, da� ohne die Kenntnis des genauen mathematischen Modells einer Regelstrecke bzw. der mathematischen Beschreibung von Mustern oder Objekten diese mit Hilfe von FR- und/oder NN-Techniken erfa�t und als �Look-Up-Table� f�r Echtzeit-Anwendungen vorgehalten werden k�nnen. An einem Beispiel soll das Problem verdeutlicht werden.

Beispiel: "Unterwiesenes und Nicht_Unterwiesenes Lernen"

Ein Roboter soll von Punkt A einen Gegenstand nach Punkt B transportieren (z.B. in einem Krankenhaus das Essen oder in einem Hotel das Gep�ck zwischen der Rezeption und den Zimmern verteilen). Dies Beispiel geh�rt nicht dem Bereich der Science Fiction an, solche Systeme gibt es bereits.

In der Abb.3 ist die Situation f�r die folgende Diskussion nochmals etwas vereinfacht skizziert. Ein Fahrzeug soll in einem begrenzten Raumbereich selbst�ndig auf einen Parkplatz P fahren. Dazu sei das Fahrzeug mit Sensoren ausgestattet, die auf einer Achse befestigt sind und von einem Schrittmotor um definierte Winkel gedreht werden k�nnen. Damit l��t sich die Position des Fahrzeugs bestimmen, die durch die Variablen x,y und den Winkel Y repr�sentiert werden. Das Fahrzeug sei mit einer eigenen Recheneinheit zur Auswertung der Sensordaten sowie zum Ansteuern der Aktoren (Schrittmotor-Lenkung/Winkel-Vorderrad; Motor/Geschwindigkeit vor und zur�ck) ausgestattet. Das Fahrzeug ist ferner �ber eine Funkfernsteuerung mit einem externen Rechner bzw. einem Operateur verbunden.

Regelungskontext "Einparken"

Abb. 3 : Regelungskontext "Einparken in eine vorgegebene Position"

In der 1.Phase (Unterwiesenes_Lernen) wird das Fahrzeug von unterschiedlichen Startpositionen aus �ber die Funkfernsteuerung vom Operateur auf die Parkfl�che gesteuert. Die �ber die Sensoren jeweils ermittelten Positionen werden zusammen mit den korrespondierenden Aktordaten registriert. Sie bilden die Datens�tze f�r den Regler, die in einer �Look-Up-Table� verwaltet werden: Eingangsdaten: x,y, ; Ausgangsdaten: Einstellwinkel-Vorderrad, Geschwindigkeit (Betrag vorw�rts bzw. r�ckw�rts).

In der 2.Phase (Nicht_Unterwiesenes_Lernen) findet das Fahrzeug aus allen m�glichen Positionen selbst�ndig den Platz P, d.h. auch aus Positionen, die vorher nicht eintrainiert wurden. Die �Look-Up-Table� wird sozusagen erg�nzt. Dar�ber hinaus soll das Fahrzeug die Anfahrwege, die Trajektorien, zum Ort P aus eigener Leistung nach vorgegebenen Kriterien optimieren.

Letzteres wird in einer 3. Phase der Adaption von Bedeutung, wenn ein vorher nicht vorhandenes Hindernis auf der Fahrt zur Parkposition P eingebracht wird, und dieses Hindernis wiederholt angetroffen und umfahren werden mu�. In diesem Fall ist es zweckm��ig, das Hindernis als Objekt in die �Look-Up-Table� mit aufzunehmen, um den Fahrtweg zu optimieren. Hier mu� das System in der Lage sein, selbst�ndig eine Entscheidung zu treffen, ob die Look-Up-Table erg�nzt werden soll oder nicht.

In diesem Beispiel wird im 1.Schritt das System in einer Anlernphase, die als �Lernen_0� bezeichnet werden soll, sozusagen vorprogrammiert. Konzeptionell gesehen entspricht diese Form des Lernens dem sogenannten �Supervised Learning�, wie es im Sprachgebrauch des Konnektionismus benannt wird.

Aus dem Beispiel wird deutlich, da� in Schritt 2 und 3, also nach der Adaptionsphase, mit einer �Look-Up-Table� gearbeitet wird, die im 1.Schritt erstellt wurde. Die Ver�nderungen der Daten dieser �Look-Up-Table� durch Erg�nzung und/oder Optimierung sowie die Implementierung der Koordinaten m�glicher Hindernisse in die �Look-Up-Table� durch das System selbst wird im folgenden als �Lernen_I� bezeichnet. Konzeptionell entspricht dies dem �Unsupervised Learning� der Neuroinformatik.

Ohne an dieser Stelle darauf einzugehen, wie die Phasen 1 bis 3 jeweils konkret realisiert werden k�nnen - dies ist keine triviale aber dennoch l�sbare Aufgabe - ist im vorliegenden Zusammenhang der in allen drei Phasen zeitlich invariante, d.h. sich nicht ver�ndernde Kontext des Prozesses entscheidend, n�mlich "Einparken in eine vorgegebene Position". Prozesse dieser Art besitzen sozusagen flie�band�hnlichen Charakter, d.h. sich st�ndig wiederholende gleiche Situationen. Dies gilt auch f�r das neu aufgetauchte Hindernis aus Phase 3, das als eine St�rung oder "starkes Rauschen" angesehen werden kann, bei dem der globale Kontext des Prozesse "Einparken_in_eine_vorgegebene_Position" trotz St�rung erhalten bleibt.

Das Beispiel steht exemplarisch f�r sehr viele Regelungsaufgaben, bei denen die klassischen Methoden der Regelungstechnik ihre Anwendung finden. Ob dabei neuronalen Netzwerken, Fuzzy-Reglern oder Kombinationen davon der Vorzug gegeben wird, ist ausschlie�lich eine Frage der Zweckm��igkeit, d.h. man wird die flexiblere, robuste und vor allem die am einfachsten zu realisierende und damit die wirtschaftlich g�nstigste L�sung w�hlen. Mit anderen Worten, Prozesse, die hier mit dem Etikett des Lernen_0 bzw. Lernen_I gekennzeichnet wurden, lassen sich sowohl mit den herk�mmlichen Regelalgorithmen wie auch mit den NN-, FR- oder NFS-Techniken erfolgreich realisieren.

 

2. Lernen zu lernen oder Lernen_II

Betrachtet man das Beispiel aus dem vorstehenden Abschnitt III.1 als eine Vorstufe f�r den Antrieb eines Haushaltsroboters, dann ist eine Regelung auf der Basis von Lernen_0 und Lernen_I ganz offensichtlich noch nicht ausreichend. Um dies einzusehen, stellen wir uns vor, die Parkposition im obigen Beispiel sei durch ein Hindernis derart blockiert, da� das Fahrzeug das Hindernis nicht umfahren und somit die Parkposition nicht erreicht werden kann. Wenn der oben beschriebene Regler technisch vern�nftig konzipiert ist, dann wird das Fahrzeug stoppen und eine Fehlermeldung anzeigen. Niemand wird erwarten, da� unter den gegebenen Voraussetzungen das Fahrzeug - aus eigener Leistung - den Versuch unternimmt, das Hindernis beiseite zu schieben oder eine neue Parkposition zu definieren, es sei denn, eine solche Option wurde vorher einprogrammiert.

Selbstverst�ndlich ist es m�glich, eine derartige Option vorher einzuprogrammieren. Dies bedeutet lediglich, da� der Kontext, in dem sich der betrachtete Proze� abspielen soll, durch diese Ver�nderung des Algorithmus entsprechend erweitert wurde, d.h. f�r das betrachtete Beispiel �Einparken in eine vorgegebene Position und wenn n�tig ein Hindernis beiseite r�umen oder eine neue Position definieren�. Eine strukturell neue Lernsituation wird dadurch nicht erzeugt und deshalb ist diese Option f�r die weitere Diskussion uninteressant.

Stattdessen fordern wir von dem System, da� es auf ein derart unerwartetes Ereignis aus eigener Leistung eine Erweiterung des Kontextes vornimmt. Das bedeutet, da� das System in der Lage sein mu�, den eigenen Algorithmus zu ver�ndern und nicht nur den Datensatz wie bei Lernen_I. Genau das w�rde man im allt�glichen Leben unter �Lernen� in einer entsprechenden Situation verstehen. Bei diesem Lernen �ndert sich das Verh�ltnis zwischen dem lernenden System und seiner Umgebung, und das stellt technisch gesprochen eine Ver�nderung des Algorithmus dar, der das betreffende System charakterisiert.

Ein System, welches dazu in der Lage ist, mu� �ber kognitive und volitive F�higkeiten verf�gen. Es mu� eine neue Situation wahrnehmen, sie reflektieren und entscheiden, d.h. einen Kontext festlegen, in dem die empfangenen Signale eine Bedeutung f�r das System erhalten. Mit anderen Worten, der Proze� �Lernen_eines_Systems_mit_Umgebung�, d.h. Lernen_II umfa�t wenigstens zwei sich wechselseitig bedingende, simultan-parallel ablaufende Prozesse (vrgl. Ref.7):

(i) >> . . . a volitive (decision making) process structuring the environment by a determination of relevances and a corresponding context of significance within the semantical domain produced by (ii) . . .

(ii) . . . a classification and abstraction of the data by cognitive processes producing a representational structure of content and meaning within the context chosen in (i) >> . . . (9)

Beide Prozesse sind komplement�r zueinander, d.h. sie bedingen sich gegenseitig und es macht keinen Sinn sie einzeln, d.h. voneinander unabh�ngig, betrachten zu wollen. Da unsere Vorstellungen heute sehr stark durch eine physikalische Begrifflichkeit und Anschauung gepr�gt ist, werden diese Prozesse h�ufig als getrennt ablaufend betrachtet. Damit wird aus logischer Sicht jedoch eine vollst�ndig andere Prozessualit�t beschrieben. Der durch die Beziehung (9) gegebene Proze� l��t sich weder auf einen hierarchisch strukturierten Entscheidungsbaum abbilden, noch l��t er sich sequentiell darstellen oder beschreiben.

Die formale Darstellung derartiger Prozesse verlangt vom System die logische Unterscheidung zwischen einem Objekt (z.B. dem konkreten Hindernis) und dem Abbild des Objekts: Der Tisch, der vor einem steht, ist logisch gesehen von anderem Typus wie der Begriff des Tisches, also sein Abbiild, oder um es in der Sprache der Mengenlehre auszudr�cken, die Menge ist von logisch h�herem Typus als ihre Elemente, gleiches gilt f�r das Verh�ltnis von Operator und Operand.

Ein System, welches lernt, wie es lernt, also der Proze� �Lernen lernen�, wird als Lernen_II bezeichnet /18/. Die formale Darstellung eines derartigen Prozesses, bei dem das System die gesamte Situation reflektiert und seinen eigenen Algorithmus ver�ndern soll, erfordert demnach ein Vertauschen von Operator und Operand, d.h. was von einem Standpunkt ein Operator war, wird im Proze� der Reflektion zum Operanden und umgekehrt. Dieser Umtauschproze� mu� simultan-parallel ablaufen. Das ist das Problem, welches der Aussage (9) zugrunde liegt und das es zu l�sen gilt, wenn Prozesse wie �Lernen II� technisch realisiert werden sollen.

Aus der Abb.4 l��t sich anhand zweier Muster der Proze� von Lernen_II am sogenannten "Umkehrungs-Lernen" nochmals verdeutlichen: Einem neuronalen Netz wird das Muster 1 angeboten, das Netz wird auf dieses Muster trainiert. Danach wird das Muster 2 angeboten und das Netz wird auf das Muster 2 adaptiert. Danach wird wiederum Muster 1 angeboten, dann wieder Muster 2 usw. Die entscheidende Frage lautet, was lernt das System (in diesem Fall das neuronale Netzwerk) aus eigener Leistung �ber die Umkehrung ? Bei einem lernf�higen System im Sinne von Lernen_II w�rde sich nach einiger Zeit die jeweilige Dauer der einzelnen Trainingsphasen verk�rzen. Ein herk�mmliches neuronales Netzwerk lernt aus eigener Leistung nichts �ber die Umkehrung des Adaptionsprozesses.

Obwohl jeder Kognitionsproze� ein Proze� �2. Ordnung� im Sinne von Lernen_II ist, und obwohl lebende Systeme sich von toten Objekten gerade durch ihre F�higkeiten zur Kognition signifikant unterscheiden, gibt es bisher weder eine technische Realisierung von Lernen_II, noch gibt es bis heute technische Realisierungen kognitiv-volitiver Prozesse. Die Modelle der Neuroinformatik geh�ren zur Kategorie der Lernprozesse 1. bzw. 0. Ordnung und stellen konzeptionell gesehen, wie schon in Abschnitt II erw�hnt, digitale Datenfilter, d.h. non_kognitive Netzwerke dar.

Die Frage stellt sich, "ob es �berhaupt notwendig ist, derartige Prozesse formal zu beschreiben, um sie anschlie�end technisch zu realisieren?"

Dazu sei nochmals auf das Beispiel des parkenden Fahrzeuges in der Variante mit �verbarrikadierter Parkposition� zur�ckgegriffen. Die gestellte Frage l�uft technisch gesehen auf die Alternative hinaus, den Kontext f�r die Aktionen des Systems entweder durch vorherschauendes Programmieren ad�quat zu erweitern, d.h. das vom Standpunkt des Systems unerwartete Ereignis wird vom Konstrukteur vorausschauend einprogrammiert, oder das System reagiert selbst auf das unerwartete Ereignis und modifiziert den eigenen Algorithmus (Lernen II), um auf diese Weise seinen Handlungskontext (selbst) zu erweitern. Dabei k�nnte das System zu unterschiedlichen Entscheidungen gelangen, n�mlich eine neue Parkposition aufsuchen oder das Hindernis beseitigen. Beide Resultate stellen eine ad�quate Erweiterung des globalen Handlungskontextes "Einparken_in_eine_vorgegebene_Position" dar.

Die Notwendigkeit der technischen Realisierung von Lernen_II wird sofort deutlich, wenn man zu dem Szenarium �Haushaltsroboter� �bergeht. Die Vorstellung, jede m�gliche Situation vorausschauend einprogrammieren zu k�nnen, ist absurd, insbesondere wenn ein solcher Roboter in irgendeinem realen Haushalt und nicht in einer k�nstlichen Kl�tzchenwelt agieren soll. Eine flexible Signal- und Datenverarbeitung verlangt hier nach Prozessen wie Lernen_II, das bedarf keiner weiteren Begr�ndung. Prozesse von Lernen_I alleine sind f�r die Konzeption eines Haushaltsroboters nur bedingt von Nutzen, denn es macht keinen Sinn, jede beliebige, neue Situation in eine �Look-Up-Table� aufzunehmen. Genau hierin, n�mlich in der Frage, ob eine neue Situation in den Datensatz eines globalen Kontextes �bernommen werden soll oder nicht, mu� vorher vom System selbst entschieden werden. Solche Entscheidungsprozesse werden aber erst durch die Realisierung von Lernen_II erm�glicht.

Fassen wir kurz zusammen:

- Lernen_0 steht f�r Prozesse, bei denen sich weder der Algorithmus noch der Datensatz ver�ndert. Der Datensatz ist entweder in der Form einer �Look-Up-Table� oder in Silikon oder in beliebig anderer Hardware gespeichert.

- Lernen_I steht f�r adaptive Prozesse, bei denen das System aus eigener Leistung den gespeicherten Datensatz, die �Look-Up-Table�, einer ver�nderten Situation anpa�t, sie erg�nzt oder zielorientiert (gem�� Regelungskontext) optimiert. Die Ver�nderungen sind dabei von �lokaler� Natur, der �globale Kontext�, in dem das System agiert, bleibt ebenso wie der das System charakterisierende Algorithmus unver�ndert.

- Lernen_II steht f�r adaptive Prozesse, bei denen nicht nur der Datensatz (die Operanden), sondern vor allem der Algorithmus (die Operatoren) vom System selbst ver�ndert werden. Dies entspricht einer Erweiterung des Regelungskontextes, in dem das System agiert - das System lernt (aus eigener Leistung) etwas �ber seine Umwelt.

- Lernen_0 und Lernen_I lassen sich mit den Modellen der Neuroinformatik sowie mit Methoden der Fuzzy Logik, aber auch allen anderen mathematischen Hilfsmitteln nachbilden und technisch applizieren. In die Kategorie von Lernen_I geh�ren auch die genetischen Algorithmen, die sich technisch zur L�sung von Optimierungs- und Klassifikationsaufgaben besonders bew�hrt haben.

- Kognitive Prozesse geh�ren in die Kategorie von Lernen_II und wurden bis heute technisch noch nicht realisiert.


IV. Res�mee

Der Stand wissenschaftlicher Erkenntnis stellt sich heute i.allg. so dar, da� von Autonomie, Kognition, Lernen usw. im Kontext biologischer und technischer Systeme zwar gesprochen, die Problematik der Geschlossenheit jedoch nicht zur Kenntnis genommen wird. Dabei wird in aller Regel auch �bersehen, da� autonome Systeme nicht nur �ber kognitive sondern auch �ber volitive F�higkeiten verf�gen m�ssen /19/. Damit nimmt die Komplexit�t des Problems der (formalen) Beschreibung autonomer Systeme noch erheblich zu.

Begriffe wie �Offenheit� und �Geschlossenheit resultieren nicht aus experimentellen Messungen, sondern sind wie �rechts� und �links� standpunktabh�ngige Beschreibungskategorien, die erst im Rahmen einer formalen Darstellung ihre eigentliche Bedeutung erlangen. Alle r�umlich-geometrischen Vorstellungen sind somit f�r die begriffliche Fassung einer Theorie autonomer Systeme v�llig obsolet. Jede experimentelle Messung reduziert das zu untersuchende Objekt zu einem System mit einem Anfangs- und einem Endzustand und damit zu einem "offenen System", an dem generell nur physikalisch-chemische Parameter gemessen werden k�nnen. Kognitive Prozesse lassen sich damit nicht erfassen, d.h. die Thematik von "Kognition und Autonomie" geht auf diesem Weg verloren.

Was ben�tigt wird, ist ein geeigneter Kalk�l zur Entwicklung eines Modells biologisch kognitiver Netzwerke, der eine simultane (formale) Darstellung offener und geschlossener Netze (Systeme) erlaubt. Daf�r werden jedoch wenigstens drei unterschiedliche, miteinander jeweils vermittelte Beschreibungspositionen ben�tigt, aus denen heraus sich das Modell biologisch kognitiver Netze (Systeme)

- als offene Netzwerke (Systeme-physikalisch-chemische Beschreibungsdom�ne)

- als geschlossene Netzwerke (Systeme-kognitive Beschreibungsdom�ne) und

- als Relation von offenen und geschlossenen Netzwerken (Systemen)

widerspruchsfrei thematisieren l��t. Die wissenschaftliche Umsetzung dieser Forderung stellt prim�r ein wissenschaftslogisches, interdisziplin�r-orientiertes Problem dar, worauf in der Vergangenheit schon mehrfach hingewiesen wurde /20/ und begr�ndet gleichzeitig das formale Fundament einer modernen allgemeinen Systemtheorie.


Referenzen

/1/ von Foerster, H., Kybernetik einer Erkenntnistheorie, in: Sicht und Einsicht, Vieweg Verlag, Braunschweig, 1985. zum Text

/2/ Varela, F. , Principles of Biological Autonomy, in: General Systems Research (Klir, G., ed.), Vol.II, North Holland Publ., Amsterdam, 1979. zum Text

/3/ Maturana, H.., Biologie der Kongnition, in Erkennen, die Organisation und Verk�rperung von Wirklichkeit, Vieweg Verlag, Braunschweig, 1975. zum Text

/4/ Maturana, H. & Varela, ,F., Autopoiesis: The Organization of the Living, in: Autopoiesis and Cognition, Boston Studies in Philosophy of Science, Vol. 42, p.63-134, (M.S.Cohen, M.W. Wartoisky, eds.) D. Reidel Publ., Dodrecht 1972. zum Text

/5/ Falk, G., & Ruppel, W., Energie und Entropie - Eine Einf�hrung in die Thermodynamik, Springer Verlag, Berlin, 1976. zum Text

/6/ von Foerster, H., Entdecken oder Erfinden - Wie l��t sie Verstehen verstehen?, in: Einf�hrung in den Konstruktivismus (H. Gumin & A. Mohler, eds.), Oldenburg Verlag, M�nchen, 1985.

In dieser Publikation wird das Problem der �Geschlossenheit� bei kognitiven Prozessen an Hand einer unendlichen Rekursion verdeutlicht. Eine unendliche Rekursion ist mit keiner Turing Maschine bearbeitbar und damit auch nicht mit Hilfe eines Computers berechenbar. zum Text

/7/ von Goldammer, E. & Kaehr, R., Poly-contextural modeling of heterarchies in brain functions, in: Models of Brain Functions (Cotterill, R.M.J., ed.), Cambridge University Press, 1989, p.483-497. zum Text

/8/ siehe dazu auch Ref. /6/. zum Text

/9/ Unbestimmbarkeitsprinzip nach A. Gill: Gill hat gezeigt, da� es funktionale Organisationen solcher finiter Automaten gibt, die prinzipiell nicht durch eine endliche Versuchsfolge erschlossen werden k�nnen:

Gill, A., Introduction to the Theory of Finite-State-Machines, Mc-Graw-Hill, N.Y., 1962. zum Text

/10/ Kaehr, R. & von Goldammer, E., Again Computers and the Brain, Journal of Molecular Electronics, Vol. 4, 1988, p.S31-S37. zum Text

/11/ von Goldammer, E. & Kaehr, R., Problems of Autonomy and Discontexturality in the Theory of Living Systems, in: Analyse dynamischer Systeme in Medizin, Biologie und �kologie, Reihe: Informatik-Fachberichte , (M�ller, D.P.F. & Richter, O., Hersg.), Springer Verlag, 1990, p.3-12. zum Text

/12/ von Goldammer, E. & Kaehr, R., Lernen in Maschinen und lebenden Systemen, Design und Elektronik, M�rz 1989, p.146-151. zum Text

/13/ In einer logischen Dom�ne sind jeweils alle logischen Opertionen g�ltig. zum Text

/14/ So versteht man heute unter einem physikalischen "Teilchen" den Energie- und Impulstransport durch den freien Raum. Damit hat sich die Bedetung des Begriffes "Teilchen" von etwas Greifbarem ins Abstrakte hin gewandelt. Dies ist eine unmittelbare Folge der Atomphysik, in der z.B. Licht sowohl als Welle wie auch als Teilchen (Photon) bechrieben werden kann. Bei einem Billardspiel sind nicht die greifbaren Kugeln von physikalischem Interesse, sondern wiederum nur der Energie- und Impulstransport sowie deren Austausch beim Sto�. zum Text

/15/ Langton, C.G., (ed.), Artificial LIfe, Addison-Wesley Publ., 1989. zum Text

/16/ M�ller, J. (Hrsg.), Verteilte K�nstliche Intelligenz, BI-Wissenschaftsverlag, Mannheim, 1993. zum Text

/17/ Antsaklis, P.J. & Passino, IK.M. (eds.), An Introduction to intelligent and Autonomous Control, Kluwer Academic Publ. 1993. zum Text

/18/ siehe Ref. /12/ zum Text

/19/ siehe Ref. /7/ zum Text

/20/ siehe Ref. /7/, /10/, /11/, /12/ zum Text


Adresse der Autoren:

Institut f�r Kybernetik & Systhemtheorie - ICS
B�ro: Harpener Hellweg 532
44388 Dortmund

vgo@xpertnet.de

jpaul@xpertnet.de

Contact webmaster@vordenker.de
Copyright � 1996 E. v. Goldammer, J. Paul
Issued: December 19, 1996
Last modified (layout)
2016-07-16