Autonomie in Biologie und Technik Kognitive Netzwerke - Artificial Life - Robotik von E. von Goldammer & J. Paul |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||
I. Ausgangs-Situation | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Der
Versuch, eine wissenschaftliche Beschreibung lebender
Systeme im Sinne einer "ganzheitlichen", d.h.
nicht-reduktionistischen �Theorie des Lebens� zu
entwickeln, hat in den 70er Jahren zu einem fundamentalen
Wechsel des bis dahin g�ltigen wissenschaftlichen
Paradigmas einer strikten Trennung von Beobachter und
Beobachtetem gef�hrt. Der Beobachter wird zum "Teil des zu
beschreibenden Systems" /1/:
Diese beiden sich zueinander komplement�r verhaltenden Aussagen setzen zun�chst einmal �Autonomie�, d.h. �Selbst-Regelung� f�r lebende Systeme notwendig voraus. Dabei ist der Begriff der �Selbst-Regelung� synonym mit dem Ausdruck �Regelung der Regelung�, und das bedeutet in der Terminologie der Kybernetik:
Die Akzeptanz einer derartigen Aussage hat erhebliche Konsequenzen f�r die (kybernetische) Beschreibung autonomer Systeme, denn sie verlangt die organisatorische Geschlossenheit autonomer Systeme im Sinne der "Closure Thesis" /2/:
Diese Anschauung ist mit dem Wiener�schen Begriff des "Feedback" schlechthin unvereinbar. Hier wird der �bergang von der klassischen Kybernetik (1. Ordnung), deren Beschreibungsobjekte ausschlie�lich �Input/Output�-Systeme sind, zur "Kybernetik 2. Ordnung" deutlich, die es ganz offensichtlich mit (operativ) geschlossenen, d.h. autonomen Systemen zu tun hat. Der epistemologisch entscheidende Punkt resultiert aus der Erkenntnis, da� �operative Geschlossenheit� und �Autonomie� lebender Systeme unvereinbar sind mit einer Beschreibung des Systems aus seinem (vom Beobachter festgelegten) System/Umgebungs-Verh�ltnis heraus. Mit anderen Worten, die durch den Beobachter definierte Abgrenzung von System und Umgebung, durch die ein Input/Output-Verh�ltnis erst definiert wird, ist immer unterschiedlich zur Grenzbildung, die das autonome System durch seine (operative) Geschlossenheit relativ zu allen anderen Systemen erzeugt. Es existieren also zwei vollst�ndig unterschiedliche, nicht zu vereinbarende (standortabh�ngige) Beschreibungsvarianten:
Parallel zur Entstehung der besonderen Rolle des Beobachters in der Konzeption einer �Theorie lebender Systeme� steht in diesem Kontext die Fragestellung nach der Relation von System und Umgebung, die wiederum unter dem Aspekt der kognitiven F�higkeiten als primordialer Eigenschaft von �Leben �berhaupt� verstanden wird /3/:
Auf dem Weg zu einer �Theorie lebender Systeme� kommt der Konzeption der �Autopoiese� von Maturana und Varela /4/ eine zentrale Rolle zu. Dabei stellt die �Theorie autopoietischer Systeme� den Versuch einer rein semantischen, d.h. nicht-formalen Theorie lebender Systeme dar, mit der erkl�rten Absicht, eine biologische (nicht-physikalistische) Begrifflichkeit lebender Systeme zu entwickeln - das ist ihr Verdienst. Was auf der Basis einer rein semantischen Theorie jedoch nicht gelingen kann, ist eine Symbiose von Computer- und Biowissenschaften im Sinne der Simulation biologischer Systeme und der daraus resultierenden Konstruktion entsprechender technischer Artefakte - das ist das Problem. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||
II. Wissenschaftlich-technische Problemstellung | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||
W�hrend
alle bis heute bekannten Modelle der Neuroinformatik
ausschlie�lich klassische Input/Output-Systeme - also
offene Systeme - beschreiben, stellen die von der
�Kybernetik 2. Ordnung� geforderten Modelle biologisch
kognitiver Netzwerke geschlossene Systeme dar. Hier besteht
ganz offensichtlich ein unvereinbarer Widerspruch in der
Vorstellung zwischen �offenen� und �geschlossenen�
Systemen, Netzwerken oder Modellen der Beschreibung.
Entscheidend ist dabei die Erkenntnis, da� nur
geschlossene Systeme eine Umgebung besitzen k�nnen,
w�hrend offene Systeme prinzipiell keine Umbebung
besitzen.
Wird also nach einem Modell zur Beschreibung kognitiver Prozesse gesucht, dann mu� dieses den Aspekt der �Geschlossenheit� beinhalten, denn
Dies wiederum setzt notwendigerweise die Existenz einer Umgebung f�r das System - vom Standpunkt des Systems aus - voraus und nicht lediglich nur vom Standpunkt eines Beobachters des Systems aus, wie dies heute in aller Regel beim Begriff �Umgebung� naiverweise angenommen wird (siehe dazu Aussage 4). Es sei hier der Hinweis gestattet, da� bei dieser Definition von Kognition zwischen �Kognition� und �Bewu�tsein� unterschieden wird. Um bei einem System von �Bewu�tsein� zu sprechen, mu� dieses �ber kognitive F�higkeiten verf�gen; die Umkehrung der Aussage, da� kognitive Systeme �ber �Bewu�tsein� verf�gen, ist nicht allgemeing�ltig. Sich diesen Sachverhalt zu verdeutlichen, ist notwendig, wenn �Kognition� als eine charakteristische Eigenschaft lebender Systeme angesehen wird (vgl. Aussage 5), durch welche diese sich von den toten Objekten der Physik und Chemie unterscheiden. Eine Definition der jeweiligen Begriffe wie �Umgebung� oder �Kognition� ist, wenn (Kognitions-) Wissenschaft ernsthaft betrieben werden soll, zwingend notwendig. Die Bedeutung einer solchen Definition f�r technische Entwicklungen kognitiver Systeme l��t sich anschaulich an dem Beispiel eines Roboters demonstrieren:
1. Physikalische Systeme sind "offene" Systeme Ber�cksichtigt man, da� es sich bei der Fuzzy Logik um einen Kalk�l und bei den neuronalen Netzwerken um Modelle handelt, denen ein Kalk�l zugrunde liegt, so wird schon an dieser Stelle deutlich, da� zumindest aus konzeptioneller Sicht der Begriff des �NeuroFuzzy-Systems� einem wissenschaftlichen Eintopf gleichkommt, in dem Unterschiedliches miteinander verkocht werden soll, in der Hoffnung, da� durch die Einf�hrung von Prinzipien wie �Selbstorganisation� oder �Unscharfes Schlie�en�, getreu der Homunkulus-Idee, ein �intelligentes� System entstehen m�ge. Ohne eine klare Definition dessen, was beschrieben, modelliert oder konstruiert werden soll, stellen solche oder �hnliche Begriffskombinationen jedoch eine konzeptionell-wissenschaftliche Sackgasse dar. Die oben gegebene Definition von �Umgebung� und �Kognition� erfordert, und das kann gar nicht oft genug betont werden, die Annahme �geschlossener� Systeme. Um die Konsequenz des Postulats der �Geschlossenheit� lebender Systeme zu verdeutlichen, ist es angebracht, die entsprechende Begriffsbildung in den Naturwissenschaften einmal zu hinterfragen. Aus Physik und Chemie sind wir gew�hnt, uns �ber den Systembegriff nur wenig oder gar keine Gedanken zu machen. �Offene� und �geschlossene� Systeme werden allenfalls in der Thermodynamik abgehandelt und dort im allgemeinen als geometrische Abgrenzungen verstanden, d.h., die Systeme werden durch einen Raumbereich definiert. Die Unterscheidung zwischen �geschlossen� und �offen� bezieht sich in der Physik darauf, ob Materie, die ein solcher Raumbereich enth�lt, bei Prozessen in dem Raumbereich verbleibt oder nicht. Ein im Rahmen dieser Begriffsbildung als �geschlossen� festgelegtes physikalisches System l��t im Gegensatz zu einem �offenen� keine Materie durch seine Begrenzungen str�men. Ist die Begrenzung eines Systems nicht nur f�r Materiestr�me, sondern f�r alle Energiestr�me undurchl�ssig, dann wird ein derartig festgelegtes physikalisches System als �abgeschlossen� oder �isoliert� bezeichnet. Man erkennt, da� bei dieser Systemdefinition an eine r�umliche Vorstellung appelliert wird. Diese auf den ersten Blick vermeintlich anschauliche Systemdefinition ist jedoch sowohl aus mathematischer wie auch aus physikalischer Sicht nicht nur unzweckm��ig, sondern im h�chsten Ma�e wissenschaftlich inkonsequent. Sie stammt aus einer Zeit, in der die Stoffmenge (gemessen in �mol�) als physikalische Gr��e allgemein noch nicht akzeptiert war und die �chemische Energie� als Energieform von den Physikern ignoriert wurde. Nun haben aber physikalische Systeme immer eine gemeinsame Eigenschaft, n�mlich Energie in verschiedenen Formen mit anderen (physikalischen) Systemen auszutauschen. Dabei �ndert sich der physikalische Zustand des betrachteten Systems von einem, sagen wir Zustand 1 in einen Zustand 2 - oder anders ausgedr�ckt von einem Anfangszustand zu einem Endzustand. Die Ver�nderungen der das System beschreibenden physikalischen Variablen ist das, was in der Physik gemessen wird. �ndert sich der Zustand eines Systems nicht, dann kann man auch nichts messen oder anders herum ausgedr�ckt, tauscht das betrachtete System keine Energie mit einem anderen System aus, dann �ndert sich nichts an dem System und es l��t sich infolgedessen auch nichts messen. Das bedeutet aber im vorliegenden Kontext �offener� und �geschlossener� Systeme, da� es in der Physik keinen Sinn macht, Systeme zu betrachten, die keine Energie austauschen k�nnen - die Physik (und Chemie) kennt nur Systeme, die offen sind, d.h. einen Austausch von Energie mit anderen Systemen zulassen. F�r die formale Darstellung physikalischer Systeme sind Begriffe wie �offen� und �geschlossen� v�llig �berfl�ssig /5/, was nicht �berraschend ist, da sich beide Begriffe wechselseitig bedingen. Nur wenn auch physikalische Systeme, bei denen keine Energie mit anderen Systemen ausgetauscht werden kann - die im sprichw�rtlichen Sinne als geschlossen angesehen werden m��ten - eine physikalische Bedeutung h�tten, m��ten die Begriffe von �Offenheit� und �Geschlossenheit� im Zusammenhang mit der Systemfestlegung in einer physikalischen Theorie ber�cksichtigt werden. Solche hypothetischen "geschlossenen" (physikalischen) Systeme befinden sich in einem physikalischen Zustand, in dem sie bis in alle Ewigkeiten verharren, an ihnen l��t sich nichts messen und damit sind sie aus physikalischer Sicht bedeutungslos. Kurz, der Begriff der �Geschlossenheit� macht in der Physik und Chemie keinen Sinn.
Zusammenfassend l��t sich festhalten:
Der Begriff des �Gleichgewichts� bezieht sich immer auf einen physikalischen Zustand, stellt also begrifflich nichts Neues dar. Befindet sich ein physikalisches System im Gleichgewicht, dann tut sich aus physikalischer Sicht nichts an dem System. Lebende Systeme sind aus physikalisch-chemischer Sicht immer "fernab" vom physikalisch-chemischen Gleichgewicht. W�ren sie im physikalischen Gleichgewicht, dann w�ren sie im sprichw�rtlichen Sinne "mausetot" und damit auch nicht zur Kognition bef�higt. Lebende Systeme werden permanent von Energie durchstr�mt, d.h. in sie str�mt sowohl Energie hinein wie auch heraus. Was dagegen niemals aus ihnen heraus oder in sie hineinstr�mt, ist Information und zwar auch dann nicht, wenn Elektroden im Gehirn angelegt werden. Es str�mt immer nur Energie, das gilt auch f�r den Wahrnehmungsapparat oder die vom Experimentator im Gehirn angelegten Elektroden - hier k�nnte man allenfalls in der Sprache der Nachrichtentechnik von Signalen sprechen, die erst in dem empfangenden System selbst und/oder im Kopf des Experimentators: (Shannon�sche Informationstheorie) zur Information f�r das System und/oder den Experimentator werden. Dabei ist die Bedeutung der Information f�r das System nicht notwendigerweise identisch mit der Bedeutung der Information die "im Kopf des Experimentators errechnet" wird - das ist das Problem.
2. Die Reduktion biologischer Systeme zu "offenen" Systemen oder der Reduktionismus in der Biologie Da durch jede Messung die Ver�nderung zwischen einem Anfangs- und einem Endzustand bestimmt wird, reduziert jede experimentelle Wissenschaft, bei der die Messung im Vordergrund steht, ein System zu einem offenen (Teil-) System, bei dem es einen �Anfang� und eine �Ende�, einen �Input� und einen �Output� gibt. Das sind Begriffe, die nur im Zusammenhang mit offenen Systemen einen Sinn ergeben, und damit wird auch klar, warum in den klassischen Naturwissenschaften der Begriff des �Systems� im allgemeinen nur eine untergeordnete Rolle spielt, von �Geschlossenheit� zu sprechen ist in diesem Kontext sinnlos. Das gilt auch f�r die Biologie, die, wenn �berhaupt von Systemen gesprochen wird, in aller Regel auf die aus formaler Sicht obsoleten r�umlich-geometrischen Vorstellungen der Physik und Chemie zur�ckgreift. Nun wird aber von Seiten der modernen Kybernetik �Geschlossenheit� eines Systems f�r die Existenz einer �Umgebung� und diese wiederum f�r die Beschreibung �kognitiver� Prozesse gefordert, und es sind gerade die kognitiven F�higkeiten, die lebende Systeme von toter Materie signifikant unterscheiden. Damit stellt sich diese Thematik nicht nur den Ingenieur- und Computerwissenschaften bei ihren Bem�hungen um eine Modellierung und Simulation kognitiver Prozesse, sondern sie stellt sich auch und gerade den Biowissenschaften. So reduziert sich aus wissenschaftlich konzeptioneller Sicht das System �Affe�, bei dem beispielsweise die Hirnaktivit�t als Funktion (vom Experimentator) vorgegebener �u�erer optischer Reize durch Elektroden gemessen wird, auf das System eines lebenden, nicht-trivialen Signal- oder Datenfilters, bei dem ein lebendes neuronales Netzwerk eingesetzt wird. Durch die experimentelle Anordnung ist das System �Affe� bzw. dessen Gehirn (f�r den Experimentator) zu einem offenen System reduziert worden. �ber den (visuellen) Wahrnehmungs- oder Kognitionsproze�, der sich im System �Affe� w�hrend der experimentellen Situation abspielt, erf�hrt der Experimentator durch solche oder �hnlich durchgef�hrten Messungen nichts. An dieser Situation w�rde sich nat�rlich auch dann nichts �ndern, wenn experimentell die M�glichkeit best�nde, die Aktivit�t jedes einzelnen Neurons bis ins letzte Detail vermessen zu k�nnen. Erfolgreicher dagegen sind derartige Experimente, wenn es sich beispielsweise um Untersuchungen des Stoffwechsels handelt, dann befindet man sich jedoch eindeutig im Kontext von Physik und Chemie, und das ist ganz offensichtlich eine andere Beschreibungsdom�ne als die der kognitiven Prozesse.
Es ist in diesem Kontext nicht weiter relevant nach dem wissenschaftlichen Nutzen von Messungen der Hirnaktivit�t bei Tieren zu fragen, das steht hier nicht zur Debatte. Fest steht jedoch, da� auf diese Weise keine Erkenntnisse �ber den Proze� der Kognition gewonnen werden k�nnen, der Vergleich mit einem NTA liegt auf der Hand. Wenn aber die F�higkeit zur Kognition ein wesentliches Merkmal lebender Systeme ist, dann tragen Experimente dieser Art, wenn �berhaupt, nur wenig zu einer "Theorie lebender Systeme" bei und damit n�tzen sie einem Ingenieur, der kognitive F�higkeiten in einem technischen System abbilden m�chte, nichts. An dieser Stelle ist es angebracht, sich in einem Gedankenexperiment folgenden hypothetischen Fall vorzustellen: Angenommen, einem Ingenieur sei die Konstruktion eines technischen Systems mit kognitiven F�higkeiten gelungen - wie will die "Nachwelt" den Algorithmus eines solchen Systems erforschen, wenn dieser nicht publiziert wurde? Durch Messungen der elektrischen Signale, d.h. deren Amplituden und/oder Frequenzen, gelingt dies aus den oben dargelegten Gr�nden ebensowenig, wie es einem Biologen gelingt, aus elektrophysiologischen Messungen der Hirnaktivit�t etwas �ber den Proze� der Kognition zu erfahren. Schlimmer noch, selbst der Algorithmus eines einfachen Programms, wie es heute in jedem gew�hnlichen Computer abl�uft, l��t sich auf diesem Weg nicht finden (vrgl. dazu Ref.9). Fassen wir kurz zusammen:
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||
III. Autonome Systeme: Beschreibung und Konstruktion | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Sowohl
die Modellierung autonomer Systeme, deren Simulation sowie
die Formulierung einer Theorie lebender Systeme stellen eine
�u�erst komplexe interdisziplin�r orientierte Aufgebe
dar, die, ebenso wie die Konstruktion autonomer Fahrzeuge,
d.h. zur Kognition bef�higter technischer Artefakte, eine
(formale) Sprache als Kommunikationshilfe und
Konstruktionsgrundlage voraussetzt. Eine ad�quate formale
Sprache mu�, wie in Abschnitt II dargelegt wurde, so
strukturiert sein, da� verschiedene Beschreibungsdom�nen
durch daf�r geeignete Operatoren miteinander vernetzt
werden k�nnen, und nicht wie bisher beziehungslos
irgendwie nebeneinander stehen. Das ist sozusagen die
minimale Voraussetzung f�r eine vereinheitlichte Theorie
physikalischer (und chemischer) mit kognitiven (und
volitiven) Prozessen, wie sie nun einmal in lebenden
Systemen ganz offensichtlich auftreten.
Da alle wissenschaftlichen Aussagen logisch fundiert sein m�ssen, ist als formale Sprache zun�chst ein Logik-Kalk�l gefordert, bei dem verschiedene logische Dom�nen /13/ durch geeignete Operatoren bereits so miteinander vernetzt sind, da� eine Beschreibung, d.h. Modellierung und Simulation, simultan-parallel ablaufender physikalisch-chemischer und kognitiv-volitiver Prozesse m�glich wird. Ein derart parallel vernetzter Kalk�l ist durch die Poly-Kontextural-Logik (PKL) und die ihr zugrunde liegende Stellenwerttheorie bereits gegeben. Das Problem einer formal wissenschaftlichen Beschreibung lebender Systeme in einem "ganzheitlichen" Sinne besteht in der Aufgabe, diesen Kalk�l in ad�quater Weise mit Semantiken zu f�llen. Dies stellt die bereits erw�hnte komplexe interdisziplin�re Aufgabe dar, f�r die es keine historischen Vorbilder gibt. Wissenschaftsgeschichtlich gesehen ist dies eine v�llig neue Situation, denn in der Vergangenheit wurde parallel zur Entwicklung der begrifflichen Fassung einer Theorie, die aus der experimentellen Beobachtung abgeleitet wurde, ein Formalismus entwickelt. Die mathematisch formale Weiterentwicklung einer solchen Theorie f�hrte dann zur Reduktion der Bedeutungsvarianz der verwendeten Begriffe /14/. Eine weitere grunds�tzliche Schwierigkeit auf dem Weg zu einer �Theorie lebender Systeme� resultiert aus der Tatsache, da� wir nicht �ber die F�higkeit verf�gen, Begriffe simultan-parallel zu denken, schlimmer noch, eine derartige Parallelit�t von Prozessen kann weder gemessen noch sonst in irgendeiner Weise unmittelbar wahrgenommen werden. Das bedeutet jedoch nicht, da� solche Prozesse m�glicherweise gar nicht existieren - f�r das Verst�ndnis lebender Systeme sind sie von fundamentaler Bedeutung. Erst die Begrifflichkeit einer derartigen Prozessualit�t, bei der Probleme wie z.B. Mehrzeitigkeit, Polyrhythmie, etc. auftauchen und theoretisch zu bew�ltigen sind, f�hren zu einer �Therorie des Lebens�. Alle heute bekannten parallelen Rechnerarchitekturen und die auf diesen Plattformen ablaufenden Algorithmen lassen sich grunds�tzlich auch sequentiell abarbeiten, ohne da� der durch sie abgebildete Proze� eine qualitative Ver�nderung erf�hrt - was sich dabei ver�ndert ist die Bearbeitungsgeschwindigkeit des Algorithmus. Diese Art von Parallelit�t ist nicht gemeint, wenn hier von simultaner Parallelit�t die Rede ist. Da menschliche Denkprozesse sequentiell ablaufen, und sich simultan-parallel ablaufende Prozesse prinzipiell nicht messen lassen, ist f�r die Entwicklung einer �Theorie des Lebens� der Computer ein unverzichtbares Hilfsmittel (zur Modellierung) und Werkzeug (zur Simulation). Der Weg zu einer �Theorie des Lebens� f�hrt sowohl methodisch wie auch methodologisch �ber die Computerwissenschaften im Sinne einer Symbiose von Computer- und Biowissenschaften. Obwohl die Bezeichnung �Neuroinformatik� den Eindruck erweckt, als w�re durch die Renaissance dieses Gebietes zu Beginn der 80er Jahre eine derartige Symbiose bereits erfolgt, tr�gt der Schein, wie dies auch aus den Argumenten des Abschnitts II hervorgeht. Ber�cksichtigt man, da� einige Modelle der Neuroinformatik in den Lehrb�chern der Physik bzw. der Elektrotechnik unter anderen Bezeichnungen abgehandelt werden, wie beipielsweise als nicht-lineare Signal- und Daten-Filter und als solche seit Jahren bekannt sind und technisch erfolgreich appliziert werden, dann wird wiederum deutlich, da� es auf diesem Weg zu einer wirklichen Symbiose von Bio-. und Computerwissenschaften kaum kommen kann. So stellt beispielsweise das Paradigma der Neuroinformatik (bzw. des Neo-Konnektionismus) f�r die Psychologie einen R�ckfall in den Behaviorismus dar, der heute unter Psychologen als �berholt angesehen wird. Das Problem wird noch deutlicher, wenn man sich vergegenw�rtigt, da� die adaptierten Netzwerkmodelle zur Kategorie der �trivialen Automaten� gez�hlt werden m�ssen, was aus Sicht der Lernpsychologie allenfalls der "Konzeption des N�rnberger Trichters" entsprechen w�rde, wenn es denn eine solche �berhaupt gibt. Interessanter und vielleicht auch wegweisender sind in diesem Zusammenhang Entwicklungen anzusehen, die unter der Bezeichnung �Artificial Life� /15/ der �Multiple Agents� /16/ bekannt wurden sowie alle Bem�hungen seitens der modernen Robotik, autonome Systeme zu konzipieren /17/. Hier wird zumindest der Versuch unternommen, Eigenschaften zu simulieren und nachzubilden, die lebende Systeme auszeichnen. Auch wenn man diese Experimente noch als sehr rudiment�r und aus wissenschaftlicher Sicht teilweise vielleicht sogar als naiv ansehen mu�, so sorgen zumindest alle jene Ans�tze, die zu technisch-wirtschaftlichen Umsetzungen f�hren, wie die der Robotik, f�r den notwendigen Druck, um eine Umsetzung des eingangs erw�hnten Paradigmenwechsels in den (Bio-)Wissenschaften zu beschleunigen, wo diese Entwicklungen bisher kaum zur Kenntnis genommen wurden. Im folgenden soll die Thematik autonomer Systeme im Zusammenhang mit der Robotik etwas n�her beleuchtet werden.
1. Konzeption
eines adaptiven Reglers - In der Regelungstechnik besteht ein Problem darin, geeignete Regler so zu entwerfen, da� sie nicht nur sehr allgemein anwendbar, sondern vor allem stabil und robust sind. Dabei kommen heute auch neuronale Netzwerke (NN), Fuzzy-Regler (FR) und die Kombination aus beiden, die NeuroFuzzy-Systeme (NFS) zur Anwendung. Der Vorteil dieser "unkonventionellen" Methoden liegt vor allem darin, da� ohne die Kenntnis des genauen mathematischen Modells einer Regelstrecke bzw. der mathematischen Beschreibung von Mustern oder Objekten diese mit Hilfe von FR- und/oder NN-Techniken erfa�t und als �Look-Up-Table� f�r Echtzeit-Anwendungen vorgehalten werden k�nnen. An einem Beispiel soll das Problem verdeutlicht werden. Beispiel: "Unterwiesenes und Nicht_Unterwiesenes Lernen" Ein Roboter soll von Punkt A einen Gegenstand nach Punkt B transportieren (z.B. in einem Krankenhaus das Essen oder in einem Hotel das Gep�ck zwischen der Rezeption und den Zimmern verteilen). Dies Beispiel geh�rt nicht dem Bereich der Science Fiction an, solche Systeme gibt es bereits. In der Abb.3 ist die Situation f�r die folgende Diskussion nochmals etwas vereinfacht skizziert. Ein Fahrzeug soll in einem begrenzten Raumbereich selbst�ndig auf einen Parkplatz P fahren. Dazu sei das Fahrzeug mit Sensoren ausgestattet, die auf einer Achse befestigt sind und von einem Schrittmotor um definierte Winkel gedreht werden k�nnen. Damit l��t sich die Position des Fahrzeugs bestimmen, die durch die Variablen x,y und den Winkel Y repr�sentiert werden. Das Fahrzeug sei mit einer eigenen Recheneinheit zur Auswertung der Sensordaten sowie zum Ansteuern der Aktoren (Schrittmotor-Lenkung/Winkel-Vorderrad; Motor/Geschwindigkeit vor und zur�ck) ausgestattet. Das Fahrzeug ist ferner �ber eine Funkfernsteuerung mit einem externen Rechner bzw. einem Operateur verbunden. Abb. 3 : Regelungskontext "Einparken in eine vorgegebene Position" In der 1.Phase (Unterwiesenes_Lernen) wird das Fahrzeug von unterschiedlichen Startpositionen aus �ber die Funkfernsteuerung vom Operateur auf die Parkfl�che gesteuert. Die �ber die Sensoren jeweils ermittelten Positionen werden zusammen mit den korrespondierenden Aktordaten registriert. Sie bilden die Datens�tze f�r den Regler, die in einer �Look-Up-Table� verwaltet werden: Eingangsdaten: x,y, ; Ausgangsdaten: Einstellwinkel-Vorderrad, Geschwindigkeit (Betrag vorw�rts bzw. r�ckw�rts). In der 2.Phase (Nicht_Unterwiesenes_Lernen) findet das Fahrzeug aus allen m�glichen Positionen selbst�ndig den Platz P, d.h. auch aus Positionen, die vorher nicht eintrainiert wurden. Die �Look-Up-Table� wird sozusagen erg�nzt. Dar�ber hinaus soll das Fahrzeug die Anfahrwege, die Trajektorien, zum Ort P aus eigener Leistung nach vorgegebenen Kriterien optimieren. Letzteres wird in einer 3. Phase der Adaption von Bedeutung, wenn ein vorher nicht vorhandenes Hindernis auf der Fahrt zur Parkposition P eingebracht wird, und dieses Hindernis wiederholt angetroffen und umfahren werden mu�. In diesem Fall ist es zweckm��ig, das Hindernis als Objekt in die �Look-Up-Table� mit aufzunehmen, um den Fahrtweg zu optimieren. Hier mu� das System in der Lage sein, selbst�ndig eine Entscheidung zu treffen, ob die Look-Up-Table erg�nzt werden soll oder nicht. In diesem Beispiel wird im 1.Schritt das System in einer Anlernphase, die als �Lernen_0� bezeichnet werden soll, sozusagen vorprogrammiert. Konzeptionell gesehen entspricht diese Form des Lernens dem sogenannten �Supervised Learning�, wie es im Sprachgebrauch des Konnektionismus benannt wird. Aus dem Beispiel wird deutlich, da� in Schritt 2 und 3, also nach der Adaptionsphase, mit einer �Look-Up-Table� gearbeitet wird, die im 1.Schritt erstellt wurde. Die Ver�nderungen der Daten dieser �Look-Up-Table� durch Erg�nzung und/oder Optimierung sowie die Implementierung der Koordinaten m�glicher Hindernisse in die �Look-Up-Table� durch das System selbst wird im folgenden als �Lernen_I� bezeichnet. Konzeptionell entspricht dies dem �Unsupervised Learning� der Neuroinformatik. Ohne an dieser Stelle darauf einzugehen, wie die Phasen 1 bis 3 jeweils konkret realisiert werden k�nnen - dies ist keine triviale aber dennoch l�sbare Aufgabe - ist im vorliegenden Zusammenhang der in allen drei Phasen zeitlich invariante, d.h. sich nicht ver�ndernde Kontext des Prozesses entscheidend, n�mlich "Einparken in eine vorgegebene Position". Prozesse dieser Art besitzen sozusagen flie�band�hnlichen Charakter, d.h. sich st�ndig wiederholende gleiche Situationen. Dies gilt auch f�r das neu aufgetauchte Hindernis aus Phase 3, das als eine St�rung oder "starkes Rauschen" angesehen werden kann, bei dem der globale Kontext des Prozesse "Einparken_in_eine_vorgegebene_Position" trotz St�rung erhalten bleibt. Das Beispiel steht exemplarisch f�r sehr viele Regelungsaufgaben, bei denen die klassischen Methoden der Regelungstechnik ihre Anwendung finden. Ob dabei neuronalen Netzwerken, Fuzzy-Reglern oder Kombinationen davon der Vorzug gegeben wird, ist ausschlie�lich eine Frage der Zweckm��igkeit, d.h. man wird die flexiblere, robuste und vor allem die am einfachsten zu realisierende und damit die wirtschaftlich g�nstigste L�sung w�hlen. Mit anderen Worten, Prozesse, die hier mit dem Etikett des Lernen_0 bzw. Lernen_I gekennzeichnet wurden, lassen sich sowohl mit den herk�mmlichen Regelalgorithmen wie auch mit den NN-, FR- oder NFS-Techniken erfolgreich realisieren.
2. Lernen zu lernen oder Lernen_II Betrachtet man das Beispiel aus dem vorstehenden Abschnitt III.1 als eine Vorstufe f�r den Antrieb eines Haushaltsroboters, dann ist eine Regelung auf der Basis von Lernen_0 und Lernen_I ganz offensichtlich noch nicht ausreichend. Um dies einzusehen, stellen wir uns vor, die Parkposition im obigen Beispiel sei durch ein Hindernis derart blockiert, da� das Fahrzeug das Hindernis nicht umfahren und somit die Parkposition nicht erreicht werden kann. Wenn der oben beschriebene Regler technisch vern�nftig konzipiert ist, dann wird das Fahrzeug stoppen und eine Fehlermeldung anzeigen. Niemand wird erwarten, da� unter den gegebenen Voraussetzungen das Fahrzeug - aus eigener Leistung - den Versuch unternimmt, das Hindernis beiseite zu schieben oder eine neue Parkposition zu definieren, es sei denn, eine solche Option wurde vorher einprogrammiert. Selbstverst�ndlich ist es m�glich, eine derartige Option vorher einzuprogrammieren. Dies bedeutet lediglich, da� der Kontext, in dem sich der betrachtete Proze� abspielen soll, durch diese Ver�nderung des Algorithmus entsprechend erweitert wurde, d.h. f�r das betrachtete Beispiel �Einparken in eine vorgegebene Position und wenn n�tig ein Hindernis beiseite r�umen oder eine neue Position definieren�. Eine strukturell neue Lernsituation wird dadurch nicht erzeugt und deshalb ist diese Option f�r die weitere Diskussion uninteressant. Stattdessen fordern wir von dem System, da� es auf ein derart unerwartetes Ereignis aus eigener Leistung eine Erweiterung des Kontextes vornimmt. Das bedeutet, da� das System in der Lage sein mu�, den eigenen Algorithmus zu ver�ndern und nicht nur den Datensatz wie bei Lernen_I. Genau das w�rde man im allt�glichen Leben unter �Lernen� in einer entsprechenden Situation verstehen. Bei diesem Lernen �ndert sich das Verh�ltnis zwischen dem lernenden System und seiner Umgebung, und das stellt technisch gesprochen eine Ver�nderung des Algorithmus dar, der das betreffende System charakterisiert. Ein System, welches dazu in der Lage ist, mu� �ber kognitive und volitive F�higkeiten verf�gen. Es mu� eine neue Situation wahrnehmen, sie reflektieren und entscheiden, d.h. einen Kontext festlegen, in dem die empfangenen Signale eine Bedeutung f�r das System erhalten. Mit anderen Worten, der Proze� �Lernen_eines_Systems_mit_Umgebung�, d.h. Lernen_II umfa�t wenigstens zwei sich wechselseitig bedingende, simultan-parallel ablaufende Prozesse (vrgl. Ref.7):
Beide Prozesse sind komplement�r zueinander, d.h. sie bedingen sich gegenseitig und es macht keinen Sinn sie einzeln, d.h. voneinander unabh�ngig, betrachten zu wollen. Da unsere Vorstellungen heute sehr stark durch eine physikalische Begrifflichkeit und Anschauung gepr�gt ist, werden diese Prozesse h�ufig als getrennt ablaufend betrachtet. Damit wird aus logischer Sicht jedoch eine vollst�ndig andere Prozessualit�t beschrieben. Der durch die Beziehung (9) gegebene Proze� l��t sich weder auf einen hierarchisch strukturierten Entscheidungsbaum abbilden, noch l��t er sich sequentiell darstellen oder beschreiben. Die formale Darstellung derartiger Prozesse verlangt vom System die logische Unterscheidung zwischen einem Objekt (z.B. dem konkreten Hindernis) und dem Abbild des Objekts: Der Tisch, der vor einem steht, ist logisch gesehen von anderem Typus wie der Begriff des Tisches, also sein Abbiild, oder um es in der Sprache der Mengenlehre auszudr�cken, die Menge ist von logisch h�herem Typus als ihre Elemente, gleiches gilt f�r das Verh�ltnis von Operator und Operand. Ein System, welches lernt, wie es lernt, also der Proze� �Lernen lernen�, wird als Lernen_II bezeichnet /18/. Die formale Darstellung eines derartigen Prozesses, bei dem das System die gesamte Situation reflektiert und seinen eigenen Algorithmus ver�ndern soll, erfordert demnach ein Vertauschen von Operator und Operand, d.h. was von einem Standpunkt ein Operator war, wird im Proze� der Reflektion zum Operanden und umgekehrt. Dieser Umtauschproze� mu� simultan-parallel ablaufen. Das ist das Problem, welches der Aussage (9) zugrunde liegt und das es zu l�sen gilt, wenn Prozesse wie �Lernen II� technisch realisiert werden sollen. Aus der Abb.4 l��t sich anhand zweier Muster der Proze� von Lernen_II am sogenannten "Umkehrungs-Lernen" nochmals verdeutlichen: Einem neuronalen Netz wird das Muster 1 angeboten, das Netz wird auf dieses Muster trainiert. Danach wird das Muster 2 angeboten und das Netz wird auf das Muster 2 adaptiert. Danach wird wiederum Muster 1 angeboten, dann wieder Muster 2 usw. Die entscheidende Frage lautet, was lernt das System (in diesem Fall das neuronale Netzwerk) aus eigener Leistung �ber die Umkehrung ? Bei einem lernf�higen System im Sinne von Lernen_II w�rde sich nach einiger Zeit die jeweilige Dauer der einzelnen Trainingsphasen verk�rzen. Ein herk�mmliches neuronales Netzwerk lernt aus eigener Leistung nichts �ber die Umkehrung des Adaptionsprozesses. Obwohl jeder Kognitionsproze� ein Proze� �2. Ordnung� im Sinne von Lernen_II ist, und obwohl lebende Systeme sich von toten Objekten gerade durch ihre F�higkeiten zur Kognition signifikant unterscheiden, gibt es bisher weder eine technische Realisierung von Lernen_II, noch gibt es bis heute technische Realisierungen kognitiv-volitiver Prozesse. Die Modelle der Neuroinformatik geh�ren zur Kategorie der Lernprozesse 1. bzw. 0. Ordnung und stellen konzeptionell gesehen, wie schon in Abschnitt II erw�hnt, digitale Datenfilter, d.h. non_kognitive Netzwerke dar. Die Frage stellt sich, "ob es �berhaupt notwendig ist, derartige Prozesse formal zu beschreiben, um sie anschlie�end technisch zu realisieren?" Dazu sei nochmals auf das Beispiel des parkenden Fahrzeuges in der Variante mit �verbarrikadierter Parkposition� zur�ckgegriffen. Die gestellte Frage l�uft technisch gesehen auf die Alternative hinaus, den Kontext f�r die Aktionen des Systems entweder durch vorherschauendes Programmieren ad�quat zu erweitern, d.h. das vom Standpunkt des Systems unerwartete Ereignis wird vom Konstrukteur vorausschauend einprogrammiert, oder das System reagiert selbst auf das unerwartete Ereignis und modifiziert den eigenen Algorithmus (Lernen II), um auf diese Weise seinen Handlungskontext (selbst) zu erweitern. Dabei k�nnte das System zu unterschiedlichen Entscheidungen gelangen, n�mlich eine neue Parkposition aufsuchen oder das Hindernis beseitigen. Beide Resultate stellen eine ad�quate Erweiterung des globalen Handlungskontextes "Einparken_in_eine_vorgegebene_Position" dar. Die Notwendigkeit der technischen Realisierung von Lernen_II wird sofort deutlich, wenn man zu dem Szenarium �Haushaltsroboter� �bergeht. Die Vorstellung, jede m�gliche Situation vorausschauend einprogrammieren zu k�nnen, ist absurd, insbesondere wenn ein solcher Roboter in irgendeinem realen Haushalt und nicht in einer k�nstlichen Kl�tzchenwelt agieren soll. Eine flexible Signal- und Datenverarbeitung verlangt hier nach Prozessen wie Lernen_II, das bedarf keiner weiteren Begr�ndung. Prozesse von Lernen_I alleine sind f�r die Konzeption eines Haushaltsroboters nur bedingt von Nutzen, denn es macht keinen Sinn, jede beliebige, neue Situation in eine �Look-Up-Table� aufzunehmen. Genau hierin, n�mlich in der Frage, ob eine neue Situation in den Datensatz eines globalen Kontextes �bernommen werden soll oder nicht, mu� vorher vom System selbst entschieden werden. Solche Entscheidungsprozesse werden aber erst durch die Realisierung von Lernen_II erm�glicht. Fassen wir kurz zusammen:
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||
IV. Res�mee | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Der
Stand wissenschaftlicher Erkenntnis stellt sich heute
i.allg. so dar, da� von Autonomie, Kognition, Lernen usw.
im Kontext biologischer und technischer Systeme zwar
gesprochen, die Problematik der Geschlossenheit jedoch nicht
zur Kenntnis genommen wird. Dabei wird in aller Regel auch
�bersehen, da� autonome Systeme nicht nur �ber
kognitive sondern auch �ber volitive F�higkeiten
verf�gen m�ssen /19/.
Damit nimmt die Komplexit�t des Problems der (formalen)
Beschreibung autonomer Systeme noch erheblich zu.
Begriffe wie �Offenheit� und �Geschlossenheit resultieren nicht aus experimentellen Messungen, sondern sind wie �rechts� und �links� standpunktabh�ngige Beschreibungskategorien, die erst im Rahmen einer formalen Darstellung ihre eigentliche Bedeutung erlangen. Alle r�umlich-geometrischen Vorstellungen sind somit f�r die begriffliche Fassung einer Theorie autonomer Systeme v�llig obsolet. Jede experimentelle Messung reduziert das zu untersuchende Objekt zu einem System mit einem Anfangs- und einem Endzustand und damit zu einem "offenen System", an dem generell nur physikalisch-chemische Parameter gemessen werden k�nnen. Kognitive Prozesse lassen sich damit nicht erfassen, d.h. die Thematik von "Kognition und Autonomie" geht auf diesem Weg verloren. Was ben�tigt wird, ist ein geeigneter Kalk�l zur Entwicklung eines Modells biologisch kognitiver Netzwerke, der eine simultane (formale) Darstellung offener und geschlossener Netze (Systeme) erlaubt. Daf�r werden jedoch wenigstens drei unterschiedliche, miteinander jeweils vermittelte Beschreibungspositionen ben�tigt, aus denen heraus sich das Modell biologisch kognitiver Netze (Systeme)
widerspruchsfrei thematisieren l��t. Die wissenschaftliche Umsetzung dieser Forderung stellt prim�r ein wissenschaftslogisches, interdisziplin�r-orientiertes Problem dar, worauf in der Vergangenheit schon mehrfach hingewiesen wurde /20/ und begr�ndet gleichzeitig das formale Fundament einer modernen allgemeinen Systemtheorie. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Referenzen | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||
/1/
von Foerster, H., Kybernetik einer Erkenntnistheorie,
in: Sicht und Einsicht, Vieweg Verlag, Braunschweig, 1985.
/2/ Varela, F. , Principles of Biological Autonomy, in: General Systems Research (Klir, G., ed.), Vol.II, North Holland Publ., Amsterdam, 1979. /3/ Maturana, H.., Biologie der Kongnition, in Erkennen, die Organisation und Verk�rperung von Wirklichkeit, Vieweg Verlag, Braunschweig, 1975. /4/ Maturana, H. & Varela, ,F., Autopoiesis: The Organization of the Living, in: Autopoiesis and Cognition, Boston Studies in Philosophy of Science, Vol. 42, p.63-134, (M.S.Cohen, M.W. Wartoisky, eds.) D. Reidel Publ., Dodrecht 1972. /5/ Falk, G., & Ruppel, W., Energie und Entropie - Eine Einf�hrung in die Thermodynamik, Springer Verlag, Berlin, 1976. /6/ von Foerster, H., Entdecken oder Erfinden - Wie l��t sie Verstehen verstehen?, in: Einf�hrung in den Konstruktivismus (H. Gumin & A. Mohler, eds.), Oldenburg Verlag, M�nchen, 1985.
/7/ von Goldammer, E. & Kaehr, R., Poly-contextural modeling of heterarchies in brain functions, in: Models of Brain Functions (Cotterill, R.M.J., ed.), Cambridge University Press, 1989, p.483-497. /8/ siehe dazu auch Ref. /6/. /9/ Unbestimmbarkeitsprinzip nach A. Gill: Gill hat gezeigt, da� es funktionale Organisationen solcher finiter Automaten gibt, die prinzipiell nicht durch eine endliche Versuchsfolge erschlossen werden k�nnen: Gill, A., Introduction to the Theory of Finite-State-Machines, Mc-Graw-Hill, N.Y., 1962. /10/ Kaehr, R. & von Goldammer, E., Again Computers and the Brain, Journal of Molecular Electronics, Vol. 4, 1988, p.S31-S37. /11/ von Goldammer, E. & Kaehr, R., Problems of Autonomy and Discontexturality in the Theory of Living Systems, in: Analyse dynamischer Systeme in Medizin, Biologie und �kologie, Reihe: Informatik-Fachberichte , (M�ller, D.P.F. & Richter, O., Hersg.), Springer Verlag, 1990, p.3-12. /12/ von Goldammer, E. & Kaehr, R., Lernen in Maschinen und lebenden Systemen, Design und Elektronik, M�rz 1989, p.146-151. /13/ In einer logischen Dom�ne sind jeweils alle logischen Opertionen g�ltig. /14/ So versteht man heute unter einem physikalischen "Teilchen" den Energie- und Impulstransport durch den freien Raum. Damit hat sich die Bedetung des Begriffes "Teilchen" von etwas Greifbarem ins Abstrakte hin gewandelt. Dies ist eine unmittelbare Folge der Atomphysik, in der z.B. Licht sowohl als Welle wie auch als Teilchen (Photon) bechrieben werden kann. Bei einem Billardspiel sind nicht die greifbaren Kugeln von physikalischem Interesse, sondern wiederum nur der Energie- und Impulstransport sowie deren Austausch beim Sto�. /15/ Langton, C.G., (ed.), Artificial LIfe, Addison-Wesley Publ., 1989. /16/ M�ller, J. (Hrsg.), Verteilte K�nstliche Intelligenz, BI-Wissenschaftsverlag, Mannheim, 1993. /17/ Antsaklis, P.J. & Passino, IK.M. (eds.), An Introduction to intelligent and Autonomous Control, Kluwer Academic Publ. 1993. /18/ siehe Ref. /12/ /19/ siehe Ref. /7/ /20/ siehe Ref. /7/, /10/, /11/, /12/ |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Adresse der Autoren: | |||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Institut
f�r Kybernetik & Systhemtheorie - ICS B�ro: Harpener Hellweg 532 44388 Dortmund Contact webmaster@vordenker.de
|