Dimensionen des Geistes
Teil 4

Textmarken: Neuronale Netze


Neuronale Netze

Anfang der 80iger Jahre fand man einen neuen Ansatz zur Verwirklichung künstlicher Intelligenz. Dieser Ansatz hatte einiges mit dem Perceptron gemein. Der Schichtenaufbau des Perceptrons war geblieben. Man hatte nur weitere Schichten hinzugefügt und eine Rückkopplung im Netzwerk geschaffen. Die Netzwerke erhielten dadurch die Fähigkeit zur Selbstorganisation. 

Hopfield zeigte 1982, daß das Verhalten dieser Netzwerkmodelle mit boolschen Neuronen (Neuronen mit zwei Zuständen) formal dem Verhalten einer großen Anzahl wechselwirkender Elementarmagnete äquivalent ist und sich durch eine Energiefunktion beschreiben läßt. Damit stand mit einem Mal ein ganzes Arsenal mathematischer Methoden der theoretischen Festkörperphysik für die Analyse solcher Netzwerkmodelle zur Verfügung.

Bei der Entwicklung neuer Netzwerkmodelle orientierte man sich aber auch am natürlichen Vorbild, den Neuronen (Nervenzellen).

Das Verhalten von menschlichen Neuronen kann allerdings sehr komplex sein. Ein Modellsystem, das die Funktionsweise von Neuronen exakt simuliert, wird es daher in nächster Zeit nicht geben. Um die Leistungsfähigkeit der Neuronen mit technischen Mitteln zu erreichen, ist dies jedoch genauso wenig notwendig, wie man beim Bau der Tragfläche eines Flugzeugs exakt die Proportionen, die Gestalt und die Dynamik des Vogelflügels imitieren muß. Um die Lernfähigkeit des Nervensystems mit elektronischen Bauelementen nachzubilden, bildet man nur einige der Funktionen der Nervenzelle nach, soweit man sie heute kennt. Eine Funktion der Nervenzelle besteht etwa darin, die von verschiedenen Nervenzellen eingehenden Signale zu summieren, überschreitet die Anzahl der Signale einen bestimmten Schwellwert, so läuft sozusagen das Faß über und die Nervenzelle sendet ihrerseits ein Signal über das Axon an mehrere hundert oder sogar mehrere tausend Nervenzellen. Eine weitere Fähigkeit liegt in der Funktion der Synapsen, der Verbindungen von einer Nervenzelle zur anderen. Man weiß, daß die Zahl dieser Verbindungen von der Aktivität an den Synapsen abhängt. Verbindungen, die über einen längeren Zeitraum nicht benützt werden, werden abgebaut. Es ergibt sich so eine Grundverschaltung des Nervensystems, als Ergänzung zu jener Verschaltung, die bereits beim Wachstum der Nervenzellen im Embryo erfolgt ist. Die Lernfähigkeit des Nervensystems liegt nun darin begründet, daß die Verschaltung gewisser Teile des Nervensystems variabel ist. Diese Verschaltung ist vor allem von den eingehenden Signalen abhängig. Die Aktion, die das Nervensystem beschließt, ergibt sich durch die jeweils wechselnde Verschaltung der Nervenzellen.

Technisch wird diese Lernfähigkeit nun folgendermaßen realisiert: Das Netzwerk besteht aus mehreren Schichten. Jedes Neuron ist mit jedem Neuron der nächst höheren Schicht verbunden. Ob diese Verbindungen durchgeschaltet werden, hängt von Gewichtsfaktoren ab. Zu Beginn sind diese Gewichtsfaktoren willkürlich oder mit Zufallszahlen belegt. Die Faktoren haben üblicherweise Werte zwischen -1 und +1 oder zwischen 0 und 1. An den Neuronen werden die einlaufenden Signale mit den Gewichtsfaktoren multipliziert und das Neuron sendet ein Signal, wenn die Summe, die sich ergibt, einen gewissen Schwellwert überschreitet. Nun besteht die Aufgabe des Netzwerks darin, einem bestimmten Bitmuster auf der Eingabeseite ein bestimmtes Ausgabebitmuster zuzuordnen (Abbildungsfunktion). Um dies zu erreichen, wird das Ausgabemuster, das sich ergibt, in der Lernphase mit dem Sollwert verglichen, ist dieser unbekannt so wird nur gemessen, ob man den bisher erreichten Wert überboten oder unterschritten hat. Es wird sozusagen eine Erfolgsbilanz gezogen und zwar für jedes Neuron einzeln. Der Erfolg eines Neurons hat auch Auswirkungen auf die Nachbarneuronen und zwar je nach funktionaler Entfernung unterschiedlich stark. Verändert werden die Gewichtsfaktoren. 

schematische Darstellung eines neuronalen Netzes

Die Veränderung der Gewichtsfaktoren erfolgt nach mathematischen Verfahren. Hier ist die Entwicklung noch im Gange. Man sorgt ganz bewußt dafür, daß sich die Neuronen in der Anfangsphase beweglich zeigen. Dies wird erreicht, indem man den Schwellwert der Neuronen in der Anfangsphase um einen gewissen Wert schwanken läßt. Dieser Wert wird nach jedem Cyclus verringert. Man spricht hier von der Verringerung der Systemtemperatur. Nach einigen tausend Cyclen hat sich das Netz stabilisiert. Es hat sich dem Endzustand angenähert. Es hat eine Antwort gefunden. Das System reagiert sozusagen auf einen bestimmten Sinnesreiz mit einem bestimmten ihm aufgeprägten Verhalten. Mehrere solcher Verhaltensweisen könnte ein weiteres neuronales Netz oder ein Expertensystem zu einer Strategie kombinieren. Wie viele Verhaltensweisen man einem Netz bestimmter Größe aufprägen kann, ist noch nicht ganz geklärt.

Die eingespeicherten Informationen wirken sozusagen auf die zu bestimmende Information wie Attraktoren (Anziehungspunkte). Wird der Anziehungspunkt nach einer gewissen Zeit erreicht, so hat man den zu einem Bild dazu gehörenden Begriff gefunden (oder zu einem Problem die Lösung). Neuronale Netze sind dadurch auch fehlertolerant. Sie können auf diese Weise auch ähnliche Bilder dem gleichen Begriff zuordnen. Je stärker sich die Bilder unterscheiden, die in der Lernphase dem gleichen Begriff zugeordnet werden, desto mehr abstrahiert das neuronale Netz. Je mehr sich die Bilder ähneln, die nicht dem gleichen Begriff zugeordnet werden, desto mehr differenziert das neuronale Netz. Wer über einen appletfähigen Browser verfügt kann das unten dargestellte neuronale Netz selbst starten.

ein neuronales Netz in Aktion

 

Einsatzgebiete für neuronale Netze

Hauptanwendungsgebiet ist die Mustererkennung, also jenes Gebiet, auf dem der Computer wegen der enormen Datenmengen, die hier anfallen, bisher kläglich versagt hat, während hier die Stärke unseres Gehirns liegt. Einem herkömmlichen Computer muß die Information aufbereitet serviert werden. Unser Gehirn ist in der Lage ähnliche Strukturen dem gleichen Wort zuzuordnen. Es rekonstruiert sogar noch aus Teilen eines Bildes die volle Struktur. Dies leisten nun auch neuronale Computer. Sie sind um ein vielfaches schneller, weil sie die Daten parallel verarbeiten. Die Daten (Muster) werden mit Hilfe von mathematischen Verfahren erst einmal strukturiert. Die Datenmenge verringert sich dadurch erheblich. Anschließend werden die Einzelstrukturen mit Hilfe eines neuronalen Netzes analysiert. Noch beschränkt sich die Mustererkennung allerdings auf bestimmte Gebiete. Ein Gebiet ist die Spracherkennung, ein anderes die Erkennung von gut leserlichen Handschriften. Die Systeme lassen sich aber im Prinzip für jede Aufgabe trainieren.


Inhalt

Index

weiter