Bookbot
Das Buch ist derzeit nicht auf Lager

Effizientes Online-Training neuronaler Netzwerke

Autoren

Mehr zum Buch

Das Lernen aus Beispielen ist eine Fähigkeit, die man bei Menschen und Tieren beobachtet. Es erfolgt durch die Anpassung von Denk- und Verhaltensweisen an Gesetze, die aus Beispielen in Form von konkreten Erlebnissen gewonnen werden. Eine mathematische Beschäftigung mit diesem Phänomen zeigt Modellsituationen auf, in denen die wesentlichen Eigenschaften dieses komplexen Vorgangs durch relativ einfache mathematische Modelle beschrieben werden können. Während die anfangs biologisch inspirierten Studien bald in technische Anwendungen und mathematische Analysen mündeten, blieben diese doch der informationsverarbeitenden Einheit treu, mit der alles angefangen hatte: dem Neuron - nun als mathematisches Modell einer Informationsverarbeitung durch einfache Einheiten. Inzwischen existiert eine Vielzahl von Algorithmen, um komplizierte neuronale Netzwerke an Beispieldaten anzupassen, d. h. zu „trainieren“. Der begrenzende Faktor ist dabei oft, dass nicht genügend Beispiele zur Verfügung stehen, um gute Lernergebnisse zu erzielen. Diese Arbeit präsentiert - nach einer kurzen Einführung in die Problemstellung - zwei Ansätze, um mit einer begrenzten Anzahl von Beispielen ein neuronales Netzwerk an die Regel hinter den Daten anzupassen. Besondere Aufmerksamkeit wird Problemen beim Training von Netzwerken mit zwei informationsverarbeitenden Schichten gewidmet. Als Modell solcher Netzwerke wird in dieser Arbeit die sogenannte Komitee-Maschine gewählt. Betrachtet man die Anzahl der Beispiele, die pro Freiheitsgrad des Netzwerkes benötigt werden, um ein gutes Lernergebnis zu erzielen, so wächst diese bei herkömmlichen Lernverfahren mit der Dimension der Eingabeschicht. Die Effizienz des Trainings sinkt also mit der steigenden Anzahl der Eingabeparameter. Die Arbeit präsentiert einen Algorithmus zum Training der Komitee-Maschine, der dieses Problem löst. Dabei wird die schrittweise Optimierung des Netzwerkes durch ein Lernen mit zwei grundsätzlich verschiedenen Abschnitten ersetzt: Vor der Anwendung der schrittweisen Optimierung wird die Dimension des Lernproblems reduziert. Die Lösung des Optimierungsproblems kann damit in einem niedrig dimensionalen Raum gesucht werden. Nachdem die technische Umsetzung des Algorithmus demonstriert wurde, wird im Limes einer unendlich dimensionalen Eingabeschicht dessen Effizienz theoretisch analysiert. Ein Kapitel widmet sich der Analyse des Lernens mit Zurücklegen, d. h. unter mehrmaliger Verwendung derselben Beispiele. In diesem Fall besteht das Problem darin, den Endzustand des Lernens bezüglich der relevanten Größen zu charakterisieren. Diese werden entscheidend von der Größe der Optimierungsschritte beeinflusst. Während Methoden existieren, die den Einfluss der Schrittgröße auf das Lernergebnis wiedergeben, sind diese angesichts der recht einfachen Problemstellung überraschend aufwändig. Hier wird ein Ansatz vorgestellt, mit dem ohne den Rückgriff auf aufwändige mathematische Methoden der Zusammenhang zwischen Schrittgröße und der Verallgemeinerungsfähigkeit des Netzwerkes erfasst wird.

Parameter

ISBN
9783832215026
Verlag
Shaker

Kategorien

Buchvariante

2003, paperback

Buchkauf

Dieses Buch ist derzeit nicht auf Lager.