Datenanalyse00 - Forschungsgruppe Neuronale Netzwerke

Download Report

Transcript Datenanalyse00 - Forschungsgruppe Neuronale Netzwerke

§0 Datenanalyse
Prozesse, Einflußgrößen,
Prozessdaten,
Modellierung, Adaption
WS 2010 /11
H.Werner : Datenanalyse
§0 : 1
begleitende Literatur
– T.Kohonen: Associative Memory: A system theoretic approach.
New York, Springer 1977
– D.E.Rumelhart, J.L.McLelland: Parallel Distributed Processing
Explorations in the microstructure of cognition. Vol.1 : Foundations.
Cambridge, MIT-Press, 1986
– M.A.Arbib: Brains, Machines, and Mathematics. 2nd edition.
New York, Springer, 1987
– T.Khanna: Foundations of Neural Networks.
Reading/Mass. , Addison-Wesley, 1990
– H.Ritter, T.Martinez, K.Schulten : Neuronale Netzwerke:
Eine Einführung in die Neuroinformatik selbstorganisierter
Netzwerke
Bonn/München, Addison-Wesley, 1990
– A.Zell: Simulation Neuronaler Netze
Bonn/München, Addison-Wesley, 1994
– KI.P.Kratzer: Neuronale Netze: Grundlagen und Anwendungen
München, Hanser, 1991
– R.Brause: Neuronale Netze
Stuttgart, Teubner
WS 2010 /11
H.Werner : Datenanalyse
§0 : 2
Prozesse
• Unter einem Prozess versteht
man einen natürlichen oder
maschinellen Vorgang, der von
physikalischen Größen abhängt
bzw. sie beeinflusst.
• Diese Größen heißen die
Parameter oder Einflussgrößen
des Prozesses.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 3
Beispiele
•
•
•
•
•
•
•
•
•
Schlafforschung: Schlaf-EEG
Medikamenten Respons
Medizinische Dispositionsanalyse
Börsenkursprognose
Beschichtungen von Materialien (Papier,
Metall,..)
Optische Strukturerkennung
Wasserqualität bestimmen
Windleistungsprognose
Wetterklassifikation
etc. …
WS 2010 /11
H.Werner : Datenanalyse
§0 : 4
Prozessdaten
• Zur Analyse eines Prozesses
werden zu verschiedenen
Zeitpunkten bzw. in verschiedenen
Situationen die Parameter
(Datensätze) bestimmt , genannt
die Prozessdaten, und in einer
Datei gesammelt und abgelegt.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 5
Einflussgrößen
• Die in einem Datensatz
vorkommenden Parameter sind
entweder
- unabhängig oder
- abhängig
und können
° zugänglich oder
° verborgen sein.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 6
unabhängig / abhängig
• Unabhängig sind die Parameter, die von
dem Prozessbetreiber direkt auf
gewünschte Werte eingestellt werden
können (Eingabe).
• Abhängig sind die Parameter, deren
Werte sich aus dem Prozess aus den
anderen Parametern einstellen
(Ausgabe).
WS 2010 /11
H.Werner : Datenanalyse
§0 : 7
zugänglich/verborgen
• Zugänglich sind alle Parameter,
deren Werte direkt am Prozess
gemessen werden können.
• Als verborgene Parameter
bezeichnet man alle übrigen
Einflussgrößen, deren Werte nur
indirekt erschlossen werden
können oder ganz unbekannt sind.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 8
Beispiel: Windkraft
• Der Betrieb einer Windkraftanlage
wandelt die Windenergie (unabhängig)
in elektrische Energie (abhängig) um.
• Die Windenergie selbst kann nicht
unmittelbar gemessen werden, sondern
muß aus einem komplexen WetterPrognose-Modell abgeschätzt werden
(verborgener Parameter).
WS 2010 /11
H.Werner : Datenanalyse
§0 : 9
Modellierung
• Es gibt viele Gründe, warum in
Wissenschaft und Technik immer wieder
die Frage aufkommt:
„was wäre, wenn…“
• Mathematische und informatische
Modelle haben die Aufgabe, diese Frage
fundiert zu beantworten.
• Beispiel: Belastungsproben werden
nicht am konkreten Objekt (z.B.
Brücke) durchgeführt (zu teuer),
sondern an einem Modell.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 10
Maßstabgerechte Modelle
• In der Technik werden gerne maßstabgerechte Modelle
gebaut, deren Nutzen aber mehr in der Visualisierung
liegt.
• Das Problem eines Modells (z.B. 1:10) ist, daß zwar
die Längenverhältnisse 1:10 sind,
die Flächenverhältnisse (etwa für Winddruck,…) jedoch
1:100 und gar
die Raumverhältnisse (etwa für Masse,…) sogar 1:1000.
• Die Festigkeit der Materialien bleibt aber unverändert.
• Ein solches Modell ist also nicht ohne weiteres für
Belastungsuntersuchungen geeignet.
• Dafür benötigt man eher oder zusätzlich
mathematisch/informatische Modelle, insbesondere,
wenn es um Fragen der Haltbarkeit (Zerstörung) geht.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 11
Funktionale Modelle
• Ein funktionales Modell von
Prozessdaten ist eine Sequenz
mathematischer Funktionen, die
als Eingaben die unabhängigen
Parameter und als Ausgabe je eine
der abhängigen Parameter haben,
• d.h. jede Funktion modelliert das
Verhalten eines Parameters.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 12
Klassifizierende Modelle
• Wenn das Verhalten von
Ausgabeparameteren nicht funktional
ist (d.h. gleiche Eingaben können sehr
unterschiedliche Ausgaben
produzieren), kann alternativ eine
Klassifikation der Datensätze nach der
„größten Ähnlichkeit“ als Modell
ermittelt werden.
• Aus jeder Klasse wird ein Repräsentant
als typisches Verhaltensmuster des
Prozesses ausgewählt (Prototyp)
WS 2010 /11
H.Werner : Datenanalyse
§0 : 13
Daten-Modelle
Zu modellierende Daten
Mittelwert
Linear
Quadratisch
Höher
Klassifikation
WS 2010 /11
H.Werner : Datenanalyse
§0 : 14
Ungenauigkeiten
• Physikalisch
gemessene
Größen
unterliegen immer
gewissen Meßungenauigkeiten.
• Eine Rolle der
Modellierung ist,
solche
Ungenauigkeiten
abzuschätzen
WS 2010 /11
H.Werner : Datenanalyse
§0 : 15
Modellierungsmethoden
Einige Methoden zur Modellierung
sind:
• Funktionenapproximation
• Differentialgleichungen
• Statistische Modelle
• Adaptive Methoden
WS 2010 /11
H.Werner : Datenanalyse
§0 : 16
Approximation
• Diese Methode setzt ein funktionales
Verhalten der Ausgabeparameter voraus
und eine Vorgabe der Funktionenform
(Linear, Polynom, periodisch,
exponentiell..).
• Die spezifischen Funktionenparameter
(Nullstellen, Steigungen etc.) werden
nun schrittweise so angepasst, daß sich
die Abstände der Messpunkte von den
Funktionengraphen verkleinern.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 17
Differentialgleichungen
• In physikalischen Prozessen mit
wenigen Variablen lassen sich oft die
Wirkungen von Parameteränderungen
durch Differentialgleichungen
beschreiben.
• Dies kann man dann auch auf
Zusammensetzungen solcher Prozesse
ausdehnen (dynamische Systeme)
WS 2010 /11
H.Werner : Datenanalyse
§0 : 18
Statistische Modelle
• Diese Modelle legen als Ursachen
von Ungenauigkeiten zufällige
Prozesse zugrunde.
• Sie erfordern ein mathematisches
Modell und liefern als Ergebnis
Wahrscheinlichkeiten, wie stark die
Abweichungen der Messungen vom
Modell ausfallen
WS 2010 /11
H.Werner : Datenanalyse
§0 : 19
Fluch der Dimension
• All diese klassischen Methoden haben
den gravierenden Nachteil, daß sie bei
hoher Variablenzahl (z.B. mehr als 100)
sehr schwer handhabbar sind bis zum
völligen Versagen.
• Zudem setzen diese Verfahren ein a
priori Modell voraus, das approximativ
verbessert werden soll.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 20
Adaptive Modelle
• In diesen Fällen bieten sich adaptive
Methoden an, von denen neuronale
Netzwerke prominente Beispiele
bilden.
• Grundidee sind Systeme mit einer
großen Zahl an eigenen ModellParametern, die durch systematische
Veränderungen dazu gebracht werden,
das System den vorliegenden Prozessdaten immer genauer anzupassen.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 21
Adaptionsmethoden
• Statistische Suche
– Die Parameter werden zufällig
verändert, bis eine zufriedenstellende
Adaption erreicht ist.
• Abstiegsmethoden
– Die Parameter werden so verändert,
daß sich die Abweichung zwischen
Messung und Modell verringert
(Abstieg des Fehlers).
WS 2010 /11
H.Werner : Datenanalyse
§0 : 22
Korrektheit
• Die Adaption wird auch Lernen oder
Training genannt.
• das adaptive System muss auf den
Daten, mit denen es adaptiert wird
(Trainingsset, Lektion), das gewünschte
Verhalten zeigen:
• Geringe Abweichung zwischen
Modellverhalten und Prozessverhalten
WS 2010 /11
H.Werner : Datenanalyse
§0 : 23
Generalisierung
• das adaptiveSystem muß auf neue
Daten, auf denen es nicht trainiert ist
(Test-Set), sinnvolle Antworten geben
können.
• nur für solche Daten vernünftig, die
nah(?) an den Trainingsdaten liegen.
• "sinnvoll" kann für Prozess und System
sehr verschiedene Bedeutung haben
(das System modelliert die Wirklichkeit
evtl. nicht korrekt)
WS 2010 /11
H.Werner : Datenanalyse
§0 : 24
Lern-Paradigmen
• Lernen aus Fehlern
überwacht (supervised)
– Ein Lehrer kontrolliert den Trainingsvorgang und gibt
ein, wo und wie stark sich der Output vom
gewünschten Output unterscheidet.
• Lernen durch Gewöhnung
selbstorganisiert (self organized)
– Das System entwickelt frei von äußeren Einflüssen
ein internes Beurteilungssystem für die
Eingabedaten, indem es Inputs nach Ähnlichkeit zu
schon gelernten Daten einteilt.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 25
Lernerfolg
• Zu einem Lernerfolg gehört sowohl die
Korrektheit (genügend genaue Anpassung an
die Lerndaten) wie auch die Generalisierung
(geringe Abweichung von den Testdaten).
• Es kann nicht von vornherein garantiert
werden, daß korrektes oder gar generalisierendes Lernen überhaupt möglich ist.
• Gründe für einen mangelnden Lernerfolg
könnten sein: zu hohe Komplexität der
Prozessdaten, widersprüchliche Daten oder
auch eine unzureichende Modellstruktur.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 26
Ziel der Vorlesung
• Verstehen der Methoden der
Künstlichen Neuronalen
Netzwerke.
• Beurteilung der Einsatzszenarien
für diese Methoden
• Entwicklung eines Tools für den
Einsatz dieser Methoden
WS 2010 /11
H.Werner : Datenanalyse
§0 : 27
Standardanwendung
Windpowerprognose
• Aus den Wetterprognosen verschiedener Anbieter soll möglichst exakt
vorhergesagt werden, wieviel Strom ein
Windpark im Laufe des nächsten Tages
bzw. der nächsten Stunde liefern wird.
• Das Problem ist: die Wetterprognosen
liegen nur in grobem räumlichen und
zeitlichen Raster vor und sind nur
bedingt zuverlässig.
WS 2010 /11
H.Werner : Datenanalyse
§0 : 28