198838 VU Datenbasierte Identifikation nichtlinearer Dynamiken
Wintersemester 2025/2026 | Stand: 02.06.2025 | LV auf Merkliste setzenNach erfolgreichem Abschluss der Lehrveranstaltung beherrschen die Studierenden ausgewählte Methoden des Maschinellen Lernens zur Entwicklung nichtlinearer Terme dynamischer Systeme aus Daten aus verschiedenen realen Kontexten wie Physik, Epidemiologie oder Elektrophysiologie. Sie sind in der Lage, die Datentypen zu klassifizieren, geeignete Methoden zur Lösung des Lernproblems auszuwählen, zu entwickeln und zu implementieren sowie die Lösung zu interpretieren und zu visualisieren.
Dieser Kurs ist anwendungs- und problemlösungsorientiert. Er behandelt verschiedene Methoden der Datenwissenschaften und schlägt Lösungen für offene Probleme der realen Welt vor, wie beispielsweise die Entdeckung unbekannter Gleichungen, die die elektrische Gehirnaktivität steuern. Der Kurs ist wie folgt aufgebaut:
- Datenerfassung und -visualisierung.
- Elemente diskreter oder kontinuierlicher dynamischer Systeme, Begriff der Zustandsvariablen.
- Einführung/Rekapitulation zu gewöhnlichen Differentialgleichungen. Qualitative Eigenschaften gewöhnlicher Differentialgleichungen (Existenz von Lösungen, asymptotisches Verhalten, Periodizität, Bifurkation, Chaos). Beispiele.
- Lineare Approximationsmethoden: Spektralmethoden, Begriff der Basisfunktionen, lineare Unabhängigkeit, Wörterbuchlernen.
- Philosophische und ethische Aspekte von Gleichungen zur Modellierung empirischer Phänomene.
- Der Fall der Physik.
- Die SINDy-Methode: Sparse Identification of Nonlinear Dynamics.
- Probleme des Maschinellen Lernens: Parameteridentifikationsprobleme, ML-Konzepte, Formulierungen, Vorwärtsoperator, Adjungierte Methoden, Approximation von Lösungen, algorithmische Aspekte.
- Probleme im Zusammenhang mit der Datenqualität: Fehlende Werte, spärliche Daten, nicht glatte Daten; Unsicherheiten: Quellen, Quantifizierung; Aktienkurse, Zeitreihenanalyse.
- Die Kolmogorov-Theorie über lineare Approximationsmethoden.
- Informationstheorie: Shannons Theorem, Grundkonzepte
- Optimierungstechniken, Sparsity-Techniken, Optimierungsalgorithmen.
- Implementierung mit Python (und ggf. Matlab).
- Visualisierungsmethoden.
- Nichtlineare Methoden: Auswahl von Zustandsvariablen, Koordinatenänderung; Koopman-Theorie; Künstliche Neuronale Netze, Encoder-Decoder; Modellordnungsreduktion
- Gewöhnliche Differentialgleichungen
- Diskretisierung von Differentialgleichungen
- Lineare Approximationsverfahren
- Methoden des Maschinellen Lernens: Formulierungen inverser Probleme, Formulierungen optimaler Steuerung
- Quantifizierung von Unsicherheiten
- Die Kolmogorov-Theorie linearer Approximationsverfahren
- Informationstheorie (Grundlagen)
- Python-Implementierung
- Koopman-Theorie
- Modellordnungsreduktion
- Künstliche Neuronale Netze, Encoder-Decoder
Die Leistungsbewertung basiert auf regelmäßiger Teilnahme und zwei Prüfungen: einer Zwischenprüfung und einer Abschlussprüfung. Die Zwischenprüfung führt zur Note N1, die Abschlussprüfung zur Note N2. Die Abschlussnote N ergibt sich aus der Formel N = max(N2, 0,5(N1+N2)).
-
M. W. Hirsch, Differential Equations, Dynamical Systems, and Linear Algebra. ISBN: 978-0-12-349550-1. https://www.sciencedirect.com/bookseries/pure-and-applied-mathematics/vol/60/suppl/C
-
J. Brownlee, Basics of Linear Algebra for Machine Learning, 2018. https://www.machinelearningmastery.com/linear_algebra_for_machine_learning/
-
J. Nocedal, S. J. Wright, Numerical Optimization, Springer, 2006. https://link.springer.com/book/10.1007/978-0-387-40065-5
-
S. L. Brunton; J. N. Kutz, (2022-05-05). Data-Driven Science and Engineering: Machine Learning, Dynamical Systems, and Control. Higher Education from Cambridge University Press. https://doi.org/10.1017/9781108380690
-
S. L. Brunton, J. L. Proctor, J. N. Kutz. Discovering governing equations from data by sparse identification of nonlinear dynamical systems. Proc Natl Acad Sci U S A. 2016 Apr 12;113(15):3932-7. doi: 10.1073/pnas.1517384113. Epub 2016 Mar 28. PMID: 27035946; PMCID: PMC4839439.
-
B. Lusch, J. N. Kutz, S. L. Brunton. Deep learning for universal linear embeddings of nonlinear dynamics. Nat Commun 9, 4950 (2018). https://doi.org/10.1038/s41467-018-07210-0
Lineare Algebra, Grundlagen der Differentialrechnung. Kenntnisse in gewöhnlichen Differentialgleichungen sind von Vorteil, aber nicht erforderlich.
Zielgruppe: MINT (Naturwissenschaften, Technik, Ingenieurwesen, Mathematik) und alle quantitativen Wissenschaften, die sich mit zeitabhängigen Problemen befassen. Zum Beispiel: Mathematik, Physik, Informatik, Biologie, Ingenieurwesen usw.
- Interdisziplinäres und zusätzliches Angebot
- Fakultät für Mathematik, Informatik und Physik
- SDG 4 - Hochwertige Bildung: Inklusive, gleichberechtigte und hochwertige Bildung gewährleisten und Möglichkeiten lebenslangen Lernens für alle fördern
- SDG 9 - Industrie, Innovation und Infrastruktur: Eine widerstandsfähige Infrastruktur aufbauen, breitenwirksame und nachhaltige Industrialisierung fördern und Innovationen unterstützen