Bei Interesse an diesem Seminar bitten wir, wenn möglich, mit den Veranstaltern (Email: lemm@uni-muenster.de) bis zu Beginn des Semesters Kontakt aufzunehmen.
In dem Seminar werden Grundlagen, Architekturen, Trainingsschritte und Anwendungen des maschinellen Lernens einschließlich der aktuellen KI-Sprachmodelle vorgestellt. Vermittelt werden sollen grundlegende Prinzipien und ein Verständnis für "induktives Lernen", für die Gefahren eines sogenannten „Overfittings” und die Notwendigkeit vorhandene empirische Daten durch „A-Priori-Informationen” („Blickwinkel der Bayessche Statistik") oder „Regularisierungen” (Blickwinkel der „Klassischen Statistik“) zu ergänzen.
In Vorträgen behandelt werden können, je nach Interesse und Hintergrund der Teilnehmer, Grundlagen und Anwendungen aktueller Sprachmodelle (LLM, Large Language Models), die auf der Transformer-Architektur in Verbindung mit Neuronalen Netzen basieren, sowie eine Auswahl anderer moderner Deep-Learning-Architekturen, wie Entscheidungsbäume, Gradient-Boosting-Verfahren, Methoden der Bayesschen Statistik, Monte-Carlo-Verfahren, Autoencoder, Diffusions-Modelle, Verstärkungslernen und Anwendungen wie Bilderzeugung, Retrieval-Augmented Generation (RAG), Agentensysteme und Vibe-Coding, und gegebenenfalls eine Einführung in Umsetzungen in den Programmiersprachen R oder Python, z.B. mit lokalem KI-Modellen.
Das Seminar richtet sich insbesondere an Studierende des Faches Physik, ist aber auch für Studierende anderer Fachrichtungen offen.
Beachten Sie bitte, dass das Seminar nicht das Pflichtseminar des Moduls Nichtlineare Physik (Nr. 2 in der Modulbeschreibung) ersetzen kann.
- Lehrende/r: Jörg Lemm
- Lehrende/r: Christian Wieczerkowski