Abschlussarbeiten

Ich biete auch die Betreuung von Abschlussarbeiten an. Wenn Sie Interesse an einer Abschlussarbeit (zum Thema Simulation oder auch in einem anderen Bereich) haben, kontaktieren Sie mich gerne.

LaTeX-Vorlage für Abschlussarbeiten in der Informatik 

Themen für Abschlussarbeiten

Mögliche Themen für Abschlussarbeiten:


Vergleich von zeitbasierter und ereignisbasierter Simulation anhand von Fallbeispielen (Bachelor) 

  • Stand der Dinge: Es existieren verschiedene formal definierte Fallbeispiele für stochastische hybride Systeme mit unterschiedlichen Eigenschaften aus der ARCH Friendly Competition, die bisher mit verschiedenen Tools simuliert und/oder analysiert wurden.
  • Ziel der Arbeit: Entwicklung von zeitbasierte und ereignisbasierte Simulationen für ARCH Fallbeispiele, Vergleich der Geschwindigkeit und Genauigkeit der Simulationen.
  • Offene Fragen: Welche Fallbeispiele eignen sich für zeitbasierte und ereignisbasierte Simulation? Wo sind die Grenzen in der praktischen Umsetzbarkeit? Welche Parameter beeinflussen die Performance?

Integration VON statistischen Tests in ein bestehendes Simulations-Framework (Bachelor)

  • Stand der Dinge: In Simulationen, insbesondere bei Statistical Model Checking, wird meist davon ausgegangen, dass ausreichend viele unabhängige Stichproben erzeugt werden. Ob die erzeugten Daten tatsächlich „zufällig genug“ oder stationär sind, wird oft nicht explizit überprüft. Klassische statistische Tests (z. B. Runs-Test, Chi-Quadrat, Autokorrelationsanalyse) bieten einfache Mittel, um Aussagen über Zufälligkeit oder Gleichverteilung von Ereignissen zu treffen.

  • Ziel der Arbeit: Integration eines oder mehrerer einfacher statistischer Tests in ein vorhandenes Simulationsframework. Verwendung der Tests zur Analyse von Simulationsausgaben, z. B. zum Erkennen von stationärem Verhalten, Trendbrüchen oder unerwünschter Korrelation zwischen Simulationsläufen. Ziel ist ein besseres Verständnis dafür, wann ein Simulationsmodell stabile oder erwartbare Aussagen erlaubt.

  • Offene Fragen: Welcher Test ist für welche Art von Simulationsdaten am besten geeignet? Wie groß muss die Stichprobe sein, um eine verlässliche Aussage treffen zu können? Wie interpretiert man das Ergebnis des Tests im Kontext von Statistical Model Checking (z. B. hinsichtlich Konfidenzintervallen oder Modellgüte)?


Integration empirischer Verteilungen in ein bestehendes Simulations-Framework (Bachelor)

  • Stand der Dinge: Statistical-Model-Checking-Tools verwenden häufig theoretische Wahrscheinlichkeitsverteilungen (z. B. exponential, normal, uniform) als Eingangsverteilungen für Modellparameter oder Ereigniszeiten. In vielen praktischen Fällen liegen jedoch empirische Daten vor (z. B. Zeitreihen, Messwerte), deren Verteilung nicht zu einer bekannten theoretischen passt.
  • ZIel der Arbeit: Integration von empirisch abgeleiteten Verteilungen in ein bestehendes Statistical-Model-Checking-Tool (z. B. als Interpolationsfunktion, Histogramm, KDE oder stückweise Verteilung). Ziel ist, realitätsnähere Simulationen auf Basis echter Daten zu ermöglichen. Validierung des Einflusses auf Simulationsergebnisse im Vergleich zu theoretischen Verteilungen.
  • Offene Fragen: Welche Repräsentationen von empirischen Verteilungen (z. B. Histogramme vs. KDE) sind für Statistical Model Checking effizient und genau genug? Wie lassen sich solche Verteilungen möglichst einfach im Tool integrieren (z. B. durch Format, API, Konfig-Datei)? Wie beeinflusst die Wahl der Verteilung die Aussagekraft und Stabilität der statistischen Tests?

Entwicklung eines Statistischen Model Checkers für Rechteckautomaten (Master)

  • Stand der Dinge: Erste Ansätze für statistisches Model Checking von singulären Automaten existieren; Rechteckautomaten lassen zusätzlich kontinuierlichen Nichtdeterminismus in Form von Intervallen in Invarianten, Ableitungen und Sprungbedingungen zu. Dadurch gestaltet sich die Analyse von Rechteckautomaten als schwierig und ineffizient für Modelle mit vielen Zufallsvariablen.
  • Ziel der Arbeit: Entwicklung eines ereignisorientierten Simulationsansatz für Rechteckautomaten, einschließlich Umgang mit Nichtdeterminismus (durch Auflösung oder durch Berechnung optimaler Scheduler) und der Erweiterung des Formalismus um stochastische Variablen / Zufallsuhren, sowie Ergänzung um Methoden des statistischen Model Checkings.
  • Offene Fragen: Welche Herausforderungen bringt der Nichtdeterminismus in Rechteckautomaten mit sich?  Wie können wir mit dem Nichtdeterminismus in der Simulation umgehen? Wie lassen sich bisherige Simulationsansätze übertragen? Wie einfach lässt sich der Formalismus um stochastische Variablen, z.B. durch Random Clocks, erweitern? Wie lassen sich Methoden des Statistical Model Checkings anwenden? Wie einfach wäre eine Erweiterung zu linearen hybriden Automaten (nach Henzinger)?

Unsicherheitsquantifizierung (UQ) im Statistical Model Checking (Master)

  • Stand der Dinge: Klassisches Statistical Model Checking (SMC) prüft Eigenschaften auf Basis fest vorgegebener Modellparameter. In realen Anwendungen sind diese Parameter jedoch oft unsicher oder schwanken (z. B. Messfehler, unbekannte Systembedingungen). Erste Ansätze zur Kombination von SMC mit Unsicherheitsquantifizierung (UQ) existieren, z. B. durch Nested Monte Carlo Sampling. Eine vollständige Integration in bestehende Tools, anwendungsnahe Methodiken für reale Modelltypen oder robuste Interpretationen der kombinierten Unsicherheiten fehlen jedoch weitgehend.

  • Ziel der Arbeit: Entwicklung und Evaluierung eines Konzepts zur Unsicherheitsquantifizierung im Kontext von SMC – mit besonderem Fokus auf: 1. Parameterunsicherheit bei Wahrscheinlichkeitsaussagen, 2. Kombination von Eingangsunsicherheit und statistischer Stichprobenunsicherheit, 3. Visualisierung und Interpretation der Gesamtaussage (z. B. Meta-Konfidenzintervalle). Anwendung auf ein bestehendes stochastisches Modell (z. B. hybride Petri Netze mit Zufallsvariablen). Ziel ist eine fundierte Methodik, die sich für realitätsnahe Modelle eignet und in ein bestehendes Simulationsframework integriert werden kann.

  • Offene Fragen: Wie kann man die Unsicherheit über den Parameterraum (z. B. Intervall oder Verteilung) systematisch modellieren? Welche Samplingverfahren (Grid, Latin Hypercube, adaptiv) liefern für UQ im SMC-Kontext gute Resultate bei begrenztem Rechenbudget? Wie kombiniert man die Konfidenzintervalle der SMC-Ergebnisse sinnvoll mit der Unsicherheit aus den Eingangsverteilungen? Lässt sich aus den Ergebnissen eine robuste, aber interpretierbare Gesamtaussage über die Property ableiten?


Theoretische und modellklassenbezogene Analyse der Konvergenzraten im Statistical Model Checking (Master)

  • Stand der Dinge: Statistical Model Checking (SMC) verwendet Monte-Carlo-Simulation zur Abschätzung der Wahrscheinlichkeit, dass ein Modell eine bestimmte Eigenschaft erfüllt. Die Anzahl benötigter Simulationen wird meist über allgemeine statistische Schranken (z. B. Hoeffding-, Chernoff-Ungleichung) abgeschätzt, unabhängig vom Modell oder der Property. In der Praxis variiert die tatsächliche Konvergenzgeschwindigkeit jedoch stark – abhängig von Modellstruktur, Property-Typ und Ereignishäufigkeit. Eine systematische Untersuchung des Konvergenzverhaltens für spezifische Modellklassen (z. B. hybride Petri-Netze mit Zufallsvariablen) fehlt weitgehend.
  • Ziel der Arbeit: Analyse, wie Modelleigenschaften (z. B. Struktur, Synchronisation, Seltenheit bestimmter Zustände) die Konvergenzrate bei SMC beeinflussen. Vergleich von theoretischen Fehlerabschätzungen mit empirisch beobachtetem Verhalten an konkreten Modellinstanzen. Entwicklung einfacher Kriterien oder Heuristiken, um auf Basis erster Stichproben den verbleibenden Stichprobenbedarf besser einzuschätzen. Prototypische Umsetzung eines adaptiven Sampling-Verfahrens in einem bestehenden SMC-Tool.
  • Offene Fragen: Welche strukturellen Eigenschaften eines Modells (z. B. Konflikte, Zeitverhalten, Zustandsraumgröße) haben systematischen Einfluss auf die Varianz und damit auf die Konvergenzrate? Wie gut passen gängige theoretische Schranken zur tatsächlichen Simulationserfahrung? Wo sind sie zu konservativ? Lässt sich eine adaptive Stichprobensteuerung entwickeln, die Effizienz und Konfidenzniveau balanciert?