Abschlussarbeiten

Gerne betreuen wir Abschlussarbeiten — sowohl im Bachelor als auch im Bereich des Masters. Bei der Themenauswahl sind wir dabei offen für eigene Themenvorschläge. Für eine inhaltlich gute Betreuung sollte ein Thema aber doch nahe an unseren Schwerpunkten liegen — also sehr allgemein im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens, mit einem besonderen Fokus auf Deep Reinforcement Learning, Robotik, aber aktuell darüber hinaus auch Neuronale Netzwerke und Large Language Models als ein Anwendungsbereich von diesen. Sprechen Sie uns gerne an und schreiben uns eine Mail.

Im folgenden finden Sie eine Auswahl möglicher Themen.

Thema Zuordnung Beschreibung
Entwicklung eines neuronalen Netzes zur Vorhersage von Bodenkontakt bei laufenden Robotern Machine Learning / Neuronale Netze [Bachelor]

Ziel: Entwicklung eines neuronalen Netzes zur Vorhersage des Bodenkontakts von Robotern, basierend auf Servomotordaten.

Ansatz: Analyse von Servomotordaten und Bodenkontaktsensordaten eines laufenden Roboters; Entwicklung und Training eines neuronalen Netzes zur Vorhersage des Bodenkontakts.

Voraussetzungen: Kenntnisse in Machine Learning, Robotik und Programmierung (vorzugsweise Python).

sim2real – Sichere Übertragung von in Simulationen trainierten Systemen auf einen realen Roboter Robotik, Machine Learning [Bachelor]

Ziel: Entwickeln einer Methode, um ein in Simulationen trainiertes System (per DRL) sicher auf einen physischen Roboter zu übertragen, mit Fokus auf die Minimierung riskanter Bewegungen.

Ansatz: Einbindung eines gelernten Neuronalen Netz-Controllers in eine ROS Steuerungsarchitektur und Anwendung auf dem (anfangs simulierten) Roboter. Anpassung von Lernparametern und Reward-Funktion im Lernprozess, um ein sicheres Laufen zu garantieren.

Voraussetzungen: Kenntnisse in Robotersimulation, maschinellem Lernen, Programmierung in Python.

Integration von Hindernisvermeidung in ein neuronales Steuerungssystem für Roboterarme Neuronale Netze, Robotik [Bachelor, Master]

Ziel: Erweiterung eines bestehenden neuronalen rekurrenten Netzes (basierend auf Quaternionen als Repräsentation) für die Koordination von zwei simulierten Roboterarmen um Hindernisvermeidung.

Ansatz: Implementierung und Integration von Hindernisvermeidungsalgorithmen in das bestehende System. Testung und Optimierung der erweiterten Funktionalität.

Voraussetzungen: Kenntnisse in neuronalen Netzen, Robotiksteuerung und Programmierung.

Integration von ChatGPT in die Planung und Steuerung von Robotern

Large Language Models, Machine Learning [Master]

Ziel: ein Robotik-Steuerungssystem, das in einem 2-Systems-Ansatz ChatGPT für die High-Level Planung nutzt, unterstützt durch Deep Reinforcement Learning (DRL) auf der Ausführungsebene.

Ansatz: Integration von ChatGPT für übergeordnete Entscheidungsfindung und DRL für die Ausführung, wobei die Belohnungsstruktur von ChatGPT geformt wird. Einsatz von Retrieval-Augmented Generation (RAG) zur Nachverfolgung von Fähigkeiten und Historie.

Voraussetzungen: Programmierung in Python, Kenntnisse in DRL, RAG-Modellen.

Berücksichtigung sensorischer Verzögerungen in Deep Reinforcement Learning Deep Reinforcement Learning [Bachelor, Master]

Ziel: Erforschung der Auswirkungen sensorischer Verzögerungen auf dezentrale und zentrale DRL-Systeme – deren Lernverhalten und die Robustheit des gelernten Verhaltens.

Ansatz: Vergleich von dezentralem DRL mit geringeren sensorischen Verzögerungen und zentralem DRL unter Einbeziehung größerer Verzögerungen. Analyse des Einflusses dieser Verzögerungen auf die Leistung und das Lernverhalten.

Voraussetzungen: Kenntnisse in DRL, Programmierung Python und sensorischer Datenverarbeitung.

Entwicklung eines model-basierten Deep Reinforcement Learning-Systems mit einem differenzierbaren neuronalen Netzwerk als Körpermodell für Bewegungslernen Model-based Deep Reinforcement Learning, Robotic Manipulation, Künstliche Intelligenz [Master]

Ziel: Entwicklung eines model-basierten Deep Reinforcement Learning (DRL)-Systems, das ein differenzierbares neuronales Netzwerk als Körpermodell verwendet. Das primäre Ziel ist es, komplexe Bewegungen wie Manipulation oder Greifen von Objekten zu erlernen und effizient umzusetzen.

Ansatz: Einsatz eines differenzierbaren neuronalen Netzwerks, das das physische Modell des Roboters oder der manipulativen Einheit repräsentiert. Das DRL-System wird dann verwendet, um optimale Steuerstrategien für Aufgaben wie Greifen oder Manipulation zu lernen, wobei das neuronale Netzwerk die zugrundeliegenden physischen Interaktionen simuliert.

Voraussetzungen: Deep Learning und Reinforcement Learning, Programmierkenntnisse in Python, Grundverständnis der Robotik und kinematischen Modelle

Intrinsic Motivation zur Exploration in Deep Reinforcement Learning

Deep Reinforcement Learning (DRL), Machine Learning, KI

Ziel: Entwicklung und Testung eines DRL-Modells, das Exploration durch Intrinsic Motivation belohnt. Dabei soll die Effizienz und Leistungsfähigkeit des Modells in verschiedenen Control Tasks im OpenAI Gym bewertet werden.

Ansatz: Einsatz von zwei zufällig initialisierten neuronalen Netzen zur Messung der Bekanntheit von Erfahrungen, wobei nur ein Netzwerk lernen darf. Dieser Prozess basiert auf der Methode der Random Network Distillation (RND), wobei das lernende Netzwerk sich dem nicht lernenden Netzwerk bei bekannten Erfahrungen annähert und somit neue Zustände erkannt werden können.

Voraussetzungen: Grundkenntnisse in Deep Learning und Reinforcement Learning, Vertrautheit mit der OpenAI Gym Umgebung

Modularer Reward-Ansatz in Deep Reinforcement Learning für Task-Transfer Deep Reinforcement Learning [Bachelor, Master]

Ziel: Entwicklung und Untersuchung eines DRL-Systems, das modulare Rewards verwendet, um die Wiederverwendbarkeit und Übertragbarkeit auf verschiedene Aufgaben zu verbessern. Speziell soll der Fokus auf Actor-Critic-Ansätzen liegen.

Ansatz: Statt komplex zusammengesetzter Rewards sollen einzelne, kleinere Reward-Komponenten gelernt werden. Diese Modularität soll es ermöglichen, einzelne Reward-Elemente effektiv auf verschiedene Tasks zu übertragen und anzupassen. In einer Masterarbeit sollte dabei insbesondere dies für Actor- und Critic-Komponenten betrachtet werden.

Voraussetzungen: Deep Reinforcement Learning, insbesondere Actor-Critic-Methoden, Python

Einsatz eines Large Language Models zur Übertragung von Inhalten auf verschiedene Sprachkompetenzstufen im Deutschunterricht als Fremdsprache Large Language Models, KI im Bildungsbereich, Computational Linguistics [Bachelor, Master]

Ziel: Entwicklung und experimentelle Untersuchung eines Large Language Models (LLM), das darauf ausgelegt ist, Deutsch als Fremdsprache auf verschiedenen Kompetenzstufen zu vermitteln. Das Modell soll in der Lage sein, Eingabesätze entsprechend den unterschiedlichen Sprachniveaus zu transformieren und auszugeben.

Ansatz: Verwendung von Prompt Engineering und möglicherweise Fine-Tuning eines bestehenden Large Language Models, um es für den spezifischen Anwendungsbereich des Sprachlernens zu optimieren. Die Effektivität und Genauigkeit des Modells wird durch den Vergleich mit menschlichen Sprachbeispielen und traditionellen Lehrmethoden bewertet.

Voraussetzungen: Kenntnisse in Natural Language Processing und Machine Learning, Large Language Models

Entwicklung eines Neuronalen Netzes zur Erkennung von Sprachniveaus mit erklärbaren KI-Methoden Künstliche Intelligenz, Maschinelles Lernen, Erklärbare KI, Natural Language Processing [Bachelor, Master]

Ziel: Entwicklung eines neuronalen Netzwerkklassifikators, der verschiedene Sprachniveaus in Texten erkennen kann. Die Entscheidungsgrundlagen sollen unter Verwendung von Methoden der erklärbaren KI transparent und nachvollziehbar gemacht werden.

Ansatz: Training eines neuronalen Netzes auf Textdaten unterschiedlicher Sprachniveaus. Einsatz von Techniken der erklärbaren Künstlichen Intelligenz, z.B. Verwendung von Counterfactual Reasoning, um zu ermitteln, welche Änderungen im Text zu einer anderen Klassifikation führen würden.

Voraussetzungen: Neuronale Netzwerke, XAI, Grundkenntnisse in der Linguistik

Generierung und Anpassung von Reward Funktionen in Deep Reinforcement Learning durch Large Language Models Künstliche Intelligenz, Maschinelles Lernen [Bachelor, Master]

Ziel: Entwicklung eines Verfahrens, bei dem Large Language Models (LLM) genutzt werden, um Reward Funktionen für Deep Reinforcement Learning (DRL) aus sprachlichen Beschreibungen zu generieren.

Ansatz: Einsatz von LLMs zur Interpretation sprachlicher Beschreibungen und deren Übersetzung in Reward Funktionen. Experimentelle Anwendung und Anpassung dieser Reward Funktionen in Control Task-Szenarien aus der OpenAI Gym und  Evaluation.

Voraussetzungen: Deep Reinforcement Learning, Programmiererfahrung (Python), Grundlagenwissen LLMs

Konfidenzabschätzung über Aussagen von Large Language Models durch Analyse der Aktivierungen in den NN Layers Large Language Models, Neural Networks [Bachelor, Master]

Ziel: Verstehen der Fähigkeit, die Konfidenz eines LLMs anhand seiner letzten Schichten zu bestimmen.

Ansatz: Analyse der Aktivierungsmuster in den letzten Schichten eines LLM und Entwicklung von Metriken oder Indikatoren für Zuversicht basierend auf diesen Mustern. Diese nutzen, um Aussagen zu lenken – in Chain-of-Thought Schleifen oder Nutzen in Fine-Tuning.

Voraussetzungen: Machine Learning, LLMs, Programmierkenntnisse Python

Analyse des räumlichen Vorstellungsvermögens von Large Language Models (LLMs) durch Routenbeschreibungen Large Language Models, Machine Learning Kognitionswissenschaften [Bachelor]

Ziel: Verstehen der Fähigkeit von LLMs, räumliche Aufgaben, insbesondere die Verarbeitung und Generierung von Routenbeschreibungen, zu bewältigen.

Ansatz: Durchführung einer Serie von sprachlichen Experimenten, bei denen LLMs verschiedenen Aufgaben zu räumlicher Vorstellung gestellt bekommen. Untersuchung spezifischer Herausforderungen und Grenzen der LLMs im Kontext räumlicher Aufgaben.

Voraussetzungen: LLM, Analytische Fähigkeiten zur Auswertung experimenteller Daten.

  Large Language Models, Machine Learning [Master] Erweiterung zur Masterarbeit: Als grundlegende Idee kann dann in einem nächsten Schritt das LLM erweitert werden – als Ansatz: im Bereich des Encodings werden räumliche Aufgaben quantitativ direkt in speziellen Anteilen des Encodings repräsentiert (ähnlich xVal Ansatz).

 

  • Abgeschlossene Arbeiten

    • Niklas Hellmann (Bachelor Thesis, 2023), Evaluation and Enhancement of Artificial Potential Fields for Path Planning in Dynamic Environments. 
    • Staislav Staykov (Bachelor Thesis, 2023), The Impact of Noisy Observations on Deep Deterministic Policy Gradient
    • Matthias Hering (Bachelor Thesis, 2023), 3D-Printed Robust Ground Contact Sensors for Hap-tic Feedback using Functional Materials.
    • Bastian Klein (Bachelor Thesis, 2023), Leveraging MATLAB Simulink for Hexapod Robotics: Simulation, Control and Learning.
    • Rama Eissa (Bachelor Thesis, 2023), Integration of SLAM with Semi-Autonomous control mechanism based on hand gestures: A Study on a TurtleBot3 Burger Robot in Gazebo.
    • Sanando Schwenkel (Bachelor Thesis, 2023), An Abstract Model of an Adaptive Hexapod Ro-bot in Simulink and Stateflow.
    • Wadhah Zai El Amri (Master Thesis, 2022), Hierarchical Decentralized Deep Reinforcement Learning Architecture 
for a Simulated Four-Legged Agent.
    • Janneke Simmering (Master Thesis, 2021), Framework for emergent locomotion on a hexapod robot.
    • Luca Hermes (Master Thesis, 2021) Encoding Spatial and Temporal Features of Moving Skeletons using Geometric Deep Learning.
    • Balavivek Sivanantham (Master Thesis, 2020), Predictive Analysis on Rework process in Automotive Assembly line using Deep Learning.
    • Arsalane Arrach (Master Thesis, 2020), Towards practical and realistic approaches for systems of shared autonomous vehicles: A decentralized solution using hierarchical multi-agent reinforcement learning.
    • Kai Konen (Master Thesis, 2020), Decentralized Deep Reinforcement Learning for the Simulation of Six-Legged Locomotion.
    • Florian Raskob (Bachelor Thesis, 2019), Time series analysis and classification with ANN: Exploring characteristics of golf puts in kinematic and eye movement data. 
    • Luca Lach (Master Thesis, 2019), Guiding Representation Learning in Deep Generative Models with Policy Gradients.
    • Luca Hermes (Bachelor Thesis, 2018), Toward a Biomimetic Johnston’s Organ for Contact Distance Estimation.
      Philipp Lücking (Master Thesis), An autonomous modular robotic system for child-robot interaction.
    • Manuel Baum (Master Thesis), Modeling kinematics of a redundant manipulator using population coding and the MMC principle.