Beim Training großer ML-Modelle wirken oft mehrere Akteure mit. Wenn einer dieser Akteure bösartig ist, kann er versuchen, eine Hintertür ins trainierte Modell einzubauen, die die Funktionsweise des ML-Modells in einer vom bösartigen Akteur gewünschten Art und Weise beeinflusst. Im Seminar wird anhand aktueller wissenschaftlicher Publikationen die Frage untersucht, was man gegen solche Angriffe machen kann.
- Lehrende/r: Zoltan Adam Mann
Semester: WT 2025/26
Test field: WT 2025/26
ePortfolio: No