Beim Training großer ML-Modelle wirken oft mehrere Akteure mit. Wenn einer dieser Akteure bösartig ist, kann er versuchen, eine Hintertür ins trainierte Modell einzubauen, die die Funktionsweise des ML-Modells in einer vom bösartigen Akteur gewünschten Art und Weise beeinflusst. Im Seminar wird anhand aktueller wissenschaftlicher Publikationen die Frage untersucht, was man gegen solche Angriffe machen kann.

Kurs im HIS-LSF

Semester: WT 2025/26
Test field: WT 2025/26
ePortfolio: No