Maschinelles Lernen (ML) wird immer häufiger auch in kritischen oder sensiblen Anwendungen eingesetzt, z.B. im Gesundheitswesen. Gängige ML-Verfahren weisen Sicherheitsschwachstellen auf, die Angreifer potenziell ausnutzen können, um Zugang zu sensiblen Daten (z.B. Trainingsdaten) zu erlangen oder die Ausgabe von ML-Modellen zu beeinflussen (z.B. indem beim Training eine Hintertür eingeschleust wird). Im Rahmen dieser Lehrveranstaltung werden verschiedene Angriffe auf Vertraulichkeit und Integrität im ML thematisiert, sowohl im Training als auch bei der Inferenz. Um solche Angriffe zu verhindern oder zumindest zu erkennen, werden verschiedene Sicherheitstechniken vermittelt, z.B. Differential Privacy, Mehrparteienberechung oder Adversarial Training. Weitere potenzielle Themen umfassen die Sicherheitsaspekte von föderalem Lernen und von Erklärbarkeit, sowie Jailbreaking in ML-Modellen.
- Lehrende/r: Zoltan Adam Mann