Security of machine learning systems

  • Machine learning (ML) models are not programmed explicitly but are learnt from a set of data points. This data-centric paradigm allows for diverse applications, and ML models are now widely deployed in practice as internal components of ML systems. This inclusion of machine learning, however, introduces a new attack surface to these systems since ML models are vulnerable to a myriad of possible attacks. While prior work made remarkable progress in understanding such attacks from the perspective of the model, the deployment in practical systems introduces additional constraints, and commonly studied threat models do not sufficiently express the knowledge, capabilities, and goals of practical adversaries. In this work, we therefore investigate the security of machine learning with a systems security approach. By viewing the ML model as part of a system, we study the increased attack surface of practical systems and how such systems can be secured.
  • Modelle für Maschinelles Lernen (ML) werden nicht explizit programmiert, sondern aus einer Menge von Datenpunkten abgeleitet. Diese datenzentrische Perspektive ermöglicht vielfältige Anwendungen und ML-Modelle werden in der Praxis inzwischen häufig als interne Komponenten von ML-Systemen eingesetzt. Diese Integration eröffnet jedoch neue Angriffsflächen, da ML-Modelle anfällig für eine Vielzahl von Angriffen sind. Frühere Arbeiten haben solche Angriffe primär aus der Perspektive des Modells betrachtet, aber der Einsatz in einem praktischen System führt zu zusätzlichen Anforderungen und das allgemein untersuchte Angreifermodell bildet das Wissen, die Fähigkeiten und die Ziele realistischer Angreifer nicht ausreichend ab. In dieser Arbeit untersuchen wir die Sicherheit des maschinellen Lernens aus der Perspektive der Systemsicherheit. Indem wir das ML-Modell als Teil eines Systems betrachten, können wir die erhöhte Angriffsfläche evaluieren und wie Systeme besser geschützt werden können.

Download full text files

Export metadata

Additional Services

Share in Twitter Search Google Scholar
Metadaten
Author:Thorsten EisenhoferGND
URN:urn:nbn:de:hbz:294-106879
DOI:https://doi.org/10.13154/294-10687
Referee:Thorsten HolzORCiDGND, Nicolas PapernotGND, Konrad RieckGND
Document Type:Doctoral Thesis
Language:English
Date of Publication (online):2023/10/19
Date of first Publication:2023/10/19
Publishing Institution:Ruhr-Universität Bochum, Universitätsbibliothek
Granting Institution:Ruhr-Universität Bochum, Fakultät für Informatik
Date of final exam:2023/06/19
Creating Corporation:Fakultät für Informatik
GND-Keyword:Computersicherheit; Maschinelles Lernen; Deep learning; System; Sicherheit
Dewey Decimal Classification:Allgemeines, Informatik, Informationswissenschaft / Informatik
faculties:Fakultät für Informatik
Licence (German):License LogoKeine Creative Commons Lizenz - es gelten der Veröffentlichungsvertrag und das deutsche Urheberrecht