Adversariale Robustheit Neuronaler Netze. Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Price for Eshop: 909 Kč (€ 36.4)
VAT 0% included
New
E-book delivered electronically online
E-Book information
Annotation
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veranderungen an der Eingabe vornehmen. Obwohl diese Anderungen fur den Menschen kaum wahrnehmbar sind, andert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu konnen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewahrleisten konnen. Hier wird eine Ubersicht uber verschiedene Anwendungsfalle, Angriffe, die daraus entstehenden Problemstellungen, Ansatze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Ask question
You can ask us about this book and we'll send an answer to your e-mail.