Adversariale Robustheit Neuronaler Netze
Autor: | Bijan Kianoush Riesenberg |
---|---|
EAN: | 9783961163960 |
eBook Format: | |
Sprache: | Deutsch |
Produktart: | eBook |
Veröffentlichungsdatum: | 29.12.2020 |
Untertitel: | Verteidigungen gegen Vermeidungsangriffe zur Testzeit |
Kategorie: | |
Schlagworte: | JSMA Maschinelles Lernen Neuronale Netze Spamfilter ZOO |
29,99 €*
Versandkostenfrei
Die Verfügbarkeit wird nach ihrer Bestellung bei uns geprüft.
Bücher sind in der Regel innerhalb von 1-2 Werktagen abholbereit.
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.