Adversariale Robustheit Neuronaler Netze

Verteidigungen gegen Vermeidungsangriffe zur Testzeit

Omschrijving

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
€ 57,20
Paperback / softback
 
Gratis verzending vanaf
€ 19,95 binnen Nederland
Schrijver
Riesenberg, Bijan Kianoush
Titel
Adversariale Robustheit Neuronaler Netze
Uitgever
Diplom.de
Jaar
2021
Taal
Duits
Pagina's
124
Gewicht
182 gr
EAN
9783961168965
Afmetingen
210 x 148 x 13 mm
Bindwijze
Paperback / softback

U ontvangt bij ons altijd de laatste druk!


Rubrieken

Boekstra