Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Attacks, Defenses and Testing for Deep Learning - Jinyin Chen,Ximin Zhang,Haibin Zheng - cover
Attacks, Defenses and Testing for Deep Learning - Jinyin Chen,Ximin Zhang,Haibin Zheng - cover
Dati e Statistiche
Wishlist Salvato in 0 liste dei desideri
Attacks, Defenses and Testing for Deep Learning
Disponibilità in 3 settimane
281,13 €
-5% 295,93 €
281,13 € 295,93 € -5%
Disp. in 3 settimane
Chiudi
Altri venditori
Prezzo e spese di spedizione
ibs
281,13 € Spedizione gratuita
disponibilità in 3 settimane disponibilità in 3 settimane
Info
Nuovo
Altri venditori
Prezzo e spese di spedizione
ibs
281,13 € Spedizione gratuita
disponibilità in 3 settimane disponibilità in 3 settimane
Info
Nuovo
Altri venditori
Prezzo e spese di spedizione
Chiudi

Tutti i formati ed edizioni

Chiudi
Attacks, Defenses and Testing for Deep Learning - Jinyin Chen,Ximin Zhang,Haibin Zheng - cover

Descrizione


This book provides a systematic study on the security of deep learning. With its powerful learning ability, deep learning is widely used in CV, FL, GNN, RL, and other scenarios. However, during the process of application, researchers have revealed that deep learning is vulnerable to malicious attacks, which will lead to unpredictable consequences. Take autonomous driving as an example, there were more than 12 serious autonomous driving accidents in the world in 2018, including Uber, Tesla and other high technological enterprises. Drawing on the reviewed literature, we need to discover vulnerabilities in deep learning through attacks, reinforce its defense, and test model performance to ensure its robustness. Attacks can be divided into adversarial attacks and poisoning attacks. Adversarial attacks occur during the model testing phase, where the attacker obtains adversarial examples by adding small perturbations. Poisoning attacks occur during the model training phase, wherethe attacker injects poisoned examples into the training dataset, embedding a backdoor trigger in the trained deep learning model. An effective defense method is an important guarantee for the application of deep learning. The existing defense methods are divided into three types, including the data modification defense method, model modification defense method, and network add-on method. The data modification defense method performs adversarial defense by fine-tuning the input data. The model modification defense method adjusts the model framework to achieve the effect of defending against attacks. The network add-on method prevents the adversarial examples by training the adversarial example detector. Testing deep neural networks is an effective method to measure the security and robustness of deep learning models. Through test evaluation, security vulnerabilities and weaknesses in deep neural networks can be identified. By identifying and fixing these vulnerabilities, the security and robustness of the model can be improved. Our audience includes researchers in the field of deep learning security, as well as software development engineers specializing in deep learning.
Leggi di più Leggi di meno

Dettagli

2024
Hardback
399 p.
Testo in English
235 x 155 mm
9789819704248
Chiudi
Aggiunto

L'articolo è stato aggiunto al carrello

Informazioni e Contatti sulla Sicurezza dei Prodotti

Le schede prodotto sono aggiornate in conformità al Regolamento UE 988/2023. Laddove ci fossero taluni dati non disponibili per ragioni indipendenti da IBS, vi informiamo che stiamo compiendo ogni ragionevole sforzo per inserirli. Vi invitiamo a controllare periodicamente il sito www.ibs.it per eventuali novità e aggiornamenti.
Per le vendite di prodotti da terze parti, ciascun venditore si assume la piena e diretta responsabilità per la commercializzazione del prodotto e per la sua conformità al Regolamento UE 988/2023, nonché alle normative nazionali ed europee vigenti.

Per informazioni sulla sicurezza dei prodotti, contattare complianceDSA@feltrinelli.it

Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Chiudi

Chiudi

Siamo spiacenti si è verificato un errore imprevisto, la preghiamo di riprovare.

Chiudi

Verrai avvisato via email sulle novità di Nome Autore