Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Adversarial Machine Learning: Mechanisms, Vulnerabilities, and Strategies for Trustworthy AI - Jason Edwards - cover
Adversarial Machine Learning: Mechanisms, Vulnerabilities, and Strategies for Trustworthy AI - Jason Edwards - cover
Dati e Statistiche
Wishlist Salvato in 0 liste dei desideri
Adversarial Machine Learning: Mechanisms, Vulnerabilities, and Strategies for Trustworthy AI
Disponibilità in 3 settimane
95,36 €
-5% 100,38 €
95,36 € 100,38 € -5%
Disponibilità in 3 settimane
Chiudi

Altre offerte vendute e spedite dai nostri venditori

Altri venditori
Prezzo e spese di spedizione
ibs
Spedizione Gratis
-5% 100,38 € 95,36 €
Vai alla scheda completa
Altri venditori
Prezzo e spese di spedizione
ibs
Spedizione Gratis
-5% 100,38 € 95,36 €
Vai alla scheda completa
Altri venditori
Prezzo e spese di spedizione
Chiudi
ibs
Chiudi

Tutti i formati ed edizioni

Chiudi
Adversarial Machine Learning: Mechanisms, Vulnerabilities, and Strategies for Trustworthy AI - Jason Edwards - cover
Chiudi

Promo attive (0)

Descrizione


Enables readers to understand the full lifecycle of adversarial machine learning (AML) and how AI models can be compromised Adversarial Machine Learning is a definitive guide to one of the most urgent challenges in artificial intelligence today: how to secure machine learning systems against adversarial threats. This book explores the full lifecycle of adversarial machine learning (AML), providing a structured, real-world understanding of how AI models can be compromised—and what can be done about it. The book walks readers through the different phases of the machine learning pipeline, showing how attacks emerge during training, deployment, and inference. It breaks down adversarial threats into clear categories based on attacker goals—whether to disrupt system availability, tamper with outputs, or leak private information. With clarity and technical rigor, it dissects the tools, knowledge, and access attackers need to exploit AI systems. In addition to diagnosing threats, the book provides a robust overview of defense strategies—from adversarial training and certified defenses to privacy-preserving machine learning and risk-aware system design. Each defense is discussed alongside its limitations, trade-offs, and real-world applicability. Readers will gain a comprehensive view of today???s most dangerous attack methods including: Evasion attacks that manipulate inputs to deceive AI predictions Poisoning attacks that corrupt training data or model updates Backdoor and trojan attacks that embed malicious triggers Privacy attacks that reveal sensitive data through model interaction and prompt injection Generative AI attacks that exploit the new wave of large language models Blending technical depth with practical insight, Adversarial Machine Learning equips developers, security engineers, and AI decision-makers with the knowledge they need to understand the adversarial landscape and defend their systems with confidence.
Leggi di più Leggi di meno

Dettagli

2026
Hardback
400 p.
Testo in English
9781394402038
Chiudi
Aggiunto

L'articolo è stato aggiunto al carrello

Informazioni e Contatti sulla Sicurezza dei Prodotti

Le schede prodotto sono aggiornate in conformità al Regolamento UE 988/2023. Laddove ci fossero taluni dati non disponibili per ragioni indipendenti da IBS, vi informiamo che stiamo compiendo ogni ragionevole sforzo per inserirli. Vi invitiamo a controllare periodicamente il sito www.ibs.it per eventuali novità e aggiornamenti.
Per le vendite di prodotti da terze parti, ciascun venditore si assume la piena e diretta responsabilità per la commercializzazione del prodotto e per la sua conformità al Regolamento UE 988/2023, nonché alle normative nazionali ed europee vigenti.

Per informazioni sulla sicurezza dei prodotti, contattare productsafetyibs@feltrinelli.it

Chiudi

Aggiungi l'articolo in

Chiudi
Aggiunto

L’articolo è stato aggiunto alla lista dei desideri

Chiudi

Crea nuova lista

Chiudi

Chiudi

Siamo spiacenti si è verificato un errore imprevisto, la preghiamo di riprovare.

Chiudi

Verrai avvisato via email sulle novità di Nome Autore