Machine Learning Security Against Data Poisoning: Are We There Yet?
2024
Résumé
Poisoning attacks compromise the training data utilized to train machine learning (ML) models, diminishing their overall performance, manipulating predictions on specific test samples, and implanting backdoors. This article thoughtfully explores these attacks while discussing strategies to mitigate them through fundamental security principles or by implementing defensive mechanisms tailored for ML.
Détails
Titre
Machine Learning Security Against Data Poisoning: Are We There Yet?
Auteur(s)
Cina, Antonio Emanuele ; Grosse, Kathrin ; Demontis, Ambra ; Biggio, Battista ; Roli, Fabio ; Pelillo, Marcello
Publié dans
Computer
Volume
57
Numéro
3
Pages
26-34
Date
2024-03-01
Editeur
Los Alamitos, Ieee Computer Soc
ISSN
0018-9162
1558-0814
1558-0814
Mots-clés (libres)
Autres identifiant(s)
Afficher la publication dans Web of Science
Laboratoires
VITA
Le document apparaît dans
Production scientifique et compétences > ENAC - Faculté de l'environnement naturel, architectural et construit > IIC - Institut d'ingénierie civile > VITA - lntelligence Visuelle pour les Transports
Publications validées par des pairs
Travail produit à l'EPFL
Articles de journaux
Publié
Publications validées par des pairs
Travail produit à l'EPFL
Articles de journaux
Publié
Grant
PRIN 2017 project RexLearn
Date de création de la notice
2024-04-17