Glossaire
Selectionnez une lettre
Attaque par exfiltration de modèle (model evasion attack)
Les attaques par exfiltration de modèle visent à permettre le vol d’un modèle d’IA et/ou de ses paramètres et hyperparamètres. Le modèle constitue un actif de grande valeur pour un système d’IA.
Attaque par exfiltration de modèle (model evasion attack)
Les attaques par exfiltration de modèle visent à permettre le vol d’un modèle d’IA et/ou de ses…
Attaque par inférence d'appartenance (membership inference attack)
Les attaques par inférence d'appartenance visent à permettre à un attaquant d’acquérir des connaissances sur les données utilisées pour la production du modèle d’IA.
En pratique, il s’agit de déterminer si des données relatives à un individu ont été utilisées lors de la phase d’entraînement (ou…
Attaque par inférence d'appartenance (membership inference attack)
Les attaques par inférence d'appartenance visent à permettre à un attaquant d’acquérir des…
Attaque par inversion de modèle (model inversion attack)
Les attaques par inversion visent à reconstruire les données ayant servi pour l’apprentissage du système. En pratique, les attaques par inversion sont menées en soumettant un grand nombre d’entrées au système d’IA et en observant les sorties produites. On utilise, de façon équivalente, le terme d…
Attaque par inversion de modèle (model inversion attack)
Les attaques par inversion visent à reconstruire les données ayant servi pour l’apprentissage du…
Augmentation de données (IA)
Dans le domaine de l'intelligence artificielle, le processus d’augmentation de données accroît la quantité de données d'entraînement par la création de nouvelles données à partir des données existantes.
Cette augmentation peut être réalisée par différentes opérations, par exemple, dans le cas d…
Augmentation de données (IA)
Dans le domaine de l'intelligence artificielle, le processus d’augmentation de données accroît la…