Glossaire
Selectionnez une lettre
Apprentissage par renforcement et rétroaction humaine
Approche d’apprentissage par renforcement qui utilise les commentaires et les évaluations d’utilisateurs humains pour guider l’apprentissage d’un modèle d’intelligence artificielle. Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue.
Apprentissage par renforcement et rétroaction humaine
Approche d’apprentissage par renforcement qui utilise les commentaires et les évaluations d…
Apprentissage par transfert
En apprentissage automatique, l’apprentissage par transfert consiste à utiliser les connaissances acquises lors de l’apprentissage d’une tâche pour améliorer les performances sur une tâche analogue, généralement lorsque les données d’apprentissage sont limitées pour cette nouvelle tâche.
Par…
Apprentissage par transfert
En apprentissage automatique, l’apprentissage par transfert consiste à utiliser les connaissances…
Apprentissage profond (deep learning)
L’apprentissage profond est un procédé d’apprentissage automatique utilisant des réseaux de neurones possédant plusieurs couches de neurones cachées. Ces algorithmes possédant de très nombreux paramètres, ils demandent un nombre très important de données afin d’être entraînés.
Apprentissage profond (deep learning)
L’apprentissage profond est un procédé d’apprentissage automatique utilisant des réseaux de…
Apprentissage supervisé
L’apprentissage supervisé est un procédé d’apprentissage automatique dans lequel l’algorithme s’entraîne à une tâche déterminée en utilisant un jeu de données assorties chacune d’une annotation indiquant le résultat attendu.
Apprentissage supervisé
L’apprentissage supervisé est un procédé d’apprentissage automatique dans lequel l’algorithme s…
Attaque par empoisonnement (data poisoning attack)
Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant des données corrompues en phase d’entraînement (ou d’apprentissage). Elles supposent que l’attaquant soit en mesures de soumettre des données à utiliser lors de l’entraînement du système d’IA.
Attaque par empoisonnement (data poisoning attack)
Les attaques par empoisonnement visent à modifier le comportement du système d’IA en introduisant…
Attaque par exemples contradictoires (adversarial examples attack)
Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues au système d’IA en phase de production.
Exemple : une image qui aurait été modifiée de façon à tromper un classifieur d’image et ainsi attribuer à une image de panda, l’étiquette de singe.
Ces…
Attaque par exemples contradictoires (adversarial examples attack)
Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues…