Les fiches pratiques IA
Introduction
Quel est le périmètre des fiches pratiques sur l’IA ?
La CNIL apporte des réponses concrètes pour la constitution de bases de données utilisées pour l’apprentissage des systèmes d’intelligence artificielle (IA), qui impliquent des données personnelles.
Fiche 1
Déterminer le régime juridique applicable
La CNIL vous aide à déterminer le régime juridique applicable aux traitements de données personnelles en phase de développement.
Fiche 2
Définir une finalité
La CNIL vous aide à définir la ou les finalités en tenant compte des spécificités du développement de systèmes d’IA.
Fiche 3
Déterminer la qualification juridique des fournisseurs de systèmes d’IA
Responsable de traitement, responsable conjoint ou sous-traitant : la CNIL aide les fournisseurs de systèmes d’IA à déterminer leur qualification.
Fiche 4
(1/2)
Assurer que le traitement est licite - Définir une base légale
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données.
Fiche 4
(2/2)
Assurer que le traitement est licite - En cas de réutilisation des données
La CNIL vous aide à déterminer vos obligations en fonction de votre responsabilité et des modalités de collecte ou de réutilisation des données.
Fiche 5
Réaliser une analyse d’impact si nécessaire
La CNIL vous explique comment et dans quels cas réaliser une analyse d’impact sur la protection des données (AIPD) en tenant compte des risques spécifiques au développement de modèles d’IA.
Fiche 6
Tenir compte de la protection des données dans la conception du système
Pour assurer le développement d’un système d’IA respectueux de la protection des données, il est nécessaire de mener une réflexion préalable lors de la conception du système. La CNIL en détaille les étapes.
Fiche 7
Tenir compte de la protection des données dans la collecte et la gestion des données
La CNIL donne les bonnes pratiques pour sélectionner les données et limiter leur traitement afin d’entraîner un modèle performant dans le respect des principes de protection des données dès la conception et par défaut.
Fiche 8
Mobiliser la base légale de l’intérêt légitime pour développer un système d’IA
La base légale de l’intérêt légitime sera la plus couramment utilisée pour le développement de systèmes d’IA. Cette base légale ne peut toutefois pas être mobilisée sans en respecter les conditions et mettre en œuvre des garanties suffisantes.
Fiche 8 (1/2)
La base légale de l’intérêt légitime : fiche focus sur la diffusion des modèles en source ouverte (open source)
Compte tenu des bénéfices qu’elles peuvent présenter, les pratiques d’ouverture sont à prendre en compte dans l’évaluation de l’intérêt légitime d’un fournisseur de système d’IA. Il est toutefois nécessaire d’adopter des garanties permettant de limiter les atteintes qu’elles peuvent porter aux personnes.
Fiche 8 (2/2)
La base légale de l’intérêt légitime : fiche focus sur les mesures à prendre en cas de collecte des données par moissonnage (web scraping)
La collecte des données accessibles en ligne par moissonnage (web scraping) doit être accompagnée de mesures visant à garantir les droits des personnes concernées.
Fiche 9
Informer les personnes concernées
Les organismes qui traitent des données personnelles pour développer des modèles ou des systèmes d’IA doivent informer les personnes concernées. La CNIL précise les obligations en la matière.
Fiche 10
Respecter et faciliter l’exercice des droits des personnes concernées
Les personnes dont les données sont collectées, utilisées ou réutilisées pour développer un système d’IA disposent de droits sur leurs données qui leur permettent d’en conserver la maîtrise. Il appartient aux responsables des traitements de les respecter et d’en faciliter l’exercice.
Fiche 11
Annoter les données
La phase d’annotation des données est cruciale pour garantir la qualité du modèle entraîné. Cet enjeu de performance peut être atteint au moyen d’une méthodologie rigoureuse garantissant le respect de la protection des données personnelles.
Fiche 12
Garantir la sécurité du développement d’un système d’IA
La sécurité des systèmes d’IA est une obligation afin de garantir la protection des données tant lors du développement du système que par anticipation de son déploiement. Cette fiche détaille les risques et mesures à prendre recommandées par la CNIL.