IA : Respecter et faciliter l’exercice des droits des personnes concernées
Les personnes dont les données sont collectées, utilisées ou réutilisées pour développer un système d’IA disposent de droits sur leurs données qui leur permettent d’en conserver la maîtrise. Il appartient aux responsables des traitements de les respecter et d’en faciliter l’exercice.
L’exercice des droits est étroitement lié à l’information donnée sur les traitements, qui constitue également une obligation.
Rappel général sur les droits applicables
Les personnes concernées disposent des droits suivants sur leurs données personnelles :
- droit d’accès article 15 du RGPD) ;
- droit de rectification (article 16 du RGPD) ;
- droit à l’effacement, également appelé droit à l’oubli (article 17 du RGPD) ;
- droit à la limitation du (article 18 du RGPD) ;
- droit à la portabilité des données lorsque la base légale du traitement est le consentement ou le contrat (article 20 du RGPD) ;
- droit d’opposition lorsque le traitement est fondé sur l’intérêt légitime ou la mission d’intérêt public (article 21 du RGPD) ;
- droit de retirer son consentement à tout moment lorsque le traitement de données à caractère personnel est fondé sur le consentement (article 7.3 du RGPD).
Elles doivent pouvoir exercer leurs droits à la fois sur les bases de données d’apprentissage et sur les modèles d’IA si ces derniers ne sont pas considérés comme anonymes (voir fiche sur le statut des modèles).
L’exercice des droits par les personnes concernées doit pouvoir se faire sur simple demande, écrite ou orale.
Le responsable du traitement doit informer les personnes concernées sur la personne à contacter pour cela et mettre en œuvre une procédure interne prévoyant les conditions de gestion et de suivi d'exercice des droits.
En matière de développement de modèles ou de systèmes d’IA : comment répondre aux demandes d’exercice de droits ?
En pratique, il est assez différent de répondre à des demandes d’exercice de droits selon qu’elles portent sur les données d’apprentissage ou sur le modèle lui-même.
Pour l’exercice des droits sur les bases de données d’apprentissage
Sur les difficultés pour identifier la personne concernée
Lorsque le responsable du traitement n’a pas ou plus besoin d’identifier la personne concernée et qu’il peut démontrer qu'il n'est pas en mesure de le faire, il n’a pas à conserver ou collecter d’informations supplémentaires pour la seule fin de permettre l’exercice des droits. L’article 11 du RGPD lui impose alors d’en informer les personnes, si possible.
Ce sera souvent le cas pour la constitution et l’utilisation de bases de données d’apprentissage, qu’elles soient annotées ou non. En effet, le fournisseur d’un système d’IA n’a en principe pas besoin d’identifier les personnes dont les données sont présentes dans son jeu d’entraînement. Il n’a donc pas à conserver des identifiants dans un jeu de données pseudonymisées pour permettre la réidentification des personnes par ses soins dans le seul but de répondre aux demandes d’exercice de droit.
Par exemple :
- Un organisme n’a pas à conserver les visages d’une base d’image juste pour permettre l’exercice des droits sur un jeu de photographies si le respect du principe de minimisation lui impose de flouter les visages.
- Un organisme n’a pas à conserver des données d’identification dans le jeu de données à la seule fin de permettre le retrait éventuel du consentement des personnes si elles ont été dûment informées de cet aspect et qu’elles y ont consenti de manière éclairée (par exemple en étant informées lorsque l’effacement des données mémorisées par le modèle d’IA sera impossible).
Il existe toutefois deux limites à cette logique :
- Tout d’abord, dans ce cas particulier, le RGPD laisse ouverte la possibilité pour les personnes de fournir des informations complémentaires, ce qui permettra parfois de les identifier et d’exercer leurs droits.
À cet égard, le RGPD ne prévoit pas de forme particulière. Une personne concernée pourrait donc par exemple fournir une image ou un pseudonyme (tel qu’un nom d’utilisateur sous lequel la personne concernée a une activité en ligne).
Il est recommandé d’anticiper ces difficultés d’identification en indiquant les informations susceptibles de permettre l’identification des personnes concernées (par exemple en cas d’homonymie). Il peut s’agir de leur permettre de fournir un fichier en particulier (comme une image, un enregistrement audio ou vidéo) mais aussi d’autres informations lorsque cela n’est pas possible.
- Ensuite, certaines garanties relatives à l’exercice des droits peuvent être des mesures supplémentaires nécessaires pour se fonder sur l’intérêt légitime (voir fiche sur l’intérêt légitime), par exemple en fournissant aux personnes un mécanisme d’opposition préalable et discrétionnaire. Si le responsable du traitement entend s’en prévaloir, il pourra alors traiter des données pour permettre l’identification des personnes et ainsi leur garantir un contrôle effectif sur leurs données.
Des mesures techniques et organisationnelles devraient être envisagées pour conserver un certain nombre de métadonnées ou d’autres informations sur la source de la collecte des données afin de faciliter la recherche d’une personne ou d’une donnée au sein de la base. Cela sera particulièrement pertinent lorsqu’il s’agit d’informations par ailleurs publiquement accessibles et dont la conservation n’engendre pas de risques supplémentaires pour les personnes concernées.
Exemple : Dans le cas d’un jeu de données d’images constitué à partir d’un moissonnage (web scraping) de données librement accessibles en ligne, conserver le nom d’affichage et l’adresse URL de la source de chaque image ainsi collectée permettrait de faciliter l’identification des personnes. En effet, ces dernières pourraient directement fournir les adresses URL en cause en retrouvant les données les concernant à partir d’un moteur de recherche généraliste, ou d’un site ou d’une bibliothèque d’archivage du web.
Point de vigilance : l’emploi de méthodes trop intrusives ne saura être justifié au titre de l’exercice des droits.
Si le responsable de traitement peut identifier les personnes, il doit répondre à leurs demandes d’exercice des droits et notamment aux éléments suivants.
S’agissant des informations sur le traitement de données (au titre du droit d’accès) :
Permettre aux personnes concernées de connaître les destinataires précis et les sources de leurs données est essentiel pour leur garantir un contrôle effectif sur leurs données. Ces informations leur permettent d’exercer leurs droits auprès des responsables de traitement qui détiennent leurs données. Cela est particulièrement important du fait de la chaîne d’acteurs souvent complexe dans le développement des systèmes d’IA.
Les informations sur les destinataires ou catégories de destinataires
Alors que les mentions d’information peuvent se limiter aux catégories de destinataires, le droit d’accès permet à une personne d’obtenir des informations spécifiques sur le traitement de ses données.
Lorsque la personne concernée le demande, le droit d’accès comprend le droit d’obtenir l’identité des destinataires des données traitées et non seulement les catégories de destinataires (comme rappelé par la CJUE dans l’arrêt C-154/21 du 12 janvier 2023).
Un organisme ne peut donc y répondre en se limitant aux informations relatives aux catégories de destinataires que lorsqu’il n’est pas possible de les identifier précisément (par exemple dans le cas d’une publication en source ouverte) ou qu’il démontre que la demande est manifestement infondée ou excessive.
En particulier, si la base de données a vocation à être partagée avec un grand nombre de tiers (par exemple dans le cadre de travaux de recherche), la CNIL recommande de mettre en place un mécanisme d’authentification ou d’API permettant d’enregistrer les identités des tiers et les données accédées.
Les informations sur la source des données
Lorsque les données n’ont pas été collectées directement auprès des personnes concernées (par exemple, en cas de collecte auprès d’un courtier en données), le droit d’accès permet d’obtenir toute information disponible quant à leur source.
Par exemple :
- En cas de collecte par l’utilisation de techniques de moissonnage (web scraping) de données accessibles en ligne, le responsable du traitement devra conserver les noms de domaine, mais également les URL des pages web sur lesquelles les données ont été collectées pour pouvoir les transmettre aux personnes concernées qui en font la demande.
- En cas de réutilisation d’un jeu de donnée accessible en ligne, le responsable du traitement doit conserver l’identité du responsable du traitement source. La CNIL recommande qu’il fournisse aux personnes qui exerceraient leur droit d’accès les moyens de contacter de cette source. Une bonne pratique consiste à fournir une description compréhensible des données qu’elle contient ainsi que des conditions de leur collecte.
Lorsque le jeu de données d’entraînement a été constitué à partir de plusieurs sources (par exemple à partir de plusieurs jeux de données), le responsable du traitement doit prendre des mesures de traçabilité pour pouvoir fournir à chaque personne concernée des informations précises sur les sources de leurs données. Dans les cas où cela se révèlerait impossible, il conviendra de leur fournir toutes informations utiles, c’est-à-dire sur l’ensemble des sources utilisées.
S’agissant du droit de recevoir communication d’une copie des données d’apprentissage
Le droit d’accès permet à toute personne d’obtenir gratuitement une copie de l’ensemble des données traitées la concernant. Cela suppose le droit d’obtenir des extraits de bases de données d’apprentissage lorsque cela est indispensable pour permettre à la personne concernée d’exercer effectivement ses autres droits (CJUE, 4 mai 2023, aff. C-487/21). À cet égard, la CNIL recommande de fournir les données elles-mêmes, mais également les annotations et métadonnées associées dans un format aisément compréhensible.
Cette communication ne doit pas porter atteinte aux droits et libertés d’autrui, lesquels incluent notamment les droits des autres personnes concernées, ou encore les droits de propriété intellectuelle ou du secret des affaires du titulaire de la base de données.
S’agissant de la modification de la base de données
Les personnes concernées disposent du droit de compléter ou de rectifier les données qui les concernent. En l’occurrence, cela pourra concerner les annotations inexactes ou incomplètes que les personnes concernées entendraient voir corriger.
Le droit à l’effacement permet d’exiger la suppression des données dans un certain nombre de cas, par exemple lorsque la personne concernée révèle au responsable du traitement que ce dernier détient des données sensibles la concernant (au sens de l’article 9 du RGPD) et pour lesquelles aucune dérogation ne justifiait leur traitement.
Par ailleurs, lorsque le traitement est fondé sur l’intérêt légitime ou l’exercice d’une mission d’intérêt public, les personnes concernées peuvent, à tout moment, s’y opposer pour des raisons tenant à leur situation particulière. Un tel motif résulterait par exemple de la conservation de photographies compromettantes dans un jeu de données ou de propos tenus sur le web alors que la personne était mineure.
En cas de moissonnage (web scraping) de données accessibles en ligne, une bonne pratique consiste à mettre en place une « liste repoussoir ». Cette liste, gérée par le responsable du traitement, permettrait aux personnes concernées de s'opposer à la collecte de leurs données sur certains sites web ou plateformes en ligne en fournissant les informations permettant leur identification sur ces différents sites, y compris en amont de la collecte. Cette mesure peut aussi contribuer à la proportionnalité d’un traitement.
S’agissant de la notification des droits exercés (rectification, limitation et effacement)
L'article 19 du RGPD prévoit qu'un responsable du traitement notifie à chaque destinataire auquel les données personnelles ont été communiquées toute rectification, effacement de données à caractère personnel ou toute limitation du traitement effectué, à moins qu'une telle communication se révèle impossible ou exige des efforts disproportionnés.
Il doit tenir compte des technologies disponibles et des coûts de mise en œuvre. Par exemple, la CNIL recommande l’usage d’interfaces de programmation applicatives (API) (en particulier dans les cas les plus à risque), ou à minima à de techniques de gestion des journalisation des téléchargements de données.
Par ailleurs, en cas de partage d’un jeu de données, une bonne pratique consiste à prévoir une obligation contractuelle (par exemple dans la licence de réutilisation du jeu de données) de répercuter les effets de l’exercice des droits d’opposition, de rectification ou d’effacement par leurs réutilisateurs.
Pour l’exercice des droits sur les modèles soumis au RGPD
L’entraînement d’un modèle d’IA sur la base de données personnelles peut conduire à l’application du RGPD sur le modèle en question (voir le questionnaire dédié).
S’agissant de la notion de donnée personnelle appliquée aux modèles génératifs
Les sorties d’un modèle d’IA générative pourront être considérées comme des données personnelles lorsqu’elles se rapportent à une personne physique identifiée ou identifiable, indépendamment de leur exactitude. Tel sera particulièrement le cas des régurgitations de grands modèles de langage qui cherchent généralement à être le plus exact possible mais qui peuvent produire des sorties complètement fausses sur une personne en particulier.
Le fournisseur du système d’IA générative ne sera en revanche pas responsable du traitement des données personnelles contenues dans les sorties qui ne résulte pas d’une mémorisation par le modèle mais d’une d’inférence statistique à partir d’une donnée personnelle fournie dans l’invite (ou « prompt »). Dans ce cas, le traitement de ces données relèvera de la responsabilité de l’utilisateur du système.
Dans certains cas extrêmes, un modèle pourrait être construit pour générer des informations purement synthétiques et fictives, présentées comme telles, mais qui pourraient concerner un individu réel de manière totalement fortuite. Cela pourrait être le cas d'un modèle entraîné à partir de données anonymes et utilisé pour générer des fictions. Il pourrait alors arriver que les noms de certains personnages de ces fictions correspondent à des noms de personnes réelles. Il convient alors de réaliser une analyse au cas par cas pour déterminer si ces informations peuvent sortir du régime des données à caractère personnel et du RGPD.
S’agissant de l’identification de la personne concernée au sein du modèle
Lorsque le RGPD s’applique au modèle, le responsable du traitement pourra malgré tout démontrer qu’il n’est pas en mesure d’identifier les personnes au sein de son modèle au sens de l’article 11 du RGPD. Dans ce cas, le responsable du traitement doit, si possible, en informer les personnes concernées. Il doit alors leur permettre de fournir des informations complémentaires permettant de les identifier pour qu’ils puissent exercer leurs droits.
Le responsable du traitement pourra le plus souvent démontrer que l’état de l’art des techniques n’est pas assez mature pour permettre d’identifier des données personnelles à partir des paramètres du modèle (voir l’encadré ci-dessous pour plus d’informations). Il existe toutefois des cas particuliers comme lorsque les paramètres du modèle contiennent explicitement certaines données d’apprentissage (ce qui peut être le cas de certains modèles tels que les machines à vecteurs de support ou SVM ou de certains algorithmes de partitionnement des données, ou clustering) : il sera techniquement possible d’exercer les droits sur les paramètres du modèle.
La CNIL recommande au fournisseur du modèle d’indiquer aux personnes concernées les informations complémentaires à fournir pour les identifier. Pour cela, ce dernier peut s’appuyer sur la typologie des données d’entraînement pour anticiper les catégories de données ayant été susceptibles d’être mémorisées.
Dans le cas de l’IA générative, la CNIL recommande également au concepteur de mettre au point une procédure interne consistant à interroger le modèle (par exemple à partir d’une liste de requêtes judicieusement choisies) pour vérifier les données qu’il aurait pu mémoriser sur la personne grâce aux informations fournies.
L’influence des données d’une personne sur les paramètres du modèle
Lors de l’entraînement des modèles d’IA d’apprentissage automatique les plus complexes comme les réseaux de neurones, les données d’entraînement sont utilisées pour optimiser les paramètres du modèle. Toutefois, en raison du nombre important d’itérations nécessaires à l’entraînement du modèle et de la nature des techniques utilisées (comme la descente du gradient), la contribution de chaque donnée au modèle est diffuse et les méthodes permettant d’en retrouver la trace font encore l’objet de recherche.
Le champ du désapprentissage machine, dont le principe, les avantages et les limitations sont décrits dans l’article Linc « Comprendre le désapprentissage machine », fait fréquemment l’objet d’avancées prometteuses. Par exemple, l’utilisation des fonctions d’influence, qui permettent de conserver une trace de la contribution des données sur les paramètres du modèle lors de l’entraînement, est l’une des techniques qui pourrait permettre de résoudre la question de la contribution de chaque donnée. Ces techniques permettraient par exemple d’identifier les poids influencés par les données aberrantes contenues dans un jeu de données et ainsi de corriger leur valeur.
Dans l’attente des avancées de la recherche sur ces sujets, il ne semble pas possible, dans le cas général, pour un responsable de traitement d’identifier les poids d’un modèle d’IA correspondant à une personne en particulier. En revanche, il peut parfois lui être possible de déterminer si le modèle a appris des informations sur une personne en conduisant des tests et des attaques fictives, telles que les attaques par inférence d’appartenance ou par reconstruction d’attributs. Ces attaques sont décrites dans l’article Linc « Petite taxonomie des attaques des systèmes d’IA ».
La CNIL alerte les responsables de traitement sur le fait que ce constat n’est valable qu’au regard de l’état de l’art actuel, et qu’elle encourage activement la recherche et le développement de pratiques permettant de respecter l’exercice des droits et le principe de la protection des données dès la conception.
S’agissant des informations sur le traitement du modèle (au titre du droit d’accès) et du droit d’obtenir une copie des données :
Lorsqu’il a pu identifier la personne concernée et vérifier qu’une mémorisation des données avait eu lieu, le responsable doit le confirmer à la personne. Lorsqu’il n’a pas pu vérifier la présence d’une mémorisation, mais que le responsable du traitement n’a pas pu exclure que celle-ci soit possible (notamment en raison des limitations techniques apportées par les méthodes actuelles), la CNIL recommande d’indiquer aux personnes qu’il n’est pas impossible que des données d’entraînement le concernant aient été mémorisées par le modèle.
En complément des informations relatives aux données d’apprentissage, certaines informations propres au modèle doivent être communiquées dans le cas où son traitement est soumis au RGPD. Si le responsable du traitement dispose encore des données d’entraînement, il pourra répondre à la personne en lui confirmant que ses données ont été traitées pour l’apprentissage et qu’elles sont susceptibles d’avoir été mémorisées. Le cas échéant des informations portant spécifiquement sur le modèle devront lui être communiquées, comme l’information sur les destinataires du modèle (15.1.c), sa durée de conservation ou les critères utilisés pour la déterminer (15.1.d), les droits qui peuvent être exercés sur le modèle (15.1.e et f), ainsi que sa provenance lorsqu’il n’a pas été conçu par le responsable de traitement (15.1.g).
Lorsque la personne a exercé son droit d’obtenir une copie de ses données mais que le responsable du traitement ne peut pas identifier l’ensemble de ses données mémorisées par le modèle, ce dernier devrait lui fournir le résultat de ses investigations la concernant, en particulier les exemples de sorties contenant ses données personnelles dans le cas des systèmes d’IA génératifs.
S’agissant de l’exercice des droits à la rectification, d’opposition, ou à l’effacement sur le modèle
Bien que l’identification de données à partir des paramètres d’un modèle présente des difficultés techniques importantes à ce jour, certaines solutions pratiques permettent de répondre à l’exercice des droits.
Lorsque le responsable du traitement dispose toujours des données d’entraînement, un réentraînement du modèle permet de répondre à l’exercice des droits suite à leur prise en compte sur le jeu de données. Il permet alors de répondre à l’exercice des droits sur les modèles soumis au RGPD.
Le réentraînement du modèle devrait donc être envisagé à chaque fois qu’il ne s’avère pas disproportionné au regard des droits du responsable du traitement, notamment de la liberté d'entreprise. En pratique, cela dépendra essentiellement de la sensibilité des données et des risques que leur régurgitation ou divulgation ferait peser sur les personnes.
Ce réentraînement peut avoir lieu de manière périodique afin de prendre en compte plusieurs demandes d’exercice de droit à la fois. En principe, le responsable du traitement doit répondre à une demande le plus rapidement possible, et au plus tard dans le délai d’un mois. Le RGPD prévoit toutefois que ce délai peut être prolongé de deux mois compte tenu de la complexité et du nombre de demandes (par exemple en fonction de l’ampleur du réentraînement à mener), à condition que la personne en soit informée.
Il conviendra alors au responsable du traitement de fournir une version actualisée du modèle d’IA à ses utilisateurs, le cas échéant en leur imposant par voie contractuelle de n’utiliser qu’une version régulièrement mise à jour.
Bonne pratique
Les solutions techniques aujourd’hui disponibles n’étant pas satisfaisantes dans tous les cas où un modèle est soumis au RGPD, une bonne pratique consiste à observer un délai raisonnable entre le moment de la constitution de la base de données d’apprentissage et le moment de l’entraînement du modèle par lui-même ou suite à la diffusion du jeu de données, afin de permettre aux personnes concernées d’exercer leurs droits en amont.
Questionnement :
La CNIL s’interroge sur les cas, conditions et solutions techniques pour lesquels un réentrainement ne serait pas possible ou s’avérerait disproportionné.
En première analyse, la CNIL considère que les techniques de dégradation du modèle, par exemple par des techniques de désapprentissage machine semblent encore manquer de maturité aujourd’hui pour être recommandées.
Elle s’interroge toutefois concernant la pertinence d’autres techniques, telles que celles consistant à modifier le modèle, par exemple par une étape d’ajustement, ou fine-tuning, sur d’autres données.
Lorsque l’exercice des droits ne conduit pas à ré-entraîner le modèle, la CNIL envisage de recommander des mesures consistant à filtrer les sorties d’un système pour permettre de répondre à l’exercice des droits à la rectification, à l’opposition ou à l’effacement si le responsable du traitement démontre qu’elles sont suffisamment efficaces et robustes (c’est-à-dire qu’elles ne peuvent pas être contournées).
En pratique, ces mesures pourraient notamment impliquer des modifications apportées au système d’IA afin de limiter ses sorties.
Dans le cas des IA génératives, cela pourrait se concrétiser par l’ajout de filtres empêchant la régurgitation ou la production de sorties concernant la personne. A cet égard :
- Il serait recommandé d’utiliser des règles générales prévenant la génération de données personnelles, plutôt qu’une « liste noire » des personnes ayant exercé leurs droits.
- Ces règles générales devraient chercher à détecter et pseudonymiser les données personnelles concernées dans les sorties lorsque la production de données personnelles n’est pas la finalité visée, par exemple par des techniques de reconnaissance d’entités nommées.
- Lorsqu’une liste repoussoir serait nécessaire, il conviendrait d’en assurer la sécurité et d’évaluer l’impact du filtre sur les sorties, notamment en évaluant l’augmentation du risque d’attaque par inférence d’appartenance qu’elle peut induire en modifiant la distribution statistique des sorties.
Le fournisseur du modèle ou du système d’IA devrait alors fournir à son utilisateur les moyens de mettre en œuvre ces mesures pour lui permettre de répondre à ses propres obligations.
Ces mesures resteraient toutefois moins pertinentes que le réentrainement du modèle précédemment évoqué, et ne serait de toute façon pas toujours applicables, notamment au regard de l’impact du traitement pour la personne exerçant ses droits, ou en raison de la manière dont le système d’IA est utilisé ou mis à disposition. Compte tenu des difficultés pratiques de ces solutions techniques permettant de modifier le modèle, la CNIL recommanderait en priorité de mettre en œuvre les mesures permettant de rendre préalablement impossible l’identification de la personne dans les données d’apprentissage, telles que leur anonymisation, ainsi que les mesures permettant d’éviter la mémorisation ou la régurgitation. Ces mesures permettant à la fois d’écarter l’exercice des droits sur le modèle et de limiter les risques pour les personnes.
Enfin, la CNIL s’interroge sur la responsabilité du respect des droits des personnes sur les données des modèles dont le traitement est soumis au RGPD (relèvent-ils des seuls fournisseurs ou également des utilisateurs du modèle ?).
Donner votre avis : nous vous invitons à partager votre avis sur ces questionnements en répondant au questionnaire sur l’application du RGPD aux modèles d’IA.
Dérogations à l’exercice des droits sur les bases de données ou sur le modèle d’IA
Point de vigilance : lorsqu’il peut se prévaloir de certaines dérogations, le responsable du traitement doit informer préalablement la personne que ses droits font l’objet de restrictions et expliquer les motifs du refus de l’exercice d’un droit aux personnes concernées qui en ont fait la demande.
En dehors des situations dans lesquelles le responsable du traitement n’est pas en mesure d’identifier les personnes concernées (voir les développements dédiés ci-dessus), le responsable du traitement peut déroger à l’exercice des droits dans les cas suivants :
- La demande est manifestement infondée ou excessive (article 12 du RGPD),
- L’organisme qui reçoit la demande n’est pas le responsable du traitement en cause,
- L’exercice d’un ou plusieurs droits est exclu par le droit français ou européen (au sens de l’article 23 du RGPD),
- Pour les traitements à des fins de recherche scientifique ou historique, ou à des fins statistiques : lorsque les droits risqueraient de rendre impossible ou d'entraver sérieusement la réalisation de ces finalités spécifiques (au sens de l’article 116 du décret d’application de la loi « informatique et libertés »),
- Pour le droit d’opposition : le responsable du traitement fait valoir un motif impérieux qui prévaut sur le motif tenant à la situation particulière de la personne (article 21 du RGPD).
Focus sur le droit d’opposition
Le responsable de traitement doit démontrer qu’il existe des motifs légitimes et impérieux pour le traitement afin de ne pas donner suite à une demande d’exercice du droit d’opposition exercé par une personne.
Pour cela, le responsable de traitement devra procéder à la mise en balance entre les motifs tenant à la situation particulière de la personne exerçant son droit d’opposition et les motifs légitimes et impérieux qu’il invoque pour y déroger.
Cette mise en balance dépendra notamment des risques encourus par la personne qui s’oppose au traitement de ses données. S’agissant des modèles soumis au RGPD, il s’agira en particulier d’apprécier les risques de divulgation des données d’entraînement (par exemple par le biais de régurgitation), et des risques susceptibles d’être engendrées par de telles divulgations (lesquels dépendront du degré de sensibilité des données en cause).