#5 Transparence des systèmes d’IA : portée exacte des obligations pour les juristes
Le Règlement (UE) 2024/1689 dit « AI Act » a instauré en 2024 le premier cadre juridique horizontal sur l’intelligence artificielle dans l’UE. Ce régime repose sur une approche par les risques : les systèmes d’IA se répartissent en quatre niveaux (risque inacceptable, élevé, limité, minimal) avec des obligations graduées pour chaque catégorie. Les systèmes à risque inacceptable sont tout simplement interdits, ceux à haut risque soumis à des contrôles et évaluations stricts, tandis que les systèmes à risque limité n’ont que des obligations plus légères - essentiellement des mesures de transparence - et les systèmes à risque minimal n’ont aucune obligation spécifique.
La logique est donc proportionnée : plus le risque potentiel est élevé pour la sécurité ou les droits, plus les contraintes sont rigoureuses, et inversement.
C’est dans ce contexte que l’article 50 du Règlement IA fixe les exigences de transparence[1] applicables aux systèmes d’IA à risque limité (ex : chatbots, générateurs d’images, IA émotionnelles, etc.). L’objectif est d’assurer que l’utilisation de ces IA reste honnête et compréhensible par les utilisateurs, sans imposer les mêmes contraintes qu’aux IA « hauts risques ».
Ce cinquième volet de notre série sur l’IA Act examine en détail la portée exacte de ces obligations de transparence et d’explicabilité juridique.
1. Quelles obligations de transparence pour les IA à risque limité ?
L’article 50 du Règlement IA énumère cinq obligations de transparence distinctes, chacune visant un scénario d’usage concret dont les deux premiers sont sous la responsabilité du fournisseur et les trois suivants celle du déployeur.
1.1. Les obligations du fournisseur
1.1.1. Interactions directes (chatbots et agents virtuels)
Les fournisseurs d’IA conçues pour interagir directement avec le public (chatbots de service client, assistants vocaux, etc.) doivent s’assurer que l’utilisateur soit informé qu’il a affaire à un système d’IA.
En pratique, cela implique par exemple un message d’accueil ou un indice visuel indiquant clairement que l’interlocuteur est artificiel.
Cette information peut être omise seulement si, du point de vue d’un utilisateur normalement averti, le caractère non humain de l’agent est évident dans le contexte d’usage.
À défaut, ne pas divulguer la nature automatisée pourrait induire l’utilisateur en erreur sur l’identité ou la fiabilité de son interlocuteur.
1.1.2. Contenus de synthèse générés par IA (images, audio, vidéo, texte)
Lorsqu’un système d’IA génère du contenu synthétique (image créée par IA, voix de synthèse, texte rédigé par IA, etc.), le fournisseur de ce système doit intégrer un marquage indiquant l’origine artificielle des contenus produits.
Concrètement, chaque sortie du modèle doit comporter un indicateur (par exemple un filigrane numérique invisible ou des métadonnées) signalant qu’il s’agit d’une production d’IA.
Ce marquage doit être conçu dans un format détectable automatiquement et être aussi efficace, interopérable et robuste que possible selon l’état de l’art.
L’idée est de permettre aux outils ou aux personnes de reconnaître aisément un contenu artificiel, même après sa diffusion.
Exception : cette obligation ne s’applique pas aux fonctions d’IA purement assistantes d’édition qui n’altèrent pas substantiellement le contenu fourni par l’utilisateur (par exemple une simple correction grammaticale automatique).
1.2. Les obligations du déployeur
1.2.1. IA « émotionnelles » et systèmes biométriques
Pour les systèmes de reconnaissance des émotions (détection automatisée de l’état émotionnel d’une personne à partir de son visage, de sa voix, etc.) ou de catégorisation biométrique (classification d’une personne selon son sexe, son âge, ou d’autres caractéristiques), le déployeur du système doit informer les personnes concernées qu’elles sont soumises à cette analyse.
Autrement dit, si un magasin utilise une caméra couplée à une IA émotionnelle pour analyser les réactions des clients, un panneau ou un message approprié doit le signaler aux visiteurs.
De plus, le traitement de ces données personnelles doit respecter en parallèle le RGPD et les lois de protection des données applicables (finalités légitimes, information des personnes sur leurs droits, etc.).
À noter que l’IA Act interdit par ailleurs certains usages d’IA émotionnelle jugés trop intrusifs. Par exemple, l’analyse des émotions est bannie dans les contextes du travail ou de l’éducation, sauf impératifs de sécurité ou de santé dûment justifiés.
1.2.2. Deepfakes (contenus audiovisuels artificiels)
Un deepfake désigne un contenu image, audio ou vidéo généré ou altéré par IA d’une manière si réaliste qu’il simule un original authentique.
Lorsqu’une organisation diffuse un tel contenu artificiel (par exemple, une vidéo promotionnelle où le visage ou la voix d’une personne a été synthétisé), elle doit divulguer clairement le montage artificiel au public.
Il faut avertir le public que l’image ou le son a été créé par une machine afin d’éviter toute impression trompeuse de réalité.
Néanmoins, dans un tel contexte artistique, créatif ou satirique, la transparence peut se limiter à un avertissement discret signalant la présence de contenus artificiels, d’une manière qui ne nuise pas à la présentation ou à la jouissance de l’œuvre.
Par exemple, un film utilisant des images de synthèse d’anciens acteurs pourrait simplement le mentionner au générique. Il ne serait pas nécessaire d’afficher une alerte en plein écran.
1.2.3. Textes génératifs d’actualité
Enfin, lorsqu’un texte (article de presse, billet d’actualité, etc.) destiné à informer le public sur un sujet d’intérêt général est généré ou substantiellement rédigé par une IA, le déployeur qui publie ce texte doit signaler son origine artificielle aux lecteurs.
Cette mention vise à préserver la confiance du public dans l’information, surtout à l’heure où des outils comme ChatGPT peuvent produire des textes indiscernables de ceux écrits par un humain.
Exception : si le contenu généré a fait l’objet d’une relecture ou d’un contrôle éditorial humain et qu’une personne physique ou morale en assume la responsabilité éditoriale, la divulgation explicite n’est pas requise.
En effet, le fait d’insérer une supervision humaine atténue en théorie le risque de diffusion de « fake news » purement automatisées. En pratique, un média pourrait ainsi utiliser une IA pour rédiger un brouillon d’article, puis le faire relire par un journaliste responsable. Dans ce cas, l’article final n’aurait pas l’obligation légale de porter la mention « généré par IA ».
Dans tous les cas de figure ci-dessus, les acteurs concernés doivent communiquer ces informations de transparence de manière claire et dès la première interaction ou exposition de la personne au système d’IA ou au contenu en question.
Par exemple, le chatbot doit s’annoncer dès le début de la conversation, et non après plusieurs échanges.
De même, un contenu généré devrait idéalement comporter un marquage intégré dès sa création, afin d’être détectable lors de toute réutilisation ultérieure. Ces indications doivent par ailleurs respecter les exigences d’accessibilité (être compréhensibles y compris par les utilisateurs handicapés, etc.).
Enfin, l’article 50 précise qu’il ne déroge pas aux autres dispositions pouvant imposer de la transparence. Ses obligations s’ajoutent à celles visant les IA à haut risque et n’affectent pas les obligations analogues prévues par d’autres textes de l’Union ou des législations nationales.
Cette exception éditoriale concernant les textes générés fait néanmoins débat chez les spécialistes des médias. Certains y voient une brèche potentielle : il suffirait qu’un contenu généré soit relu très rapidement par un humain pour échapper à l’étiquetage, ce qui pourrait inciter des diffuseurs peu scrupuleux à revendiquer un « contrôle humain » de pure forme afin de ne pas divulguer l’usage d’IA. La frontière entre une simple relecture cosmétique et une véritable intervention éditoriale sera délicate à tracer en pratique. L’esprit du texte restant néanmoins celui d’une lecture attentive pour bénéficier de l’exception. Et les preuves à rapporter devront être précises pour bénéficier de cette exception.
2. Enjeux de mise en conformité pour les entreprises
Si ces obligations de transparence sont moins lourdes que celles applicables aux IA à haut risque, leur mise en œuvre pratique soulève malgré tout des défis techniques et organisationnels pour les acteurs économiques.
2.1. Les défis techniques
Les fournisseurs d’IA générative doivent par exemple développer ou intégrer des solutions de watermarking robustes pour marquer les images, vidéos, sons ou textes produits par leurs modèles. Plusieurs techniques existent à cet effet - filigranes invisibles, balises métadonnées, empreintes cryptographiques, etc. - et la Commission européenne a lancé à l’automne 2025[2] une consultation pour identifier les méthodes les plus efficaces et harmonisées afin de détecter et labelliser les contenus artificiels.
Parmi les questions pratiques débattues figurent :
- dans quels cas peut-on considérer qu’une interaction avec un chatbot est « évidemment » non humaine ?
- Quelle forme de marquage résiste le mieux aux modifications de fichier tout en restant accessible au plus grand nombre ?
- Comment informer au mieux une personne qu’une analyse émotionnelle est en cours, sans provoquer ni panique injustifiée ni indifférence ?
- Ou encore, quels critères permettent de distinguer un deepfake trompeur d’une création satirique légitime ?
Autant d’interrogations auxquelles les lignes directrices à venir de la Commission[3] devront répondre, possiblement complétées par un code de conduite européen sur la transparence des contenus générés.
2.2. Les défis opérationnels et juridiques
Avant août 2026, concrètement, les développeurs et chefs de projet devront implémenter dès la conception les fonctionnalités nécessaires (ex : ajout d’un bandeau ou d’une icône « IA » dans l’interface d’un chatbot, génération automatique de filigranes dans les images synthétiques, etc.)[4].
Conscient de ces défis, le législateur a prévu que la Commission pourra, si nécessaire, rendre obligatoires certaines normes techniques communes pour uniformiser le marquage des contenus artificiels (art. 50, §7).
Les services juridiques et conformité devront, eux, mettre à jour les politiques internes et former les équipes sur ces obligations de transparence.
Les entreprises peuvent également prévoir des clauses contractuelles pour répartir ces nouvelles responsabilités. Par exemple, un fournisseur de service cloud intégrant une IA générative s’engagera à assurer le marquage des contenus produits, et l’entreprise cliente devra de son côté s’abstenir de supprimer ces indicateurs lors de l’exploitation du contenu.
Le respect de ces obligations n’est pas qu’une question de conformité formelle : il en va aussi de la confiance des utilisateurs et de la prévention des litiges.
3. Articulation avec le RGPD et le droit de la consommation
Les obligations de transparence de l’IA Act s’insèrent dans un paysage juridique plus large, où existaient déjà des exigences d’information en matière de données personnelles et de protection du consommateur.
3.1. Le lien avec le RGPD
Le Règlement IA le souligne lui-même à propos de la reconnaissance d’émotions : les déployeurs doivent traiter ces données conformément au RGPD et aux règles sectorielles pertinentes le cas échéant. En pratique, cela signifie que l’utilisation d’un système d’IA analysant des individus doit figurer dans les mentions d’information RGPD du responsable du traitement (finalité du traitement, base légale, durée de conservation, etc.), indépendamment de l’obligation spécifique d’afficher un message instantané au titre de l’IA Act.
De même, si un service recourt à un algorithme pour interagir avec un client ou prendre une décision le concernant, les droits existants reconnus par le RGPD continuent de s’appliquer : par exemple, le droit d’obtenir des informations sur la logique sous-jacente en cas de décision automatisée (RGPD art. 13-2f et 15-1h) ou le droit de s’opposer à une décision entièrement automatisée produisant des effets juridiques significatifs (RGPD art. 22). L’IA Act et le RGPD ont donc vocation à se compléter.
Le premier impose une transparence immédiate « sur le moment » (étiquetage ou avertissement visible), tandis que le second peut dans certains cas garantir une transparence plus approfondie « sur le fond » (informations fournies dans la politique de confidentialité et ouverture de droits individuels).
3.2. Le lien avec le droit de la consommation
Du côté du droit de la consommation, l’obligation de signaler l’origine artificielle d’un contenu rejoint le principe général de l’interdiction des pratiques commerciales trompeuses. Le droit prohibe les pratiques qui induisent le consommateur en erreur sur les caractéristiques essentielles d’un bien ou d’un service, y compris sur sa provenance ou son mode de fabrication[5]. Or, présenter un contenu créé par IA comme s’il émanait d’un humain peut tromper sur l’origine ou les qualités substantielles du produit ou service fourni.
Par exemple, une agence publicitaire qui réalise une image ou une vidéo par IA pour le compte d’un client devrait veiller à ne pas laisser croire que cette création est 100 % le fruit d’un artiste humain si cela peut influencer le consentement du client ou du public.
Le législateur français a d’ailleurs déjà encadré certains de ces usages : la loi du 9 juin 2023 sur l’influence commerciale oblige les influenceurs à signaler les images retouchées ou générées par IA représentant des personnes (mention « Images virtuelles ») dans leurs contenus sponsorisés[6].
Bien que ces initiatives relèvent du droit national, elles s’inscrivent dans le même mouvement que l’IA Act : s’assurer qu’un consommateur ou un usager ne soit pas dupé sur la nature d’un contenu ou d’une interaction numérique.
4. Conclusion
En conclusion, l’article 50 du Règlement IA illustre bien l’équilibre recherché par le législateur européen : imposer une transparence accrue dans les interactions IA-homme et la production de contenus, sans pour autant freiner l’innovation par des obligations disproportionnées sur des IA d’usage courant. Les entreprises devront intégrer ces nouvelles règles de bonne conduite dans leurs modèles d’affaires et leurs contrats, en veillant à la cohérence avec les autres exigences légales (RGPD, consommation, etc.).
| Dans le cadre du cycle « le Règlement sur l’Intelligence artificielle », nous vous proposons de nous retrouver chaque mois pour améliorer notre compréhension commune de ce règlement et que vous soyez ainsi prêt pour son entrée en application : #1 Entrée en vigueur et champ d’application de l’IA Act : quel périmètre exact pour les juristes ? #2 Pratiques d’IA interdites : analyse des dispositions de l’article 5 #3 Classifications juridiques des systèmes d’IA : comprendre les catégories de risque #4 Obligations juridiques concrètes des acteurs de l’IA à haut risque : exigences et conformité #5 Transparence et explicabilité juridiques des systèmes d’IA : portée exacte des obligations pour les juristes #6 Modèles d’IA à usage général : encadrement et responsabilités #7 Impacts de l’IA Act sur les contrats IT : adaptations nécessaires #8 Mesures de soutien à l’innovation : bacs à sable réglementaires et autres initiatives #9 Gouvernance interne et responsabilité juridique : analyse critique des obligations organisationnelles #10 Mise en œuvre et surveillance : rôle des autorités nationales et européennes #11 Bases de données de l’UE sur les IA à haut risque : transparence et accessibilité #12 Codes de conduite et lignes directrices : rôle et élaboration #13 Sanctions en cas de non-conformité : cadre et implications |
Le département Contrats informatique, données & conformité peut vous accompagner dans tout le cycle de vie de création de votre SIA : de l’étude de faisabilité, à la révision des contrats, de l’étude d’impact des droits fondamentaux, en passant par la préparation des dossiers des IA à haut risque.
Pour toute question, n’hésitez pas à nous contacter.
[1] Il s’agit que de règle de transparence. L’IA Act aurait pu consacrer un véritable « droit à l’explication » pour les individus affectés par une IA, au-delà de la simple mention de l’intervention d’une machine. En effet, dans le cas des systèmes à risque limité, la loi n’exige pas d’exposer en détail le fonctionnement interne de l’algorithme ni la raison d’une prédiction ou de la génération d’un contenu - contrairement aux systèmes à haut risque où une documentation explicative doit être fournie aux déployeurs. On se contente d’une transparence formelle (étiquetage, avertissement). Cela soulève la question : cette information minimale suffit-elle à protéger véritablement le public ? Elle peut être considéré nécessaire mais insuffisante. Informer ne veut pas dire expliquer en profondeur. Par exemple, avertir un utilisateur qu’il parle à un chatbot ne lui explique pas pourquoi le bot lui a donné telle réponse, ni sur quelles données d’entraînement repose son apprentissage.
[2] La consultation a été clôturé le 9 octobre 2025.
[3] Prévue par l’art. 96 du règlement.
[4] Il est à noter que le succès de cette disposition dépendra de la fiabilité technique des outils de détection et de la coopération internationale, car les contenus circulent sans frontières. Des enjeux similaires se posent pour la reconnaissance des contenus sonores ou textuels : un filigrane invisible peut être supprimé ou altéré par des acteurs malintentionnés, et un label visible peut être contourné si un tiers reproduit le contenu sans se conformer à l’obligation de signalement.
[5] Notamment C.Cons., art. L121-2, .
[6] Une proposition de loi de décembre 2024 envisage d’étendre cette exigence à toute image générée par IA publiée sur les réseaux sociaux.