Proposition de loi du 3 décembre 2024 : Identifier les images générées par IA sur les réseaux sociaux
Une proposition de loi déposée le 3 décembre 2024, vise à identifier les images générées par intelligence artificielle (IA) publiées sur les réseaux. Nous vous expliquons.
1. Les objectifs de la proposition
Les réseaux sociaux sont les foyers de nombreuses publications d’images générées par l’intelligence artificielle générative (IAG). Pour illustrer les propos d’un article, sur les réseaux professionnels ou les réseaux généralistes, il est préférable d’ajouter une image. Cela permet d’être mieux référencé. Auparavant ces images étaient souvent issues d’une bibliothèque d’images libres de droits. Avec l’avènement de l’IAG, les utilisateurs peuvent eux-mêmes créer leurs images. Ils les téléchargent après avoir rédigé un simple invite (requête ou prompt).
La qualité des images est élevée. Lorsque ces images générées sont censées représenter une photographie, il est parfois difficile de faire la différence entre une véritable photo et ces créations. L’actualité a montrée des exemples de ces difficultés. Les images du pape François vêtu d’une doudoune blanche, d’Emmanuel Macron pris au piège d’une manifestation, et de Donald Trump en prison sont éloquentes. Le risque de désinformation peut être associé à ce type de contenu. S’ils sont trop réalistes, des lecteurs ou utilisateurs des réseaux pourraient être manipulés. En outre, le nombre de personnes dont la crédulité pourrait être atteinte peut être important. La viralité des réseaux sociaux n’est plus à démontrer. Une simple image ou même une vidéo peut atteindre des milliers, voire des millions de vues en quelques jours. Ainsi, l’impact de tels contenus factices peut être extrêmement grave politiquement.
Les utilisateurs ne sont pas contraints d’indiquer l’origine de leur image. Or, une telle obligation permettrait, si elle est effectivement respectée, de réduire, voire annihiler le risque de manipulation.
C’est pourquoi dix-neuf députés de droite ont formulé une proposition de loi le 3 décembre 2025. Elle vise à identifier les images générées par intelligence artificielle publiées sur les réseaux sociaux.
2. Le contenu de la proposition
Cette proposition oblige d’une part, toute personne publiant, sur les réseaux sociaux une image générée par IAG, d’en mentionner explicitement l’origine. Cette personne doit avertir clairement et visiblement que l’image est créée ou modifiée par IAG.
D’autre part, les services de plateforme en ligne y sont tenus de mettre en place des moyens techniques pour détecter les contenus générés par intelligence artificielle. Ils seraient également contraints de vérifier la conformité de leur étiquetage. Elles devraient également informer leurs utilisateurs sur les obligations en vigueur et fournir un outil de signalement pour les contenus suspects.
En cas de non-respect de ces obligations, cette proposition impose une amende de :
- 3 750 euros pour les utilisateurs et ;
- 50 000 euros pour les services de plateformes en ligne.
3. La poursuite du travail d’encadrement de l’IAG législatif national et européen
Ce texte poursuit le travail du législateur initié notamment pour définir le régime des influenceurs. Leur statut est défini par la loi n° 2023-451 du 9 juin 2023[1]. Ce sont, selon l’article 1er de cette loi :
« les personnes physiques ou morales qui, à titre onéreux, mobilise leur notoriété auprès de leur audience pour communiquer au public, par voie électronique des contenus visant à faire la promotion, directement ou indirectement, de biens, de services ou d’une cause quelconque exercent l’activité d’influence commerciale par voie électronique ».
Selon l’article 5, II de cette loi, ces personnes doivent adjoindre la mention « image retouchée » lorsqu’elles communiquent du contenu avec des images modifiant la silhouette ou l’apparence du visage.
En outre, cette proposition de loi française visant à identifier les images générées par intelligence artificielle (IA) publiées sur les réseaux sociaux s’inscrit dans le cadre plus large de l’Intelligence artificielle Act (IA Act). Ce règlement européen établit un cadre juridique harmonisé pour l’utilisation de l’IA au sein de l’Union européenne, en classant les systèmes d’IA selon leur niveau de risque et en imposant des obligations correspondantes.
L’article 50 de l’AI Act impose des obligations de transparence spécifiques aux fournisseurs et aux déployeurs d’IAG. Selon cet article, les fournisseurs doivent s’assurer que les contenus générés par IAG sont clairement identifiés comme tels, par exemple en intégrant des marques ou des filigranes détectables indiquant que le contenu a été artificiellement généré ou manipulé. Cette exigence vise à prévenir les risques de manipulation, de désinformation et à protéger les droits fondamentaux des individus.
La proposition de loi commentée s’inscrit dans ce même mouvement.
4. De potentielles difficultés pratiques
De façon générale cela parait comme une bonne proposition. Cependant, il est possible de craindre des difficultés de mise en œuvre en pratique. La faisabilité technique de la détection automatique des images générées par IAG n’est pas si aisée.
En outre, cette proposition est destinée à être intégrée à l’article 6-6 de la loi pour la confiance dans l’économie numérique[2]. Or, si l’autorité de régulation de la communication audiovisuelle et numérique (ARCOM) pourrait facilement sanctionner les fournisseurs, les utilisateurs seront plus difficiles à appréhender.
En effet, les utilisateurs qui souhaitent tromper le public ne se plieront pas nécessairement à cette exigence. Or, signaler et identifier des auteurs des contributions sur les réseaux sociaux nécessite une expertise particulière. À ce jour, il ne semble pas qu’une autorité administrative indépendante ait les moyens de cette ambition.
5. La suite : commission des affaires économiques
La proposition a été renvoyée à la commission des affaires économiques de l’Assemblée nationale conformément à l’article 4 de la Constitution. Cette commission va examiner en détail le texte, entendre les experts et proposer des amendements afin d’améliorer le texte initial.
Le département Contrats informatiques, données & conformité peut vous accompagner dans la gestion de votre stratégie et de vos demandes aux réseaux sociaux.
Pour toute question, n’hésitez pas à nous contacter
[1] Elle vise à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux
[2] https://www.legifrance.gouv.fr/loda/id/JORFTEXT000000801164