#1 : Entrée en vigueur et champ d’application de l’IA Act : quel périmètre exact pour les juristes ?
L’IA Act est entrée en vigueur le 13 juin 2024. Une partie commence à s’appliquer dès le 2 août 2025 ; une seconde le 2 août 2026 et enfin l’article 6 §1 et les obligations correspondantes le 2 août 2027. Il est important de faire le point sur cette réglementation afin d’être prêt à la date fatidique.
Le Cabinet Cloix Mendès-Gil a donc décidé de proposer un nouveau cycle d’articles expliquant l’IA Act.
Ce premier article présente une introduction à la lecture de ce Règlement.
1. Présentation de l’IA Act
Adopté le 13 juin 2024 par le Parlement européen et le Conseil de l’Union européenne, le règlement (UE) 2024/1689, communément désigné sous le nom d’IA Act, constitue la première tentative législative d’ampleur visant à encadrer, de manière transversale et systématique, les systèmes d’intelligence artificielle (SIA) au sein de l’espace juridique européen.
1.1. Objectifs du règlement : équilibre entre innovation et sécurité
L’objectif affiché est double : stimuler le développement d’une IA « fiable » dans le marché unique européen (en harmonisant les règles pour éviter une fragmentation entre États membres) tout en garantissant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux des personnes[1].
1.2. Une articulation avec le droit des produits et la protection des droits fondamentaux
Sur le plan juridique, l’IA Act opère à l’intersection de plusieurs ensembles normatifs :
- d’une part, il s’inscrit dans le droit de la sécurité des produits, en adoptant une logique de marquage CE, de conformité et de responsabilité des opérateurs économiques ;
- d’autre part, il se rattache de manière explicite à la protection des droits fondamentaux.
2. Les sources du régime juridique de l’intelligence artificielle
Le RIA s’inscrit dans une architecture normative composite, dont la compréhension suppose d’identifier tant la structure interne du texte que son articulation avec les autres instruments juridiques européens.
Le règlement (UE) 2024/1689 se compose de 113 articles et de 13 annexes, répartis en treize Chapitres, dont la structure témoigne de la volonté du législateur européen d’embrasser la diversité des situations couvertes. Le texte distingue notamment :
- des dispositions générales (Chapitre 1) relatives à l’objet, au champ d’application et aux définitions essentielles, notamment celle du système d’intelligence artificielle (SIA), pierre angulaire de l’ensemble du régime ;
- un régime différencié selon le niveau de risque associé à chaque usage de l’IA (Chapitre 2 à 5), introduisant une typologie à quatre niveaux : risques inacceptables (interdits), risques élevés (à haut risque — très encadré), risques limités (règles de transparence) et risques minimaux (régime de liberté contrôlée) ;
- des mesures de soutien à l’innovation par la création de « bacs à sable réglementaires » notamment (chapitre 6) ;
- un dispositif institutionnel de gouvernance et de contrôle de l’IA (Chapitre 7), comprenant notamment la création d’un Comité européen de l’intelligence artificielle, le rôle des autorités nationales compétentes, et les mécanismes de coopération et de surveillance du marché ;
- la création d’une base de données européenne où seront enregistrés les SIA à haut risque déployés dans l’UE (Chapitre 8)
- des règles relatives de surveillance du marché et de partage d’information et de contrôle (Chapitre 9) ;
- l’institution des sanctions (Chapitre 12).
L’IA Act s’inscrit dans le droit des produits (ces éléments seront précisés dans notre article relatif aux IA à haut risque), il modifie ou complète plusieurs instruments existants, dont notamment :
- Le règlement (UE) 2019/1020 relatif à la surveillance du marché ;
- Le règlement machines (UE) 2023/1230, dès lors qu’un système d’IA est intégré à un produit relevant de ce champ ;
- Les directives sectorielles sur les dispositifs médicaux, les équipements radioélectriques, ou les jouets, dans la mesure où l’IA y est incorporée.
Le texte prévoit également une articulation étroite avec les règles techniques harmonisées qui seront adoptées par voie de normes européennes (CEN, CENELEC, ETSI), dans une logique de codétermination normative typique du droit des produits européens.
En outre, plus qu’un instrument sectoriel, l’IA Act se veut une réglementation horizontale applicable à tous les secteurs d’activités, dès lors que des systèmes d’intelligence artificielle sont déployés, mis sur le marché, ou utilisés dans l’Union. Il s’inscrit dans une stratégie globale de régulation du numérique portée par les institutions européennes, aux côtés du Règlement général sur la protection des données (RGPD n° 2016/679), du Digital Services Act (DSA n°2022/2065) et du Digital Markets Act (DMA n°2022/1925).
3. L’objet technique concerné : le système d’intelligence artificielle
La bonne compréhension du RIA réside dans la définition et la qualification du système d’intelligence artificielle (SIA), objet principal de la régulation.
3.1. Une définition fonctionnelle et agnostique du SIA
L’article 3, § 1 du règlement, définit un Système d’intelligence artificielle comme :
« un système conçu pour fonctionner avec un certain degré d’autonomie et capable, sur la base de données d’entrée, de générer des sorties telles que des prédictions, recommandations ou décisions, pouvant influencer des environnements physiques ou virtuels. »
Cette définition repose sur une approche fonctionnelle et technologique ouverte, articulée autour de plusieurs critères cumulatifs :
- le système est automatisé, c’est-à-dire qu’il exécute des fonctions cognitives (analyse, décision, prédiction, etc.) sans intervention humaine constante ;
- il est conçu pour fonctionner avec un certain degré d’autonomie, ce qui exclut les outils purement déterministes dont le comportement est entièrement prescrit à l’avance ;
- il peut faire preuve d’une capacité d’adaptation après son déploiement, par apprentissage à partir de nouvelles données ou ajustement progressif de ses paramètres ;
- il poursuit des objectifs explicites ou implicites, et déduit à partir des entrées reçues la manière de générer des sorties ;
- il peut influencer des environnements physiques (robots, véhicules) ou virtuels (moteurs de recommandation, chatbots, analyse prédictive).
Cette approche se veut technologiquement neutre, ou « agnostique », dans la mesure où elle ne limite pas le champ d’application du texte à une famille d’outils ou de techniques : sont visées tant les IA fondées sur l’apprentissage automatique (machine learning, deep learning, réseaux de neurones) que celles reposant sur des approches symboliques, statistiques, ou basées sur des règles logiques[2].
Il s’agit ainsi d’éviter les effets d’obsolescence normative et de captation technologique, en construisant une définition évolutive, capable de s’adapter aux mutations futures des architectures d’IA.
3.2. La distinction entre modèle et système : un enjeu technique et juridique
Le considérant 97 opère une distinction fondamentale entre :
- Le modèle d’IA : élément algorithmique sous-jacent, formé sur des ensembles de données, pouvant être généraliste ou spécialisé (par exemple, un modèle de langage de grande taille — LLM) ;
- Le système d’IA : ensemble opérationnel qui intègre un ou plusieurs modèles et les rend fonctionnels dans un contexte d’usage déterminé (interface, API, logique de décision, supervision humaine, documentation, etc.).
Cette distinction est décisive, car le règlement ne vise pas en tant que tel le modèle brut (sauf dans les régimes spécifiques aux modèles d’usage général, notamment au Chapitre V), mais bien le système dans son ensemble, c’est-à-dire le produit final utilisé ou mis sur le marché.
Ainsi, un modèle de traitement automatique du langage n’est pas soumis à l’IA Act tant qu’il n’est pas intégré à un chatbot, un assistant vocal ou un outil d’analyse automatisée. Le SIA est l’objet régulé, le modèle n’en est qu’un composant technique.
3.3. Exemples de systèmes visés
Le règlement s’applique à une large variété de systèmes d’intelligence artificielle, dès lors qu’ils remplissent les conditions posées à l’article 3. Sont notamment visés :
- les systèmes de recommandation de contenu (plateformes de streaming, réseaux sociaux) ;
- les assistants vocaux intelligents ;
- les véhicules autonomes intégrant une prise de décision basée sur l’analyse de l’environnement ;
- les systèmes de détection de fraude ou de blanchiment dans le secteur financier ;
- les outils de recrutement algorithmique ou d’évaluation des candidatures ;
- les chatbots conversationnels génératifs, lorsqu’ils sont déployés à des fins commerciales ou administratives.
Ces exemples témoignent de la portée transversale du texte, qui concerne tant les secteurs industriels que les services, les administrations publiques que les opérateurs économiques privés.
3.4. Activité et système expressément exclus
Certaines catégories de systèmes sont expressément exclues du champ d’application matériel du règlement, en raison soit de leur nature, soit de leur finalité :
- les systèmes d’IA développés exclusivement à des fins de recherche scientifique ou autres ne sont pas soumis aux obligations du règlement, tant qu’ils ne sont pas mis sur le marché ou en service (2 § 6 et 8) ;
- les systèmes déployés dans le cadre d’activités militaires, de défense ou de sécurité nationale relèvent de la compétence souveraine des États membres et échappent à l’application du texte (article 2, § 3) ;
- les systèmes publiés sous licences libres ou ouvertes font l’objet d’une exclusion partielle, en particulier lorsque leur mise à disposition ne constitue pas une activité commerciale, et qu’ils ne sont pas utilisés à des fins à haut risque (article 2, § 12 et considérants 12).
Ces exclusions répondent à un impératif d’équilibre entre régulation et innovation, visant à ne pas freiner la recherche ni à interférer dans les compétences régaliennes des États membres.
4. Les acteurs concernés
Le RIA repose sur une conception fonctionnelle et distributive des responsabilités, propre au droit des produits, adaptée à la complexité des chaînes de valeur numériques. Il identifie plusieurs catégories d’acteurs, auxquels sont assignées des obligations spécifiques en fonction de leur rôle dans le cycle de vie d’un SIA.
Voici les principales figures juridiques introduites ou redéfinies par le texte :
Catégorie d’acteur | Description |
Le fournisseur Référence : article 3, § 3 | Il s’agit du fabricant du système d’intelligence artificielle, c’est-à-dire de l’entité (personne physique ou morale, autorité publique ou agence ou tout autre organisme) qui développe un SIA, le met sur le marché ou le met en service sous son propre nom ou sa propre marque, qu’il agisse directement ou par l’intermédiaire d’un tiers, à titre onéreux ou gratuit. Le fournisseur supporte la charge principale des obligations : notamment évaluation des risques, mise en conformité, constitution du dossier technique, contrôle post-commercialisation. |
Le déployeur (ou utilisateur professionnel) Référence : article 3, § 4 | Le déployeur est la personne physique ou morale, autorité publique ou agence ou tout autre organisme qui utilise un système d’IA sous sa propre autorité, dans un cadre professionnel ou organisationnel. Cette catégorie ne comprend ni les utilisateurs individuels à titre privé, ni les usages purement personnels. Les déployeurs doivent notamment s’assurer que le SIA est conforme, l’utiliser conformément aux instructions du fournisseur, garantir une supervision humaine et assurer la transparence vis-à-vis des personnes concernées, en particulier dans le cas des systèmes à haut risque. |
L’importateur Référence : article 3, § 6 | L’importateur est l’acteur qui met sur le marché un SIA provenant d’un fournisseur établi hors de l’Union européenne. Il doit s’assurer que le système est conforme aux exigences du règlement avant sa mise sur le marché, et dispose de l’obligation de vérification documentaire, similaire à celle qui existe dans le droit des produits. Il peut être tenu responsable en cas de non-conformité manifeste du SIA importé. |
Le distributeur Référence : article 3, § 7 | Est considéré comme distributeur tout acteur de la chaîne d’approvisionnement, autre que le fournisseur ou l’importateur, qui met à disposition un SIA sur le marché de l’Union, sans en modifier les propriétés essentielles. Ses obligations sont allégées, mais il doit néanmoins s’assurer que le système comporte le marquage CE, que les documents d’accompagnement sont présents, et qu’il n’y a pas de non-conformité apparente. |
Le mandataire Référence : article 3, § 5 | Le mandataire est une personne physique ou morale établie dans l’Union, désignée par un fournisseur non établi dans l’Union pour le représenter. Il agit au nom et pour le compte du fournisseur, et peut se voir confier certaines obligations légales, notamment la tenue du dossier technique ou la coopération avec les autorités de surveillance. Cette figure est essentielle pour rendre justiciable dans l’Union un opérateur étranger. |
Le fabricant de produit intégrant un système d’IA | Extension du statut de fournisseur Lorsqu’un SIA est intégré à un produit physique (par exemple, une machine industrielle, un véhicule autonome, un dispositif médical), le fabricant du produit devient, pour les besoins du règlement, le fournisseur du système d’IA intégré. Il lui appartient de vérifier la conformité globale du produit final, incluant ses composantes intelligentes. |
Institutions, organes et agences de l’Union européenne | Les institutions européennes elles-mêmes sont soumises aux obligations du règlement, dans des conditions équivalentes à celles imposées aux États membres et aux opérateurs privés. Elles sont tenues de nommer une autorité responsable de la conformité, et peuvent être auditées ou contrôlées dans le cadre du mécanisme de surveillance du marché. |
Entités exclues du champ d’application Référence : article 2, § 5 | Certaines entités sont expressément exclues du champ d’application du règlement, notamment : - Les autorités publiques de pays tiers et organisations internationales, lorsqu’ils agissent dans le cadre d’accords de coopération judiciaire ou policière avec l’Union ou un État membre. Ces exclusions répondent à des impératifs de souveraineté, mais elles limitent la portée du texte dans les domaines régaliens. |
Si le règlement définit les rôles et obligations de chacun, il ne précise pas le régime de responsabilité applicable en cas de défaillance, dommage ou préjudice causé par un SIA.
À ce jour le projet de directive sur la responsabilité civile pour l’IA a été abandonné.
Reste les règles de droit commun est notamment le droit des produits défectueux. Une nouvelle directive (n° 2024/2853 du 23 octobre 2024) renforce les règles actuelles.
Une architecture à plusieurs niveaux de responsabilité se dessine donc, mais reste encore en voie de consolidation.
5. Le périmètre géographique concerné
Le RIA ne limite pas son effet aux seuls acteurs établis sur le territoire de l’Union : il entend s’appliquer dès lors qu’un système d’intelligence artificielle (SIA) a une incidence sur le marché intérieur ou sur des personnes situées dans l’Union européenne, indépendamment du lieu d’établissement du fournisseur, de l’utilisateur ou du concepteur du système.
5.1. Une logique d’impact territorial : rattachement fonctionnel au marché de l’Union
L’article 2 du règlement précise que celui-ci s’applique :
- aux fournisseurs qui mettent sur le marché ou mettent en service un SIA dans l’Union européenne, qu’ils soient établis ou non dans un État membre ;
- aux déployeurs qui utilisent un SIA dans l’Union, même si ce système a été conçu, fourni ou opéré depuis un pays tiers ;
- aux outputs des systèmes d’IA, lorsque ceux-ci sont produits en dehors de l’Union mais utilisés ou exploités au sein du territoire européen.
En d’autres termes, le règlement s’attache non pas à la localisation des acteurs, mais à l’effet du système sur le marché intérieur ou sur les personnes physiques ou morales situées dans l’Union. Ce critère d’impact assure une application extraterritoriale fonctionnelle, visant à éviter toute lacune de régulation en cas de traitement ou d’utilisation de systèmes d’IA depuis l’étranger.
5.2. La mise sur le marché d’un SIA dans l’Union européenne
Le concept de mise sur le marché constitue une notion juridique centrale du droit de l’Union applicable aux produits. Il désigne la première mise à disposition d’un SIA sur le marché de l’Union, à titre onéreux ou gratuit, dans le cadre d’une activité commerciale. Cette notion implique que le SIA est fini et prêt à être utilisé, qu’il soit incorporé à un bien matériel ou proposé sous forme de service.
Dès lors qu’un système est mis à disposition sur le marché européen, le fournisseur doit se conformer à l’ensemble des obligations prévues par le règlement, notamment en matière d’analyse de risques, de documentation technique, de conformité, et de marquage CE, si applicable. La provenance du fournisseur (intra- ou extra-UE) est indifférente : c’est l’acte de mise sur le marché qui déclenche l’applicabilité du régime juridique.
5.3. La mise en service ou l’utilisation de l’Union
Le règlement vise également les systèmes mis en service ou utilisés dans l’Union, même s’ils ne sont pas formellement commercialisés sur le marché européen. Cela concerne notamment les cas où un acteur économique ou institutionnel établi dans l’Union déploie un système développé à l’étranger, sans nécessairement le commercialiser.
Le texte utilise ici la notion de « mise en service », distincte de la mise sur le marché : il s’agit de la première utilisation effective du système dans des conditions opérationnelles, pour sa finalité prévue, dans un cadre professionnel ou institutionnel. Cette disposition permet d’englober les situations où l’IA est fournie en mode SaaS ou utilisée via des services dématérialisés accessibles en ligne depuis l’Union.
Par ce biais, l’IA Act saisit l’usage économique ou fonctionnel du SIA sur le territoire de l’Union, même en l’absence de flux commerciaux classiques. Cette extension est cohérente avec la logique de régulation par les risques : ce n’est pas tant l’origine du système qui importe, que son effet sur les droits, les libertés, et la sécurité des personnes situées dans l’Union.
5.4 L’extraterritorialité des outputs : des données traitées à l’étranger, mais exploitées dans l’Union
Enfin, le texte consacre une forme d’extraterritorialité fondée sur les résultats produits par les systèmes d’IA. Lorsqu’une entreprise européenne externalise une analyse algorithmique à un prestataire situé hors de l’Union, mais que les résultats de cette analyse sont exploités dans l’Union, le système utilisé doit se conformer au règlement, à condition que celui-ci relève du champ d’application matériel du texte (SIA au sens de l’article 3 § 1).
Ce mécanisme vise à empêcher qu’un opérateur européen évite l’application du droit européen en externalisant à l’étranger des traitements jugés sensibles (analyse comportementale, scoring, détection de fraude, etc.). Il s’agit d’un prolongement du principe de responsabilité juridique fondée sur l’usage des données et des algorithmes dans l’environnement européen, et non sur la localisation géographique des infrastructures.
6. Un texte guidé par une logique de gestion par les risques
L’un des choix les plus significatifs du RIA réside dans son approche fondée sur les risques. Cette régulation différenciée selon la gravité des atteintes potentielles constitue l’armature du texte : elle détermine l’applicabilité ou non du règlement, l’intensité des obligations imposées aux opérateurs, ainsi que la nature des interdictions ou contraintes applicables.
Cette logique de gradation par les risques témoigne d’une volonté de proportionnalité régulatrice, dans un souci d’équilibre entre innovation technologique et protection des droits fondamentaux. Toutefois, sa mise en œuvre pratique révèle de nouvelles incertitudes juridiques, liées notamment aux critères de classification, à la diversité des usages possibles d’un même système, et à la contextualisation des effets d’un système d’intelligence artificielle donné.
6.1. Les quatre niveaux de risque identifiés par le règlement
Le règlement IA établit une typologie à quatre niveaux de risques, définis en fonction du potentiel d’atteinte à la sécurité, aux droits fondamentaux ou à l’environnement, et du contexte d’usage du système. Chaque niveau emporte des conséquences juridiques spécifiques.
6.1.1. Les systèmes à risque inacceptable (interdits)
Articles 5
Ces systèmes sont considérés comme fondamentalement contraires aux valeurs de l’Union, en ce qu’ils violent la dignité humaine ou induisent une manipulation psychologique, sociale ou comportementale grave.
Sont notamment interdits :
- les systèmes d’identification biométrique à distance en temps réel dans les espaces publics à des fins répressives (sauf exception strictement encadrées) ;
- les systèmes exploitant les vulnérabilités d’un groupe particulier (enfants, handicapés, etc.) ;
- les systèmes de notation sociale (social scoring), à la manière des dispositifs expérimentés en Chine ;
- certains systèmes de manipulation cognitive subliminale.
Ces interdictions reposent sur une appréciation absolue du risque, indépendamment des garanties techniques ou organisationnelles mises en place.
6.1.2. Les systèmes à haut risque (fortement encadrés)
Articles 6 à 29
Il s’agit de systèmes qui, sans être interdits, présentent un risque élevé pour les droits ou la sécurité des personnes dans des secteurs critiques (santé, justice, éducation, emploi, administration, sécurité, etc.).
Ils doivent respecter des obligations strictes, notamment :
- mise en œuvre de systèmes de gestion de la qualité ;
- gouvernance des données d’entraînement ;
- évaluation et documentation du risque ;
- transparence algorithmique ;
- supervision humaine effective ;
- inscription dans la base de données européenne des SIA à haut risque.
La liste des domaines concernés est précisée à l’annexe III du RIA, mais peut être mise à jour par la Commission.
6.1.3. Les systèmes à risque limité (obligations de transparence)
Articles 51 et s.
Certains systèmes ne présentent pas, en tant que tels, de risques élevés, mais peuvent induire des biais, des confusions ou des manipulations involontaires, en particulier dans les interactions avec les personnes.
Exemples :
- les chatbots conversationnels ;
- les systèmes générant des contenus synthétiques (deepfakes, générateurs d’images ou de voix) ;
- les systèmes d’émotion AI.
Ces systèmes doivent respecter des obligations de transparence spécifiques : ils doivent informer clairement l’utilisateur de la nature algorithmique de l’interaction ou de la génération de contenu.
6.1.4 Les systèmes à risque minimal ou négligeable (usage libre)
Tous les autres systèmes, qui n’entrent dans aucune des catégories précédentes, sont autorisés sans contrainte spécifique, mais peuvent faire l’objet de codes de conduite volontaire ou de bonnes pratiques sectorielles.
Cette catégorie ouverte vise à préserver l’espace de l’innovation, notamment pour les startups, les usages expérimentaux ou les outils non critiques, tout en encourageant une régulation souple par l’autorégulation ou les standards industriels.
6.2. Les difficultés de classification : une typologie encore incertaine
Si la gradation des risques constitue un progrès conceptuel, sa mise en œuvre soulève plusieurs difficultés pratiques et théoriques, qui appellent à une vigilance particulière de la part des opérateurs et des autorités de contrôle.
6.2.1. Des frontières parfois poreuses entre les catégories
Certaines situations peuvent relever à la fois d’un usage à haut risque et d’un usage à risque limité, selon :
- le contexte d’utilisation (par exemple, un chatbot intégré à un service administratif peut relever du haut risque) ;
- le profil de l’utilisateur final (personne vulnérable ou non) ;
- la finalité réelle du système, qui peut évoluer au cours de son cycle de vie.
La qualification dépend donc de facteurs contextuels et d’usage, et non exclusivement de la technologie elle-même, ce qui introduit une part d’interprétation.
6.2.2. Des critères techniques parfois ambigus
Certains critères exigés pour les systèmes à haut risque, comme la « robustesse », la « traçabilité » ou la « compréhensibilité » des résultats, restent à ce stade peu normés. Leur appréciation renverra souvent à des normes harmonisées en cours d’élaboration, dont l’absence immédiate peut freiner la mise en conformité.
6.2.3 Le statut incertain des modèles d’usage général
Les modèles d’IA d’usage général (General Purpose AI Models), tels que les grands modèles de langage, font l’objet d’un régime hybride, susceptible d’évoluer vers un encadrement plus spécifique. La définition de leur niveau de risque dépendra de leur intégration dans un SIA donné, mais aussi, dans certains cas, de leur puissance de calcul ou de leur potentiel d’usage détourné.
6.2.4. Une incertitude juridique persistante pour les développeurs tiers
Enfin, les développeurs de composants réutilisables, qui ne contrôlent pas l’usage final de leurs outils, peuvent difficilement anticiper le niveau de risque final du SIA dans lequel leur technologie sera intégrée. Cette situation fragilise la sécurité juridique de nombreux acteurs, notamment dans l’écosystème open source.
7. Les sanctions et la surveillance : vers une effectivité incertaine
L’effectivité d’un règlement européen ne repose pas uniquement sur la clarté de ses définitions ou la pertinence de ses choix normatifs. Elle suppose également l’existence d’un dispositif cohérent de contrôle et de sanction, capable d’assurer la mise en œuvre concrète des obligations et de dissuader les comportements déviants. Sur ce point, le règlement (UE) 2024/1689 relatif à l’intelligence artificielle, tout en affirmant une ambition certaine, laisse subsister plusieurs incertitudes relatives à la gouvernance de la surveillance, à la coordination entre autorités, et à l’effectivité des mécanismes répressifs.
7.1. Un régime de sanctions administratives dissuasif
Le règlement IA prévoit un régime de sanctions administratives harmonisé.
Les principales sanctions prévues sont les suivantes :
- jusqu’à 7,5 millions d’euros ou 1 % du chiffre d’affaires mondial, pour le non-respect d’obligations formelles, de coopération ou de transparence (article 99, § 5).
- jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial annuel, pour le non-respect de l’interdiction des pratiques en matière d’IA (art. 99. §2) ;
- jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires mondial, pour les violations des obligations liées aux systèmes à haut risque (article 99, § 4) ;
Le texte précise que ces sanctions doivent être effectives, proportionnées et dissuasives, en tenant compte de facteurs aggravants ou atténuants (durée, caractère intentionnel, coopération avec les autorités, etc.).
En outre, le règlement n’exclut pas l’application de sanctions pénales ou civiles prévues par les droits nationaux ni le recours à la responsabilité contractuelle ou délictuelle en cas de préjudice causé par un SIA non conforme.
Toutefois, l’absence de dispositions spécifiques sur la réparation des dommages causés par les systèmes d’IA laisse la question de la responsabilité dans une zone d’incertitude partielle, que le droit commun ou les textes à venir devront préciser.
7.2. Une architecture de surveillance encore incomplète
Le chapitre VII et le chapitre IX du RIA prévoient la mise en place d’un cadre de surveillance composite, articulé autour de plusieurs niveaux d’autorités :
Au niveau de l’UE, un Bureau de l’IA sera créé au sein de la Commission européenne (rattaché à la DG CONNECT). Ce Bureau jouera un rôle central de soutien et de coordination : il assistera à l’application uniforme du RIA, en particulier pour les modèles à usage général (dont il supervisera la conformité), et pourra développer des outils d’évaluation et des méthodologies de tests des IA de haute envergure.
Un Comité européen de l’IA (AI Board) réunira les représentants des États membres et le Contrôleur européen de la protection des données (EDPS) pour conseiller la Commission et faciliter la coopération entre autorités nationales.
Complétant le dispositif, un Forum consultatif intégrera des parties prenantes variées (industrie, chercheurs, société civile) pour apporter une expertise technique et émettre des avis.
Enfin, un groupe scientifique d’experts indépendants assistera le Bureau de l’IA, notamment sur l’évaluation des risques systémiques des modèles.
Au niveau national, chaque État devra désigner une ou plusieurs autorités compétentes chargées de la surveillance du marché des systèmes d’IA (contrôle de la conformité, traitement des réclamations, sanctions…). Ces autorités pourront être nouvelles ou s’appuyer sur des régulateurs existants (par exemple, en France, la CNIL ou la DGCCRF pourraient être amenées à intervenir selon les sujets, bien que la répartition reste à préciser).
En conclusion
Ainsi, le RIA est un vaste règlement dont on voit déjà en introduction de ce cycle que de nombreux rouages lui permettent d’encadrer les SIA. Nous verrons dans le détail chacune des conditions de ce règlement.
Dans le cadre du cycle « le Règlement sur l’Intelligence artificielle », nous vous proposons de nous retrouver chaque mois pour améliorer notre compréhension commune de ce règlement et que vous soyez ainsi prêt pour son entrée en application :
- #1 Entrée en vigueur et champ d’application de l’IA Act : quel périmètre exact pour les juristes ?
- #2 Pratiques d’IA interdites : analyse des dispositions de l’article 5
- #3 Classifications juridiques des systèmes d’IA : comprendre les catégories de risque
- #4 Obligations juridiques concrètes des fournisseurs d’IA à haut risque : exigences et conformité
- #5 Transparence et explicabilité juridiques des systèmes d’IA : portée exacte des obligations pour les juristes
- #6 Modèles d’IA à usage général : encadrement et responsabilités
- #7 Impacts de l’IA Act sur les contrats IT : adaptations nécessaires
- #8 Mesures de soutien à l’innovation : bacs à sable réglementaires et autres initiatives
- #9 Gouvernance interne et responsabilité juridique : analyse critique des obligations organisationnelles
- #10 Mise en œuvre et surveillance : rôle des autorités nationales et européennes
- #11 Bases de données de l’UE sur les IA à haut risque : transparence et accessibilité
- #12 Codes de conduite et lignes directrices : rôle et élaboration
- #13 Sanctions en cas de non-conformité : cadre et implications
Le département Contrats informatique, données & conformité peut vous accompagner dans tout le cycle de vie de création de votre SIA : de l’étude de faisabilité, à la révision des contrats, de l’étude d’impact des droits fondamentaux, en passant par la préparation des dossiers des IA à haut risque.
Pour toute question, n’hésitez pas à nous contacter.
[1] https://www.consilium.europa.eu/fr/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/
[2] RIA, cons. 12.