#3 Classifications juridiques des systèmes d’IA : comprendre les catégories de risque

L’adoption du Règlement (UE) 2024/1689 sur l’intelligence artificielle (IA Act) instaure un cadre juridique unifié applicable dans l’ensemble de l’Union. Ainsi, le législateur européen entend encadrer la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA (intelligence artificielle) selon une logique fondée sur le niveau de risque que ces systèmes peuvent représenter pour les individus et la société.

Le texte opère une classification des systèmes d’IA en quatre catégories :

  • les systèmes d’IA à risque inacceptable, qui sont interdits ;
  • les systèmes d’IA à haut risque, soumis à des exigences strictes de conformité ;
  • les systèmes à risque limité, encadrés par des obligations de transparence ;
  • les systèmes à risque minimal ou nul, pour lesquels aucune obligation spécifique n’est imposée.

À côté de cette classification en quatre niveaux de risque, le Règlement IA introduit également un régime spécifique applicable aux modèles d’intelligence artificielle à usage général tels que les grands modèles de langage (v. article #1). Ces modèles, en raison de leur caractère transversal, ne sont pas classés selon les catégories de risque précitées, mais font l’objet d’obligations propres, de sorte qu’ils ne peuvent être intégrés à la typologie fondée sur le risque et seront donc analysés à part.

Cette approche graduée par les risques permet d’ajuster le degré d’encadrement en fonction du danger potentiel d’un système donné. Elle vise ainsi un équilibre entre la promotion de l’innovation et la prévention des effets néfastes des usages les plus sensibles de l’IA. À travers cette architecture, l’IA Act entend aussi préserver les droits fondamentaux et les valeurs européennes, tout en évitant une fragmentation réglementaire entre États membres. L’objectif est d’instaurer un niveau uniforme de sécurité juridique, en assurant à la fois la compétitivité du marché intérieur et la protection des citoyens européens face à des technologies à fort impact.

Les cinq catégories sont décrites ci-après.

1. Le système d’IA inacceptable (art. 5)

Le niveau de risque le plus élevé a été développé dans notre article #3.

Il correspond aux systèmes d’IA dont les usages sont considérés comme incompatibles avec les valeurs fondamentales de l’Union européenne.

Ces systèmes sont strictement interdits, conformément à l’article 5 de l’IA Act.

Huit pratiques d’IA sont ainsi prohibées, notamment l’exploitation de vulnérabilités de groupes spécifiques, les techniques de manipulation subliminale, les systèmes de notation sociale généralisée, ou encore la reconnaissance biométrique à distance en temps réel dans les espaces publics à des fins de maintien de l’ordre, sauf exception limitées.

Ces interdictions visent à prévenir des atteintes graves et irréversibles aux droits fondamentaux, telles que la dignité humaine, la vie privée, ou la non-discrimination.

Le recours à ces technologies, dans les cas identifiés, est purement prohibé, sans possibilité de mise en conformité.

2. Les systèmes à haut risque (art. 6)

2.1. Présentation des systèmes à haut risque

Les systèmes classés comme à haut risque ne sont pas interdits, mais font l’objet d’un encadrement juridique rigoureux.

Il s’agit de systèmes qui, de par leur finalité ou leur contexte d’utilisation, sont susceptibles de porter atteinte de manière significative à la sécurité des personnes ou à leurs droits fondamentaux.

Le règlement ne définit pas abstraitement ce qu’est un « haut risque », mais procède par identification de deux grandes catégories à l’article 6.

L’article 6(3) prévoit une clause d’exclusion : un système visé par l’Annexe III n’est pas considéré à haut risque s’il ne pose pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux (par exemple parce qu’il n’influence pas de manière déterminante la décision finale). Le texte donne quelques critères où cette déclassification peut s’appliquer : IA n’exécutant qu’une tâche procédurale étroite, IA ne faisant qu’améliorer un processus humain existant, IA détectant des schémas sans influencer directement la décision humaine, ou IA n’intervenant qu’en amont préparatoire d’une décision humaine dans le domaine listé.

Toutefois, même dans ces cas, le régulateur a posé une limite importante : si le système réalise le profilage de personnes, il sera quand même considéré à haut risque (pas d’exclusion possible). En pratique, cette nuance vise à éviter qu’un fournisseur ne minimise artificiellement le rôle de son IA pour échapper aux obligations du haut risque. Un fournisseur qui estime de bonne foi qu’une IA de l’Annexe III n’atteint pas le seuil de « risque significatif » doit documenter son analyse avant mise sur le marché (art. 6(4)) et la tenir à disposition des autorités.

2.2. Obligations en cas de systèmes à « haut risque »

Les IA à haut risque sont autorisées sur le marché, mais soumises à un ensemble d’obligations légales strictes avant et après leur mise en circulation. Parmi ces obligations que nous verrons dans le détail lors de notre futur article #4 figurent les exigences suivantes :

  • la mise en place d’un système de gestion des risques tout au long du cycle de vie de l’IA (analyse, réduction et réévaluation continue des risques pouvant affecter la sécurité ou les droits : biais, erreurs, cyberattaques, etc.) ;
  • la constitution d’une documentation technique et d’un dossier technique détaillé (décrivant le modèle, les données d’entraînement, les performances, etc.), permettant d’auditer et de comprendre le fonctionnement du système ;
  • l’assurance de la qualité des données utilisées (jeux de données d’entraînement, de validation et de test pertinents, représentatifs, et traités contre les biais, en respect des exigences de confidentialité) ;
  • la mise en place de mesures assurant la traçabilité et la transparence du système (journalisation des opérations – logs –, explications possibles des résultats de l’IA, information des utilisateurs professionnels sur les limites et le bon usage du système) ;
  • la garantie d’un contrôle humain adéquat sur le système (supervision humaine) : l’IA ne doit pas opérer sans possibilité d’intervention ou de supervision humaine. Dans certains cas, la décision finale doit être prise par un humain, l’IA n’ayant qu’un rôle d’assistance ;
  • le respect de critères de robustesse, de sécurité et d’exactitude du système (l’IA doit atteindre un niveau de performance approprié, être testée pour minimiser les erreurs ou résultats trompeurs, résistante aux tentatives de manipulation externe, etc.) ;
  • la réalisation, avant la mise sur le marché, d’une évaluation de conformité du système à ces exigences. Cette évaluation prend la forme d’une procédure de certification CE : pour la plupart des IA à haut risque, le fournisseur peut effectuer une auto-évaluation interne de conformité (sauf cas spécifiques nécessitant un organisme tiers notifié, par ex. certains systèmes de sécurité dans les produits Annexes I). Si l’IA satisfait à tous les critères (souvent en se référant à des standards techniques harmonisés), le fournisseur établit une déclaration UE de conformité et appose le marquage CE sur son système d’IA. Cela atteste que l’IA peut être utilisée légalement dans l’UE ;
  • pour certains systèmes d’IA à « haut risque », une inscription du système à haut risque dans la base de données européenne des systèmes d’IA (art. 49 du Règlement IA) afin d’assurer une traçabilité publique des IA à haut risque mises sur le marché ;
  • enfin, des obligations post-mise sur le marché : surveillance continue, signalement des incidents graves ou dysfonctionnements aux autorités (rappelant l’obligation de vigilance post-commercialisation qu’on connaît en matière de dispositifs médicaux, par exemple).

Le régime des IA à haut risque vise à encadrer strictement la conception et l’utilisation de ces systèmes sans les interdire, en imposant un standard élevé de conformité.

3. Les systèmes à risque limité (art. 51)

Entre les catégories « haut risque » et « absence de risque » se trouvent les systèmes d’IA considérés comme présentant un risque limité pour les utilisateurs ou la société. Ces systèmes sont autorisés sans évaluation préalable de conformité, mais le législateur a prévu à leur égard certaines obligations de transparence destinées à prévenir des risques particuliers de manipulation ou de tromperie.

L’IA Act impose donc aux fournisseurs (et dans certains cas aux utilisateurs) de tels systèmes un devoir d’information dans quatre hypothèses principales (art. 50) :

  • IA interagissant avec des humains : lorsqu’une IA est destinée à interagir directement avec des personnes, elle doit être conçue de façon à signaler clairement à la personne qu’elle a affaire à une IA et non à un être humain (sauf exception pour les systèmes destinés à prévenir les infractions) ;
  • les fournisseurs de systèmes d’IA capables de générer ou manipuler du contenu média (texte, image, son, vidéo) de façon indiscernable du réel doivent veiller à ce que les contenus synthétiques produits soient signalés comme tels ;
  • si un déployeur utilise un système d’IA pour détecter les émotions des personnes (par ex. caméra analysant les expressions faciales) ou pour catégoriser des personnes sur une base biométrique (par ex. caméra classant automatiquement l’âge ou le sexe des passants à des fins d’analyse commerciale), elle doit informer les personnes concernées du fonctionnement de ce système ;
  • si un déployeur d’IA utilise un système d’IA pour générer ou altérer de manière réaliste des images, sons ou vidéos susceptibles d’être pris pour des contenus authentiques doit divulguer le caractère artificiel de ces contenus lors de leur diffusion (sauf exception si l’usage de ces contenus faux est autorisé par la loi pour des finalités répressives, ou si le contenu relève manifestement de la création artistique, satirique ou parodique).

4. Système d’IA à risque minimal ou nul

Tous les autres systèmes d’intelligence artificielle, c’est-à-dire la grande majorité des applications de l’IA actuelles, tombent dans la catégorie résiduelle du risque minimal ou négligeable. Selon la CNIL, cela recouvre la très grande majorité des systèmes d’IA utilisés aujourd’hui dans l’UE ou appelés à l’être.

Par exemple, les filtres antispam, les algorithmes de recommandation personnalisée pour les films ou la musique, les assistants de productivité bureautique, etc.

Pour ces systèmes à faible risque, le Règlement IA ne prévoit pas d’obligations juridiques spécifiques liées à l’IA elle-même. En clair, ils peuvent être développés et utilisés librement, dans le respect bien sûr des législations existantes (par exemple, une application d’IA devra toujours respecter le RGPD si elle traite des données personnelles, le droit de la consommation si ce domaine est pertinent, etc.).

Néanmoins, le Règlement IA encourage les acteurs à adopter, sur une base volontaire, des codes de conduite ou des mesures facultatives pour promouvoir une IA fiable même dans ces systèmes non régulés (art. 95).

5. Les modèles à usage général (art. 51 et s.)

5.1. Présentation des modèles à usage général

Une nouveauté de l’IA Act concerne les fournisseurs de modèles d’IA dits « à usage général » – par exemple, les concepteurs de grands modèles de langage (LLM), comme GPT-4, ou de modèles génératifs multimodaux.

Ces modèles sont définis par l’IA Act comme :

Un modèle d’IA, y compris lorsque ce modèle d’IA est entraîné à l’aide d’un grand nombre de données utilisant l’auto-supervision à grande échelle, qui présente une généralité significative et est capable d’exécuter de manière compétente un large éventail de tâches distinctes, indépendamment de la manière dont le modèle est mis sur le marché, et qui peut être intégrée dans une variété de systèmes ou d’applications en aval, à l’exception des modèles d’IA utilisés pour des activités de recherche, de développement ou de prototypage avant leur mise sur le marché.

Il s’agit de modèle entraîné de façon très large, pouvant être adapté à une multiplicité de tâches, ce qui rend leur classification par usage difficile.

Tout fournisseur de modèle d’IA à usage général doit a minima respecter des obligations de transparence et de documentation analogues à la catégorie « limité » (par ex. publier des fiches techniques du modèle, informer sur les limites connues, les données d’entraînement utilisées, etc.).

De plus, si son modèle est susceptible d’être intégré dans des systèmes à « haut risque », le fournisseur est encouragé à faciliter la conformité de ses clients intégrateurs (mise à disposition d’informations nécessaires pour l’évaluation de risque, etc.).

5.2 Les modèles à usage général à risque systémique

Ces modèles d’IA à usage général sont réellement impactant lorsqu’ils sont à risque systémique.  

Il s’agit des modèles dont la puissance et l’impact potentiel sont tels qu’ils pourraient causer des effets négatifs majeurs de grande ampleur (effets systémiques sur la société, par ex. un modèle tellement avancé qu’il pourrait générer des accidents majeurs, perturber des secteurs critiques, diffuser massivement de la désinformation, etc.).

En pratique, ce régime vise les modèles de très grande taille/portée évaluer sur la base de méthodologies et d’outils techniques appropriés, y compris des indicateurs et des critères de référence ou alors sont identifiés comme tels par la Commission, d’office ou à la suite d’une alerte du groupe scientifique, soit sur la base des éléments ci-dessus (méthodologie, outils, indicateurs) soit sur les critères définis à l’annexe XIII de l’IA Act (paramètre du modèle, qualité ou taille des jeux de données, quantité de calcul utilisée pour l’entraînement du modèle, modalité d’entrée et de sortie du modèle, critère de référence et les évaluations des capacités du modèle, le nombre d’utilisateurs).

Quoiqu’il arrive, un modèle d’IA à usage général est présumé avoir des capacités à fort impact lorsque la quantité cumulée de calcul utilisée pour son entraînement mesuré en opération en virgule flottante est supérieure à 1025. Ce seuil peut être modifié par des actes délégués de la Commission.

Un modèle général jugé « à risque systémique » deviendra soumis à des obligations renforcées proches des systèmes à « haut risque » : le fournisseur devra effectuer une évaluation d’impact approfondie sur les risques systémiques, mettre en place des mesures d’atténuation proportionnées, et coopérer avec les autorités.

Pour un fournisseur de modèle général (ex. startup IA développant un LLM open source), ces obligations nouvelles impliquent potentiellement de devoir documenter minutieusement le processus d’entraînement, évaluer l’impact du modèle dans la société, et notifier les incidents graves liés au modèle (par exemple, un usage malveillant important découvert).

L’IA Act a néanmoins exempté partiellement les modèles open source mis à disposition gratuitement et ouvertement, afin de ne pas freiner la recherche : si le modèle n’est pas déployé en service commercial et n’a pas d’objectif lucratif, certaines obligations peuvent ne pas s’appliquer directement.

6. Conclusion

Pour conclure ce panorama, soulignons que la classification des risques du Règlement IA est appelée à évoluer avec le temps. Le texte lui-même prévoit des mécanismes d’adaptation (actes délégués pour Annexes, révision du règlement prévue environ 5 ans après son application généralisée).

On peut anticiper que des ajustements seront nécessaires en fonction des premières expériences: peut-être, ajouter de nouvelles interdictions si des abus apparaissent (par ex. certains auteurs réclamaient d’interdire la reconnaissance d’émotions dans tous les contextes, pas seulement travail/école, en raison de son manque de base scientifique et d’intrusion dans la vie privée), ou au contraire alléger certaines obligations jugées inefficaces.

Dans le cadre du cycle « le Règlement sur l’Intelligence artificielle », nous vous proposons de nous retrouver chaque mois pour améliorer notre compréhension commune de ce règlement et que vous soyez ainsi prêt pour son entrée en application :

  • #1 Entrée en vigueur et champ d’application de l’IA Act : quel périmètre exact pour les juristes ?
  • #2 Pratiques d’IA interdites : analyse des dispositions de l’article 5
  • #3 Classifications juridiques des systèmes d’IA : comprendre les catégories de risque
  • #4 Obligations juridiques concrètes des acteurs de l’IA à haut risque : exigences et conformité
  • #5 Transparence et explicabilité juridiques des systèmes d’IA : portée exacte des obligations pour les juristes
  • #6 Modèles d’IA à usage général : encadrement et responsabilités
  • #7 Impacts de l’IA Act sur les contrats IT : adaptations nécessaires
  • #8 Mesures de soutien à l’innovation : bacs à sable réglementaires et autres initiatives
  • #9 Gouvernance interne et responsabilité juridique : analyse critique des obligations organisationnelles
  • #10 Mise en œuvre et surveillance : rôle des autorités nationales et européennes
  • #11 Bases de données de l’UE sur les IA à haut risque : transparence et accessibilité
  • #12 Codes de conduite et lignes directrices : rôle et élaboration
  • #13 Sanctions en cas de non-conformité : cadre et implications

Le département Droit du numérique, données et conformité peut vous accompagner dans tout le cycle de vie de création de votre SIA : de l’étude de faisabilité, à la révision des contrats, de l’étude d’impact des droits fondamentaux, en passant par la préparation des dossiers des IA à haut risque.

Pour toute question, n’hésitez pas à nous contacter.

Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.