Le règlement de l’UE sur l’IA définit quatre niveaux de risques distincts pour caractériser l’utilisation des systèmes d’IA. Apprenez-en plus sur chacun d’entre eux et découvrez comment cela peut avoir un impact sur l’utilisation de l’IA dans votre organisation
Laurence McNally
Product Manager, OneTrust AI Governance
30 novembre 2023
La proposition de règlement de l’UE sur l’IA adopte une approche globale pour réglementer l’intelligence artificielle, en établissant des obligations pour les fournisseurs et les déployeurs afin de garantir une utilisation sûre et éthique de la technologie d’IA. Pour ce faire, l’UE a proposé le premier cadre de référence réglementaire pour l’IA, qui inclut notamment une catégorisation des risques par niveaux pour les systèmes.
Le projet de règlement de l’UE sur l’IA établit quatre catégories différentes de risque pour les systèmes d’IA :
Les systèmes d’IA dans cette catégorie constituent des menaces claires pour la sécurité ou les droits humains. Leur utilisation est interdite. Par exemple, les jouets avec assistance vocale qui encouragent les comportements dangereux ou la notation sociale par les gouvernements susceptibles de conduire à la discrimination sont considérés comme inacceptables.
Le projet de règlement de l’UE sur l’IA considère que les systèmes d’IA qui représentent une menace pour la sécurité humaine ou les droits fondamentaux sont à haut risque. Cela peut comprendre les systèmes utilisés dans les jouets, l’aviation, les véhicules, les dispositifs médicaux et les ascenseurs, tout ce qui relève des réglementations de l’UE en matière de sécurité des produits.
Les systèmes à haut risque peuvent également concerner, entre autres, tout ce qui touche aux infrastructures critiques (comme les systèmes de transport) où un dysfonctionnement pourrait mettre des vies en danger. Mais en plus de la sécurité physique, ces niveaux de risque sont également conçus pour aider à protéger les droits humains et la qualité de vie. Par exemple, la notation des examens ou le tri des CV avec l’IA sont considérés comme des systèmes à haut risque, car ce type de pratique est susceptible d’avoir un impact sur le parcours professionnel et l’avenir des individus.
Diverses activités liées à l’application de la loi sont également considérées comme étant à haut risque, telles que l’évaluation de la fiabilité des preuves, la vérification des documents de voyage lors des contrôles d’immigration ou l’identification biométrique à distance.
À ce niveau, on trouve les systèmes d’IA qui exigent de la transparence, tels que l’utilisation d’un chatbot pour un service à la clientèle. Vos utilisateurs doivent savoir qu’ils interagissent avec une machine et avoir la possibilité de refuser et de parler à un humain à la place. Les systèmes à risque limité reposent sur la transparence et le consentement éclairé de l’utilisateur et leur donnent la possibilité de se retirer facilement.
Le risque minimal est le niveau de risque le plus bas défini dans le règlement de l’UE sur l’IA et concerne les applications, telles que les jeux vidéo alimentés par l’IA ou les filtres anti-spam des messageries électroniques.
Récemment, le Parlement européen a introduit des amendements qui traitent de l’IA générative et imposent des règles de transparence supplémentaires pour son utilisation. Les négociations entre le Parlement européen, le Conseil de l’Europe et la Commission européenne se sont également concentrées sur la hiérarchisation des modèles de fondation, et nous pouvons donc nous attendre à voir apparaître des clarifications supplémentaires concernant leur utilisation.
Il est possible que les outils d’IA tels que les chatbots basés sur des modèles linguistiques de grande taille (par exemple ChatGPT) aient à respecter des règles supplémentaires, telles qu’une obligation d’indiquer quel contenu a été généré par l’IA, de garantir que le modèle ne crée pas de contenu illégal et de publier des synthèses des données protégées par le droit d’auteur utilisées pour l'apprentissage.
C’est une chose de voir les niveaux de risque définis par le règlement de l’UE sur l’IA, mais c’en est une autre de comprendre comment ils s’intègrent dans les activités quotidiennes de l’entreprise.
Les systèmes ayant un niveau de risque inacceptable, comme leur nom l’indique, sont interdits par le règlement de l’UE sur l’IA et personne n'est autorisé à les utiliser dans votre organisation. Un outil tel que OneTrust AI Governance signalera et rejettera automatiquement tous les systèmes classés dans cette catégorie et protégera ainsi votre organisation tout en libérant du temps pour vos équipes pour effectuer d’autres revues.
À l’autre bout du spectre des risques, les systèmes à risque limité et minimal peuvent être automatiquement validés par votre outil AI Governance, ce qui permet à votre équipe élargie de poursuivre ses projets et de continuer à innover avec l’IA.
Pour ces deux catégories de risque, la décision d’approuver ou de refuser l’utilisation du système peut être prise automatiquement par votre outil, car les directives sont claires. Les choses se compliquent lorsqu’il s’agit de systèmes à haut risque.
Les systèmes considérés comme à haut risque ne sont pas automatiquement interdits par le règlement de l’UE sur l’IA, mais il faut satisfaire plus d’exigences pour pouvoir les déployer. Ces exigences ont pour but de démontrer que la technologie et son utilisation ne constituent pas une menace importante pour la santé, la sécurité et les droits humains fondamentaux.
Les développeurs de systèmes d’IA déterminent eux-mêmes dans quelle catégorie de risque leur système se trouve en utilisant les normes établies par l’UE. Une fois que les systèmes établis comme étant à haut risque sont utilisés, ce sont les déployeurs qui ont la responsabilité de la conformité, de la surveillance, du contrôle humain et des obligations de transparence continus une fois qu’ils ont décidé de les mettre en œuvre.
Cette conformité et cette surveillance continues sont gourmandes en travail manuel. C'est pourquoi trouver des moyens de les automatiser fera gagner beaucoup de temps à votre équipe. La solution OneTrust signale les systèmes à haut risque pour qu’ils soient passés en revue manuellement et qu’ils ne soient pas automatiquement rejetés, mais votre équipe de conformité doit prendre le temps de faire preuve de diligence raisonnable pour décider si l’utilisation du système, et la prise de la responsabilité opérationnelle supplémentaire associée, en vaut la peine, ou s’il est préférable de plutôt utiliser un autre système.
Voyons comment un projet réel peut se dérouler en utilisant un système d’IA et un outil de gouvernance de l’IA avec un exemple pratique.
Supposons que votre équipe marketing souhaite utiliser GPT-4 d’OpenAI pour créer des e-mails personnalisés. Nous sommes à la phase initiale du projet, où l’équipe identifie un cas d’usage pour un système d’IA et doit le valider.
Votre équipe de conformité doit alors effectuer une évaluation pour déterminer si le système est sûr et si son utilisation est justifiée. OneTrust propose des évaluations accessibles et concises, où le chef de projet peut exposer ses objectifs et ses intentions.
À partir de là, il faut déterminer la catégorie de risque associée au projet. OneTrust automatise ce processus en évaluant le projet et en attribuant automatiquement un niveau de risque, tel qu’expliqué ci-dessus.
En fonction du niveau de risque attribué, votre équipe peut ensuite accélérer le déploiement de son projet. Dans notre exemple, l’outil AI Governance a déterminé que l’utilisation de GPT-4 était à faible risque et l’a automatiquement validé. L’équipe marketing peut poursuivre son projet.
La solution OneTrust AI Governance offre bien plus que la conformité vis-à-vis du règlement de l’UE sur l’IA. Il s’agit d’une solution complète pour superviser les activités liées à l’IA dans votre organisation.
Nous vous aidons à innover plus rapidement sans négliger la sécurité, que vous soyez soumis aux réglementations de l’UE ou à d’autres défis de gouvernance.
Demandez une démonstration dès aujourd’hui pour découvrir comment OneTrust peut jouer un rôle essentiel dans votre parcours d’IA.
Livre blanc
Prêt à naviguer dans les complexités du règlement de l’UE sur l’IA ? Découvrez comment les spécialistes de la protection de la vie privée et de la sécurité défendent la conformité d’une IA responsable avec OneTrust.
Webinaire
Un webinar exclusif pour explorer les implications de la loi européenne sur l'IA et découvrir la solution AI Governance.
Blog
Le projet de loi de l'UE sur l'IA définit quatre catégories de risques pour l'utilisation des systèmes d'IA. Découvrez chacune de ces catégories et l'impact qu'elles peuvent avoir sur l'utilisation de l'IA dans votre entreprise.
Blog
Le projet de loi de l’UE sur l’IA adopte une approche de précaution, basée sur les risques en matière d’IA et, pour ce faire, a défini quatre catégories de risques différentes dans lesquelles les systèmes d’IA peuvent être classés.