Skip to main content

Webinaire à la demande bientôt disponible…

Blog

S’orienter dans le cadre de référence pour la gestion des risques liés à l’IA du NIST en toute confiance

Alors que les systèmes d’IA sont de plus en plus répandus, cartographier vos efforts par rapport à un cadre de référence reconnu peut vous aider à accroître la fiabilité de vos produits

Laurence McNally
Product Manager, OneTrust 
5 mai 2023

Gros plan sur un immeuble de bureaux avec vue de l’intérieur à travers les fenêtres.

Ces derniers mois, l’intelligence artificielle s’est de plus en plus imposée comme l’une des polémiques les plus brûlantes. L’essor des chatbots d’IA et des générateurs d’images gratuits a vu le sujet des contenus générés par l’IA, ses risques et ses avantages prendre le devant de la scène. L’utilisation de l’IA et du contenu généré par l’IA devient si répandue que lors du Sommet mondial sur la protection de la vie privée de l’IAPP, Nina Schick, experte en IA générative, a prédit que 90 % du contenu en ligne sera généré par l’IA d’ici 2025.

Cette adoption rapide a, comme on pouvait s’y attendre, suscité des réactions mitigées. En Italie, l’autorité de protection des données (la Garante), a récemment interdit ChatGPT pour des raisons de confidentialité tandis qu’aux États-Unis, le Center for AI and Digital Policy a également déposé une plainte auprès de la Federal Trade Commission (FTC) au sujet du chatbot basé sur un modèle linguistique. Mais cela ne l’a pas empêché d’attirer plus de 100 millions d’utilisateurs en un peu plus de six mois. Ce n’est qu’un exemple, mais les développeurs de logiciel du monde entier créent quotidiennement de nouvelles technologies d’IA et d’apprentissage automatique qui, sans réglementation, sont susceptibles de menacer la vie privée des individus.

Il ne fait aucun doute que les systèmes d’IA révolutionnent les industries et créent des opportunités de croissance sans précédent. Toutefois, ces avantages s’accompagnent de risques et de défis qui nécessitent une approche de la gestion des risques solide. Le 26 janvier 2023, le National Institute of Standards and Technology (NIST) a introduit son cadre de référence pour la gestion des risques liés à l’IA, ou AI Risk Management Framework, en anglais, (RMF), aidant ainsi les organisations à développer des technologies d’IA de manière responsable et, plus largement, à gérer le risque qu’elles représentent pour les individus et la société. Poursuivez votre lecture pour en savoir plus sur le AI RMF du NIST et sur la manière dont vous pouvez tirer parti de ce cadre de référence pour vos systèmes d’IA.

 

En quoi consiste le cadre de référence pour la gestion des risques liés à l’IA du NIST ?

L’AI RMF a été élaboré par le NIST, en collaboration avec d’autres parties prenantes clés et dans le respect d’autres initiatives législatives, afin de fournir aux organisations qui développent des systèmes et des technologies d’IA un cadre de référence pratique et adaptable pour mesurer les dommages potentiels causés aux individus et à la société et pour s'en protéger. L’approche décrite dans l’AI RMF du NIST est destinée à aider les organisations à atténuer les risques, à libérer des opportunités et à accroître la fiabilité de leurs systèmes d’IA, depuis la conception jusqu’au déploiement.

Le NIST a divisé son cadre de référence en deux parties. La première se concentre sur la planification et la compréhension, en guidant les organisations sur la manière dont elles peuvent analyser les risques et les avantages de l’IA et comment elles peuvent définir des systèmes d’IA fiables. Le NIST propose aux organisations de mesurer la fiabilité de leurs systèmes selon les caractéristiques suivantes :

  • Validité et fiabilité
  • Sûreté, sécurité et résilience
  • Responsabilité et transparence
  • Explicabilité et interprétabilité
  • Renforcement de la protection de la vie privée
  • Équité, avec une gestion des biais préjudiciables

Dans la deuxième partie, des conseils exploitables sont fournis. Le NIST la décrit comme le cœur de son cadre de référence. Elle comprend quatre étapes fondamentales – gouverner, cartographier, mesurer et gérer – pour que les organisations développent leurs systèmes d’IA. L’étape « gouverner » est centrale car elle se fait en continu. Elle vise à créer une culture de la gestion des risques. Le but de l’étape « cartographier » est de reconnaître le contexte dans lequel les risques peuvent être identifiés et cartographiés. À l’étape « mesurer », il s’agit d’analyser, d’évaluer et de suivre les risques identifiés. Finalement, l’étape « gérer » hiérarchise les risques en fonction de leur impact pour que les mesures d’atténuation appropriées soient mises en œuvre.

 

Comment les organisations peuvent-elles aborder le cadre de référence pour la gestion des risques liés à l’IA du NIST ?

Pour garantir que les organisations développent et déploient les systèmes d’IA de manière responsable, OneTrust a créé un modèle d’évaluation complet dans son produit AI Governance. Le modèle d’évaluation au regard du cadre de référence AI RMF du NIST est basé sur le Manuel d’accompagnement du cadre de référence pour la gestion des risques liés à l’IA (AI RMF) du NIST, une ressource qui vient compléter l’AI RMF du NIST. Le modèle ‘Cadre pour la gestion des risques liés à l’IA du NIST’ vous aide à traiter les aspects critiques de la gestion des risques liés à l’IA. Examinons chaque section plus en détail.

 

Collecte d’informations

La première étape de la gestion des risques liés à l’IA consiste à comprendre les données et le contexte associés à vos systèmes d’IA. Dans cette section, les organisations recueillent des informations essentielles sur leurs systèmes d’IA, telles que l’identifiant du projet, sa description et sa date d’échéance.

Gouverner

Une gestion efficace des risques liés à l’IA nécessite une forte culture de gouvernance dans l’ensemble de la hiérarchie de l’organisation et du cycle de vie du système d’IA. La section ‘Gouverner’ souligne l’importance d’établir une culture de la gestion des risques pour soutenir les autres fonctions du cadre de référence.

Cartographier

Connaître le contexte est essentiel pour identifier et gérer les risques liés à l’IA. La fonction ‘Cartographier’ établit le contexte de cadrage des risques liés au système d’IA. Comprendre les facteurs contributifs élargis permet aux organisations d’améliorer leur capacité à identifier les risques et à créer une solide fondation pour les fonctions ‘Mesurer’ et ‘Gérer’.

Mesurer

Dans la section ‘Mesurer’, les organisations utilisent des outils quantitatifs, qualitatifs ou mixtes pour analyser, évaluer, comparer et surveiller les risques liés à l’IA et leurs impacts. En s’appuyant sur la connaissance des risques d’IA identifiés dans la fonction ‘Cartographier’, les organisations peuvent mieux informer leurs efforts de surveillance des risques et de réponse dans la fonction ‘Gérer’.

Gérer

La fonction ‘Gérer’ utilise les pratiques de documentation systématiques établies dans ‘Gouverner’, les informations contextuelles obtenues dans la section ‘Cartographier’ et les données empiriques issues de ‘Mesurer’ pour traiter les risques identifiés et réduire la probabilité de défaillances du système et d’impacts négatifs. Cette section se concentre sur l’atténuation du risque, avec notamment les plans pour répondre aux incidents ou aux événements, pour y remédier et pour communiquer à leur sujet.

Notre nouveau modèle d’évaluation basé sur le cadre de référence du NIST aide les organisations à gérer les risques liés à l’IA en toute confiance. Le suivre leur permet de mieux comprendre leurs systèmes d’IA, d’identifier les risques potentiels et de développer des stratégies pour les atténuer. Cette approche globale de la gestion des risques liés à l’IA contribue au final à assurer un développement et un déploiement plus responsables de l’IA.

 

Parlez avec un expert dès aujourd’hui pour voir comment la plateforme OneTrust vous aide à placer ce qui est bon pour les personnes et la planète au cœur de votre entreprise. 


Autres ressources pertinentes

eBook

Gestion de la protection des données personnelles

Maitriser les PIA et les AIPD

Libérez tout le potentiel de votre programme de confidentialité grâce à notre livre blanc conçu pour fournir aux professionnels de la protection des données personnelles les outils et les connaissances essentiels à la mise en place de processus PIA et AIPD.

février 21, 2025

En savoir plus

eBook

Gestion de la protection des données personnelles

Maturité de votre conformité au RGPD

Ce livre blanc explore les éléments clés nécessaires à l'élaboration et au maintien d'un programme de protection des données personnelles robuste, depuis la compréhension de la cartographie et de la découverte des données, à la maîtrise de la gestion du consentement et de la réponse aux incidents.

février 21, 2025

En savoir plus

Blog

Privacy & Data Governance

Eclairage sur l’analyse d’impact relative à la protection des données (AIPD)

L’analyse d’impact relative à la protection des données est un mécanisme de conformité. La méthodologie de réalisation, l’application concrète, les risques liés à la non réalisation d’une AIPD ou encore les outils qui aident à sa mise en œuvre nécessitent une compréhension du contexte juridique pour être conforme au RGPD.

janvier 04, 2024

En savoir plus

Webinaire

Gestion de la protection des données personnelles

Replay Gestion des Demandes d’Exercice de Droits des Clients et des Employés

L’identification des données personnelles, la récupération de ces dernières ainsi que le caviardage sont complexes à opérer et très couteuse en temps.  Visionnez le replay de notre webinar pour relever les défis de la gestion des demandes d’exercice de droits de manière efficace et automatisée.

décembre 27, 2023

En savoir plus

Blog

Gestion des risques tiers

Vos tiers constituent-ils un risque pour votre conformité en termes de confidentialité ?

Quel rôle les tiers jouent-ils dans votre conformité en matière de confidentialité ? Découvrez les connections entre les deux fonctions et comment garantir la sécurité des données dans votre chaîne d’approvisionnement.

Katrina Dalao

novembre 07, 2023 10 min de lecture

En savoir plus