Ces derniers mois, l’intelligence artificielle s’est de plus en plus imposée comme l’une des polémiques les plus brûlantes. L’essor des chatbots d’IA et des générateurs d’images gratuits a vu le sujet des contenus générés par l’IA, ses risques et ses avantages prendre le devant de la scène. L’utilisation de l’IA et du contenu généré par l’IA devient si répandue que lors du Sommet mondial sur la protection de la vie privée de l’IAPP, Nina Schick, experte en IA générative, a prédit que 90 % du contenu en ligne sera généré par l’IA d’ici 2025.
Cette adoption rapide a, comme on pouvait s’y attendre, suscité des réactions mitigées. En Italie, l’autorité de protection des données (la Garante), a récemment interdit ChatGPT pour des raisons de confidentialité tandis qu’aux États-Unis, le Center for AI and Digital Policy a également déposé une plainte auprès de la Federal Trade Commission (FTC) au sujet du chatbot basé sur un modèle linguistique. Mais cela ne l’a pas empêché d’attirer plus de 100 millions d’utilisateurs en un peu plus de six mois. Ce n’est qu’un exemple, mais les développeurs de logiciel du monde entier créent quotidiennement de nouvelles technologies d’IA et d’apprentissage automatique qui, sans réglementation, sont susceptibles de menacer la vie privée des individus.
Il ne fait aucun doute que les systèmes d’IA révolutionnent les industries et créent des opportunités de croissance sans précédent. Toutefois, ces avantages s’accompagnent de risques et de défis qui nécessitent une approche de la gestion des risques solide. Le 26 janvier 2023, le National Institute of Standards and Technology (NIST) a introduit son cadre de référence pour la gestion des risques liés à l’IA, ou AI Risk Management Framework, en anglais, (RMF), aidant ainsi les organisations à développer des technologies d’IA de manière responsable et, plus largement, à gérer le risque qu’elles représentent pour les individus et la société. Poursuivez votre lecture pour en savoir plus sur le AI RMF du NIST et sur la manière dont vous pouvez tirer parti de ce cadre de référence pour vos systèmes d’IA.
En quoi consiste le cadre de référence pour la gestion des risques liés à l’IA du NIST ?
L’AI RMF a été élaboré par le NIST, en collaboration avec d’autres parties prenantes clés et dans le respect d’autres initiatives législatives, afin de fournir aux organisations qui développent des systèmes et des technologies d’IA un cadre de référence pratique et adaptable pour mesurer les dommages potentiels causés aux individus et à la société et pour s'en protéger. L’approche décrite dans l’AI RMF du NIST est destinée à aider les organisations à atténuer les risques, à libérer des opportunités et à accroître la fiabilité de leurs systèmes d’IA, depuis la conception jusqu’au déploiement.
Le NIST a divisé son cadre de référence en deux parties. La première se concentre sur la planification et la compréhension, en guidant les organisations sur la manière dont elles peuvent analyser les risques et les avantages de l’IA et comment elles peuvent définir des systèmes d’IA fiables. Le NIST propose aux organisations de mesurer la fiabilité de leurs systèmes selon les caractéristiques suivantes :
- Validité et fiabilité
- Sûreté, sécurité et résilience
- Responsabilité et transparence
- Explicabilité et interprétabilité
- Renforcement de la protection de la vie privée
- Équité, avec une gestion des biais préjudiciables
Dans la deuxième partie, des conseils exploitables sont fournis. Le NIST la décrit comme le cœur de son cadre de référence. Elle comprend quatre étapes fondamentales – gouverner, cartographier, mesurer et gérer – pour que les organisations développent leurs systèmes d’IA. L’étape « gouverner » est centrale car elle se fait en continu. Elle vise à créer une culture de la gestion des risques. Le but de l’étape « cartographier » est de reconnaître le contexte dans lequel les risques peuvent être identifiés et cartographiés. À l’étape « mesurer », il s’agit d’analyser, d’évaluer et de suivre les risques identifiés. Finalement, l’étape « gérer » hiérarchise les risques en fonction de leur impact pour que les mesures d’atténuation appropriées soient mises en œuvre.
Comment les organisations peuvent-elles aborder le cadre de référence pour la gestion des risques liés à l’IA du NIST ?
Pour garantir que les organisations développent et déploient les systèmes d’IA de manière responsable, OneTrust a créé un modèle d’évaluation complet dans son produit AI Governance. Le modèle d’évaluation au regard du cadre de référence AI RMF du NIST est basé sur le Manuel d’accompagnement du cadre de référence pour la gestion des risques liés à l’IA (AI RMF) du NIST, une ressource qui vient compléter l’AI RMF du NIST. Le modèle ‘Cadre pour la gestion des risques liés à l’IA du NIST’ vous aide à traiter les aspects critiques de la gestion des risques liés à l’IA. Examinons chaque section plus en détail.
Collecte d’informations
La première étape de la gestion des risques liés à l’IA consiste à comprendre les données et le contexte associés à vos systèmes d’IA. Dans cette section, les organisations recueillent des informations essentielles sur leurs systèmes d’IA, telles que l’identifiant du projet, sa description et sa date d’échéance.
Gouverner
Une gestion efficace des risques liés à l’IA nécessite une forte culture de gouvernance dans l’ensemble de la hiérarchie de l’organisation et du cycle de vie du système d’IA. La section ‘Gouverner’ souligne l’importance d’établir une culture de la gestion des risques pour soutenir les autres fonctions du cadre de référence.
Cartographier
Connaître le contexte est essentiel pour identifier et gérer les risques liés à l’IA. La fonction ‘Cartographier’ établit le contexte de cadrage des risques liés au système d’IA. Comprendre les facteurs contributifs élargis permet aux organisations d’améliorer leur capacité à identifier les risques et à créer une solide fondation pour les fonctions ‘Mesurer’ et ‘Gérer’.
Mesurer
Dans la section ‘Mesurer’, les organisations utilisent des outils quantitatifs, qualitatifs ou mixtes pour analyser, évaluer, comparer et surveiller les risques liés à l’IA et leurs impacts. En s’appuyant sur la connaissance des risques d’IA identifiés dans la fonction ‘Cartographier’, les organisations peuvent mieux informer leurs efforts de surveillance des risques et de réponse dans la fonction ‘Gérer’.
Gérer
La fonction ‘Gérer’ utilise les pratiques de documentation systématiques établies dans ‘Gouverner’, les informations contextuelles obtenues dans la section ‘Cartographier’ et les données empiriques issues de ‘Mesurer’ pour traiter les risques identifiés et réduire la probabilité de défaillances du système et d’impacts négatifs. Cette section se concentre sur l’atténuation du risque, avec notamment les plans pour répondre aux incidents ou aux événements, pour y remédier et pour communiquer à leur sujet.
Notre nouveau modèle d’évaluation basé sur le cadre de référence du NIST aide les organisations à gérer les risques liés à l’IA en toute confiance. Le suivre leur permet de mieux comprendre leurs systèmes d’IA, d’identifier les risques potentiels et de développer des stratégies pour les atténuer. Cette approche globale de la gestion des risques liés à l’IA contribue au final à assurer un développement et un déploiement plus responsables de l’IA.
Parlez avec un expert dès aujourd’hui pour voir comment la plateforme OneTrust vous aide à placer ce qui est bon pour les personnes et la planète au cœur de votre entreprise.