Skip to main content

Webinaire à la demande bientôt disponible…

Blog

Se familiariser avec le règlement de l’UE sur l’IA

Le Parlement a validé le règlement de l’UE sur l’IA, pour garantir la sécurité et les droits fondamentaux tout en protégeant l’innovation

Param Gopalasamy
Content Marketing Specialist, CIPP/E, CIPP/US, CIPM
13 novembre 2023

EU flags in front of the EU Commission Building

Une approche horizontale : se démarquer sur la scène mondiale 

En élaborant son approche de la législation sur l’intelligence artificielle (IA), l’Union européenne (UE) a opté pour un cadre de référence législatif horizontal. Le cadre de référence juridique de l’UE en matière d’IA adopte une perspective indépendante du secteur d’activité et a été conçu en détails avec près d’une centaine d’articles.

Nous vous fournissons ici un aperçu du règlement de l’UE sur l’IA. Cette législation est la première du genre et elle constitue une référence pour réglementer l’IA dans le monde. Elle a été développée pour contribuer à la création d’un précédent dans le contexte de l’IA qui évolue rapidement.

Protéger les valeurs, stimuler l’innovation

Le règlement de l’UE sur l’IA est soigneusement équilibrée. Il ne s’agit pas seulement de jeter un filet de sécurité autour de la société, de l’économie, des valeurs et des droits fondamentaux de l’Europe qui pourraient être menacés par les systèmes d’IA ; c’est aussi une reconnaissance de la puissance et du potentiel d’innovation de l’IA, avec des garanties intégrées conçues pour promouvoir et protéger les avancées innovantes qu’elle autorise. Le règlement cherche à trouver l’équilibre entre la gestion des risques et la protection des infrastructures critiques contre les pièges potentiels, tout en promouvant les innovations que l’IA à usage général peut apporter.

L’élaboration du règlement de l’UE sur l’IA n’a pas été une promenade de santé, à commencer par la définition-même de ce qu'est l’intelligence artificielle. Depuis sa proposition de création en avril 2021, le règlement est un document vivant, qui a connu de nombreuses itérations, chaque amendement reflétant l’évolution du discours autour de la technologie de l’IA et de ses implications pour la société.

Lors de la réunion du trilogue en décembre, la France, l’Allemagne et l’Italie ont soulevé des préoccupations concernant les limitations imposées aux modèles d’IA puissants et ont souhaité alléger le régime réglementaire pour les modèles tels que GPT-4 d’OpenAI.  

Après de longues discussions, la Commission européenne est parvenue à un compromis consistant à adopter une approche à plusieurs niveaux, avec des règles de transparence transversales pour tous les modèles et des obligations supplémentaires pour les modèles qui présentent un risque systémique. 

 

Comment se positionne le règlement sur l’IA aujourd’hui

Le 2 février 2024, le Comité des représentants permanents a voté en faveur de l’accord politique conclu en décembre 2023. Le 13 mars, le Parlement a voté en faveur du Règlement, avec 523 voix pour, 46 contre et 49 abstentions.

Le règlement de l’UE sur l’IA entrera en vigueur 20 jours après sa publication au Journal officiel de l’UE. Les dispositions concernant les systèmes interdits s’appliqueront après 6 mois et les obligations pour les fournisseurs d’IA à usage général après 12 mois. La plupart des autres exigences seront applicables après deux ans.

Les systèmes à haut risque destinés à être utilisés comme composants de sécurité de produits ou qui sont couverts par d’autres lois de l’UE ont 36 mois pour se conformer au règlement de l’UE sur l’IA. 

 

IA : décomposer le concept 

À l’origine, le règlement définissait l’apprentissage automatique (ML), soit la base de tout système d’IA, comme « notamment l’apprentissage supervisé, non supervisé et par renforcement, en utilisant une grande variété de méthodes, y compris l’apprentissage profond ». Le texte donne la définition mise à jour suivante pour les systèmes d’IA : « des systèmes automatisés qui sont conçus pour fonctionner à différents niveaux d’autonomie et peuvent faire preuve d’une capacité d’adaptation après leur déploiement, et qui, pour des objectifs explicites ou implicites, déduisent, à partir des entrées qu’ils reçoivent, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ».

La complexité des systèmes d’IA est très variable, les systèmes les plus complexes nécessitant une puissance de calcul et des données d’entrée considérables. Les sorties de ces systèmes peuvent être simples ou incroyablement complexes, en fonction de la sophistication de l’IA impliquée.

Cette définition large couvre un éventail de technologies, de nos chatbots de tous les jours aux modèles d’IA générative hautement sophistiqués. Mais il est important de noter que tous les systèmes d’IA qui correspondent à la définition large du règlement n'y seront pas soumis. Le règlement joue la carte de l’intelligence en adoptant une approche basée sur le risque et en soumettant à sa réglementation uniquement les systèmes associés à des niveaux de risque spécifiques.

 

Règlement sur l’IA : un étalonnage en fonction du risque

C’est là que les choses deviennent intéressantes. Le règlement de l’UE sur l’IA classe les systèmes d’IA dans différentes catégories. Certains sont considérés comme présentant un risque inacceptable pour les valeurs européennes et sont en conséquence interdits. Les systèmes à haut risque ne sont pas interdits, mais ils sont soumis à de strictes obligations. Il est essentiel de se souvenir que ces catégories de risque ne sont pas statiques ; le règlement est encore à l’état de projet, et au fur et à mesure que des changements se produiront, ces catégories de risque seront probablement affinées. 
 

Niveaux de risque du règlement de l’UE sur l’IA

Le règlement de l’UE sur l’IA définit plusieurs niveaux de risque qui peuvent être tolérés : risque élevé, risque limité et risque minimal.

Ce sont les niveaux de « risque admissible » qui peuvent être autorisés par les organisations. Les systèmes d’IA à « risques inacceptables » sont interdits. Si de tels systèmes sont envisagés, les entreprises doivent modifier leurs modèles pour ne pas les utiliser.  

 

  • Risque inacceptable : systèmes de notation sociale, vérification biométrique à distance en temps réel par exemple.

  • Risque élevé : systèmes de notation de crédit, réclamations d’assurance automatisées…

    Pour les processus qui entrent dans cette catégorie, les entreprises doivent effectuer une évaluation de la conformité et les enregistrer dans une base de données UE avant que le modèle ne puisse être mis à la disposition du public.

    De plus, des journaux détaillés et un contrôle humain sont exigés pour ces processus à haut risque.  

  • Risque limité : par exemple, les chatbots, la personnalisation.

    Concernant les processus à risque limité, les entreprises doivent garantir qu’elles sont totalement transparentes avec leurs clients et qu’elles les informent que l’IA est utilisée et quelles sont les données impliquées. 

  • Risque minimal : pour tous les processus que les sociétés utilisent et qui sont classées dans la catégorie « risque minimal », le projet de règlement de l’UE sur l’IA encourage les fournisseurs à mettre en place un code de conduite qui garantit que l’IA est utilisée de manière éthique.

Pyramid graphic showing the levels of permissable AI risk areas defined by the EU AI Act and what the act requires organizations to do to address these areas of risk. Starting from the lowest level: Minimal risk areas require a code of conduct; limited risk areas need transparency; high risk areas need conformity assessments; and at the top level are areas that are considered unacceptable.

 

Évaluations de la conformité 

Parmi ces niveaux de risque, ce sont les systèmes à haut risque qui représenteront la charge de conformité la plus lourde pour les organisations, car elles devront assurer leurs obligations en matière d’évaluations de la conformité. Les évaluations de la conformité exigent des entreprises qu’elles garantissent que leurs systèmes « à haut risque » satisfont les critères suivants :

  • Qualité des jeux de données utilisés pour former, valider et tester les systèmes d’IA ; les jeux de données doivent être « pertinents, représentatifs, exempts d’erreurs et complets ».
  • Documentation technique détaillée.

  • Tenue des registres sous forme d’enregistrement automatique des événements.

  • Transparence et fourniture d’informations aux utilisateurs.

  • Contrôle humain

Cette évaluation est obligatoire avant que tout système d’IA à haut risque ne soit mis à disposition ou utilisé sur le marché de l’UE. Elle garantit que les systèmes d’IA sont conformes aux normes de l’UE, en particulier en cas de modifications ou de changements importants dans l’utilisation prévue. La principale partie responsable de l’évaluation de la conformité est le « fournisseur », c'est-à-dire l’entité qui met le système sur le marché. Cependant, dans certaines circonstances, la responsabilité peut être transférée au fabricant, au distributeur ou à l’importateur, en particulier lorsqu’ils modifient le système ou sa finalité. 
 

Qui réalise l’évaluation de la conformité ? 

L’évaluation de la conformité peut être faite en interne ou par un « organisme notifié » externe. Les évaluations de conformité internes sont courantes, car on attend des fournisseurs qu’ils disposent de l’expertise nécessaire. Les organismes notifiés entrent en jeu en particulier lorsque les systèmes d’IA sont utilisés pour des applications sensibles telles que l’identification biométrique en temps réel et ne respectent pas les normes préétablies.

Lors d’une évaluation de la conformité interne, le fournisseur vérifie la conformité aux normes de gestion de la qualité, évalue la documentation technique et s’assure que la conception et la surveillance du système d’IA respectent les exigences. Si tout est conforme, une déclaration de conformité UE et un marquage CE sont délivrés. Ces éléments indiquent la conformité et doivent être conservés pendant dix ans et fournis aux autorités nationales qui en font la demande.

Pour les évaluations de la conformité externes, les organismes notifiés passent le système et sa documentation en revue. S’ils sont conformes, un certificat est délivré ; sinon, l’organisme notifié exige du fournisseur qu’il prenne des mesures correctives. 
 

À quelle fréquence les évaluations de la conformité doivent-elles être faites ? 

L’évaluation de la conformité n’est pas un processus ponctuel ; les fournisseurs doivent surveiller leurs systèmes d’IA en continu après leur mise sur le marché pour s’assurer qu’ils restent conformes au projet de règlement de l’UE sur l’IA qui continue d’évoluer. Dans les cas où un organisme notifié est impliqué, il effectuera des audits réguliers pour vérifier que le système de gestion de la qualité est toujours respecté.
 

Impliquer tous les interlocuteurs

Le règlement de l’UE sur l’IA ne se contente pas de distribuer des responsabilités aux fournisseurs d’IA ; elle élargit son réseau pour inclure les différents acteurs du cycle de vie de l’IA, depuis les utilisateurs jusqu’aux déployeurs. Et sa portée n’est pas seulement limitée à l’UE ; il a des ambitions mondiales, affectant des entités même en dehors de l’UE. 
 

Amendes : un moyen de dissuasion significatif

Avec les récents ajustements apportés par le Parlement européen au règlement de l’UE sur l’IA, les amendes pour non-conformité ont augmenté, atteignant désormais un maximum de 35 millions d’euros ou jusqu’à 7 % du chiffre d’affaires mondial. Pour mettre cette information dans son contexte, ces amendes sont 50 % plus élevées que celles du RGPD dont les maximum s’élèvent à 20 millions USD ou 4 % du chiffre d’affaires mondial, ce qui souligne l’engagement de l’UE à garantir le strict respect du règlement de l’UE sur l’IA.

 

Ouvrir la voie vers une IA réglementée 

Le règlement de l’UE sur l’IA est une déclaration audacieuse de la part de l’UE, qui a su trouver le juste équilibre entre la promotion de l’innovation en matière d’IA et la garantie que les valeurs et les droits fondamentaux de la société ne sont pas compromis. Alors que le règlement se rapproche des dernières étapes de son approbation, il est essentiel que tous les acteurs de l’IA suivent son évolution.

Que vous soyez fournisseur, utilisateur ou impliqué dans le déploiement de l’IA, il est impératif que vous vous prépariez à un avenir où l’IA n’est pas seulement une merveille technologique, mais aussi un sujet de limites juridiques et de responsabilités définies. Cette introduction donne un aperçu du parcours et de l’impact potentiel du règlement de l’UE sur l’IA, ouvrant la voie à une analyse plus approfondie dans les sections suivantes. Alors, allons-y et plongeons ensemble dans une compréhension plus poussée des nuances et des implications du règlement de l’UE sur l’IA.
 

Cadres de référence sur l’IA : une perspective globale 

Un contexte de flux : cartographie des cadres de référence sur l’IA dans le monde 

Le contexte mondial des cadres de référence concernant l’IA souligne la nécessité impérative de règles et de normes internationales plus cohérentes. La prolifération des cadres de référence sur l’IA est indéniable et appelle à une collaboration internationale améliorée pour ne serait-ce qu’être cohérents sur des aspects essentiels, tels que la définition-même de l’IA. 
 

Global map showing the different AI regulations and proposals from various major countries.

 

Dans le cadre juridique de l’Union européenne, le règlement sur l’IA de l’UE est un élément important, sur le point d’être finalisé. En parallèle, il existe toute une mosaïque d’initiatives au niveau des États membres, avec des organismes faisant autorité dans divers pays qui déploient des lignes directrices, des boîtes à outils et des ressources non contraignantes qui visent à fournir des clés pour utiliser et déployer efficacement l’IA. 
 

Des futurs processus efficaces grâce à l’IA

L’IA promet des processus plus rapides, plus efficaces et plus précis dans divers secteurs. Par exemple, dans le secteur de l’assurance, l’IA a rationalisé le processus d’évaluation des accidents de voiture, optimisant ainsi un processus autrefois manuel et long. Cet exemple témoigne du potentiel de l’IA à améliorer considérablement divers aspects de l’entreprise et de la vie quotidienne.

Mais s’engager dans l’IA doit être envisagé avec subtilité. Il s’agit de trouver un équilibre prudent entre l’exploitation de son potentiel inégalé et la gestion des risques associés. Avec ses capacités transformatrices et perturbatrices, l’IA invite à un engagement prudent et éclairé.

Reconnaître son pouvoir de transformation tout en se préparant aux défis qu’elle pose est essentiel pour les individus comme pour les organisation qui évoluent dans le contexte mouvant de l’intelligence artificielle à l’ère moderne. 
 

Peser les avantages et les inconvénients de l’IA dans les affaires

Risques : transparence, exactitude et biais 

Malgré ses nombreux avantages, l’IA présente des défis et des risques importants. Tout d’abord, certains systèmes d’IA, susceptibles d’être perçus comme des « boîtes noires », ont fait l’objet d’un examen minutieux et de débats intenses sur les questions de transparence. Cette préoccupation est particulièrement importante avec les systèmes d’IA les plus vastes, tels que les modèles linguistiques étendus, où il y a un manque de clarté sur les données d’entraînement utilisées. Cela soulève des préoccupations importantes en matière de droit d’auteur et de protection de la vie privée, qui doivent être abordées de front.

En outre, la lutte pour garantir la précision des systèmes d’IA continue, plusieurs cas de réponses et de prédictions erronées de l’IA étant connus. Notamment, les biais qui peuvent survenir dans les systèmes d’IA, découlant de données biaisées susceptibles de servir pour l’entraînement des modèles, posent un risque de discrimination, nécessitant une surveillance vigilante et des efforts de rectification de la part des parties prenantes impliquées. 
 

L’IA en tant que solution : transformer les risques en opportunités 

Il est intéressant de noter que l’IA est un défi, mais qu’elle peut aussi être la clé pour le résoudre. Par exemple, l’IA peut être exploitée pour identifier et atténuer les biais au sein des jeux de données. Une fois les biais identifiés, des mesures stratégiques peuvent être prises pour les corriger, en veillant à ce que l’IA puisse être exploitée de manière optimale pour maximiser ses avantages tout en minimisant les risques associés. 
 

Développer la gouvernance de l’IA : la voie à suivre 

Poser les bases de la gouvernance de l’IA 

L’IA se développant rapidement, dans toute sa dynamique et sa complexité, il est urgent que les professionnels du droit et de la protection de la vie privée jettent les bases de solides programmes de gouvernance et de conformité en matière d’IA. De nombreuses lignes directrices fournissent déjà une première feuille de route pour les exigences essentielles de ces programmes, avec l’approbation de la direction générale comme première étape essentielle.

Impliquer les cadres dirigeants et s’assurer qu’ils comprennent l’ampleur et les subtilités de l’influence de l’IA est essentiel pour favoriser une culture de responsabilité dans l’ensemble de l’organisation. Cette initiative transcende la simple conformité et s’étend à l’instauration de la confiance dans les applications d’IA, un élément fondamental pour la réussite des opérations commerciales.
 

Étapes pratiques vers un cadre de référence de gouvernance de l’IA

Sur le plan matériel, les organisations peuvent utiliser des lignes directrices pratiques pour une utilisation éthique de l’IA. Ces lignes directrices sont alignées sur les principes d’IA de l’Organisation de coopération et de développement économiques (OCDE) :

 

  1. La transparence : des efforts doivent être déployés pour démystifier les applications d’IA, en rendant leurs opérations et leurs décisions compréhensibles et explicables pour les utilisateurs et les parties prenantes.

  2. Le respect de la vie privée : les applications d’IA doivent respecter et protéger la vie privée des utilisateurs, en traitant les données à caractère personnel judicieusement et en conformité avec les lois et réglementations pertinentes. 

  3. Le contrôle humain : en particulier dans les domaines à haut risque, il doit y avoir des mécanismes de supervision et de contrôle par l’humain sur les applications d’IA de façon à garantir qu’elles sont alignées sur les valeurs et les attentes humaines.

  4. Une application équitable : des stratégies de détection et d’atténuation des biais dans les applications d’IA doivent être mises en œuvre dans le but de promouvoir l’équité et d’éviter la discrimination.

  5. La responsabilité : les opérations d’IA doivent être complètement documentées et enregistrées pour permettre d’exercer un contrôle, de rendre des comptes et de faire les corrections nécessaires.

 

La politique d’éthique de l’IA : un élément essentiel 

L’établissement de politiques d’éthique en matière d’IA, éclairées par des analyses d’impact sur l’éthique, est essentiel pour relever les défis et prendre des décisions éclairées et éthiques concernant l’utilisation de l’IA. Par exemple, au lieu de bloquer purement et simplement certaines applications d’IA, les analyses d’impact sur l’éthique peuvent guider les organisations dans la mise en œuvre de politiques d’utilisation nuancées et responsables, en particulier pour les données sensibles. Les considérations éthiques doivent éclairer chaque étape de l’application de l’IA, de la conception et du développement au déploiement et à la surveillance.
 

La gouvernance inclusive de l’IA : un impératif indépendant de la taille

Il est important de noter que la gouvernance de l’IA ne concerne pas uniquement les grandes entreprises qui disposent de ressources étendues. Avec la prolifération des cas d’usage de l’IA dans différents secteurs, les sociétés de toutes tailles s’engagent inévitablement avec l’IA, ce qui nécessite des cadres de gouvernance de l’IA adaptés à leurs besoins et à leurs capacités spécifiques.

Quelques principes universels s’appliquent quelle que soit la taille de l’entreprise. Tout d’abord, il est impératif d’obtenir l’adhésion des dirigeants et d’adopter une approche pluridisciplinaire pour réussir la mise en œuvre de sa gouvernance de l’IA.

Deuxièmement, les organisations, même petites, doivent commencer par appliquer des principes de haut niveau comme point de départ, même si elles ne font qu’acheter des modèles d’IA prêts à l’emploi. La formation et la mise à niveau des compétences des employés dans diverses fonctions, notamment les achats et la technologie, sont également essentielles pour comprendre et atténuer les risques associés aux outils et aux applications d’IA. 
 

Intégrer les principes fondamentaux de gouvernance

Six principes fondamentaux doivent être systématiquement intégrés dans les programmes de gouvernance de l’IA : 

  1. Gouvernance et responsabilité : il est essentiel d’établir une structure de responsabilité, éventuellement par le biais de comités de surveillance de l’IA ou de comités d’éthique. La gouvernance doit être appliquée tout au long du cycle de vie de l’IA, depuis la conception jusqu’à l’exploitation.

  2. Contrôle humain : l’adoption d’une approche centrée sur l’humain, avec des contrôleurs humains formés à différentes étapes, est cruciale pour une application éthique de l’IA.

  3. Respect de l’équité et de l’éthique : les sorties de l’IA doivent être conformes aux normes d’équité et d’éthique, reflétant la culture et les valeurs de l’organisation. 

  4. Gestion des données : la mise en œuvre de processus de gestion des données robustes, le suivi des modifications apportées aux jeux de données et la cartographie des sources de données sont essentiels pour la fiabilité des systèmes d’IA. 

  5. Amélioration de la transparence : pour établir la confiance et garantir la conformité, il faut que les processus décisionnels de l’IA soient transparents et compréhensibles. 

  6. Protection de la vie privée et cybersécurité : il est impératif de répondre aux exigences légales en matière de traitement des données, de mener des analyses d’impact sur la protection de la vie privée et d’atténuer les cyber-risques spécifiquement liés à l’IA pour avoir des applications d’IA sécurisées et conformes.

Compte tenu du rythme auquel l’IA évolue et de ses profondes implications, les organisations doivent développer et mettre en œuvre de manière proactive des programmes de gouvernance de l’IA. En adoptant un ensemble de principes et de pratiques de gouvernance fondamentaux, elles peuvent s’orienter dans le paysage de l’IA de manière responsable, éthique et efficace. Ces principes, éclairés par des considérations éthiques, la conformité juridique et un engagement en faveur de la transparence et de la responsabilité, les guideront pour exploiter les avantages de l’IA tout en atténuant les risques associés, ce qui, au final, favorisera la confiance et la réussite dans un avenir axé sur l’IA. 
 

La gouvernance basée sur la valeur de l’IA

Alors que les organisations explorent plus en profondeur le domaine de l’IA, le développement et la mise en œuvre de programmes de gouvernance de l’IA alignés sur leurs valeurs sont essentiels. Les cadres de référence pour la gouvernance doivent non seulement garantir la conformité aux normes juridiques, mais également refléter les engagements éthiques et les valeurs des organisations.

Qu’il s’agisse de faire des compromis difficiles entre transparence et sécurité ou de décider de l’utilisation éthique des données, une approche de la gouvernance de l’IA axée sur les valeurs fournit une boussole fiable pour guider les organisations dans le contexte complexe des applications d’IA et de l’éthique.
 

Dernières réflexions et conseils sur la gouvernance de l’IA 

IA, RGPD et protection de la vie privée 

Lorsque l’on prend en compte l’interaction entre l’IA, le projet de règlement de l’UE sur l’IA et le RGPD, il est important de tenir compte des lignes directrices existantes sur l’utilisation de l’IA conformément au RGPD. Les ressources remarquables comprennent la boîte à outils fournie par l’Information Commissioner’s Office (ICO) du Royaume-Uni et les lignes directrices complètes et le guide d’auto-évaluation proposés par la CNIL française. Ces outils fournissent des moyens de contrôle et des check-lists précieux qui aident les organisations à assurer la conformité de leur utilisation de l’IA par rapport aux exigences du RGPD.

Un point de départ pour aligner l’utilisation des données dans les cadres de référence de l’IA sur les principes du RGPD consiste à mener des analyses d’impact sur la protection des données (AIPD) diligentes pour s’assurer que tous ces processus sont conformes.

Point de départ pour la gouvernance de l’IA : les professionnels de la protection de la vie privée sont bien positionnés pour orchestrer les opérations car ils sont au carrefour de différentes fonctions et possèdent des compétences diverses dans les organisations, de qui leur permet de traiter la gouvernance de l’IA de manière exhaustive. Cette approche collaborative garantit non seulement la conformité, mais fonctionne également comme un catalyseur commercial, favorisant une approche proactive et éclairée des défis et des opportunités émergents dans le paysage de l’IA.

Aborder l’IA avec sérénité : adoptez les développements technologiques avec calme et curiosité. Pour s'engager dans le domaine de l'IA, qui évolue rapidement et continuellement, il faut être prêt à apprendre et à s'adapter, en reconnaissant que la compréhension et la prise en compte des risques et des potentiels de l'IA est un voyage plutôt qu'une destination.

Évolution des rôles professionnels : avec les changements continus dans la technologie et le traitement des données, le rôle des délégués à la protection des données évolue, passant potentiellement à celui de « délégués à la confiance dans les données ». Il est impératif que les professionnels sur le terrain soient ouverts à de nouveaux rôles et responsabilités qui s’alignent sur les transformations technologiques et réglementaires.

 

Un plan en 5 étapes pour que votre organisation se lance : 

  1. Impliquez-vous immédiatement dans les programmes de gouvernance de l’IA ; un engagement proactif est crucial.

  2. Sécurisez l’adhésion de la direction, car la gouvernance de l’IA nécessite une approche multipartite à l’échelle de l’entreprise.

  3. Constituez une équipe diversifiée et compétente, qui comprend des experts juridiques, de la conformité, de la science des données, des RH, de la sécurité de l’information et éventuellement des experts externes.

  4. Hiérarchisez, fixez des objectifs réalistes et atteignables et envisagez d’adopter une approche de la gouvernance de l’IA par phases. 

  5. Tenez-vous au courant des développements de l’IA, interagissez activement avec vos pairs du secteur et participez à des initiatives de gouvernance de l’IA pour favoriser une communauté collaborative et informée. 

Avec l’évolution du contexte de l’IA, les organisations doivent s’engager de manière proactive dans la gouvernance de l’IA. Une approche collaborative et multipartite est nécessaire pour répondre aux défis et opportunités complexes présentés par l’IA.

 

Pour en savoir plus sur la manière dont la gouvernance de l’IA peut aider votre organisation, demandez une démonstration dès aujourd’hui.


Autres ressources pertinentes

Livre blanc

AI Governance

Règlement de l’UE sur l’IA : un guide pour la mise en œuvre avec OneTrust

Prêt à naviguer dans les complexités du règlement de l’UE sur l’IA ? Découvrez comment les spécialistes de la protection de la vie privée et de la sécurité défendent la conformité d’une IA responsable avec OneTrust.

avril 16, 2025

En savoir plus

Webinaire

AI Governance

IA Act : quelle solution pour une bonne gouvernance et maîtrise des risques ?

Un webinar exclusif pour explorer les implications de la loi européenne sur l'IA et découvrir la solution AI Governance. 

mars 19, 2024

En savoir plus

eBook

AI Governance

Un guide à destination des fournisseurs et des déployeurs d'IA

Ce playbook contient toutes les informations dont vous avez besoin pour comprendre vos obligations en matière d'intelligence artificielle (IA).

mars 12, 2024

En savoir plus

Blog

AI Governance

Comprendre les niveaux de risque de l'IA Act

Le projet de loi de l'UE sur l'IA définit quatre catégories de risques pour l'utilisation des systèmes d'IA. Découvrez chacune de ces catégories et l'impact qu'elles peuvent avoir sur l'utilisation de l'IA dans votre entreprise.

mars 01, 2024 5 min de lecture

En savoir plus

Blog

AI Governance

Ce que le Code de conduite du G7 signifie pour votre entreprise

Les systèmes d’IA avancés deviennent monnaie courante, annonçant des avancées potentielles et, à l’inverse, des risques. Reconnaissant l’immense impact de l’IA, le Code du G7 est le dernier d’une série de développements récents et à venir concernant les orientations autour de l’IA.  

janvier 04, 2024

En savoir plus