L'Union Européenne, après avoir réglementé la protection des données personnelles avec le RGPD, s'attaque désormais à la régulation de l'intelligence artificielle avec l'AI Act. Lors d'un webinaire récent, des experts ont discuté des impacts et des opportunités offerts par ce nouveau cadre juridique, notamment pour les DPO, les CTO, et les dirigeants d'entreprises qui doivent naviguer dans ce nouveau paysage de conformité. Cet article reprend les points essentiels de ce webinaire, afin de vous offrir une vue complète et accessible des enjeux de l'AI Act.
Avec l'adoption du RGPD, l'Union Européenne s'est positionnée comme un acteur clé de la réglementation numérique – un "géant de la régulation", selon l'un des intervenants. L'AI Act poursuit cette dynamique en proposant un cadre pour l'utilisation éthique et sécurisée de l'intelligence artificielle. Comme le souligne Julie, experte RGPD présente lors du webinaire : « Avec l'AI Act, l'UE montre sa volonté de maintenir une longueur d'avance sur les questions éthiques et la responsabilité dans le numérique ».
Les experts ont mis en avant les parallèles entre le RGPD et l'AI Act. Comme le rappelle Edouard, cofondateur de Leto : « L'AI Act s'inspire directement des leçons tirées du RGPD. En offrant un cadre clair, l'UE espère à nouveau établir une norme mondiale, cette fois-ci pour l'IA ». L'objectif est non seulement de protéger les citoyens, mais aussi de créer un climat de confiance pour le développement des technologies d'IA.
L'AI Act propose une classification des systèmes d'IA en fonction de leur niveau de risque : faible, moyen, élevé et inacceptable. Les systèmes d'IA à risque inacceptable, comme les outils de surveillance de masse ou d'évaluation sociale, seront purement interdits. Julie précise : « La classification permet de cibler les systèmes les plus critiques, tout en laissant de la liberté d'innovation pour les applications à faible risque ».
Chaque niveau de risque implique des obligations spécifiques. Les systèmes à risque élevé devront être soumis à des audits, une documentation rigoureuse et une transparence sur leur fonctionnement. Edouard mentionne la difficulté technique de ces audits : « Pour certains modèles d'IA, comme ceux basés sur le deep learning, il est très difficile d'expliquer les décisions. L'AI Act nous pousse à trouver des moyens de rendre ces systèmes plus compréhensibles ».
Les DPO devront élargir leur champ d'action pour inclure la conformité des systèmes d'IA. Cela implique de nouveaux défis, notamment en termes d'évaluation des risques et de collaboration avec les équipes techniques. Julie explique : « Le rôle du DPO évolue. Il ne s'agit plus seulement de protéger les données, mais de garantir que l'utilisation de l'IA reste éthique et conforme à la loi ».
Les CTO et les dirigeants devront également s'assurer que les systèmes d'IA développés ou achetés sont conformes aux exigences de l'AI Act. Cela inclut la sélection des fournisseurs, la transparence des processus et la possibilité d'auditer les systèmes. Edouard souligne : « Les entreprises devront être très attentives aux choix des fournisseurs d'IA. La conformité ne concerne pas uniquement les systèmes internes, mais aussi ceux fournis par des tiers ».
Bien que l'AI Act puisse sembler contraignant, il offre également des opportunités. Les intervenants ont discuté de la possibilité de transformer la conformité en un atout. « Être conforme à l'AI Act, c'est aussi montrer à ses clients et partenaires que l'on prend au sérieux la question de l'éthique et de la transparence. C'est un vrai avantage compétitif », affirme Julie.
Un des défis majeurs mentionnés par les intervenants est la difficulté d'évaluer les risques liés à certains systèmes d'IA, notamment ceux basés sur l'apprentissage automatique. Julie explique : « Comment évaluer le risque d'un système dont on ne comprend pas toujours les décisions ? C'est là que les audits et la documentation prennent toute leur importance ».
L'AI Act impose également des obligations aux fournisseurs et sous-traitants. Les entreprises devront s'assurer que leurs partenaires respectent également les normes de transparence et de documentation. Edouard rappelle : « Pour les entreprises, cela signifie plus de rigueur dans le choix de leurs partenaires technologiques ».
Les intervenants ont rappelé que de nombreuses pratiques encadrées par l'AI Act sont déjà en place dans certaines entreprises. « L'IA est déjà en partie régulée par le RGPD, notamment pour ce qui concerne la protection des données », explique Julie. Des entreprises comme Leto ont déjà commencé à mettre en place des mesures pour garantir la conformité de leurs systèmes d'IA.
Enfin, les experts ont discuté des impacts futurs de l'AI Act. « L'IA Act est un outil pour préparer l'avenir. Les entreprises qui s'y préparent dès maintenant auront un avantage considérable », précise Edouard. Il est essentiel d'adopter une approche proactive pour intégrer les exigences de l'AI Act dans sa stratégie dès aujourd'hui.
L'AI Act représente une étape supplémentaire pour faire de l'Union Européenne un acteur central de la réglementation numérique. Pour les entreprises, cela signifie à la fois des défis et des opportunités : garantir la conformité de leurs systèmes d'IA tout en transformant cette conformité en un atout éthique et compétitif. Comme le rappelle Julie : « Se préparer maintenant, c'est investir dans une IA éthique et transparente, pour le bénéfice de tous ».