« Encadrement européen de l’IA : une première mondiale à la hauteur ? », par Nicolas Ruscher

Le 21 avril dernier, la Commission européenne a dévoilé un ambitieux projet pour encadrer juridiquement l’intelligence artificielle au sein de l’Union. Ursula Von der Leyen, sa présidente, avait même annoncé vouloir réglementer l’IA “dans les 100 jours” qui suivaient son élection. Même si cette initiative intervient en réalité un an et demi après son entrée en fonction, elle reste une première mondiale. 

Le respect des droits des citoyens en ligne de mire

L’objectif de cette proposition de loi est clair : s’assurer que les dispositifs d’IA déployés sur le territoire européen favorisent le bien-être des individus et le bien commun. En d’autres termes, construire une IA éthique qui ne devienne pas l’instrument d’un contrôle autoritaire des populations. Il n’est pour autant pas question pour les autorités européennes de nier les avantages et le potentiel d’innovation de l’IA. Thierry Breton, commissaire au marché intérieur de l’UE, le résume ainsi : l’IA “offre un immense potentiel mais présente également un certain nombre de risques”. L’UE fait également le pari d’une IA « digne de confiance », en estimant que son développement ne pourra pas se faire sans le consentement éclairé de ses citoyens. Un savant équilibre entre droits de l’homme et course à l’innovation. 

Une approche pyramidale fondée sur le risque

Pour veiller à ce que les systèmes d’IA utilisés dans l’UE soient « sûrs, transparents, éthiques, impartiaux et sous contrôle humain », la Commission a pensé cette proposition de réglementation sur le modèle d’une pyramide comportant 4 typologies de risques : 

Au bas de cette pyramide, on trouve des utilisations minimes de l’IA qui ne nécessitent pas ou peu d’encadrement. Puis viennent celles présentant des risques limités, qui doivent se fixer pour objectif de garantir la transparence aux utilisateurs. Par exemple, l’utilisation des deepfakes ne constitue pas un problème en soi, mais la réalité ou non de la vidéo relayant l’information doit être établie. Enfin, au sommet de la pyramide on retrouve les applications à haut risque de l’IA, capables de créer des sélections d’individus prétendant à une aide, un prêt, un poste ou un domaine d’étude. Dans ce cas de figure, des exigences supplémentaires sont formulées en matière de documentation, de qualité des données utilisées, de performance, de robustesse, de transparence et enfin de cybersécurité. Le principe étant de dire qu’une sélection ne peut se faire sur la base d’un algorithme seul. Un principe de garantie humaine est d’ailleurs introduit, insistant sur l’obligation de la “supervision humaine” (article 114).

Bien sûr, toutes les utilisations portant atteinte aux droits fondamentaux, comme les systèmes de “social scoring”, de reconnaissance faciale, qui se développent fortement en Chine, sont classées comme inacceptables, purement et simplement exclus. Un scénario à la Black Mirror est tout ce que redoute la Commission. Cette future législation sera donc appliquée à toutes les entreprises, européennes ou non, qui agissent à l’intérieur de ses frontières. De fortes amendes, de l’ordre de 30 millions d’euros ou 6% du chiffre d’affaires mondial suivant l’organisation, ont été prévues en cas de non-respect des règles. De quoi dissuader les plus récalcitrants.

Une proposition sous le feu des critiques

Un cadre restrictif à l’usage de l’IA tel qu’envisagé pourrait s’avérer handicapant pour faire face à la concurrence imposée par la Chine et les Etats-Unis, pays qui disposent de législations plus libérales. Un point de vue défendu par les entreprises et les lobbyistes dans le débat européen. La Commission estime de son côté que cette réglementation sera un facteur de développement d’une IA plus respectueuse des droits des citoyens. En outre, des mesures de soutien à l’innovation sont prévues pour garantir la compétitivité des entreprises européennes sur ce sujet. L’objectif politique est de devancer les velléités des Etats membres pour que l’UE fasse corps sur la question, avec une (re)définition des contours de l’IA. 

La Commission trouve dans sa proposition le soutien d’ONG telle qu’Alliance Vita, qui souhaiterait même des dispositions plus contraignantes. L’ONG Civil Liberties Union for Europe argumente ainsi qu’une telle réglementation n’empêchera pas les Etats de procéder à un contrôle biométrique de leur population s’ils le désirent. De l’autre côté, d’autres organismes, comme le Center for Data Innovation, voient une incompatibilité entre la volonté de faire de l’UE un leader dans le domaine de l’IA, et une proposition de loi qui freinera le développement d’une industrie qui n’en est qu’à ses balbutiements. 

Prochainement, celle-ci sera soumise au Parlement européen, où députés, lobbyistes et entreprises viendront jouer leur partition sur le sujet. Parions que de nombreuses modifications seront apportées avant son adoption, qui pourrait bien prendre plusieurs années. Reste à voir si le texte adopté sera à la hauteur des ambitions premières.

Par Nicolas Ruscher, Directeur Conseil chez Antidox