Règlement européen sur l’IA : évaluation de la réaction française

Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies

La France fait la moue face à l’AI Act. Le texte a été annoncé en fanfare par Thierry Breton, Commissaire européen, en décembre 2023. Constantin Pavléas, avocat spécialisé en droit des nouvelles technologies, évalue la suite de la réaction de la France ces dernières sermaines.

Le règlement européen sur l’intelligence artificielle (IA) sera bientôt adopté. L’objectif affiché par les instances européennes est de promouvoir un environnement règlementaire qui favorisera l’épanouissement de l’intelligence artificielle tout en prévenant ses dérives.

Un texte quasi définitif circule depuis la semaine dernière

Cependant, selon la France, ce règlement risque de brider l’innovation des startups européennes. Une alternative plus équilibrée est sans doute possible pour préserver les startups tout en rémunérant les auteurs de contenu. Le texte quasi définitif en version anglaise du règlement européen sur l’IA a circulé la semaine dernière. Il est le résultat d’un compromis âprement négocié entre les gouvernements, après avoir fait l’objet d’un accord politique début décembre.

Le texte soumet les fabricants des modèles d’IA à des obligations de transparence sur les sources utilisées

Entretemps, les groupes de travail ont rédigé les derniers articles. Au grand dam des positions françaises, le texte soumet les fabricants des modèles d’IA à des obligations de transparence sur les sources utilisées pour entraîner les algorithmes. La nouvelle régulation européenne de l’IA va-t-elle trop loin ? Peut-elle entraver la révolution en mouvement de l’intelligence artificielle ? A cette question, les pouvoirs publics français semblent répondre par l’affirmative. 


Le gouvernement français s’inquiète notamment de l’obligation faite aux fabricants de modèles d’IA de « rendre public un résumé suffisamment détaillé » des données utilisées pour entraîner leurs logiciels. Le gouvernement propose que la communication des données soit réservée au futur bureau européen de l’IA, qui agirait comme un tiers de confiance.

Un rôle de tiers de confiance pour le futur bureau européen de l’IA

Ce bureau de l’IA pourrait renseigner les ayants droit inquiets de savoir si leurs contenus ont été utilisés par des IA, mais il ne partagerait pas ces informations avec les entreprises concurrentes. Les organisations professionnelles du cinéma, de la musique, de l’édition ou de l’audiovisuel se sont émues des positions françaises, craignant qu’elles n’affaiblissent la régulation protectrice du droit d’auteur.

La France, l’Allemagne et l’Italie, souhaitent préserver au maximum les marges de manœuvre de leurs entreprises

Tout le monde convient que la nécessaire protection face aux dangers que l’IA fait peser sur les droits des citoyens ne doit ni ralentir ni affaiblir l’innovation. Les grands pays de l’UE, essentiellement la France, l’Allemagne et l’Italie, souhaitent en effet préserver au maximum les marges de manœuvre de leurs entreprises – essentiellement des startups – pour peser sur le marché de l’IA face à la concurrence américaine ou chinoise.



A l’heure où ces startups lèvent des centaines de millions d’euros pour accélérer la conception et la commercialisation de leurs produits, on ne peut courir le risque d’entraver leur développement. 

Une législation sans bureaucratie inutile

C’est dans ce contexte que, quelques semaines avant la décision sur l’IA Act, les ministres concernés de France, d’Italie et d’Allemagne se sont rencontrés et ont insisté sur la nécessité d’instaurer une législation « sans bureaucratie inutile« . Ils ont appelé en particulier à la réduction des charges administratives pour les projets impliquant plusieurs États membres, ainsi qu’à la formation d’un solide écosystème européen de capital-risque « qui permettrait aux entreprises innovantes de recevoir le financement dont elles ont tant besoin« .

La France s’intéresse au seuil à partir duquel les modèles les plus puissants sont considérés comme « systémiques »

Il y a un autre point qui intéresse la  France. Il s’agit du seuil à partir duquel les modèles les plus puissants sont considérés comme « systémiques » et sont soumis à des obligations renforcées d’évaluation et d’atténuation des risques tels que les biais, la désinformation, les erreurs, etc. Le critère de puissance de calcul informatique retenu est de 10 puissance 25 Flops, qui est l’unité de mesure de la rapidité de calcul d’un système informatique. 


Les inquiétudes exprimées par la France quant aux marges de manœuvre de ses entreprises face à des règles contraignantes sont largement partagées par les pays qui souhaitent investir dans l’IA, en Europe notamment mais pas seulement. L’Inde, qui se positionne comme un acteur majeur de l’IA et en fait un accélérateur clé de son développement technologique, exprime le même type de craintes quant aux risques que les géants de l’IA font porter sur sa souveraineté numérique. 

Limiter la divulgation des sources à ceux qui intègrent les modèles d’IA

Une manière de surmonter ce clivage entre la régulation et l’innovation aurait été effectivement de limiter la divulgation des sources aux seuls fournisseurs de systèmes qui intègrent et commercialisent les modèles IA, laissant à ces fournisseurs de systèmes le soin d’obtenir les informations nécessaires auprès de leurs fabricants.

Surtout, on pourrait créer un droit dérivé pour rémunérer les auteurs de contenu dont l’œuvre a été utilisée à des fins d’entraînement des algorithmes, à l’instar du droit voisin institué pour les éditeurs de presse (art 13 de la Directive e-copyright de 2019). Enfin, pour éviter l’écueil d’interminables négociations entre les parties prenantes dans chaque pays de l’Union européenne, le nouveau droit voisin pourrait être rémunéré par un fonds européen d’indemnisation des auteurs de contenu financé par l’industrie. 

Une réaction sur “Règlement européen sur l’IA : évaluation de la réaction française” :

  1. PM

    Il reste fort à parier qu’une analyse comparée de l’´executive order sur l’IA des USA et l’acte IA européen donnera un clair avantage aux entreprises implantées aux US qui pourront aller plus loin dans leurs innovations. Les investisseurs prendront le risque d’investir là où les champs du possible sont les plus vastes. Il est urgent de conduire cette analyse, d’éclairer les décideurs et législateurs afin de corriger le tir. Peut être est il déjà trop tard.

    Répondre

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *