La Commission européenne a désigné les 17 premières très grandes plateformes en ligne et 2 très grands moteurs de recherche en ligne, comptant au moins 45 millions d’utilisateurs actifs chacun par mois en Europe, qui devront respecter le Digital Service Act (DSA) au 25 août 2023.
Encadrement des contenus et des algorithmes des plateformes
Ce règlement européen sur les services numériques encadre les contenus publiés sur les réseaux sociaux, l’usage des données des internautes, les algorithmes employés et la protection des mineurs. Dans la liste des 19 plateformes, Google est champion toutes catégories en étant présent via 4 services, son moteur de recherche Google Search, Google Play, Google Maps et Google Shopping ainsi que par sa plateforme vidéos YouTube.
Les très grandes plateformes visées sont majoritairement américaines
À la suite de leur désignation, les entreprises doivent se conformer, dans un délai de 4 mois, à l’ensemble des nouvelles obligations découlant du DSA. Celles-ci visent à autonomiser et à protéger les utilisateurs en ligne, y compris les mineurs, en exigeant que les services désignés évaluent et atténuent leurs risques systémiques et qu’ils fournissent des outils permettant une modération efficace des contenus.
Les internautes doivent pouvoir se soustraire aux systèmes de recommandation
Les utilisateurs devront être informés clairement des raisons pour lesquelles certaines informations leur sont recommandées et ils auront le droit de se soustraire aux systèmes de recommandations fondés sur le profilage. Les utilisateurs doivent pouvoir signaler facilement les contenus illicites et les plateformes devront traiter rapidement ces signalements.
L’origine ethnique, les opinions politiques ou l’orientation sexuelle ne devront pas servir à sélectionner les publicités
Les plateformes devront assurer un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs. Les publicités fondées sur un profilage s’adressant aux enfants ne sont plus autorisées. Les plateformes devront mener des évaluations spéciales des risques, portant notamment sur les effets négatifs sur la santé mentale, dont les résultats devront être fournis à la Commission européenne 4 mois après la désignation et rendues publiques au plus tard un an plus tard.
Répondre aux enjeux des contenus illicites et de la liberté d’expression
Les plateformes devront revoir la conception de leurs services, y compris leurs interfaces, systèmes de recommandations et conditions d’utilisation, afin d’atténuer ces risques. Les plateformes et les moteurs de recherche doivent prendre des mesures pour traiter les risques liés à la diffusion de contenus illicites en ligne et les effets négatifs sur la liberté d’expression et d’information.
Les plateformes doivent soumettre à un audit externe leurs mesures pour respecter le DSA
Les plateformes devront permettre aux chercheurs d’accéder aux données publiquement accessibles. Par la suite, un mécanisme spécial sera mis en place pour les chercheurs agréés. Les plateformes devront rendre public le registre de toutes les publicités présentées sur leur interface. Elles doivent publier des rapports de transparence sur les décisions de modération des contenus et la gestion des risques.
Une architecture de surveillance paneuropéenne
Le DSA sera mis en œuvre au moyen d’une architecture de surveillance paneuropéenne. La Commission européenne est l’autorité compétente pour surveiller les plateformes et les moteurs de recherche désignés, mais elle travaillera en étroite coopération avec les coordinateurs pour les services numériques.
Le 17 février 2024, toutes les autres plateformes doivent se conformer aux obligations qui leur incombent au titre du DSA
La Commission européenne renforce également son expertise. Elle a lancé le Centre européen pour la transparence des algorithmes. Ce dernier contribuera à déterminer si le fonctionnement des systèmes algorithmiques est conforme aux obligations en matière de gestion des risques. La Commission européenne met également en place un écosystème numérique de contrôle de l’application de la législation, qui rassemble l’expertise de tous les secteurs concernés.
Analyse de ce que les internautes voient selon les plateformes
Les chercheurs agréés auront la possibilité d’accéder aux données de toute très grande plateforme en ligne ou de tout très grand moteur de recherche en ligne afin de mener des recherches sur les risques systémiques dans l’Union Européenne. En ayant accès à des données qui n’étaient pas divulguées précédemment, ils pourraient par exemple analyser les décisions des plateformes déterminant ce que voient leurs utilisateurs et les interactions que ceux-ci ont en ligne.