La Défenseure des droits Claire Hédon appelle à replacer la non-discrimination au cœur du futur règlement de la Commission européenne sur l’intelligence artificielle. Cette nouvelle réglementation européenne vise à régir les systèmes d’intelligence artificielle et a été présentée en avril 2021.
Des personnes discriminées par les algorithmes
La Défenseure des droits insiste sur le droit à la non-discrimination en toutes circonstances et sur l’accès aux droits garanti pour tous. Elle s’appuie sur plusieurs éléments afin de dénoncer la discrimination dont elle estime que certaines personnes ont déjà été victimes de la part des algorithmes. La Défenseure évoque le recrutement, et parle de biais sexistes repérés dans plusieurs algorithmes utilisés pour trier des CV. Elle cite le fait qu’ils tendaient à écarter systématiquement les candidatures de femmes.
Des algorithmes ont concentré les contrôles sur certaines personnes en raison de leur lieu de résidence et de leur situation de famille
La Défenseure des droits considère qu’il y a un risque d’automatisation des discriminations. « Les avancées permises par ces technologies [d’intelligence artificielle] ne sauraient s’effectuer au détriment d’une partie de la population, ni au prix d’une surveillance généralisée » alerte-t-elle. Elle rappelle les rapports émis sur ces sujets par le Défenseur des droits, Algorithmes : prévenir l’automatisation des discriminations de 2020 et Technologies biométriques : l’impératif respect des droits fondamentaux de 2021.
Un avis conçu avec Equinet, réseau européen des organismes de promotion de l’égalité
Pour sa part, la Défenseure des droits publie aujourd’hui un avis intitulé « Pour une IA européenne protectrice et garante du principe de non-discrimination » réalisé conjointement avec Equinet, le réseau européen des organismes de promotion de l’égalité, dont elle est membre. Les recommandations de cet avis soulignent la priorité de lutter contre les discriminations algorithmiques et de faire appel aux organismes de promotion de l’égalité européens dans ce cadre.
Des mécanismes de plainte doivent être mis en place pour les personnes dans tous les pays européens
Tous les concepteurs et utilisateurs d’intelligence artificielle doivent aussi se voir assigner des obligations d’égalité contraignantes. La Défenseure des droits demande que les nouvelles autorités de surveillance nationales des systèmes d’intelligence artificielle, consultent les organismes de promotion de l’égalité et les institutions compétentes en matière de droits fondamentaux.
Des algorithmes porteurs de risques pour les droits fondamentaux
La Défenseure des droits souligne enfin que les outils numériques reposent souvent sur des algorithmes sans que le grand public en soit toujours conscient ou informé. Ces algorithmes sont employés dans des domaines tels que l’accès aux prestations sociales, la police, la justice ou les ressources humaines. « Ces algorithmes de plus en plus sophistiqués constituent des sources de progrès, mais sont également porteurs de risques pour les droits fondamentaux » prévient la Défenseure des droits.
Que fait l’equinet assurer en Europe l’ iségoria ( égalité de droit à la parole dans le débat public) ?