Le réseau européen des institutions nationales des droits de l’homme (ENNHRI) appelle la Commission européenne à garantir des évaluations d’impact sur les droits fondamentaux véritablement efficaces dans le cadre du règlement sur l’intelligence artificielle.

test

Mis à jour le 24 avril 2025

Le règlement sur l’intelligence artificielle. 

Le 12 juillet 2024 est paru au Journal officiel de l'Union européenne le règlement européen sur l’intelligence artificielle. Cette réglementation vise à encadrer le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux.

Le Règlement définit quatre niveaux de risques dont découlent des exigences différentes :

  1. Est interdit tout système d’IA contraire aux valeurs de l’UE et aux droits fondamentaux ;
  2. Sont soumis à de très fortes exigences les systèmes d’IA à haut risque (risque d’atteinte à la sécurité ou aux droits fondamentaux)
  3. Sont soumis à des exigences de transparence spécifiques les systèmes d’IA pour lesquels le risque de manipulation existe ;
  4. Les autres systèmes d’IA ne sont soumis à aucune règle spécifique. 

Le règlement établit en outre une autre catégorie de modèles dits d’usage général, notamment l’IA générative – pour lesquels il impose notamment des obligations de transparence et de documentation et des évaluations d’impact et d’atténuation de risques. 

Bien évaluer les impacts des systèmes d’IA

Les déployeurs de systèmes d’IA, lorsqu’ils sont des personnes publiques, des personnes privées en charge d’un service public ou encore lorsqu’il s’agit d’apprécier la solvabilité des personnes ou de déterminer les risques et les tarifs en matière d’assurance vie et d’assurance maladie, doivent évaluer l’impact de leurs systèmes sur les droits fondamentaux (article 27) - Fundamental Rights Impact Assessments (FRIAs). 

Le réseau européen des INDH (ENNHRI) avait plaidé auprès des institutions européennes pour ajouter ces FRIAs au projet de règlement qui n’en faisait pas mention initialement (Déclaration conjointe ENNHRI/Equinet). Il salue l’obligation pour le nouveau Bureau européen de l’IA (AI Office) de développer un modèle de questionnaire afin d’aider les déployeurs dans leurs démarches. 

Dans une nouvelle déclaration rendue publique début avril 2025, ENNHRI a formulé une série de recommandations : 

Concernant l’élaboration du questionnaire :

  1. Impliquer les parties prenantes, notamment les institutions de défense des droits humains, dans l’élaboration du modèle de questionnaire FRIA.
  2. Publier un guide pratique sur la conduite des FRIAs (qui accompagne le questionnaire), afin de garantir une application cohérente et efficace du règlement.

Concernant la conduite des évaluations d’impact : 

  1. Exiger la participation d’experts en droits humains à chaque étape de l’évaluation
  2. En premier lieu évaluer la nécessité de recourir à l’IA et envisager des alternatives non automatisées si les risques pour les droits sont trop élevés (the « zero question »).
  3. Se référer à la Charte des droits fondamentaux de l’UE, la Convention européenne des droits de l’homme (et à la jurisprudence de la CJUE et de la CEDH) et aux Principes directeurs relatifs aux entreprises et droits de l’Homme des Nations Unies.
  4. Garantir aux publics l’accès aux résultats des FRIAs pour permettre aux personnes affectées par un système d’IA d’exercer leurs droits.
  5. Prendre en compte les impacts sur certains groupes de la population mais aussi sur la société dans son ensemble.
  6. Garantir la consultation/participation continue de toutes les parties prenantes, notamment les experts des droits humains, des personnes les plus vulnérables.
  7. Réaliser des études d’impact tout au long du cycle de vie du système d’IA, et pas uniquement avant sa mise en service.

À voir aussi