20/02/2026

Évaluation de l'impact des Droits de l'Homme et des Algorithmes (IAMA)

Ce texte a été traduit automatiquement et peut donc différer de l'original. Aucun droit ne peut être dérivé de cette traduction.

💬 Click here to read this page in English.

L'Impact Assessment Mensenrechten en Algoritmes ('IAMA') est un outil de discussion et de prise de décision concernant l'utilisation de l'intelligence artificielle (IA) et d'autres algorithmes. Le IAMA vise à évaluer l'impact de l'algorithme sur les droits fondamentaux et offre également la possibilité d'aborder d'autres points d'attention pertinents concernant l'utilisation de l'algorithme, de manière précoce et structurée. Cela permet d'éviter qu'un algorithme ne soit déployé trop rapidement sans avoir correctement évalué ses conséquences, avec les risques associés tels que l'insouciance, l'inefficacité ou la violation des droits fondamentaux. À la demande du Ministère de l'Intérieur et des Relations au Royaume (BZK), l'Université d'Utrecht a développé en collaboration avec Dialogic une nouvelle version du IAMA. Ce nouveau IAMA est désormais clairement lié au règlement européen sur l'IA et peut être utilisé pour répondre aux obligations que ce règlement impose en matière de droits fondamentaux (l'obligation dite 'FRIA').