Denne tekst er automatisk oversat og kan derfor afvige fra originalen. Der kan ikke drages rettigheder på baggrund af denne oversættelse.
Impactvurderingen af Menneskerettigheder og Algoritmer (”IAMA”) er et værktøj til diskussion og beslutningstagning om brugen af kunstig intelligens (AI) og andre algoritmer. IAMA fokuserer på at vurdere algoritmens indvirkning på grundlæggende rettigheder og giver også plads til at adressere andre relevante bekymringer omkring algoritmens brug på et tidligt tidspunkt og på en struktureret måde. Dette bidrager til at forhindre, at en algoritme implementeres for hurtigt, mens konsekvenserne ikke er tilstrækkeligt undersøgt, med de medfølgende risici for uagtsomhed, ineffektivitet eller krænkelse af grundlæggende rettigheder.
På opfordring af Ministeriet for Indenrigsanliggender og Kongeriger (BZK) udviklede Universitetet i Utrecht i samarbejde med Dialogic en ny version af IAMA. Den nye IAMA er nu tydeligt forbundet med den europæiske AI-forordning og kan bruges til at opfylde de forpligtelser, som forordningen pålægger angående grundlæggende rettigheder (den såkaldte 'FRIA-forpligtelse').


