Denne teksten er automatisk oversatt og kan derfor avvike fra originalen. Ingen rettigheter kan utledes fra denne oversettelsen.
Vurdering av menneskerettigheter og algoritmer (IAMA) er et verktøy for diskusjon og beslutningstaking om bruken av kunstig intelligens (AI) og andre algoritmer. IAMA fokuserer på å vurdere algoritmens innvirkning på grunnleggende rettigheter og gir rom for å ta opp andre relevante problemstillinger knyttet til bruken av algoritmen på et tidlig tidspunkt og på en strukturert måte. Dette bidrar til å forhindre at en algoritme blir brukt for raskt uten at konsekvensene er grundig vurdert, med tilhørende risikoer som uaktsomhet, ineffektivitet eller brudd på grunnleggende rettigheter.
På oppdrag fra Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) utviklet Universiteit Utrecht sammen med Dialogic en ny versjon av IAMA. Den nye IAMA er nå tydelig knyttet til den europeiske AI-forordningen og kan brukes til å oppfylle de forpliktelsene for grunnleggende rettigheter som forordningen stiller (den såkalte 'FRIA-forpliktelsen').


