25.5.2022

Utvikling av konsekvensvurdering for menneskerettigheter og algoritmer

Denne teksten er automatisk oversatt og kan derfor avvike fra originalen. Ingen rettigheter kan utledes fra denne oversettelsen.

💬 Click here to read this page in English.

Algoritmer kan bidra til samfunnet vårt og våre felles verdier, men det er avgjørende at vi utvikler og bruker algoritmene på en ansvarlig måte. I løpet av det siste året har vi sammen med Universitetet i Utrecht utviklet verktøyet 'Impact Assessment Menneskerettigheter & Algoritmer (IAMA)' som kan hjelpe (offentlige) organisasjoner med dette. IAMA-verktøyet hjelper organisasjoner med å nøye vurdere rollen til algoritmer og å utvikle og bruke dem på en ansvarlig måte. Det er også økende politisk og administrativ støtte for å institutionalisere nødvendig og ønsket deliberasjon. På våren 2022 ble en motivering vedtatt i den nederlandske nasjonalforsamlingen som gjør bruk av IAMA obligatorisk for myndigheter. På europeisk nivå utvikles det også lover innen Kunstig intelligens (AI). Å gjennomføre en tilstrekkelig vurdering av algoritmer (med en bestemt risikoprofil) kan også i fremtiden bli obligatorisk for selskaper.