Hierdie teks is outomaties vertaal en kan dus verskil van die oorspronklike. Geen regte kan aan hierdie vertaling ontleen word nie.
Die Impakassessering van Menseregte en Algoritmes ('IAMA') is 'n instrument vir bespreking en besluitneming oor die gebruik van kunsmatige intelligensie (AI) en ander algoritmes. Die IAMA fokus op die assessering van die impak van die algoritme op fundamentele regte en bied ook ruimte vir die aanspreking van ander relevante aandagspunte met betrekking tot die gebruik van die algoritme, in 'n vroeë fase en op 'n gestruktureerde wyse. Hierdeur word voorkom dat 'n algoritme te vinnig ingespan word sonder dat die gevolge daarvan behoorlik deurkyk is, met die gepaardgaande risiko's soos sorgloosheid, oneffektiwiteit of inbreuk op grondregte.
In opdrag van die Ministerie van Binnenlandse Sake en Koninkryksverhoudinge (BZK) het die Universiteit Utrecht saam met Dialogic 'n nuwe weergawe van die IAMA ontwikkel. Die nuwe IAMA is nou onder andere duidelik gekoppel aan die Europese AI-verordening en kan gebruik word om te voldoen aan die verpligtinge wat daardie verordening stel met betrekking tot grondregte (die sogenaamde 'FRIA-verpligting').


