20/02/2026

Valutazione di impatto sui Diritti Umani e sugli Algoritmi (IAMA)

Questo testo è stato tradotto automaticamente e quindi può differire dall'originale. Nessun diritto può derivare da questa traduzione.

💬 Click here to read this page in English.

L'Impact Assessment Mensenrechten en Algoritmes ('IAMA') è uno strumento per la discussione e la presa di decisioni riguardanti l'uso dell'intelligenza artificiale (AI) e altri algoritmi. L'IAMA mira a valutare l'impatto dell'algoritmo sui diritti fondamentali e fornisce inoltre spazio per considerare altri punti rilevanti sull'uso dell'algoritmo, in una fase precoce e in modo strutturato. Ciò serve a evitare che un algoritmo venga adottato troppo velocemente senza che ne siano state valutate adeguatamente le conseguenze, con i rischi associati quali la negligenza, l'inefficacia o la violazione dei diritti fondamentali. Su incarico del Ministero degli Interni e delle Relazioni del Regno dei Paesi Bassi (BZK), l'Università di Utrecht ha sviluppato insieme a Dialogic una nuova versione dell'IAMA. Il nuovo IAMA è ora chiaramente collegato al Regolamento europeo sull'AI, e può essere utilizzato per adempiere agli obblighi che tale regolamento impone in materia di diritti fondamentali (il cosiddetto 'obbligo FRIA').