20/2/2026

Evaluación de Impacto sobre los Derechos Humanos y los Algoritmos (IAMA)

Este texto ha sido traducido automáticamente y por lo tanto puede diferir del original. No se pueden derivar derechos de esta traducción.

💬 Click here to read this page in English.

El Impact Assessment de Derechos Humanos y Algoritmos (IAMA) es una herramienta para la discusión y toma de decisiones sobre el uso de inteligencia artificial (IA) y otros algoritmos. El IAMA se centra en evaluar el impacto del algoritmo en los derechos fundamentales y también brinda espacio para abordar otros temas relevantes relacionados con el uso del algoritmo, en una etapa temprana y de manera estructurada. De esta manera, se evita desplegar un algoritmo demasiado rápido sin haber evaluado adecuadamente las consecuencias, con los riesgos asociados, como la falta de cuidado, la ineficacia o la violación de derechos fundamentales. Por encargo del Ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK), la Universidad de Utrecht junto con Dialogic han desarrollado una nueva versión del IAMA. La nueva versión del IAMA ahora está claramente vinculada, entre otras cosas, al Reglamento de IA de la Unión Europea y se puede utilizar para cumplir con las obligaciones que dicho reglamento establece en relación con los derechos fundamentales (la llamada 'obligación FRIA').