25/5/2022

Desarrollo de Evaluación de Impacto sobre Derechos Humanos y Algoritmos.

Este texto ha sido traducido automáticamente y por lo tanto puede diferir del original. No se pueden derivar derechos de esta traducción.

💬 Click here to read this page in English.

Los algoritmos pueden contribuir a nuestra sociedad y nuestros valores comunes, pero es esencial que desarrollemos e implementemos algoritmos de manera responsable. El año pasado, en colaboración con la Universidad de Utrecht, hemos desarrollado el 'Impact Assessment Human Rights & Algorithms (IAMA)' que puede ayudar a las organizaciones (públicas) en este sentido. El instrumento IAMA ayuda a las organizaciones a reflexionar sobre el papel de los algoritmos y a desarrollar e implementarlos de manera responsable. También está creciendo el apoyo político y gubernamental para institucionalizar la deliberación necesaria y deseada. En la primavera de 2022, se aprobó una moción en la Segunda Cámara que obliga a las autoridades a utilizar un IAMA. A nivel europeo, también se está desarrollando legislación en el campo de la Inteligencia Artificial (IA). En el futuro, llevar a cabo una evaluación de impacto adecuada de los algoritmos (con cierto perfil de riesgo) posiblemente también sea obligatorio para las empresas.