Dieser Text wurde automatisch übersetzt und kann daher vom Original abweichen. Aus dieser Übersetzung können keine Rechte abgeleitet werden.
Das Impact Assessment für Menschenrechte und Algorithmen („IAMA“) ist ein Instrument für Diskussionen und Entscheidungsfindung über den Einsatz von Künstlicher Intelligenz (KI) und anderen Algorithmen. Das IAMA zielt darauf ab, die Auswirkungen des Algorithmus auf Grundrechte einzuschätzen und bietet zudem Raum für die Berücksichtigung anderer relevanter Aspekte des Algorithmus-Einsatzes in einem frühen Stadium und auf strukturierte Weise. Dadurch wird vermieden, dass ein Algorithmus zu früh eingesetzt wird, bevor die Folgen nicht ausreichend geprüft wurden, mit den entsprechenden Risiken wie Unvorsichtigkeit, Ineffektivität oder Verletzung von Grundrechten.
Im Auftrag des Ministeriums des Innern und Königreichsbeziehungen (BZK) hat die Universität Utrecht zusammen mit Dialogic eine neue Version des IAMA entwickelt. Das neue IAMA ist nun unter anderem klar mit der Europäischen KI-Verordnung verbunden und kann dazu genutzt werden, die dortigen Vorschriften hinsichtlich Grundrechte (die sogenannte 'FRIA-Verpflichtung') umzusetzen.


