Diskriminierende KI? Risiken algorithmischer Entscheidungen in der Personalauswahl

Algorithmische Systeme in der Personalauswahl sollen eine möglichst effiziente, sichere und vorurteilsfreie Auswahl geeigneter Bewerber*innen ermöglichen. Entsprechende Softwareprodukte kommen auch in Deutschland zunehmend auf den Markt. Die Praxis zeigt jedoch, dass sie erhebliche Diskriminierungsrisiken bergen. Die aktuell zur Verfügung stehenden rechtlichen Mittel decken diese Risiken noch nicht ausreichend ab. Im Rahmen des Gutachtens zum Dritten Gleichstellungsbericht der Bundesregierung werden deshalb konkrete Vorschläge für die Überarbeitung der DSGVO und des AGG gemacht.

Auch das Forschungsprojekt „ExamAI – KI Testing & Auditing“ (GI, TU Kaiserslautern, Uni Saarland, Fraunhofer IESE, SNV) beschäftigt sich mit der Frage, welche rechtlichen Erfordernisse der Einsatz von KI im Arbeitsbereich mit sich bringt. Gemeinsam mit unseren Gästen aus der Forschung möchten wir daher diskutieren, welche rechtlichen Leerstellen es im Hinblick auf den Einsatz algorithmischer Entscheidungssysteme gibt, wie Diskriminierung rechtlich erfasst werden kann und wie der Einsatz algorithmischer Systeme in der Personalauswahl reguliert werden sollte.

Um unsere Webseite für Sie optimal zu gestalten und fortlaufend verbessern zu können, verwenden wir Cookies. Durch die weitere Nutzung der Webseite stimmen Sie der Verwendung von Cookies zu. Weitere Infomationen zu Cookies erhalten Sie in unserer Datenschutzerklärung.