https://www.faz.net/aktuell/karriere-hochschule/buero-co/ki-im-bewerbungsprozess-und-raus-bist-du-17471117.html

KI im Bewerbungsprozess : Und raus bist du!

  • -Aktualisiert am

Bild: action press

Künstliche Intelligenz soll die Auswahl von Bewerbern gerechter machen. Mitunter aber wird sie zum Instrument von Diskriminierung.

          3 Min.

          Lebensläufe automatisiert analysieren, Körpersprache und Gesichtsausdruck im Bewerbungsgespräch bewerten – das alles können Algorithmen längst. Immer häufiger wird deshalb Künstliche Intelligenz (KI) im Personalwesen eingesetzt. Sie hat im Bewerbermanagement das Potential, viel Arbeit zu sparen, Menschen fairer zu beurteilen und so für mehr Diversität zur sorgen, sagen ihre Befürworter. Aber auch Gefahren drohen: Immer wieder machten Softwareprogramme Schlagzeilen, die aufgrund der Bewertung durch Algorithmen Menschen diskriminieren. Bei einem Testlauf einer Software für Karrierechancen des österreichischen Arbeitsmarktservices etwa wurden Frauen allein aufgrund ihres Geschlechts weniger Chancen zugerechnet. Grund dafür war unter anderem, dass sie aufgrund von Fürsorgezeiten mehr Lücken im Lebenslauf hatten. Andere Programme agierten rassistisch oder erkannten die Gesichter von schwarzen Menschen erst gar nicht. Statt zu mehr Diversität beizutragen, verstärken Programme Diskriminierungsmuster.

          Das muss nicht sein. Wichtig sei, was KI leisten kann und was nicht, sagt die Juristin Victoria Guijarro Santos von Netzforma, einem Verein für feministische Netzpolitik. „Diskriminierung durch KI kommt nicht aus dem Nichts“, sagt sie. Urteile durch Algorithmen seien nicht objektiv, sondern die Folge von Entscheidungen der Entwickler. Außerdem mache auch KI Fehler. Häufig würden Anwendungen schon genutzt, wenn sie zu 85 Prozent akkurat sind. Das heißt, dass bis zu 15 Prozent der Entscheidungen falsch sind. „Auch eine Künstliche Intelligenz kann nur begrenztes Wissen abbilden“, sagt sie.

          „In manchen Situationen sollten die Programme menschliche Entscheider hinzurufen“

          Jessica Heesen ist überzeugt, dass das auch anders geht. Sie ist Medienethikerin an der Universität Tübingen und forscht im Projekt „Plattform Lernende Systeme“ zu ethischen Fragen rund um Künstliche Intelligenz. Damit KI nicht diskriminiert, muss sie aus ihrer Sicht verantwortungsvoll entwickelt und eingesetzt werden – und das birgt einige Hürden. Die erste liegt laut Heesen in den Datensätzen, mit denen KI trainiert wird. Nicht immer sind darin Minderheiten repräsentiert, manchmal ist schon die Beschriftung der Daten rassistisch oder sexistisch. Außerdem sei Transparenz wichtig, auf welcher Grundlage eine KI Entscheidungen fällt. „Die Algorithmen nehmen Wertungen vor, und die sollten unseren Werten entsprechen.“

          Einer dieser Werte sollte die Gleichbehandlung der Geschlechter sein. Um hier Diskriminierung abzubauen, muss man laut Guijarro Santos zwischen formaler und materieller Gleichheit unterscheiden. Formale Gleichheit ist Gleichheit auf dem Papier, materielle Gleichheit versucht Barrieren abzubauen. Was das Geschlecht betrifft, ist in Deutschland gesetzlich materielle Gleichheit vorgeschrieben, das Grundgesetz „wirkt auf die Beseitigung bestehender Nachteile hin“. Eine Anwendung wie vom Arbeitsmarktservice in Österreich, die Frauen schlechter beurteilt, weil diese gemäß Datenlage in der Vergangenheit seltener erfolgreich waren, würde dem widersprechen. „Solche Anwendungen schaffen es nicht, Frauen individuell im Gegensatz zur Masse zu betrachten“, sagt Guijarro Santos. Anstatt Vorurteile zu überwinden, reproduziere KI so Diskriminierung. „Dieses Problem wird es immer geben, solange wir versuchen, mit Daten aus der Vergangenheit die Zukunft vorherzusagen“, sagt sie.

          Vorstoß der EU

          Wenn eine KI gegen Gesetze verstößt, kann man immerhin rechtliche Schritte einleiten. Victoria Guijarro Santos ist das aber nicht genug: „Es müssen schon davor Maßnahmen getroffen werden“, sagt sie. „Technische Lösungen allein reichen nicht.“ Jessica Heesen findet, dass Unternehmen verpflichtend kennzeichnen sollten, wenn sie KI nutzen. Auch Qualitätsstandards seien wichtig. „In manchen Situationen sollten die Programme menschliche Entscheider hinzurufen“, sagt sie. Die müssten dann aber auch besser in der Arbeitsweise von Algorithmen geschult werden, damit sie in der Lage sind, gegen KI-Entscheidungen zu argumentieren. Außerdem schlägt Heesen eine Zertifizierung vor. Dafür sollten Anwendungen anhand von Kriterien wie Trainingsdatenqualität, Datenschutz, Robustheit gegenüber Angriffen, Transparenz oder Diskriminierungsfreiheit geprüft werden. „Das gäbe mehr Sicherheit für alle“, sagt sie.

          Ein erster Schritt zu einer besseren Regulierung von KI ist für sie ein Vorstoß der EU. Darin werden die meisten Anwendungen für den Arbeitsmarkt als Anwendungen mit „hohem Risiko“ eingestuft. Für diese sollen besonders hohe Anforderungen gelten, unter anderem sollen sie in einem zentralen Register aufgeführt werden. „Das ist auch richtig, denn solche Programme entscheiden unter Umständen über ganze Karrieren“, sagt Heesen. Wenn Qualitätsstandards eingehalten werden, könne KI Diskriminierung abbauen. So könnte man sie nutzen, um viele Frauen oder Menschen mit Migrationshintergrund für bestimmte Positionen vorzuschlagen. Eine Software wie die des österreichischen Arbeitsmarktservices könnte also etwa Lücken im Lebenslauf nicht negativ bewerten, sondern Fürsorgezeiten honorieren.

          Weitere Themen

          Die Gedanken sind nicht mehr frei

          Identitätspolitik : Die Gedanken sind nicht mehr frei

          Die Diskursverbote bestimmten in Amerika nicht mehr nur die Verlage und Hollywood, das gesamte Bildungswesen ist davon durchdrungen: Warum eine solche Identitätspolitik ein Ausverkauf der Phantasie ist. Ein Gastbeitrag des Pen America-Präsidenten.

          Topmeldungen

          Für die Fotografen ziemlich gute Freunde: Frankreichs Präsident Emmanuel Macron und sein amerikanischer Kollege Joe Biden

          Wirtschaftspolitik : Die neue amerikanische Herausforderung

          Europa fühlt sich durch die Inflationsbekämpfung in den USA unter Druck gesetzt. Doch statt einer schuldenfinanzierten Antwort, braucht es eine wirtschaftliche Erneuerung, und zwar ganz besonders in Deutschland.
          Nach dem Mord an Lola trauern Einwohner der Stadt Fouquereuil um die Schülerin.

          Migrationsdebatte in Paris : Die Stimmung kippt nach dem Mord an Lola

          Die Mehrheit der Franzosen spricht sich gegen weitere Zuwanderung aus – auch wegen des Mords an einer Schülerin. Die mutmaßliche Täterin wurde über Jahre nicht abgeschoben. Ein neues Gesetz soll den Missstand beseitigen.
          Bundesinnenministerin Nancy Faeser (SPD) im November

          Faeser über Umsturzpläne : „Abgrund terroristischer Bedrohung“

          Ein Netzwerk von „Reichsbürgern“ und „Querdenkern“ soll einen Staatsstreich geplant haben – darunter ein KSK-Soldat, frühere Soldaten und Polizisten, auch Ärzte und eine frühere AfD-Abgeordnete. Bei einer Razzia wurden 25 Beschuldigte festgenommen.

          Ausschreitungen nach WM-Siegen : Woher kommt die marokkanische Gewalt?

          Marokko zwischen Freude, Jubel, Zerstörung und Terror: Bei der Fußball-WM gelingt ausgerechnet gegen Spanien die große Sensation, doch anschließend wird längst nicht nur gefeiert. Die Ursachen dafür reichen tief.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Die wichtigsten Nachrichten direkt in Ihre Mailbox. Sie können bis zu 5 Newsletter gleichzeitig auswählen Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.