https://www.faz.net/aktuell/rhein-main/frankfurt/schlecht-trainierte-kuenstliche-intelligenz-kann-verbraucher-benachteiligen-17366970.html

Leibniz-Studie : Wenn der Computer Frauen den Kredit verweigert

  • Aktualisiert am

Vertrauensfrage: Bei der Einschätzung der Kreditwürdigkeit lassen sich Banken inzwischen oft vom Computer helfen. Bild: Picture-Alliance

Künstliche Intelligenz wird auch in der Finanzbranche eingesetzt - etwa, um Kreditrisiken zu ermitteln. Entscheide die Software aufgrund schlechter Daten, könne das unerwünschte Folgen haben, warnen Frankfurter Forscher.

          1 Min.

          Durch schlecht trainierte Künstliche Intelligenz in der Finanzbranche können bestimmte Verbrauchergruppen benachteiligt werden – zum Beispiel bei der Kreditvergabe. Davor warnt das Frankfurter Leibniz-Institut für Finanzmarktforschung. Die Wissenschaftler stützen sich dabei auf Daten, die zwischen 2016 und 2019 im Verlauf von Experimenten mit mehr als 3600 Teilnehmern gewonnen wurden.

          Banken nutzen Künstliche Intelligenz, um im Tagesgeschäft schneller Entscheidungen zu treffen oder Mitarbeiter bei der Risikominimierung zu unterstützen. Was die lernenden Computerprogramme empfehlen, hängt davon ab, mit welchen Datensätzen sie trainiert wurden. Enthalten diese zu wenige Informationen etwa über Frauen, kann das nach Ansicht der Forscher dazu führen, dass weiblichen Kunden eine geringere Kreditwürdigkeit attestiert werde. Das Problem lasse sich lösen, indem die Software über kontinuierliche Feedback-Schleifen mit repräsentativen Daten gefüttert werde.

          Testen Sie unser Angebot.
          Jetzt weiterlesen.
          Testen Sie unsere Angebote.
          F.A.Z. PLUS:

            FAZ.NET komplett

          Diese und viele weitere Artikel lesen Sie mit F+