F.A.Z. exklusiv : EU-Kommission will KI in manchen Feldern verbieten
- -Aktualisiert am
Ein Forscher aus Darmstadt kommuniziert mit einem Roboter. Bild: dpa
Wer Menschen mithilfe von Künstlicher Intelligenz manipuliert, um ihnen zu schaden, muss nach den Plänen der EU-Kommission künftig hohe Strafen zahlen. Für andere Felder soll es enge Grenzen geben.
Der Siegeszug der Künstlichen Intelligenz (KI) ist nicht mehr aufzuhalten. Nicht zuletzt die Corona-Krise hat ein Schlaglicht darauf geworfen, wie wertvoll solche selbstlernenden Systeme für die Organisation des Gesundheitssystems sein können. Auch im Kampf gegen den Klimawandel können sie nach Ansicht von Fachleuten eine wichtige Rolle spielen.
Auf der anderen Seite schlägt der Technik Skepsis entgegen. Soll künftig KI darüber entscheiden, wer eine Stelle bekommt? Und was ist mit der automatischen Gesichtserkennung? Zum Öffnen des Mobiltelefons mag diese unproblematisch sein, nicht aber wenn Staaten oder Unternehmen sie einsetzen, um Menschen auf Schritt und Tritt zu überwachen.
Verbot von „Social Scoring“
Die Europäische Kommission will deshalb nun klare Regeln für die Nutzung von KI in sensiblen Feldern aufstellen und einzelne Anwendungen vollständig verbieten. Untersagt werden soll etwa die Nutzung von KI, um das Verhalten, die Meinung oder Entscheidungen von Menschen oder Gruppen direkt zu ihrem Nachteil oder Schaden zu beeinflussen oder um Schwachstellen aufzudecken, die dafür genutzt werden können.
Zudem soll die willkürliche und wahllose Überwachung von Menschen und die Nutzung von KI zum „Social Scoring“ verboten sein. Unter Social Scoring versteht man vereinfacht gesagt Punktwerteverfahren, also den Versuch, soziale Phänomene oder die Eigenschaften von Personen mit Hilfe von Punktwerten zu beschreiben und damit vergleichbar zu machen. Ein Extrembeispiel ist das chinesische System, das die Menschen dort für systemkonformes Verhalten belohnt.
Kommission plant hohe Strafen
Den konkreten Vorschlag dazu will die Kommission Mitte der kommenden Woche offiziell vorstellen. Ein Entwurf für die 81 Seiten lange Verordnung, die unmittelbar in allen Mitgliedstaaten gelten würde, liegt der F.A.Z. vor.
Für Verstöße gegen die Vorgaben sind hohe Strafen vorgesehen. Für Unternehmen sollen die Strafen bis zu 4 Prozent des jährlichen globalen Umsatzes betragen können. Ansonsten ist in dem Entwurf eine Obergrenze von 20 Millionen Euro vorgesehen. Die Beträge stehen allerdings noch in eckigen Klammern. Die Höchststrafen können sich bis Mitte kommender Woche also noch ändern.
Von dem Verbot sollen Ausnahmen möglich sein, aber nur wenn das zur Aufrechterhaltung der öffentlichen Ordnung nötig ist. Dafür soll es klare Regeln geben. Justizkommissar Didier Reynders hatte schon vor einigen Tagen betont, es müsse etwa im Fall von Terroranschlägen zumindest zeitlich befristete Ausnahmen geben.
Deep Fakes sollen erkennbar sein
Hochrisiko-Anwendungen in sensiblen Feldern wiederum sollen bestimmte Mindeststandards erfüllen müssen, um im europäischen Binnenmarkt genutzt werden zu können. Dazu gehört allen voran die Nutzung der Gesichtserkennung im öffentlichen Raum. Zudem zählt dazu etwa die Nutzung von KI für die Beurteilung der Kreditwürdigkeit, die Einstellung oder Beförderung von Arbeitnehmern, den Zugang zu Sozialleistungen oder bei der Verfolgung von Verbrechen.
In all diesen Fällen sollen Menschen die Letztkontrolle über Entscheidungen haben. Außerdem soll etwa sichergestellt sein, dass die Daten, mit denen die KI „gefüttert“ wird, neutral sind. Damit soll verhindert werden, dass bestimmte Gruppen benachteiligt werden.
Die Liste dieser hochriskanten Anwendungen soll regelmäßig überarbeitet werden. Es gehe darum sicherzustellen, dass generell Anwendungen darunter fielen, die gravierende und im Extremfall irreversible Folgen für die Menschen hätten, heißt es in der Kommission.
Bei anderen harmloseren Anwendungen von KI soll zumindest klar sein, wenn Menschen mit einer KI zu tun haben, etwa wenn ihnen in einer Telefon-Hotline ein Chat-Roboter und kein anderer Mensch antwortet. Oder wenn mit Hilfe sogenannter Deep-Fake-Programme Filme oder Bilder manipuliert werden und die Manipulation nicht aus dem Zusammenhang selbst erkennbar ist. Ziel der Vorschläge sei, Vertrauen in die Nutzung von KI und Planungssicherheit für die Wirtschaft herzustellen, heißt es in der Kommission. Nur dann könne die EU deren enormes Potential nutzen.
Kritik an dem Vorschlag kam aus dem Europäischen Parlament. „Der Gesetzentwurf der EU-Kommission ist an entscheidenden Stellen nicht scharf genug. Unter die Hochrisiko-Anwendungen müssen alle KI-Systeme fallen, die menschliches Verhalten, Meinungen und Entscheidungen manipulieren – ohne Einschränkung, ob sie zum Nachteil einzelner Personen ausfallen“, sagte die Europaabgeordnete der Grünen, Alexandra Geese.
Diskriminierungen seien überall immanent, wo Menschen von Maschinen bewertet und verwaltet würden. „Es ist ein Schlag ins Gesicht der Zivilgesellschaft, dass automatische Gesichtserkennungssysteme im öffentlichen Raum nicht abgeschafft werden, obwohl viele darauf drängen“, sagte Geese weiter. Ohne Zustimmung des Parlaments und des Ministerrats kann die Verordnung nicht in Kraft treten.