https://www.faz.net/-gqz-9105r

Künstliche Intelligenz : Denn wir wissen nicht, wie sie’s tun

Trainiert werden diese Netzwerke anhand von Trainingsdaten, bei denen der Output des Netzwerks mit bekanntem Output verglichen werden kann: Wenn beispielsweise Tiere auf Bildern erkannt werden sollen, kann anhand der Trainingsdaten geprüft werden, welche Erfolgsquote der Algorithmus tatsächlich besitzt, Pferdebilder in dieselbe Outputklasse „Pferd“ einzuordnen. Falls nicht, passt der Algorithmus sich entsprechend an, um seine Performance zu verbessern. Die entscheidende Idee beim „Deep Learning“ ist nun, den Einfluss des Menschen im Lernprozess möglichst gering zu halten: Im Rahmen des Vielebenen-Aufbaus bestimmt der Computer selbst, wie die Inputdaten in immer abstrakteren Konzepten am besten repräsentiert werden können. Der Lernalgorithmus entdeckt alle Strukturen, die notwendig sind, um die Daten zu klassifizieren, ohne menschliche Hilfe eigenständig auf der Grundlage von Big Data – oder sollte dies zumindest. In den vergangenen Jahren ist das Bewusstsein gewachsen, dass es tatsächlich doch auch gut ist, den tiefen neuronalen Netzwerken über die Trainingschecks hinaus etwas genauer in ihr verborgenes Handwerk zu blicken. Während das Netzwerktraining lediglich sicherstellt, dass der intelligente Algorithmus Inputdaten richtig zuordnet, kann es nämlich durchaus wichtig sein, herauszufinden, wie und warum das Netzwerk tut, was es tut. Eine solche Erklärung algorithmischer Entscheidungen fragt also gezielt danach, was für den Computer die Kriterien dafür waren, einen Input einem bestimmten Output zuzuordnen: Was war der Grund, dieses Bild als ein Pferdebild zu klassifizieren?

Trotz ähnlicher Performance sehr unterschiedlich abgeschnitten

Um derartige Fragen beantworten zu können, mussten Wissenschaftler neue mathematische Verfahren entwickeln, da die nichtlinearen Transformationen, die von den künstlichen neuronalen Netzwerken angestellt werden, wenig transparent und schwer zu interpretieren sind. Das Problem der „Black Boxes“, der undurchsichtigen Computeralgorithmen, beschäftigt die Forscher intensiv. Mittlerweile existieren verschiedene Methoden, um diejenigen Eigenschaften der Inputdaten hervorheben zu können, die für die Entscheidung des Algorithmus jeweils ausschlaggebend waren. Derartige Analysen fördern interessante Ergebnisse zutage. So untersuchten beispielsweise Wissenschaftler des Fraunhofer Instituts, der Universität Singapur und der TU Berlin um Sebastian Lapuschkin die Ergebnisse zweier verschiedener Algorithmen zur Bildklassifikation, die beide trotz verschiedener zugrundeliegender Methoden in Bezug auf die Richtigkeit ihrer Bildsortierung eine ähnliche Genauigkeit erreichten: Der erste Algorithmus beruhte auf einem tiefen neuronalen Netzwerk, während der zweite eine andere Methode des Maschinenlernens nutzte.

Erst als die Forscher sich die Hintergründe der Klassifikation genauer ansahen, kam heraus, dass beide Algorithmen sehr verschiedene Strategien entwickelt hatten. Während der Netzwerk-Algorithmus sich tatsächlich an Konturen im Bild orientierte, um Pferdebilder zu identifizieren, orientierte der andere sich an einer kleinen Schrift, die ausschließlich in Pferdebildern auftauchte und dort das Copyright der Bilder angab. Der zweite Algorithmus hatte zwar richtig erkannt, dass sich im Testsample Pferdebilder durch dieses Copyright-Zeichen auszeichneten. Dass diese Eigenschaft der Bilder aber nichts mit Pferden zu tun hatte, konnte der Algorithmus nicht bemerken. Bei einer Anwendung auf beliebige Pferdebilder hätten beide Algorithmen daher trotz ähnlicher Performance im Test sehr unterschiedlich abgeschnitten.

Weitere Themen

Topmeldungen

Newsletter

Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.