http://www.faz.net/-gqe-8upvt
HERAUSGEGEBEN VON WERNER D'INKA, JÜRGEN KAUBE, BERTHOLD KOHLER, HOLGER STELTZNER
F+ Icon
F.A.Z. PLUS
abonnieren
F.A.Z.-Index -- --
DAX ® -- --
Dow Jones -- --
EUR/USD -- --

Veröffentlicht: 04.03.2017, 22:28 Uhr

Neuronale Netze Wie sich künstliche Intelligenz rechnet

Neuronale Netze krempeln die Analyse großer Datenmengen um. Doch Standards gibt es noch nicht – und an der optimalen Netzwerkarchitektur wird gefeilt. Davon könnten nicht nur große Unternehmen profitieren.

von Rainer Weihofen
© Science Photo Library Natürliches Vorbild: Stark vernetzte Nervenzellen und neuronale Plastizität sind die Basis für das Lernen.

Der Jubel über Künstliche Intelligenz (KI) eilt vielen Entwicklungen in der Realität weit voraus, aber für Forscher ist gerade dieser Umstand faszinierend: „Wir befinden uns noch in der Zeit der großen Entdecker und finden immer wieder neue Gestade“, sagt Andreas Dengel, Wissenschaftlicher Direktor am Deutschen Forschungsinstitut für Künstliche Intelligenz (DFKI) in Kaiserslautern. Dengel leitet den Forschungsbereich Wissensmanagement, der sich mit der Analyse sehr großer Datenmengen befasst.

Das Verfahren, das in Kaiserslautern bei der Datenanalyse zum Einsatz kommt, heißt Deep Learning. Es hat die Entdecker in der Welt der künstlichen Intelligenz in jüngster Zeit weit vorangebracht. Die Vehikel für die Reisen ins Daten-Abenteuer sind künstliche neuronale Netze. Schon in den 1940er Jahren zur Berechnung von Funktionen vorgeschlagen, dümpelten sie viele Jahrzehnte vor sich hin, bis sie jetzt dank leistungsstarker und preiswerter Hardware extrem an Geschwindigkeit zugelegt haben.

Neuronale Plastizität soll nachgeahmt werden

Mit künstlichen neuronalen Netzen versuchen Wissenschaftler die Funktionsweise des Gehirns wenigstens in Ansätzen nachzubilden. Im Wesentlichen haben sie dabei die neuronale Plastizität im Visier. Damit wird die Fähigkeit des Gehirns bezeichnet, Synapsen, Neuronen oder ganze Hirnareale anatomisch zu verändern, wenn Reize ständig wiederholt werden oder besonders intensiv waren. Empfängt ein Neuron einen Reiz, sei es von Sinnesorganen oder von anderen Nervenzellen, leitet es den Reiz weiter, wenn eine gewisse Reizschwelle überschritten wird.

Wiederholen sich die Reize, werden die beteiligten Verbindungen im Gehirn verstärkt und der Lernprozess kommt in Gang. Bleiben die Reize aus, verkümmern sie wieder. Während im Gehirn jedes Neuron prinzipiell mit jedem anderen Neuron verbunden sein kann, sind die Schaltkreise ihrer künstlichen Pendants in Ebenen organisiert. Die künstlichen Neuronen, auch Knoten genannt, einer Ebene geben Signale jeweils an alle Knoten der darüberliegenden Ebene weiter. Software-Algorithmen stellen die Stärke der Verbindungen und die Reizschwellen ein und ahmen so die neuronale Plastizität nach. Die ersten künstlichen neuronalen Netze umfassten wenige Knoten auf drei oder vier Ebenen. Dagegen sind heute Netzwerke mit Millionen Knoten auf bis zu einhundert Ebenen am Werk, wenn große Datenmengen nach Mustern oder Anomalien durchsucht werden sollen.

Mehr zum Thema

Der produktiven Arbeit solcher Netze gehen Lernphasen voraus, bei denen sie Trainingsdaten auswerten und die hinterlegten Algorithmen die Verbindungsstärken justieren. Während diese Trainingsdaten in den Anfangstagen neuronaler Netze mühsam in Handarbeit produziert werden mussten, stehen sie heute dank sozialer Medien und des Internets der Dinge millionenfach zur Verfügung. Und dank der leistungsfähigen Hardware lernen die Systeme sehr schnell.

Ein anschauliches Beispiel liefert der Australier Jeremy Howard, Gründer von Elitic, einem auf medizinische Diagnosen spezialisierten Unternehmen in Kalifornien. Er ließ 1,5 Millionen Fotos von Autos und Autoteilen von einem neuronalen Netz analysieren, das auf Mustererkennung programmiert war. Nach 15 Minuten hatte das System die Bilder kategorisiert: Frontansicht, Heckansicht, Reifen, Lenkrad und so weiter. Was ein Lenkrad tatsächlich ist, weiß ein solches System natürlich nicht. Aber es kann ein solches Autoteil erkennen.

Relevante Informationen müssen herausgefiltert werden

„Neuronale Netze leisten immer mehr, und Systeme mit 1000 Ebenen sind schon in Sicht“, sagt KI- Experte Dengel. Es seien allerdings hohe Investitionen nötig, wenn künstliche neuronale Netze aus großen Datenmengen relevante Informationen herausfiltern sollen. „Standards sind noch nicht definiert, und die Suche nach optimalen Netzwerkarchitekturen ist längst nicht abgeschlossen“, sagt Dengel.

Der Forscher hat aber eine Vorstellung, wohin die Reise gehen könnte: „Wenn ein neuronales Netzwerk zum Beispiel Qualitätsprobleme bei der Walzstahlproduktion erkennen kann, sollte es sich auch in der Papier- oder Glasproduktion einsetzen lassen.“

Die neue digitale Zeitung F.A.Z. PLUS
Die neue digitale Zeitung F.A.Z. PLUS

Die ganze F.A.Z. jetzt auch im Web, mit zusätzlichen Bildern, Videos, Grafiken. Hier geht’s zum Test.

Mehr erfahren

Hier sieht Dengel neue Geschäftsfelder für die Informationstechnik heranwachsen. „Eingeschwungene Netze“ – so nennt der Forscher Systeme, die schon trainiert worden sind – sollten mit der Methode des Transfer-Lernens schnell und einfach an neue, ähnlich gelagerte Aufgaben angepasst werden können.

Mit einer solchen Dienstleistung kämen dann auch kleine und mittelgroße Unternehmen in den Genuss der künstlichen Intelligenz. Die Unternehmer sollten sich auf die neuen Möglichkeiten vorbereiten, indem sie sich zwei wichtige Fragen beantworten, rät der DFKI-Forscher: „Welcher Wert steckt in meinen Daten, und wie kann ich damit Ressourcen sparen oder neue Geschäfte entwickeln?“

Ein Digitalminister wäre mehr als ein Signal

Von Carsten Knop

Alles verändert sich: die Kommunikation, die Energienetze, der Verkehr, die Produktion. Deshalb braucht Deutschland einen Digitalminister. Einen mit politischem Gewicht. Pläne und Phrasen gibt es schon genug. Mehr 17 13

Abonnieren Sie den Newsletter „Wirtschaft“

Nachrichten in 100 Sekunden
Nachrichten in 100 Sekunden
Zur Homepage