Nobelpreisträgertagung Lindau : Was heißt schon klug
- -Aktualisiert am
Können wir der Künstlichen Intelligenz eigentlich vertrauen? Bild: dpa
Die Künstliche Intelligenz erobert immer mehr Lebensbereiche. Doch wie vertrauenswürdig sind die schlauen Computer wirklich? Eine Podiumsdiskussion über Chancen und Risiken der KI.
Spätestens seit dem Sieg des IBM-Computersystems Watson über seine menschlichen Mitspieler in der amerikanischen Quizsendung „Jeopardy“ im Jahr 2011 war zu ahnen, wozu Rechner dank Künstlicher Intelligenz (KI) fähig sind. Nicht nur komplexe Muster, Gesichter und Sprache können die Elektronenhirne erkennen, sie sind – wie Watson zeigte – nach entsprechendem Training auch in der Lage, die Bedeutung gesprochener Worte korrekt zu interpretieren. Auch in der Materialforschung, Biologie und in der Medizin hat die KI Einzug gehalten. Doch wie vertrauenswürdig sind die schlauen Computer eigentlich, was die Ergebnisse betrifft, und wo liegen die Chancen – aber auch die technischen Grenzen? Das waren einige Fragen der Podiumsdiskussion „KI – Versprechen oder Bedrohung“ am vergangenen Donnerstagnachmittag in Lindau.
Der amerikanische Internetpionier Vinton Cerf mahnte gleich zu Anfang zur Vorsicht. Häufig wüsste man nicht, wie eine KI mit maschinellem Lernen rechnet und wie zuverlässig sie das tue. Bisweilen gebe es Überraschungen bei der Mustererkennung. So komme es durchaus vor, dass sie etwa einen Hund und Eisbär verwechselt – etwa wenn der Algorithmus die Tiere nur nach der Farbe ihres Fells klassifiziert. Auch unsinnige Korrelationen ohne jede Logik sind möglich, so Cerf: „Autoreifen können Babys zur Welt bringen“, könnte eine KI behaupten, weil eine werdende Mutter ins Krankenhaus gefahren wird.
Sinnvolle KI für Materialforschung
Mit Vorsicht seien deshalb auch die Anwendungen in der Medizin zu bewerten. Falsche Ergebnisse infolge falscher Korrelationen könnten hier fatale Folgen für Patienten haben. Gewisse Kenntnisse in Statistik und in Informatik seien für die Mediziner unabdingbar, sagte Cerf. Der Anwender müsse wissen, was ein Algorithmus berechnen soll. Der Mensch sei als letzte Instanz unverzichtbar, bekräftigte Bernhard Schölkopf vom Max-Planck-Institut für Intelligente Systeme in Dresden. Oft käme man intuitiv eher auf die richtige Lösung. Bei sehr komplexen Fragestellungen, etwa in der Mathematik und Physik, die mit einem klassischen Computerprogramm gelöst werden könnten, sei eine KI überaus sinnvoll. Dann sei aber klar, was der Algorithmus berechnen soll, sagte Schölkopf.
Wie maschinelles Lernen bei der Entwicklung neuer Materialien helfen kann, berichtete der Chemiker Marco Eckhoff von der Universität Göttingen. Der Chemiker nutzt die KI zum Berechnen komplexer quantenchemischer Synthesereaktionen, an denen viele Teilchen beteiligt sind. Hier geht es häufig um die Suche nach Konfigurationen, bei denen sich das Gesamtsystem im niedrigsten Zustand oder im chemischen Gleichgewicht befindet. Sind viele Atome oder Moleküle im Spiel, kommt ein klassisches Computerprogramm schnell an seine Grenzen. Am Ende müsse man die berechneten Modelle aber stets mit einem Experiment überprüfen. Eckhoff nutzt KI, um leistungsfähige Katalysatoren herzustellen.
Wer hat aber Schuld, wenn ein von einer KI gesteuertes selbstfahrendes Auto einen Unfall verursacht – der Mensch, die KI oder die Softwarefirma –, wollte ein Jungwissenschaftler am Ende der Diskussion wissen. Eine interessante Frage, antwortet Cerf. Mit ihr werden sich auch noch viele Gerichte herumschlagen müssen.