https://www.faz.net/-gwz-9z3w4

Überschätzte KI : Sind Algorithmen tatsächlich die besseren Ärzte?

  • -Aktualisiert am

Aufnahmen von bildgebenden Apparaten sind für Diagnosen wichtiger denn je, ihre Auswertung aber ist oft kritisch . Bild: Getty

In Teilen der Medizin grassiert ein Hype um Künstliche Intelligenz. Das ruft die Chefkritiker auf den Plan. Die Beweislage in der Bildgebung halten sie für extrem dürftig.

          3 Min.

          In der Vergangenheit ist immer wieder der Eindruck entstanden, dass Künstliche Intelligenz Erkrankungen genauso gut erkennen kann wie ein erfahrener Arzt – wenn nicht sogar besser. Schlagzeilen wie „Google sagt, dass seine Künstliche Intelligenz Lungenkrebs ein Jahr vor dem Arzt entdecken könne“, wecken zweifellos hohe Erwartung. Dabei geht es meistens um die Bewertung digitaler Bilddateien durch Deep-Learning-Algorithmen oder durch einen erfahrenen Mediziner, zum Beispiel bei der Diagnostik von Lungen- oder Hautkrebs oder bei der Diagnostik verschiedener Stadien der Erblindung. Myura Nagendran vom Imperial College in London und seine Kollegen bezweifeln im „British Medical Journal“, dass die Qualität der bisher veröffentlichten Studien tatsächlich ausreicht, zu zeigen, dass die getesteten Algorithmen den Ärzten ebenbürtig sind.

          Die Autoren des Artikels, zu denen prominente Persönlichkeiten wie Eric Topol vom Scripps Research Translational Institute und John Ioannidis von der Stanford-Universität gehören, kritisieren, dass die meisten der von ihnen bewerteten Studien von geringer wissenschaftlicher Qualität und intransparent seien. Sie stellen dabei nicht grundsätzlich das Potential von Künstlicher Intelligenz in Frage und wollen auch keinesfalls deren Entwicklung bremsen, sondern fordern, dass die Studien, die die diagnostische Treffsicherheit der Algorithmen belegen sollen, nach hohen wissenschaftlichen Standards und nach einheitlichen Regeln durchgeführt werden müssen. Studien von geringer Evidenz gefährdeten die Sicherheit der Patienten, so die Autoren.

          Deep-Learning-Netze orientieren sich in der Architektur an den neuronalen Netzwerken des menschlichen Gehirns. Für die Bilderkennung werden vor allem neuronale Faltungsnetze verwendet, sogenannte Convolutional Neural Networks. Diese extrahieren automatisch Muster aus einem Bilddatensatz, zum Beispiel nach Lungen- oder Hauptkrebs-Diagnose. Sie lernen dabei ohne Zutun des Anwenders Muster, die sie mutmaßlich mit Lungen- oder Hautkrebs verbinden. Die Netzwerke klassifizieren dann jedes neue Bild selbständig durch die Verknüpfung der gelernten Muster mit der trainierten Zuordnung Lungen- oder Hautkrebs. Dabei lässt sich bisher aber meistens nicht nachvollziehen, wie die jeweilige Entscheidung zustande gekommen ist, weil die Netzwerke ihre Klassifikation ohne äußeren Einfluss vornehmen. Daher weiß niemand, welche Muster für die Entscheidung des Netzwerks herangezogen worden sind und ob ein erfahrener Arzt bei seiner Entscheidung ganz anders vorgeht oder ähnliche Muster heranzieht wie der Deep-Learning-Algorithmus. Ein neuronales Faltungsnetz ist damit eine Black Box. Beurteilen lässt sich nur die Entscheidung, nicht wie sie zustande gekommen ist.

          Weitere Themen

          Eine Stadt sieht gelb Video-Seite öffnen

          Sandstaub in Peking : Eine Stadt sieht gelb

          Eine Sandstaubwolke sorgte dafür, dass sich der Himmel in Peking gelb färbte. Damit nahm dann auch die Luftqualität stark ab. Für die Einwohner der Stadt ist diese Situation nicht unbekannt, wie Passanten berichten.

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.