Künstliche Intelligenz : Augen auf, Google guckt
- -Aktualisiert am
Näher ran: Der Google-Test im Auge. Bild: AFP
Da staunt der liebe Doktor: Google bringt seinen Maschinen bei, Herzrisiko-Patienten mit einem Blick ins Auge zu identifizieren. Dabei erfährt der Raucher, dass er raucht – und was das intelligente Doktorspiel sonst so leistet. Eine Glosse.
Der Satz des längst verblichenen, wegen seiner Propagandatätigkeit für die Wehrmacht umstrittenen Dramatikers Sigmund Graff, wonach der Spiegel, dem die Frauen am meisten glauben, die Augen der Männer sind, wäre heute durchaus wert, empirisch nachgeprüft zu werden. Als zitabel gilt der Spruch immer noch, obwohl heute die Augen des Mannes harte Konkurrenz durch Instagram und Facebook bekommen haben. Ungefähr so, wie die Augen des Arztes allmählich ihre analytische Autorität an die Sensoren und Datentools der Big-Data-Branche und der intelligenten Automaten abtreten müssen.
Noch ist das Maschinenzeitalter nicht gängige Praxis. Wir Patienten merken davon zumindest nicht viel. Und wenn es in der Medizin läuft wie in der Industrie, bei der immer noch eine Mehrzahl der europäischen Vorstände in Umfragen zu Künstlicher Intelligenz (KI) und maschinellem Lernen wenig Handfestes anzubieten haben und viele laut der jüngsten Studie des Datenanalytik-Marktführers SAS auch noch nicht so recht an die transformative Macht der Lernalgorithmen im eigenen Betrieb glauben, dann könnte auch der Durchbruch der KI-Medizin und der Do-it-yourself-Diagnostik mit Smartphone noch auf sich warten lassen. Eines aber ist nicht zu leugnen: In der Gesundheitsbranche kommen sich klassische Empirie und automatisierter Daten-Voodoo verlockend nahe.
In einem arXiv-Preprint hat Googles Forschungsabteilung jetzt ein Maschinenlernprogramm präsentiert, das den Augenhintergrund auf kardiovaskuläre Risikofaktoren absucht, sprich: Herzinfarktprognose mit der Kamera. Im Grunde steht dahinter eines dieser datenverschlingenden, automatisierten Lernprogramme, die in vielen Branchen mittlerweile Bilder auf regelmäßige Muster oder Unregelmäßigkeiten abtasten. Stanford-Forscher hatten damit vor kurzem einen Coup gelandet, als sie mit ihren für Pathologen entwickelten Algorithmen aus Mikroskopaufnahmen bessere Diagnosen ableiteten als einige der erfahrensten Mediziner. Das ist das eine Ende auf der Qualitätsskala.
Das andere zeigt sich in vielen Versuchen wie jenem von Google, unsere Augen als Fenster zum kardiologischen Schicksal zu nutzen – ausgedacht und realisiert mit einer Mischung aus Experimentierfreude, Spieltrieb und Geschäftssinn. Halbwissenschaftliche Vorarbeiten für eine Ära, in der nicht mehr zehn Prozent der Smartphones mit lernfähigen KI-Chips ausgerüstet sind wie heute, sondern neunzig Prozent, was die Hersteller für 2025 erwarten. In puncto Herzprognosen im Auge müssen die Geräte bis dahin allerdings noch einiges dazu lernen. Alter, Geschlecht, Raucherstatus, Hämoglobinwert und systolischer Blutdruck ließen sich nach Google-Angaben aus Tausenden Retina-Aufnahmen nach der intensiven Trainingsphase ableiten – mit teils beachtlicher Trefferquote zwar; aber keiner der Forscher hat eine Idee, aus welchen Bildmerkmalen die Rechner ihre biologischen „Weisheiten“ extrahiert hat. Handlesen auf der Netzhaut. Es ist das klassische Black-Box-Problem. Mehr noch: Medizinisch wäre der Retina-Scan völlig überflüssig. Blutdruckmessen und Patientendaten abfragen kann jede Arzthelferin – ganz ohne KI-Chiphilfe.