https://www.faz.net/-gwz-9j7rr

Klug verdrahtet : Wenn Maschinen unsicher werden

Autonome Fahrzeuge, wie dieser japanische Zustellroboter, sind nicht unbedingt auf alle Situationen vorbereitet, in die sie einmal geraten könnten. Bild: dpa

Wer weiß, wann er nichts weiß, ist schon schlauer als viele andere. Diese Einsicht versucht nun auch Künstliche Intelligenz für sich zu nutzen. Die Fähigkeit könnte so manchen Unfall vermeiden.

          Der erste Schritt zum Expertentum ist nicht selten die Einsicht in das eigene Unwissen – schon Sokrates soll diese Erkenntnis sinngemäß geäußert haben. Die Fähigkeit, die eigenen Limitationen rechtzeitig einzuschätzen, bevor diese einen ins Verderben stürzen, soll nun auch die Künstliche Intelligenz (KI) erwerben.

          Sibylle Anderl

          Redakteurin im Feuilleton.

          Zu diesem Zweck haben sich Wissenschaftler vom Massachusetts Institute of Technology und von Microsoft zusammengetan und eine Methode entwickelt, die „blinde Flecken“ markieren soll – im Training von der KI Gelerntes also, das mit den Geschehnissen in der realen Welt in Konflikt steht. Dass es zu solchen Konflikten kommt, ist wenig überraschend: die Trainingsdaten, aus denen die KI ihr Verhalten ableitet, beruhen oft auf vereinfachenden Simulationen, die die Komplexität der Realität nicht wiedergeben. Zudem mögen sich in der realen Welt Situationen durch bestimmte Merkmale voneinander unterscheiden, für deren Wahrnehmung der KI die notwendigen Sensoren fehlen.

          Ein Beispiel wäre ein selbstfahrendes Auto, das den Unterschied zwischen Krankenwagen und normalen Transportern nicht feststellen kann und daher einem Krankentransport nicht ausweicht. Die Wissenschaftler schlagen nun vor, dass menschliches Feedback dafür genutzt werden solle, derartige „blinde Flecken“ vorherzusagen – entweder durch die Vorführung korrekten Verhaltens oder durch eine Korrektur fehlerhaften Verhaltens der KI.

          Situationen, in denen das Verhalten der KI auf widersprüchliches Feedback trifft, beispielsweise wenn Transporter in den seltenen Fällen eines Krankentransports besonders behandelt werden müssen, werden daraufhin besonders markiert. In kritischen Situationen soll so die KI in die Lage versetzt werden, sich besonders vorsichtig zu verhalten oder gar einen Menschen um Hilfe zu bitten.

          Weitere Themen

          In der Menge liegt die Wahrheit Video-Seite öffnen

          Vererbungslehre : In der Menge liegt die Wahrheit

          Wie Vererbung geht, lernt man bereits in der Schule. Aber so einfach wie bei Erbsen ist das nur in Ausnahmefällen. Die quantitative Genetik hat in jüngster Zeit Erkenntnisse gewonnen, die alles auf den Kopf stellen. Das wird schon bald praktische Konsequenzen haben.

          Topmeldungen

          Wirft hin: Patrick Shanahan wird nicht amerikanischer Verteidigungsminister.

          Rückzug von Shanahan : Keine Ruhe im Pentagon

          Mitten in der Iran-Krise verliert Donald Trump seinen amtierenden Verteidigungsminister. Der Wunschkandidat des Präsidenten hat sich zurückgezogen – wegen eines „traumatischen Kapitels“ in seinem Familienleben.
          Der 22 Jahre alte Ali B. dementiert weiterhin die Vergewaltigung von Susanna F.

          Psychiaterin über Ali B. : Egozentrisch, manipulativ, empathielos

          Im Prozess um die getötete Schülerin Susanna F. aus Mainz berichtet wenige Wochen vor dem Urteilstermin die psychiatrische Gutachterin. Den angeklagten Ali B. beschreibt sie als faulen und frauenverachtenden Mann, der in seinem Leben immer nur an sich selbst gedacht habe.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.