https://www.faz.net/-gqz-99www

Digital Humanities (1/6) : Sprachwissenschaft: Altbewährtes frischgemacht

  • -Aktualisiert am

Schriftanalyse mit dem Röntgenfluoreszenz-Spektrometer Bild: SFG Manuskriptkulturen

Die Linguistik ist die digitale Geisteswissenschaft par excellence. Mit verbesserten Instrumenten dringt sie heute tiefer als je zuvor in die Sprachwirklichkeit ein.

          Wir sprechen anders. Warum Computer nicht sprechen können“, hieß ein Buch, das vor dreißig Jahren erschien, herausgegeben von den Präsidenten der Akademie für Sprache und Dichtung Hans-Martin Gauger und Herbert Heckmann. Der Titel spricht dem Computer die Sprachfähigkeit gleichzeitig zu („anders“) und ab („nicht“) – eine schräge Logik, die aber das ebenso enge wie spannungsreiche Verhältnis zwischen Sprachwissenschaft und digitaler Datenverarbeitung sehr schön spiegelt.

          Seit den Anfängen, als noch raumfüllende „Elektronengehirne“ mit Lochkarten gefüttert wurden, ist der Computer für viele Linguisten mehr als nur ein Instrument der Datenverarbeitung. Sie sehen in der Logik seiner Algorithmen ein Modell für die Systematik menschlicher Sprachen. Inspiriert von der Theorie abstrakter Automaten und den Strukturen der Programmiercodes, die nicht zufällig ebenfalls „Sprachen“ genannt werden, hat sich seit den fünfziger Jahren eine weitverzweigte Familie von Grammatiktheorien herausgebildet, die auf den ersten Blick eher an Mathematik als an Sprache erinnern.

          Parallel dazu entstand die Computerlinguistik, die schnell zu einer Leitdisziplin der Künstlichen Intelligenz wurde. Deutsche Wissenschaftler gehören in diesem Bereich heute zur internationalen Spitze. Ein wichtiger Standort der Computerlinguistik ist das Deutsche Forschungszentrum für Künstliche Intelligenz in Saarbrücken, aber auch an Universitäten wie Potsdam, München oder Trier ist sie etabliert.

          Pragmatische Wende

          Im Grenzbereich zwischen Linguistik und Informatik entwickeln die Wissenschaftler Programme für die automatische Erzeugung von Texten, für maschinelle Übersetzungen und die Auswertung der Internetkommunikation, sie konstruieren Chatbots und Expertensysteme, arbeiten an der Optimierung von Suchmaschinen und an Methoden zur Identifikation anonymer Verfasser von Texten. Zugleich aber ist der Computer auch immer eine Testmaschine, die die Grenzen der Automatisierbarkeit anzeigt: Wenn Sprachverarbeitungsprogramme scheitern, liegt das oft an den Unschärfen und Mehrdeutigkeiten von Sprache. Menschen können sie in der alltäglichen Kommunikation mühelos entschlüsseln, der maschinellen Logik aber verweigern sie sich. Scheinbare Banalitäten entpuppen sich für den Computer als schwer zu überwindende Hindernisse und werfen ein Licht auf die unbewussten, aber komplexen Voraussetzungen des Sprechens und Verstehens.

          In früheren Jahrzehnten entzündeten sich an solchen Punkten oft Grundsatzdiskussionen. Viele Computerlinguisten und KI-Forscher hatten den Ehrgeiz, nachzuweisen, dass Geist und Sprache im Prinzip wie Software funktionieren, die auf der Hardware des Gehirns läuft. Ihre humanistisch gesinnten Gegner sahen darin eine technizistische Verengung, die die subjektiven wie auch die gesellschaftlichen Momente der Sprache ausblendet. Das Buch von Gauger und Heckmann mit dem sprachlos sprechenden Computer ist eine Frucht dieser Kontroversen. Der Bezug auf die Informatik – ob zustimmend oder kritisch – war und ist für viele Linguisten ein wissenschaftstheoretischer Basso continuo. Er hat die Linguistik zur digitalen Geisteswissenschaft par excellence gemacht, lange bevor die „Digital Humanities“ ihre Karriere starteten.

          In der Computerlinguistik hat allerdings mittlerweile die pragmatische Denkweise des Ingenieurs die theoretische Neugier des Grundlagenforschers vielfach ersetzt: Man freut sich, wenn die Spracherkennungssoftware, der digitale Assistent, das Übersetzungsprogramm ihre praktischen Aufgaben erfüllen, und schiebt die „philosophischen“ Fragen in den Hintergrund. Dem entsprechen auch die angewandten Methoden. Viele Programme analysieren die Sätze und ihre grammatischen Strukturen nicht mehr wie früher mit Hilfe komplizierter Regelsysteme. Stattdessen prognostizieren sie die dahintersteckenden Bedeutungen auf der Basis statistischer Wahrscheinlichkeiten, nachdem sie vorher anhand von Beispieltexten trainiert und optimiert wurden.

          Weitere Themen

          Topmeldungen

          Nach Ansicht der Union gibt es zu wenige Abschiebeflüge. (Symbolbild)

          Härterer Kurs : Ausbürgerung und erleichterte Abschiebung gefordert

          Unionspolitiker halten zwei Themen auf der Agenda: Seehofers parlamentarischer Staatssekretär hat Vorschläge zu Abschiebungen, und Extremisten sollen nach dem Willen der Fraktionsvorsitzenden die deutsche Staatsbürgerschaft verlieren können.

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.