https://www.faz.net/-gqz-9oeua

Digital Humanities : Wenn die Saat des Digitalen aufgeht

  • -Aktualisiert am

Erinnerung statt Vergessen: Mnemosyne aus dem zweiten Jahrhundert v. Chr. im Spanischen Nationalmuseum Bild: mauritius images / PRISMA ARCHIV

Bedeutet die Zunahme digitaler Interpretationstechniken das Ende einer sinnvollen Textauslegung? Über das Interpretieren von Texten in Zeiten von „Digital Humanities“.

          Was ist noch übrig vom Menschlichen in den Humanities, den Geisteswissenschaften? Hat die radikale Technisierung der Lehr- und Lernmethoden sowie der texteditorischen Erschließungsverfahren zu ihrer Enthumanisierung geführt? Sind die Geisteswissenschaften von allen guten Geistern verlassen, indem sie selbst ihre Seele digitalisiert und damit Google verkauft haben? Vom Wert der Humanities und der Notwendigkeit ihrer Rekultivierung ist allenthalben die Rede, wobei wir kaum noch wissen, was damit konkret gemeint ist. Immerhin widmen sich ganze Kongresse dieser Frage, so etwa wiederholt auch die Jahrestagung der nordamerikanischen Modern Language Association (MLA), die dieses Frühjahr in Chicago befand, dass der Verfall der Humanities ursächlich mit der Übersättigung unserer Kultur mit elektronischen Medien zusammenhänge.

          Das „deep reading“ sei verschwunden (Nietzsche sprach vom „langsamen Lesen“ als einer Kulturtechnik, ohne die es weder kritisches Bewusstsein noch ästhetisches Vergnügen geben könne) und damit das eigenständige Sicherarbeiten von Textverständnis. Der kanadische Romancier und Beobachter dieses Kongresses, Stephen Marche, befand dazu neulich im „Times Literary Supplement“, dass selbst Gebildete zunehmend unwillig seien, zwischen fälschlicher und geprüfter Information zu unterscheiden, und zu einer Gemeinschaft von Menschen werden, die sich selbst nur noch als eine Ansammlung von undifferenzierten und uninterpretierten Ziffern verstehen. Die bloße Existenz von Instrumentarien wie Facebook belege, was geschehe, wenn wir unsere Kommunikationsformen reinen Technokonstrukteuren überließen. Was Hölderlin in der zweiten Fassung seiner der Erinnerung geltenden Hymne „Mnemosyne“ mehr konstatierte als prognostizierte, bleibt ins Stammbuch der digitalen Cybermoderne als Menetekel eingetragen: „Ein Zeichen sind wir, deutungslos, / Schmerzlos sind wir und haben fast / Die Sprache in der Fremde verloren.“ Besagter Modern Language Association ist dieses Problem erfreulicherweise so wichtig, dass sie im kommenden Jahr die Frage nach dem, was es heißt, heute „Mensch zu sein“, zum Leitthema des dann in Seattle stattfindenden Kongresses erklärt hat. Die Grundfrage soll lauten: Wie haben die neuen Technologien im Bereich der Literaturwissenschaften unser Verständnis vom „Dienst am Menschlichen“ verändert?

          Gefordert ist ein engagiertes Nachdenken über die Zweideutigkeit der „techné“in Wissenschaft und Poetik, verstanden als „Technik“ im landläufigen Sinne und als Handlungsform, gar -anweisung. Nun steht seit Aristoteles die Vermutung im Raum, dass die Worte über das Handeln die Menschen mehr bewegen können als das Handeln selbst. Die Vorstellung vom Sprechen als einem Akt hat hier ihre Wurzeln. Doch bedeutet diese Konzeption auch, dass menschliches Handeln sich in Zeichen aufgelöst sieht. Zeichen wiederum deuten auf etwas, bevor wir sie zu deuten versuchen. Sie sind Fingerzeige, also eine Geste des Fingers, des digiti. Mit Fingern übt das Kind das Zählen mit ganzen Zahlen ein. Damit lernt es zu quantifizieren und Mengen entsprechend abzustufen.

          Niemand weiß wer das Wort „digital“ geprägt hat

          Man vergisst oft, dass das Digitale einer körperlichen Verweisfunktion seinen Namen verdankt. Anders als bei Begriffen wie „kategorischer Imperativ“, „Weltgeist“ oder „dialektischer Materialismus“ weiß wohl niemand zu sagen, wer das Wort „digital“ geprägt hat. Es scheint den Virtualitätslaboratorien des Silicon Valley entsprungen zu sein, ein Homunculus unter den Begriffen. Es ist, als habe „man“ einer algorithmischen Abstraktion mit unabsehbarem, „realem“ Funktionspotential eine aus dem Arsenal der menschlichen Anatomie abgeleitete Bezeichnung geben wollen.

          Man sage nun nicht, „digital“ sei als Begriff und Qualität weder mit „dialektisch“ noch mit „Weltgeist“ vergleichbar. Denn längst hat „digital“ eine Begriffskarriere hinter sich gebracht, die wie diese anderen Stichworte ans Ubiquitäre grenzt. Im digitalen Medienzeitalter ist bekanntlich die Information an sich Zeichen des Seins und damit Hauptfaktor des Bewusstseins geworden. Das Digitalisat gilt als Essenz oder Konzentrat des Wissens. Was wir sagen, orientiert sich dabei immer mehr an Schlagworten. Das in Digitalisaten ausgebreitete portionierte Wissen leistet seinerseits der Verschlagwortung unseres Redens Vorschub.

          Als 2017 die Tweet-Community begeistert die frohe Botschaft feierte, dass fortan Tweets 280 statt nur 140 Zeichen haben dürfen, erweiterte sich für viele jedoch das Ausdrucksspektrum geradezu bedrohlich. Immerhin konnte dadurch das Regieren per Tweets, wie inzwischen im Weißen Haus üblich, eine Spur wortreicher werden, auch wenn sich bei Verdoppelung der Zeichenmenge der Ertrag umgekehrt proportional verhält: Die Banalität der Inhalte und die Anämie des Satzbaus in präsidialen Verlautbarungen sind konstant geblieben.

          Nicht mehr die Interpretation scheint im Mittelpunkt zu stehen

          Damit ist neben dem Digitalisat nun noch ein weiterer Begriff genannt, der längst nicht mehr aus unserer Sprache wegzudenken ist: die Medien und die Medialität. Auch hier versichere man sich der Grundbedeutung des Wortes, die in Gestalt des Mediums ursprünglich dem Spiritistischen zugeordnet war. Bei entsprechenden Sitzungen um einen (möglichst) runden Tisch bedarf es bekanntlich eines Mediums, um Tote ins Scheinleben zurückzurufen. Wenn nun landauf, landab Dichterjubiläen vorzugsweise dadurch begangen werden, dass man ihre „Medien“, einschließlich der Medientauglichkeit ihrer Erzeugnisse und deren intermediales Potential, untersucht, dann stellt sich in einem doch zunächst unwillkürlich die Vorstellung spiritistischer Veranstaltungen ein, mit deren Hilfe die (nicht-)kanonisierten Autorengrößen beschworen oder herbeigeholt werden sollen, auch wenn Veranstalter dergleichen Unterstellung natürlich brüsk von sich weisen müssten.

          Im Fall der digitalen Texterschließungsmedien, die in eigenen sogenannten Kompetenzzentren entwickelt werden, lässt sich sagen, dass sie ihrerseits zwischen „real vorhanden“ und „virtuell positioniert“ oszillieren. TextGrid hat sich dabei inzwischen als bislang tragfähigstes, vorerst nachhaltigstes System erwiesen – ein virtueller Forschungsverbund mit (behaupteter, aber nicht garantierbarer) Langzeitarchivierung und einem virtuellen Laboratorium als Software für spezifische Editionserfordernisse. So weit, so aufwendig und kostenintensiv. Das Problem ist nun das der (Selbst-)Wahrnehmung dieses Verfahrens. Seine Vertreter präsentieren es zumeist als die Sache selbst, weniger die Literatur und suggerieren absurderweise, es habe vor der Digitalisierung philologische Textkritik nie „wirklich“ gegeben. Nicht mehr die Interpretation der Texte scheint dabei im Mittelpunkt zu stehen, sondern das digitale Spielverfahren.

          Ganze Tagungen, die eigentlich bestimmten Autoren und ihrer Bedeutung zu verschiedenen Zeiten bis in die Gegenwart gelten sollen, werden abgehalten, um ihre Digitalisierung über den virtuellen Klee zu preisen. Das Motto lautet: Nur was digitalisiert ist, existiert und hat Wert. Da lassen scheininterpretierende Auswüchse nicht lange auf sich warten. So quantifiziert man Worttypen, etwa Farb- oder Musikworte, in literarischen Gattungen für einen bestimmten Zeitraum, individuelle Autoren; nennt das Worthäufigkeitsanalyse oder schlicht mfw (most frequent words), behandelt aber keine eigentlichen Kontexte, in denen diese Wörter stehen, sondern behauptet stilistische Ähnlichkeiten und begnügt sich damit im Namen einer sogenannten „Stilometrie“ (nach John Burrows). Zudem betreibt man „Informationsvisualisierung“ und zeigt mit bunten Kurven, Punkten, Dreiecken und Rauten, wie häufig besagte Worttypen wann auftauchen. Ein solches Verfahren wurde auch einmal an Wittgenstein erprobt – mit dem Ergebnis, dass dieser das Wort „und“ am meisten gebraucht habe. Folgerte man daraus, Wittgenstein habe vor allem assoziativ gedacht und nicht analytisch, dann wäre dies gewiss eine das herkömmliche Wittgenstein-Bild revolutionierende Studie wert.

          Nur die großen Namen gelten als lohnende Investitionsobjekte

          Erinnert man sich inmitten dieses Digitalisierungswahns noch der mittlerweile völlig diskreditierten Bezeichnung „Hilfswissenschaften“? Man könnte auch von „akademischer Dienstleistung“ sprechen und von einem Gewerbe, das Informationen und Instrumentarien bereitstellt, damit Interpretationen fundiert sein können. Die digitalen Kompetenzzentren und Projekte sollen und können nämlich genau das sein: Dienste zum Zweck hermeneutischer Verbesserung, Leistungen, die das Verstehen von Texten, einschließlich ihrer produktionsbedingten Varianten, erleichtern sollen. Nicht weniger, aber auch nicht mehr.

          Über eines sollten sich die Digitalisierer ohnehin Rechenschaft abgeben: So nützlich ihre Textaufbereitung insgesamt auch ist (bizarre Auswüchse kommentierender Überfrachtung von Texten eingeschlossen), so sehr sie den „Zugriff“ auf Texte weltweit ermöglichen, um das dabei üblich gewordene Wort aus der Polizeisprache zu gebrauchen, sie leisten einer überwunden geglaubten Kanonisierung von Autoren und Texten neuerlich Vorschub. Denn nur die „großen Namen“ gelten als annähernd lohnende digitale Investitionsobjekte.

          Wenn hier von „Überfrachtung“ der Texte die Rede war, dann ist damit weniger der auch bislang in kritischen Editionen übliche Variantenapparat gemeint, sondern das oft unbegründete Ausmaß an „Links“, die von Kochrezepten bis Bahnfahrplänen alles umfassen können, was auch nur im allerweitesten Sinn etwas mit dem in Rede stehenden Text gemein hat. Denn diese Art des Überkommentierens wirkt oft genug wie ein Selbstzweck, der eher zur Animation von Textstellen geeignet ist und weniger ihrem tieferen Verständnis dient.

          Wenn das Digitalisa(a)tgut aufgeht, dann entstehen nicht selten in dem, was einst Marginalien waren, Gewächse, die den eigentlichen Text zu überwuchern drohen. Ich gebrauche bewusst eine organische Metapher, weil wir uns größtenteils noch immer nicht wirkliche Rechenschaft darüber abgelegt haben, was es bedeutet, wenn wir durch die Digitalisierung ein quasi „organisches“ Textgebilde mit elektronischer Technik konfrontieren. Virtualisieren wir dadurch ursprünglich nichtvirtuelle Texte? Verändern wir dadurch nicht nur ihre Form oder „Gestalt“, sondern auch ihre Inhalte? Und wie wirkt sich das auf die eigentliche Textinterpretation aus? Der Text eines Autors beinhaltet ja immer auch gezielt eingesetzte Aussparungen; er ist eben kein Blatt aus einer Enzyklopädie – selbst wenn die Gustave Flauberts und die Thomas Manns dieser Welt so gerne Quellenmaterial exzerpierten und in ihre Erzählungen transponierten. Ein literarischer Text zeugt eben primär von Sprachkunst. Digitale Verschlagwortungseditionen – nach dem Prinzip: der Volltext bedarf der Vollinformation – tendieren nun aber gerade dazu, solche Texte zu re-enzyklopädisieren. Dem hermeneutischen Prozess und der Kunstkritik erweisen sie damit einen Bärendienst.

          Der Autor ist Literaturwissenschaftler in London und Gründungsdirektor des Zentrums für Britisch-Deutsche Kulturbeziehungen.

          Weitere Themen

          Topmeldungen

          Newsletter

          Immer auf dem Laufenden Sie haben Post! Abonnieren Sie unsere FAZ.NET-Newsletter und wir liefern die wichtigsten Nachrichten direkt in Ihre Mailbox. Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.
          Vielen Dank für Ihr Interesse an den F.A.Z.-Newslettern. Sie erhalten in wenigen Minuten eine E-Mail, um Ihre Newsletterbestellung zu bestätigen.