Expertengespräch zur genetischen Textkritik im Bereich Musik
Diskussion Teil 2: Textwachstum und Variantenbildung
Diskussionsleitung: Dr. Dietmar Pravida (Frankfurt am Main)
Dietmar Pravida eröffnet die Diskussion mit dem Vorschlag, zunächst mit Hilfe grundlegender Fragen die Gemeinsamkeiten und Differenzen der beiden vorgestellten Herangehensweisen anzusprechen. Johannes Kepper bemerkt zu Gerrit Brünings Vortrag, dass immer zu fragen sei, inwiefern die Modellierung der Daten letztlich gesteuert werde vom Aufwand, der nötig ist, um die Daten hinterher auszuwerten. Im Projekt Beethovens Werkstatt würden Entscheidungen über die Modellierung der Inhalte prinzipiell unabhängig von der Frage späterer Prozessierbarkeit getroffen. Ist ein unterschiedlicher Umgang mit Daten möglicherweise dem Umstand geschuldet, dass man in der Musik mit XML-Dateien allein nicht viel anfangen könne, sondern stets andere Programme hinzuziehe? Brüning entgegnet, auch im Faust-Projekt habe man von vornherein auf eine von späteren Auswertungen unabhängige Datenerfassung Wert gelegt; Kompromisse resultierten allenfalls daraus, dass am Beginn der Projektarbeit noch nicht auf so viele Erfahrungen zurückgegriffen werden konnte. Die Entscheidung für den Ansatz, grafische und linguistische Varianten unabhängig voneinander zu behandeln, sei nach wie vor tragfähig. Aus heutiger Sicht sei allerdings zu fragen, ob man sich angesichts der Überschneidungen beider Bereiche mit der strengen Trennung in unabhängige Kodierungen einen Gefallen getan habe. Ein wichtiges Problem sei auch die Frage nach der Größe der Einheiten: Zunächst habe man auf der Wortebene operiert, später habe man zumindest im Bereich der grafischen Varianten mehr und mehr auch größere Einheiten gewählt. Für Kurt Gärtner schließt sich die Frage an, ob man zwischen der grafischen und der semantischen Ebene tatsächlich trennen könne, wo doch im Beispiel die grafische Änderung eine semantische nach sich ziehe. Zudem sei zu überlegen, inwieweit eine Parallelität zwischen einer solchen Buchstabenänderung (als Mikro-Änderung im Inneren des Worts) und einer geänderten Note, etwa im Zusammenhang eines Taktes, bestehe. Eine allein textuelle Lösung editorischer Probleme hält er zudem für nicht ausreichend. Varianten müssten immer auch gedeutet werden. Das Beispiel (Austausch von ß durch ss) mache ja den Einfluss der orthografischen Regeln Adelungs deutlich.
Die grundsätzlichen Überlegungen zur Größe und zu den Grenzen der Varianten hält Ulrich Konrad für sehr hilfreich. Er betont, dass ein Zeichenwechsel in der Musik bereits eine Änderung im Klang bewirke, etwa eine fundamentale Änderung des Akkordtyps. Dieses punktuelle Ereignis finde zudem im Rahmen einer harmonischen Progression statt, so dass es umso lohnender erscheine, grundsätzliche Überlegungen zur Größe und den Grenzen musikalischer Varianten anzustellen. Pravida bestätigt diese Überlegungen, indem er nach der Ausstrahlung einer Variante fragt und den Begriff des Kontexts einer Variante einbringt, der letztlich immer notwendig sei, um eine Variante verstehen zu können. Auch Almuth Grésillon greift den Aspekt der Variantenkategorisierung nach dem Kriterium ihrer Größe auf. Eine Wortersetzung sei mindestens ein syntaktisches, wenn nicht ein Diskursproblem. Auch Grésillon betont, dass es bei aller Kategorisierung und Systematisierung von Varianz doch letztlich darum gehe herauszuarbeiten, was mit einer Variante erreicht werde. Brüning erläutert, im Faust-Projekt sei das Kriterium zur Bestimmung der Reichweite einer Variante im Wesentlichen syntaktisch bestimmt worden. An metrischen Verhältnissen habe man sich hingegen weniger stark orientiert. Hier könne man aber ebenfalls überlegen, inwieweit eine punktuelle Änderung das Metrum des Verses ändert. Laut Grésillon ist zudem aber auch mit Veränderungen im Zuge von Schreibprozessen zu rechnen, deren Wirksamkeit über die Grenzen des betreffenden Satzes hinausreiche. Welche Möglichkeiten bestehen, diese Dimension ebenfalls darzustellen? Der praktizierte Lösungsansatz bestehe darin, so Brüning, Zusammenhänge von Varianten zu erfassen.
Bill Kinderman erscheint die Separierung grafischer und semantischer textgenetischer Information problematisch: Das Was und das Warum seien nicht trennbar. Man müsse immer den Sinn einer Veränderung verstehen, und solange nicht nach dem Warum gefragt wird, sei die Diskussion zu abstrakt. Das von Elisa Novara gezeigte Beispiel sei hingegen sehr konkret, gehe es Beethoven hier doch darum, eine Stelle analog zu einer vorhergehenden Stelle zu ändern, was wiederum weitere Anpassungen an den Satzverlauf nach sich ziehe. Ferner könnten auch sehr konkrete Fragen des Tonumfangs des Klaviers bestimmend für das Schreiben wirken. Die textgenetische Methode in Bezug auf Beethoven sei keineswegs Neuland; viele Arbeiten (beispielsweise Heinrich Schenkers) seien der Beobachtung und der Deutung der kompositorischen Prozesse bei Beethoven gewidmet. Novara erklärt, dass es selbstverständlich auch um das Warum gehe. Als textgenetische Information würden im Projekt allerdings die Aspekte verstanden, die die Beschreibung des Wie des Schreibens erlaubten. Dazu gehörten auch metatextliche Elemente wie Randnotizen. Kinderman ist hingegen vom Sinn der Identifikation einer bestimmten Schreibvariante weiterhin überhaupt nicht überzeugt, da sie musikalisch keinen Sinn mache. Konrad verweist vermittelnd zunächst auf einen Brief von Schönberg an Kolisch, in dem Schönberg kategorisch schreibt, sein Ziel sei es nicht zu zeigen, wie etwas gemacht würde, sondern was es bedeute. Nach Konrad schließen beide Perspektiven einander allerdings nicht aus, und es sei im Sinne einer arbeitsteiligen Vorgehensweise durchaus sinnvoll, den Akzent auch einmal ganz dezidiert darauf zu legen, mit aller Tiefe zu erfassen, wie etwas gemacht ist. Dies lege auch die Grundlage dafür, vertiefte Antworten auf Fragen nach Bedeutungen zu finden.
Gabler verweist anschließend darauf, dass man in der genetisch orientierten literaturwissenschaftlichen Textkritik schon seit Hans Zeller die grundlegende Unterscheidung von Befund und Deutung kenne. Ein generelleres Problem sei, dass man in der literaturwissenschaftlichen Editorik sehr textorientiert denke; im Verlauf des 20. Jahrhunderts sei die traditionelle Aufgabe einer Edition, nämlich die Vermittlung (in Form von Kommentar), zur Schwundstufe reduziert worden. Andererseits stoße editorische Darstellung grundsätzlich an Grenzen: Das Warum eines Wie lasse sich immer nur zu einem gewissen Grad darstellen. Aspekte des Warum seien nicht editorisch darstellbar, sondern lediglich editorisch vermittelbar.
Konrad weist noch auf den Aspekt hin, dass die Erfassung genetischer Prozesse häufig weniger an logische, sondern vielmehr an technische Grenzen stoße, etwa seien in der h-Moll-Messe die von Johann Sebastian Bach geschriebenen Noten von jenen, die Carl Philipp Emanuel Bach schrieb, mit aufwändigen technischen Verfahren unterscheidbar. Im Falle von Schumanns 4. Sinfonie scheitere hingegen jedes technische Verfahren zur Identifikation von Schreibschichten. Es würden freilich aus vielfältigen Gründen nicht immer alle technischen Ressourcen genutzt, um Schreibprozesse chemisch oder physikalisch unbestechlich zu beweisen.
Ausblickend schließt Pravida mit der Beobachtung, dass die Diskussion auf die übergeordnete Frage nach der Abgrenzung von Präsentation und Analyse bzw. nach dem Wechselverhältnis beider verweise – ein Fragenkomplex, der zu weiterer methodischer Reflexion einlade.