zurück zum Inhaltsverzeichnis
Expertengespräch zur genetischen Textkritik im Bereich Musik

Diskussion Teil 4: Textgenetische Konzepte und Modelle

Diskussionsleitung: Prof. Dr. Kurt Gärtner (Marburg)

Kurt Gärtner beginnt die Diskussion mit dem Hinweis, dass beim letzten Beispiel des Referats von Joshua Schäuble ein interessanter Abschreibefehler beim Wort „disconnected“ zu beobachten sei, und fragt nach dem editorischen Umgang mit solchen Phänomenen. Hans-Walter Gabler erläutert, dass der Edition eine Gesamtkodierung zu Grunde liege, die die ursprünglichen Schreibweisen enthalte sowie ein Emendations-Tagging, das die Anzeige in korrekter Schreibweise ermöglicht. Interessant sei, dass Virginia Woolf selbst getippt habe und die Dichte der Verschreiber offenbar höher werde, je mehr sie darüber nachdachte, was mit dem Text gemacht wird. Wenn man die Textstadien pragmatisch vernünftig aufeinander beziehen wolle, dann sei es Unsinn, in der Visualisierung den Tippfehler jedes Mal zu kennzeichnen. Es gebe allerdings die Option, auch den Tippfehler darzustellen. Der Vergleich der beiden Textstufen – Manuskript- und Typoskriptstufe – erfordere auch auf der Typoskriptseite einen bereinigten Text. Er habe außerdem an diesen Stellen ausprobiert, wie man über das gegenwärtige Stadium des Arbeitens mit dokumentbewusster TEI-Kodierung für Textgenese hinausgehen kann. Problematisch hierbei sei, dass das Hauptgewicht immer wieder darauf liege, wie die Verhältnisse auf einem Dokument beschrieben und differenziert dargestellt werden. Texte als Texte, die einen Werktext zu konstituieren beginnen, gehen über Dokumentgrenzen hinaus. Um über diese Dokumentgrenzen zu kommen, habe er mit dem altbewährten Tustep-Kollationierungsprogramm automatisch zusätzliche Codes eingefügt, so dass das, was nirgends auf einem Dokument steht, also genau diese Mittelstufe, trotzdem in Auszeichnungsdarstellungen farbig differenziert dargestellt werden kann. Man komme dann zum ersten Mal an das Dokument, das es nicht gibt, nämlich das in Virginia Woolfs Bewusstsein.

In diesem Zusammenhang der Kollationierung von Textstufen ergänzt Gerrit Brüning, dass in Bezug auf Textstufen zu unterscheiden sei zwischen Textstufen auf der Dokumenten-Ebene und innerhandschriftlichen Textstufen. Letztere würden im Faust-Projekt direkt kodiert; Kollation komme auf dieser Ebene nicht zum Tragen. Almuth Grésillon schließt eine Frage zu alternativen Lesarten an. Eine Crux für den Editor entstehe, wenn der Autor selber nicht entschieden hat, welche Lesart er beibehalten will, bzw. wenn kein Indiz für eine solche Entscheidung vorhanden ist. Herr Schäuble erwidert, dass es sich hierbei natürlich um eine philologische Entscheidung handelt, und Varianten verschieden gewichtet werden können. Gabler fügt hinzu, dass eine genetische editorische Darstellung ohnehin nicht auf die Darstellung eines entschiedenen Textes ziele. Woolfs Sketch of the Past sei aber ein Sonderfall, der durch die Situation charakterisiert sei, dass Virginia Woolfs Typoskript nach ihrem Tod von Lennart Woolf gefunden wurde, der auch bereits versucht habe, das, was Virginia in Bleistift niederschrieb, zu entziffern und das Gemeinte durch handschriftliche Einträge ins Typoskript zu verdeutlichen. Frau Grésillon fühlt sich an die Informatik erinnert, in der alles entweder 1 oder 0 sein muss. Bei Schäubles Beispiel habe sie indes das Gefühl gehabt, dass sowohl zugunsten von „1“ als auch von „0“ entschieden werden könnte. Schäuble fügt hinzu, dass das wohl weniger ein Problem der Kodierung, sondern eher eines der Visualisierung solcher Uneindeutigkeit sei. Auch Grésillon sieht es als Fortschritt, dass unter solchen Bedingungen eben nicht mehr entschieden werden muss. Schäuble ergänzt, dass verschiedene editorische Entscheidungen sich unter Umständen auf verschiedene Editoren zurückführen lassen und auch entsprechend gekennzeichnet werden können. Herr Krämer stellt bezüglich des Konzeptes der Autorintention, welches in den vorangegangenen Präsentationen genannt wurde, die Frage, was genau damit gemeint sei, wenn von dem „Text im Kopf“ die Rede ist. Zu diesem Punkt wirft Gärtner allerdings ein, dass in späteren Referaten darauf Bezug genommen wird.

Herr Konrad stellt die Frage, ob der Begriff „Faksimile“ bei TEI eingeführt sei oder nicht. Schließlich operiere man im digitalen Kontext ja gar nicht mit Faksimiles, sondern mit Abbildungen. Eigentlich setze ein Faksimile eine ähnliche materielle Form voraus. Eine Abbildung sei etwas anderes, ihr fehle der materielle Aspekt. Er könne sich mit dem Begriff des Faksimiles in TEI nicht anfreunden und würde eher andere Begriffe nutzen wollen, etwa Digitalisat. Nach Schäubles Einschätzung sei die Benennung von Elementen durch die TEI Guidelines ein häufiges Problem. Frau Siegert fügt hinzu, dass individuelle Anpassungen des TEI-Schemas ohne Weiteres möglich seien. Sie möchte auf ein anderes Beispiel hinweisen, bei dem die standardisierten TEI-Schemata nicht ausreichten, nämlich die Kodierung von Libretti nach dem TEI-Modul „Drama“, da dieses nicht erlaube, gleichzeitig gesungene, also synchrone Texte zu edieren. Gabler bringt nochmals seine Zustimmung zu Konrads Einwand mit dem Begriff des Faksimiles in TEI zum Ausdruck. Er findet es unglücklich, dass dieser Terminus aus der Sicht der digitalen Arbeit mit solchem Material existiert. Das digitale Medium erlaube Abbildungen, die allerdings keine Faksimiles seien. Die Dokumente seien in ihrer tatsächlichen Existenz materiell und trügen immer nur Spuren eines genetischen Prozesses. Das bedeute, dass man beispielsweise zwar die Differenz der Spuren auf einem Dokument und der Spuren auf einem anderen Dokument auswerten könne, aber keine Aussagen darüber treffen könne, was Virginia Woolf noch durch den Kopf gegangen sein mag. Der Zwang zur Reduktion auf solche Aussagen, die anhand der materiellen Spuren gemacht werden können, schalte letzlich die Instanz Autorin aus. Was dargestellt werde, seien textlich manifeste genetische Abläufe.

Mit Blick auf sein Referat zum Datenmodell in Beethovens Werkstatt merkt Johannes Kepper an, man sei auf Grenzen gestoßen, was die Kodierbarkeit grafischer Phänomene in MEI betrifft. Ganz zu Beginn wurde versucht, MEI entsprechend anzupassen, allerdings habe man bald die Entscheidung für SVG getroffen, also für ein Datenformat, in welchem nichts über Inhalte gesagt werden muss. Bezüglich der SVG-Zeichen möchte Frau Siegert wissen, ob jeder Strich für sich interpretiert wird. Die Studenten, so Kepper, die die SVG-Daten generierten, hätten die Aufgabe, jeden einzelnen Strich als einzelnes Zeichen festzulegen. Hier sei allenfalls noch ein Mindestmaß an Interpretation im Spiel, da alles, was im Schriftbild getrennt ist, auch in SVG getrennt gekennzeichnet werde.

Herr Gabler weist darauf hin, dass es in der Textkritik immer wieder die Frage gibt, ob Varianten einzeln oder im Verbund dastehen und ob sie notwendig aufeinander bezogen sind. Ihm stelle sich diesbezüglich die Frage, inwieweit man diese Differenzierung auf Notenschrift anwenden kann? Herr Appel erläutert, dass im Projekt der Begriff des „Scharniers“ eingeführt wurde, um das Segment zu begrenzen, mit dem man sich befasst. Solche Segmente müssten willkürlich festgelegt werden, wobei aber im Idealfall die Situation eindeutig sei: Vor der Variantenstelle – vor dem ersten Scharnier – läuft der Text glatt und störungsfrei, dann folgt die Änderungsmaßnahme. Der Taktstrich definiert das Scharnier, mit dem die Variante beginnt. Ganz andere Probleme begegneten im Zusammenhang mit Binnenvarianten. Jedenfalls könnten mithilfe der Scharniere Arbeitsausschnitte bestimmt und im Idealfall auch als syntaktische Einheit begründet werden, vor allem auch, wenn eine Korrespondenz zu einer vorangegangenen Skizze existiere. Herr Gabler fragt weiter, ob dieses Vorgehen so weit reiche, dass Zusammenhänge zwischen Stellen deutlich gemacht würden. Appel verweist auf das Phänomen der „Variantenkohärenz“, etwa wenn eine Änderung in der Exposition zu Konsequenzen auch in der Reprise führe. Das heiße, dass die beiden Variantenstellen eine Verbindung haben – ein Problem, das auch dargestellt werden müsse. Joachim Veit ergänzt, dass diese Kohärenz auch in der Literatur nach wie vor ein Problem sei. Zwar spreche man davon, dass bestimmte Dinge zusammenhängen, allerdings gebe es noch kaum Lösungen dazu, wie diese Abhängigkeiten dargestellt werden. Es sei allerdings klar, dass dort etwas passieren müsse. Bezüglich der Frage nach der Variantenchronologie ergänzt Veit, dass sie bei Binnenvarianten meistens unklar sei. Die Darstellung müsse daher bestimmte Dinge bewusst offen lassen.

In Bezug auf das Problem adäquater Erfassung grafischer und semantischer Eigenschaften und die Frage nach den Vor- und Nachteilen von TEI/MEI bzw. SVG möchte Herr Brüning betonen, dass die Trennung von dokumentarischem und textuellem Transkript lediglich für die Faust-Edition spezifisch sei. Typisch für das Manuskriptkodierungsmodul in den TEI-Guidelines sei hingegen eine Vermischung der eigentlich kategorial unterschiedlichen Ebenen. Brüning versteht den Prozess beim Beethoven-Projekt so, dass der Befund des nicht definierten Notenwertes nicht kodiert wird. Die SVG-Kodierung bilde die inskriptionelle Spur nach, aber nicht den (mehr oder weniger definierten) Notenwert. Die MEI-Kodierung gebe den Notenwert wieder, aber nicht den mehr oder weniger großen Anteil der editorischen Deutung, die bei dessen Festlegung beteiligt sei. An den Streichungen zeigt sich für Brüning auch, dass die Chronologie der Variantenfolge im Sinne von Stufen eines Taktes oder eines Abschnittes viel sicherer ist – obwohl sie sich im Bereich der editorischen Deutung befindet – als die Aussage über den handschriftlichen Befund. Oft glaube man, der handschriftliche Befund sei objektiv und die editorische Deutung sei subjektiv und habe daher Unsicherheiten. In der Praxis sei dies jedoch oft gerade umgekehrt: Die Variantenabfolge lässt sich eindeutig bestimmten, aber es lässt sich allein aufgrund des handschriftlichen Befunds oft nichts darüber aussagen, wann eine bestimmte Streichung stattfand.

Für Kinderman stellt sich die Frage, ob die gezeigten Varianten auch abspielbar seien, bzw. gemacht werden können. Eine Verklanglichung der Varianten sei laut Kepper denkbar. Jedoch handle es sich nur um eine fragmentarische Darstellung, deren Verklanglichung dadurch nur in begrenztem Maße aussagekräftig sei. Dennoch sei es denkbar und werde wahrscheinlich noch eingebaut werden. Derzeit konzentriere man sich allerdings zunächst auf die skripturalen Probleme, und weitere Vermittlungskomponenten wie die Verklanglichung oder die Anzeige der Invarianz kämen dann ggf. noch im Laufe des Projektes hinzu.

Herrn Krämer interessiert bezüglich der Erkennung der Zeichen, ob die benutzte Bildbearbeitungssoftware auch dazu genutzt werden könne, um Zusammenhänge herzustellen, die mit bloßem Auge vielleicht nicht sofort erkannt würden. Es gebe verschiedene Möglichkeiten, so Kepper, allerdings seien in Richtung einer Automatisierung der Zeichenerkennung noch keine Versuche unternommen worden, da jedes einzelne Zeichen genau abgebildet werden soll. Einen Algorithmus zur Zeichenunterscheidung zu entwickeln sei schwierig und zeitaufwändig. Herr Krämer überlegt weiter, ob es möglich wäre, mit Hilfe eines Toleranzreglers Unterschiede etwa des Schreibmittels zu erkennen. Durch eine Systematisierung der Hervorhebung von Zusammenhängen könnte ein Tool entwickelt werden, das die Arbeit erleichtert. Im Code der Rekonstruktionsansicht, so Kepper, sei derzeit für alle Schreibschichten das Schreibmittel hinterlegt worden. So könne man entscheiden, wie eine Tinten- oder Bleistiftschicht in der Anzeige hervorgehoben wird. Herr Krämer fügt noch hinzu, dass seine Idee war, dass sich mit Hilfe von Programmen vielleicht auch zwei sehr ähnliche Schreibmittel unterscheiden ließen.

Herrn Gabler fiel auf, dass bei der einen Verbildlichungsform eine höchste Annäherung an Befunddarstellung existiere, bei der anderen sei der Befund bereits gedeutet. Dies sei natürlich der Ausgangsschritt zum Edieren im klassischen Sinne. Ein Editionsprodukt im klassischen Sinne sei ein Produkt, das grundsätzlich an jeder Stelle eine editorische Entscheidung voraussetze. Edition im klassischen Sinne sei eine sehr autoritäre Form der wissenschaftlichen Arbeit und Arbeitsergebnisdarstellung. Ihm scheine es wichtig, dass Edieren im klassischen Sinne heute nicht mehr die dominante Kategorie sei. Im Zentrum stehe vielmehr eine Darstellungsaufgabe, wobei Darstellung sich explizit auch als Darstellung zu erkennen geben sollte. Die sogenannte Edition im neuen Sinne als Darstellungskomplex müsse aber sehr gut vermittelt werden, so dass beispielsweise dem Missverständnis vorgebeugt wird, dass gesagt wird, der Editor konnte sich nicht entscheiden.

Herr Schäuble findet die Herangehensweise an die Zeichenerkennung beim Beethoven-Projekt spannend und weist darauf hin, dass beispielsweise in München im Wittgenstein-Projekt versucht wird, mit „OCR“ Handschriften zu erkennen. Die Buchstabenerkennung funktioniere allerdings nicht so gut, immerhin könnten mit Hilfe von Zonen Absätze erkannt und festgehalten werden. Viel detailreicher könne man wahrscheinlich nicht automatisieren. Nicht ganz so skeptisch sieht Veit die Automatisierung. Seiner Meinung nach könne beispielsweise ein Bindebogen gut automatisch erfasst werden, da es sich hierbei um ein Zeichen handelt, das klare Abgrenzungen habe. Eine Interpretation des Editors oder des Nutzers bleibe zwar nach wie vor notwendig, aber auf Dauer könne die Erkennung durchaus erleichtert werden. Herr Brüning möchte abschließend nochmal einen Aspekt hervorheben, den Maja Hartwig erwähnt hat. Es geht um die Differenzierung zwischen TEI und MEI. Bei TEI werde ein vorhandener Text mit zusätzlichem XML-Markup versehen. Bei MEI jedoch verhalte es sich gerade umgekehrt, hier gebe es fast nur Markup und ganz wenig Worttext. Varianten bezögen sich in MEI also oft gar nicht auf den kodierten Text, sondern vielmehr auf das Markup selbst. Markup beziehe sich also auf Markup; eigentlich sei dies in der klassischen Vorstellung von XML so nicht vorgesehen. Hier stelle sich zudem die Frage, ob es vermehrt zu dem altbekannten Problem der überlappenden Hierarchien komme. Herr Kepper würde dies jedoch nicht als Problem bezeichnen angesichts der Tatsache, dass in der Musik überlappende Hierarchien ohnehin an der Tagesordnung seien – etwa wenn ein Ton im einen Takt anfängt, aber erst im nächsten endet. Der Umgang mit Standoff-Markup, milestones und dergleichen sei in der Musikeditorik alltäglich. Die Frage, warum dann überhaupt XML verwendet werde, beantwortet Kepper dahingehend, dass es gerade auch für Musik derzeit nichts Besseres gebe. Entstanden sei XML als agnostisches Format zur Beschreibung von Strukturen, und Musik sei in vieler Hinsicht in der Tat sehr strukturiert – auch wenn sich die Komponisten nicht immer an eine Struktur hielten.