editio Internationales Jahrbuch für Editionswissenschaft International Yearbook of Scholarly Editing Revue Internationale des Sciences de FEdition Critique Herausgegeben von Bodo Plachta und Winfried Woesleh in Verbindung mit Kurt Gärtner (Trier), David Greetham (New York), Louis Mäy (Paris), Walter Jaeschke (Bochum), Helmut Koopmann (Augsburg), Gunter Martens (Hamburg), Norbert Oellers (Bonn), Hans-Gert Roloh- (Berlin), Siegfried Scheibe (Berlin), H.T.M. van Vliet (Den Haag), Wernes Welzig (Wien), Michael Werner (Paris), Hans Zeller (Freiburg/Schweiz) Band 19 \ Max Niemeyer Verlag Tübingen 2005 VI hilwh Lars Korten „Unpublizicrbar natürlich" — Rudolf liorchardts Jamben editionsphilologisch beschattet................................... 155 Berichte Dieter Burdorj Edition und Interpretation moderner Lyrik seit Hölderlin. Internationale Fachkonferenz im Hölderlinturm, Tübingen, 7.-10. Oktober 2004 .......................................... 17' Frank Baudach, Dirk Hempel, Paul Kahl Editionsphilologisehe Arbeitstagung zur Literatur- und Kulturgeschichte 1750-1850. Schwerpunkt: Briefeditionen, Göttingeil, 8V9. Oktober 2004 ........................................... 176 Thomas Richter Jeremias Gottheit"- Wege zu einer neuen Ausgabe. Internationaler Kongreß, Universität Bern, 4.-6. November 2004 ................... 183 Luigi Giuliani Editing Texts in Multiple Versions. First European Society for Textual Scholarship Conference, Universität d'Alacant, 25th—27th November 2004. ...................................... 189 Annette Seil Editionen - Wandel und Wirkung. Internationale Tagung der Arbeitsgemeinschaft philosophischer Editionen in Verbindung mit dem Aäberttis-Magnus-Institut, Bonn, 21.-23. Februar 2005 ............... 194 Robert Schauer, Gabriel Viehhauser Edition und Sprachgeschichte. Tagung an der Universität Basel, 2.-4. März 2005.............................................. 198 Davide Giuriato, Martin Stingeiin, Sandro Zanetti Ein „azentrisches, nicht hierarchisches und asignifikant.es System ohne General". (Digitalisiertes) Schreiben von 1950 bis zur Gegenwart. Tagung an der Universität Basel, 7.-9. April 2005. Mit einem Zwischenfazit des Projekts Zur Genealogie des Schreibens ............... 202 Rezensionen ................................................. 207 Anschriften .................................................. 24] Andrea Hofmeister Textkritik, als Erkenntnisprozeß: sehen — verstehen — deuten Nicht nur in germanistischen Kreisen pflegt man Textkritik für gewöhnlich mit der Lachmannschen Methode gleichzusetzen, mit jenem hoch, spezifizierten Verfahren, das man nicht wie ein solides Handwerk erlernen kann, sondern das seinem geistigen Vater zufolge eher den Nimbus einer ,Kunstübung'' trägt und offenbar sehr viel mit philologischer ,Erfahrung' bzw. Intuition zu tun. hat. Im stolzen Selbstbewußtsein ihres elitären Charakters ist diese Textkritik seit jeher darauf bedacht, sich gegenüber anderen Verfahren hermetisch abzugrenzen. Das verdeutlicht die Bezeichnung ,höhere Textkritik' -- Friedrich Schleiermacher nannte sie sogar .divinatorisch*2 - im Kontrast zur .niederen' bzw. .beurkundenden' Textkritik. An dieser antagonistischen Sicht scheint bis zum heutigen lag festgehalten zu werden, denn obwohl gelegentlich darauf hingewiesen wurde, daß im Rahmen einer wissenschaftlichen Edition beide unverzichtbar sind,1 finden sich in der Fachliteratur fast stereotyp abwertende Äußerungen über die ,kleine Schwester' der höheren Textkritik, und immer noch wird deren Anspruch, ebenfalls Textkritik zu sein, in Abrede zu stellen versucht. Ein Beispiel aus der aktuellen Fachliteratur, das diese Einschätzung mit schonungsloser Deutlichkeit auf den Punkt bringt: „Editorische Arbeit ist .kritische' Arbeit, sie besteht nicht im bloßen Transliterieren von Handschriften, sondern [.. ,]"* - es folgt eine Aufzählung des Pflichtenkatalogs der Lachmannschen Textkritik, der als bekannt vorausgesetzt werden darf. Bei genauerer Betrachtung ist dieses Urteil nicht so sehr gegen die Methoden der .niederen. Textkritik' gerichtet, sondern vielmehr gegen das daraus resultierende Produkt, den so genannten .diplomatischen Abdruck'. Auch dafür mag ein aktuelles Beispiel genügen: In. die Kerbe der traditionellen Geringschätzung des diplomatischen Ab- 1 Vg3. Thomas Bern: Die mediävisüsche Edition und ihre Methoden, In: Text und Edition. Positionen und Perspektiven. Hrsg. von Rüdiger Nutt-Kofoth, Bodo Ptoclita, H.T.M. van Vhel und Hermann Zwerschina. Berlin 2000, S. 81-98, hier S. 81, wo auch das entsprechende Originalität von Lachmann angeführt ist. 1 Vgl. MagdaSene Lutz-Hensel: Prinzipien der ersten textkricischen Editionen mittelhochdeutscher Dichtung. Brüder Grimm — Benecke - Lachmann. Eine methodenkritische Analyse. Berlin 1975 (Philologische Studien u£id Quellen. 77), S. 44—46. i Vgl. Gabriele Schieb: Edidonsprobleine altdeutscher Texte. In: PBB (Ost) 89, T967, 8,404-430, bes. S. 410. 5 Bern 2000 (Anni. 1), S. 81. ejido iy, ioo.s editio jy. 2ŮO5 2 Andren 1 IcpneiHer drucks schlägt Joachim Heinzle, wenn er es als „Weg des geringsten Risikos"5 bezeichnet, den überlieferten Text als Faksimile abzubilden und/oder zeichengetteu zu transkribieren, selbst wenn dabei kritische Überlegungen zum Einsatz kommen, indem etwa Textfelder im Kommentar erörtert werden. Ich möchte mich in meinen Ausführungen nicht mit den Aufgaben und Methoden der sog. höheren Textkritik auseinandersetzen; vielmehr möchte ich den Blick, auf die Gefilde der gliederen Textkritik' lenken, deren Leistung im Kontext wissenschaftlicher Editionen mir unterschätzt zu werden scheint. Ferner möchte ich Möglichkeiten aufzeigen, beide Formen der Textkritik in der Editionswissenschaft so zu integrieren, daß ihr Zusammenwirken zu einer Qualitätssteigerung fuhren und damit den Fortschritt in unserer Disziplin befördern kann. Daraus ergeben sich schließlich Überlegungen, wie Editionen künftig konzipiert sein sollten, um den solcherart erzielten Mehrwert philologischer .Basisarbeit für weitere Forschungsanliegen optimal nutzbar zu machen. Werfen wir zunächst einen Blick auf den Ablaufeines üblichen Editionsvorganges: Editionsaufgaben beginnen ja keineswegs erst mit dem methodischen Dreischritt der .recensio', ,exammatio' und ,emendatio'. Damit handschriftliche Textzeugen überhaupt den Prozeduren der höheren Textkritik unterzogen werden können, müssen folgende Arbeitsschritte vorgeschaltet werden, die für das angestrebte Gesamtziel, nämlich eine ,an wissenschaftlichen Prinzipien orientierte Edition', von essentieller, ja fundamentaler Bedeutung sind: 1. das Entziffern des handschriftlichen Textes, 2. die Transportierung in ein anderes (nämlich unser modernes Druck-)Schrift-system, j. das Verstehen des Textes auf allen sprachlichen Ebenen. Ais unabdingbare Voraussetzung für jede weitere editorische Behandlung des Textes zählen diese Schritte bereits zum eigentlichen Editionsprozeß. Daß von diesen Schritten in Zusammenhang mit wissenschaftlicher Editorik selten die Rede ist, dürfte daran liegen, daß sie einerseits als selbstverständlich angesehen werden und daß ihnen andererseits keine objektivierbare Methodik zugrunde zu liegen scheint, weshalb sie nach landläufiger Meinung in großem Maße von Intuition geprägt seien. Dieses Vorurteil möchte ich zunächst näher untersuchen und über die Tätigkeit der Entzifferung von Handschriften und der Transponierung in ein anderes Schriftsystem nachdenken, die durch die intensive Auseinandersetzung mit dem Textzeugen die Grundlage für ein umfassendes Textverständnis liefern soll. 4 Joachim Heinzle: Zur Logik mediävistischer Editionen. Einige Grundbegriffe. In: editio 17. 2003, S. 1-15, hier S. ]. Texikriiik ah Erkenntnisprozeß: sehen - venivheu - tieuitu 3 Die Decliiflxieruiig von Handschriften ist ein hochkoniplexer kognitionspsy-chologischer Vorgang:'' Wie uns die Wahraehmungstheone lehrt, funktioniert Schrifterkennung nach den Gesetzen der visuellen Mustererkennung durch sogenannten Schablonenabgleich. Voraussetzung ist, daß die Inputmuster relativ exakt mit den im Gehirn gespeicherten Mustern übereinstimmen, was nur bei Druckschriften mit ihrem konstanten Musterinventar gegeben ist. Schwieriger gestaltet sich die Entzifferung handschriftlicher Texte aufgrund der Variabilität der Inputmuster. Diese macht eine zusätzliche Merkmalsanalyse erforderlich, also eine Zerlegung der eingegebenen Muster in ihre Einzelmerkmale und das Erkennen ihrer Konfiguration, wobei uns die Fähigkeit zur Unterscheidung von zentralen und peripheren Merkmalen zu Hilfe kommt. Der Bekanntheitsgrad des zu entziffernden Schriftsystems spielt dabei übrigens prinzipiell keine Rolle — sogar die DechifFrierung unbekannter Schriften vollzieht sich in kognitionspsychologischen Zirkeln.7 Bei mangelnder Übereinstimmung der Schriftzeichen im Verhältnis zum betreffenden Musterinventar werden die Symbole mit Hilfe des Kontextes erkannt bzw. erlernt.8 Auf diese Weise entsteht im Gehirn gewissermaßen ein neues Musterinventar. Das sind grob vereinfacht dargestellt die Abläufe der Entzifferung von geschriebenen Texten — das eigentliche Lesen, das inhaldiche Erfassen von Texten, ist noch um einiges komplexer, denn hier laufen mehrere kognitive Vorgänge gleichzeitig ab: Parallel zur Identifizierung der Schriftsymbole gilt es eventuell den Lautbezug der Schriftelemente herzustellen, was vor allem beim Erwerb der Lesefähigkeit im Vordergrund steht. Schriftelemente formieren sich jedoch zu Ketten, die jeweils Wörter symbolisieren. Der geübte Leser erfaßt ganze Wortbilder als sinntragende Bausteine von Texten und stellt bereits unmittelbar während des optischen Erfassens deren semantisch-syntaktische Verknüpfung her. Auch wenn die Dekodie-rung einer Handschrift mehr mit der primitiveren Stufe des buchstabierenden Lesens zu tun hat, beruht also das damit einhergehende Textverständnis keineswegs allein auf mechanischem Mustervergleich, sondern wird wesentlich durch unsere Sprachkompetenz, den Kontext und unsere Erfahrung von der Welt bestimmt.' Kognitive Prozesse laufen grundsätzlich ohne unser Zutun ab und unabhängig davon, ob wir uns ihrer bewußt sind oder nicht. Da sie zudem in unmittelbarem Zusammenhang mit der persönlichen Mind-Map des entziffernden Individuums rt Zu den folgenden Ausführungen vgl. John R. Anderson: Kognitive Psychologie. Übersetzt und hrsg. von Ralf Graf und Joachim Grabowski. j.Auil. Heideiberg, Berlin 20O\, 1 Vgl, Anderson 2001 (Anm. 6), S. 21C s Vgl. Anderson 2001 (Anm. 6), S. 146. ~ Zum Therm Dekodierimg vgl. auch Stanislav Segert: Decipherment In: Schrift und Schriftlichkeit / Writing arid Its Use. Ein interdisziplinäres Handbuch internationaler Forschung. Zusammen mit Jürgen BauŤmaran u, a, hrsg. von I lartmut Günther und Otto Ludwig. Halbbd. I. Berlin, New York 1994 (Handbücher zur Sprach- und Komniunikacions-wtssensdiaft- 10,1), S. 416—4:13. Vgl. Wolfgang Feigs: Zur Dekodierung individueller Handschriften. In.: New Trends in Graphe-mics and Orthography. Hrsg. von Gerhard Äugst. Berlin, New York 1986, S. 543-154, hier S. 144. editio !9, 2005 4 Andren I lojmeister Textkritik iih Erkenntnisprozeß: sehen — verstehen - deutet! 5 stehen, handelt es sich dabei jedenfalls um subjektive Aneignung, um Interpretation. Wenn aber das Fundament gleichsam von Natur aus nicht objektiv sein kann, muß dann nicht alles Bemühen um Textkritik a priori für sinnlos erklärt werden? Seit der zweiten Hälfte des 20. Jahrhunderts machte sich die strukturelle Linguistik die damals noch jungen Krkcnntnisse der kognitiven. Psychologie zunutze und schul mit der Entwicklung der Graphefik ein exaktes Instrumentarium, mit dem der Entzifferungsvorgang und der Transponierungsvorgang operationalisiert werden können. Bislang sind linguistische Methoden, leider allzu selten bei der Erfüllung von philologischen Editionsaufgaben zum Einsatz gekommen, was wohl darauf zurückzuführen sein dürfte, daß sich die Editorik traditionell als Domäne der Literaturwissenschaft begreift.'" Dabei kann die Linguistik in der Editorik eine ganze Reihe von wichtigen Aufgaben übernehmen. Die Methoden der Graphefik. die eigens für die Erforschung der geschriebenen Sprache entwickelt wurden, erlauben beispielsweise anstelle eines intuitiv-tentativen ein systematisches Vorgehen bei der Entzifferung von Handschriften. Die Identifikation der Schriftelemente setzt zunächst deren Segmentation voraus. Das mag auf den ersten Blick banal klingen, ist jedoch nicht einmal bei Buchschriften mit ihren klar .gesetzten1 Graphen obsolet, wie sich an Ligaturformen erweist; am deutlichsten zeigt sich die Notwendigkeit zur Definition von Graphgrenzen in kursiven Schriften, bei denen bereits diese harmlos erscheinende Aufgabe von nicht unerheblichen Schwierigkeiten begleitet wird - man denke etwa an die vielfältigen Ligaturformen gotischer Schriftsysteme." Der Bestand an Realisationsformen von Schriftelementen in einem handschriftlichen Text wird sodann mit einem bereits bekannten oder erst im Aufbau begriffenen Musterkatalog verglichen und nach formalen Merkmalen zugeordnet. Es erfolgt also eine formale Klassifikation, bei der Graphe auf der untersten Stufe der linguistischen Analyse, der graphetischen Analyse, zu Formklassen von Graphtypen zusammengefaßt werden. (Die Distinktivität der Schrifteleinentc stellt hier 10 Die erste maschinelle graphematische Alulyse eines umfangreichen handschriftlichen Textkorpus zum Zweck der Edition desselben nahm 11)65 der schwedische Linguist Sture Allen vor; er gilt damit als Begründer der .computationalen Graphematik'. Vgl. Sture Allen: Grafematisk analys som grundval för textedering med sarskild hänsyn tili Jolian Ekeblads brev rill brodern Claes Ekeblad 1639—1655. Göteborg 1965 (Nordistica Gothoburgensia. 1) sowie die daraus hervorgegangene Edition: JohanEkebiads brev tili brodern Claes Ekeblad 1639-1655, Utgivnamed inlcdning, kominen-tar och register av Sture Allen. Göteborg 1965 (Nordistica Gothoburgensia 2). Graphematische Untersuchungen an historischen Texten (mit oder ohne Computerunterstützung), die seither in nicht geringer Zahl durchgeführt wurden, mündeten in den seltensten Fällen in Textausgaben, obwohl das Material dazu meist erst mühsam aus den Quellen gewonnen werden mußte! Vgl. Hans Dieter Lutz: Ubersicht zur maschinellen Analyse altdeutscher Texte, In: Zeitschrift für deutsche Philologie 90, 1971, S. 336-355, sowie die seit 1989 jährlich in der Zeitschrift Germanistik erscheinenden Berichte über EDV-Projekte auf dem Gebiet der deutschen und altnordischen Spruche und Literatm: " Obwohl die Methode der Segmentatiun bei kursiven Handschriften mit speziellen Problemen konfrontiert wird, ist sie als Werkzeug sogar in solchen Fällen geeignet, wie Allen 1965 (Ariin. 10) zeigte. bei zunächst noch nicht zur Diskussion: Die Frage nach der Fähigkeit, semantische Oppositionen zu bilden, spielt nämlich erst bei der Graphemanalyse eine Rolle.) Erst wenn die Dekodierung abgeschlossen und ein komplettes Musterinventar aufgestellt ist, kann darangegangen werden, den Text in Druckschrift zu transponieren. Zuvor muß aber der angestrebte Grad an Wiedergabetreue definiert und die Entscheidung für eine Kodicrungsform getroffen werden. Es empfiehlt sich, für diese Basistransliteraüon einen möglichst hohen Grad an Informationsdichte zu wählen, also eine Art Wahrnehmungsprotokoll" zu schaffen, eine deskriptive Dokumentation des handschriftlichen Befundes, die sich jeglicher Deutung tunlichst enthält und dadurch möglichst objektiv ist. Da diese Editionsstufe das Fundament für alle weiteren editorischen Arbeitsschritte darstellt, verdient sie größte Sorgfalt, denn Fehhnterpretationen bei der Entzifferung und Basistrarisponierung können sich leicht bis in die Sphären der höheren Textkritik fortpflanzen, und das Ergebnis der späteren literaturwissenschaftlichen Interpretation nachhaltig beeinträchtigen. An dieser Stelle sei ein kleiner Exkurs über das Verhältnis von Befund und Deutung gestattet: Die beiden Grundfaktoren allen editorischen Handelns, Befund und Deutung" bzw. das Moment der Dokumentation und das Moment der Interpretation, verhalten sich im Verlauf des Editionsprozesses zueinander gegenläufig. Die beiden Bereiche korrelieren mit der Durchsichtigkeit auf den Code einerseits und mit der Durchsichtigkeit auf die Textbedeutung, seine Referentialitä't, andererseits. Diesen Umstand versucht die nachstehende Graphik zu visualisieren und zugleich zur Hierarchie der Textebenen in Beziehung zu setzen. Wie aus der schematischen Darstellung hervorgeht, ist die Informationsdichte hinsichtlich des Codes um so höher, je weniger der Befund interpretiert wird. Andererseits erleichtert eine Reduzierung des Informationsgehaltes bezüglich des Codes ganz augenscheinlich das TextverständnisM - allerdings auf Kosten der Durchsichtigkeit auf den Code. Wie kann nun verhindert werden, daß Informationen verlorengehen? Den originalen Informationsgehalt kann nur die Handschrift selbst oder allenfalls ersatzweise ein qualitativ hochwertiges Faksimile bieten. Die vorhin beschriebene deskriptive Basistransliteration zeichnet sich zwar durch größtmöglichen Informationsgehalt im Verhältnis zur handschriftlichen Vorlage aus, d.h., sie enthält Informationen aller Ebenen des geschriebenen Textes kumulativ, droht aber gerade " Vgl. Wanfried Hofmeister: Die Edition als .offenes Buch': Chancen und Risiken einer Traropo-merangs-Synupse, exemplarisch dargestellt an der Dichtung Von des toAcsgehugede des sog. Heinrich von Melk. In: Produktion und Kontext. Beiträge der Internationalen Fachtagung der Arbeitsgemeinschaft für germanistische Edition im Constantijn Huygeus Insdcuut, Den Haag, 4. bis 7. Marz 1998. Hrsg. von H.T.M. van Vliet. Tübingen 1999 (Beihefte zu edkio. 13), S. 23-39, hier S. 33. " Vgl. Hans Zeller: Befund und Deutung. Interpretation und Dokumentation als Ziel und Methode der Edition, In: Texte und Varianten. Probleme ihrer Edition und Interpretation, Hrsg. von Gunter Martens und Hans Zeller. München 1971, S. 45-80. " Dieses Argument steht bis zum heutigen Tag an erster Stelle, wenn es gilt, normierende Textcin-griöe jegheher Art zu rechtfertigen. Arnim-: Ho fany iter Relation von Befund und Deutung liiforrnatíoíis-Ebeneíi des Textes semantische Ebene syn takti sehe Ebene morphematische Ebene graphenialischii Ebene graphetische Ebene paläograpliische Ebene + ........... % i % Hdit.ioHssCulen (^J ,normaüsierLer' Text yTi ... o... (^j .diplomatischer' Abdruck ^1"; graphet. reduzierte Ifanslit. (^3 deskriptive Transliteration Faksimile Handschrift dadurch unübersichtlich und wenig benutzerfreundlich zu sein. Daher fühlen sich Editoren zu Recht verpflichtet, den originalen Informationsgehalt benutzergerecht zu filtern und nur eine selektive Auswahl der Informationen zu präsentieren. Auf welche sprachliche Ebene der Fokus dabei gerichtet wird, hängt sehr stark von der wissenschaftlichen Grundorientierung des Editors ab: Schon aus diesem Grund unterscheiden sich beispielsweise Editionen von Sprachwissenschaftlern von solchen, die Literaturwissenschaftler erstellt haben. Da letztere natürlich in erster Linie an der semantischen Ebene interessiert sind, reduzieren sie leichten Herzens die Inforniationsfülle auf der paläographisch-graphetischen Ebene. Schwer zu lokalisieren und daher nicht eigens verzeichnet ist in diesem zweidimensionalen Schema übrigens die traditionelle Form der sog. .Normalisierung' germanistischer Editionen, die sich bemüht, zugleich mit der graphischen Vereinheitlichung eine Abbildung der phonemischen Textebene zu erreichen, wobei sie sich an einem idealtypischen Mittelhochdeutsch orientiert und das gesicherte Terrain handschriftlicher Fakten verläßt. Jede Transliteration geht mit einem gewissen Informationsverlust einher, wie sehr sie sich auch um Wiedergabetreue bemüht. So muß selbst die deskriptive Transliteration Zugeständnisse an die technischen Umsetzungsmöglichkeiten machen - das liegt schon in der Natur des unvermeidlichen Schriftsystemwechsels. Nun wäre gegen eine vorsätzlich vorgenommene Reduktion der Informationsdichte grundsätzlich nichts einzuwenden, würde sie nicht oft nach textfremden, willkürlich festgelegten Regeln durchgeführt. "Welcher Editor kennt nicht den Katalog von Maßnahmen zur graphischen Vereinheitlichung handschrifdicher (historischer) Textzeugnisse von Johannes Schultze,'5 der seit 1930 wiederholt neu aufgelegt wur- ! Johannes Schukze: Richtlinien für die äußere Tcxtgestaltung bei Herausgabe von Quellen zur Textkritik a/s Fjkcnrutü.yrocrß: >rht:ti — pf-rsiehťti - dťuu-n 7 de und neuerdings sogar über das Internet Verbreitung findet, oder die bereits erwähnte .Normalisierung' Lachmannscher Prägung, die eingeführt wurde, um den Text von .störender' Varianz zu entlasten - leider oftmals mit Maßnahmen, die noch weniger textadäquat und transparent sind! Nach den eingangs angestellten Überlegungen sollte bei allen Eingriffen dieser Art objektiven Kriterien der Vorzug gegeben werden, die auf linguistischen Analysen der betreffenden Textebenen beruhen. Wichtig scheint mir ferner, daß dieser Variantenabbau systematisch und in möglichst homogenen Schichten vorgenommen wird. Nur so läßt sich verhindern, daß Phänomene ignoriert werden. Auch fiir die Regulierung des graphischen Befundes könnten linguistische Operationen auf entsprechend höheren Textebenen zum Einsatz kommen, wobei zu berücksichtigen ist, daß es m der Graphematik verschiedene Ansätze gibt, die zu jeweils verschiedenen Untersuchungsergebnissen führen."" Mit Hilfe dieser linguistischen Verfahren, sollte es unter Einbeziehung der statistischen Signifikanz möglich sein, textimmanente Normalisierungsregeln zu gewinnen, wenn eine solche Editionsstufe gewünscht wird.11 Bemühungen zur Entwicklung geeigneter und vor allem praktikabler Verfahren sind in der Cornputerlinguistik bereits seit mehr als zwei Jahrzehnten im Gange.'* Da diese Verfahren trotz Computereinsatz jedenfalls einen enormen Aufwand verursachen, sollte eine Grundsatzdiskussion darüber geführt werden, welche Zielsetzungen und Kriterien für eine sprachliche Normierung gelten können: Soll dabei dem autonomen/phonemfreien oder phonembezogenen Ansatz gefolgt werden, soll textimmanent, regional, überregional, textsortenspeziiisch etc. vorgegangen werden? Und weiter würde sich wohl automatisch die Frage erheben, ob Eingriffe in die originale Graphie um den Preis der Historizität diesen hohen Aufwand rechtfertigen können. neueren deutschen Geschichte. In: R-orrespondenzblatt des Gesarntvereins der Deutschen Geschieht,- und Alterthumsvereine 7K, 1930, S. 37ti. - In einer Überarbeitung durch die Arbeitsgemeinschaft außeruniversitärer historischer Forschungseinrichtungen im internet unter . Für eine Ubersicht über die möglichen Grundpositionen mit Abwägung der Vor- und Nachteile im Kontext eines Editionsprozesses vgl. Andrea Hofmeister-Winter: Das Konzept einer .Dynamischen Edition' dargestellt an der Erstausgabe des „Brixner Dommesnerbuches" von Veit Feicbtcr (Mitte in. Jh.). Theorie und praktische Umsetzung. Göppingen 2003 (Göppinger Arbeiten zur Germanistik. J06), S. '■' Uber dít- möglichen Verjähren der textextemen und textiinmaneriten Normierung mittelhochdeutscher und friihncuhochdeutscher Texte mit und ohne Einsatz linguistischer Methoden sowie deren Auswirkungen auf die Historizitat der Texte vgl. Hofmeister-Winter 2003 (Anm. 16), S- so— 7i- Vgl. z.B. Hans Fix: Automatische Normalisierung - Vorarbeit zur Leinmatisierung eines diplomatischen akisländischen Textes, in: Maschinelle Verarbeitung altdeutscher Texte. Bd. 3: Beiträge zum 3. Symposion, Tübingen 17.-19. Feb. 1977. Hrsg. von Psul Sappicr und Erich Straßner. Tübingen tgSo, S.92-100. ■- Gerhard Koller: Ein maschineües Verfahren zur Normalisierung altdeutscher Texte, in: Germanistik in Erlangen. Hundert Jahre nach der Gründung des Deutschen Seminars. Hrsg. von Dietmar Peschel. Erlangen 19^3, S,611-020. cdirio 19. ioas cititio ay. zoos Andrea Hofmeister je nachdem, wie tief die Eingriffe in die originale Graphic der Handschrift am Ende des Editionsprozesses ausfallen, wird das Ergebnis eher einem sog. .diplomatischen Abdruck' oder einer sog. normalisierten Ausgabe im herkömmlichen Sinn entsprechen {beide jeweils in höchster, weil wissenschaftlich verantworteter Qualität!) - es handelt sich lediglich um eine Frage der graduellen Abstufung. Wofür man sich entscheidet, hängt sowohl von der spezifischen Ausgangslage des überlieferten Textes als auch von der Definition der editorischen Ziele ab, die für jedes Editionsprojekt gesondert vorzunehmen ist. Für wesentlich erachte ich in diesem Zusammenhang die Tatsache, daß der diplomatische Abdruck und die normalisierte Ausgabe im Rahmen eines solchen mehrstufigen Editionskonzeptes nicht langer als gegensätzliche Darstellungsme-thoden erscheinen, sondern als Stufen eines linearen Editionsprozesses. Dieser Prozeß ist nicht umkehrbar: Jede Stufe bestimmt die Qualität der nachfolgenden Stufe, und was im editorischen Arbeitsprozeß undokumentiert und unanalysiert verworfen wird, ist sozusagen unwiederbringlich verloren, außer man beginnt noch einmal von vorne! Welche Konsequenzen lassen sich aus diesen Überlegungen für eine künftige Edi-torik ableiten? Textkritik bestimmt den gesamten Editionsprozeß von der Handschrift bis zum .textus constitutum/. Dieser Prozeß verläuft linear über mehrere Stufen und kommt einem fortschreitenden Erkenntnisprozeß gleich, der nach oben hin grundsätzlich offen ist. Die Methoden, die auf den einzelnen Stufen der textkritischen Bearbeitung angewendet werden, müssen den Erfordernissen der jeweiligen Stufe angemessen sein. Um den textkritischen Prozeß so transparent wie möglich zu halten, sollten jedenfalls objektive Methoden zum Einsatz gelangen, wie sie die Linguistik anbietet. Dies gilt besonders für den Bereich der niederen Textkritik, mit dessen Hilfe das Fundament für jede weitere textkritische Behandlung gelegt wird und von dessen Zuverlässigkeit die Qualität der Ergebnisse von Edition und Interpretation abhängen. In Anbetracht des Energieaufwandes, den ein Editionsprozeß erfordert, erscheint es mir geradezu unökonomisch, sich in der Darstellung auf eine bestimmte Textform zu beschränken. {Zudem stellt diese Beschränkung den Editor stets vor die leidige Gewissensfrage, in welcher Nahe zum Original er den Editionstext ansetzen soll.) Daher empfehle ich für künftige Editionsprojekte den Einsatz eines dynamischen Editionskonzeptes, das mehrere markante Schnittebenen des Eds tionsprozesses zur Darstellung bringt und damit eine mehrfache Nutzung der Edition durch verschiedene Benutzerkreise (Paläographen, Sprach-ZLiteraturwissen-schaftler etc.) ermöglicht. Dieses Konzept wurde an unikal überlieferten Texten bereits praktisch erprobt.'9 Es sollte sich gerade auch für die Edition mehrfach •■■> Die Schriften des Brixner Domniemeis Veit Feichter (ca. 1510-1560). Bd. 1: Das ßnxner Dommes-nerbuch. Mit elektronischer Rohtextversion und digitalem VolH'aksiimk- auf CD-ROM. Im Auf- Texikritik als F.rknmmhpmteß: sehen - verstehen - ikuten g überlieferter Texte eignen und zu einer Qualitätssteigerung fuhren, wobei im Bereich der niederen Textkritik jede Handschrift zunächst für sich als gleichwertig zu behandeln wäre, bevor mit Hilfe der höheren Textkritik ein historisch-kritischer Text erstellt würde.2" Der Mehraufwand für solche mehrstufigen Editionsprojekte ist - gemessen am Nutzen - nur ein relativer, geht es doch genaugenommen lediglich um die Dokumentation von Arbeitsschritten, die jeder Herausgeber einer wissenschaftlichen Edition ohnehin zu leisten hat, wenn auch im Verborgenen. Denn es ist unumgänglich, sich in die Niederungen der nur scheinbar banalen Textsicherung zu begeben, um zum Olymp der Textkritik zu gelangen-die Mühe wird durch Qualität und Nachbaltigkek belohnt. Abstract Generally, the grounding of philological text editions is based upon traditional text criticism, which Karl Lachmann divided into three methodical steps (recensio, examinatio, and emmdalio), the so-called 'higher text criticism'. But before that, the editor has (1) to decipher the manuscript thoroughly, in order to (2) transfer the historical writing system into modern typography, and above all he (3) needs to comprehend the text extensively. This 'lower textual criticism', standing at the beginning of the editor's work, has to be seen as a continual process of recognition, leading from the manuscript evidence to the final text edition. A strict linguistic methodology borrowed from the fields of grapheniatics and graphemes allows to upgrade the scientific level of philological work as it breaks down the large amount of information layer by layer, thus directing the focus from the code to the content of the manuscript. As a result, tbc so-called diplomatic transcription is not in opposition to the normalized text, but has the status of a preceding stage within one and the same open-ended editorial process. According to these reflections modern text editions should use a concept of a 'Dynamic Edition' (as developed by the author of this contribution), offering the users of such an edition various textual levels. This is achieved by adding several editorial levels to the critical (normalized) printing edition, which consist of (electronic) facsimiles, a strict diplomatic transcription and a graphically reduced version of the entire text in machine-readable format. By this procedure diverse demands of all possible users of the edition (including linguistic studies) can be met and a maximum of transparency and objectivity is guaranteed. trag der Stadt ßrixen hrsg. von Andrea Hofmeister-Winter. Innsbruck 2001 (Innsbrucker Beiträge zur Kulturwissenschaft. Germanistische Reihe, 03). -Bd.2 in gleicher Ausstattung ist in Vorbereitung: Das inventár der Brixner Domsakristei (um 154g). Das Urbar des Brixner Dommesneramtes samt Einkünfteverzekhnis (1547-1560) und Abdruck des Urbars von 1513. -J Jan solches Projekt konnte vor kurzem abgeschlossen werden und präsentiert sich .multimedial', und zwar der kritische Text in herkömmlicher Printform: Hugo von Montforr. Das poetische Werk. Mit einem Melodie-Anhang von Agnes Grond. Hrsg. von Wernfried Hofmeister. Berlin, New York 2005; die elefcSomsche Basistransi iteration sämtlicher ÜberUeferungszeugen einschließlich áet Farbabbildungen zur gesamten Streuüberlieferung ist über folgende Interrietadresse frei zugänglich: . fditio iij, 2005