Ausschneiden, Einfügen, Suchen, Ersetzen. Digitale Religionsgeschichte meets Buchzensur im Europa des 16. Jahrhunderts
Wie »digital« ist die Christentumsgeschichte bereits? Wie lassen sich »traditionelle« und »digitale« Forschungsansätze klug kombinieren und wie könnte die europäische Christentumsgeschichte in Zukunft von der computational history profitieren?
Ausschneiden, Einfügen, Suchen, Ersetzen. Digitale Religionsgeschichte meets Buchzensur im Europa des 16. Jahrhunderts
·
»Na, dann schreibt sich Ihre Habil ja bald von selbst!«, sagte mir ein Theologieprofessor scherzhaft und vielleicht auch ein wenig spöttisch, als ich ihm vor einigen Jahren von meinen ersten Gehversuchen mit den Digital Humanities erzählte.1 Ausweichend antwortete ich: »Nichts wäre schöner als das!«, wohl wissend, dass digitale Werkzeuge zuweilen Segen und Fluch zugleich sein können. Doch wie »digital« ist die Christentumsgeschichte eigentlich und wie könnte sie von den Digital Humanities (DH) in Zukunft profitieren?
1. Möglichkeiten: Digital Humanities und digital literacy
Wer unter DH die tägliche Arbeit am Computer oder die Nutzung und Bereitstellung von Quellen im Internet versteht, gesteht ein, dass die Geschichtswissenschaft – und damit auch die Christentumsgeschichte – faktisch längst »digital« sind. Eigentlich nutzen alle den Computer, mindestens als eine Art ›hippe Schreibmaschine‹. Negativ formuliert: »Technology has become inescapable, even if many historians refuse to acknowledge the fact and remain reluctant to embrace it.«2
Schon allein die Literaturdatenbanken und die sekundenschnelle Verfügbarkeit retro-digitalisierter Quellen erweitern die Forschungsperspektive enorm, da die Möglichkeiten der Kontextualisierung von Quellen und Akteuren wachsen.3 »We can see more traces. It means we can find more clues.«4 Das beginnt beim schlichten Auffinden von Quellen: Noch 1977 musste Johannes Meier das Ergebnis seiner Recherche zur Formula examinandi des berühmten Kölner Theologen Johannes Gropper von 1550 so zusammenfassen: »Trotz intensiver Suche in Bibliotheken des In- und Auslandes ist bisher kein Exemplar der Schrift aufzufinden.«5 Heute genügt es, »Gropper Formula« in der Suchmaske des Verzeichnisses der im deutschen Sprachbereich erschienenen Drucke des 16. Jahrhunderts (VD 16) einzugeben, um in einem Augenblick den Standort des Werks zu finden; einen Klick später lässt sich das Buch im Portal »Digitalisierte Sammlungen« der Staatsbibliothek zu Berlin lesen. Die Quellen finden den Weg auf unseren Bildschirm weitgehend unabhängig vom geographischen Standort der Forschenden und nicht mehr allein über Bibliothekskataloge, Repertorien und Recherche vor Ort, sondern mittels der Suchalgorithmen: »a far more sophisticated fragment-catching net than historians have ever before had at their disposal.«6
Ist dem so aufgespürten Digitalisat ein durchsuchbarer Volltext beigegeben, dehnen sich die algorithmengestützten Recherchemöglichkeiten auf den Text selbst aus.7 Die wachsende Zahl professionell edierter kirchenhistorischer Quellen bietet nicht nur eine gut navigierbare und qualitativ hochwertige, manchmal sogar diplomatische Transkription nebst Foto der Quelle, sondern die edierten Texte werden oft auch mit maschinenlesbaren Zusatzinformationen angereichert. Sind beispielsweise die im Text genannten Orte als solche ausgezeichnet und mit standardisierten Georeferenzen versehen, lassen sie sich nicht nur maschinell auswerten, etwa als interaktives Ortsregister, sondern auch mit anderen georeferenzierten Informationen verknüpfen, um beispielsweise eine interaktive Landkarte zu generieren.8 Ebenso können auch andere »Entitäten«, wie Personen oder auch intra- und intertextuelle Zusammenhänge semantisch ausgezeichnet werden. Gerade Letzteres birgt für die Theologiegeschichte – die ja voll von solchen Querverbindungen zwischen Texten ist – großes Potenzial. Aus maschinenlesbaren Querverbindungen dieser Art bilden sich regelrechte Netzwerke im Sinne des »Semantic Web«, deren Erkundung in Zukunft den Blick auf bislang übersehene Zusammenhänge lenken oder die Perspektive weiten könnte.9 Als eine bequemere und mit zahlreichen Zusatzfunktionen ausgestattete Neuauflage von Zettelkasten, Katalog, Fernleihe und Edition sind die DH also bereits fest in der alltäglichen Forschungspraxis etabliert.
Zugleich steht die Entwicklung in vielerlei Hinsicht noch ganz am Anfang: Die meisten Quellen sind eben (noch?) nicht digitalisiert,10 sind nicht im Volltext durchsuchbar, oder der verfügbare Volltext ist aufgrund defizitärer automatischer Texterkennung so fehlerhaft, dass die Suche zum Glückspiel mutiert. So praktisch es auch ist, tausende frühneuzeitlicher Drucke auf Google Books einsehen zu können, so frustrierend ist die Suche im ausgesprochen fehlerhaften Google’schen »Volltext«: wer »Chriftus« sucht, wird »Christus« finden.11 Dann gilt: Was die Suchfunktion nicht findet oder was die Datenbank nicht gespeichert hat, liegt zunächst einmal außerhalb des Gesichtsfeldes der »digitalen Geschichte«.12 Ein gewisses Maß an digital literacy, also Expertenwissen über technische Standards, Möglichkeiten und Grenzen, hilft zwar, die bereits vorhandenen digitalen Werkzeuge und Quellencorpora effizient und »methodisch sauber« zu nutzen,13 aber manche Defizite lassen sich auch durch die »Professionalisierung der eigenen digitalen Praxis«14 kaum ausbügeln. Wenn der Zugriff auf einen bereits digitalisierten Text beispielsweise nur über eine umständliche und funktionsarme Benutzeroberfläche möglich ist, schrumpfen die Vorteile der digitalen gegenüber der gedruckten Edition auf ein Minimum.15 Aber selbst wenn die Technik perfekt funktionieren würde, kann »digitale Geschichte« immer nur bedeuten, »traditionelle« und »digitale« Ansätze klug zu kombinieren.16 Computernutzung ersetzt die Hermeneutik nicht, kann mit ihr aber fruchtbare Symbiosen eingehen.17 Eine separate, rein »digitale« Geschichte neben einer »nicht-digitalen« Geschichte existiert weder auf der Quellen- noch auf der Methodenebene. »Hybridity is the new normal.«18 Die entscheidende Frage ist, was »klug kombinieren« im Einzelfall genau bedeutet oder bedeuten könnte.19
2. Potenziale: Computational history und die katholische Buchzensur im 16. Jahrhundert
Außer für Textverarbeitung, Recherche und digitale Editionen lässt sich die Fähigkeit der Computer, große Mengen an Daten schnell auszuwerten, auch unmittelbar für die Analyse historischer Quellen nutzen. Dass es dabei längst nicht nur um statistische Auswertungen – samt dem damit verbundenen »Schisma […] in qualitativ und quantitativ arbeitende Wissenschaftler«20 – geht, kann ein Fallbeispiel aus der Theologiegeschichte zeigen: Wer die Praxis katholischer Buchzensur im 16. Jahrhundert erforscht, verliert sich früher oder später in unzähligen, ungemein kleinteiligen Quellen. Allein im Archiv der 1572 gegründeten Indexkongregation in Rom21 liegen tausende von handschriftlichen Notizen zu Passagen in Büchern, die die Zensoren für häresieverdächtig hielten. Auf Grundlage dieser so genannten »Zensuren« entschieden die leitenden Kardinäle, ob ein Autor oder ein einzelnes Werk auf den Index librorum prohibitorum gesetzt werden sollte oder ob sich eine »Expurgation« lohnen würde, bei der an den verdächtigen Stellen Wörter eingefügt, gelöscht oder ersetzt und die so »expurgierten« Bücher neu gedruckt wurden. Entsprechende Änderungsvorschläge finden sich in den Zensuren zuhauf: »dele« (lösche), »adde« (füge hinzu), »sic vertendum« (sollte wie folgt verändert werden) etc. Zusammen mit anderen Unterlagen wurden die Zensuren zu umfangreichen Faszikeln gebunden (600–1000 Blätter), woraus sich eine ziemlich chaotische ›Ordnung‹ im Archiv der Indexkongregation ergab.
Die Sekretäre der Indexkongregation versuchten, das Chaos mit langen Inhaltsverzeichnissen zu bändigen, deren Verweise heute aber oft ins Leere laufen, weil Akten umsortiert wurden oder anderweitig verschwanden. 22 Auch eine Art ›Metakatalog‹, vermutlich aus den 1590er Jahren, ist erhalten: ein Notizbuch, das auf rund 90 Blättern über 570 Zensuren verzeichnet, samt zugehörigem Standort in den Regalen der Indexkongregation.23 Den Arbeitsalltag der Zensoren prägte also eine regelrechte Informationsflut, die mit Hilfe von Listen und Verweisen beherrscht werden sollte; und was die Zensoren produzierten, waren wiederum Listen und Verweise: die immer wieder aktualisierten und umgearbeiteten »Indices der verbotenen Bücher«.24
Es handelt sich im Grunde um Datenbanken ohne Computer und um nicht-automatisierte Suchmaschinen.25 Entsprechend mühsam war es, diese Verbotslisten tatsächlich umzusetzen. In Italien etwa sammelten lokale Inquisitoren vor Ort Inventarlisten von Buchhändlern und Bibliotheken, die dann von Hand mit dem Index abzugleichen waren.26 Im Rückblick auf das vergangene Jahr klagte der Inquisitor von Bologna im März 1597: »Ich habe ungefähr 4.000 Bücherlisten [von Buchhändlern und Klöstern gesammelt] und seit Beginn der Fastenzeit, in der ich mit anderen Männern von morgens bis abends daran gearbeitet habe, haben wir gerade einmal tausend Listen geschafft.«27
Einen konkreten Fall von Expurgation aus dieser erstaunlich modernen frühneuzeitlichen Datenflut herauszufischen und zu untersuchen, bedeutet, die nach wie vor dürftig erschlossenen Archivalien zu durchforsten, den darin enthaltenen Querverweisen (durch verschiedene Archive und Bibliotheken hindurch) zu folgen und die Ergebnisse wiederum in langen Listen festzuhalten.28 Dass hierbei Scans von Archivalien und Drucken, Datenbanken oder Tabellendokumente äußerst nützliche Dienste leisten, dürfte auch analogen Bücherwürmern einleuchten.
Am Ende der Bemühungen steht typischerweise die Feststellung, dass viele Akten fehlen oder Verweise nicht mehr auflösbar sind. Weil die genauen Expurgationsanweisungen für den Setzer nur selten erhalten sind, bleibt zudem oft unklar, was die Expurgation am Text letztlich geändert hat. Die einzige Möglichkeit, das herauszufinden, ist, das Original mit einem expurgierten Druck zu vergleichen.
Im Fall der Expurgation des Mainzer Dompredigers Johann Wild OFM (1495–1554) hatte sich ein englischer Puritaner namens William Crashaw (1572–1625/26) diese Mühe bereits Anfang des 17. Jahrhunderts gemacht: Er verglich zwei Hauptwerke des Mainzers Wort für Wort mit den 1577 in Rom expurgierten Neudrucken und hielt seine Ergebnisse mit Symbolen im Text fest: ein Kreis in margine für »additions«, ein halbrunder Strich für »alterations«, ein Häkchen in der Zeile für »detractions«.29
Leider ist nur einer der beiden annotierten Bände erhalten, und Crashaws Notizen ergeben nur dann Sinn, wenn man die markierten Stellen mit einer unzensierten Ausgabe vergleicht. Sind die Unterschiede endlich gefunden, bleibt das Problem, dass Rom längst nicht die einzige katholische Autorität war, die Bücher expurgierte. Man müsste dasselbe Spiel also mit Büchern aus Spanien und Frankreich wiederholen – allerdings ohne die hilfreichen Notizen Crashaws. Spätestens jetzt lässt sich die erwähnte Klage des Bologneser Inquisitors von 1597 existenziell nachvollziehen: Wochen, Monate ziehen ins Land, das stumpfsinnige Vergleichen zehrt an den Nerven. Mit der im Zeitlupentempo wachsenden Zahl gefundener Zensuren geht unweigerlich auch die Übersicht verloren.
Der Wort-für-Wort-Vergleich zweier Texte ist eigentlich eine ausgesprochen simple Angelegenheit: Zunächst muss ein Wort als Startpunkt des Vergleichs gefunden werden. Dann rückt der Finger in jedem Text jeweils ein Wort weiter und das Auge prüft, ob die beiden Wörter gleich oder ungleich sind. Sind sie ungleich, rückt der Finger in einem der beiden Texte so lange weiter, bis sich wieder ein gleiches Wort findet. Die dabei übersprungenen Wörter könnten eine Einfügung, Löschung oder Ersetzung der Zensoren sein, die der Buntstift sogleich markiert.
Dieses Verfahren ist so schlicht, dass es geradezu nach Automatisierung schreit.30 Leider existiert dafür keine schlüsselfertige Software.31 Mit Grundkenntnissen im Programmieren ist es allerdings gar nicht so schwierig, einen solchen Vergleich selbst zu implementieren, denn in allen gängigen Programmiersprachen gibt es dafür vorgefertigte, die sich in den eigenen Programmcode integrieren lassen.32 Ein Vorteil selbst geschriebener Software ist, dass sich mit wenigen Zeilen zusätzlichem Code das Ergebnis des Vergleichs maschinell weiterverarbeiten lässt, etwa indem die gefundenen Unterschiede im Originaltext farblich hervorgehoben werden.
Allerdings muss der Programmcode mit maschinenlesbarem Text gefüttert werden. Die im 16. Jahrhundert gedruckten Texte liegen oft jedoch höchstens als digitalisierte Fotos vor. Das Abtippen der Seiten würde mindestens genauso lange dauern wie die händische Suche nach Zensuren. Ältere Texterkennungssoftware versagt, weil der alte Text Buchstaben enthält, die heute nicht mehr verwendet werden, weil die Zeilen krumm sind, das Papier fleckig oder der Druck unsauber ist. Vor rund zehn Jahren wurden jedoch (mithilfe so genannter »künstlicher neuronaler Netze«) neue Algorithmen entwickelt, die mit diesen Problemen zurechtkommen und die nicht nur alte Drucke, sondern auch Handschriften in Text umwandeln können. Die an der Universität Innsbruck entwickelte Software Transkribus nutzt diese Verfahren und bietet ausgereifte Werkzeuge für die massenhafte Verarbeitung von digitalisierten Fotos alter Texte.33
Die zugrundeliegende Technik erfordert es, die Software zunächst mit hunderten von Beispielen zu trainieren – in diesem Fall mit Bildern von Textzeilen und der zugehörigen Transkription –, bevor sie selbständig Texte erkennen kann. Das Abtippen lässt sich also zunächst nicht vermeiden, aber bei Drucken reicht es, etwa 50 Seiten manuell zu transkribieren. Der Zeitaufwand liegt anfangs bei bis zu 40–55 min pro Seite. Wird die Software mit diesen 50 Seiten trainiert, ist sie in der Lage weitere Seiten selbständig zu transkribieren. Diese enthalten zwar noch viele Fehler und müssen korrigiert werden, wofür aber nur noch ca. 20 min pro Seite zu veranschlagen sind. Nach der Korrektur könnte dann beispielsweise mit 100 Seiten neu trainiert werden. Ist der Kreislauf aus Texterkennung, manueller Korrektur und erneutem Training mehrfach durchlaufen, stellt sich eine gewisse Verlässlichkeit ein und Texterkennungsfehler treten nur noch bei seltenen Buchstaben oder ungewohntem Druckbild auf.
In meinem Fall macht die Software, nachdem sie mit 900 Seiten trainiert wurde, nur noch bei durchschnittlich 0,31% der Buchstaben einen Fehler. Auf einer Seite mit beispielsweise 4.140 Buchstaben wären somit noch 13 Buchstaben falsch, im schlimmsten Fall 13 Wörter. Ganz ohne Korrekturlesen geht es also nicht. Ein Wort nach dem anderen muss auf seine Richtigkeit geprüft und gegebenenfalls im Lexikon nachgeschlagen werden, hundertfach, tausendfach. Auch diese Tätigkeit ließe sich mit Hilfe eines selbst programmierten Programms unter Verwendung frei verfügbarer Softwarebausteine automatisieren.34 Auch wenn eine solche selbst programmierte Lösung Schwächen hat,35 lassen sich so schon die meisten Transkriptionsfehler markieren, insbesondere jene, die auf der Verwechslung ähnlich aussehender Buchstaben beruhen (Chriftus / Chriſtus) und die von Hand leicht übersehen werden. Im Idealfall schrumpft der manuelle Korrekturaufwand auf 5 min pro Seite.
Investiert man weitere Zeit ins Programmieren, können die skizzierten Bausteine zu einem zusammenhängenden Workflow mit grafischer Benutzeroberfläche kombiniert werden, was die Bedienung beschleunigt und den Nutzerkreis auf Nicht-Programmierende ausdehnt. Vom digitalisierten Bild zur gefundenen Zensur sind dann (im Idealfall) nur noch 6–10 min pro Seite nötig.36
Auf diese Weise habe ich mittlerweile rund tausend Seiten aus den originalen Werken Wilds und vier verschiedenen Expurgationen aus Paris, Lyon, Alcalá de Henares und Rom transkribiert. Der so gewonnene Text wird dem oben beschriebenen automatischen Textvergleich zugeführt, so dass die zensierten Passagen quasi auf Knopfdruck sichtbar werden. Diese Nutzung des Computers zur unmittelbaren Analyse der Quellen wird üblicherweise als computational history bezeichnet und ist der manuellen Auswertung in puncto Geschwindigkeit und Genauigkeit weit überlegen.
Der zunächst überraschende Befund ist, dass sich die untersuchten Expurgationen aus Paris, Lyon, Alcalá de Henares und Rom erheblich unterscheiden: in Mainz galten Wilds Werke bis Ende des 16. Jahrhunderts als gut katholisch und blieben unzensiert, in Lyon wurden ab 1559 kleinere Korrekturen vorgenommen, Paris korrigierte bereits 1552 stärker. In Spanien wurde Wild 1554 zwar stark angefeindet, zunächst aber relativ mild expurgiert (1567/69). Die römische Indexkongregation griff am tiefsten in die Texte ein (1577) und der spanische Index expurgatorius (1584) zog nach. Die detaillierte Analyse und Interpretation dieser Differenzen erfolgt dann mit »traditionellen« theologiegeschichtlichen Methoden und arbeitet die nachtridentinische Vielfalt katholisch-theologischer Profile bei den Zensoren heraus.
Richtig spannend wird es aber erst, wenn der automatische Textvergleich nicht nur zur Suche von Unterschieden zwischen den Expurgationen genutzt wird, sondern auch zur Suche nach wörtlichen Parallelen mit anderen Texten. Schon seit den 1950er Jahren ist eine solche Parallele für die Genesiskommentare Wilds und Huldrych Zwinglis bekannt.37 Der automatisierte Abgleich mit bereits digitalisierten Texten anderer Reformatoren38 fördert nun zahlreiche weitere Parallelen dieser Art zutage (Philipp Melanchthon, Martin Bucer, Johannes Brenz, Conrad Pellikan). Wilds Texte bestanden an vielen Stellen aus mehr oder weniger wörtlichen Zitaten nicht nur der Kirchenväter und jüngerer katholischer Autoren (insbesondere Erasmus von Rotterdam), sondern eben auch der Reformatoren. Ein solch tiefer Einblick in transkonfessionelle Rezeptionsprozesse und die damit verbundenen Bücher- und Ideenströme im europäischen Kommunikationsraum wäre ›von Hand‹ nur schwer erreichbar.
Aus dem Abgleich der gefundenen Parallelen mit den Expurgationen ergibt sich, dass den katholischen Zensoren keineswegs klar war, an welchen Stellen Wild von den Reformatoren ›abschrieb‹ und wo er bewusst eigenständig formulierte, so dass zuweilen auch katholische Zitate zensiert wurden, während etwa eine halbe Seite Melanchthon stehen bleiben durfte, weil sie für die Zensoren unverdächtig klang. Die Interpretation dieser mithilfe von computational history gewonnener Beobachtungen führt zur Einsicht, dass die Dynamik der entstehenden Konfessionen, theologiegeschichtlich betrachtet, auch auf katholischer Seite weit komplexer verlief, als man das nach der Lektüre der Canones des Trienter Konzils oder der Indices librorum prohibitorum vermuten würde.
Die Digital Humanities können also helfen, in noch größtenteils unerforschte Tiefenschichten der europäischen Christentumsgeschichte vorzudringen. Auch wenn nicht abzusehen ist, welche neuen historischen Perspektiven sich aufgrund technologischer Innovationen ergeben werden,39 scheint mir sicher, dass die Pluralität und Komplexität der Vergangenheit viel stärker ins Bewusstsein treten wird, von der globalen Ebene bis hinunter in die Mikroperspektive einzelner Akteure und Texte. Das wird, gerade auch in der Christentums- und Religionsgeschichte, zur Herausforderung für simplifizierende Einheitsvorstellungen und zugleich zur Chance für einen geweiteten Blick, der bereit ist, die vielfältigen, sich überschneidenden Differenzen zu entdecken und ihre Konflikthaftigkeit wie auch ihre ständige Wandlungsfähigkeit zu erforschen.
Eine digitale Christentumsgeschichte ist allerdings nicht umsonst zu haben: Der zunächst steinige Weg zur digital literacy und in die Softwareentwicklung kostet viel Zeit; in meinem Fall etwa 20% der Arbeitszeit seit Herbst 2018 plus viele Abende und Wochenenden, auch wenn für manche Analyse-Aufgaben bereits fertige Software-Pakete existieren.40 Der Berg maschinell ausgegrabener Befunde will dann noch interpretiert werden. Die Habil schreibt sich also auch trotz »künstlicher Intelligenz« nicht von selbst. Auf lange Sicht könnte sich der eingeschlagene Weg aber auszahlen.
Literaturverzeichnis
Arnold, C. (2008). Die römische Zensur der Werke Cajetans und Contarinis (1558–1601). Grenzen der theologischen Konfessionalisierung (Römische Inquisition und Indexkongregation 10). Paderborn u.a.: Schöningh.
Arnold, C. (2004). The Archive of the Roman Congregation for the Doctrine of the Faith (ACDF). An initial overview of its holdings and scholarship to date. In S. Wendehorst (Hrsg.), The Roman Inquisition, the Index and the Jews, 155–168. Leiden u.a.: Brill.
Baldini, U. / L. Spruit. Hrsg. (2009). Catholic Church and Modern Science. Documents from the Archives of the Roman Congregations of the Holy Office and the Index. Bd. 1 Sixteenth-century documents (Fontes Archivi Sancti Officii Romani. Series documentatorum archivi Congregationis pro Doctrina Fidei 5,1). Rom: Libreria Editrice Vaticana.
Bleier, R. Hrsg. (2018). Digital scholarly editions as interfaces. (Schriften des Instituts für Dokumentologie und Editorik 12). Norderstedt: Books on Demand.
Bujanda, J.M. (1984–2002). Index des livres interdits, 11 Bände, Sherbrooke, Québec: Éditions de l’Université de Sherbrooke / Librairie Droz.
Damberg, W. (2004). Zitationsnetzwerke und theologische Eliten. In A. Holzem (Hrsg.), Normieren, Tradieren, Inszenieren, 263–277. Darmstadt: Wissenschaftliche Buchgesellschaft.
Fragnito, G. (2001). ›In questo vasto mare de libri prohibiti et sospesi tra tanti scogli di varietà et controversie‹. La censura ecclesiastica tra la fine del Cinquecento e i primi del Seicento. In C. Stango (Hrsg.), Censura ecclesiastica e cultura politica in Italia tra Cinquecento e Seicento. 6. Giornata Luigi Firpo. Atti del Convegno, 5 marzo 1999, 1–36. Firenze: Olschki.
Hasecker, J. Hrsg. (2017). Quellen zur päpstlichen Pressekontrolle in der Neuzeit (1487–1966). (Römische Inquisition und Indexkongregation 19). Paderborn u.a.: Schöningh.
Hell, L. (2007). Das Plagiat als Form interkonfessioneller Begegnung. Die Einführungen in das Theologiestudium von Andreas Hyperius und Lorenzo de Villavicencio. In H.J. Selderhuis / M. Wriedt (Hrsg.), Konfession, Migration und Elitenbildung. Studien zur Theologenausbildung des 16. Jahrhunderts, 231–243. Leiden / Boston: Brill.
König, M. (2021). Die digitale Transformation als reflexiver turn. Einführende Literatur zur digitalen Geschichte im Überblick. Neue Politische Literatur 66,1: 37–60. DOI: 10.1007/s42520-020-00322-2.
König, M. (2020). Geschichte digital. Zehn Herausforderungen. In C. Arendes u.a., Geschichtswissenschaft im 21. Jahrhundert. Interventionen zu aktuellen Debatten, 67–76. Boston: De Gruyter Oldenbourg.
Kleymann, R. / Stange, J.-E. (2021). Towards Hermeneutic Visualization in Digital Literary Studies. In: digital humanities quarterly 15,2. URL: http://www.digitalhumanities.org/dhq/vol/15/2/000547/000547.html . Zuletzt abgerufen: Juli 23, 2021.
Kouli, Y. (2017). Rezension zu: Diebolt, C. / Haupert, M. Hrsg. (2016). Handbook of Cliometrics. Berlin: Springer VS. In: H-Soz-Kult, November 28, 2017. https://www.hsozkult.de/publicationreview/id/reb-25850. Zuletzt abgerufen: Juli 12, 2021.
Laite, J. (2020). The Emmet’s Inch. Small History in a Digital Age. Journal of Social History 53,4: 963–989. DOI: 10.1093/jsh/shy118.
Lerch, D. (1952). Zur Beziehung zwischen Zwinglis und Johannes Wilds Genesisauslegung. Theologische Zeitschrift 8: 471–472.
Meier, J. (1977). Der priesterliche Dienst nach Johannes Gropper (1503–1559). Der Beitrag eines deutschen Theologen zur Erneuerung des Priesterbildes im Rahmen eines vortridentinischen Reformkonzeptes für die kirchliche Praxis (Reformationsgeschichtliche Studien und Texte 113). Münster i.W.: Aschendorff.
Müller, M. (2021). »Pseudoferum resonet pulpita Cacolicωn«. Die römische Expurgation des Mainzer Dompredigers Johann Wild OFM (1495–1554) und ihr Echo beim englischen Puritaner William Crashaw (1572–1626). In H.P. Jürgens / Chr.V. Witt (Hrsg.), An den Rand gedrängt – den Rand gewählt. Marginalisierungsstrategien in der Frühen Neuzeit, 131–54. Leipzig: Evangelische Verlagsanstalt.
Müller, M. (2021). Uncovering censorship in the 16th century with Transkribus and Python. Episode I: OCR with Latin prints, Juli 2, 2021. https://dhlab.hypotheses.org/2022. Zuletzt abgerufen: Juli 12, 2021.
Neumann, F. (2020): Datenpanne bei Viganò-Petition: Tausende E-Mail-Adressen öffentlich. Mai 12, 2020. https://www.katholisch.de/artikel/25478-datenpanne-bei-vigano-petition-tausende-e-mail-adressen-oeffentlich. Zuletzt abgerufen: Juli 12, 2021.
Pernau, M. (2018). Einführung: Neue Wege der Begriffsgeschichte. Geschichte und Gesellschaft 44,1: 5–28.
Pérez Custodio, M.V. (2012). La cuestión del plagio en la obra teológica y homilética de fray Lorenzo de Villavicencio. Humanistica Lovaniensia 61: 293–318.
Reinis, A. (2015). »Such defiant, obstinate disobedience«: Martin Luther’s Jonah and Michael Helding’s Recatholization Effort in Merseburg. Archiv für Reformationsgeschichte 106: 156–183. DOI: 10.14315/arg-2015-0107.
Schwandt, S. (2018). Digitale Methoden für die Historische Semantik. Auf den Spuren von Begriffen in digitalen Korpora. Geschichte und Gesellschaft 44,1: 107–134.
Sweigart, A. (2020). Automate the Boring Stuff with Python: Practical Programming for Total Beginners. 2. Aufl. San Francisco: No Starch Press. URL: https://automatetheboringstuff.com/. Zuletzt abgerufen: Juli 12, 2021.
Wolf, H. (2013). Die Nonnen von Sant’Ambrogio. Eine wahre Geschichte. München: C.H. Beck.
Zaagsma, G. (2013). On Digital History. BMGN – Low Countries Historical Review 128,4: 3–29.
Zahnd, U. (2020). Netzwerke, historisch und digital Digital Humanities und die Mittlere und Neue Kirchengeschichte. Verkündigung und Forschung 65,2: 114–123. DOI: 10.14315/vf-2020-650207.
Zedelmaier, H. (2015). Werkstätten des Wissens zwischen Renaissance und Aufklärung. (Historische Wissensforschung 3). Tübingen: Mohr Siebeck.
Vielen Dank für die ausführliche und sehr instruktive Beschreibung des aufwendigen Vorgehens, das der Auswertung den Grund legt. Ich finde, es ist eine schöne Pointe, dass der Suche nach Emendationen resp. Expurgationen ein Prozess vorangeht, der seinerseits die Emendation von Erkennungsfehlern umfasst und damit auf elektronischer Ebene auf den Prozess des Druckens zurückverweist.
Markus Müller:
Danke für den Kommentar! Ja, im Grunde legen sich die digitalen Werkzeuge über das mechanische Verfahren des Druckens und das eine spiegelt sich quasi im anderen. Andererseits macht mich diese ‘Parallele’ irgendwie auch nachdenklich: Was wäre gewesen, wenn die Zensoren damals schon die Informationsverarbeitungsmaschinen von heute gehabt hätten, nicht nur ihre Listen, Register, Indices, Druckerpressen? Bzw. wird man die Zensur von heute später einmal in ähnlicher Weise erforschen können?