Digital Humanities Defined — zu eng?

In seinem Beitrag vom Sonntag bringt Michael Piotrowski (twitter: @true_mxp) ein wichtiges Thema auf den Punkt: Was zum Teufel sind eigentlich DH (Link zu seinem Blogbeitrag).

Vorausschicken muss man, dass Michael in vielen Punkten recht hat: Die DH keine eigene Disziplin ist (sondern innerhalb der „alten Disziplinen“ agieren muss), ein (weites, undefiniertes) Methodenset anbietet, etc. (oder kurz: Beitrag lesen).

Seine Definition der Digital Humanities ist knapp und schlüssig, wobei er zwischen „enger“ (1) und „erweiterter“ (2) Definition unterscheidet.
(1) Die Anwendung von quantitativen, computer-basierten Methoden für geisteswissenschaftliche Forschung (sprich zur Beantwortung geisteswissenschaftlicher Fragestellungen)
(2) Die Anwendung von computer-basierten Tools für geisteswissenschaftlicher Forschung.

Zur Veranschaulichung zählt er etwa digitalen Editionen zu zweiter Gruppe, jedoch nicht zu DH im ersten, engeren Sinn.

Grundsätzlich bin ich sehr dafür, ab und zu kurze Diskussionen über die Definition von Digital Humanities zu führen. Ich bin wie Michael der Meinung, dass in vielen Definitionen zuviel dazu gerechnet wird und der Begriff bereits zu oft als Buzzword (sei es bei Anträgen für Forschungsprojekte oder zur Selbstdarstellung) missbraucht wird. Wie er ausführt hat das Führen eines Blogs wenig mit DH zu tun, ebenso wenig wie Konversationen auf twitter oder Ausschreibungen auf H-Soz-Kult.

Mein Problem an seinen Definitionen ist sein strenge: (1) ist mir zu eng, (2) dagegen zu weit. (hört sich wie eine herrlich endlose scholastische Debatte an…)
Die zweite Definition würde — meiner Meinung nach — eigentlich alle WissenschaftlerInnen zu DHler machen, die nur ab und zu einen Computer anmachen und eine Abfrage auf dem Suchanbieter/Bibliothekskatalog ihrer Wahl durchführen. Obwohl ich noch nicht ganz von der Zweiteilung in weite und enge Definition überzeugt bin, müsste daher hier eine Verfeinerung stattfinden.

Bei (1) der Definition bin ich dagegen völlig d’accord, dass es sich bei allen damit beschriebenen Forschungen um DH handelt. Gleichzeitig gehört aber dennoch mehr in diese Kategorie: Wenn der Begriff Quantifizierung vorgebracht wird, impliziert dies eine statistische Veri-/Falsifizierung. In vielen vorstellbaren Anwendungsfällen der Geisteswissenschaften wird die Datenlage jedoch zu klein sein um jemals zu einem statistisch belastbaren Ergebnis zu kommen (und eine Ausweitung der Stichprobe ist für mich ein äusserst zweischneidiges Schwert, big data ist nicht die Antwort auf alles). Würden solche Forschungen folglich dennoch als „quantifiziert“ gelten?

Ein weiteres Themenfeld das völlig weggelassen wird, sind Visualisierungen. Der versierte Argumentator wird vorbringen, dass es sich dabei nicht um Forschung/“Denken“ im engeren Sinn handelt, zugegeben. Dennoch kann etwa die Darstellung auf einer Karte zu Einsichten führen, die nicht einmal Ortskundigen auffallen würde (ganz zu Schweigen vom Potential der Kombination mit geologischen oder anderen Filtern).

Dies führt mich zum eigentlichen Kern: Meiner Meinung nach geht es in den Geisteswissenschaften um das Verstehen von Menschen, ihren Vorstellungswelten (Wirklichkeiten?), ihren Handlungen und ihren Beeinflussungen. Um dem aber näher zu kommen, bedarf es oft dem Überwinden eigener Vorstellung und Logik („Selbst-Befremden“) und genau dafür kann (und soll) die Maschine auf dem Schreibtisch auch genutzt werden. Mit neu dargestellten, umgeordneten Daten (Quellen) ist es möglich zu anderen (vielleicht besseren) Anregungen gegenüber von Problemgemengen kommen. Und genau solche Impulse gehören zu den Digital Humanities (meiner Meinung nach sogar dann wenn die Auswertung theoretisch ohne Rechenleistung erbracht werden könnte, in dem etwa selbst eine Karte gezeichnet würde). Ansonsten sind wir relativ schnell wieder bei Diskussionen um Quantifizierungen und „Zählbarmachungen“, die bereits in den 70er Jahren die Geschichtswissenschaft zu revolutionieren versuchten und in Retrospektive zahlreiche Grabenkämpfe auslösten.

Die von Michael vorgebrachte Kategorie für Natural Language Processing und ähnliches als Humanities Computing (ausserhalb der DH), könnte als Anstoss gesehen werden über die Einführung von weiteren Kategorien nachzudenken, welche die DH als Umbrella-Term nutzen. Statt einer Zweiteilung hätten wir dann eine Vielzahl von Unterdefinitionen…

Und was bedeutet es nun Digital Humanities zu betreiben?

Der Einsatz von digital(isiert)en Ressourcen und Algorithmen (Programmen?) um geisteswissenschaftliche Fragestellungen zu beantworten. (na ja, auch nicht ganz zufrieden stellend…) [eine Fortsetzung der Diskussion ist wohl unumgänglich :]


6. Schoenberg Manuscript Symposium – take aways

Das in Philadelphia abgehaltene Symposium bringt regelmässig Experten der „alten“ Manuskriptwissenschaften und der „neuen“ digitalen Welt zusammen und natürlich insbesondere auch solche, welche sich in beiden Welten bewegen (die Trennung stellte sich als äusserst dünn heraus). Dass die Zusammenarbeit alle beteiligten Wissenschaftszweige belebt, zeigten die vergangenen Tag und eine Reihe von Verknüpfungen die aus früheren Symposien hervorgingen.

Hier einige Ansätze und Tools die (höchst subjektiv) als aussergewöhnlich oder interessant gewertet wurden:

Zum Anfang ein neuer Ansatz zur Identifikation von Schreiberhänden: Im Gegensatz zum Versuch einzelne Eigenheiten von Schreibern zu identifizieren, wie in DigiPal praktiziert, versucht Elaine Treharne (Stanford), dass die Messung von Zwischenräumen zwischen Buchstaben und Zeilen möglicherweise ein Mittel zur Identifikation sein könnte.

Ganz in eine andere Richtung deutete die Untersuchungen von Kathryn Rudy: Ihre „dirty books“ (vorwiegend Stundenbücher aus dem niederländischen Raum) sind teilweise abgegriffen, dies eröffnet die Möglichkeit den tatsächlichen Gebrauch der Bücher abzuschätzen. Mittels densitometrischer Analyse (eigentlich die Messung der Verfärbung) ist es möglich zu zeigen, dass vorwiegend die Seiten aufgeschlagen wurden, welche die höchsten Ablassleistungen versprachen. Genauer in ihrem Aufsatz von 2010 (hier). In einer Abwandlung beschäftigt sie sich nun mit „osculatory targets“: Illuminationen die geküsst wurden und dadurch teilweise gravierende „Schäden“ erlitten. Wobei sie die Theorie vertritt, dass der Akt aus der Öffentlichkeit in den privaten Umgang mit Schriftstücken eingang fand.

Ganz andere Probleme können mittels T-Pen umgangen (und neu geschaffen werden): Das Tool, dass bereits seit längerer Zeit verfügbar ist, hilft bei der Erstellung von Transkriptionen und Editionen. Mittlerweilen ist das Produkt soweit, dass TEI unterstützt wird oder aber auch eigene Definitionspakete geladen werden können. Dank der Übernahme von frei verfügbaren Handschriften (etwa aus e-codices) ist auch für den nur testenden User genügend Material vorhanden. T-Pen ist als freie Software konzipiert und kann dadurch auch auf eigenen Servern installiert und betrieben werden, was das Produkt für Editionsunternehmungen interessant machen dürfte.

Viel geschlossener und auf Lehre ausgerichtet ist Homer Multitext. Obwohl die bearbeiteten Manuskript der Illias offen zugänglich sind, wird der wirkliche Leistungsumfang nicht auf der Internetseite sichtbar. Jeder beliebige Teil (eines Bildes, eines Textausschnitts etc.) ist zitier- und verknüpfbar. Wörterbücher und Ontologien schreiben dabei vor, welche Werte überhaupt eingegeben werden können, wobei die Eingabe von Schreibvarianten auch berücksichtigt wurde.

Schliesslich sei auf das Projekt von Martin Foys (UCL) hingewiesen, welcher mit dem Virtual Mappa Project unterschiedliche Karten annotiert und Verknüpfungen herstellt zwischen den Karten und zeitgenössischen Texten, die sich mit Geographie beschäftigen (hier beschrieben). Die Software, welche die Verknüpfung möglich macht ist ausgesprochen intuitiv zu bedienen und geeignet um eigene Korpora zu schaffen: DM Tools for Digital Annotation and Linking.

Das Programm des gesamten Symposiums findet sich hier.