IMC Leeds Paper: Sending 15th-Century Missives through Algorithms: Testing and Evaluating HTR with 2,200 Documents

[This paper was given at the IMC 2017 in Leeds]. For the discussion on twitter see also the storify.


Is it possible to teach algorithms to read medieval handwriting? Does it make sense to have the material prepared by students, learning to read gothic writing at the same time? Those two simple questions lay the ground to discuss how and whether handwritten text recognition and teaching of the Middle ages can be intertwined.

The material to address the tasks consist of 2’200 missives from Thun, a small town in Switzerland. 120 documents were transcribed and used for training. In the process three difficulties had to be identified: Different and changing hands, difficult layout structures, and abbreviations. The identified difficulties are typical for such an endeavor. Unfortunately the results of the recognition are insufficient and cannot be used by scholars. The „small“ amount of material for training is a reason for this. Using language models, the results can be improved, although crucial parts such as names and verbs still remain only partially identifiable.

At the same time the combination of teaching and the use of cutting-edge technological tools proved engaging. The students involved were highly motivated and welcomed the possibility to take part in a digital research endeavor.


The teaching of paleography is in my opinion one of the core tools in order to get an insight of what the study of the Middle Ages as well as the Middle Age are about.

At the same time, technology promises to help us in regards of transcription but in the future also the identification of places, persons etc.

In the last six months, I tried to bring both aspects – the teaching of paleography as well as the technology – together by teaching students and algorithms to read gothic cursive of the 15th century.

This paper therefore lays out the Idea behind, the material used for the experiment and the outcomes of the text recognition as well as the outcome regarding the aspect of teaching paleography. So this is basically a lab report (and fits as blog post).

Since the results of the tests with the documents were not sufficient, at the end of the paper, I’d like to bring up briefly an approach, how handwritten text recognition worked better.


Was as simple as fitting: Bring together a software called Transkribus and students from the University of Zurich in the endeavor to transcribe missives. The goal was to let the students experience reading handwriting and at the same time provide material in order to train handwritten text recognition. Of course we also wanted to try out the HTR in the classroom.


Idea came from teaching with an e-learning tool, developed at the university of Zurich, called «ad fontes».

The e-learning teaches people to read handwriting (with a focus on medieval and early modern scripts).

There are a lot of advantages to the approach, for example that the user can get tipps or receives feedback on words not or wrongly deciphered (ie. you see that Schultheiss is transcribed incorrectly with a „z“).

The downside of the tool lies in the fact, that nothing new can be detected. Everything is to be found in a perfectly streamlined way. In order to get students an impression how actual research or at least the transcription of single documents work, I started using Transkribus as a tool that allows for the transcription in the cloud.

The documents used in Transkribus are stored on servers at the university of Innsbruck. Access is given only to those designated by the uploader and/or the owner of a collection. Transkribus can also be used to train recurrent neural networks for Handwritten Text Recognition (or rather to produce a model for text recognition). Therefore the idea was not far to bring both approaches together and use the material provided in order to produce a model specific for fifteen century missives.


Since the training of Handwritten Text Recognition, same as training of other neural networks, depends on masses of material for training in order to give good results, I added further transcriptions that were already provided by students on a wiki (developed some years ago).

But let’s first take a step back and look at the material:

From the first half to the end of the fifteenth century, more than two thousand missives have been preserved containing instructions of the city council of Berne to its bailiffs in Thun, a small town that became part of the Bernese territory at the end of the fourteenth century. These documents shed light on local dimensions of a city’s territorial lordship. Like many other cities subject to similar development, Berne acquired territorial lordship over an extended hinterland, claimed control over minor cities, and used them as district-towns in its territorial administration.

The topics dealt with in the missives are very diverse and sometimes amusing to the modern reader. Skirts were stolen by husbands or roosters deemed to loud in the morning. As a consequence, petitioner (male and female) went to Berne, complained in front of the council and the bailiff was then contacted by the council, using such missives.

The corpus spans more than 100 years, therefore we find a variety of scribes and also an evolving chancery that put forth rather irregular scripts.

Four problems or let’s say elements influence the results of the HTR:

  1. Different scribes —> the students did not have to focus on a single scribe/time-frame; therefore the transcriptions produced were from a variety of scribes.
  2. Not very regular scripts (the documents were not for display but rather needed to be sent out quickly)
  3. recognition of layout (or layout analysis as it’s called) does not work properly: the task that is even for regular scripts difficult; more so for missives (also due to this, Layout analysis has not been taken into account)
  4. and only to some degrees problematic, is a missing language model (like all vernacular of the Middle Ages early modern German lacks standardization), as we will see, we still can produce a very simple language model

From the teaching perspective

Transkribus can be recommended, but only if you are willing to allow for some time spent on explaining the tools:

  • it allows for a simple feedback-loop thanks to shared working-space (everything saved in a cloud)
  • but no real-time help

Every student was able to prepare transcriptions for 2 missives (11 students, makes 22 missives); they were also responsible for corrections of the layout. The process of transcribing led to intense (and heated) discussions about rules for transcription (normalization, dealing with abbreviation). In order to deal with HTR this is very important, i.e. expansion of abbreviation without „telling“ the algorithms leads to diminished quality of recognition.

At the same time, the discussions were a very fruitful experience in order to understand what rules and forms of normalization are common in edition (digital or analogue) but also to raise the question what a „text“ makes.

In order to produce further material for training about 100 already transcribed missives were added by myself. In the end the so called Ground Truth consisted of 21’682 words on 1900 lines.


A look at the training curve shows that the test sets (that’s the document who were prepared but not used for training in order to determine the quality of the recognition) were recognized with around 26% Character Error Rate.

Meaning: That more than every forth character was recognized incorrect. That’s quite a lot, if you look at the example in the screenshot.


This is one of the „better“ examples with 20% CER. Only one five letters is identified incorrectly.

As mentioned, there is the possibility to add „a language model“ or rather a vocabulary consisting of the words used in the 120 missives transcribed and prepared. With such a model the Character Error Rate (CER) used to decrease dramatically for around 7-9% (so we get from 20 to 13%!)

READ_imc-leeds-2017-07-03-6.pngOf course this is some sort of „cheating“, but still medieval documents tend to be repetitive. The missives are similar to diplomatic documents and are rather formulaic in writing.

The increase of the recognition is mostly on standard phrases, that leaves us with wrongly recognized named entities and verbs.

Only from recognized transcriptions, the content is hard to identify. But it can be helpful if you are familiar with the script and you only need to have a short look at a document. That means at the same time that there’s a disadvantage if ones unfamiliar/unable to read the script; the hard to read parts are also mostly wrongly recognized (so it’s not very helpful for beginners, and even less so lay people).

Thanks to the close connection between text and image, you will be able to check on the image and make sure that the transcription is correct. Also you are able to search through collections within Transkribus without exporting the documents (even fuzzy searches are implemented).

Still, with as little as 100 something very short pages, you got a model that helps, giving a first impression of the content of a document but not much more.

Dealing with such a broad range of documents (with its different scribes), it would be interesting to apply writer identification. In order to determine for which documents a specific model works better. Currently, this is being integrated in Transkribus and we expect it to be ready in autumn.

One scribe, one cartulary

Since the demonstrated example led to rather insufficient results, let me briefly bring up an example that worked with a similar input of material for training (see also this blog post).


For Königsfelden abbey, a monastery founded in 1309, a cartulary was produced in 1336. The codex was written in a very regular gothic book-script. Copies of charters given to the monastery were entered in the cartulary.

We prepared for training 25’658 words (that’s almost 4300 very short lines). The result is a character error rate of 10% on average (without language models, so it doesn’t matter whether the charter copied was written in Latin or in the vernacular). Even abbreviations and special characters (such as the latin genitiv ending -rum), can with some reliability be recognized.

The differences between the two examples is obvious:

Whilst one corpus consists of different hands from different times, the other is just the writing of two or three scribes (and to be honest the model only works good for the main hand). Still, it can be said that the more material for training of a single hand is available, the better the recognition is going to be.


For the teaching experience, I can very much recommend the approach taken. Especially the high level of motivation among the students bears witness of the interest to use new technology combined with the ambition to learn the skill-set of an „analogue“ paleographer. Nonetheless, it needs to be emphasized that task of learning to decipher gothic writing is still an arduous one. One of the strengths of the approach, was the need to discuss what text means in regard to a medieval document. And also what is necessary in order to use it for further inquiries.

After all the best case scenario would be that we get a transcription of a folio or a page according to what we trained an algorithm to do.

Regarding technical  aspects, it is in my opinion fair to say, that we will have in short a good recognition of Medieval Handwritings. I’m sure that Character Error Rates around 10% (and even below) will be the standard.

Of course we need to be aware that this is not to be compared to editions and human produced transcripts but still we will be able to access vast amounts of text from the Middle Ages in years to come.


[Disclaimer: I’m associated with the project READ as a research associate at the state archives of Zurich]



Ergonomie des Pergamentbeschreibens

Die Thematik um die Handlungsfähigkeit, Handlungsmacht und vielleicht auch die Handlungswirklichkeit von Dingen ist nicht mehr ganz neu. Verknüpft mit der Abkehr von einer anthropozentrischen Weltsicht wird sie auch intensivst von mediävistischer Seite betrieben. Mein Zugang ist dagegen (sehr anthropozentrisch) als Zusammenspiel zwischen verarbeitetem Material (etwa [Tier-]Haut, mit Larven befruchtete Pflanzengallen versetzt mit einem Heilmittelinhaltsstoff [oder zusammengenommen: Tinte aus Galläpfel und Eisensulfat], Wachs und mehr) und der Produktion von Schriftstücken.

Passend – und nicht von mir – ist die Beschreibung des Zusammenwirkens als ergonomisch. Womit angedeutet wird, dass das unterschiedlich verarbeitete Material auf einen Nutzenden trifft, welcher nicht anders kann, als nach bestimmten Regeln das Material zu nutzen. Die Zusammenkunft zwischen Material (mit einem Handlungsspielraum aber auch Handlungsmacht) und Nutzendem (mit Handlungs- und Formungsvorstellung) führt zu einem (von beiden Seiten gefügten) Resultat. Wer genau handelt, bleibt unklar.

Auf einen konkreten (Sonder-?)Fall angewandt könnte das so aussehen: Eine Dame will einen Sachverhalt (einen Güterverkauf an eine Person) vermitteln. Für die Vermittlung werden mehrere Strategien angewandt, die zum einen Menschen miteinbeziehen, zum anderen aber auch in ein Schriftstück münden. Der zweite Teil ist dabei von Interesse, da in diesem vorbearbeitetes Material auf einen Schreibenden trifft. (Im Übrigen müsste man sich ernsthaft überlegen, wie und ob auch der erste Teil in materielle Resultate mündet bzw. inwiefern eine Geste oder anderes durch Materiale, wie Kleidung, Schmuck etc. erlaubt bzw. eingeschränkt wird)

Im hier vorgestellten spezifischen Fall wurde jedoch nicht wie üblich, ein eigenes dafür hergestelltes Pergament verwendet, sondern eine Buchseite zum Urkundenbeschreibstoff umgewidmet. Die Folge der Umwidmung zeigt sich an einem äusserst unerwarteten Ort: Nicht eine Urkundenschrift sondern eine Buchschrift wurde durch den (scheinbar geübten) Schreibenden angewandt.

Hält man die Ausführungen oben für plausibel, kann man also argumentieren, dass aufgrund der nur minimal andersartigen materiellen Zusammensetzung bzw. der Vorbestimmung und Vorbereitungs des Materials der Schreibende eine andere Art des Beschreibens wählen musste.

Abbildung: StAAG U.17/0017 r

Das Schriftbild lässt an ein Buch denken, das Pergament scheint vormals eine Seite in einem Buch gewesen zu sein. StAAG U.17/0017 recto

Die einzelnen Materialien bestimmen folglich nicht nur durch ihr Material-sein, sondern ebenso durch ihren (möglichen) Zustand und ihre vorgängigen Zustände. Vielleicht liesse sich gar von einer Prozessorientiertheit oder gar einer Prozessbewusstheit sprechen. Die Artefakte bleiben (bewusst?) im Fluss.

Hoffnungen und Radierungen

Dank einem Tweet von Melissa Terras (UCL) [übrigens eine sehr spannende Bloggerin, wenn sie nicht gerade über Taschen spricht] bin ich auf die Site gestossen. Die Seite versucht unleserliche Schreibschichten wieder sichtbar zu machen. Technisch geht es darum die Farbspektren in den Informationen von digitalen Bilder auszuloten (meine Vorlagendateien im angewendeten Fall unten sind als JPG bereits komprimiert, evtl. ergeben sich bessere Resultate, sobald ich an die TIFs komme). Die retroreveal-Seite macht eigentlich nichts anderes als alle Farbspektren aufzubereiten und dem User darzustellen, sodass er selbst wählen kann, welche Ansicht sie oder ihn weiterbringt.

Auch im Königsfelder Bestand finden sich einige Radierungen, die trotz Einsatz von Ultraviolet-Licht nicht leserlicher werden. Und obwohl ich die Hoffnung schon aufgegeben hatte, könnte der Ansatz von retroReveal hilfreich sein, die knapp zwei Absätze nach 700 Jahren wieder lesbar zu machen.

Unten angehängt Bilder aus dem ersten Kopialbuch des Kloster Königsfelden (heute Staatsarchiv Aargau, AA/0428 fol. 27r.), die Herstellung wird datiert auf 1336 (gleichzeitig zur Fertigstellung des Chores mit den Glasfenstern). Die Bilder stammen aus dem freizugänglichen Bestand von e-Codices (cc by nc) 1. nur Ausschnitt ohne Bearbeitung, 2. Bearbeitung (Colorspace Luv, Channel L), 3. Bearbeitung (Colorspace RGB, Channel B).

Ein Vergleich mit der darauffolgenden Seite fol. 27v. (rechte Spalte) zeigt, dass der erkennbar gewordene Text nicht die Tinte der Rückseite zeigt; die Buchstaben stimmen meiner Meinung nach nicht überein.

Trotz der gebotenen Möglichkeit durch retroReveal wird es eine mühsame Arbeit bleiben, die Buchstaben zu Worten zusammenzubringen. Diesbezüglich versuche ich auch die gebotene Möglichkeit auf der retro-Reveal-Seite auszuloten, welche User versucht miteinzubeziehen. Mal schaun…

Zufällig durfte ich gerade letzte Woche eine längere Diskussion mit einem Philosophen führen, welcher meine „Methodologie“ bezüglich der Radierungen in Frage stellte. Konkret meinte er, dass es sich bei der Stelle auch um Verschreiber handeln könnte und nicht um gezielte Radierungen um das Selbstbild des Klosters (und seine Überlieferung) 15 Jahre nach der Niederschrift anzupassen (wie ich zuvor argumentierte). Jedenfalls scheint sich Ansporn und neue Methode im richtigen Moment getroffen zu haben…

Schnittstellensuche — Zwischen Archiv und wissenschaftlichem Schreiben

Aus der Serie „Wunschliste“ …

Archivsignaturen werden meistens in wissenschaftlichen (oder zumindest „wissenschaftlichen Ansprüchen nahe kommenden“) Texterzeugnissen benutzt. Meist werden die Dokumente in Archiven in Kleinstarbeit zusammengeklaubt, quergelesen, verglichen, nochmals detaillierter analysiert und schliesslich zitiert. (Oder aber – und hier nur in Klammer – aus anderen Texten kopiert und als Beleg benutzt für etwas, das man selbst gerade nicht gefunden hat, aber sicher finden würde, wenn man denn Zeit und so weiter).

Dem Leser des Texterzeugnisses bleibt während der Lektüre nichts anderes übrig, als dem Autor zu glauben. In einem späteren Stadium steht es ihm zwar offen, das zitierte Stück selbst in Augenschein zu nehmen, aber mal ehrlich, wie oft geschieht das schon? (mal abgesehen von den paar Stücken die in der eigenen Disziplin immer und immer wieder hervorgeholt werden, bis dazu nicht mehr publiziert werden sollte)

Eine neuere Möglichkeit ist es, das Stück via Archivsoftware (wenn denn so was für das betreffenden Archiv bereitgestellt wird) aufzufinden, um herauszufinden, ob das zitierte Ding überhaupt existiert und welche weiteren Informationen bereits verfügbar sind (Metadaten, Regesten, Digitalisate etc.).

Weshalb – so meine Frage (und gleichzeitige Wunschvorstellung) – ist es nicht möglich, die Zitation direkt mit dem Eintrag in der Archivsoftware zu verknüpfen?

Problemlos kann ich auf einer von mir betriebenen Internetseite Ausschnitte aus google maps einbinden, Marken setzen, Routen planen und so weiter. Alles dank APIs . Etwas, dass die Archive (allem Anschein, und einer kurzen, erfolglosen Internetsuche nach) mit ihren Daten nicht wollen(?) – oder nicht anbieten. Die Vorteile wären (meines Erachtens nach, für Internetpublikationen insbesondere) eklatant:

  • Der Leser erhält mittels Link einen Einblick in das zitierte Stück und die Verortung innerhalb des Archivs.
  • Der Autor hat die Sicherheit, dass auch nach einer Umordnung der Archivalien sein Stück noch aufgefunden wird (nicht, dass ich ungern Konkordanzlisten durchwälzen würde)
  • Das Archiv findet (bei gut gemachten APIs automatisch) Zitierungen, der eigenen Stücke und bleibt dadurch informiert, was die Aussenwelt mit ihren Heiligtümern macht.

Besonders im Zusammenhang mit Digitalisierungsvorhaben (wer macht das im Moment schon nicht) wird das Verfahren interessant, da in der Publikation die Bilder der Dokumente geladen werden können (und zwar genau diejenigen, die das Archiv freigegeben hat).

Bei (digitalen) Editionen wird der Vorteil ebenfalls offensichtlich: Während das Archiv für die Dokumente die Datenhoheit behält (auch und insbesondere für die Faksimile und die Metadaten), kann das Editionsunternehmen sich bequem mit dem Archiv verknüpfen und behält dabei die Datenhoheit an der eigenen Arbeitsleistung (der Edition, dem Kommentar und register-artigen Einträgen).

Man wird ja wohl noch träumen dürfen.