Über BIQE AI HTR SaaS

Eine praktische Lösung für ein hartnäckiges Problem: historische Handschriften in großem Maßstab lesbar machen.

Das Problem

Europäische Archive enthalten Millionen von Seiten mit Handschriften aus der Zeit vor 1950. Sie sind digital gescannt, aber nicht durchsuchbar. Wer etwas in einem Register aus 1894 sucht, muss es von Hand durchgehen.

Manuelle Transkription ist teuer — ungefähr 5–15 € pro Seite, je nach Qualität und Länge. Für große Sammlungen bedeutet das Budgets, die schnell in die Millionen gehen. Die Folge: Viel Material bleibt unkatalogisiert.

Automatisierte HTR (Handwritten Text Recognition) kann das günstiger, aber die Genauigkeit der besten Open-Source-Modelle liegt bei einer Fehlerrate von 8–15 % auf Zeilenebene. Für Veröffentlichung oder ernsthafte Forschung ist das nicht gut genug.

Unser Ansatz

Wir fügen der Standard-HTR-Pipeline einen Schritt hinzu: eine Korrekturschicht, die auf einem großen Sprachmodell basiert, das die Rohausgabe in den Kontext einordnet.

1Layout

Ein Erkennungsmodell findet die Textzeilen auf der Seite und bestimmt die Lesereihenfolge.

2Erkennung

Ein HTR-Modell liest jede Textzeile Zeichen für Zeichen. Die Ausgabe ist roh — oft mit typografischen Fehlern, die für einen menschlichen Leser offensichtlich falsch sind.

3Korrektur

Unsere Schicht sendet Bild und Rohtranskription an ein LLM mit kontextuellem Wissen über Sprache, Epoche und Dokumenttyp. Das Ergebnis ist deutlich genauer.

Beispiel: Ein Verwaltungsdokument aus dem 19. Jahrhundert, das roh als "Straff ge van genis te Goes voor het" ausgegeben wird, wird nach der Korrektur zu "Strafgevangenis te Goes voor het" (ein niederländisches Wort für Gefängnis). Der Fehler wird behoben, weil das LLM weiß, dass "strafgevangenis" ein gültiges Wort ist und die fragmentierte Version nicht.

Technische Prinzipien

Korrektur, nicht Neuerstellung

Das LLM erhält sowohl das Bild als auch die Rohtranskription. Es arbeitet als Korrekturleser, nicht als Neuübersetzer. Das minimiert Halluzinationen.

Koordinaten bleiben erhalten

Wir korrigieren Text innerhalb der bestehenden PageXML-Struktur. Bounding Boxes, Lesereihenfolge und Zeilen-IDs bleiben unverändert — Sie können durchsuchbare PDFs oder ALTO-Dateien direkt exportieren.

Prompt-Presets pro Dokumenttyp

Der Prompt, der das LLM steuert, ist je nach Dokumenttyp spezialisiert. Ein Register aus dem 17. Jahrhundert erhält andere Anweisungen als ein Typoskript aus dem 20. Jahrhundert. Neue Presets fügen wir schnell für spezifische Kundenprojekte hinzu.

Modell-unabhängig

Wir routen pro Stufe zum am besten passenden Modell (Gemini, Claude, GPT-4o, DeepSeek und andere). Wenn ein Anbieter ausfällt oder ein neues, besseres Modell verfügbar wird, ändert sich für unsere Kunden nichts.

Messergebnisse

An einem Testkorpus niederländischer Verwaltungsdokumente aus dem 19. Jahrhundert erreichen wir die folgenden Fehlerraten (Character Error Rate, auf Zeilenebene):

Schritt Fehlerrate (CER) Anmerkung
Nur HTR (ohne Korrektur) ~8–12 % Standard-HTR-Ausgabe mit Republic-Modell
Mit BIQE-Korrekturschicht — Balanced ~2–3 % Gemini 3 Flash
Mit BIQE-Korrekturschicht — Best ~1–2 % Claude Sonnet 4.6. Hinweis: nicht immer besser als Balanced bei niederländischem Text — siehe Pilotprojekt.

Ergebnisse variieren je nach Material. Während des Pilotprojekts testen wir an einer kleinen Auswahl Ihrer eigenen Dokumente — dann sehen wir direkt, welche Stufe am besten passt.

Über den Entwickler

BIQE AI HTR SaaS wurde von Jannes Hoekman entwickelt, der in der Digitalisierung historischen Materials tätig ist. Die Software basiert auf Open-Source-Komponenten (wir verwenden öffentlich verfügbare Modelle für Layoutanalyse und HTR); die Korrekturschicht und Orchestrierung sind unsere eigene Arbeit.

Bei Fragen, Pilotprojekt-Anfragen oder Kooperationen: [email protected].

Kontakt aufnehmen Preise ansehen