Das digitale Exponat: Standards für die Langzeitarchivierung von Kulturgut

Veröffentlicht am März 15, 2024

Die bloße Digitalisierung von Kulturgut schützt nicht vor dessen Verlust. Ohne eine systemische Strategie, die über das reine Scannen hinausgeht, droht der unkontrollierbare Verfall digitaler Bestände.

  • Format- und Metadaten-Standards sind die unabdingbare Basis, um den langfristigen Wert und die Auffindbarkeit digitaler Exponate zu sichern.
  • Eine echte Archivierungsstrategie nach dem OAIS-Modell ist rechtlich und technisch fundamental und unterscheidet sich grundlegend von simplen IT-Backups.

Empfehlung: Etablieren Sie die digitale Archivierung als organisatorischen Dauerauftrag, der technische, rechtliche und strategische Aspekte für eine nachhaltige Zugänglichkeit integriert.

Als Verwalter musealer Sammlungen stehen Sie vor einer historischen Aufgabe: der Überführung unseres physischen Kulturerbes in die digitale Sphäre. Die Verlockung ist groß, diesen Prozess als abgeschlossenes Projekt zu betrachten, dessen Erfolg sich in Terabytes an Scans misst. Doch diese Sichtweise ist trügerisch und gefährlich. Die eigentliche Herausforderung beginnt erst nach dem Klick des Scanners. Ohne ein robustes, standardisiertes Framework gleicht die Digitalisierung dem Bau eines prächtigen Gebäudes auf Sand – anfällig für den schleichenden, aber unaufhaltsamen Prozess des digitalen Verfalls.

Viele Diskussionen beschränken sich auf oberflächliche Ratschläge wie die Wichtigkeit von Backups oder die Bevorzugung bestimmter Dateiformate. Diese Elemente sind zwar notwendig, aber sie sind nur einzelne Puzzleteile. Sie bilden kein kohärentes System. Was nützt ein hochauflösender Scan, wenn das Dateiformat in 20 Jahren nicht mehr lesbar ist? Was ist der Wert eines digitalen Bildes, das in einem Daten-Silo ohne beschreibende Metadaten verschwindet und somit unauffindbar wird? Die digitale Langzeitarchivierung ist kein IT-Problem, sondern eine kuratorische und strategische Daueraufgabe, die technische, rechtliche und organisatorische Dimensionen umfasst.

Dieser Leitfaden durchbricht die siloartigen Betrachtungen und präsentiert einen systemischen Ansatz. Die wahre Aufgabe liegt nicht darin, digitale Kopien zu erstellen, sondern darin, digitale Nachhaltigkeit zu gewährleisten. Es geht darum, ein Ökosystem zu schaffen, in dem digitale Exponate über Jahrzehnte hinweg authentisch, zugänglich und interpretierbar bleiben. Wir werden die fundamentalen Bausteine dieses Systems untersuchen – von der Wahl des richtigen Formats über die Implementierung von Metadaten-Standards bis hin zu rechtssicheren Zugangsmodellen. Ziel ist es, Ihnen eine normative Grundlage zu geben, um den Wert Ihrer digitalen Sammlungen nicht nur zu schaffen, sondern dauerhaft zu sichern.

Der folgende Artikel ist strukturiert, um Sie schrittweise durch die wesentlichen Entscheidungsfelder der digitalen Langzeitarchivierung zu führen. Jeder Abschnitt beleuchtet eine kritische Komponente, die für den Aufbau eines robusten und zukunftsfähigen digitalen Archivs unerlässlich ist.

TIFF oder JPEG2000: Welches Format überlebt die nächsten 50 Jahre?

Die Wahl des Dateiformats ist die erste und eine der folgenreichsten Entscheidungen im Archivierungsprozess. Sie legt das technische Fundament für die Langlebigkeit und Authentizität Ihrer digitalen Exponate. Die Debatte konzentriert sich oft auf zwei Kandidaten: das etablierte TIFF (Tagged Image File Format) und das fortschrittlichere JPEG2000. Beide haben spezifische Stärken und Schwächen, die im Kontext Ihrer institutionellen Ziele abgewogen werden müssen.

TIFF gilt seit langem als De-facto-Standard für die verlustfreie Archivierung von Rastergrafiken. Seine größte Stärke ist die Robustheit und weite Verbreitung. Es ist ein offener, gut dokumentierter Standard, der von praktisch jeder Bildbearbeitungssoftware unterstützt wird. Diese Interoperabilität minimiert das Risiko der Formatobsoleszenz. Der entscheidende Nachteil von TIFF ist jedoch die Dateigröße. Unkomprimierte TIFF-Dateien belegen erheblichen Speicherplatz, was bei der Skalierung auf Millionen von Objekten zu einer erheblichen finanziellen und administrativen Belastung wird.

Hier setzt JPEG2000 an. Sein Hauptvorteil ist die Fähigkeit zur mathematisch verlustfreien oder visuell verlustfreien Kompression. Empfehlungen des LWL-Archivamts für Westfalen zeigen, dass mit JPEG2000 eine Speicherplatzersparnis von bis zu Faktor 3,6 gegenüber unkomprimiertem TIFF erzielt werden kann. Zudem bietet es moderne Funktionen wie die progressive Darstellung (ein Bild wird schrittweise von einer niedrigen zu einer hohen Auflösung geladen). Die Kehrseite ist eine komplexere Spezifikation und die Tatsache, dass Teile der Technologie historisch patentrechtlich belastet waren, was in der Archiv-Community zu Vorbehalten führt. Obwohl die Kernpatente abgelaufen sind, ist die Softwareunterstützung nicht so universell wie bei TIFF.

Vergleich der Dateiformate TIFF und JPEG2000 für die digitale Langzeitarchivierung

Die Entscheidung ist keine reine „Entweder-oder“-Frage. Wie ein Workshop der ZB MED – Leibniz-Informationszentrum Lebenswissenschaften zeigte, hängt die Wahl vom Nutzungsszenario ab. Für die reine Master-Archivierung, bei der absolute Integrität und maximale Kompatibilität im Vordergrund stehen, bleibt TIFF oft die sicherste Wahl. Wenn jedoch Speicherplatz und flexible Online-Bereitstellung kritische Faktoren sind, bietet JPEG2000 eine potente Alternative. Eine hybride Strategie, bei der ein TIFF-Master existiert und JPEG2000-Derivate für den Zugriff erzeugt werden, kann einen pragmatischen Mittelweg darstellen.

Metadaten-Standards: Warum ein Bild ohne Schlagworte im Archiv wertlos ist

Ein digitales Bild ohne Metadaten ist lediglich eine Ansammlung von Pixeln. Es hat keinen Kontext, keine Geschichte und ist in einem digitalen Archiv praktisch unsichtbar und damit wertlos. Metadaten – also Daten über Daten – sind das zentrale Nervensystem jeder digitalen Sammlung. Sie ermöglichen die Identifizierung, Verwaltung, Auffindbarkeit und langfristige Interpretierbarkeit von Objekten. Die bloße Erfassung von Metadaten reicht jedoch nicht aus; sie müssen einem standardisierten, interoperablen Framework folgen, um systemische Risiken wie Datenverlust und Isolation zu vermeiden.

Der Schlüssel zur Nachhaltigkeit liegt in der Verwendung etablierter Standards. Für den deutschen Kulturraum sind hier insbesondere zwei von Bedeutung. Erstens, das Metadatenformat selbst: LIDO (Lightweight Information Describing Objects) hat sich als XML-basiertes Austauschformat für museale Objektdaten durchgesetzt. Es wurde speziell entwickelt, um die vielfältigen Informationen zu Museumsobjekten – von der materiellen Beschreibung über die Provenienz bis hin zur ikonografischen Analyse – strukturiert abzubilden. Die Deutsche Digitale Bibliothek (DDB) nutzt LIDO prominent und das Institut für Museumsforschung hat ein spezifisches Anwendungsprofil dafür entwickelt, was seine zentrale Rolle im deutschen Museumsverbund unterstreicht.

Zweitens, die kontrollierten Vokabulare und Normdaten: Um Eindeutigkeit zu schaffen (z.B. zwischen „Köln am Rhein“ und „Köln in Kärnten“), müssen Begriffe an eine autoritative Quelle gekoppelt werden. Wie Experten betonen, ist hier die Gemeinsame Normdatei (GND) entscheidend.

Die größte Normdatensammlung für Kultur- und Forschungsdaten im deutschsprachigen Raum ist die Gemeinsame Normdatei (GND).

– Werner Schweibenz und Jens Lill, Workshop Digital und zugänglich, Landesmuseum Württemberg

Die Verknüpfung von Metadaten mit GND-Einträgen für Personen, Orte oder Schlagwörter stellt sicher, dass Ihre Daten maschinenlesbar und mit anderen Sammlungen vernetzbar sind. Dies ist die Voraussetzung für die Teilnahme an übergeordneten Portalen wie der DDB oder Europeana und verhindert, dass Ihre Sammlung zu einem isolierten digitalen Silo wird. Die Investition in eine sorgfältige, standardisierte Metadatenerfassung ist somit keine optionale Fleißaufgabe, sondern eine strategische Notwendigkeit für die Zukunftsfähigkeit Ihrer digitalen Sammlung.

Backup-Strategien: Warum eine Festplatte kein Archiv ist

Ein weit verbreiteter und gefährlicher Irrglaube ist die Gleichsetzung von IT-Backups mit digitaler Langzeitarchivierung. Ein Backup ist eine kurz- bis mittelfristige Sicherheitskopie zur Wiederherstellung von Daten nach einem Systemausfall. Ein digitales Archiv hingegen ist ein systemischer Ansatz, der darauf abzielt, die Authentizität, Integrität und Nutzbarkeit digitaler Objekte über Jahrzehnte oder gar Jahrhunderte zu gewährleisten. Eine auf dem Server gespiegelte Festplatte ist kein Archiv; sie ist lediglich eine redundante Kopie, die denselben systemischen Risiken (z.B. Viren, versehentliches Löschen, Formatobsoleszenz) ausgesetzt ist wie das Original.

Die physische Lebensdauer von Speichermedien ist ein entscheidender Faktor, der oft unterschätzt wird. Eine Analyse des Karlsruher Instituts für Technologie (KIT) verdeutlicht die drastischen Unterschiede: Während die Haltbarkeit von Magnetbändern auf 30-50 Jahre geschätzt wird, liegt sie bei SSDs oft nur bei 5-10 Jahren. Die traditionelle Festplatte (HDD) ist zudem anfällig für mechanische Defekte. Dies zeigt, dass eine Archivierungsstrategie zwingend eine regelmäßige Datenmigration auf neue Medienträger und -formate einplanen muss, lange bevor die alten obsolet oder unlesbar werden. Dieser Prozess ist ein Kernbestandteil des international anerkannten OAIS-Referenzmodells (Open Archival Information System, ISO 14721).

Für eine robuste und normgerechte Sicherungsstrategie hat sich die 3-2-1-Regel als Mindeststandard etabliert, der auch von deutschen Institutionen wie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) empfohlen und erweitert wird. Diese Regel bietet einen pragmatischen und effektiven Rahmen für den Schutz Ihrer wertvollen Datenbestände.

Handlungsplan: Die erweiterte 3-2-1-Regel für Kultureinrichtungen

  1. Drei Kopien anlegen: Erstellen Sie mindestens drei vollständige Kopien Ihrer gesamten digitalen Sammlung (Masterdateien und Metadaten).
  2. Zwei unterschiedliche Medientypen nutzen: Speichern Sie diese Kopien auf mindestens zwei verschiedenen Arten von Speichermedien, um medien-spezifische Risiken zu minimieren (z.B. eine Kopie auf einem Server-RAID-System, eine zweite auf LTO-Magnetbändern).
  3. Einen externen Standort verwenden: Bewahren Sie mindestens eine Kopie an einem geografisch getrennten Ort auf (Offsite-Kopie), um sich vor lokalen Katastrophen wie Feuer oder Hochwasser zu schützen.
  4. Integrität regelmäßig prüfen: Führen Sie periodische Integritätsprüfungen mittels kryptographischer Prüfsummen (z.B. SHA-256) durch, um „Bit Rot“ (schleichende Datenkorruption) frühzeitig zu erkennen.
  5. Migration strategisch planen: Entwickeln Sie einen Migrationsplan für die rechtzeitige Übertragung der Daten auf neue Technologien, bevor die aktuellen Speichermedien oder Formate das Ende ihres Lebenszyklus erreichen.

Die Umsetzung dieser Regeln transformiert ein einfaches Backup in den ersten Schritt eines echten, nachhaltigen Archivierungssystems. Es ist ein organisatorischer Dauerauftrag, der Ressourcen und Planung erfordert, aber für den Schutz des digitalen Kulturerbes alternativlos ist.

Open Access vs. Paywall: Wie machen Sie digitale Exponate der Öffentlichkeit zugänglich?

Die Digitalisierung von Kulturgut wirft unweigerlich die Frage nach dessen Zugänglichkeit auf. Sollten die digitalen Exponate frei für alle verfügbar sein (Open Access), oder sollte der Zugang reguliert und potenziell monetarisiert werden (Paywall oder Lizenzmodell)? Diese Entscheidung ist keine rein technische, sondern eine zutiefst strategische, die den öffentlichen Auftrag, rechtliche Rahmenbedingungen und finanzielle Realitäten einer Institution ausbalancieren muss. In Deutschland hat sich eine differenzierte Landschaft entwickelt, die von vollständiger Offenheit bis zu hybriden Modellen reicht.

Der Open-Access-Ansatz, oft unter Verwendung von Creative-Commons-Lizenzen wie CC0 (Public Domain) oder CC-BY (Namensnennung), maximiert die Sichtbarkeit und Nachnutzung des Kulturerbes. Institutionen wie die Deutsche Digitale Bibliothek (DDB) verfolgen dieses Ziel, um eine breite Teilhabe an Kultur und Wissenschaft zu ermöglichen. Das Deutsche Museum geht einen ähnlichen Weg und stellt seine Bestände unter der Lizenz CC-BY-SA (Namensnennung, Weitergabe unter gleichen Bedingungen) zur Verfügung. Seit dieser Öffnung und der Bereitstellung von Daten über Schnittstellen wie OAI-PMH haben sich die Zugriffszahlen mehr als verdoppelt, was das enorme öffentliche Interesse belegt.

Am anderen Ende des Spektrums stehen restriktivere Modelle, die den Zugang kontrollieren. Dies kann aus urheberrechtlichen Gründen notwendig sein, wenn die Rechte für eine freie Veröffentlichung nicht geklärt sind, oder aus strategischen Erwägungen, um Einnahmen zu generieren. Die Stiftung Preußischer Kulturbesitz (SPK) mit ihrer Bildagentur bpk verfolgt beispielsweise ein hybrides Modell: Die Nutzung für wissenschaftliche und redaktionelle Zwecke ist oft vereinfacht oder kostenfrei, während für kommerzielle Nutzungen Lizenzgebühren anfallen. Dieses Modell versucht, den öffentlichen Bildungsauftrag mit der Notwendigkeit der Refinanzierung in Einklang zu bringen.

Die Wahl des richtigen Modells hängt von der Mission und den rechtlichen Rahmenbedingungen Ihrer Institution ab. Die folgende Tabelle gibt einen Überblick über gängige Modelle in deutschen Kultureinrichtungen.

Lizenzmodelle deutscher Kultureinrichtungen im Vergleich
Modell Zugang Nutzung Beispielinstitution
Open Access (CC0) Kostenlos Uneingeschränkt Deutsche Digitale Bibliothek
CC-BY-SA Kostenlos Mit Namensnennung Deutsches Museum
Hybrid Differenziert Wissenschaft frei, Kommerziell lizenzpflichtig Stiftung Preußischer Kulturbesitz/bpk

Wie diese Übersicht der Lizenzmodelle zeigt, gibt es keine Einheitslösung. Eine klare, transparente und rechtlich fundierte Zugangs- und Lizenzierungsstrategie ist jedoch ein unverzichtbarer Bestandteil eines professionellen digitalen Archivs. Sie definiert, wie Ihre Institution ihren öffentlichen Auftrag im digitalen Raum interpretiert und umsetzt.

Digitales Wasserzeichen: Wie schützen Sie hochauflösende Scans vor Missbrauch?

Mit der Bereitstellung digitaler Exponate, insbesondere in hoher Auflösung, entsteht ein Spannungsfeld: Einerseits soll die Wissenschaft und die Öffentlichkeit von bestmöglicher Qualität profitieren, andererseits muss die Institution ihre Rechte wahren und unautorisierte kommerzielle Nutzung verhindern. Die Staatsbibliothek zu Berlin beispielsweise stellt über 10 Millionen Seiten in hoher Auflösung (oft 300 dpi und mehr) zur Verfügung. Solche Bestände sind ein wertvolles Gut, das vor Missbrauch geschützt werden muss. Digitale Wasserzeichen sind hierbei eine etablierte Technologie.

Ein digitales Wasserzeichen ist eine unsichtbare oder sichtbare Markierung, die in eine Bilddatei eingebettet wird. Diese Markierung enthält Informationen über den Urheber oder die Nutzungsrechte. Man unterscheidet hauptsächlich zwei Arten:

  • Sichtbare Wasserzeichen: Dies sind halbtransparente Logos oder Texte, die über das Bild gelegt werden. Sie dienen primär der Abschreckung, da sie die visuelle Integrität des Bildes beeinträchtigen. Ihr Einsatz ist bei niedrig aufgelösten Vorschauen üblich, für die wissenschaftliche Nutzung hochauflösender Bilder sind sie jedoch ungeeignet.
  • Unsichtbare (steganographische) Wasserzeichen: Diese verändern die Bilddaten auf eine für das menschliche Auge nicht wahrnehmbare Weise. Die eingebetteten Informationen können nur mit spezieller Software ausgelesen werden. Ihr großer Vorteil ist, dass sie die Ästhetik des Bildes nicht stören. Im Falle einer Rechtsverletzung können sie als unbestreitbarer Beweis für die Herkunft des Bildes dienen.

Die Implementierung einer Wasserzeichen-Strategie muss sorgfältig geplant werden. Es ist entscheidend, dass der Prozess automatisiert in den Digitalisierungs-Workflow integriert wird. Typischerweise wird das unveränderte, wasserzeichenfreie Masterfile (z.B. TIFF) im gesicherten Archiv aufbewahrt. Für die Bereitstellung auf der Website oder in Datenbanken werden dann Derivate (z.B. JPEGs) erzeugt, in die je nach Verwendungszweck und Lizenzmodell sichtbare oder unsichtbare Wasserzeichen eingebettet werden. So kann ein Bild, das für die Presse freigegeben wird, andere Informationen enthalten als eines, das in einem Online-Shop für Posterdrucke verkauft wird.

Digitaler Schutz von hochauflösenden Scans durch Wasserzeichen-Technologie

Der Einsatz von Wasserzeichen ist ein wichtiger Baustein des Rechtemanagements im digitalen Raum. Er schafft eine technische Grundlage, um die Einhaltung von Lizenzbedingungen zu überwachen und die Urheberschaft nachzuweisen. Dies gibt Institutionen die Sicherheit, ihre Sammlungen auch in hoher Qualität zu öffnen, ohne die Kontrolle über ihre digitalen Assets vollständig zu verlieren. Es ist ein pragmatischer Kompromiss zwischen dem Ideal des offenen Zugangs und der Notwendigkeit des Ressourcenschutzes.

Training mit eigenen Bildern: Wie Sie rechtssicher ein eigenes Modell trainieren

Die digitalisierten Bestände von Kultureinrichtungen sind nicht nur passive Archivobjekte, sondern auch ein wertvoller Rohstoff für neue wissenschaftliche Erkenntnisse – insbesondere durch den Einsatz von Künstlicher Intelligenz (KI) und Maschinellem Lernen (ML). Das Training von KI-Modellen zur automatischen Texterkennung (OCR/HTR), Bildklassifizierung oder Stil-Analyse kann die Forschung revolutionieren. Doch die Nutzung urheberrechtlich geschützter Werke als Trainingsdaten wirft komplexe rechtliche Fragen auf, die Institutionen proaktiv adressieren müssen.

Die rechtliche Grundlage in Deutschland und der EU wurde durch die Umsetzung der DSM-Richtlinie (Digital Single Market) entscheidend geklärt. Der § 44b des deutschen Urheberrechtsgesetzes (UrhG) gestattet ausdrücklich das Text- und Data-Mining zu Zwecken der wissenschaftlichen Forschung. Das bedeutet, dass Forschungseinrichtungen und Kulturerbe-Institutionen, die rechtmäßigen Zugang zu Werken haben, diese für die Analyse und das Training von KI-Modellen vervielfältigen dürfen. Diese Regelung schafft eine wichtige Rechtssicherheit für Projekte, die auf der maschinellen Auswertung großer Datenmengen basieren.

Führende deutsche Institutionen nutzen diesen Rahmen bereits aktiv. Die Staatsbibliothek zu Berlin beispielsweise entwickelt im Rahmen von Projekten wie Qurator eigene ML-Modelle. Dazu gehören spezialisierte Modelle zur Layout-Analyse und Texterkennung (Eynollah) sowie Modelle zur automatischen Indexierung und Verschlagwortung in verschiedenen Sprachen (Annif). Diese Werkzeuge werden oft als Open Source zur Verfügung gestellt und ermöglichen es auch kleineren Institutionen, von diesen technologischen Fortschritten zu profitieren. Der Aufbau eigener, spezialisierter Modelle, die auf den spezifischen historischen Beständen trainiert wurden, liefert oft weitaus bessere Ergebnisse als generische Standardlösungen.

Über die rechtlichen Aspekte hinaus sind ethische Überlegungen von großer Bedeutung. Beim Aufbau von Trainingsdatensets muss auf die Vermeidung von „Bias“ (systematischen Verzerrungen) geachtet werden. Ein Modell, das ausschließlich mit europäischen Manuskripten trainiert wird, wird bei der Analyse asiatischer oder afrikanischer Dokumente schlechte Ergebnisse liefern. Institutionen tragen die Verantwortung, diverse und repräsentative Datensätze zu kuratieren. Technisch ist die Nutzung offener Standards wie CIDOC-CRM für die semantische Beschreibung der Trainingsdaten entscheidend, um die Interoperabilität und Nachvollziehbarkeit der Forschung zu gewährleisten. Das Training von KI-Modellen ist somit eine Erweiterung des kuratorischen Auftrags in den algorithmischen Raum.

Rohstoffmangel managen: Wie digitale Lagerhaltung Ihre Produktion rettet

In der Diskussion um Digitalisierung wird der Begriff „Rohstoff“ oft mit industrieller Produktion assoziiert. Im musealen Kontext ist der primäre Rohstoff jedoch das Kulturgut selbst – das oft fragile, einzigartige Original. Ein „Rohstoffmangel“ entsteht hier nicht durch Lieferkettenprobleme, sondern durch die Unzugänglichkeit dieser Originale, sei es aus konservatorischen Gründen oder weil sie schlichtweg unbekannt sind. Eine digitale Lagerhaltung, also ein systematisches Digital Asset Management, ist der Schlüssel, um diesen Mangel zu beheben und die „Produktion“ von Wissen und kultureller Teilhabe zu sichern.

Die digitale Verfügbarkeit ist die Voraussetzung für Forschung, Bildung und öffentliche Auseinandersetzung. Ein Objekt, das nicht digitalisiert und erschlossen ist, existiert für die globale Öffentlichkeit quasi nicht. Erschreckende Zahlen aus Baden-Württemberg belegen diesen „digitalen Rohstoffmangel“: Von rund 1300 Museen waren Anfang 2021 nur 60 bei der Deutschen Digitalen Bibliothek registriert, und davon hatten nur 7 tatsächlich Objekte veröffentlicht. Die überwältigende Mehrheit des kulturellen Erbes bleibt somit in den Depots verborgen und kann seinen Wert für die Gesellschaft nicht entfalten.

Ein durchdachtes digitales Inventar geht weit über das reine Scannen hinaus. Es bedeutet, jedes digitale Exponat mit standardisierten Metadaten (siehe Abschnitt 2) zu versehen und es in einem System zu verwalten, das konservatorische Informationen, Nutzungsrechte und Provenienzdaten verknüpft. Diese digitale Repräsentanz wird zum primären Arbeitsinstrument für Kuratoren und Forscher. Sie schont das Original, da für viele Anfragen der hochauflösende Scan ausreicht, und demokratisiert den Zugang, da Wissenschaftler weltweit auf die Daten zugreifen können, ohne reisen zu müssen. Die digitale Lagerhaltung wird so zur zentralen Infrastruktur für die Wissensproduktion.

Die Verantwortung, die mit dieser Öffnung einhergeht, ist immens. Wie der Experte Christian Gries formuliert: „Im gleichen Maße, in dem sich Museen der Digitalisierung öffnen, müssen sie auch Verantwortung für den entstehenden digitalen Output übernehmen“. Diese Verantwortung manifestiert sich in der Etablierung eines nachhaltigen Archivierungssystems, wie es in diesem Leitfaden beschrieben wird. Die digitale Lagerhaltung ist kein Selbstzweck, sondern die strategische Antwort auf die drohende Irrelevanz und Unzugänglichkeit unseres Kulturerbes. Sie wandelt den passiven Besitz von Objekten in ein aktives Potenzial für die Zukunft um.

Das Wichtigste in Kürze

  • System statt Projekt: Langzeitarchivierung ist ein kontinuierlicher organisatorischer Prozess, keine einmalige technische Maßnahme.
  • Standards sind nicht optional: Die Nutzung von Formaten wie TIFF/JPEG2000 und Metadaten-Schemata wie LIDO/GND ist die Basis für Interoperabilität und Werterhalt.
  • Archiv ist nicht Backup: Eine echte Archivstrategie (3-2-1-Regel, Migration, Integritätschecks) geht weit über einfache Sicherheitskopien hinaus und ist für die Langzeitperspektive unerlässlich.

Der digitale Zwilling des Denkmals: Wie 3D-Scans das kulturelle Erbe retten

Während die 2D-Digitalisierung von Dokumenten und Gemälden bereits etabliert ist, eröffnet die 3D-Digitalisierung eine neue Dimension der Erhaltung und Vermittlung. Durch Technologien wie Laserscanning und Photogrammetrie kann ein „digitaler Zwilling“ eines Objekts oder sogar eines ganzen Gebäudes erstellt werden. Dieses hochpräzise 3D-Modell ist mehr als nur eine ansprechende Visualisierung; es ist ein wissenschaftlicher Datensatz, der Form, Textur und in manchen Fällen sogar Materialeigenschaften konserviert. Für vom Verfall bedrohte Denkmäler oder durch Katastrophen wie den Brand von Notre-Dame gefährdete Kulturgüter wird der digitale Zwilling zu einer unschätzbar wertvollen Versicherung.

Institutionen in Deutschland investieren gezielt in diese Zukunftstechnologie. Die Klassik Stiftung Weimar beispielsweise hat mit Förderung durch den Europäischen Fonds für regionale Entwicklung (EFRE) hochmoderne Digitalisierungswerkstätten aufgebaut. Dort kommen bestandsschonende 3D-Scanner zum Einsatz, die eine berührungslose Erfassung fragilster Objekte ermöglichen. Diese 3D-Daten dienen nicht nur der Dokumentation, sondern auch der Forschung, etwa durch materialwissenschaftliche Analysen am digitalen Modell, oder der virtuellen Rekonstruktion verlorener Zustände.

Die Anwendungsbereiche des digitalen Zwillings sind vielfältig. In der Denkmalpflege ermöglichen sie präzise Schadenskartierungen und die Planung von Restaurierungsmaßnahmen. In der Forschung können Objekte virtuell zerlegt, vermessen und mit anderen Objekten aus Sammlungen weltweit verglichen werden. Für die Öffentlichkeit schaffen sie völlig neue Zugangsmöglichkeiten: Interaktive 3D-Modelle auf Websites, Virtual-Reality-Erlebnisse im Museum oder die Bereitstellung von Daten für den 3D-Druck ermöglichen eine Auseinandersetzung mit dem Kulturerbe, die weit über das Betrachten eines 2D-Bildes hinausgeht.

Die Erstellung und Archivierung dieser komplexen 3D-Daten stellt jedoch noch höhere Anforderungen an die Langzeitarchivierungsstrategie. Die Dateigrößen sind enorm, und die Formate (z.B. OBJ, PLY, FBX) sind noch nicht so standardisiert und langlebig wie im 2D-Bereich. Die Dokumentation des gesamten Erfassungsprozesses – von der verwendeten Hardware und Software bis zu den Kalibrierungsparametern – wird zu einem essenziellen Teil der Metadaten. Der digitale Zwilling ist die Speerspitze der Digitalisierung, aber er erfordert auch die disziplinierteste und vorausschauendste Umsetzung der hier beschriebenen Archivierungsprinzipien. Er repräsentiert die ultimative Form der digitalen Nachhaltigkeit und ist ein entscheidender Schritt, um unser kulturelles Erbe für kommende Generationen nicht nur zu bewahren, sondern es in seiner vollen Dreidimensionalität erlebbar zu machen.

Häufig gestellte Fragen zur Langzeitarchivierung von Kulturgut

Dürfen digitalisierte Sammlungen für KI-Training verwendet werden?

Ja, unter bestimmten Bedingungen. Nach § 44b des deutschen Urheberrechtsgesetzes (UrhG) ist das Text- und Data-Mining für Zwecke der wissenschaftlichen Forschung gestattet, sofern die Institution rechtmäßigen Zugang zu den Werken hat. Dies schafft eine solide Rechtsgrundlage für Forschungsprojekte.

Welche ethischen Aspekte sind bei der Nutzung von Sammlungsdaten für KI zu beachten?

Ein zentraler Aspekt ist die Vermeidung von systematischen Verzerrungen (Bias). Wenn Trainingsdaten beispielsweise ausschließlich aus einem europäischen Kontext stammen, kann das KI-Modell voreingenommene oder fehlerhafte Ergebnisse für Kulturgut aus anderen Regionen liefern. Die Kuratierung diverser und repräsentativer Trainingsdatensätze ist daher eine ethische Verpflichtung.

Welche technischen Standards gelten für die semantische Interoperabilität bei KI-Projekten?

Um die Nachnutzbarkeit und Vernetzung von Forschungsdaten zu gewährleisten, ist die Verwendung offener Standards entscheidend. Für die Beschreibung von Kulturgutdaten im Kontext von KI hat sich das Conceptual Reference Model des International Council of Museums (CIDOC-CRM, ISO 21127) als ontologischer Standard für semantische Interoperabilität etabliert.

Geschrieben von Jonas Eicher, Senior Motion Designer und Creative Technologist mit Schwerpunkt auf digitale Kunst, 3D-Animation und NFTs. Experte für Hardware-Setups, Software-Workflows und Urheberrecht im KI-Zeitalter.