Veröffentlicht am Mai 17, 2024

Viele glauben, die digitale Langzeitarchivierung sei primär eine Frage des richtigen Speichermediums. Dieser Artikel argumentiert jedoch, dass die wahre Herausforderung nicht in der Sicherung von Bits und Bytes liegt, sondern in der Gewährleistung der zukünftigen Interpretierbarkeit. Ohne eine sorgfältige Strategie für Metadaten, offene Formate und kontextuelle Dokumentation riskieren wir, riesige Datenfriedhöfe zu schaffen – voller Bilder, die in 50 Jahren zwar technisch vorhanden, aber für Historiker völlig wertlos sind.

Als Archivar im Bundesarchiv gehört die Auseinandersetzung mit der Zukunft zu meinem täglichen Geschäft. Die Frage, die uns alle umtreibt, ist nicht nur, *was* wir aus unserer Gegenwart für kommende Generationen bewahren, sondern *wie* wir es tun. Bei digitalen Fotografien, diesen flüchtigen Zeugen unserer Zeit, wird diese Frage existenziell. Jedes Jahr werden Milliarden von Bildern erstellt, doch die meisten sind digitale Eintagsfliegen, deren Kontext und Lesbarkeit schon in einem Jahrzehnt verloren sein könnten. Die üblichen Ratschläge, wie die 3-2-1-Backup-Regel oder die Organisation in Ordnerstrukturen, kratzen nur an der Oberfläche des Problems.

Diese Ansätze übersehen die eigentliche Gefahr: die technologische Obsoleszenz und den Verlust der Kontextintegrität. Ein Bild ohne seine Geschichte ist nur eine Ansammlung von Pixeln. Ein Dateiformat, das in 20 Jahren keine Software mehr öffnen kann, ist digitaler Müll. Für Museen und Stadtarchive, die den Auftrag haben, das kulturelle Gedächtnis zu sichern, ist dies eine inakzeptable Aussicht. Die Bewahrung digitaler Fotografien ist daher keine rein technische Aufgabe, sondern eine kuratorische und strategische Herausforderung von höchster Priorität.

Doch was, wenn wir das Problem von Grund auf anders betrachten? Was, wenn wir aufhören, nur in Terabytes zu denken, und anfangen, in Generationen zu planen? Die wahre Lösung liegt nicht im Kauf der neuesten Festplatte, sondern in der Etablierung eines nachhaltigen Workflows, der die drei Säulen der Langzeitarchivierung berücksichtigt: Kontext, Formatstabilität und physische Beständigkeit. Dieser Artikel führt Sie durch die strategischen Entscheidungen, die sicherstellen, dass Ihre digitalen Bestände nicht nur gespeichert, sondern auch in 50 Jahren noch gefunden, verstanden und als wertvolle historische Quelle genutzt werden können.

Dieser Leitfaden ist als eine strategische Übersicht für professionelle Anwender konzipiert. Wir werden die entscheidenden Aspekte der digitalen Bestandserhaltung beleuchten, um Ihnen eine solide Grundlage für Ihre Archivierungsstrategie zu bieten.

Warum fehlende IPTC-Daten Ihre Bilder für Historiker wertlos machen

Ein Bild ohne Metadaten ist wie ein Dokument ohne Datum, Autor und Titel – eine Information ohne Kontext, die für die historische Forschung nahezu unbrauchbar ist. Die IPTC-Metadaten sind das zentrale Nervensystem eines digitalen Bildes. Sie tragen die „Provenienz“, also die Herkunfts- und Entstehungsgeschichte, die für jede archivarische Bewertung unerlässlich ist. Fehlende oder unvollständige Angaben zu Urheber, Aufnahmedatum, Ort und abgebildeten Personen oder Ereignissen machen eine spätere wissenschaftliche Einordnung unmöglich. Für einen Historiker im Jahr 2074 ist ein Foto von einer Demonstration ohne diese Daten nur ein Bild einer Menschenmenge – nicht aber ein Zeugnis der „Fridays for Future“-Bewegung in Berlin im Jahr 2023.

Der Wert liegt in der präzisen und standardisierten Erschließung. Die Verwendung von kontrollierten Vokabularen und Normdaten, wie den GND-Nummern (Gemeinsame Normdatei) der Deutschen Nationalbibliothek für Personen und Orte, ist hierbei kein akademischer Luxus, sondern eine zwingende Notwendigkeit. Sie schafft eine maschinenlesbare und eindeutige Verbindung zu anderen Wissenssystemen und sichert die Auffindbarkeit über Sprach- und Systemgrenzen hinweg. Die kontinuierliche Weiterentwicklung des Standards, wie der aktuelle IPTC Photo Metadata Standard zeigt, unterstreicht die globale Bedeutung dieser Daten für die professionelle Bildverwertung und -archivierung.

Darüber hinaus sind vollständige IPTC-Daten auch ein wirksamer Schutz für Urheberrechte. In Deutschland schützt der § 95c des Urheberrechtsgesetzes (UrhG) die Integrität dieser „Informationen für die Rechtewahrnehmung“. Das Entfernen oder Verändern von Metadaten kann rechtliche Konsequenzen haben, was die Bedeutung einer sorgfältigen Datenpflege unterstreicht. Die Metadaten sind somit nicht nur ein Service für Historiker, sondern auch ein juristisches Instrument zur Sicherung des geistigen Eigentums.

Aktionsplan: Essenzielle IPTC-Felder für die historische Dokumentation

  1. Creator/Urheber: Tragen Sie den vollständigen Namen des Fotografen oder der Institution ein. Vermeiden Sie Abkürzungen oder Pseudonyme.
  2. Copyright Notice: Formulieren Sie einen eindeutigen Rechtevermerk gemäß deutschem Recht, idealerweise mit Jahreszahl und Rechteinhaber.
  3. Headline/Description: Beschreiben Sie in ganzen Sätzen den Kontext, die abgebildeten Personen und die Geschichte hinter dem Bild. Beantworten Sie die W-Fragen (Wer, Was, Wann, Wo, Warum).
  4. Keywords: Integrieren Sie spezifische Schlagwörter sowie Normdaten wie GND-Nummern für Personen, Orte und Körperschaften, um die Eindeutigkeit zu gewährleisten.
  5. Date Created: Geben Sie das exakte Erstellungsdatum (Tag, Monat, Jahr) an. Dies ist der Ankerpunkt für jede chronologische Einordnung.

Letztlich ist die Investition in eine lückenlose Metadatenstrategie eine Investition in die Zukunft. Sie verwandelt eine einfache Bilddatei in eine zitierfähige, verlässliche und wertvolle historische Quelle.

Cloud oder LTO-Tapes: Welche Speicherlösung überlebt den technologischen Wandel?

Die Wahl des Speichermediums ist eine der grundlegendsten Entscheidungen in der Langzeitarchivierung. Während kommerzielle Cloud-Lösungen wie AWS Glacier mit unbegrenzter Skalierbarkeit und einfachem Zugriff locken, bergen sie für Archive erhebliche Risiken: Abhängigkeit von einem Anbieter, unvorhersehbare Kostenentwicklungen über Jahrzehnte und Fragen der Datenhoheit. Was passiert, wenn der Anbieter sein Geschäftsmodell ändert oder den Dienst einstellt? Für ein Gedächtnisinstitut, das in Zeiträumen von 50 oder 100 Jahren plant, sind dies inakzeptable Unsicherheiten.

Hier bieten LTO-Magnetbänder (Linear Tape-Open) eine bewährte und nach wie vor überlegene Alternative für die „kalte“ Archivierung, also die Sicherung von Daten, auf die nicht ständig zugegriffen werden muss. Ihre entscheidenden Vorteile sind die lange Lebensdauer von bis zu 30 Jahren, extrem niedrige Kosten pro Terabyte und die „Air-Gap“-Sicherheit. Da die Bänder offline gelagert werden, sind sie immun gegen Cyberangriffe, Ransomware oder versehentliches Löschen. Sie ermöglichen es einem Archiv, die volle physische und digitale Kontrolle über seine Bestände zu behalten – ein zentraler Aspekt der archivarischen Souveränität.

Moderner Serverraum mit LTO-Tape-Library und Cloud-Verbindung für hybride Datensicherung

Die Zukunft liegt jedoch nicht in einer „Entweder-oder“-Entscheidung, sondern in einer hybriden Strategie. Ein modernes Archivkonzept kombiniert die Stärken beider Welten: Schneller Online-Zugriff auf Arbeitskopien und niedrig aufgelöste Vorschaubilder in einer (potenziell privaten) Cloud, während die hochauflösenden, unveränderlichen Master-Dateien sicher auf LTO-Tapes verwahrt werden. Dies gewährleistet sowohl die tägliche Nutzbarkeit als auch die langfristige Bestandserhaltung gemäß den strengen Anforderungen, die beispielsweise das Bundesamt für Sicherheit in der Informationstechnik (BSI) stellt.

Durch das exponentielle Wachstum von Datenmengen, bleibt eine sichere und kosteneffiziente Archivierung eine der größten Herausforderungen für Unternehmen. Linear Tape-Open (LTO)-Bänder bieten eine bewährte und zuverlässige Lösung für die langfristige Speicherung wertvoller Daten.

– Rhenus Archiv Services, LTO-Bänder archivieren – Externe Archivierung

Die folgende Tabelle stellt die wesentlichen Kriterien für eine strategische Entscheidung gegenüber. Die Kosten für LTO beziehen sich auf die reine Medien- und Hardware-Anschaffung und sind im Langzeitvergleich unschlagbar.

Vergleich von Cloud- und LTO-Archivierung
Kriterium Cloud (AWS Glacier) LTO-10 Tapes
Kapazität pro Einheit Unbegrenzt skalierbar 40 TB unkomprimiert
Kosten pro TB (10 Jahre) ~360€ (0,003€/GB/Monat) ~20€ (bei 2000€ für Tape)
Lebensdauer Abhängig vom Anbieter 30 Jahre bei optimaler Lagerung
Zugriff Online, jederzeit Offline, Air-Gap-Sicherheit
BSI-Konformität Mit C5-Testat möglich Vollständig konform

Die Entscheidung für eine Speichertechnologie ist somit keine rein technische, sondern eine strategische Weichenstellung für die Autonomie und Zukunftsfähigkeit des Archivs.

Alltag oder Event: Was ist für das Stadtarchiv in 100 Jahren wirklich wichtig?

Die vielleicht schwierigste Aufgabe für Kuratoren und Archivare ist die Bewertung und Auswahl. Angesichts der täglichen Bilderflut ist es unmöglich und auch nicht wünschenswert, alles zu bewahren. Die entscheidende Frage lautet: Welche Bilder des Heute werden für einen Historiker des Morgen den größten Erkenntniswert haben? Oft sind es nicht die perfekt inszenierten Aufnahmen von offiziellen Ereignissen, die den tiefsten Einblick gewähren, sondern die unspektakulären Bilder des Alltags. Sie dokumentieren den stillen Wandel von Architektur, Mode, sozialen Interaktionen und Arbeitswelten – Aspekte, die in der offiziellen Geschichtsschreibung oft unterrepräsentiert sind.

Ein Foto von einer leeren Straße während des COVID-19-Lockdowns, ein Bild von Menschen, die an einer neuen E-Ladesäule warten, oder eine Serie über das Verschwinden kleiner Einzelhandelsgeschäfte in einer Innenstadt kann in 100 Jahren mehr über unsere Gesellschaft aussagen als das hundertste Foto eines Politikers beim Durchschneiden eines Bandes. Der dokumentarische Wert eines Bildes bemisst sich an seiner Fähigkeit, gesellschaftliche Transformationsprozesse sichtbar zu machen und den „Zeitgeist“ einzufangen. Die Aufgabe des Archivs ist es, eine repräsentative und multiperspektivische Auswahl zu treffen, die auch die Lebenswelten unterrepräsentierter Gruppen abbildet.

Eine systematische Dokumentation ist dabei einem zufälligen Sammeln vorzuziehen. Ein fotografisches Projekt, das beispielsweise über Jahre hinweg einen bestimmten Ort oder eine soziale Gruppe begleitet, entwickelt eine ungleich höhere Aussagekraft als eine Ansammlung von Einzelbildern. Es geht darum, Geschichten zu erzählen und Entwicklungen nachvollziehbar zu machen. Die kuratorische Entscheidung muss daher immer die Frage nach dem potenziellen narrativen Potenzial eines Bildes oder einer Bildserie stellen.

Aktionsplan zur Bewertung der Archivwürdigkeit

  1. Kontaktpunkte: Alle Kanäle auflisten, über die Bilder eingehen (z.B. Fotografen, Agenturen, Bürgerarchive, Social Media).
  2. Sammlung: Vorhandene und eingehende Bilder systematisch inventarisieren und thematisch clustern (z.B. Stadtentwicklung, soziales Leben, politische Ereignisse).
  3. Kohärenz: Jedes Bild mit dem definierten Sammlungsprofil des Archivs abgleichen. Passt es zur strategischen Ausrichtung (z.B. Fokus auf Sozialgeschichte, Architekturwandel)?
  4. Einzigartigkeit/Emotion: Die Einzigartigkeit der Darstellung bewerten. Zeigt das Bild eine neue Perspektive, eine seltene Emotion oder einen Aspekt, der in anderen Bildern fehlt?
  5. Integrationsplan: Gezielt Lücken in der Dokumentation identifizieren. Welche Themen, Orte oder Gruppen sind unterrepräsentiert? Daraus können gezielte Ankäufe oder Fotoaufträge abgeleitet werden.

Am Ende entscheidet nicht die technische Perfektion, sondern die inhaltliche Relevanz und die Fähigkeit eines Bildes, eine Geschichte zu erzählen, über seinen Platz im kollektiven Gedächtnis.

Das Risiko veralteter RAW-Formate, das Archive unlesbar macht

RAW-Dateien sind das digitale Negativ des Fotografen. Sie enthalten alle vom Sensor erfassten, unbearbeiteten Bildinformationen und bieten maximale Flexibilität für die spätere Bearbeitung. Doch genau hier liegt auch eine erhebliche Gefahr für die Langzeitarchivierung. Nahezu jeder Kamerahersteller verwendet sein eigenes, proprietäres RAW-Format (.NEF, .CR2, .ARW etc.). Diese Formate sind nicht öffentlich dokumentiert und ihre Lesbarkeit hängt von der Software des jeweiligen Herstellers ab. Es gibt keine Garantie, dass diese Software in 20, 30 oder 50 Jahren noch existieren oder auf zukünftigen Betriebssystemen laufen wird. Ein Archiv, das ausschließlich auf proprietäre RAW-Formate setzt, geht ein unkalkulierbares Risiko ein.

Eine weithin diskutierte Lösung ist die Konvertierung in das DNG-Format (Digital Negative) von Adobe. DNG ist ein offenes, dokumentiertes Archivformat für Rohdaten. Der große Vorteil: Es kann die originale RAW-Datei verlustfrei in seinem Container speichern und gleichzeitig alle Metadaten (IPTC, EXIF) und Bearbeitungsschritte in einem standardisierten Format bündeln. Trotz seiner Vorteile ist DNG nicht unumstritten. So wird laut der Deutschen Forschungsgemeinschaft (DFG) in ihren Empfehlungen DNG nicht explizit für die wissenschaftliche Langzeitarchivierung favorisiert, was die Komplexität der Entscheidung unterstreicht.

Makroaufnahme verschiedener Speicherkarten und Dateiformate für RAW-Archivierung

Eine robuste Archivstrategie muss daher mehrgleisig fahren. Der sicherste Weg ist die parallele Archivierung von zwei Versionen: erstens der originalen, herstellerspezifischen RAW-Datei als unveränderter „Ur-Quelle“ und zweitens einer bearbeiteten, interpretierten Version in einem stabilen, offenen Format. Hierfür hat sich das 16-Bit-TIFF-Format als Goldstandard etabliert. TIFF ist ein seit Jahrzehnten bewährtes, verlustfreies und gut dokumentiertes Format, das von praktisch jeder Bildsoftware gelesen werden kann. Es repräsentiert die finale, vom Fotografen oder Archivar autorisierte Interpretation des Bildes.

Dieser zweistufige Prozess – die Bewahrung des „digitalen Negativs“ (im Original-RAW oder DNG) und des „digitalen Abzugs“ (als TIFF) – stellt sicher, dass sowohl die ursprünglichen Rohdaten als auch die beabsichtigte Bildwirkung für die Zukunft erhalten bleiben. Entscheidend ist, dass alle Metadaten in beide Dateien eingebettet und konsistent gehalten werden. Zudem ist eine regelmäßige Datenmigration alle 7-10 Jahre unerlässlich, um die Dateien auf neue Speichermedien zu übertragen und ihre Integrität zu prüfen.

Ohne eine klare Formatstrategie riskieren Archive, dass ihre wertvollsten digitalen Schätze in Zukunft zu unlesbarem Datenschrott werden.

Wie digitalisieren Sie analoge Negative ohne Qualitätsverlust?

Für Archive mit umfangreichen analogen Beständen ist die Digitalisierung kein optionales Projekt, sondern eine zwingende Maßnahme zur Bestandserhaltung und zur Verbesserung der Zugänglichkeit. Ein unsachgemäßer Scan kann jedoch mehr zerstören als bewahren. Es geht nicht darum, einfach nur ein „Bild vom Bild“ zu machen, sondern ein digitales Master zu erstellen, das dem Informationsgehalt des Originals so nahe wie möglich kommt. Die Qualität der Digitalisierung hängt von mehreren technischen Faktoren ab, die präzise gesteuert werden müssen.

Die zentralen Parameter sind Auflösung, Farbtiefe und Dateiformat. Die internationalen Standards, allen voran die FADGI-Richtlinien (Federal Agencies Digitization Guidelines Initiative), geben hier klare Vorgaben. Sie definieren verschiedene Qualitätsstufen (von 1 bis 4 Sternen), die je nach Verwendungszweck des Digitalisats gewählt werden. Für ein „Preservation Master“, also die digitale Archivkopie höchster Güte, ist eine Auflösung von mindestens 4000 dpi, eine Farbtiefe von 16 Bit pro Kanal und die Speicherung als unkomprimierte TIFF-Datei obligatorisch. Nur so wird sichergestellt, dass die feinsten Details und Tonwertabstufungen des Originals verlustfrei erfasst werden.

Die Auswahl eines qualifizierten Scan-Dienstleisters ist dabei entscheidend. Ein professioneller Anbieter sollte nicht nur nach diesen Standards arbeiten, sondern seinen Prozess auch transparent machen. Dazu gehört der Einsatz kalibrierter Hardware, insbesondere die Verwendung eines IT8-Targets zur Erstellung eines exakten Farbprofils für den jeweiligen Filmtyp. Dies garantiert eine farbgetreue Wiedergabe. Zudem muss der Dienstleister in der Lage sein, vorhandene Metadaten (z. B. von den Negativhüllen) zu übernehmen und in die digitalen Dateien einzubetten.

Die folgende Tabelle gibt einen Überblick über die FADGI-Qualitätsstufen und ihre empfohlene Verwendung, um die Anforderungen an ein Digitalisierungsprojekt präzise definieren zu können.

Scanqualität nach FADGI-Standards
FADGI-Level Auflösung Farbtiefe Verwendung
1 Stern 2000 dpi 8 Bit Referenzkopie
2 Sterne 3000 dpi 16 Bit Forschung
3 Sterne 4000 dpi 16 Bit Preservation Master
4 Sterne 6000+ dpi 16 Bit Höchste Archivqualität

Bevor Sie einen Auftrag vergeben, sollten Sie potenziellen Dienstleistern einen klaren Anforderungskatalog vorlegen und Referenzscans anfordern, um die Qualität beurteilen zu können.

Eine hochwertige Digitalisierung ist eine einmalige Investition, die den Wert und die Nutzbarkeit analoger Bestände für zukünftige Generationen sichert und vervielfacht.

Suchbegriffe von damals vs. heute: Wie machen Sie historische Bilder auffindbar?

Ein perfekt archiviertes Bild, das niemand findet, hat seinen Zweck verfehlt. Die Erschließung – also die Verschlagwortung und Beschreibung – ist der Schlüssel zur Nutzbarkeit eines Archivs. Die Herausforderung dabei ist, dass sich Sprache und Suchverhalten über die Zeit massiv verändern. Ein Begriff, der heute gängig ist, kann in 50 Jahren veraltet oder missverständlich sein. Eine zukunftssichere Auffindbarkeitsstrategie muss daher antizipieren, wie zukünftige Forscher nach unseren heutigen Bildern suchen könnten.

Der Schlüssel liegt in einer mehrschichtigen Verschlagwortung, die verschiedene Arten von Informationen kombiniert. Zunächst die spezifischen Eigennamen: die vollständigen Namen von abgebildeten Personen, Orten, Gebäuden und Organisationen. Hier ist die Verknüpfung mit Normdaten wie der GND unerlässlich. Zweitens, die Beschreibung der konkreten Bildinhalte, also was objektiv zu sehen ist. Drittens, die Benennung abstrakter Konzepte und des Zeitgeistes, die das Bild repräsentiert, wie „Globalisierung“, „Energiekrise“ oder „Digitaler Wandel“.

Besonders wichtig ist die parallele Verwendung von zeitgenössischen und potenziell historischen Begriffen. Ein Bild, das heute eine „Videokonferenz“ zeigt, könnte in Zukunft unter dem allgemeineren Begriff „digitale Kommunikation“ oder dem dann vielleicht historischen Terminus „Bildschirm-Meeting“ gesucht werden. Thesauri wie der Getty Art & Architecture Thesaurus (AAT) bieten hierfür strukturierte und hierarchische Vokabulare, die helfen, Objekte und Konzepte standardisiert zu benennen. Die wichtigste Informationsquelle bleibt jedoch eine detaillierte Bildunterschrift, die die klassischen W-Fragen (Wer, Was, Wann, Wo, Warum) in ganzen Sätzen beantwortet. Sie liefert den narrativen Kontext, den eine reine Schlagwortliste niemals abbilden kann.

Die folgende Liste fasst die zentralen Elemente einer robusten Keyword-Strategie zusammen, die darauf abzielt, die Auffindbarkeit über Jahrzehnte hinweg zu sichern:

  • Spezifische Eigennamen: Schreiben Sie alle Namen von Personen, Orten und Institutionen vollständig und korrekt aus.
  • Abstrakte Konzepte: Verwenden Sie parallele Begriffe, die den Zeitgeist und die übergeordnete Thematik beschreiben (z.B. „Nachhaltigkeit“, „soziale Ungleichheit“).
  • Vollständige Bildunterschrift: Verfassen Sie eine aussagekräftige Beschreibung, die den Entstehungskontext und die Bedeutung des Bildes erläutert.
  • Nutzung von Normdaten: Integrieren Sie konsequent GND-Nummern oder andere Normdaten-Identifier für eine eindeutige Verknüpfung.
  • Verwendung von Thesauri: Nutzen Sie kontrollierte Vokabulare wie den Getty AAT zur standardisierten Benennung von Objekten und Materialien.
  • Historische & zeitgenössische Begriffe: Denken Sie an die Zukunft und verwenden Sie sowohl die heute gängigen Begriffe als auch allgemeinere oder alternative Bezeichnungen.

Nur durch eine präzise und vorausschauende Erschließung wird aus einer Datensammlung ein zugängliches und nutzbares Wissensrepositorium.

Müssen Ihre Abzüge säurefrei montiert sein, um angenommen zu werden?

Die Frage der physischen Präsentation mag im digitalen Zeitalter nebensächlich erscheinen, doch für Archive, die auch physische Belegexemplare oder hochwertige Fine-Art-Prints in ihre Sammlungen aufnehmen, ist sie von entscheidender Bedeutung. Ein hochwertiger Abzug ist nicht nur eine Kopie, sondern ein eigenständiges Objekt, dessen materielle Erhaltung oberste Priorität hat. Die Antwort ist daher ein klares Ja: Eine säurefreie Montierung und Aufbewahrung ist keine Option, sondern eine zwingende Voraussetzung für die Aufnahme in eine professionelle Sammlung.

Jedes Material, das in direktem Kontakt mit dem fotografischen Abzug steht, kann chemische Reaktionen auslösen, die das Bild über Jahre und Jahrzehnte hinweg zersetzen. Säurehaltige Passepartouts, Klebstoffe oder Rückkartons führen zu Vergilbung, Ausbleichen und letztlich zur Zerstörung des Papiers und der Bildsubstanz. Aus diesem Grund fordern Archive Materialien, die nachweislich alterungsbeständig sind. Der wichtigste Standard hierfür ist der Photographic Activity Test (PAT). Der internationale Standard ISO 18916 schreibt vor, wie dieser Test durchzuführen ist. Nur Materialien, die den PAT bestehen, gelten als archivsicher, da sie nachweislich keine schädlichen chemischen Wechselwirkungen mit dem Fotomaterial eingehen.

Die archivgerechte Präsentation umfasst die gesamte Kette, vom Druck bis zur Lagerung. Dies beginnt bei der Wahl des Papiers – Barytpapiere gelten aufgrund ihrer Stabilität und Langlebigkeit als Goldstandard. Weiter geht es mit dem Druckverfahren: Pigmenttinten sind Farbstofftinten (Dye-Inks) weit überlegen, da sie eine deutlich höhere Licht- und Alterungsbeständigkeit aufweisen. Selbst die Beschriftung der Rückseite muss sorgfältig erfolgen: Niemals mit Tinte, die durchschlagen kann, sondern ausschließlich mit einem weichen Bleistift (z.B. 2B).

Die Lagerung muss schließlich in einer kontrollierten Umgebung erfolgen. Säurefreie Archivboxen (mit einem pH-Wert zwischen 7 und 8,5) schützen die Abzüge vor Licht, Staub und mechanischer Beschädigung. Ideale klimatische Bedingungen sind eine konstante Temperatur von 18-20°C und eine relative Luftfeuchtigkeit von 30-40%. Schwankungen sind hierbei schädlicher als ein konstant leicht abweichender Wert. Diese strengen Anforderungen stellen sicher, dass das physische Objekt „Fotografie“ seine materielle Integrität für zukünftige Generationen bewahrt.

Die Sorgfalt bei der physischen Aufbewahrung ist der letzte, entscheidende Baustein, um das fotografische Erbe in seiner Gesamtheit – digital und analog – zu sichern.

Das Wichtigste in Kürze

  • Kontext ist alles: Ohne vollständige IPTC-Metadaten und Normdaten (GND) sind digitale Bilder für die historische Forschung wertlos.
  • Technologie überleben: Eine hybride Strategie aus LTO-Tapes für die Offline-Master und Cloud/Server für den schnellen Zugriff bietet die höchste Sicherheit gegen technologische Obsoleszenz.
  • Format-Strategie: Archivieren Sie immer das originale RAW (als Ur-Quelle) und eine finale Version als 16-Bit-TIFF (als autorisierte Interpretation), um die Lesbarkeit zu sichern.

Wie verdienen Sie Geld mit historischen Pressefotos aus dem Archiv Ihres Großvaters?

Ein gut erschlossenes und rechtlich geklärtes Fotoarchiv ist nicht nur ein wertvolles kulturelles Gut, sondern kann auch eine Einnahmequelle sein. Historische Pressefotos, insbesondere solche, die einzigartige Momente der Zeitgeschichte dokumentieren, sind für Verlage, Dokumentarfilmer, Museen und Werbeagenturen von großem Interesse. Der Weg von einem privaten Nachlass, wie dem Archiv des Großvaters, zu einer kommerziellen Verwertung ist jedoch mit strategischen und rechtlichen Schritten verbunden.

Der erste und wichtigste Schritt ist die Klärung der Rechte. Wer ist der Urheber? Sind die Rechte auf Sie übergegangen? Gibt es abgebildete Personen, deren Persönlichkeitsrechte berührt sein könnten (Recht am eigenen Bild)? Eine sorgfältige juristische Prüfung ist unerlässlich, bevor auch nur ein Bild angeboten wird. Zudem müssen, wie bereits diskutiert, alle Metadaten vollständig und korrekt sein, da sie auch die Grundlage für die Lizenzierung und Abrechnung bilden.

Archivschrank mit historischen Fotosammlungen und modernen Digitalisierungsgeräten

Der effektivste Weg zur Vermarktung führt über spezialisierte Bildagenturen. Diese verfügen über die notwendige Infrastruktur, ein weltweites Kundennetzwerk und das Know-how zur Preisgestaltung und Lizenzabwicklung. Die Wahl der richtigen Agentur hängt vom Schwerpunkt des Archivs ab. Agenturen wie akg-images oder Ullstein Bild sind auf Kunst und Zeitgeschichte spezialisiert, während die dpa Picture-Alliance ein breiteres Nachrichtenspektrum abdeckt. Die Agenturen arbeiten in der Regel auf Provisionsbasis, d.h., sie behalten einen prozentualen Anteil (oft um 50%) der Lizenzeinnahmen ein.

Die folgende Tabelle gibt einen Überblick über einige relevante deutsche Bildagenturen, die auf historische Bestände spezialisiert sind, und deren jeweilige Ausrichtung.

Deutsche Bildagenturen für historische Fotos
Agentur Schwerpunkt Provision Besonderheiten
akg-images Kunst & Geschichte 50% Internationale Reichweite
Ullstein Bild Zeitgeschichte 40-50% Axel Springer Archiv
dpa Picture-Alliance Nachrichten 45% Größtes deutsches Netzwerk
Süddeutsche Zeitung Photo Zeitgeschichte 50% Fokus Süddeutschland

Indem Sie Ihr Archiv für eine professionelle Nutzung zugänglich machen, sichern Sie nicht nur dessen finanzielle Zukunft, sondern tragen auch aktiv dazu bei, dass diese visuellen Zeugnisse der Geschichte gesehen und genutzt werden.

Geschrieben von Thomas Richter, Spezialist für Bildrechte, Honorarmanagement und Archivierung sowie langjähriges Mitglied in Gremien der VG Bild-Kunst. Experte für die wirtschaftliche Existenzsicherung von freien Fotografen in Deutschland.