Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

« Vorherige Version anzeigen Version 36 Nächste Version anzeigen »

Neuigkeiten und Hinweise

 


Svenia Pohlkamp -  Pohlkamp, Svenia

Deutsche Nationalbibliothek, nestor-Geschäftsstelle

s.pohlkamp@dnb.de


Stefan Strathmann -  Strathmann, Stefan

Niedersächsische Staats- und Universitätsbibliothek Göttingen

strathmann@sub.uni-goettingen.de


Dr. Monika Zarnitz -  Zarnitz, Monika

ZBW - Leibniz-Informationszentrum Wirtschaft

m.zarnitz@zbw.eu


nestor, das Kompetenznetzwerk digitale Langzeitarchivierung, hat jüngst eine Befragung unter nationalen und internationalen Gemeinschaften zur digitalen Langzeitarchivierung durchgeführt und die Ergebnisse als Community Survey veröffentlicht. Neben der anonymen Auswertung der erhobenen Daten ist daraus auch eine Reihe von Community-Profilen hervorgegangen.

In diesem Beitrag stellen drei Mitglieder der verantwortlichen Arbeitsgruppe einige der interessanten Ergebnisse der Befragung vor.


Die Idee der nestor-Community-Umfrage

Die digitale Bewahrung ist eine komplizierte und ressourcenintensive Aufgabe. Kooperation, Kommunikation und gegenseitige Unterstützung sind notwendig, um die unterschiedlichen Herausforderungen in diesem Bereich zu meistern. nestor ist in all diesen Bereichen aktiv.

Deshalb entstand die Idee, eine Umfrage unter den nationalen und internationalen Communities, die sich mit digitaler Langzeitarchivierung befassen, zu starten. nestor setzte eine kleine Arbeitsgruppe ein, die den Fragebogen entwickelte und die Ergebnisse der Community-Umfrage analysierte. Das Ziel dieser Umfrage ist es, Transparenz über die internationale Landschaft der Gemeinschaften in diesem Bereich zu schaffen und Informationen für alle zu sammeln, die eine Zusammenarbeit anstreben.

Der Fragebogen für die Umfrage, die online durchgeführt wurde, umfasste 40 Fragen. Wir sammelten 54 gültige Antworten als Grundlage für unsere Analyse.

Die Community-Umfrage

Die Umfrage wurde von Herbst 2019 bis Mai 2020 über verschiedene Kanäle wie Mailinglisten, direkten Kontakt zu Kolleg:innen usw. verbreitet. Die Ergebnisse der Umfrage wurden ausgewertet, aufbereitet und im Jahr 2022 in der Reihe der nestor-Materialien veröffentlicht.

Neben dieser Veröffentlichung war ein weiteres Ergebnis der Umfrage die Erstellung von so genannten Community-Profilen, die auf der nestor-Website zu finden sind. Diese Profile sind Selbstbeschreibungen der beteiligten Gemeinschaften und können als eine Art Register der nationalen und internationalen Communities dienen. Sie geben erstmals einen Überblick über die unterschiedlichen Facetten, Ressourcen und Schwerpunkte von Langzeitarchivierungsnetzwerken weltweit. Ziel ist es, die Transparenz zu verbessern und die Zusammenarbeit der Gemeinschaften weltweit zu erleichtern.

Von den 54 Teilnehmer:innen, die den Fragebogen vollständig ausgefüllt haben, haben uns bisher 32 ihr Einverständnis zur Veröffentlichung ihres Community-Profils gegeben. Wir hoffen, dass noch mehr ihr Einverständnis geben werden. Die Communities hatten die Möglichkeit, ihre Daten zu aktualisieren und/oder zu korrigieren, während sie ihre Profile überprüften.

Was ist eine Community?

Eine grundsätzliche Entscheidung während des Projekts war die Definition und Abgrenzung des Begriffs "Community" im Rahmen der Befragung, da es vielfältige Möglichkeiten gibt, eine Community zu definieren, und diese dem Untersuchungsgegenstand angemessen sein sollte. Nach intensiver Diskussion einigte sich die Arbeitsgruppe auf die folgende Definition:

  • Eine Community in unserem Sinne ist eine offene Gemeinschaft von Personen und/oder Institutionen, die sich mit dem Thema Langzeitarchivierung auseinandersetzt. Digitale Langzeitarchivierung kann eines von mehreren Themen sein, mit denen sie sich beschäftigt.
  • Die Mitglieder der Community haben sich der digitalen Langzeitarchivierung in einer Weise verschrieben, die über reines Eigeninteresse hinausgeht. Ihr zentraler oder einziger Zweck ist es nicht, ein Produkt zu liefern oder eine kommerzielle Dienstleistung zu erbringen.
  • Die Community ist auch eine Plattform zur Diskussion des Themas digitale Langzeitarchivierung und deren Weiterentwicklung, einschließlich der Entwicklung von Werkzeugen und/oder der Bereitstellung von Dienstleistungen.
  • Sie kann lokal, regional oder international tätig sein.
  • Es spielt keine Rolle, wie groß die Community ist. Sie kann groß oder klein sein.
  • Ob die Community produktbezogen oder nicht produktbezogen ist, ist ebenfalls irrelevant.

In den folgenden Abschnitten möchten wir einige ausgewählte Ergebnisse der Umfrage vorstellen.




Communities zur digitalen Langzeitarchivierung: Wo sind sie angesiedelt?

In Frage 6 haben wir gefragt, in welchem Land oder Teil der Welt die Community ansässig ist. Mehrere Gemeinschaften gaben im Texteingabefeld mehr als ein Land an. Wir haben entweder das Land ausgewählt, in dem sie ansässig sind, oder das erste Land, das sie genannt haben.


Interpretation: Fast alle Communities, die in dieser Umfrage vertreten sind, befinden sich in Industrieländern. Entweder konnten wir die Gemeinschaften in anderen Ländern nicht erreichen oder es gibt nur sehr wenige Communities für digitale Langzeitarchivierung in den Entwicklungsländern und weniger entwickelten Ländern. Dies könnte auf einen Mangel an Ressourcen zurückzuführen sein und zeigt, dass es in den meisten Ländern entweder nur wenige Aktivitäten im Bereich der digitalen Langzeitarchivierung gibt oder dass die Akteur:innen in diesem Bereich nicht über die Ressourcen verfügen, um einer Community beizutreten und vom Austausch mit Kolleg:innen in anderen Ländern zu profitieren. Der letztgenannte Aspekt ist vielleicht nicht so wichtig, da die Gemeinschaften immer mehr digital kommunizieren und es eine Fülle von Literatur und Software gibt, die im Internet frei zugänglich ist.




Communities für digitale Langzeitarchivierung: Sind sie Silos oder kooperieren sie miteinander?

In Frage 25 wollten wir wissen, wie viele Kooperationen mit anderen Communities die teilnehmenden Gemeinschaften derzeit haben. Es waren vier Kästchen zum Ankreuzen vorgesehen. Es konnte nur eine Antwort ausgewählt werden.

Die Grafik zeigt die Anzahl der Kooperationen mit anderen Communities, die die teilnehmenden Communities haben.

Interpretation: Unsere Daten zeigen deutlich, dass die Communities keine Silos sind und dass sie intensiv mit anderen Gemeinschaften zusammenarbeiten. Nur 17 % arbeiten nicht mit einer anderen Community zusammen, während 19 % mit mehr als zehn anderen Communities kooperieren. Einrichtungen und Personen, die sich mit digitaler Langzeitarchivierung befassen, sind häufig Mitglieder in mehreren Communities, sodass ein breiter Austausch von Ideen, Werkzeugen, Veröffentlichungen und anderen Ergebnissen der gemeinsamen Arbeit stattfindet. Digitale Langzeitarchivierung ist eine Aufgabe, die zu kompliziert ist, um sie allein zu bewältigen, und zwar nicht nur auf individueller Ebene, sondern auch auf der Ebene der Communities. Dies mag der Grund für den intensiven Austausch zwischen den Gemeinschaften sein.




Communities zur digitalen Langzeitarchivierung: Wie sind sie organisiert und welche Art von Finanzierung verwenden sie?

In Frage 11 erkundigten wir uns, wie die Gemeinschaften organisiert sind. Die Mehrheit von 93 % gab an, eine gemeinnützige Organisation zu sein. In Frage 14 fragten wir außerdem, wie die Communities sich und ihre Arbeit finanzieren. Sechs Auswahlmöglichkeiten wurden angeboten. Mehrere Antworten waren möglich. Die sechste Option war „Sonstiges“. Dafür gab es ein Texteingabefeld.

Die Einträge für "Sonstiges" wurden neu kategorisiert und sind neben den fünf vorgegebenen Antwortoptionen in der nachstehenden Tabelle aufgeführt. Die unter "Sonstiges" neu kategorisierten und zugewiesenen Einträge sind kursiv dargestellt.

Art der FinanzierungAnzahl% der Antworten
Mitgliedsbeiträge2240,7
Einnahmen aus Services der Community2138,9
Sponsoring1425,9
Drittmittel / Zuschüsse2138,9
Sachleistungen (z.B. von Mitgliedern, die sich als Freiwillige an Arbeitsgruppen beteiligt haben)2138,9
Staatliche Finanzierung814,8
Aufnahmevereinbarungen mit Einrichtungen11,9
Keine Finanzierung35,6
Keine Antwort11,9


Interpretation: Diese Tabelle zeigt, dass die wichtigsten Finanzierungsquellen Mitgliedsbeiträge, Einnahmen aus Services, Sponsoring, Drittmitteln/Zuschüssen und Sachleistungen sind. Alle anderen Quellen haben keine vergleichbare Bedeutung für die Finanzierung. Dies und die Tatsache, dass es sich bei den Communities hauptsächlich um gemeinnützige Organisationen handelt (siehe oben), zeigt, dass die digitale Langzeitarchivierung keine kommerziellen Ziele verfolgt und dass das Selbstverständnis dieser Organisationen mit dem Selbstverständnis von Bibliotheken, Archiven und Museen als Gedächtnisorganisationen vergleichbar ist. In der Tat stammen die in den Communities aktiven Personen aus solchen Organisationen und tragen dieselbe Mentalität in die Gemeinschaft.





Communities zur digitalen Langzeitarchivierung: Was macht eine Gemeinschaft erfolgreich?

In Frage 40 machten wir uns auf die Suche nach den wichtigsten Faktoren für den Erfolg einer Gemeinschaft. Die Teilnehmer:innen gaben oft mehrere Optionen in die Textfelder ein. Das bedeutet, dass es viele unterschiedliche Antworten auf diese Frage gab. Aus diesem Grund haben wir die in den Texteingabefeldern gegebenen Antworten (soweit möglich) verschiedenen Kategorien zugeordnet und in einer Wortwolke dargestellt. Die Wortwolke enthält sowohl alle kategorisierten Antworten als auch die, für die keine Kategorie gefunden wurde.


Wortwolke, die die wichtigsten Aspekte für den Erfolg einer digitalen Langzeitarchivierungs-Community. Dabei enthält die Wortwolke sowohl alle kategorisierten Antworten als auch, für die keine Kategorie gefunden wurde.


Interpretation: Diese Wortwolke zeigt die wichtigsten Aspekte für den Erfolg einer digitalen Langzeitarchivierungs-Community: Drei Aspekte sind sehr wichtig:

  1. Kritische Erfolgsfaktoren sind das Engagement, die Zusammenarbeit und die gemeinsame Nutzung von Wissen und Ressourcen.
  2. Communities unterstützen die Schaffung von Wissen und Technologien für die digitale Langzeitarchivierung.
  3. Die Bandbreite einer Community ist wichtig, da es bei der digitalen Langzeitarchivierung so viele Details gibt, dass die Vielfalt der Kompetenzen und Perspektiven notwendig ist.



Schlussfolgerung zu digitalen Langzeitarchivierungs-Communities

Die nestor-Community-Umfrage bietet eine reichhaltige Datenquelle, die das Verhalten von Gemeinschaften zur digitalen Langzeitarchivierung erklärt. Die Fälle, die wir in diesem Blog-Beitrag aufgegriffen haben, zeigen, dass die Gemeinschaften in Industrieländern angesiedelt sind, dass sie auf mehreren Ebenen in engem Kontakt und in Interaktion miteinander (die Gemeinschaften selbst, einzelne Mitglieder, Institutionen, Personen) und mit den Einrichtungen, die Teil der Communities sind, stehen, und dass es sich hauptsächlich um gemeinnützige Organisationen mit den typischen Finanzierungsquellen und der typischen Mentalität von Gedächtnisorganisationen handelt.


Wiederholung im Jahr 2023

Wir möchten die Umfrage 2023 wiederholen und hoffen, sie mit unseren Erfahrungen aus dem ersten Durchgang zu verbessern. Wir streben an, die Zeit zwischen dem Beginn der nächsten Umfrage und dem Datum der Veröffentlichung der Ergebnisse zu verkürzen und werden einige Fragen neu formulieren, damit sie klarer sind und die Auswertung einfacher wird. Wir hoffen, dass mit der Veröffentlichung der ersten Umfrage das Bewusstsein für die zweite Runde geschärft wird und dass sich dann mehr Communities an der Umfrage beteiligen.

Wir laden alle Gemeinschaften, die im Bereich der digitalen Langzeitarchivierung aktiv sind, dazu ein, Verbesserungsvorschläge für die Umfrage zu machen und an der kommenden Wiederholung teilzunehmen. Wenn Sie an einer Teilnahme interessiert sind, kontaktieren Sie uns bitte.



Dieser Text ist eine Übersetzung aus dem Englischen.

Er erschien zuerst bei ZBW Mediatalk unter dem Titel Digitale Langzeitarchivierung: die Vermessung von Netzwerken mit der nestor Community-Survery.

CC BY 4.0

Zugegeben, der Titel ist sehr plakativ, aber gar nicht so wahrheitsfern wie man auf den ersten Blick meinen mag.

Das Paper

Bei der diesjährigen iPRES in Schottland wurde das Paper vorgestellt: OAIS-compliant digital Archiving of Research and Patrimonial Data in DNA (Start auf S. 221). Verfasst wurde das Short Paper von sieben Forschenden aus der Schweiz, von denen die meisten an der Genfer Universität arbeiten. Sie arbeiten zurzeit an einem Projekt , dessen Proof-of-Concept Mitte 2022 fällig war, nach der Deadline des Papers, aber vor dem Vortrag bei der iPRES im September 2022.

Das Thema lautet: Daten speichern auf DNA. Davon hatte ich wohl schon mal gehört, hielt es aber für futuristisch. Bei dem Vortrag hingegen wurde mir klar, dass das praxistauglich ist. Man hat vier Basen (A, C, T und G) und jede Base kann eine Information tragen, beispielsweise eine 00, eine 01, eine 10 oder eine 11 und schon kann man theoretisch so ziemlich alles damit abbilden und das auf erstaunlich wenig Platz.

Codierung im Projekt / Proof of Concept:
BaseCode
A00
C01
T10
G11

Bei dem Vortrag wurde gesagt, dass dies eine Lösung für jene Daten ist, die selten gebraucht werden, aber lange erhalten werden müssen, aus dem einfachen Grund, dass das Auslesen der Daten eine Weile dauert und Fachpersonal erfordert. Ein erstaunlich hoher Prozentsatz der Daten wird nur selten oder erst nach längerer Zeit wieder benötigt, so dass die Speicherungsmöglichkeit auf DNA bedacht werden sollte.

Unsere Storage-Lösungen fressen unglaublich viel Energie, Tape natürlich weniger als Rechenzentren, aber meistens sind wir auf Strom angewiesen und dies ist angesichts der Klimakatastrophe und der Energiekrise keine Dauerlösung. Wir brauchen andere Lösungen.
DNA kann zwischen 2 und 215 Petabyte pro Gramm (!) an Daten speichern. Im Vergleich: eine handelsübliche externe Festplatte wiegt zwischen 100 und 200 Gramm und kann (Stand November 2022) selten mehr als 2 TB speichern.

Art SpeichermediumSpeichermedium GewichtMögliche Storage-Dichte
DNA2 Gramm4.000 TB (oder mehr)
externe Festplatte200 Gramm2 TB

Die Speicherdichte auf DNA ist hier 200.000 mal so hoch, selbst wenn man (wie in obenstehender Tabelle) von der kleinstgenannten Dichte im Paper ausgeht.


DNA hält bei korrekter Lagerung (keine Energie zur Kühlung etc. notwendig) tausende von Jahren. Aufgrund der hohen Dichte der Daten ist eine Absicherung durch viele Kopien kein Problem.
Drei Vorteile liegen auf der Hand:

  1. Hohe Datendichte, viele Information passen auf wenige Gramm
  2. Keine Energie zum Lagern notwendig
  3. Keine Obsoleszenz (wenn DNA obsolet wird, haben wir ganz andere Problem – keine neue Versionen (DNA Version 2.0 wird es nicht geben)

Diese Idee haben die Forschenden, die das Paper verfasst haben, in OAIS eingebettet, um den gesamten Datenzyklus zu bedenken. Die auf DNA verpackten Daten betreffen natürlich nur das AIP, die Übersetzung der Bits in DNA-Basen erfolgt im Ingestprozess und für die Access-Kopie (DIP) wird wieder zurück übersetzt. Die Architektur ist gebaut auf Standards wie PREMIS, DateCite für die Metadaten, DOI für den persistenten Identifier und OAI-PMH als Schnittstelle. Die DNA Segmente brauchen eine Adresse und es muss klar sein, was darauf gespeichert ist, diese Information muss anderweitig gespeichert sein, damit das Rückübersetzen entfällt.
Die Storage Tubes werden in einem Warenhaus der Archives cantonales vaudoises (ACV) Cantonal Archives of Vaud in der Schweiz gespeichert und die Information (auch die Laborprotokolle, AIP Struktur usw.) werden auf säurefreiem Papier gespeichert. Der langfristige Test beinhaltet, dass die Lesbarkeit nach einem, zwei, fünf, zehn und zwanzig Jahren getestet wird. Pro Vorlage wurden tatsächlich 500.000 Kopien angefertigt. Diese Redundanz kann man sich aufgrund der großen Speicherdichte erlauben.

Diskussion während des Panels

Bei der iPRES wurde das Thema während eines Panels diskutiert. Hier wurde darauf hingewiesen, dass das Beschreiben der DNA noch recht lange dauert, 1 MB pro Sekunde. Bis man ein TB voll hat, ist man mehr als zehn Tage Tag und Nacht beschäftigt. Zahlen für den Access wurden nicht genannt, aber schnell ist das Auslesen auch nicht.
Gefahren für Daten auf DNA sind Oxidation und Hitze, aber man kann sie so aufbewahren, dass diese Gefahren minimiert werden können. Außerdem sind andere Storage-Lösungen auch nicht hitzebeständig und man kann auch keinen LKW drüberfahren lassen und erwarten, dass alles noch in Ordnung ist.
In dem Panel wurden auch offene Fragen thematisiert, beispielsweise wie das File System in der DNA repräsentiert werden. Die DNA Kapseln sollten Barcodes aufgedruckt haben, die die Metadaten dazu liefern.
Es handelt sich hier um eine reine Storage-Lösung, Datei-Obsoleszenz bleibt ein Thema. Es ist denkbar, alle notwendigen Komponenten mitzuspeichern, z. B.Tools zwecks Access und die Datei-Spezifikation.

Nachtrag

Um das alles etwas griffiger zu machen, hat mir Prof. Dr. Dominik Heider freundlicherweise zwei Erklärvideos zu dem Thema weitergeleitet, die das Thema praktisch etwas mehr beleuchten.

Der Datenspeicher der Zukunft? Synthetische DNA!

LOEWE-Schwerpunkt MOSLA-Molekulare Datenspeicher


Glücklicherweise saß ich Mitte September in Schottland in der richtigen Session, um mir den Vortrag zum Paper "Green Goes With Anything: Decreasing Environmental Impact of Digital Libraries at Virginia Tech" von Alex Kinnaman und Alan Munshower anzuhören, das den diesjährigen iPRES Best Paper Award gewonnen hat. 

Grund genug, das Paper genauer zu betrachten und die für mich wichtigsten Punkte herauszuarbeiten, da die beiden Autor:innen ein für mich neues Thema in der Digitalen Langzeitarchivierung betrachten, nämlich gute Gründe, etwas NICHT zu tun. Das mag nun plakativ formuliert sein und ist als Prämisse des Papers sicher zu ungenau, doch es stellt die wichtige Aufgabe der Digitalen Langzeitarchivierung in den Kontext des Klimawandels und überlegt eben aktiv, welche Maßnahmen (und wie viele davon) wirklich notwendig sind und welche man reduzieren sollte, um den Co2-Abdruck in Grenzen zu halten.  Da der Scope eng ist und die Zahlen genau betrachtet werden, wage ich hier mal eine Zusammenfassung, das vollständige Paper ist zurzeit im Programm zu finden (am Dienstag, 13.09.2022 in dem Slot Environment 1, bald aber auch in den iPRES Proceedings).

Ziel: CO2-Abdruck reduzieren

Alex und Alan haben die Vorgänge an ihrem Arbeitsplatz der Virginia Tech University Library kritisch betrachtet und untersucht, welche Aktivitäten sinnvoll zurückgefahren werden könnten und sollten, um den CO2-Abdruck zu verkleinern. Als Basis haben sie den Artikel Toward environmentally sustainable digital preservation von Pendergrass, Sampson, Walsh und Alagna (2019) genutzt. 

Folgende ihrer Workflows/Workflowstationen haben die Autor:innen kritisch untersucht:

  • Appraisal
  • Digitization
  • fixity checking
  • storage Choices

Die Balance zwischen dem, was notwendig ist (best practice), und Nachhaltigkeit steht hier im Fokus. Aus aktuellem Anlass (kam in der Session auch aktiv zur Sprache) kann man auch die aktuelle Energiekrise noch erwähnen, die es attraktiv macht, nicht mehr Strom zu verbrauchen als wirklich notwendig.

Die NARA (National Archives and Records Administrations) hat außerdem einen "climate action plan" herausgebracht, der die "climate resilience" stärken möchte und mehr auf cloudbasierte Lösungen setzt (weiter unten hier und später im Paper folgen dazu noch klare Berechnungen). 

Der erste Schritt lautet - wenig überraschend: 

"[Cultural Heritage Organisations] need to reduce the amount of digital content that they preserve while reducing the resource-intensity of its storage and delivery."

Das steht in krassem Gegensatz zu dem, was in jüngerer Vergangenheit in meiner persönlichen Alltagswirklichkeit gefordert wird: mehr, mehr, mehr. Dieser Paradigmenwechsel wird aber auch hierzulande spürbar, da mehr über Nachhaltigkeit und weniger über Wachstum nachgedacht wird. Auch wir haben begriffen, dass unendliches Wachstum zu Problemen führt. Von eben jenem Paradigmenwechsel ist auch in dem Paper die Rede und es wird auch konkret adressiert, dass es hier möglicherweise einen "acceptable loss" geben könnte, den man aber konkret bedenken und auch benennen sollte, um daran seine praktischen Maßnahmen zur Sicherstellung der Langzeitverfügbarkeit zu orientieren. Denn - und das ist (neben den klaren Berechnungen) - der Kernpunkt des Papers:

"Every decision to acquire, preserve, or replicate a byte of data is, essentially, a commitment to put some amount more carbon into the earth's atmosphere."

Wie später im Paper betont wird, habe man keinesfalls die Absicht, in Kauf zu nehmen, das Klima zu schädigen, vor allem da nicht, wo weniger Maßnahmen zur Erhaltung der Lesbarkeit ausreichen würden.

Welche Maßnahmen sind konkret gemeint?

Erfreulicherweise werden sie dann sehr konkret, welche Maßnahmen sie meinen. Natürlich reden wir hier von digitalen Daten, das bedeutet, jede Aktion kostet Strom. Es gibt ausreichend viele Faktoren, die wir nicht beeinflussen können, wie beispielsweise die Notwendigkeit, Dateien zu migrieren oder auch die Access-Frequenz. Faktoren, die wir in der Tat beeinflussen und steuern können, sind vor allem drei Dinge:

  • was wir überhaupt archivieren (Appraisal of Content - wobei ich denke, das muss bei einigen Einrichtungen hierzulande ein wenig anders gesehen werden, die DNB kann beispielsweise nicht aktiv ihren zu archivierenden Bestand einschränken)
  • Häufigkeit des Fixity Checks (Checksummen prüfen)
  • Anzahl der Kopien, die aufbewahrt werden (in dem Zusammenhang aber auch die Wahl der Storage-Lösung)

Storage-Lösungen, Fixity Check

AWS (Amazon Web Services) verbraucht laut eigenen Angaben 72% weniger CO2, wenn man es mit anderen Datencentern vergleicht (als Quelle wird dies hier angegeben, ich lasse das einfach so stehen, da das nicht der Kernpunkt des Papers ist). In den Berechnungen arbeiten die Autor:innen mit Millijoule (mg), was 0,001 Joule entspricht. Einen Hashwert (Checksumme) für eine Datei zu ermitteln, die 10kb groß ist, verbraucht durchschnittlich 5mj und eine Datei mit der Größe von 1 MB dann 40mj. Hierbei gibt es allerdings noch einen Unterschied, welche Art von Hash ermittelt wird, die Autor:innen zitieren ein Paper, das "found a 29% difference in battery life between choosing the highest and least energy-consuming hash".

Bezüglich der Anzahl der Kopien empfehlen die NDSA Levels of Preservation mindestens drei Kopien, LOCKSS eher 5 bis 7. (In derselben Session sprach auch jemand über LOCKSS und dass die Zahl sieben zurzeit aus ebenjenen Gründen kritisch hinterfragt und überdacht wird.)

Ganz am Anfang steht die Überlegung, was überhaupt archiviert werden sollte, hier ist eine gut durchdachte Collecting Policy sinnvoll. Was gar nicht erst ins Archiv wandert, verbraucht auch keine Energie und umso umsichtiger kann man sich um die Inhalte kümmern, die wirklich wichtig sind (ein Ansatz, der ein wenig an die nestor AG PDA erinnert, wobei diese selbstverständlich einen anderen Fokus und Zielgruppe hat).

Die Inhalte der Virginia Tech sind auf unterschiedliche Cloudlösungen aufgeteilt, die ebenfalls unterschiedlich häufig Fixity Checks durchlaufen, von einmal pro Nacht bis hin zu alle neunzig Tage. Insgesamt verbrauchen ihre Daten knapp 87 kg CO2, und das bei 33,5 TB Gesamtspeicher. Da ich mir darunter so spontan nicht wirklich etwas vorstellen konnte, habe ich ein wenig recherchiert und geschaut. Hier (S. 87, Veröffentlichung im Jahr 2020) wird angegeben, dass ein Desktop-PC mit Monitor im Jahr etwa 87kg CO2 verbraucht, wenn man von einer Nutzungsdauer von zwei Stunden täglich ausgeht. Ich vermute zwar stark, dass dies noch von anderen Faktoren abhängt, aber so kann man sich die Zahl vielleicht besser anschaulich machen.


Fazit und eigene Überlegungen als Diskussionsansatz

Im Fazit geben die Autor:innen noch explizit Tipps zur Reduktion des CO2-Fußabdrucks:

Art des Tipps im PaperEigene Gedanken dazu
Include climate considerations in appraisal of digital collection projectsIst nicht für alle Institutionen möglich / ist nicht immer Aufgabe des LZA-Teams
Revisit collection policies and institutional missionEine Policy Watch ist immer angebracht, ggf. ist die vor Jahren erstellte Policy nicht mehr klimafreundlich?
Decrease redundancy of working filesIn meiner Institution würde sich das rein vom Speicher wohl vor allem bei den Materialien aus dem Digitalisierungszentrum lohnen, alle anderen Inhalte fallen im Vergleich nicht sehr ins Gewicht
Reduce ongoing fixity checksDa dies außerhalb meines Aufgabenbereichs liegt, wäre ich interessiert daran, wie oft dieser eigentlich bei uns erfolgt
Determine acceptable lossÄhnliche Gedanken habe ich mir lose zum long tail der Dateiformate gemacht, da klar ist, dass ich nicht gleichermaßen auf alle aufpassen kann
Preservation appraisalHat auch sehr mit den Preservation Levels / acceptable loss zu tun, kam mir hier ein wenig redundant vor
Investigate smaller object sizesWäre sicher auch vor allem bei den Materialien aus dem DigiZentrum lohnenswert
Sustainability commitmentSich überhaupt dazu zu bekennen (Policy) wäre dann auch im Rahmen meiner Policy Watch mal angebracht
Community trainerWeitersagen, was man gelernt hat - das mache ich hoffentlich gerade

Gern möchte ich hier einen Austausch starten, welche Maßnahmen schon getroffen wurden oder ob dieses Thema für Sie ähnlich neu ist wie für mich.



The Situation

There are no conferences.

I know what you are thinking: Of course, there are conferences. Online conferences. Virtual ones, during which I hope the WLAN in my office at home won’t cut me off while somebody says something crucial. Maybe it’s a question of personality, but online conferences are not my cup of tea.

No coffee breaks.

No possibility to ask the person who has just completed a presentation some questions in private.

No tastes.

No smells.

Just listening and - barely – seeing.

And, most importantly: While talking myself, I cannot see your faces. Your faces are hidden. Maybe you are just doing push-ups at your desktop not wanting to be seen. But maybe you are making a face at the things I say, disagreeing. If we were in a conference room, live and in color, I would see your face and could address the problem. As you are invisible for me, I feel like I am just talking to myself.

So, what’s the solution? Skip all the presentations for the time being? Not a solution. There are still people in want of information, including myself. Plus, one of my jobs is Preservation Watch. It’s important. Digital Preservation is moving quickly. I cannot ignore everything and everybody as long as the pandemic lasts – especially as it has been going on for more than 500 days already.

Furthermore, it’s likely that live conferences will be less frequent than they used to be.

I need to know what you are up to. I do not have solutions yet. But I have ideas. Let’s talk about the ideas.

Does Social Media help? Which platforms?


Web Seminars

What’s it about

One or two people doing a presentation about a certain topic. My workmate from ZB MED, Cologne, Dino Wutschka and I have done two this year: One about DROID and one about JHOVE. nestor lists all Web Seminars on its "nestor virtuell" page.

Evaluation

Of course there still is the problem that I cannot see you. Or at least, I cannot see most of you. Up to sixty minutes, 50-100 listeners, some theory at the beginning and practical use afterwards. For sixty minutes, I can stand that. Plus, some of you turn your cameras on. It helps.

Ideas

Powerpoint has always worked fine for me while being live at conferences. I used it for bullet points. Not too fancy. Sufficient, with my temper on a stage. But there is no stage in virtual presentation. Much less temper. I need better Powerpoint skills. And, while we are at it: I need better visual skills in general, also about showing something in a nice and comprehensive way. And nice pictures. Preferably no kitten pictures.

twitter

What’s it about

It’s fast. It’s too fast for me. I have always used twitter to ask questions. Worked fine in the past. Nowadays, my questions are too difficult (example here). People always retweet, but tend not to answer any more. Besides, I check my timeline not frequently enough to see interesting content.

Evaluation

It’s still good for advertising blogposts and web seminars and for tweets about ongoing conferences.

Ideas

It seems to be too time-consuming to really get something out of it. I try to use it more often, but I guess I must have more content to do so. Like blogposts. Which brings me to the next point.


Blogging

What’s it about

I have always written blogposts. Usually using the OPF platform. Sometimes the DPC. Now I have the possibility to use nestor, too, which offers the possibility to also blog in my mother tongue.

In the past, I have always spent much time on my blogposts. Usually analysing some hundreds or thousands of files with a handful of tools. Of course that takes a long time. Currently, I have been working on a blogpost with a workmate since last winter. In our spare time. That might be part of the problem: There is no spare time. But there should be. Blogposts are important to share knowledge and more than once I have got ideas back that solve the problems I address in the blogpost. I had some pretty good ideas myself during the last year, hoping to have new ones in 2021.

Evaluation

It works. I need more. I need to put more time into it. It also helps with twitter.

Ideas

Not every blogpost has to be half a paper. I can create short ones, work in progress, just ideas, share what I am working at. Elaboration is always possible afterwards.

Podcasting

What’s it about

Talk to workmates about what they do. Talk to experts about certain topics. Record it. Publish it. nestor has a YouTube channel. Plus, we could distribute it where all the other podcasts are. Like Apple or Spotify.

Evaluation

We have not started yet. There are some technical and organisational challenges, but they can be solved. A workmate of mine has already solved many and I can learn from her. Then we can do it with nestor.

Ideas

It’s another form of gathering information and good/best practice and talking to people and sharing knowledge. It can lead to other ideas. For work. For twitter. For blogposts. Of course it has to be done on top of the normal work. But it should be worth it.

Peer videochat

What’s it about

Meet with peers maybe once a month to talk about a certain topic. Might be certification. Format identification. Format validation. Preservation Planning. PDF format.

Meet for an hour and discuss. Having one person to lead the discussion, preferably an expert on the chosen topic.

Evaluation

Again, we have not started yet. It’s an idea in progress.

Ideas

Maybe once a month for starters. See how it goes. If people want to use it. It will never be as good as real coffee breaks or workshops, but it certainly is better than nothing.

Conclusion

I just had my ten year anniversary on my job. I know what I am doing. But I also know it’s changing. Plus, I need some fresh eyes from time to time. Or refresh my own eyes. Live conferences and talking to you has always done that. I miss that. I need you. Let’s talk.


 

 

Am 10. März 2021 zwischen 11 und 12 Uhr fand das erste Webseminar im Rahmen von nestor virtuell statt.

Die Folien wurden mittlerweile auf der nestor Webseite veröffentlicht.

Folgen Sie nestor bei Twitter.

Folgen Sie Dino Wutschka bei Twitter.

Folgen Sie Yvonne Tunnat bei Twitter.

Der offizielle DROID-Userguide ist hier.

Es waren bis zu 112 Teilnehmer:innen anwesend, was im Nachgang zu vielen Fragen und Antworten (größtenteils ebenfalls von den Teilnehmer:innen) geführt hat, die hier gesammelt werden sollen.

Bedienung via Command Line und Einbindung von DROID in Langzeitarchivsysteme

Frage:  Haben Sie auch Erfahrungen mit der Command-Line oder der Implementierung von DROID in OAIS-Systemen?

Frage:  Gibt es Erfahrungen oder Beispiele für Droid als (interner) Webservice in einer Microservice-Architektur?

Antwort: Ja, für in iPRES-Poster haben Yvonne Tunnat und Micky Lindlar im großen Stil die CLI (und auch Batches) genutzt. DROID ist z. B. in Rosetta eingebunden. In FITS ist es ebenfalls ein Bestandteil. Auch viele andere Archive (wie DIMAG) haben DROID in ihre Langzeitarchivierungssysteme eingebunden. Archivematica hat zurzeit Siegfried eingebunden, ein anderes Identifizierungstool, das ebenfalls die Formatbibliothek PRONOM nutzt.

Als erste Idee würde es reichen, mit SystemD eine Port-Unit zu bauen, da reichen Linux-Bordmittel. Alternativ kann man xinetd nutzen.


Frage: Wo liegen die Unterschiede,  wenn ich DROID über GUI oder CLI benutze?

Antwort: Bei DROID sollte Feature Parity zwischen CLI und GUI herrschen. Wie bei CLI-Tools normalerweise der Fall, kann DROID bei der Bedienung via CLI einfacher parametrisiert werden.


Wie gut ist DROID?

Jede Formatidentifizierung kann immer nur eine Heuristik sein, aber gerade für bekannte/verbreitete Formate ist die Heuristik schon ziemlich gut.

Es gibt drei Erkennungsstufen: Extension, Signatur, Container. Ersteres ist unzuverlässig, letztere verlässlicher, Container am verlässlichsten

Neben der Erkennungsrate an sich gibt es natürlich auch eine Rate von "false positiv", also falsche Identifizierungen.

Wobei die Erkennung nur auf die PronomID abbildet. Zu EPUB gibt es z. B. keine PronomIPDs, die die Formatversionen angeben. Also wird das auch nicht erkannt.

Natürlich gibt es auch Dateien, die für DROID (und andere Identifizierungsprogramme) schwer zu erkennen sind. Beim nestor Praktikertag 2017 hatten wir dazu Ange Albertini für die Keynote eingeladen. Von seinen Vorträgen gibt es auch einen bei YouTube.

Die Erkennungsrate lässt sich auch durch die Voreinstellungen beeinflussen, durch die Anzahl an Bytes die analysiert werden. Gerade bei PDF kann das wichtig sein. Z. B. PDF/A wird sonst nicht erkannt.


Performance und Grenzen von DROID

Frage: Gibt es Input-Limits für die Identifizierung von Ordner-Inhalten?

Antwort: Meiner Erfahrung nach gibt es keine Limits, es dauert nur ggf. länger. Bei der Arbeit am iPRES Poster hat Yvonne Tunnat DROID ziemlich strapaziert, indem über 90 Signaturen hintereinander für ein recht großes Sample durchgelaufen sind.

Output von DROID

Frage: Ich überprüfe 20 Dateien. Wie kann ich die Ergebnisse, z.B. die Pronom-ID, z.B. als CSV exportieren? Geht's auch durch die User Interface?

Antwort: Der Export der Ergebnisse von DROID im CSV-Format ist möglich, auch in der GUI.


Kann DROID mehr als nur identifizieren?

Frage: Kann DROID auch zur automatischen Korrektur bei erkannten file extension mismatches genutzt werden?

Antwort: Nein. Das muss stets ein Mensch oder eine erstellte Regel im Nachgang entscheiden.


Kommunikation, Fehlerbehebung durch TNA

Man sollte die Ergebnisse gerade bei neuen oder speziellen Ablieferungen stichprobenartig prüfen und ev. Verbesserungen / Korrekturen an PRONOM weitergeben

Das DROID-Team ist eigentlich recht fix, am Einfachsten via GitHub-Issues.

Zuständig ist David Clipsham

Bei komplexen Anfragen (Beispiel ePub) kann das natürlich länger dauern.


Arbeitsweise der Identifikationsmethoden in DROID

https://zenodo.org/record/4593878

 

DROID Reference Card

https://zenodo.org/record/4593880

 

Erkennungstiefe bei Identifikations- und Validierungstools

https://zenodo.org/record/4593851


DROID

https://www.nationalarchives.gov.uk/information-management/manage-information/preserving-digital-records/droid/


PRONOM

https://www.nationalarchives.gov.uk/PRONOM/Default.aspx


Start des neuen nestor-Wikis

Willkommen zum neuen nestor-Wiki. 

Die Erstellung des Wikis war nur möglich durch die engagierte Arbeit der DNB-Auszubildenden Hanna Mast, Katharina Katzenstein, Peter Estner und Richard Bassenge.  Sie haben das Wiki gestaltet und Daten aus dem alten Wiki und aus der Informationsdatenbank übertragen und überprüft. Einen ganz herzlichen Dank dafür!

Ein herzlicher Dank geht auch an die HU, die das alte nestor-Wiki viele Jahre gehostet hat.

Ich hoffe, dass das nestor-Wiki eine produktive Arbeitsumgebung für die nestor-AGs bietet und hilfreiche Ressourcen für die ganze LZA-Community zur Verfügung stellt. Hoffentlich finden sich viele Mitarbeiter, die helfen, die Angebote zu erweitern und aktuell zu halten. Logins  für die Mitarbeit gibt es bei der nestor-Geschäftsstelle: VL-nestor@dnb.de.

Das nestor-Wiki ist noch in der Entwurfsphase....

Willkommen beim nestor-Wiki

Dieses Wiki ist die Arbeitsumgebung für nestor, dem deutschen Kompetenznetzwerk zur digitalen Langzeitarchivierung. Neben den Seiten der einzelnen Arbeitsgemeinschaften bietet das Wiki Ressourcen für die ganze LZA-Community: 

Standardisierung

Expertenkontakte

LZA-Projekte und -Aktivitäten

Webressourcen 

Das Wiki ergänzt damit die nestor-Webseite auf der sich u.a. ein News-Service, Veranstaltungshinweise und die nestor-Publikationen finden.  

Wenn Sie sich an dem Wiki beteiligen möchten oder Kommentare, Anregungen und Wünsche haben, wenden Sie sich bitte an die nestor-Geschäftsstelle .

 

 

 

 

 

 

Fehler beim Ausführen des Makros 'widget'

com.atlassian.confluence.api.impl.sal.exception.IllegalURLException: The provided url is not included in the whitelist!

  • Keine Stichwörter