Skip to end of metadata
Go to start of metadata

Wann: 14. und 15. April 2014

Wo: Universität Mannheim, Fuchs-Petrolub-Festsaal (O 138), Anfahrt

Veranstalter: DINI AG KIM, UB Mannheim, Research Group Data and Web Science der Universität Mannheim

Teilnahmegebühr: 30 Euro

Zahl der Teilnehmer: ist auf 60 Personen begrenzt

Abendprogramm: Restaurant und Bar Enchilada (Selbstzahler), ab 18:30 Uhr.

Anmeldungen per Email an:  sruehle(a)sub.uni-goettingen.de

Programm

Montag, 14.04.2014

Vormittag: Treffen der UAGs bei Bedarf

13:00 - 13:15: Begrüßung der Teilnehmer (Julia Hauser und Stefanie Rühle)


13:15 - 15:00 Session I: Digitalisierungsmetadaten und Standards (Moderation: Marko Knepper)

Trotz Vorgaben seitens DFG und auch DDB, welche Metadaten- und Digitalisierungsstandards bei der Digitalisierung von Kulturobjekten zu verwenden sind, ist die gemeinsame Nutzung von Daten aus verschiedenen Digitalisierungsprojekten weiterhin keine geringe Herausforderung. Einerseits sind die für die verschiedenen Sparten vorgegebenen Standards in ihrer Struktur sehr unterschiedlich, andererseits lassen sie häufig zu viel Interpretationsspielraum. Die Folge ist, dass die bereitgestellten Daten zwar standardkonform sind, es aber dennoch einer aufwendigen Bearbeitung (Mappings, Normalisierung und Anreicherung der Daten) bedarf, um sie in Portalen wie DDB und Europeana sinnvoll nutzen zu können. In der Session werden einige von DFG und DDB vorgegebene Standards vorgestellt und diskutiert, wo die Probleme bei der Nutzung dieser Standards liegen.

Stefanie Rühle: Vorgaben durch die DFG in den DFG-Praxisregeln "Digitalisierung" (Folien)

Alexander Jahnke: Die Verwendung von METS und MODS für digitalisierte Drucke (Folien)

Sebastian Meyer: TEI zur Beschreibung von digitalisierten Handschriften (Folien)

Nicolas Moretto: EAD und digitalisiertes Archivgut (Folien)

Marko Knepper:  EDM als LoD-konformes Beschreibungsformat in der Praxis


15:00 - 15:30 Pause

 

15:30 - 17:00 Session II: Digitalisierungsmetadaten und Zertifizierung digitaler Sammlungen (Moderation: Friedrich Summann, Stefanie Rühle)

Die Idee, die Standardisierung von Formaten durch die Vergabe von Zertifikaten zu unterstützen, ist nicht neu und fördert einerseits die Verbesserung der Daten ist aber andererseits auch mit personellem Aufwand verbunden. Im Rahmen dieser Session wollen wir in kleineren Gruppen diskutieren, ob und wie es mit Hilfe eines Zertifikats für digitale Sammlungen gelingen kann, die Metadaten aus Digitalisierungsprojekten zu verbessern und die Voraussetzung für die Veröffentlichung dieser Daten als Linked Open Data zu schaffen.  

Impulsvorträge

  • Friedrich Summann: Überblick über das DINI-Zertifikat
  • Stefanie Rühle: Zertifizierung von DCAM-konformen Anwendungsprofilen im KIM Projekt (Folien)

 

Im Anschluss wurden in wechselnden Kleingruppen unterschiedliche Fragestellungen diskutiert.

Fragen, die in den Gruppen diskutiert wurden:

  • Was kann/soll in Hinblick auf Digitalisierungsmetadaten überhaupt zertifiziert werden?
  • Gibt es einen Zusammehang zwischen einem DINI-Zertifikat digitale Sammlungen und den DFG-Praxisregeln? Wie könnte der aussehen? Fordert das Zertifikat mehr oder etwas anderes?
  • Was für eine Rolle können/sollen Anwendungsprofile(für METS und MODS, für TEI und DDB-EAD) in diesem Zusammenhang spielen?
  • In welcher Form können/müssen Anforderungen berücksichtigt werden, die Linked Open Data unterstützen (z. B. eindeutige Identifier, URIs)?
  • Gibt es Vorgaben für die Rechtedeklarierung in den Metadaaten (u.a. Unterscheidung zwischen Rechten an Metadaten und an Digitalisaten) und was ist zu tun, wenn es keine passenden Lizenzen (z. B. CC) gibt?
  • Welche Anforderungen gibt es an technische Metadaten in Hinblick auf die Langzeitarchivierung?
  • Wie Validiere ich Digitalisierungsmetadaten (Formate und Inhalte)
  • Wie kann/muss ein Zeritifizierungsworkflow für digitale Sammlungen aussehen?

Eine Gruppe beschäftigte sich mit der übergeordneten Frage "Was sind qualitativ hochwertige Metadaten?" (Vollansicht durch Klick auf das Bild):

Diskussionsrunde 1 (Vollansicht durch Klick auf das Bild)

Zertifizierung - wie soll das gehen?
DINI-Zertifikat vs. DFG-Praxisregeln
Rights-Management
Validierung

 

Diskussionsrunde 2 (Vollansicht durch Klick auf das Bild)

ZertifizierungsworkflowLoD unterstützenAnwendungsprofiletechnische Metadaten und LZA

 

Die Ergebnisse wurden abschließend von den Kleingruppen vorgestellt und mit dem Plenum diskutiert.

17:00 - 18:00 Lightning Session

Andreas Kahl (BSB): RISM als Linked Open Data

Ralph Hafner, Bernd Schelling (UB Konstanz): Sigmamat 2014

  • LoD-unterstützte Inhaltserschließung auf Grundlage eines automatischen GND-Matches mit der UB-eigenen Klassifikation

Abendprogramm

Dienstag, 15.04.2014

09:00 - 12:00 Session III: Linked Data Anwendungen (Moderation: Andreas Kahl)

Michael Büchner: Entity Facts und Personennormdaten in der DDB

Die Deutsche Nationalbibliothek (DNB) hat den Dienst Entity Facts zur Verfügung gestellt, dessen Ziel es ist, Informationen zu einer Entität aus der Gemeinsamen Normdatei (GND) mit anderen Datenquellen zu vereinigen und zu verküpfen. Die Daten aus Entity Facts sollen ohne großen Aufwand in andere Anwendungen integriert werden können.Die erste Version umfasst und liefert Informationen zur GND-Entität "Person" über eine JSON-REST-API. Erste Anwenderin ist die Deutsche Digitale Bibliothek (DDB), die Personenseiten auf Basis von Entity Facts anbietet.

In diesem Beitrag werden zunächst die grundlegenden Ziele und Funktionen des Entity-Facts-Service der DNB erläutert sowie auf die Architektur des Service eingegangen. Am Beispiel der DDB wird erläutert wie der Service genutzt werden kann und die angebotenen Daten auf einfachste Weise in eigene Anwendungen übernommen werden können. Darüber hinaus wird ein Ausblick gegeben, wie der Dienst weiterentwickelt werden soll.

Andreas Nareike: ERM mit OntoWiki

Die UB Leipzig arbeitet an einem ERM System, das im Rahmen eines Projektes in Zusammenarbeit mit der SLUB Dresden entwickelt wird. Dieses System basiert auf der Web-Applikation 'OntoWiki', welche für das Verwalten und Erstellen von Linked Data konzipiert ist. Das Ziel ist die Bereitstellung einer skalierbaren, nachnutzbaren Web-Applikation zur Verwaltung elektronischer Ressourcen in sächsischen Hochschulbibliotheken. Die Software OntoWiki nutzt Linked-Data-Technologien und integriert alle für das ERM benötigte Daten in RDF. Datenmodelle und Abfragen können jederzeit von Systembibliothekaren erstellt und konfiguriert werden.

Jens Mittelbach, Leander Seige: Free Our Data and Link It - or Die: Projekt zur Entwicklung einer LOD-basierten Datenmanagement-Plattform

Ziel des EFRE-geförderten Projektes ist der Aufbau einer einfach nachnutzbaren, skalierbaren intelligenten Datenmanagement-Plattform als Open-Source-Lösung, die den individuellen Anforderungen jeder einzelnen Anwender-Institution gerecht wird und es gleichzeitig ermöglicht, bei Kuratieren bibliothekarischer Daten auf Erfahrungen und Ergebnisse anderer Anwender zurückzugreifen. In einer als Middleware konzipierten Applikation werden Daten aus unterschiedlichen Datenquellen (ILS, Datenbanken, APIs, Excel- oder CSV-Dateien usw.) zusammengeführt, dedupliziert, normalisiert, angereichert sowie in beliebigen Präsentationsformen akkumuliert und als Linked Data publiziert. Die dazu notwendigen Datentransformationsworkflows werden in einem intuitiv zu bedienenden grafischen Nutzer-Interface definiert und können in der Community zur Nachnutzung zur Verfügung gestellt werden. Mit dem Fokus auf der Vernetzung der über historische Zeiträume sorgfältig gesammelten Bibliotheksdaten mit außerhalb der bibliothekarischen Datensilos existierenden Daten schafft das Projekt die Voraussetzungen für den Bibliothekskatalog der Zukunft, der als graph-basiertes Wissensexplorationsinstrument Herzstück virtueller Forschungsumgebungen sein kann. Als erste Anwendung, die auf der Datenmanagement-Plattform aufsetzt, entsteht ein Electronic Resource Management System, das komplett auf Linked Data basiert.

Alexander Haffner: Kollaborative Normdatenpflege auf Basis von GND/RDF

Der Vortrag präsentiert Konzepte und Lösungen für die Einbindung nicht-bibliothekarischer Partner in die kollaborative Normdatenpflege. Das Kooperationsprojekt „IN2N – Institutionenübergreifende Integration von Normdaten“ hat hierzu Verfahren entwickelt, die nicht nur den Bezug von Normdaten als Linked Open Data, sondern auch die Übermittlung von Änderungen an und die Eintragung neuer GND-Entitäten mittels dem intuitiv verständlichem Normdatenformat GND/RDF erlauben. Entgegen dem klassischen Datensatz-basierten Änderungsverfahren wird ab Mitte 2014 eine inkrementelle Update-Schnittstelle verfügbar sein, über die Differenzmeldungen in Form von RDF-Statements übermittelt werden können. Mit der Update-Schnittstelle wird es somit auch Linked-Data-Nutzern ermöglicht, aktiv an der GND mitzuwirken.

Pascal Christoph (hbz):  Die Web-API des hbz LOD-Dienstes "lobid"

Lobid existiert seit 2010 und ist seit 2014 offiziell ein Produkt des hbz - damit ist eine gewisse Stabilität des Dienstes gesichert. Lobid stellt bibliographische Daten (u.a. hbz-Katalog, GND Normdaten, Isil-Verzeichnis) über eine Web-API zur Verfügung. Die Daten lassen sich damit schnell durchsuchen. Der Vortrag fokusiert die neuen Features der API, wie etwa Filter, mit denen sich komplexe Abfragen realisieren lassen, z.B. Ressourcensuche im hbz Katalog eingeschränkt auf eine bestimmte Bibliothek, oder eine Suche in der GND eingeschränkt auf Ortsnamen. Für die Katalogisierung wichtig ist eine Autovervollständigung um z.B. die GND-ID einer Person zu finden oder das Isil zu einer Bibliothek. Die Web-API lässt sich sehr einfach in eigene Anwendungen integrieren.


12:00 - 12:30 Pause

12:30 - 13:45 Session IV: Application Profile(s) und Linked Data (Moderation: Julia Hauser)

Impulsvorträge

13:45 - 14:00 Closing

14:15 - 16:00 Treffen der DINI AG KIM

Die Sitzung ist öffentlich. Alle Interessenten sind eingeladen teilzunehmen.


  • No labels