Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

« Vorherige Version anzeigen Version 16 Nächste Version anzeigen »

Wann: 2. und 3. April 2019

Wo: Universität Mannheim, Fuchs-Petrolub-Festsaal (O 138), Anfahrt

Veranstalter: DINI-AG KIM, UB Mannheim

Teilnahmegebühr: 40 Euro

Anmeldung: https://dini.de/veranstaltungen/workshops/kim-workshop-2019/anmeldeformular/

TeilnehmerInnen: Öffentliche Liste (Eintragung optional)

Twitter: Hashtag #kimws19

Abendessen (Selbstzahler): Ellinn, E3,1, Di ab 19:00 Uhr (Wegbeschreibung)

Hoteloptionen: https://www.uni-mannheim.de/media/Universitaet/hotelliste.pdf

Kontakt: kim-info@dini.de

Programm

Dienstag, 02.04.2019

11:30

-

12:00

Begrüßung

Sabine Gehrlein (UB Mannheim, Leitende Bibliotheksdirektorin)

Stefanie Rühle (SUB Göttingen) und Jana Hentschke (DNB), DINI-AG KIM-Sprecherinnen

12:00

13:30

Session: Datenvalidierung, Datenbereinigung, Workflowsteuerung

Moderation: Stefanie Rühle (SUB Göttingen)

 

MAPS - Workflow-Tool zur Validierung und Transformation von XML Daten

Karl-Ulrich Becker (SUB Göttingen), Timo Schleier (SUB Göttingen)

Das Tool MAPS wird an der SUB Göttingen (DDB Fachstelle Bibliothek) für die Steuerung und Automatisierung von Validierungs- und Transformationsprozessen im Rahmen von Datenlieferungen an die Deutsche Digitale Bibliothek entwickelt. MAPS besteht aus einem Preprocessing Tool, mit dem Daten gebündelt in eine eXist-XML Datenbank hochgeladen werden und einer eXist Webapp, über die Prozesse gesteuert werden.

Die Anwendung wird über eine Web-GUI bedient und bietet neben einer Validierung mit automatischer PDF-Erzeugung ein Modul, mit welchem XSL-Transformationen aneinandergereiht und auf eine Auswahl von XML Dateien angewendet werden können.

 In dem Vortrag wird der aktuelle Stand der Entwicklung vorgestellt. 


Data Preparation Tool (DPT) (Arbeitstitel)

Oliver Götze (Landesarchiv BW)

 

Nightwatch (Arbeitstitel)

Daniel Opitz (SuUB Bremen)

 Mittagspause mit Verpflegung

14:30

16:00

Hands-On-Tutorial

Option 1:

Automatisierte Datenverarbeitung mit OpenRefine

Option 2:

Setup von Fedora/Apache Camel/Apache Solr

Leitung: Felix Lohmeier (Open Culture Consulting)

Die Software OpenRefine ist bekannt für ihre grafische Oberfläche, die einem Tabellenverarbeitungsprogramm ähnelt. Sie wird oft als Desktop-Software installiert und zur Analyse und Bereinigung von heterogenen Daten eingesetzt (siehe auch Präsentation von Maike Kittelmann auf KIM WS 2016). Weniger bekannt sind die Automatisierungsmöglichkeiten von OpenRefine. Durch die Client-Server-Architektur lässt sich OpenRefine auch auf einem Webserver installieren und über die Kommandozeile steuern. Das hat den Charme, dass Transformationsregeln in der Oberfläche spielerisch erprobt werden können und dann beispielsweise täglich automatisiert auf neue Datenlieferungen angewendet werden können.

Im ersten Teil des Hands-On-Tutorials steuern wir OpenRefine über die Kommandozeile. Dazu verwenden wir einen Client, der als Programm für Windows, MacOS und Linux bereitsteht und ohne weitere Installation ausgeführt werden kann.

Im zweiten Teil des Hands-On-Tutorials schreiben wir auf dem bereitgestellten Webserver beispielhaft kleine Shell-Skripte, um eine vollautomatische Datenverarbeitung zu erproben. Dabei orientieren wir uns an Erfahrungswerten aus dem Projekt Hamburg Open Science Schaufenster.

Zielgruppe: Personen, die gelegentlich mit OpenRefine arbeiten und Automatisierungsmöglichkeiten kennenlernen möchten.

Vorkenntnisse: Vorerfahrungen mit OpenRefine sind hilfreich, aber nicht erforderlich.

Voraussetzungen: Ein Notebook mit Windows, MacOS oder Linux. Es muss keine Software vorab installiert werden, da ein Webserver mit OpenRefine für alle Teilnehmer*innen bereitgestellt wird. Es sind keine Programmierkenntnisse erforderlich, die nötigen Schritte werden einzeln demonstriert.

Leitung: Jaime Penagos (UB LMU), Ralf Claussnitzer (SLUB Dresden), Rainer Gnan (UB LMU)

Beschreibung folgt

 

Pause

16:30

-

18:00

Hands-On-Tutorial (Fortsetzung)

Option 1:

Automatisierte Datenverarbeitung mit OpenRefine (Fortsetzung)

Option 2:

Setup von Fedora/Apache Camel/Apache Solr (Fortsetzung)

  
 Für Interessierte: Schloss- und/oder Eis-Spaziergang zum Restaurant

Mittwoch, 03.04.2019

09:00

-

09:45

Datensetbeschreibungen in DCAT - Modell und Implementierung

Lars G. Svensson (DNB), Panagiotis Kitmeridis (DNB)

Damit offen zugängliche Datensets auch nachgenutzt werden können, müssen sie auffindbar sein: Dies ist die Aufgabe von Suchmaschinen und Datenportalen. Um die dafür notwendigen Metadaten zu strukturieren, wurde 2012-2014 das RDF-Vokabular Data Catalog Vocabulary (DCAT) entwickelt, das mittlerweile weite Verwendung findet. Wir wollen vorstellen, was DCAT ist, wer es pflegt, in welchen Bereichen es derzeit überarbeitet wird, und wie wir es in der DNB verwenden, um unsere Datensets zu beschreiben.

09:45

-

10:15

Datenstrukturen für strukturierte Daten: Aus der Arbeit der W3C Data Exchange Working Group

Lars G. Svensson (DNB)

In seiner nächsten Version wird das Data Catalog Vocabulary (DCAT) neben der Beschreibung von Datensets auch die Möglichkeit bieten, APIs für den Datenzugriff zu beschreiben. Diese neuen Funktionalitäten zu spezifizieren ist Aufgabe der W3C Data Exchange Working Group (DXWG).

Der Auftrag der Arbeitsgruppe umfasst aber auch Spezifikationen für die Beschreibung von Anwendungsprofilen und Best Practices dafür, wie man beschreiben kann, welchem Anwendungsprofil Daten entsprechen und wie man dies in der Suche und für HTTP Content Negotiation einsetzen kann. Auch Verbesserungen in der Beschreibung von komprimierten Daten und Provenienzinformation stehen auf der Agenda.

Diese und weitere Themen der Arbeit sollen hier angerissen und erläutert werden.

 Pause

10:45

-

11:15

Lightning Talks

11:15

-

12:45

Session: Anforderungen an moderne Metadatenhaltung

Moderation: Jana Hentschke (DNB)

In dieser partizipativen Session wollen wir mit allen Workshop-TeilnehmerInnen zusammen Anforderungen an moderne Metadatenhaltung erarbeiten und einem Realitätscheck unterziehen.

Details folgen

 Mittagspause mit Verpflegung

13:45

-

15:30

Session: Zusammenbringen, was zusammengehört

Moderation: Jana Hentschke (DNB)

Bei der Arbeit mit Daten aus verschiedenen Datentöpfen ist es eine häufig auftretende Herausforderung, automatisch Gleiches auf Gleiches abzubilden. Je nach Anwendungskontext und lokalen sprachlichen Gepflogenheiten ist die Rede von "Matching", "Clustering", "Zusammenführen", "Deduplizierung", "Bündelung", "Merging", ...

In dieser Session berichten verschiedene Akteure von ihren Strategien und Erfahrungen in diesen Disziplinen. Es geht schwerpunktmäßig um den Gegenstand "bibliographische Daten". Thematisiert werden Algorithmen, Datenformate von Ergebnisse, Workflows, die Datennutzersicht sowie alles Weitere, zu dem Austauschbedarf aufkommt.


Clustern von Daten auf der swissbib Plattform

Silvia Witzig (swissbib), Günter Hipler (swissbib)

swissbib wurde im Verlaufe der letzten 10 Jahren aufgebaut und ist in dieser Dekade zu einem wesentlichen Element des Zugriffs auf bibliographische Informationen in der Schweiz geworden. 45 Millionen Ressourcen werden ausschliesslich automatisiert aggregiert, dedupliziert, geclustert und mit externen Informationen verlinkt.

NutzerInnen kennen vor allem die Discoveryfunktionalität oder die Möglichkeiten der angebotenen maschinellen Schnittstellen. Der Nukleus oder das Herz des Service, auf dem alle bisherigen und zukünftigen Dienste aufbauen, sind jedoch die Möglichkeiten des data-processing und der gezielten Bereitstellung von Informationen für sehr unterschiedliche dedizierte Services.

Wir fokussieren in unserem Beitrag die Datenaufbereitung und die Mechanismen, die im swissbib-Datenhub zur Dedublierung verwendet werden. Feedback von den Workshop-TeilnehmerInnen ist willkommen, ob wir tendenziell eher auf die Regeln des Clusterns oder die Abläufe jetzt und evtl. in der Zukunft eingehen sollen.

 

De-Duplikationsverfaheren und Einsatzszenarien im Gemeinsamen Verbündeindex (GVI)

Stefan Lohrum (KOBV), Uwe Reh (HeBIS), Stefan Winkler (BSZ)

Im Vortrag werden unterschiedliche Strategien (cluster- vs. schlüsselbasierte Verfahren) vorgestellt und ihre Anwendung in verschiedenen Kontexten (z.B. Präsentation von Rechercheergebnissen Frontend, Nachrecherche in der Fernleihe) diskutiert. Abschließend wird über spezifische Herausforderungen und Erfahrungen bei der Anwendung der Verfahren in einem großen Datenbestand (der GVI enthält rund 170 Mio Datensätze) berichtet.

 

Hervorholen, was in unseren Daten steckt - Mehrwerte durch Analysen großer Bibliotheksdatenbestände (Culturegraph)

Angela Vorndran (DNB), Stefan Grund (DNB)

Das Team Datenabgleich und Datenanalyse der DNB führt in Culturegraph die Datenbestände der Bibliotheksverbünde aus Deutschland und Österreich zusammen (zurzeit mehr als 171 Millionen Titeldatensätze) für Vernetzungen innerhalb des Bestandes und mit Daten aus externen Quellen. Beispielsweise werden Publikationen, die einem Werk zuzurechnen sind, gebündelt, so dass inhaltserschließende Informationen unter den Bündelmitgliedern ausgetauscht und somit intellektuell erstellte Metadaten in größerem Umfang ausgetauscht werden können. Des Weiteren wurden öffentliche Daten der Open Researcher and Contributor ID (ORCID) mit den Daten in Culturegraph und der GND abgeglichen, um die ORCID in größerer Zahl in GND-Personendatensätze eintragen zu können. Auch statistische Auswertungen auf dem Datenbestand werden vorgenommen.


Mit CultureGraph zu einer virtuellen Systematik

Hans-Georg Becker (UB Dortmund)

Umfangreiche Anpassungen des Bestandsmanagement aufgrund der nahenden Sanierung der Bibliothek, aber auch wegen der "e-preferred" Strategie beim Medienerwerb, machen ein Festhalten an der Aufstellungssystematik der UB Dortmund unmöglich. Die UB Dortmund arbeitet daher daran, eine "virtuelle Systematik" der Bestände auf Basis der RVK anzubieten.

Da die UB Dortmund die inhaltliche Erschließung bisher eher stiefmütterlich behandelt und die RVK im hbz-Verbund quasi keine Bedeutung hat, liegen kaum inhaltserschließende Daten vor. Mithilfe der Daten aus CultureGraph wird daher versucht, die "virtuelle Systematik" aus den Erschließungsdaten der anderen Verbünde aufzubauen.

Der Vortrag stellt das Verfahren und die Ergebnisse vor und zeigt weitere Clustering-Ansätze zum Schließen der verbleibenden Lücken vor.

15:30

-

15:45

Closing

15:45

-

16:45

Öffentliche Sitzung der DINI-AG-KIM
  • Keine Stichwörter