Versions Compared

Key

  • This line was added.
  • This line was removed.
  • Formatting was changed.

...

11:30 - 11:45

Begrüßung

Sabine Gehrlein (UB Mannheim, Leitende Bibliotheksdirektorin)

Alex Jahnke (SUB Göttingen), Letitia Mölck (DNB) (DINI-AG KIM AG-Sprecher und -Sprecherin)

11:45 - 12:30

Kennenlernrunde

Metadaten im Alltag: Einsatz von Metadaten im beruflichen Kontext, Erfahrungen, Herausforderungen, Probleme


12:30 - 13:30Mittagspause mit Verpflegung
13:30 - 17:30Hands-on-Tutorials - Anmeldung erforderlich


Section
bordertrue


Column
width30%

Option 1: Metadatengrundlagen-Tutorial

Leitung: Jakob Voß (VGZ Göttingen)

Erweitern
titleBeschreibung

Die Welt der Metadaten zeichnet sich durch eine Vielzahl von Formaten, Standards, Profilen und Akronymen aus. Nicht selten besteht die Herausforderung von Interoperabilität darin,  herauszufinden, was überhaupt mit Daten gemeint ist. Im Workshop soll etwas Licht in den Dschungel der Formate und Techniken für Metadaten gebracht werden. Behandelt werden weniger einzelne Formate im Detail, sondern grundlegende Fragen wie Arten, Eigenschaften, Bestandteile und Beziehungen von Metadaten sowie wesentliche Mittel zu ihrer Verarbeitung und Analyse. Bitte bringen Sie viele Fragen mit!

Zielgruppe: Menschen, die mehr über Metadaten wissen wollen.

Vorkenntnisse: Rudimentäre Kenntnisse verschiedener Datenformate sind von Vorteil, aber nicht erforderlich.

Voraussetzungen: Stift, Papier, ggf. Notebook oder Tablet.

Teilnehmeranzahl: max. 20



Column
width30%

Option 2: Metadaten-Handwerk mit Jupyter Notebooks

Leitung: Magnus Pfeffer (HdM Stuttgart), Kai Eckert (HS Mannheim), Tobias Malmsheimer (HdM Stuttgart)Florian Rupp (HS Mannheim)

Erweitern
titleBeschreibung

Python ist zurecht sehr beliebt als Skripting-Sprache und eignet sich hervorragend zur Verarbeitung und Transformation von Daten in beliebigen Formaten. Durch die unzähligen verfügbaren Module gibt es wohl kaum eine Schnittstelle, die via Python nicht in wenigen Zeilen Code nutzbar ist. Dank Rdflib ist auch die Verarbeitung und Erzeugung von Linked Open Data einfach umsetzbar. Darüber hinaus erlauben Jupyter Notebooks eine schrittweise Erarbeitung von Metadaten-Workflows, inklusive Dokumentation in Markdown. Für umfangreichere Datenaufbereitungen und Analysen steht mit Pandas ein mächtiges Werkzeug zur Verfügung. Gemeinsames Arbeiten an diesen Workflows und Versionsverwaltung kann schließlich über Git realisiert werden, via Gitlab oder GitHub können weitere Prozesse angestoßen und der Workflow in vorhandene Systeme integriert werden.

Im Modul wird das Zusammenspiel der Komponenten an beispielhaften Workflows vorgestellt. Gemeinsam mit den Teilnehmern sollen dabei Fragen zu möglichen Nutzungsszenarien geklärt und Erfahrungen ausgetauscht werden.

Zielgruppe: Metadaten-Praktiker:innen

Vorkenntnisse: Grundkenntnisse in Python, Jupyter Labs und Git. Umgang mit Metadaten in gängigen Formaten, z.B. XML, JSON, CSV.

Voraussetzungen: Eigenes Notebook, mit Git, Jupyter Labs, sowie den Python-Modulen Pandas, Rdflib und JupyText vorinstalliert. Genauere Angaben werden vor dem Workshop zur Verfügung gestellt.

Die Module sind alle in Anaconda verfügbar, einer Python Distribution, die insbesondere unter Windows zu empfehlen ist: https://www.anaconda.com/

Teilnehmeranzahl: max. 20



Column
width30%

Option 3: Publikation von SKOS-Vokabularen inklusive Reconciliation-Schnittstelle mit SkoHub

Leitung: Adrian Pohl, Phú Tu, Steffen Rörtgen (hbz)

Erweitern
titleBeschreibung

Im Workshop wird SkoHub, ein Ökosystem verschiedener Software-Module zur Publikation und Nutzung kontrollierter Vokabulare im Web vorgestellt. Neben einer kurzen Einführung in SKOS werden wir gemeinsam ein Vokabular mit SkoHub Vocabs veröffentlichen. Im Anschluss stellen wir SkoHub Reconcile vor, das den Abgleich von Daten mit einem SKOS-Vokabular ermöglicht, basierend auf der standardisierten Reconciliation API und unter Nutzung von OpenRefine.

Abschließend geben wir noch einen Ausblick auf das SkoHub-PubSub-Modul, das kontrollierte Vokabulare zu Akteuren in föderierten sozialen Netzwerken (Fediverse, z.B. Mastodon) macht.

Zielgruppe: Menschen, die mit kontrollierten Vokabularen und an Datentransformationen arbeiten

Vorkenntnisse: Erste Vorkenntnisse im Bereich kontrollierter Vokabulare und Linked Open Data sind wünschenswert, aber nicht zwingend erforderlich.

Voraussetzungen: Laptop, Account bei GitHub

Teilnehmeranzahl: max. 20





Für Interessierte: Restaurantbesuch in lockerer Atmosphäre (ab 19:00 Uhr, Wegbeschreibung folgt)

...