Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

09:45 - 10:00

Begrüßung

Tracy Andt (DNB), Alex Jahnke (SUB Göttingen) (DINI-AG KIM AG-Sprecherin und -Sprecher)

10:00 - 10:30

Vortrag

Péter Király (GWDG): Validating JSON, XML and CSV data with SHACL-like constraints

(in englischer Sprache)

Erweitern
titleBeschreibung...

Metadata Quality Assessment Framework is a tool aiming to provide building blocks to analyse the quality of metadata records of cultural heritage organisations. It can read JSON, XML or CSV records and runs metrics of general quality dimensions, such as completeness, multilinguality, uniqueness, accuracy. It also provides a SHACL-like vocabulary to create specific validation rules for individual data elements. The tool can be used from the command line, and it can be built into a larger framework, and using it via its API.

The presentation provides an overview of the rule set one can apply for metadata records, and also shows how it is use in practice at the Deutsche Digitale Bibliothek. DDB aggregates data in different metadata schemas (Dublin Core, EDM, LIDO, EAD, METS/MODS). The tool is used to check incoming records, and those records which are transformed for exporting to Europeana. The metadata team sets a uniform set of requirements, and a scoring system to detect issues and qualify individual records.


10:30 - 11:00

Vortrag

Adrian Pohl und Fabian Steeg (hbz): Datentransformation mit Metafacture – Aktuelle Entwicklungen

Erweitern
titleBeschreibung...

Wir berichten von den Metafacture-Entwicklungen der letzten anderthalb Jahre, insbesondere der Entwicklung einer Catmandu-Fix-artigen Transformationssprache für Metafacture

(https://github.com/metafacture/metafacture-fix) und einer Web-basierten Oberfläche zum einfachen Ausprobieren und Teilen von Workflows (https://github.com/metafacture/metafacture-playground).


11:00 - 11:30Programmpause
11:30 - 13:00

Interaktive Session

Arbeit strukturieren, planen und verteilen - Erfahrungsaustausch zu Werkzeugen

Moderation: Jana Hentschke (ZBW)

Erweitern
titleBeschreibung...

In dieser 90-minütigen Session soll in der Runde aller KIM-Workshop-Teilnehmenden ein Good-Practice-Austausch stattfinden zu der Frage "Mit welchen unterstützenden Werkzeugen lassen sich Aufgaben effizient verwalten und Arbeitsabläufe realisieren".

Gegenstand müssen dabei nicht ausschließlich Aufgaben des Arbeitsbereich (Meta-)Datenberarbeitung seinDer Fokus soll aber auf Arbeiten in Teams und auf Routinetätigkeiten liegen - im Gegensatz zu Projekten.

Interessante Werkzeuge können sicherlich auch aus anderen Bereichen kommen, zum Beispiel der Softwareentwicklung oder dem Projektmanagement. Mögliche Beispiele: GitHub Issues, Trello, Jira, Alternativen zu Jira, Wikis, MS Outlook Features ...
Unabhängig von konkreten Werkzeugen kann sich auch der Austausch ergeben, mit welcher Art von Aufgabenvisualisierung welche Erfahrungen gemacht werden -z.B. Kanban Boards, Zeitleisten, grafische Ablaufdiagramme, Todo-Listen ... 

In der Session soll zunächst erhoben werden, welche Werkzeuge die Anwesenden bereits wie einsetzen. Dazu kann von allen Anwesenden spontan mündlich berichtet oder visuell demonstriert werden. Im weitere Verlauf können, ggf. in Break-Out-Räumen, Stärken und Schwächen der einzelnen Lösungen herausgearbeitet und in der Gruppe gegeneinander gehalten werden. Ziel ist die gegenseitige Inspiration für den Arbeitsalltag und eine gemeinsame Vorstellung von der Bandbreite der Möglichkeiten.Abstract


13:00 - 14:00Programmpause
14:00 - 15:00

Vortrag

Vom Abzug zum Dashboard. Wie aus Daten Informationen werden

Für die GNDCon 2.0 hat eine Projektgruppe in der Deutschen Nationalbibliothek ein interaktives Dashboard zur statistischen Auswertung der Daten erstellt (siehe [1]). Wir zeigen, wie wir vorgegangen sind, welche Software wir verwendet haben, was wir über unsere Daten gelernt haben und wie wir zukünftig solche Datenanalyse-Projekte angehen würden.

[1] https://share.streamlit.io/deutsche-nationalbibliothek/gnd-dashboard/main/dashboard/gnd-app.py

Teil 1 Nico Wagner (DNB): Datenformate und -aufbereitung

Erweitern
titleBeschreibung...

Im ersten Teil wird gezeigt, wie wir aus den Daten im Rohformat (PICA+) die wesentlichen Daten extrahieren und so aufbereiten, dass sie im GND-Dashboard angezeigt werden können. Wir stellen das Tool „pica-rs“ [2] vor, das für die Datenextraktion verwendet wird und illustrieren an ausgewählten Beispielen wie die Datenaufbereitung mit der Programmiersprache Python umgesetzt ist. Abschließend wird das Setup vorgestellt, mit dem wir die Daten im Dashboard monatlich aktualisieren.

[2] https://github.com/deutsche-nationalbibliothek/pica-rs

Teil 2 André Wendler (DNB): Anzeige der Statistiken im Dashboard

Erweitern
titleBeschreibung...

Der zweite Teil erläutert, wie die Statistiken mit der Software Streamlit (siehe [3]) zu einem interaktiven, web-basierten Dashboard aufbereitet werden. Dabei wird es auch um den Wissenstransfer zwischen bibliothekarischen Fachleuten und den Data Sciences gehen.

[3] https://streamlit.io/


15:00 - 15:15Programmpause
15:15 - 17:00

Lightning Talks & Open Space

...