Wann: 

26. bis 28. April 2021

Wo:

online

Veranstalter:

DINI-AG KIMUB Mannheim
Programmkomitee+
Organisationsteam:

Tracy Arndt (DNB), Alex Jahnke (SUB Göttingen), Jana Hentschke (ZBW Hamburg), Sylvia Hulin (UB Mannheim), Stefanie Rühle (SUB Göttingen), Jakob Voß (GBV), Philipp Zumstein (UB Mannheim)

Twitter: 

Hashtag #kimws21
Kontakt:kim-info@dini.de

Programm

Montag, 26. April 2021

09:30 - 13:00

Hands-On Tutorials

(Info) Anmeldung erforderlich

Option 1: Einführung in die XML Datenbank eXist-dbOption 2: Von 0 auf Triple Store in 180 Minuten

Leitung: Uwe Sikora (SUB Göttingen)

In diesem Hands-On wird in die grundlegenden Features und Konzepte der XML-Datenbank eXist-DB eingeführt. Zunächst werden wir uns anschauen, wie man eine eXist Instanz konfiguriert und managt.

Im Anschluss verschaffen wir uns einen Überblick über die Struktur von eXist und seiner eigenen Entwicklungsumgebung "eXide". In diesem Rahmen werden die beiden Basiskonzepte - APPs und Libraries - vorgestellt, mit denen man für eXist entwickelt: Wir werden eine eigene eXist Anwendung erstellen und sie mit XML Daten befüllen.

Darauf aufbauend widmen wir uns der Abfage von gespeicherten Daten via XPath und XQuery: Nach einer praktischen Einführung in XPath & XQuery nehmen wir das Abfragekonzept von eXist etwas detailierter unter die Lupe und schreiben eigene Queries. In diesem Rahmen werden wir uns auch mit den Indexierungsmöglichkeiten beschäftigen, die eXist bietet und eigene Indexkonfigurationen erstellen, die wir in einer einfachen Keyword-In-Context Suche implementieren.

Um das Bild abzurunden, betrachten wir in einem Ausblick die RESTXQ Schnittstelle, mit deren Hilfe RESTfull Services in eXist implementiert werden können.

Zielgruppe: XML Entwickler und alle, die mit XML Daten arbeiten

Vorkenntnisse: XML, XPath (wünschenswert), XQuery (wünschenswert)

Voraussetzungen: Eine lokal installierte eXist-db 5.2.0 Instanz (http://exist-db.org/exist/apps/homepage/index.html)

Leitung: Andreas Walker (SUB Göttingen)

Wie baue ich eigentlich meinen eigenen Triple Store auf? In nur 180 Minuten soll dieses Hands-On-Tutorial diese grundlegende Frage beantworten. In einem ersten Teil wollen wir zunächst anhand eines existierenden Triple Stores (z.B. Wikidata) lernen, wie Daten in einem Triple Store strukturiert sind, und wie man sie mit Hilfe der Sprache SPARQL abfragen kann. Nach der Pause nutzen wir diese neuen Kenntnisse dann, um unsere eigenen Daten als RDF/Turtle aufzubereiten und in einem Triple Store zu hosten. Wir setzen dabei auf die Open Source-Software Apache Fuseki. Ziel ist es, die TeilnehmerInnen über die erste Hürde des Einstiegs ins Semantic Web zu bringen, damit sie selbstständig weiterdenken und -experimentieren können.

Zielgruppe: Personen mit Interesse am Semantic Web und Spaß am Experimentieren

Vorkenntnisse: Interesse am Umgang mit Daten und Datenbanken. Vorkenntnisse mit SPARQL sind sehr willkommen, aber nicht notwendig.

Voraussetzungen: Für den ersten Teil genügt ein Notebook mit Internetzugang und modernem Webbrowser. Im zweiten Teil sollten die TeilnehmerInnen idealerweise über Adminrechte auf ihrem Rechner verfügen und mindestens Java 8 installiert haben, um eine eigene Fuseki-Instanz betreiben zu können. Wenn das nicht möglich ist, versuchen wir aber trotzdem Lösungen für alle zu finden (z.B. Arbeit in Gruppen, Fuseki auf externen Servern). Eine kurze Vorab-E-Mail in diesem Fall an walker@sub.uni-goettingen.de spart uns Zeit im Workshop

13:00 - 14:00Programmpause
14:00 - 14:10

Begrüßung

Alex Jahnke (SUB Göttingen), Jana Hentschke (ZBW Hamburg/Kiel) (DINI-AG KIM AG-Sprecher und -Sprecherin)

14:10 - 14:40

Vortrag

Paul Vierkant (datacite): Datenkuratierung, Entwicklung eines Metadatenschemas und Abfragemöglichkeiten für ROR-IDs (Folien online und direkt als PDF)

Das Research Organization Registry (ROR) hat sich als offener Persistent Identifier (PID) für wissenschaftliche Einrichtungen auf den Weg gemacht ein globaler Standard zu werden. DataCite, California Digital Library und Crossref stellen diesen 2019 gestarteten Open Science Service bereit. Dieser Beitrag stellt ROR, sein Metadatenschema, seine API-Funktionen und den Ansatz der „community-based“ Datenkuration vor. Zudem werden Einblicke in die Ergebnisse der jüngsten Umfrage zu Organisations-IDs in Deutschland im Rahmen des Projekts ORCID DE gegeben. Feedback im Rahmen des Vortrags zu ROR ist gern gesehen.

14:40 - 15:10

Vortrag

Thomas Baker (DCMI): Jenseits von Simple und Qualified – Dublin Core heute (Folien)

"Metadaten" hiess immer Datenbanken oder Formate - massgeschneiderte Strukturen für geschlossene Systeme. Die wilde Vielfalt des offenen WWW führte jedoch zu Linked Data: Metadaten als Bündel einzelner Aussagen, die auf der Basis bekannter Vokabulare und generischer Datenmodelle rekombinierbar sind.

Die älteren und neueren Sichtweisen bestehen nebeneinander noch im Anwenderkreis um Dublin Core, werden jedoch von der Idee des Anwenderprofils überbrückt, die ihrerseits von neuen Techniken für die Validierung offener Daten (ShEx und SHACL) verstärkt wird.

Folien mit Notizen

15:10 - 15:30Programmpause
15:30 - 17:00

Interaktive Session

Metadaten in der Lehre

Moderation: Tracy Arndt (DNB)

In dieser partizipativen Session wollen wir über die Inhalte und den Stellenwert von Metadaten in den einschlägigen deutschsprachigen Studiengängen diskutieren. Darüber hinaus wollen wir über die Anforderungen aus der Praxis im Bereich des Metadatenmanagements sprechen. Welche für den berufsalltag notwendigen Kompetenzen werden bereits in der Lehre vermittelt und welche scheinen noch offen? Sollten bestimmte Formate, Tools und theoretische Betrachtungen vermittelt werden?


Dienstag, 27. April 2021

09:30 - 13:00

Hands-On Tutorials

(Info) Anmeldung erforderlich

Option 1:

Von 0 auf Triple Store in 180 Minuten

Option 2:

Processing MARC

Option 3:

Einführung in die XML Datenbank eXist-db

Leitung: Andreas Walker (SUB Göttingen)

[Wiederholung des Tutorials vom Vortag]

Wie baue ich eigentlich meinen eigenen Triple Store auf? In nur 180 Minuten soll dieses Hands-On-Tutorial diese grundlegende Frage beantworten. In einem ersten Teil wollen wir zunächst anhand eines existierenden Triple Stores (z.B. Wikidata) lernen, wie Daten in einem Triple Store strukturiert sind, und wie man sie mit Hilfe der Sprache SPARQL abfragen kann. Nach der Pause nutzen wir diese neuen Kenntnisse dann, um unsere eigenen Daten als RDF/Turtle aufzubereiten und in einem Triple Store zu hosten. Wir setzen dabei auf die Open Source-Software Apache Fuseki. Ziel ist es, die TeilnehmerInnen über die erste Hürde des Einstiegs ins Semantic Web zu bringen, damit sie selbstständig weiterdenken und -experimentieren können.

Zielgruppe: Personen mit Interesse am Semantic Web und Spaß am Experimentieren

Vorkenntnisse: Interesse am Umgang mit Daten und Datenbanken. Vorkenntnisse mit SPARQL sind sehr willkommen, aber nicht notwendig.

Voraussetzungen: Für den ersten Teil genügt ein Notebook mit Internetzugang und modernem Webbrowser. Im zweiten Teil sollten die TeilnehmerInnen idealerweise über Adminrechte auf ihrem Rechner verfügen und mindestens Java 8 installiert haben, um eine eigene Fuseki-Instanz betreiben zu können. Wenn das nicht möglich ist, versuchen wir aber trotzdem Lösungen für alle zu finden (z.B. Arbeit in Gruppen, Fuseki auf externen Servern). Eine kurze Vorab-E-Mail in diesem Fall an walker@sub.uni-goettingen.de spart uns Zeit im Workshop

Leitung: Johann Rolschewski (SBB Berlin)

2002 erklärte Roy Tennant “MARC Must Die”. Aktuell ist das Format “MARC 21” immer noch das meist genutzte Format zum Austausch und Katalogisierung von Metadaten in Bibliotheken. Selbst unsere “Next Generation Library Systems” verwenden diesen Standard aus den 60er Jahren. Da wir auch in den kommenden Jahren mit “MARC 21” arbeiten werden, soll dieses Tutorial eine Einführung zu folgenden Themen geben:

      • Struktur von “MARC 21”-Datensätzen und ihre verschiedenen Serialisierungen (MARCXML, MARCMaker, MARC-in-JSON, ALEPHSEQ)

      • Validierung von “MARC 21”-Datensätzen und häufige Fehler

      • Statistische Auswertung von “MARC 21”-Datensätzen

      • Konvertierung von “MARC 21”-Datensätzen

      • Metadatenextraktion aus “MARC 21”-Datensätzen

Das Tutorial richtet sich an Systembibliothekarinnen und Datenmanagerinnen. Für die meisten Aufgaben werden wir Kommandozeilen-Tools wie yaz-marcdump, marcstats, marcvalidate und catmandu verwenden, daher sollten die TeilnehmerInnen mit den Grundlagen der Kommandozeile (CLI) vertraut sein. Für die Übungen wird ein Rechner mit installierter VirtualBox benötigt. Der Veranstalter stellt im Vorfeld eine “Virtual Machine” (VM, Linux-Gastsystem) zur Verfügung. Die Teilnehmerinnen können ihre eigenen “MARC 21”-Datensets für die praktischen Übungen mitbringen.

Link zum Handbuch: https://jorol.github.io/processing-marc/#/

Leitung: Uwe Sikora (SUB Göttingen)

[Wiederholung des Tutorials vom Vortag]

In diesem Hands-On wird in die grundlegenden Features und Konzepte der XML-Datenbank eXist-DB eingeführt. Zunächst werden wir uns anschauen, wie man eine eXist Instanz konfiguriert und managt.

Im Anschluss verschaffen wir uns einen Überblick über die Struktur von eXist und seiner eigenen Entwicklungsumgebung "eXide". In diesem Rahmen werden die beiden Basiskonzepte - APPs und Libraries - vorgestellt, mit denen man für eXist entwickelt: Wir werden eine eigene eXist Anwendung erstellen und sie mit XML Daten befüllen.

Darauf aufbauend widmen wir uns der Abfage von gespeicherten Daten via XPath und XQuery: Nach einer praktischen Einführung in XPath & XQuery nehmen wir das Abfragekonzept von eXist etwas detailierter unter die Lupe und schreiben eigene Queries. In diesem Rahmen werden wir uns auch mit den Indexierungsmöglichkeiten beschäftigen, die eXist bietet und eigene Indexkonfigurationen erstellen, die wir in einer einfachen Keyword-In-Context Suche implementieren.

Um das Bild abzurunden, betrachten wir in einem Ausblick die RESTXQ Schnittstelle, mit deren Hilfe RESTfull Services in eXist implementiert werden können.

Zielgruppe: XML Entwickler und alle, die mit XML Daten arbeiten

Vorkenntnisse: XML, XPath (wünschenswert), XQuery (wünschenswert)

Voraussetzungen: Eine lokal installierte eXist-db 5.2.0 Instanz (http://exist-db.org/exist/apps/homepage/index.html)

13:00 - 14:00Programmpause
14:00 - 14:30

Vortrag

Clemens Neudecker (SBB Berlin): Volltexte und Formate: ALTO und Co. (Folien)

Der Vortrag stellt die Möglichkeiten und Anforderungen für die Kodierung von mit OCR erzeugten Volltexten am Beispiel des ALTO XML Standard dar. Dabei wird auch auf alternative Formate wie PAGE-XML, hOCR und TEI sowie die Besonderheiten von METS/ALTO für digitalisierte Zeitungen eingegangen.

Folien

14:30 - 15:00

Vortrag

Max-Ferdinand Zeterberg (SUB Göttingen): Dateneingabeformulare für RDF Daten auf Basis von SHACL/DASH (Folien)

Mit Data Shapes [1] gibt es eine SHACL-Erweiterung, die der Erzeugung von Dateneingabeformularen dient. Damit lassen sich die Definition von Formularfeldern einfach mit der Validierung der erzeugten Daten in einem Shapes-Graphen verbinden. In diesem Vortrag wird anhand eines Anwendungsbeispiels gezeigt, wie SHACL/DASH in der Praxis eingesetzt werden kann und welche Herausforderungen dabei zu meistern sind.

[1] http://datashapes.org/dash.html

Folien

15:00 - 15:30Programmpause
15:30 - 17:00

Interaktive Session

Standardisierte Rechteinformationen in Metadaten - Grundlagen und Austausch

Leitung: André Hohmann (SLUB Dresden)

Wiki-Seiten des Vortrags: 2021-04-27 DINI AG KIM Workshop - "Standardisierte Rechteinformationen in Metadaten - Grundlagen und Austausch"

In der interaktiven Session werden die unterschiedlichen Aspekte der Rechteinformationen, Metadatenstandards und Anwendungsbereiche sowie deren Beziehungen zueinander vorgestellt – allerdings mit Schwerpunkt auf Eigenproduktionen der Gedächtnisinstitution. Lizenzierte Ressourcen werden nur teilweise berücksichtigt. Auf dieser Basis schließen sich ein Austausch und Diskussionen an.

Auslöser für die Session ist die Erkenntnis, dass in den vielfältigen Bereichen des Informations- und Metadatenmanagements jeweils unterschiedliche Kenntnisse, Vorstellungen und Anforderungen bestehen. Obwohl in den letzten Jahren in unterschiedlichen Anwendungsbereichen Möglichkeiten zur Erfassung oder Verarbeitung der Rechteinformationen eingeführt wurden (DDB, K10plus, ZDB, …), fehlen für einige Rechteinformationen weiterhin Standards oder Empfehlungen für ein einheitliches Vorgehen. Eine unmittelbare Interoperabilität zwischen allen Bereichen oder Systemen ist ebenfalls noch immer nicht überall möglich.

Das Hauptziel der Session ist die Vermittlung eines Überblicks über das Thema Rechteinformation – auf Basis der Erkenntnisse der Lizenzen Gruppe. Weitere Ziele der Session sind (1) die Stärkung des Bewusstseins für standardisierte Rechteinformationen in den unterschiedlichen Anwendungsbereichen, (2) das Werben für die Erfassung von Rechteinformationen in den Metadaten und (3) die Benennung sowie die perspektivische Zusammenführung der Anforderungen in den verschiedenen Anwendungsbereichen. Zudem sollen Impulse für die Gründung von Arbeitsgruppen für Rechteinformationen in den jeweiligen Anwendungsbereichen gegeben werden. Alternativ steht auch die Mitwirkung in der Lizenzen Gruppe zur Verfügung.

Vorkenntnisse oder Voraussetzungen sind für die Teilnahme nicht erforderlich.


Mittwoch, 28. April 2021

09:30 - 11:30

Hands-On Tutorials

Grundlagen von Datenformaten

Leitung: Jakob Voss (VZG Göttingen)

Der Workshop Grundlagen von Datenformaten soll einen praktischen Überblick wesentlicher Gestaltungsmittel von Datenformaten liefern. Anhand von Beispielen und kleinen Übungen werden die Grundbegriffe Syntax, Schema, Standard und Semantik verdeutlicht dazu passende Werkzeuge vorgestellt.

Vorkenntnisse: Es werden keine Vorkenntnisse vorausgesetzt.

Folien

11:30 - 12:00Programmpause
12:00 - 13:00

Öffentliche Sitzung der DINI AG KIM

13:00 - 14:00Programmpause
14:00 - 14:30

Vortrag

Steffen Rörtgen (GWDG): Vorstellung der neuen KIM-Gruppe Curricula (Folien)

Die Curricula-Gruppe der DINI-AG-KIM befasst sich mit der Beschreibung von Curricula im Bildungsbereich und entsprechenden Metadatenstandards.
Sie bietet eine Austauschplattform für interessierte Personen sowie Fachleute, die gemeinsam Standards und Beispiele sammeln wollen, um Curricula maschinenlesbar darzustellen.

Die Curricula-Gruppe hat sich aus der OER-Metadatenguppe heraus gegründet. Beide Themen sind eng miteinander verwandt, da sie sich mit Metadaten im Bildungsbereich befassen, haben jedoch unterschiedliche Schwerpunkte. Um ihrer jeweiligen Komplexität dauerhaft gerecht zu werden, wurde sich dafür entschieden unter dem Dach der DINI-AG-KIM eine eigenständige Gruppe zu gründen, die sich hiermit befasst.

In dem Vortrag möchte ich kurz die Gruppe und in den ersten Sitzungen identifizierte Themen und Arbeitsschwerpunkte vorstellen.

Folien

14:30 - 15:00

Lightning Talks

  • Kathrin Schnieders (UOS), Sandra Mierz (TIB):  TAPIR - ready to ROR! Nachnutzung von Metadaten aus Datacite Commons (Folien)
  • Julia Beck (FID DK): "Mediatheken der Darstellenden Kunst digital vernetzen" - Austausch zu audiovisuellen Metadaten (Folien)
  • Wolfgang Fahl: PIDs und Personenbezogene Daten im Event-Kontext (Kontakt)
15:00 - 15:15

Abschluss

KIM Workshop 2021 - Wrap-Up

Alex Jahnke (SUB Göttingen), Jana Hentschke (ZBW Hamburg/Kiel)

15:15 - 15:30Programmpause
15:30 - 17:00

Interaktive Session

4. Treffen der Selbsthilfegruppe Verlagsmetadaten

Im Rahmenprogramm des letztjährigen KIM-Workshop online hat sich die offene Erfahrungsaustauschrunde Selbsthilfegruppe Verlagsmetadaten gegründet. Seitdem finden vierteljährlich 90-minütige Videokonferenzen statt. Alle Interessierten sind herzlich dazu eingeladen, egal ob Wiedersehen oder Kennenlernen!



  • Keine Stichwörter