Wann: 04. und 05. Mai 2017

Wo: Universität Mannheim, Fuchs-Petrolub-Festsaal (O 138), Anfahrt

Veranstalter: DINI-AG KIM, UB Mannheim

Teilnahmegebühr: 30 Euro

Teilnehmer: optionale öffentliche Teilnehmerliste 

Twitter: Hashtag #kimws17

Abendprogramm: Restaurant und Bar Enchilada (Selbstzahler), ab 19:30 Uhr

Programm

Donnerstag, 04.05.2017

11:00 - 11:30

Begrüßung

Philipp Zumstein, UB Mannheim

DINI-AG KIM Sprecherinnen
Stefanie Rühle, SUB Göttingen
Jana Hentschke, DNB

11:30 - 13:00

Session: IIIF - International Image Interoperability Framework

Moderation:
Martin Baumgartner, BSB
Stefanie Rühle, SUB Göttingen

Um Digitalisate aus Kultur- und Wissenseinrichtungen sammlungsübergreifend im Web zu präsentieren, wurden Standards entwickelt, die auch komplexe Strukturen abbilden können. Einer dieser Standards, der Metadata Encodingand Transmission Standard (METS), ist seit Anfang dieses Jahrzehnts Voraussetzung für die Förderung von Digitalisierungsprojekten durch die DFG und hat sich damit vor allem in Bibliotheken als der Standard für die Beschreibung von Digitalisaten etabliert. Gleichzeitig wurde seit 2011 mit IIIF ein neuer internationaler Standard entwickelt, der die Nachnutzung von digitalen Bildern im Semantic Web unterstützt. Im Gegensatz zu METS,der vor allem in der Bibliothekswelt verbreitet ist und sich nur unter großem Aufwand in ein Linked Data fähiges Format transformieren lässt, verwendet IIIF Linked Data Technologien und trifft damit in allen Kulturerbe-Einrichtungen sowie in der Forschung auf reges Interesse. Zudem wurden in den letzten Jahren verschiedene Werkzeuge entwickelt,die die Verwendung von IIIF unterstützen.
Im Rahmen der Session wollen wir diskutieren,

  • in welchem Kontext IIIF zurzeit verwendet wird,
  • ob es METS langfristig ersetzen kann/soll,
  • ob eine Empfehlung in Form eines IIIF Anwendungsprofils eine Aufgabe ist, mit der sich KIM im nächsten Jahr beschäftigen will.

Einführung Martin Baumgartner (Folien)
Einführung Stefanie Rühle (Folien)

Zusammenfassung der Diskussion

13:00 - 13:45Mittagspause mit Verpflegung
13:45 - 14:45

Session: Normdaten

Moderation:
Jana Hentschke, DNB


Wikidata als Linkhub für Normdaten

Joachim Neubert, ZBW
Jakob Voss, GBV

Neben allgemeinen Informationen zu Objekten aller Art enthält die freie Datenbank Wikidata Mappings zu mehr als 1.000 verschiedenen Normdateien. Im Vortrag soll gezeigt werden, wie diese Mappings erstellt und genutzt werden können. Dies beinhaltet zunächst eine Übersicht von Besonderheiten und Voraussetzungen zur Verwendung von Wikidata als Normdatei (freie Bearbeitung, Auswahl von Properties ...). Anschließend werden Abfragemöglichkeiten gezeigt, um Normdaten-Verknüpfungen und andere Informationen aus Wikidata zu extrahieren (SPARQL, BEACON, Wikidata-Clients...). Schließlich soll anhand von Mapping-Projekten von ZBW und VZG demonstriert werden, wie Mappings in Wikidata mit Hilfe von Werkzeugen erstellt werden können (Mix'n'match, wdmapper...) und sich eigene Daten abgleichen lassen.

Folien


Entwicklungsprogramm für die GND 2017-2021

Sarah Hartmann, DNB

In diesem Vortrag wird das Entwicklungsprogramm für die GND vorgestellt, das aktuell von allen GND-Partnern zusammen entwickelt wird. Besondere Schwerpunkte des Programms sind die Themen „Vernetzung“ und die „spartenübergreifende Zusammenarbeit“. Das Programm soll auch dazu dienen, Entwicklungsideen in einen größeren Rahmen einzusortieren und zu einem nachhaltigen Erfolg zu führen.

Folien

14:45 - 15:15Pause
15:15 - 16:45

Session: Best Practices der Datendokumentation

Moderation:
Adrian Pohl, hbz

Für die Bereitstellung von Daten im Web gilt: Damit sie von anderen genutzt werden können, sollten Web-APIs, offene Datasets etc. und die verwendeten Metadatenschemas umfassend und leicht verständlich dokumentiert sein. Dieser Workshop lädt ein, Best Practices der Datendokumentation zu diskutieren. Dabei soll es vor allem um die Frage "Wie dokumentieren?" gehen.

Die häufig anzutreffenden tabellarischen Übersichten in einer PDF-Datei stellen eine sehr unbefriedigende Art der Dokumentation dar – sowohl für die Dokumentierenden als auch für die Nutzer/innen. Es sollen Ansätze diskutiert werden, Dokumentation auf verschiedenen Ebenen zu erleichtern und zu verbessern:

  1. bei der Erstellung, Aktualisierung und sonstigen Pflege
  2. bei der Nutzung durch potentielle oder tatsächliche Nutzer der Daten

Nach einer Sammlung bestehender Dokumentationspraktiken und einer Diskussion von Verbesserungsmöglichkeiten wird der beispiel- und annotationszentrierte Ansatz bei der Dokumentation der lobid-API vorgestellt.

Folien, Diskussionsnotizen

16:45 - 17:00Pause
17:00 - 18:00

Öffentliche Sitzung der DINI-AG KIM

Protokoll

Freitag, den 05.05.2017

 09:15 - 09:45

Info: Lizenzangaben - Aktuelle Entwicklungen

Stephan Bartholmei, DDB
Reinhold Heuvelmann, DNB 

Die Veröffentlichung von Ressourcen im Internet setzt in den meisten Fällen die Beschäftigung mit der Frage voraus, unter welcher Lizenz die Ressourcen zur Verfügung gestellt werden. Hierbei müssen verschiedenen Aspekte berücksichtigt werden. Wir beschäftigen uns im Rahmen von zwei Kurzvorträgen mit zwei dieser Aspekte:

  • Reinhold Heuvelmann stellt die aktuellen Entwicklungen bei der Weitergabe von Lizenzinformationen in MARC-21-Daten vor (Folien)
  • Stephan Bartholmei informiert über die Weiterentwicklung von Rechteinformationen im Umfeld von Europeana und was dies für die DDB bedeutet.
 09:45 - 10:15

Lightning Talks

Martin Mandausch: Metadatenstandards für Open Educational Resources? (bereits am Vortag)

Felix Lohmeier: Transformation von Metadaten in komplexe XML-Formate mit OpenRefine (Folien)

Jakob Voss: Nutzt BARTOC.org zum Nachweis von KOS!

Maike Kittelmann: Wenn Datenbanken und Repositorien überfordert sind: Gibt es geeignete Tools zum Identifizieren, Referenzieren und Organisieren großer, heterogener Datenmengen?

 10:15 - 10:30Pause
  10:30 - 12:00Hands-On-Tutorials, Teil I

 

Option 1:
In the Beginning … Was the Command Line
Option 2:
(Meta)Datenmanagement mit knime

Leitung: Johann Rolschewski und Carsten Klee, Staatsbibliothek zu Berlin

Bis zur Einführung von Graphical User Interfaces (GUI) waren Command Line Interfaces (CLI) die primären Anwendungen für die Interaktion mit Computersystemen. Für viele Aufgaben sind sie nach wie vor sehr gut geeignet: man kann sehr große Dateien (> Gigabyte) verarbeiten, die Ergebnisse eines CLI-Programms können an weitere übergeben werden, so lassen sich komplexe und wiederholende Aufgaben einfach lösen. Dieser Workshop richtet sich an Anfänger: Es wird gezeigt wie man per CLI Dateien und Ordner organisiert, Daten verarbeitet und mit Web Application Programming Interfaces (API) interagiert. Neben den gängigen Unix-Anwendungen werden weitere CLI-Anwendungen vorgestellt, wie catmandu ("ETL data toolkit"), csvkit ("suite of command-line tools for converting to and working with CSV"), jq ("a lightweight and flexible command-line JSON processor"), XMLStarlet ("command line XML toolkit") und YAZ ("toolkit for Z39.50/SRW/SRU protocols and MARC records").

Folien

Zielgruppe: Personen, die ihre fehlenden Command Line-Kenntnisse manchmal bereuen und motiviert sind, selber mit Daten (Metadaten, große Datenmengen, ...) zu hantieren.

Vorkenntnisse: keine

Voraussetzung: Laptop mit der Software VirtualBox. Die Veranstalter werden vor dem Workshop eine virtuelle Maschine (VM) zum Download bereitstellen.


 

 

Leitung: Magnus Pfeffer, HdM Stuttgart

knime hat sich als eine offene Plattform zur Verarbeitung und Auswertung unterschiedlichster Daten etabliert. Im Workshop sollen die Teilnehmer* erste Erfahrungen mit der Plattform machen und einfache Abläufe der Datenverarbeitung wie Laden eines Datenformats, Überführen in eine interne Abbildung, Verarbeitung der Daten und Speichern in einem Datenformat selbst durchführen.

Folien

Zielgruppe: Personen, die bereits erste Kenntnisse zu Datenformaten im bibliothekarischen Umfeld besitzen und eine Arbeitsumgebung kennenlernen wollen, in der Analysen, Auswertungen und Konvertierungen auch ohne Programmierung möglich sind

Vorkenntnisse: Es sind keine besonderen Vorkenntnisse erforderlich, die Oberfläche von knime ist grafisch und vergleichsweise intuitiv.

Voraussetzung: Ein eigener Notebook mit mindestens 4GB Hauptspeicher und einer CPU oberhalb der "Atom" Klasse ist erforderlich. Ein 64-bit System wird empfohlen. Knime ist open source und steht für alle relevanten Betriebssysteme zur Verfügung. Die Teilnehmer sollten vorab die neuste Version mit den freien Erweiterungen installieren.

 12:00 - 12:45Mittagspause mit Verpflegung
 12:45 - 14:30

Hands-On-Tutorials, Teil II

Option 1:

In the Beginning … Was the Command Line

Option 2:

(Meta)Datenmanagement mit knime

 14:30 - 15:00

Closing

Stefanie Rühle, Jana Hentschke