...
11:00 - 11:30 | Begrüßung |
11:30 - 13:00 | IIIF - International Image Interoperability Framework (Arbeitstitel) Einführung, Austausch, Diskussion. Details folgen. |
13:00 - 13:45 | Mittagspause mit Verpflegung
|
13:45 - 14:15 | Lizenzangaben - Aktuelle Entwicklungen (Arbeitstitel) Beschreibung folgt. |
14:15 - 14:45 | Normdaten und Wikidata (Arbeitstitel)Wikidata als Linkhub für Normdaten Joachim Neubert, ZBW Jakob Voss, GBV Neben allgemeinen Informationen zu Objekten aller Art enthält die freie Datenbank Wikidata Mappings zu mehr als 1.000 verschiedenen Normdateien. Im Vortrag soll gezeigt werden, wie diese Mappings erstellt und genutzt werden können. Dies beinhaltet zunächst eine Übersicht von Besonderheiten und Voraussetzungen zur Verwendung von Wikidata als Normdatei (freie Bearbeitung, Auswahl von Properties ...). Anschließend werden Abfragemöglichkeiten gezeigt, um Normdaten-Verknüpfungen und andere Informationen aus Wikidata zu extrahieren (SPARQL, BEACON, Wikidata-Clients...). Schließlich soll anhand von Mapping-Projekten von ZBW und VZG demonstriert werden, wie Mappings in Wikidata mit Hilfe von Werkzeugen erstellt werden können (Mix'n'match, wdmapper...) und sich eigene Daten abgleichen lassen. |
14:45 - 14:15 | Pause |
15:15 - 16:45 | Daten dokumentieren (Arbeitstitel)Best Practices der Datendokumentation Adrian Pohl, hbz |
16:45 - 17:00 | Pause |
17:00 - 18:00 | Öffentliche Sitzung der DINI-AG KIM Agenda
|
Freitag, den 05.05.2017
09:00 - 09:45 | Werkstattbericht: Zusammenlegung der Katalogisierungsdatenbanken von SWB und GBV Andreas Krausz, GBV Zwei der deutschen Bibliotheksverbünde bereiten sich derzeit auf die Zusammenführung ihrer Verbundkataloge vor, die Ende des Jahres vollzogen werden soll. Die Voraussetzungen sind günstig: beide setzen bereits das gleiche Softwareprodukt ein und die internen Metadatenformate teilen denselben Namen. Doch ganz so einfach wie es klingt ist es natürlich nicht! Dieser Werkstattbericht soll Einblicke geben, was organisatorisch und technisch zu tun bleibt, welches Vorgehen dafür gewählt wurde, welche Herausforderungen die Vereinheitlichung der Metadatenformate am Ende birgt und welche teilenswerten Erkenntnisse dabei bereits gemacht wurden. |
09:45 - 10:15 | Lightning Talks Wer mag, kann spontan einige Minuten über ein (Metadaten-)Thema reden, das sie/ihn aktuell beschäftigt. Dabei können z.B. - über Projekte, aktuelle Aktivitäten und Erkenntnisse informiert werden ("Wir machen gerade ... vielleicht kann jemand davon profitieren oder möchte sich mit uns dazu austauschen")
- eigene Fragen zur Diskussion gestellt werden ("Hat jemand eine Meinung zu ... ?", "Weiß jemand etwas über ...")
|
10:15 - 10:30 | Pause |
10:30 - 12:00 | Hands-On-Tutorials, Teil I Option 1: In the Beginning … Was the Command Line | Option 2: (Meta)Datenmanagement mit knime |
---|
Leitung: Johann Rolschewski und Carsten Klee, Staatsbibliothek zu Berlin Bis zur Einführung von Graphical User Interfaces (GUI) waren Command Line Interfaces (CLI) die primären Anwendungen für die Interaktion mit Computersystemen. Für viele Aufgaben sind sie nach wie vor sehr gut geeignet: man kann sehr große Dateien (> Gigabyte) verarbeiten, die Ergebnisse eines CLI-Programms können an weitere übergeben werden, so lassen sich komplexe und wiederholende Aufgaben einfach lösen. Dieser Workshop richtet sich an Anfänger: Es wird gezeigt wie man per CLI Dateien und Ordner organisiert, Daten verarbeitet und mit Web Application Programming Interfaces (API) interagiert. Neben den gängigen Unix-Anwendungen werden weitere CLI-Anwendungen vorgestellt, wie catmandu ("ETL data toolkit"), csvkit ("suite of command-line tools for converting to and working with CSV"), jq ("a lightweight and flexible command-line JSON processor"), XMLStarlet ("command line XML toolkit") und YAZ ("toolkit for Z39.50/SRW/SRU protocols and MARC records"). Zielgruppe: Personen, die ihre fehlenden Command Line-Kenntnisse manchmal bereuen und motiviert sind, selber mit Daten (Metadaten, große Datenmengen, ...) zu hantieren. Vorkenntnisse: keine Voraussetzung: Laptop mit der Software VirtualBox. Die Veranstalter werden vor dem Workshop eine virtuelle Maschine (VM) zum Download bereitstellen. | Leitung: Magnus Pfeffer, HdM Stuttgart knime hat sich als eine offene Plattform zur Verarbeitung und Auswertung unterschiedlichster Daten etabliert. Im Workshop sollen die Teilnehmer* erste Erfahrungen mit der Plattform machen und einfache Abläufe der Datenverarbeitung wie Laden eines Datenformats, Überführen in eine interne Abbildung, Verarbeitung der Daten und Speichern in einem Datenformat selbst durchführen. Zielgruppe: Personen, die bereits erste Kenntnisse zu Datenformaten im bibliothekarischen Umfeld besitzen und eine Arbeitsumgebung kennenlernen wollen, in der Analysen, Auswertungen und Konvertierungen auch ohne Programmierung möglich sind Vorkenntnisse: Es sind keine besonderen Vorkenntnisse erforderlich, die Oberfläche von knime ist grafisch und vergleichsweise intuitiv.
Voraussetzung: Ein eigener Notebook mit mindestens 4GB Hauptspeicher und einer CPU oberhalb der "Atom" Klasse ist erforderlich. Ein 64-bit System wird empfohlen. Knime ist open source und steht für alle relevanten Betriebssysteme zur Verfügung. Die Teilnehmer sollten vorab die neuste Version mit den freien Erweiterungen installieren. |
|
12:00 - 12:45 | Mittagspause mit Verpflegung
|
12:45 - 14:15 | Hands-On-Tutorials, Teil II Option 1: In the Beginning … Was the Command Line | Option 2: (Meta)Datenmanagement mit knime |
---|
|
14:15 - 14:30 | Closing Stefanie Rühle, Jana Hentschke |
Wikidata als Linkhub für Normdaten