Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.
Kommentar: add link to manual "Processing MARC"

...

09:30 - 13:00

Hands-On Tutorials

(Info)Anmeldung erforderlich

Option 1:

Von 0 auf Triple Store in 180 Minuten

Option 2:

Processing MARC

Option 3:

Einführung in die XML Datenbank eXist-db

Leitung: Andreas Walker (SUB Göttingen)

Erweitern
titleBeschreibung...

[Wiederholung des Tutorials vom Vortag]

Wie baue ich eigentlich meinen eigenen Triple Store auf? In nur 180 Minuten soll dieses Hands-On-Tutorial diese grundlegende Frage beantworten. In einem ersten Teil wollen wir zunächst anhand eines existierenden Triple Stores (z.B. Wikidata) lernen, wie Daten in einem Triple Store strukturiert sind, und wie man sie mit Hilfe der Sprache SPARQL abfragen kann. Nach der Pause nutzen wir diese neuen Kenntnisse dann, um unsere eigenen Daten als RDF/Turtle aufzubereiten und in einem Triple Store zu hosten. Wir setzen dabei auf die Open Source-Software Apache Fuseki. Ziel ist es, die TeilnehmerInnen über die erste Hürde des Einstiegs ins Semantic Web zu bringen, damit sie selbstständig weiterdenken und -experimentieren können.

Zielgruppe: Personen mit Interesse am Semantic Web und Spaß am Experimentieren

Vorkenntnisse: Interesse am Umgang mit Daten und Datenbanken. Vorkenntnisse mit SPARQL sind sehr willkommen, aber nicht notwendig.

Voraussetzungen: Für den ersten Teil genügt ein Notebook mit Internetzugang und modernem Webbrowser. Im zweiten Teil sollten die TeilnehmerInnen idealerweise über Adminrechte auf ihrem Rechner verfügen und mindestens Java 8 installiert haben, um eine eigene Fuseki-Instanz betreiben zu können. Wenn das nicht möglich ist, versuchen wir aber trotzdem Lösungen für alle zu finden (z.B. Arbeit in Gruppen, Fuseki auf externen Servern). Eine kurze Vorab-E-Mail in diesem Fall an walker@sub.uni-goettingen.de spart uns Zeit im Workshop

Anmeldung: Die maximale Teilnehmerzahl für dieses Tutorial ist bereits erreicht und die Warteliste ist auch schon sehr voll, daher können wir leider keine weiteren Interessensbekundungen für dieses Tutorial mehr berücksichtigen.


Leitung: Johann Rolschewski (SBB Berlin)

Erweitern
titleBeschreibung...

2002 erklärte Roy Tennant “MARC Must Die”. Aktuell ist das Format “MARC 21” immer noch das meist genutzte Format zum Austausch und Katalogisierung von Metadaten in Bibliotheken. Selbst unsere “Next Generation Library Systems” verwenden diesen Standard aus den 60er Jahren. Da wir auch in den kommenden Jahren mit “MARC 21” arbeiten werden, soll dieses Tutorial eine Einführung zu folgenden Themen geben:

      • Struktur von “MARC 21”-Datensätzen und ihre verschiedenen Serialisierungen (MARCXML, MARCMaker, MARC-in-JSON, ALEPHSEQ)

      • Validierung von “MARC 21”-Datensätzen und häufige Fehler

      • Statistische Auswertung von “MARC 21”-Datensätzen

      • Konvertierung von “MARC 21”-Datensätzen

      • Metadatenextraktion aus “MARC 21”-Datensätzen

Das Tutorial richtet sich an Systembibliothekarinnen und Datenmanagerinnen. Für die meisten Aufgaben werden wir Kommandozeilen-Tools wie yaz-marcdump, marcstats, marcvalidate und catmandu verwenden, daher sollten die TeilnehmerInnen mit den Grundlagen der Kommandozeile (CLI) vertraut sein. Für die Übungen wird ein Rechner mit installierter VirtualBox benötigt. Der Veranstalter stellt im Vorfeld eine “Virtual Machine” (VM, Linux-Gastsystem) zur Verfügung. Die Teilnehmerinnen können ihre eigenen “MARC 21”-Datensets für die praktischen Übungen mitbringen.

Anmeldung: Die maximale Teilnehmerzahl für dieses Tutorial ist bereits erreicht. Wenn Sie möchten, nehmen wir Sie gerne auf eine Warteliste auf und informieren Sie, wenn kurzfristig doch noch ein Platz frei wird oder wir einen weitere Termin anbieten können. Bitte teilen Sie uns das unter Interessensbekundung an kim-info@dini.de mit.

Link zum Handbuch: https://jorol.github.io/processing-marc/#/


Leitung: Uwe Sikora (SUB Göttingen)

Erweitern
titleBeschreibung...

[Wiederholung des Tutorials vom Vortag]

In diesem Hands-On wird in die grundlegenden Features und Konzepte der XML-Datenbank eXist-DB eingeführt. Zunächst werden wir uns anschauen, wie man eine eXist Instanz konfiguriert und managt.

Im Anschluss verschaffen wir uns einen Überblick über die Struktur von eXist und seiner eigenen Entwicklungsumgebung "eXide". In diesem Rahmen werden die beiden Basiskonzepte - APPs und Libraries - vorgestellt, mit denen man für eXist entwickelt: Wir werden eine eigene eXist Anwendung erstellen und sie mit XML Daten befüllen.

Darauf aufbauend widmen wir uns der Abfage von gespeicherten Daten via XPath und XQuery: Nach einer praktischen Einführung in XPath & XQuery nehmen wir das Abfragekonzept von eXist etwas detailierter unter die Lupe und schreiben eigene Queries. In diesem Rahmen werden wir uns auch mit den Indexierungsmöglichkeiten beschäftigen, die eXist bietet und eigene Indexkonfigurationen erstellen, die wir in einer einfachen Keyword-In-Context Suche implementieren.

Um das Bild abzurunden, betrachten wir in einem Ausblick die RESTXQ Schnittstelle, mit deren Hilfe RESTfull Services in eXist implementiert werden können.

Zielgruppe: XML Entwickler und alle, die mit XML Daten arbeiten

Vorkenntnisse: XML, XPath (wünschenswert), XQuery (wünschenswert)

Voraussetzungen: Eine lokal installierte eXist-db 5.2.0 Instanz (http://exist-db.org/exist/apps/homepage/index.html)

Anmeldung:
per Mail an kim-info@dini.de



13:00 - 14:00Programmpause
14:00 - 14:30

Vortrag

Clemens Neudecker (SBB Berlin): Volltexte und Formate: ALTO und Co.

Erweitern
titleBeschreibung...

Der Vortrag stellt die Möglichkeiten und Anforderungen für die Kodierung von mit OCR erzeugten Volltexten am Beispiel des ALTO XML Standard dar. Dabei wird auch auf alternative Formate wie PAGE-XML, hOCR und TEI sowie die Besonderheiten von METS/ALTO für digitalisierte Zeitungen eingegangen.


14:30 - 15:00

Vortrag

Max-Ferdinand Zeterberg (SUB Göttingen): Dateneingabeformulare für RDF Daten auf Basis von SHACL/DASH

Erweitern
titleBeschreibung ...

Mit Data Shapes [1] gibt es eine SHACL-Erweiterung, die der Erzeugung von Dateneingabeformularen dient. Damit lassen sich die Definition von Formularfeldern einfach mit der Validierung der erzeugten Daten in einem Shapes-Graphen verbinden. In diesem Vortrag wird anhand eines Anwendungsbeispiels gezeigt, wie SHACL/DASH in der Praxis eingesetzt werden kann und welche Herausforderungen dabei zu meistern sind.

[1] http://datashapes.org/dash.html


15:00 - 15:30Programmpause
15:30 - 17:00

Interaktive Session

Standardisierte Rechteinformationen in Metadaten - Grundlagen und Austausch

Leitung: André Hohmann (SLUB Dresden)

Erweitern
titleBeschreibung...

In der interaktiven Session werden die unterschiedlichen Aspekte der Rechteinformationen, Metadatenstandards und Anwendungsbereiche sowie deren Beziehungen zueinander vorgestellt – allerdings mit Schwerpunkt auf Eigenproduktionen der Gedächtnisinstitution. Lizenzierte Ressourcen werden nur teilweise berücksichtigt. Auf dieser Basis schließen sich ein Austausch und Diskussionen an.

Auslöser für die Session ist die Erkenntnis, dass in den vielfältigen Bereichen des Informations- und Metadatenmanagements jeweils unterschiedliche Kenntnisse, Vorstellungen und Anforderungen bestehen. Obwohl in den letzten Jahren in unterschiedlichen Anwendungsbereichen Möglichkeiten zur Erfassung oder Verarbeitung der Rechteinformationen eingeführt wurden (DDB, K10plus, ZDB, …), fehlen für einige Rechteinformationen weiterhin Standards oder Empfehlungen für ein einheitliches Vorgehen. Eine unmittelbare Interoperabilität zwischen allen Bereichen oder Systemen ist ebenfalls noch immer nicht überall möglich.

Das Hauptziel der Session ist die Vermittlung eines Überblicks über das Thema Rechteinformation – auf Basis der Erkenntnisse der Lizenzen Gruppe. Weitere Ziele der Session sind (1) die Stärkung des Bewusstseins für standardisierte Rechteinformationen in den unterschiedlichen Anwendungsbereichen, (2) das Werben für die Erfassung von Rechteinformationen in den Metadaten und (3) die Benennung sowie die perspektivische Zusammenführung der Anforderungen in den verschiedenen Anwendungsbereichen. Zudem sollen Impulse für die Gründung von Arbeitsgruppen für Rechteinformationen in den jeweiligen Anwendungsbereichen gegeben werden. Alternativ steht auch die Mitwirkung in der Lizenzen Gruppe zur Verfügung.

Vorkenntnisse oder Voraussetzungen sind für die Teilnahme nicht erforderlich.


...