Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

Wann: 

26. bis 28. April 2021

Wo:

online

Veranstalter:

DINI-AG KIMUB Mannheim
Programmkomitee+
Organisationsteam:

Tracy Arndt (DNB), Alex Jahnke (SUB Göttingen), Jana Hentschke (ZBW Hamburg), Sylvia Hulin (UB Mannheim), Stefanie Rühle (SUB Göttingen), Jakob Voß (GBV), Philipp Zumstein (UB Mannheim)

Twitter: 

Hashtag #kimws21
AnmeldungKontakt:Außer an den Hands-On Tutorials kann an allen Veranstaltungen ohne Anmeldung teilgenommen werden. Die Anmeldung für die Hands-On Tutorials ist unten jeweils aus den Tutorial-Beschreibungen verlinkt.
Zugangslink:

https://bbb.bib.uni-mannheim.de/b/phi-ydd-dce

Als technische Plattform wird BigBlueButton eingesetzt. Eine Registrierung für die Plattform ist nicht notwendig.

Kontakt:kim-info@dini.de

Programm

Inhalt
minLevel2
typeflat

Montag, 26. April 2021


Programm

Inhalt
minLevel2
typeflat

Montag, 26. April 2021

09:30 - 13:00

Hands-On Tutorials

(Info) Anmeldung erforderlich

Option 1: Einführung in die XML Datenbank eXist-dbOption 2: Von 0 auf Triple Store in 180 Minuten

Leitung: Uwe Sikora (SUB Göttingen)

Erweitern
titleBeschreibung...

In diesem Hands-On wird in die grundlegenden Features und Konzepte der XML-Datenbank eXist-DB eingeführt. Zunächst werden wir uns anschauen, wie man eine eXist Instanz konfiguriert und managt.

Im Anschluss verschaffen wir uns einen Überblick über die Struktur von eXist und seiner eigenen Entwicklungsumgebung "eXide". In diesem Rahmen werden die beiden Basiskonzepte - APPs und Libraries - vorgestellt, mit denen man für eXist entwickelt: Wir werden eine eigene eXist Anwendung erstellen und sie mit XML Daten befüllen.

Darauf aufbauend widmen wir uns der Abfage von gespeicherten Daten via XPath und XQuery: Nach einer praktischen Einführung in XPath & XQuery nehmen wir das Abfragekonzept von eXist etwas detailierter unter die Lupe und schreiben eigene Queries. In diesem Rahmen werden wir uns auch mit den Indexierungsmöglichkeiten beschäftigen, die eXist bietet und eigene Indexkonfigurationen erstellen, die wir in einer einfachen Keyword-In-Context Suche implementieren.

Um das Bild abzurunden, betrachten wir in einem Ausblick die RESTXQ Schnittstelle, mit deren Hilfe RESTfull Services in eXist implementiert werden können.

Zielgruppe: XML Entwickler und alle, die mit XML Daten arbeiten

Vorkenntnisse: XML, XPath (wünschenswert), XQuery (wünschenswert)

Voraussetzungen: Eine lokal installierte eXist-db 5.2.0 Instanz (http://exist-db.org/exist/apps/homepage/index.html)


Leitung: Andreas Walker (SUB Göttingen)

Erweitern
titleBeschreibung...

Wie baue ich eigentlich meinen eigenen Triple Store auf? In nur 180 Minuten soll dieses Hands-On-Tutorial diese grundlegende Frage beantworten. In einem ersten Teil wollen wir zunächst anhand eines existierenden Triple Stores (z.B. Wikidata) lernen, wie Daten in einem Triple Store strukturiert sind, und wie man sie mit Hilfe der Sprache SPARQL abfragen kann. Nach der Pause nutzen wir diese neuen Kenntnisse dann, um unsere eigenen Daten als RDF/Turtle aufzubereiten und in einem Triple Store zu hosten. Wir setzen dabei auf die Open Source-Software Apache Fuseki. Ziel ist es, die TeilnehmerInnen über die erste Hürde des Einstiegs ins Semantic Web zu bringen, damit sie selbstständig weiterdenken und -experimentieren können.

Zielgruppe: Personen mit Interesse am Semantic Web und Spaß am Experimentieren

Vorkenntnisse: Interesse am Umgang mit Daten und Datenbanken. Vorkenntnisse mit SPARQL sind sehr willkommen, aber nicht notwendig.

Voraussetzungen: Für den ersten Teil genügt ein Notebook mit Internetzugang und modernem Webbrowser. Im zweiten Teil sollten die TeilnehmerInnen idealerweise über Adminrechte auf ihrem Rechner verfügen und mindestens Java 8 installiert haben, um eine eigene Fuseki-Instanz betreiben zu können. Wenn das nicht möglich ist, versuchen wir aber trotzdem Lösungen für alle zu finden (z.B. Arbeit in Gruppen, Fuseki auf externen Servern). Eine kurze Vorab-

09:30 - 13:00

Hands-On Tutorials

In diesem Hands-On wird in die grundlegenden Features und Konzepte der XML-Datenbank eXist-DB eingeführt. Zunächst werden wir uns anschauen, wie man eine eXist Instanz konfiguriert und managt.

Im Anschluss verschaffen wir uns einen Überblick über die Struktur von eXist und seiner eigenen Entwicklungsumgebung "eXide". In diesem Rahmen werden die beiden Basiskonzepte - APPs und Libraries - vorgestellt, mit denen man für eXist entwickelt: Wir werden eine eigene eXist Anwendung erstellen und sie mit XML Daten befüllen.

Darauf aufbauend widmen wir uns der Abfage von gespeicherten Daten via XPath und XQuery: Nach einer praktischen Einführung in XPath & XQuery nehmen wir das Abfragekonzept von eXist etwas detailierter unter die Lupe und schreiben eigene Queries. In diesem Rahmen werden wir uns auch mit den Indexierungsmöglichkeiten beschäftigen, die eXist bietet und eigene Indexkonfigurationen erstellen, die wir in einer einfachen Keyword-In-Context Suche implementieren.

Um das Bild abzurunden, betrachten wir in einem Ausblick die RESTXQ Schnittstelle, mit deren Hilfe RESTfull Services in eXist implementiert werden können.

Zielgruppe: XML Entwickler und alle, die mit XML Daten arbeiten

Vorkenntnisse: XML, XPath (wünschenswert), XQuery (wünschenswert)

Voraussetzungen: Eine lokal installierte eXist-db 5.2.0 Instanz (http://exist-db.org/exist/apps/homepage/index.html)

Anmeldung: Die maximale Teilnehmerzahl für dieses Tutorial ist bereits erreicht.
(Info) Wahrscheinlich wird eine genügend große zweite Gruppe für einen zusätzlichen Termin am
27.4.2021 um 09:30 Uhr zusammen kommen (Interessensbekundungen bitte dort, siehe Programm weiter unten).

Leitung: Andreas Walker (SUB Göttingen)

Option 1: Einführung in die XML Datenbank eXist-dbOption 2: Von 0 auf Triple Store in 180 Minuten

Leitung: Uwe Sikora (SUB Göttingen)

Erweitern
titleBeschreibung...
Erweitern
titleBeschreibung...

Wie baue ich eigentlich meinen eigenen Triple Store auf? In nur 180 Minuten soll dieses Hands-On-Tutorial diese grundlegende Frage beantworten. In einem ersten Teil wollen wir zunächst anhand eines existierenden Triple Stores (z.B. Wikidata) lernen, wie Daten in einem Triple Store strukturiert sind, und wie man sie mit Hilfe der Sprache SPARQL abfragen kann. Nach der Pause nutzen wir diese neuen Kenntnisse dann, um unsere eigenen Daten als RDF/Turtle aufzubereiten und in einem Triple Store zu hosten. Wir setzen dabei auf die Open Source-Software Apache Fuseki. Ziel ist es, die TeilnehmerInnen über die erste Hürde des Einstiegs ins Semantic Web zu bringen, damit sie selbstständig weiterdenken und -experimentieren können.

Zielgruppe: Personen mit Interesse am Semantic Web und Spaß am Experimentieren

Vorkenntnisse: Interesse am Umgang mit Daten und Datenbanken. Vorkenntnisse mit SPARQL sind sehr willkommen, aber nicht notwendig.

Voraussetzungen: Für den ersten Teil genügt ein Notebook mit Internetzugang und modernem Webbrowser. Im zweiten Teil sollten die TeilnehmerInnen idealerweise über Adminrechte auf ihrem Rechner verfügen und mindestens Java 8 installiert haben, um eine eigene Fuseki-Instanz betreiben zu können. Wenn das nicht möglich ist, versuchen wir aber trotzdem Lösungen für alle zu finden (z.B. Arbeit in Gruppen, Fuseki auf externen Servern). Eine kurze Vorab-E-Mail in diesem Fall an walker@sub.uni-goettingen.de spart uns Zeit im Workshop

Anmeldung: Die maximale Teilnehmerzahl für dieses Tutorial ist bereits erreicht und die Warteliste ist auch schon sehr voll, daher können wir leider keine weiteren Interessensbekundungen für dieses Tutorial mehr berücksichtigen.

13:00 - 14:00Mittagspause



13:00 - 14:00Programmpause14:00 14:00 - 14:10

Begrüßung

Alex Jahnke (SUB Göttingen), Jana Hentschke (ZBW Hamburg/Kiel) (DINI-AG KIM AG-Sprecher und -Sprecherin)

14:10 - 14:40

Vortrag

Paul Vierkant (datacite): Datenkuratierung, Entwicklung eines Metadatenschemas und Abfragemöglichkeiten für ROR-IDs (Folien online und direkt als PDF)

Erweitern
titleBeschreibung...

Das Research Organization Registry (ROR) hat sich als offener Persistent Identifier (PID) für wissenschaftliche Einrichtungen auf den Weg gemacht ein globaler Standard zu werden. DataCite, California Digital Library und Crossref stellen diesen 2019 gestarteten Open Science Service bereit. Dieser Beitrag stellt ROR, sein Metadatenschema, seine API-Funktionen und den Ansatz der „community-based“ Datenkuration vor. Zudem werden Einblicke in die Ergebnisse der jüngsten Umfrage zu Organisations-IDs in Deutschland im Rahmen des Projekts ORCID DE gegeben. Feedback im Rahmen des Vortrags zu ROR ist gern gesehen.


14:40 - 15:10

Vortrag

Thomas Baker (DCMI): Jenseits von Simple und Qualified – Dublin Core heute (Folien)

Erweitern
titleBeschreibung...

"Metadaten" hiess immer Datenbanken oder Formate - massgeschneiderte Strukturen für geschlossene Systeme. Die wilde Vielfalt des offenen WWW führte jedoch zuLinked zu Linked Data: Metadaten als Bündel einzelner Aussagen, die auf der Basis bekannter Vokabulare und generischer Datenmodelle rekombinierbar sind.

Die älteren und neueren Sichtweisen bestehen nebeneinander noch im Anwenderkreis um Dublin Core, werden jedoch von der Idee des Anwenderprofils überbrückt, die ihrerseits von neuen Techniken für die Validierung offener Daten (ShEx und SHACL) verstärkt wird.

Folien mit Notizen


15:00 10 - 15:30KaffeepauseProgrammpause15:30 - 17:00

Interaktive Session

Metadaten in der Lehre

Moderation: Tracy Arndt (DNB)

Erweitern
titleBeschreibung...

In dieser partizipativen Session wollen wir über die Inhalte und den Stellenwert von Metadaten in den einschlägigen deutschsprachigen Studiengängen diskutieren. Darüber hinaus wollen wir über die Anforderungen aus der Praxis im Bereich des Metadatenmanagements sprechen. Welche für den berufsalltag notwendigen Kompetenzen werden bereits in der Lehre vermittelt und welche scheinen noch offen? Sollten bestimmte Formate, Tools und theoretische Betrachtungen vermittelt werden?


...

Dienstag, 27. April 2021

2002 erklärte Roy Tennant “MARC Must Die”. Aktuell ist das Format “MARC 21” immer noch das meist genutzte Format zum Austausch und Katalogisierung von Metadaten in Bibliotheken. Selbst unsere “Next Generation Library Systems” verwenden diesen Standard aus den 60er Jahren. Da wir auch in den kommenden Jahren mit “MARC 21” arbeiten werden, soll dieses Tutorial eine Einführung zu folgenden Themen geben:

      • Struktur von “MARC 21”-Datensätzen und ihre verschiedenen Serialisierungen (MARCXML, MARCMaker, MARC-in-JSON, ALEPHSEQ)

      • Validierung von “MARC 21”-Datensätzen und häufige Fehler

      • Statistische Auswertung von “MARC 21”-Datensätzen

      • Konvertierung von “MARC 21”-Datensätzen

      • Metadatenextraktion aus “MARC 21”-Datensätzen

Das Tutorial richtet sich an Systembibliothekarinnen und Datenmanagerinnen. Für die meisten Aufgaben werden wir Kommandozeilen-Tools wie yaz-marcdump, marcstats, marcvalidate und catmandu verwenden, daher sollten die TeilnehmerInnen mit den Grundlagen der Kommandozeile (CLI) vertraut sein. Für die Übungen wird ein Rechner mit installierter VirtualBox benötigt. Der Veranstalter stellt im Vorfeld eine “Virtual Machine” (VM, Linux-Gastsystem) zur Verfügung. Die Teilnehmerinnen können ihre eigenen “MARC 21”-Datensets für die praktischen Übungen mitbringen.

Anmeldung: Die maximale Teilnehmerzahl für dieses Tutorial ist bereits erreicht. Wenn Sie möchten, nehmen wir Sie gerne auf eine Warteliste auf und informieren Sie, wenn kurzfristig doch noch ein Platz frei wird oder wir einen weitere Termin anbieten können. Bitte teilen Sie uns das unter Interessensbekundung an kim-info@dini.de mit.(Info) Update 13.04.2021: wahrscheinlich erweiterte Kapazitäten für einen Wiederholung des beliebten Tutorials vom Vortag
09:30 - 13:00

Hands-On Tutorials

(Info)Anmeldung erforderlich

Option 1:

Von 0 auf Triple Store in 180 Minuten

Option 2:

Processing MARC

Bei genügend Interesse:

Option 3:

Einführung in die XML Datenbank eXist-db

Leitung: Andreas Walker (SUB Göttingen)

Erweitern
titleBeschreibung...

[Wiederholung des Tutorials vom Vortag]

Wie baue ich eigentlich meinen eigenen Triple Store auf? In nur 180 Minuten soll dieses Hands-On-Tutorial diese grundlegende Frage beantworten. In einem ersten Teil wollen wir zunächst anhand eines existierenden Triple Stores (z.B. Wikidata) lernen

, wie Daten in einem Triple Store strukturiert sind

,

und

wie

man sie mit Hilfe der Sprache SPARQL abfragen kann. Nach der Pause nutzen wir diese neuen Kenntnisse dann, um unsere eigenen

Daten

als RDF/Turtle aufzubereiten und

Zielgruppe: Personen mit Interesse am Semantic Web und Spaß am Experimentieren

Vorkenntnisse: Interesse am Umgang mit Daten und Datenbanken. Vorkenntnisse mit SPARQL sind sehr willkommen, aber nicht notwendig.

Voraussetzungen: Für den ersten Teil genügt ein Notebook mit Internetzugang und modernem Webbrowser. Im zweiten Teil sollten die TeilnehmerInnen idealerweise über Adminrechte auf ihrem Rechner verfügen und mindestens Java 8 installiert haben, um eine eigene Fuseki-Instanz betreiben zu können. Wenn das nicht möglich ist, versuchen wir aber trotzdem Lösungen für alle zu finden (z.B. Arbeit in Gruppen, Fuseki auf externen Servern). Eine kurze Vorab-E-Mail in diesem Fall an walker@sub.uni-goettingen.de spart uns Zeit im Workshop

Anmeldung: Die maximale Teilnehmerzahl für dieses Tutorial ist bereits erreicht und die Warteliste ist auch schon sehr voll, daher können wir leider keine weiteren Interessensbekundungen für dieses Tutorial mehr berücksichtigen.

Leitung: Johann Rolschewski (SBB Berlin)

Erweitern
titleBeschreibung...

in einem Triple Store