Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

« Vorherige Version anzeigen Version 26 Aktuelle »

Wann: 30. und 31. März 2015  

Wo: Universität Mannheim, Fuchs-Petrolub-Festsaal (O 138), Anfahrt

Veranstalter: DINI AG KIM, UB Mannheim

Teilnahmegebühr: 30 Euro

Zahl der Teilnehmer: ist auf 60 Personen begrenzt

Abendprogramm: Restaurant und Bar Enchilada (Selbstzahler), ab 19:00 Uhr

 

Programm

Montag, 30.03.2015

13:30 - 14:00 Begrüßung

14:00 - 15:00 Keynote: Linked Data in der Lehre (Magnus Pfeffer, HdM Stuttgart)

Die Anforderungen, die Informationseinrichtungen an die Absolventen von Bibliotheksstudiengängen der HAWs stellen, haben sich in den vergangenen Jahren stark verändert. Große Bedeutung wird neben den pädagogischen Kompetenzen auch der Informationstechnik zugewiesen, da die Einrichtungen für die Bewältigung des digitalen Wandels dringend Fachkräfte mit technischen Kompetenzen suchen.

Im Vortrag soll hinterfragt werden, welche Kompetenzen eine moderne Studienordnung den Studierenden im weiten Bereich der Informationstechnik mitgeben kann - und welche nicht. Dabei soll auch auf die Frage eingegangen werden, in welchem Umfang Metadatenmanagement und insbesondere Linked Data Teil eines Curriculums sein kann und wie dies in der Praxis derzeit vermittelt wird.

In der Diskussion sind die Teilnehmer aufgefordert, dies kritisch zu hinterfragen und von den aus ihrer Sicht wichtigen Anforderungen aus der praktischen Arbeit mit Metadaten zu berichten.

Folien

15:00 - 15:30 Pause

15:30 - 17:00 Session I - OER-Metadaten (Moderation: Adrian Pohl, hbz)

Als Open Educational Resources (OER) werden Lern- und Lehrmaterialien bezeichnet, die frei zugänglich und offen lizensiert sind, so dass jede/r sie nutzen, anpassen, kombinieren und weitergeben kann. Diese Session möchte einen Überblick über den Stand der Entwicklung von OER-Aktivitäten mit Fokus auf den deutschprachigen Raum geben und Potentiale für die Arbeit von Bibliothekar/innen und Bibliotheken aufzeigen und ausloten. Während im ersten Teil verschiedenste Herausforderungen angesprochen werden, liegt der Fokus im zweiten Teil auf dem Thema Generierung, Publikation und Austausch strukturierter, möglichst homogener Beschreibungen von offenen Bildungsressourcen.

Jürgen Plieninger: Was sind Open Educational Resources (OER) und was haben Bibliotheken damit zu tun? (Folien)
Warum gibt es den Ansatz von Freien Bildungsressourcen, was gehört dazu, wie ist der Stand des Angebots und auf welchen Ebenen könnten Bibliotheken hier neue Dienstleistungen kreieren bzw. entsprechende Medien in bestehende Dienstleistungen integrieren? Eine knappe Einführung und ein kurzer Rundblick zum Einstieg ins Thema.

Adrian Pohl: Metadaten für Open Educational Resources (OER) im deutschsprachigen Raum (Folien)
Welche Praktiken und Standards zur strukturierten Beschreibung von OER gibt es? Welche Akteure gibt es in diesem Bereich? Welchen Beitrag kann eine DINI-AG-KIM-Gruppe "OER-Metadaten" leisten? Diese und andere Fragen werden im Rahmen dieses Vortrags diskutiert.

17:00 - 17:30 Lightning Session

Jakob Voss: coli-conc und JSKOS

Stefanie Rühle: Zum Projekt Entwicklung von interoperablen Standards für die Kontextualisierung heterogener Objekte am Beispiel der Provenienz Asch (Folien)

Philipp Zumstein: Validierung des RIS-Dateiformats für die Literaturverwaltung

17:30 - 18:00 Führung durch das Learning Center der UB Mannheim (Philipp Zumstein, UB Mannheim)

Abendprogramm (Selbstzahler)

Dienstag, 31.03.2015

09:30 - 11:00 Session II - RDF APs und Validierung (Moderation: Stefanie Rühle, SUB Göttingen)

Linked Open Data hat uns die Möglichkeit eröffnet, Informationen unterschiedlichster Herkunft zusammenzuführen. Gerade dies stellt uns aber auch vor neue Herausforderungen: Will ich die im Netz publizierten Linked Data für meinen konkreten Anwendungsfall nutzen, muss transparent sein, welche Properties und Classes verwendet und welche Regeln bei der Erstellung der Daten berücksichtigt werden. Die Dokumentation dieser Informationen erfolgt i.d.R. in Form von Anwendungsprofilen. Sie definieren was warum womit beschrieben wird und helfen mir, die Daten hinsichtlich ihrer Nachnutzbarkeit zu prüfen. Im Kontext großer Aggregationsprojekte wie Europeana spielen Anwendungsprofile daher eine wichtige Rolle.


Stefanie Rühle: Die DCMI RDF Application Profile (RDF AP) Task Group (Folien)
Die DCMI RDF AP Task Group beschäftigt sich anhand von konkreten Anwendungsfällen mit der Frage, wie Anwendungsprofile aussehen müssen, damit sie die Datenanalyse sinnvoll unterstützen. Ausgangspunkt ist dabei das von Dublin Core 2008 veröffentlichte Singapore Framework for Dublin Core Application Profiles. Der Beitrag führt in das Thema Anwendungsprofile und Validierung ein und berichtet über die Arbeit der Gruppe. Am Beispiel der Verwendung des Europeana Data Models (EDM) in der Deutschen Digitalen Bibliothek (DDB) werden verschiedene Anforderungen an Anwendungsprofile benannt.


Thomas Bosch (Gesis): The RDF Validator - A Tool to Validate RDF Data (Folien)
Recently, RDF validation as a research field gained speed due to common needs of data practitioners. A typical example is the library domain that co-developed and adopted Linked Data principles very early. Although, there are multiple constraint languages (having different syntaxes and semantics) which can be used to express RDF constraints such as cardinality restrictions, there is no constraint language which can be seen as the standard. The five most promising ones on being the standard are Description Set Profiles (DSP), Resource Shapes (ReSh), Shape Expressions (ShEx), the SPARQL Inferencing Notation (SPIN), and the Web Ontology Language (OWL 2). SPARQL is generally seen as the method of choice to validate RDF data according to certain constraints. We use SPIN, a SPARQL-based way to formulate and check constraints, as basis to define a validation environment (available at http://purl.org/net/rdfval-demo) to validate RDF data according to constraints expressed by arbitrary constraint languages. Additionally, the RDF Validator can be used to validate RDF data to ensure correct syntax and intended semantics of vocabularies such as Disco, Data Cube, DCAT, and SKOS. We present how to express typical RDF constraints by multiple constraint languages and how to actually validate RDF data conforming to these constraints using the RDF Validator. The workshop participants are encouraged to use the RDF Validator during this session (only an internet browser is needed) in order to express RDF constraints they need for their individual purposes.

Weiterführende Links:
RDF Validator Open Source Code: https://github.com/boschthomas/rdf-validator
Extensible SPIN mappings: https://github.com/boschthomas/rdf-validation/tree/master/SPIN
Paper regarding the validation of arbitrary constraint languages: http://dcevents.dublincore.org/IntConf/dc-2014/paper/view/270


Kai Eckert (HdM Stuttgart): JudaicaLink: Authority Data from Encyclopediae (Folien)
The JudaicaLink project aims at generating Linked Data representations for contextualization from various open data sources, mainly online encyclopediae. In this talk, I will briefly introduce the JudaicaLink data model as an application profile for SKOS and demonstrate, how the JudaicaLink data is created using simple web crawls.

11:00 - 11:30 Pause

11:30 - 13:00 Session III RDA und Linked Data (Moderation: Jana Hentschke, DNB)

In diesem Jahr wird der internationale Standard RDA im deutschen Sprach- und Kulturraum eingeführt. Damit geht ein Projekt beachtlichen Ausmaßes und nicht unerheblicher Auswirkungen zu Ende. Wo hat es die Landschaft hingeführt, wieviel näher sind wir dadurch den Linked Library Data gekommen? Wie integrieren sich die Resultate in das Web of Data? Und was kann zukünftig noch erwartet, wo ausgebaut werden? Die Session soll ein Forum bieten für die Diskussion dieser Themen und anhand von Berichten besonders involvierter KollegInnen ein klareres Bild zeichnen helfen.

RDA – der neue Standard im deutschsprachigen Raum (Renate Behrens-Neumann, DNB) (Folien)
Als Einstieg in das Thema soll dieser Bericht informieren über die Genese des Regelwerks, die Motivation des Umstiegs aus Perspektive der D-A-CH-Ländern und die Positionen anderer Länder. Es werden Einblicke in die jahrelange intensive Projektarbeit geben, dazu Rück- und Ausblicke.

RDA - Änderungen, Anwendung und Perspektive (Sarah Hartmann, DNB und Verena Schaffner, OBVSG) (Folien)
Die beiden Kolleginnen werden über die praktische Umsetzung des Regelwerksumstiegs berichten. Änderungsthemenfelder sollen benannt und am Format illustriert werden. Dabei wird das Hauptaugenmerk auf neue Relationen und deren technische Umsetzung in verschiedenen Systemen gelegt. In diesem Zusammenhang soll auch das Thema Altdaten nicht unter den Tisch fallen und das RDA Registry vorgestellt werden.

BIBFRAME - Wie geht es weiter?  (Reinhold Heuvelmann, DNB) (Folien)
Seit drei Jahren zieht die Bibliographic Framework Initiative "BIBFRAME" Aufmerksamkeit und Hoffnungen auf sich. Wie hat sich das Rahmenkonzept für künftige bibliografische Metadatenformate bisher entwickelt? Welche Aktivitäten gibt es bei den einstigen Early Experimenters, und darüber hinaus? Welche Ausprägungen gibt es? Wie gut passen RDA-Daten aus dem deutschsprachigen Raum zu BIBFRAME? Und wie verhalten sich BIBFRAME und andere existierende und neu entstehende Vokabularien zueinander?

13:00 - 13:30 Closing

13:30 - 15:30 Öffentliche Sitzung der DINI AG KIM (Moderation: Stefanie Rühle und Jana Hentschke)

TOP 1 Begrüßung, Vorstellungsrunde

TOP 2 Statusbericht DINI AG KIM (S. Rühle, J. Hentschke)

TOP 3 Statusbericht der Arbeitsgruppen

TOP 4 TWR (Magnus Pfeffer)

TOP 5 DINI Jahrestagung (S. Rühle, J. Hentschke)   

TOP 6 Sonstiges

  • Keine Stichwörter