Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

09:30 - 11:00 Session II - RDF APs und Validierung (Moderation: Stefanie Rühle, SUB Göttingen)

Linked Open Data hat uns die Möglichkeit eröffnet, Informationen unterschiedlichster Herkunft zusammenzuführen. Gerade dies stellt uns aber auch vor neue Herausforderungen: Will ich die im Netz publizierten Linked Data für meinen konkreten Anwendungsfall nutzen, muss transparent sein, welche Properties und Classes verwendet und welche Regeln bei der Erstellung der Daten berücksichtigt werden. Die Dokumentation dieser Informationen erfolgt i.d.R. in Form von Anwendungsprofilen. Sie definieren was warum womit beschrieben wird und helfen mir, die Daten hinsichtlich ihrer Nachnutzbarkeit zu prüfen. Im Kontext großer Aggregationsprojekte wie Europeana spielen Anwendungsprofile daher eine wichtige Rolle.


Stefanie Rühle: Die DCMI RDF Application Profile (RDF AP) Task Group
Die DCMI RDF AP Task Group beschäftigt sich anhand von konkreten Anwendungsfällen mit der Frage, wie Anwendungsprofile aussehen müssen, damit sie die Datenanalyse sinnvoll unterstützen. Ausgangspunkt ist dabei das von Dublin Core 2008 veröffentlichte Singapore Framework for Dublin Core Application Profiles. Der Beitrag führt in das Thema Anwendungsprofile und Validierung ein und berichtet über die Arbeit der Gruppe. Am Beispiel der Verwendung des Europeana Data Models (EDM) in der Deutschen Digitalen Bibliothek (DDB) werden verschiedene Anforderungen an Anwendungsprofile benannt.


Thomas Bosch (Gesis) und Kai Eckert (Uni Mannheim): The RDF Validator - A Tool to Validate RDF Data
Recently, RDF validation as a research field gained speed due to common needs of data practitioners. A typical example is the library domain that co-developed and adopted Linked Data principles very early. Although, there are multiple constraint languages (having different syntaxes and semantics) which can be used to express RDF constraints such as cardinality restrictions, there is no constraint language which can be seen as the standard. The five most promising ones on being the standard are Description Set Profiles (DSP), Resource Shapes (ReSh), Shape Expressions (ShEx), the SPARQL Inferencing Notation (SPIN), and the Web Ontology Language (OWL 2). SPARQL is generally seen as the method of choice to validate RDF data according to certain constraints. We use SPIN, a SPARQL-based way to formulate and check constraints, as basis to define a validation environment (available at http://purl.org/net/rdfval-dem) to validate RDF data according to constraints expressed by arbitrary constraint languages. Additionally, the RDF Validator can be used to validate RDF data to ensure correct syntax and intended semantics of vocabularies such as Disco, Data Cube, DCAT, and SKOS. We present how to express typical RDF constraints by multiple constraint languages and how to actually validate RDF data conforming to these constraints using the RDF Validator. The workshop participants are encouraged to use the RDF Validator during this session (only an internet browser is needed) in order to express RDF constraints they need for their individual purposes.Kurzbeschreibung folgt

11:00 - 11:30 Pause

11:30 - 13:00 Session III RDA und Linked Data (Moderation: Jana Hentschke, DNB)

...