Message-ID: <1992663464.142481.1711660668064@prodfluence0> Subject: Exported From Confluence MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_Part_142480_580466485.1711660668063" ------=_Part_142480_580466485.1711660668063 Content-Type: text/html; charset=UTF-8 Content-Transfer-Encoding: quoted-printable Content-Location: file:///C:/exported.html KIM WS 2016

KIM WS 2016


Wann: 04. und 05. April 2016

Wo: Universit=C3=A4t Mannheim, Fuchs-Petrolub-Festsaal = (O 138), Anfahrt

Veranstalter: DINI AG KIM, UB Man= nheim

Teilnahmegeb=C3=BChr: 30 Euro

Twitter: Hashtag #kimws16

Abendprogramm: Restaurant und Bar Enchilada (Selbst= zahler), ab 20:00 Uhr

Programm

Montag, 04.04.2016

11:00 - 12:30

=             &nb= sp;         

=

=C3=96ffentliche Sitzung der DINI-AG = KIM

Protokoll

12:30 - 13:30 Mittagspause
13:30 - 14:00

Begr=C3=BC=C3=9Fung

Christian Benz, Leitender Bibliotheksdirektor der UB Mannh= eim

Stefanie R=C3=BChle, Jana Hentschke (DINI-AG KIM Sprecherinnen)

14:00 - 15:00

Keynote: Linked Open Da= ta und Strukturiertes Markup im Web (Heiko Paulheim, Uni Mannheim) (Folien)
Um Daten im Web nicht nur menschen-, sondern auch maschinenlesbar darzustel= len, wurden in der j=C3=BCngeren Zeit verschiedene Verfahren vorgeschlagen.= Mit Linked Open Data, Microdata, Microformats oder RDFa sowie dem von gro= =C3=9Fen Suchmaschinen propagierten Standard schema.org stehen diverse M=C3= =B6glichkeiten bereit, Daten so aufzubereiten, dass die automatisierte Vera= rbeitung erleichtert werden kann. In seinem Vortrag gibt Heiko Paulheim ein= en =C3=9Cberblick =C3=BCber diese Verfahren sowie deren Adaption und zeigt = m=C3=B6gliche Anwendungen unter anderem im Bereich wissenschaftlicher Metad= aten auf.

15:00 - 15:30 Pause
15:30 - 17:00

Session Identifier (Mod= eration: Stefanie R=C3=BChle, SUB G=C3=B6ttingen)

CHE =E2=80= =93 Persistente Identifikatoren f=C3=BCr Kulturobjekte (Michael B=C3=BC= chner, DDB/DNB) (Folien)
Weltweit eindeutige und persistente Identifikatoren (PI) bilden die zentral= e Grundlage f=C3=BCr das zuverl=C3=A4ssige Referenzieren und Verlinken im I= nternet. Bestehende PI-Systeme sind dazu speziell auf die Anforderungen ein= er bestimmten Nutzergruppe ausgelegt und setzen die strikte Unver=C3=A4nder= lichkeit der referenzieren Ressourcen voraus. Auch aus den Anforderungen de= r Datenpartner der Deutschen Digitalen Bibliothek heraus entwickelt, m=C3= =B6chte das Fachkonzept von CHE einen neuartigen PI-Dienst entwickeln, der = die eindeutige und stabile Identifizierung unterschiedlichster Ressourcen a= us allen Kultursparten erm=C3=B6glicht und zudem eine fortschreitende Entwi= cklung der Ressourcen erlaubt.

Der Einsatz von Persistenten I= dentifikatoren und Normdaten bei wirtschaftswissenschaftlichen Forschungsda= teninfrastrukturen (Sven Vlaeminck, ZBW) (= Folien)
Persistente Identifikatoren sind eine wichtige Voraussetzung f=C3=BCr Auffi= nden, Nachnutzung und Zitation relevanter Forschungsdaten. Der Vortrag begi= nnt daher mit einem Blick auf die Praxis der Forschungsdatenregistratur f= =C3=BCr Sozial- und Wirtschaftsdaten da|ra, die Teil des internationalen = DataCite Konsortiums ist. Vorgestellt werden =C3=BCbergeordnete Polic= ies und Verfahrensweisen, aber auch konkrete M=C3=B6glichkeiten zur Registr= ierung von Forschungsdaten.

Anhand von zwei aktuellen Forschungsdateninf= rastrukturen (dem ZBW Journal Data Archive sowie einem Forschungsdatenre= positorium, SowiDataNet) wird im Anschluss konkret vorgestellt, wie= = DOIs aus diesen Applikationen heraus vergeben werden k=C3=B6nnen. Erg= =C3=A4nzend wird ein Ansatz vorgestellt, wie durch die Integration von Norm= daten der n=C3=B6tige Aufwand f=C3=BCr Datengeber/innen beim Self-Upload vo= n Forschungsdaten betr=C3=A4chtlich reduziert werden kann.

ORCID = und GND (Sarah Hartmann, DNB) (Folien)
Im Rahmen des von der DFG-gef=C3=B6rderten Projektes ORCID DE<= /a>, das die koordinierte Implementierung der Open Researcher and Contribut= or ID (ORCID) zur persistenten Identifizierung von Autorinnen und Autoren a= n wissenschaftlichen Einrichtungen in Deutschland zum Ziel hat, werden ORCI= D und die Gemeinsame Normdatei (GND) miteinander verzahnt werden.
Zum einen wird es darum gehen, wie die Verlinkung zwischen bereits existier= enden Identifiern erfolgen kann und zum anderen wie alle mit einer Person v= erlinkten Publikationen, die in der ORCID-Registry erfasst sind, mit solche= n, die in Nachweissystemen wissenschaftlicher Bibliotheken in Deutschland v= erzeichnet sind, aggregiert und miteinander verkn=C3=BCpft werden k=C3=B6nn= en.

17:00 - 17:30<= /p>

Pause
17:30 - 18:15

Session Datenanalyse (M= oderation: Philipp Zumstein, UB Mannheim)

Autoren-Disambiguierung in bibliographischen Metadaten: De= r Fall dblp (Marcel R. Ac= kermann, Schloss Dagstuhl, Leibniz-Zentrum f=C3=BCr Informatik) (Folien)<= br> Die dblp computer science bibliography ist die gr=C3=B6=C3=9Fte Open= -Data Sammlung bibliographischer Metadaten in der Informatik. Besonderes Au= genmerk legt die Datenbank dabei auf die korrekte Disambiguierung von Autor= ennamen, d.h., die Urheberschaft wissenschaftlicher Publikationen an Hand w= eniger Metadaten eindeutig zu erkennen und zuzuordnen. Dieser Vortrag gibt = einen kurzen Einblick in den methodischen Ansatz, welcher der Autoren-Disam= biguierung in dblp zu Grunde liegt.

Die RapidMiner Linked Ope= n Data Extension (H= eiko Paulheim, Uni Mannheim) (Folien)
Um Daten sinnvoll analysieren zu k=C3=B6nnen, ist in vielen F=C3=A4llen umf= assendes Hintergrundwissen notwendig. Dieses manuell bereitzustellen und au= fzubereiten ist h=C3=A4ufig aufw=C3=A4ndig. Die Linked Open Data Extension = f=C3=BCr die Datenanalyseumgebung RapidMiner erm=C3=B6glicht mit wenigen Ha= ndgriffen eine vollautomatische Verkn=C3=BCpfung von lokalen Daten mit Date= n aus der Linked Open Data Cloud, wodurch vielfach neue Einsichten gewonnen= werden k=C3=B6nnen.

18:15 - 18:45

Lightening Talk

GND Sachbegriffe als SKOS-Thesaurus (Joachim Neubert, ZBW) (Folien)

ab 20:00

Abendprogramm<= /p>

Restaurant und Bar Enchilada

Dienstag, 05.04.2016

09:00 - 10:30

=             &nb= sp;         

=

Session Anforderungen an Normdatendie= nste (Moderation: Jakob Voss, GBV) (Foli= en)

Zur praktischen Nutzung von Normdaten m=C3=BCsse= n diese in geeigneter Weise bereitgestellt werden. In dieser Session sollen= gemeinsam Anforderungen an die Bereitstellung gesammelt werden, die =C3=BC= ber vorhandene Best-Practice (SKOS & LOD) hinausgehen.

Kurz gesag= t geht es darum, wo und wie

a) Informationen =C3=BCber Normdaten
b) Inhalte von Normdaten und
c) Mappings zwischen Normdaten

so zug=C3=A4nglich gemacht werden k=C3= =B6nnen, dass sie sich so einfach wie m=C3=B6glich in eigene Anwendungen ei= nbinden lassen.

Die Teilnehmer sind dazu aufgerufen, Beispiele und Id= een zur Normdaten-Nutzung mitzubringen.

Repo= rt der Ergebnisse

10:30 - 11:00 Pause
11:00 - 12:30

Hands-On-Workshop 1, Teil I

Hands-On-Workshop 2, Teil I

Catmandu & Linked D= ata Fragments (Leitung: Johann Rolschewski und Carsten Klee, Staatsbiblioth= ek zu Berlin)

"Catmandu" ist ein Framework f=C3= =BCr das Importieren, Speichern, Suchen, Exportieren und Transformieren von= Metadaten. Das "Linked Data Fragments" Projekt bietet Tools,= um RDF-Daten zu publizieren. In Kombination bieten beide Projekte eine ein= fache M=C3=B6glichkeit (bibliographische) Metadaten in RDF zu transformiere= n und per Weboberfl=C3=A4che oder API durchsuchbar anzubieten. Im Rahmen de= s Workshops werden alle dazu notwendigen Tools vorgestellt und von den Teil= nehmern ausgef=C3=BChrt. Die Teilnehmer werden gebeten eine "Virtual Machine" als Entwicklungsumgebung vorab zu insta= llieren. N=C3=A4here Informationen zur Installation sind hier zu finden: https://librecatproject.wo= rdpress.com/2014/12/01/day-1-getting-catmandu/.

OpenRefine (Leitun= g: Maike Kittelmann, SUB G=C3=B6ttingen) (Folien)
=

OpenRefine ist ein Tool zum Transformieren, Durchsuchen, Reinigen, E= xportieren und Anreichern von Daten. Das Programm kommt aus dem Open Data B= ereich und bietet vielf=C3=A4ltige Funktionen, um Dateninkonsistenzen ("mes= sy data") aufzusp=C3=BCren und zu beheben. Die Oberfl=C3=A4che erinnert an = vertraute Tabellenprogramme (Excel, Calc), daher ist der Einstieg leicht. F= ortgeschrittene Nutzer k=C3=B6nnen Daten in OpenRefine direkt mit Python od= er Clojure bearbeiten.


Vorbereitung: Die folgend= en Dateien sollte beim Workshop  auf dem Rechner vorliegen.
Download, Version 2.5 und 2.6: openrefine.org
OpenRefine l=C3=A4uft im Browser, alle Daten bleiben aber lokal. Da das Pro= gramm urspr=C3=BCnglich von Google entwickelt wurde, l=C3=A4uft es besonder= s gut in Google Chrome:
http:/= /portableapps.com/de/apps/internet/google_chrome_portable
Daten f=C3=BCr =C3=9Cbungen:
https://www.dropbox.com/sh/tfg6bb2vzavtr7b/AACMYHoxX_LU_fPA09Zux= 4N0a?dl=3D0
Download RDF Extension (optional):
http://openrefine.org/d= ownload.html
Showcases zur RDF Extension (deri.ie via Wayback-Machine):
http://web.archive.org/web/2015042= 4012501/http://refine.deri.ie/sparqlRecon
Download NER Extension (optional):
http://= software.freeyourmetadata.org/ner-extension/

12:30 - 13:00 Pause
13:00 - 14:30
Hands-On-Workshop 1, Teil II Hands-On-Workshop 2, Teil II
Catmandu & Linked Data Fragments OpenRefine
14:30 - 15:00

Closing

= Stefanie R=C3=BChle, Jana Hentschke

 

 

 

------=_Part_142480_580466485.1711660668063--