Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.


Wann: 

28. und 39. Mai 20222023 

Wo:

online

Erfahrungsgemäß läuft BigBlueButton auch auf dem Mac reibungsloser mit Firefox oder Chrome. Außerdem hat sich gezeigt, dass es generell weniger technische Probleme gibt, wenn man sich nicht über VPN einwählt.Universität Mannheim, Fuchs-Petrolub-Festsaal (O 138), Anfahrt

Veranstalter:

DINI-AG KIMUB Mannheim
Anmeldung:

Die Für die Teilnahme an der Veranstaltung ist kostenloseine Anmeldung erforderlich. Wenn man nur an einzelnen Programmpunkten teilnehmen kann oder möchte ist das natürlich auch möglich. In jedem Fall bitten wir aber um Anmeldung unter:

https://dini.de/veranstaltungen/workshops/kim-workshop-20222023/anmeldeformular/

Teilnahmegebühr:40 Euro
Programmkomitee+
Organisationsteam:

Tracy Arndt (DNB), Alex Jahnke (SUB Göttingen), Jana Hentschke (ZBW Hamburg), Sylvia Hulin (UB Mannheim), Letitia Mölck (DNB), Philipp Zumstein (UB Mannheim), Carloni Massimiliano (OEAWJakob Voß (VZG Göttingen), Karl Krägelin (SUB GöttingenPhú Tu (hbz)

TwitterKurznachrichtendienste: 

Hashtag #kimws22

Mastodon-Hashtag #kimws23, Twitter-Hashtag #kimws23
Kontakt:kim-info@dini.de
Teilnehmende:https://dini.de/veranstaltungen/workshops/kim-workshop-2022/liste-der-teilnehmenden/

Programm

2023/teilnehmendenliste/
Hoteloptionen:

Hinweis: In diesem Jahr findet in Mannheim die Bundesgartenschau statt, daher ist es sicher sinnvoll, sich möglichst frühzeitig um ein Hotel zu kümmern und ggf. auch den weiteren Umkreis (z.B. Ludwigshafen, Heidelberg) in die Suche mit einzubeziehen. 

Abendessen:Montagabend, 19 Uhr besteht für alle Interessierten die Möglichkeit, den ersten Workshoptag auf Selbstzahlerbasis noch gemeinsam im Restaurant Ellin ("Original Greek", mit vegetarischen Optionen und auch Burgern im Programm), Adresse: E3,1 (Wegbeschreibung) ausklingen zu lassen.


Programm

Inhalt
minLevel2
excludeMittwoch*
typeflat

Montag,

...

8. Mai

...

2023

... Folien

Interaktive Session

Arbeit strukturieren, planen und verteilen - Erfahrungsaustausch zu Werkzeugen

Moderation: Jana Hentschke (ZBW...

Ergebnisse: Gemeinsame erstellte Notizen

Vortrag

Vom Abzug zum Dashboard. Wie aus Daten Informationen werden

Für die GNDCon 2.0 hat eine Projektgruppe in der Deutschen Nationalbibliothek ein interaktives Dashboard zur statistischen Auswertung der Daten erstellt (siehe [1]). Wir zeigen, wie wir vorgegangen sind, welche Software wir verwendet haben, was wir über unsere Daten gelernt haben und wie wir zukünftig solche Datenanalyse-Projekte angehen würden.

[1] https://share.streamlit.io/deutsche-nationalbibliothek/gnd-dashboard/main/dashboard/gnd-app.py

Teil 1 Nico Wagner (DNB): Datenformate und -aufbereitung

0911:45 30 - 1011:0045

Begrüßung

Sabine Gehrlein (UB Mannheim, Leitende Bibliotheksdirektorin)

Tracy Andt (DNB), Alex Jahnke (SUB Göttingen), Letitia Mölck (DNB) (DINI-AG KIM AG-Sprecherin Sprecher und -SprecherSprecherin)

1011:00 45 - 1012:30

Vortrag

Péter Király (GWDG): Validating JSON, XML and CSV data with SHACL-like constraints

(in englischer Sprache

Kennenlernrunde

Metadaten im Alltag: Einsatz von Metadaten im beruflichen Kontext, Erfahrungen, Herausforderungen, Probleme


12:30 - 13:30Mittagspause mit Verpflegung
13:30 - 17:30Hands-on-Tutorials - Anmeldung erforderlich


Section
bordertrue


Column
width30%

Option 1: Metadatengrundlagen-Tutorial

Raum: O 126 (Dozentenzimmer)

Leitung: Jakob Voß (VGZ Göttingen)

Erweitern
titleBeschreibung

Metadata Quality Assessment Framework is a tool aiming to provide building blocks to analyse the quality of metadata records of cultural heritage organisations. It can read JSON, XML or CSV records and runs metrics of general quality dimensions, such as completeness, multilinguality, uniqueness, accuracy. It also provides a SHACL-like vocabulary to create specific validation rules for individual data elements. The tool can be used from the command line, and it can be built into a larger framework, and using it via its API.

The presentation provides an overview of the rule set one can apply for metadata records, and also shows how it is use in practice at the Deutsche Digitale Bibliothek. DDB aggregates data in different metadata schemas (Dublin Core, EDM, LIDO, EAD, METS/MODS). The tool is used to check incoming records, and those records which are transformed for exporting to Europeana. The metadata team sets a uniform set of requirements, and a scoring system to detect issues and qualify individual records.

10:30 - 11:00

Vortrag

Adrian Pohl und Fabian Steeg (hbz): Datentransformation mit Metafacture – Aktuelle Entwicklungen

Erweitern
titleBeschreibung...

Wir berichten von den Metafacture-Entwicklungen der letzten anderthalb Jahre, insbesondere der Entwicklung einer Catmandu-Fix-artigen Transformationssprache für Metafacture

(https://github.com/metafacture/metafacture-fix) und einer Web-basierten Oberfläche zum einfachen Ausprobieren und Teilen von Workflows (https://github.com/metafacture/metafacture-playground).

Folien

11:00 - 11:30Programmpause

Die Welt der Metadaten zeichnet sich durch eine Vielzahl von Formaten, Standards, Profilen und Akronymen aus. Nicht selten besteht die Herausforderung von Interoperabilität darin,  herauszufinden, was überhaupt mit Daten gemeint ist. Im Workshop soll etwas Licht in den Dschungel der Formate und Techniken für Metadaten gebracht werden. Behandelt werden weniger einzelne Formate im Detail, sondern grundlegende Fragen wie Arten, Eigenschaften, Bestandteile und Beziehungen von Metadaten sowie wesentliche Mittel zu ihrer Verarbeitung und Analyse. Bitte bringen Sie viele Fragen mit!

Zielgruppe: Menschen, die mehr über Metadaten wissen wollen.

Vorkenntnisse: Rudimentäre Kenntnisse verschiedener Datenformate sind von Vorteil, aber nicht erforderlich.

Voraussetzungen: Stift, Papier, ggf. Notebook oder Tablet.

Teilnehmeranzahl: max. 20

Folien


Column
width30%

Option 2: Metadaten-Handwerk mit Jupyter Notebooks

Raum: ExpLAB

Leitung: Magnus Pfeffer (HdM Stuttgart), Kai Eckert (HS Mannheim), Tobias Malmsheimer (HdM Stuttgart)Florian Rupp (HS Mannheim

11:30 - 13:00

)

Erweitern
titleBeschreibung

In dieser 90-minütigen Session soll in der Runde aller KIM-Workshop-Teilnehmenden ein Good-Practice-Austausch stattfinden zu der Frage "Mit welchen unterstützenden Werkzeugen lassen sich Aufgaben effizient verwalten und Arbeitsabläufe realisieren".

Gegenstand müssen dabei nicht ausschließlich Aufgaben des Arbeitsbereich (Meta-)Datenverarbeitung seinDer Fokus soll aber auf Arbeiten in Teams und auf Routinetätigkeiten liegen - im Gegensatz zu Projekten.

Interessante Werkzeuge können sicherlich auch aus anderen Bereichen kommen, zum Beispiel der Softwareentwicklung oder dem Projektmanagement. Mögliche Beispiele: GitHub Issues, Trello, Jira, Alternativen zu Jira, Wikis, MS Outlook Features ...
Unabhängig von konkreten Werkzeugen kann sich auch der Austausch ergeben, mit welcher Art von Aufgabenvisualisierung welche Erfahrungen gemacht werden -z.B. Kanban Boards, Zeitleisten, grafische Ablaufdiagramme, Todo-Listen ... 

In der Session soll zunächst erhoben werden, welche Werkzeuge die Anwesenden bereits wie einsetzen. Dazu kann von allen Anwesenden spontan mündlich berichtet oder visuell demonstriert werden. Im weitere Verlauf können, ggf. in Break-Out-Räumen, Stärken und Schwächen der einzelnen Lösungen herausgearbeitet und in der Gruppe gegeneinander gehalten werden. Ziel ist die gegenseitige Inspiration für den Arbeitsalltag und eine gemeinsame Vorstellung von der Bandbreite der Möglichkeiten.

13:00 - 14:00Programmpause
14:00 - 15:00
Erweitern
titleBeschreibung...

Im ersten Teil wird gezeigt, wie wir aus den Daten im Rohformat (PICA+) die wesentlichen Daten extrahieren und so aufbereiten, dass sie im GND-Dashboard angezeigt werden können. Wir stellen das Tool „pica-rs“ [2] vor, das für die Datenextraktion verwendet wird und illustrieren an ausgewählten Beispielen wie die Datenaufbereitung mit der Programmiersprache Python umgesetzt ist. Abschließend wird das Setup vorgestellt, mit dem wir die Daten im Dashboard monatlich aktualisieren.

[2] https://github.com/deutsche-nationalbibliothek/pica-rs

Teil 2 André Wendler (DNB): Anzeige der Statistiken im Dashboard

Erweitern
titleBeschreibung...

Der zweite Teil erläutert, wie die Statistiken mit der Software Streamlit (siehe [3]) zu einem interaktiven, web-basierten Dashboard aufbereitet werden. Dabei wird es auch um den Wissenstransfer zwischen bibliothekarischen Fachleuten und den Data Sciences gehen.

[3] https://streamlit.io/

15:00 - 15:15Programmpause15:15 - 17:00

Lightning Talks & Open Space

Dienstag, 3. Mai 2022

Python ist zurecht sehr beliebt als Skripting-Sprache und eignet sich hervorragend zur Verarbeitung und Transformation von Daten in beliebigen Formaten. Durch die unzähligen verfügbaren Module gibt es wohl kaum eine Schnittstelle, die via Python nicht in wenigen Zeilen Code nutzbar ist. Dank Rdflib ist auch die Verarbeitung und Erzeugung von Linked Open Data einfach umsetzbar. Darüber hinaus erlauben Jupyter Notebooks eine schrittweise Erarbeitung von Metadaten-Workflows, inklusive Dokumentation in Markdown. Für umfangreichere Datenaufbereitungen und Analysen steht mit Pandas ein mächtiges Werkzeug zur Verfügung. Gemeinsames Arbeiten an diesen Workflows und Versionsverwaltung kann schließlich über Git realisiert werden, via Gitlab oder GitHub können weitere Prozesse angestoßen und der Workflow in vorhandene Systeme integriert werden.

Im Modul wird das Zusammenspiel der Komponenten an beispielhaften Workflows vorgestellt. Gemeinsam mit den Teilnehmern sollen dabei Fragen zu möglichen Nutzungsszenarien geklärt und Erfahrungen ausgetauscht werden.

Zielgruppe: Metadaten-Praktiker:innen

Vorkenntnisse: Grundkenntnisse in Python, Jupyter Labs und Git. Umgang mit Metadaten in gängigen Formaten, z.B. XML, JSON, CSV.

Voraussetzungen: Eigenes Notebook, mit Git, Jupyter Labs, sowie den Python-Modulen Pandas, Rdflib und JupyText vorinstalliert. Genauere Angaben werden vor dem Workshop zur Verfügung gestellt.

Die Module sind alle in Anaconda verfügbar, einer Python Distribution, die insbesondere unter Windows zu empfehlen ist: https://www.anaconda.com/

Teilnehmeranzahl: max. 20



Column
width30%

Option 3: Publikation von SKOS-Vokabularen inklusive Reconciliation-Schnittstelle mit SkoHub

Raum: O 138 (Fuchs-Petrolub-Festsaal)

Leitung: Adrian Pohl, Steffen Rörtgen, Tobias Bülte (hbz)

Erweitern
titleBeschreibung

Im Workshop wird SkoHub, ein Ökosystem verschiedener Software-Module zur Publikation und Nutzung kontrollierter Vokabulare im Web vorgestellt. Neben einer kurzen Einführung in SKOS werden wir gemeinsam ein Vokabular mit SkoHub Vocabs veröffentlichen. Im Anschluss stellen wir SkoHub Reconcile vor, das den Abgleich von Daten mit einem SKOS-Vokabular ermöglicht, basierend auf der standardisierten Reconciliation API und unter Nutzung von OpenRefine.

Abschließend geben wir noch einen Ausblick auf das SkoHub-PubSub-Modul, das kontrollierte Vokabulare zu Akteuren in föderierten sozialen Netzwerken (Fediverse, z.B. Mastodon) macht.

Zielgruppe: Menschen, die mit kontrollierten Vokabularen und an Datentransformationen arbeiten

Vorkenntnisse: Erste Vorkenntnisse im Bereich kontrollierter Vokabulare und Linked Open Data sind wünschenswert, aber nicht zwingend erforderlich.

Voraussetzungen: Laptop, Account bei GitHub

Teilnehmeranzahl: max. 20

Folien




Für Interessierte: gemeinsamer Restaurantbesuch (Selbstzahler)

Ab 19 Uhr sind Tische reserviert im Restaurant Ellin ("Original Greek", mit vegetarischen Optionen und auch Burgern im Programm), Adresse: E3,1 (Wegbeschreibung)



Dienstag, 9. Mai 2023

09:30 - 13:00(Info) Anmeldung erforderlich

Option 1:

Metadatenanalysen mit Python & Apache Superset

Option 2:

Hacky Morning - OpenAlex

Leitung: Karl-Ulrich Krägelin (SUB Göttingen)

Erweitern
titleBeschreibung...

In diesem Hands-On Workshop soll ein Ansatz ausprobiert werden, mit dem sich Metadaten in beliebigen Ausgangsformaten analysieren lassen. Dazu wird es im ersten Teil des Tutorials um die Datenextraktion mit Python gehen und im zweiten Teil werden die extrahierten Daten in eine bereitgestellte Apache Superset Instanz geladen und dort Queries definiert, aus denen sich dann ein Dashboard zur Datenvisualisierung gebaut wird.

Zielgruppe: Personen, die schnelle Einsichten in heterogene (Meta)daten haben wollen, ohne sich auf proprietäre Systeme verlassen zu müssen.

Vorkenntnisse: Interesse an Datenanalyse und -visualiserung, idealerweise Einsteiger-Kenntnisse in Python (Dateien lesen, For-Loops und lxml/pandas)

Voraussetzungen: Es genügt ein Rechner mit Internetzugang und modernem Webbrowser und ein Account bei https://academiccloud.de/home bzw. bei der GWDG, um https://jupyter-cloud.gwdg.de/ (siehe auch https://www.gwdg.de/application-services/jupyter) nutzen zu können.

Die maximale Anzahl an Teilnehmer/inne/n für dieses Tutorial ist leider schon erreicht.

Leitung: Tracy Arndt (DNB)
09:00 - 09:30

Vortrag

Renat Shigapov (UB Mannheim): Warum brauchen wir Wissensgraphen in NFDI?

Erweitern
titleBeschreibung

26 NFDI-Konsortien bauen domänenspezifische Forschungsdateninfrastrukturen auf. Einige Konsortien stellen REST-APIs, OAI-PMH-Schnittstellen und SPARQL-Endpunkte für ihre (Meta-)Daten bereit oder planen die Bereitstellung. In diesem Vortrag werden einige Aspekte der Nutzung von Wissensgraphen in NFDI erörtert. Zu Beginn wird es einen Überblick über die laufenden Anwendungsfälle von Wissensgraphen im Kontext von NFDI geben. Anschließend wird diskutiert, inwiefern die Bedürfnisse von Konsortien, Institutionen, Forschungsdatenzentren und Forschenden an Wissensgraphen erfüllbar sind.

Folien

09:30 - 10:00

Vortrag

Roman Baum (ZB MED): Integration von Terminologiediensten in Wissensdomänen der NFDI


Erweitern
titleBeschreibung ...

OpenAlex (https://openalex.org/) aggregiert und standardisiert Daten aus vielen verschiedenen Quellen zu wissenschaftlichen Publikationen inkl. Artikel-Metadaten und stellt diese über eine API frei zur Verfügung.
Wir wollen uns OpenAlex innerhalb von 3 Stunden gemeinsam anschauen und ausprobieren. Nach einem kurzem Impulsvortrag, fangen wir an OpenAlex zu erkunden. Nach dem Motto "alles kann, nix muss”, bieten wir hier Raum, sich innerhalb der vorgegebenen Zeit mit OpenAlex zu beschäftigen, Kontakte mit ebenso Interessierten zu knüpfen oder gemeinsam Ideen oder Abfragen zu entwickeln.

Zeitplan:
09:30 Uhr Start mit Impulsvortrag
09:40 Uhr Gruppenfindung
10:00 Uhr Hacken
12:30 Uhr Zusammenkommen und kurze Auswertung
13:00 Uhr Ende

Zielgruppe: Personen, die Interesse an Daten zu wissenschaftlichen Publikationen inkl. Artikel-Metadaten haben

Vorkenntnisse: keine besonderen Vorkenntnisse erforderlich

Voraussetzungen: Es genügt ein Rechner mit Internetzugang und modernem Webbrowser.

Folien des Impulsvortrags

Gruppennotizen

Gruppe 1 OpenAlex und (bibliographische Daten in) Wikidata

Gruppe 2 Evaluation / Datenqualität

Gruppe 3 Kataloganreicherung

Gruppe 4 Datenbestand entlang Tutorial erkunden

Gruppe 5 Datenabdeckung in OpenAlex

Gruppe 6 Concepts in OpenAlex - Vergleich mit anderen Inhaltserschließungssystemen

13:00 - 14:00Programmpause14:00 - 14:30

Vortrag

Julia Rössel (Foto Marburg) und Barbara Fichtl (SUB  Göttingen): Auf dem Weg zu Linked Open Data – Verbesserung der Qualität von Forschungsdaten zu Objekten materieller Kultur am Beispiel des LIDO-Standards

Erweitern
titleBeschreibung...

Um Forschungsdaten als Linked Open Data (LOD) zur Verfügung stellen zu können und somit verknüpfbar und gut nachnutzbar zu machen, sind bestimmte Anforderungen an die Qualität der Daten zu erfüllen. Im BMBF-geförderten Projekt „KONDA  - Kontinuierliches Qualitätsmanagement von dynamischen Forschungsdaten zu Objekten der materiellen Kultur unter Nutzung des LIDO-Standards“  wurde auf der Basis von Datenanalysen und in enger Zusammenarbeit mit der Cultural-Heritage-Community ein Katalog von gängigen Datenqualitätsproblemen im Kulturerbebereich erstellt. Aktuell wird ein Qualitätsmanagementprozess für strukturierte Forschungsdaten entwickelt, der alle Stationen des Datenlebenszyklus umfasst. Aufbauend auf der inzwischen veröffentlichten neuen LIDO-Version v1.1 und der in den letzten Jahren entwickelten LIDO-Terminologie werden im Projekt zudem domainspezifische LIDO-Profile und -Handbücher z. B. für Malerei und Skulptur sowie für Architektur entwickelt. Im Vortrag werden zum einen das Vorgehen und einige Ergebnisse des KONDA-Projekts vorgestellt, zum anderen wird am Beispiel des LIDO-Standards veranschaulicht, worauf bei der Erzeugung, Verarbeitung und Pflege von Forschungsdaten zu Objekten materieller Kultur zu achten ist, um sie Linked Open Data-fähig zu machen.

14:30 - 15:00

Vortrag

Andreas Lüschow (SUB Göttingen):  Netzwerke in Normdaten - Die Visualisierung impliziter Beziehungen im CERL Thesaurus

Erweitern
titleBeschreibung ...
Mit rund 1,3 Millionen Einträgen zu Personen und knapp 37.000 erfassten Orten ist der CERL Thesaurus ein zentrales Instrument zur Identifizierung und Beschreibung von Entitäten rund um die Geschichte des Buches. Nicht nur die Verknüpfungen zu anderen Normdateien, auch die zahlreichen Verknüpfungen der Thesaurus-Daten untereinander machen ihn darüber hinaus zu einem umfangreichen Rechercheinstrument. Häufig sind es allerdings nicht die einzelnen Datensätze, sondern die "versteckten" Zusammenhänge, die für unterschiedliche Forschungsfragen von Bedeutung sind. Wie entwickelte sich die Bedeutung eines Ortes im Lauf der Zeit? Zwischen welchen Städten bestand ein Austausch von Wissen? Wo waren die Hotspots bestimmter Berufsgruppen oder Regionen? Der Vortrag beschreibt einen anpassungsfähigen Workflow zur Extraktion und Analyse solcher impliziter Beziehungen und beleuchtet die Mehrwerte einer Netzwerkperspektive auf die Daten am Beispiel des Wissenstransfers zwischen Städten.
15:00 - 15:15

Abschluss

KIM Workshop 2022 - Wrap-Up

Tracy Arndt (DNB) Alex Jahnke (SUB Göttingen)

15:15 - 16:00Öffentliche Sitzung der DIN-AG KIM

Veranstaltungsausblick

Mittwoch, 4. Mai 2022

Im Rahmen der Nationalen Forschungsdateninfrastruktur (NFDI) besteht in praktisch allen Fachbereichen ein Bedarf an einheitlichen Ontologien, Normdateien und weitergehenden Terminologien. In den letzten Jahren sind diverse Dienste in (unterschiedlichen) Wissensdomänen entwickelt worden, um Terminologien zu verwalten, zu publizieren, und darüber hinaus in den Domänen nutzbar zu machen. In der Präsentation werden einige Dienste als Anwendungsbeispiele vorgestellt und dadurch aufgezeigt, für welche Anwendungen Terminologiedienste genutzt werden könn(t)en. Abschließend wird es einen Ausblick zu einer nutzergetriebenen, föderierten, fachübergreifenden Terminologie-Infrastruktur geben.

Folien

10:00 - 10:30Kaffeepause
10:30 - 11:00

Vortrag

Uwe Sikora (SUB Göttingen): Ein Workflow zum Austausch von in digitalen Editionsprojekten erfassten Daten mit der GND

Erweitern
titleBeschreibung

Die Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB) und die Deutsche Nationalbibliothek (DNB) arbeiten im Rahmen des NFDI Konsortiums „Text+“ an einem nachhaltigen Konzept, um Daten aus textwissenschaftlich orientierten Forschungsprojekten mit der GND austauschen zu können. Vor diesem Hintergrund wird derzeit ein Werkzeugkasten entwickelt, der den Datenaustausch zwischen Forschungsprojekten und einer GND-Agentur strukturieren und unterstützen soll. Im Zentrum dieses Werkzeugkastens steht entityXML: ein XML-Format, dass als Speicher- und Austauschformat für Daten zu Personen, Orten und anderen Entitäten verwendet werden kann.

In Form eines Werkstattberichts wird das Konzept hinter entityXML vorgestellt. Anhand von konkreten Beispielen wird zudem erläutert, wie entityXML in einzelne Abläufe von Forschungsprojekten und einer GND-Agentur eingebunden werden kann.

Folien

11:00 - 11:30

Vortrag

Angela Vorndran und Stefan Grund (DNB Frankfurt am Main) : Personen in GND und Titeldaten – Vorschläge, Anreicherungen und Verknüpfungen

Erweitern
titleBeschreibung

Die Deutsche Nationalbibliothek strebt an, den Anteil an Normdatenverknüpfungen in ihren Metadaten zu erhöhen. Hier werden verschiedene automatisierte Verfahren vorgestellt, die sich auf die Verknüpfung von Personen mit GND-Personennormdatensätzen konzentrieren. Durch Datenabgleiche, z.B. mit den Culturegraph-Beständen, die Auswertung von GND- und ORCiD-Claimings von Nutzer*innen und die Nutzung von bestehenden Verknüpfungen durch verschiedene Identifier, werden Personen eindeutig identifiziert und verknüpft und ggf. Vorschläge für neue Normdatensätze erstellt.

Folien

11:30 - 12:00

Vortrag

Nicolas Bach (HdM Stuttgart): Integrität, Authentizität, höchstmögliche Datensouveränität? Potenziale und Risiken dezentraler Technologien als Tools für die Veröffentlichung von Forschungsoutput

Erweitern
titleBeschreibung

Ausfälle, Hacks, Datenlecks und Übernahmen bei den Plattformen großer Anbieter zeigen uns immer häufiger, wie abhängig wir im Web von zentralisierten Diensten geworden sind. Auch im Bereich der Wissenschafts-Infrastruktur besteht die Gefahr einer zunehmenden Zentralisierung durch die Auslagerung von Services auf einige wenige große Dienstleister. Doch wie kann eine technische Infrastruktur zur Wahrung von Integrität und Authentizität meines Forschungsoutputs bei höchst möglicher Datensouveränität aussehen und was für Chancen als auch Risiken birgt diese? Zudem stellt sich immer mehr die Frage, ob Dienste auch im Sinne von Nachhaltigkeit und Interoperabilität umgesetzt sind.

Dieser Vortrag soll anhand eines Fallbeispiels illustrieren, wie mittels Open-Source-Lösungen Daten unter Wahrung der eigenen Datenhoheit dezentral, manipulationssicher und dauerhaft ohne die Abhängigkeit von Dritten veröffentlicht werden können. Dabei wird auf die Konzepte des Datei-Hashings über Blockchain-basierte Zeitstempeldienste (PoE), verteilte Dateihaltungssysteme (IPFS) und dezentrale Identifikatoren (DIDs) eingegangen. Die Präsentation will Schwächen der existierenden Infrastrukturen thematisieren sowie Alternativen aufzeigen, jedoch auch die eigenen Vorschläge kritisch reflektieren und mit daraus abgeleiteten Thesen zu neuen Denkansätzen bezüglich auf Open Science ausgerichteter Infrastruktur anregen

Folien (IPFS CID: QmQsFwJGBtpyQkNxaAqM1aYbNUTxCoyPy7HG7KQYkyxMaj)

12:00 - 12:30

Lightning Talks

Erweitern
titleBeschreibung

Wer mag, kann spontan einige Minuten über ein (Metadaten-)Thema reden, das sie/ihn aktuell beschäftigt. Dabei kann/können zum Beispiel

  • über Projekte, aktuelle Aktivitäten und Erkenntnisse informiert werden ("Wir machen gerade ... vielleicht kann jemand davon profitieren oder möchte sich mit uns dazu austauschen")
  • eigene Fragen zur Diskussion gestellt werden ("Hat jemand eine Meinung zu ... ?", "Weiß jemand etwas über ...?", "Hat jemand Erfahrungen mit ...?")

Wer sich im Vorfeld einen Rede-Slot sichern möchte, kann dies hier tun: https://data.bib.uni-mannheim.de/kimws23/pad


12:30 - 13:30Mittagspause mit Verpflegung
13:30 - 14:30

Open Session

Erweitern
titleBeschreibung

Alle, die ein Thema oder eine Fragestellung haben, zu dem/der sie sich gerne mit den anwesenden Metadaten-Praktikerinnen und -Praktikern austauschen möchte, können hier Eintragungen hinterlassen - im Vorfeld oder spontan während des Workshops.

Themenvorschläge mit Stichpunkten können schon im Vorfeld eingetragen werden unter: https://data.bib.uni-mannheim.de/kimws23/open-session


14:30 - 14:40

Abschluss

KIM Workshop 2023 - Wrap-Up

Alex Jahnke (SUB Göttingen), Letitia Mölck (DNB)

14:45 - 15:30Öffentliche Sitzung der DINI-AG KIM
15:30Gemeinsamer Abschluss in der Eismanufaktur Fontanella (die Erfinder des Spaghetti-Eis)

10:00 - 11:30

14:00-15:30

Treffen der Selbsthilfegruppe Verlagsmetadaten

Öffentlich, alle Interessierten sind herzlich willkommen.