Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

Session_1Moderation: NN Deutsche Nationalbibliothek

10:00 Uhr

Begrüßung und Einführung


...

Sven Giesselbach • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS)

Toggle Cloak
id@T2
Natural Language Understanding (NLU): Stand der Technik - Ansätze - Projekte (Arbeitstitel)

Cloak
id@T2



12:00 UhrMittagspause
Session_2Moderation: NN Deutsche Nationalbibliothek

13:00 Uhr

Prof. Dr. Georg Rehm • DFKI, Speech and Language Technology Lab

Toggle Cloak
id@T3
Language Grid: Eine KI-Plattform für flexible Sprachtechnologien

Cloak
id@T3



13:30 Uhr

Lydia Pintscher • Wikimedia Deutschland e.V.

Toggle Cloak
id@T4
Wikidata : Datenqualität in einer offenen Wissensdatenbank

Cloak
id@T4

Wikidata ist Wikimedias Wissensdatenbank. In dem Schwesterprojekt von Wikipedia sammeln und kuratieren über 12.000 Beitragende Daten über die Welt und machen sie frei verfügbar. Die Daten werden dann als Grundlage für unzählige Applikationen und Services genutzt, die wir alle tagtäglich nutzen - vom Wikipedia -Artikel über den persönlichen digitalen Assistenten bis hin zur Forschung. Für Wikimedia ist die Offenheit des Projektes essentiell und gleichzeitig haben wir eine Verpflichtung, der Welt vertrauenswürdige Daten zu liefern. In diesem Vortrag werden wir beleuchten, wie Wikimedia damit umgeht, welche Werkzeuge und Strategien bei der Datenqualitätsarbeit zum Einsatz kommen und welche Parallelen zur Arbeit an Normdaten gezogen werden können.


14:00 Uhr

Jürgen Kett Deutsche Nationalbibliothek (DNB)

Toggle Cloak
id@T5
Datenqualität in der Gemeinsamen Normdatei (Arbeitstitel)

Cloak
id@T5



14:30 UhrPause
Session 3Moderation: NN Deutsche Nationalbibliothek
15:00 Uhr

Stefan Geißler• Kairntech

Toggle Cloak
id@T6
Lösungen zu Kategorisierung und Thesaurus-basiertes Indexieren (Arbeitstitel)

Cloak
id@T6



15:30 Uhr

Hans-Jörg Schäuble • Aleph Alpha GmbH

Toggle Cloak
id@T7
Was kommt nach supervised learning? Chancen & Nutzen und ein Blick in die (nahe) Zukunft.

Cloak
id@T7

Die nächste Generation von KI-Modellen ist anders und wird mit Hilfe von unfassbaren Mengen an nicht-annotierten Daten einmalig trainiert und anschließend nur noch auf die jeweilige Aufgabe gefinetuned.

Aleph Alpha baut diese Art von Modellen und arbeitet daran, sie multimodal zu trainieren. So erlernen diese Art der Modelle u.a. ein deutlich verbessertes „Verständnis“ der Welt, unterschiedliche Sprachkonzepte, eine neue Form der Verknüpfung von relevantem Wissen bis zu einer moralischen Grundausrichtung.

Doch was bedeutet das für den praktischen Umgang mit Wissen und die Zukunft in der Erschließung von Wissen?


16:00 UhrAbschluss des ersten Veranstaltungstages

Freitag •

...

19. Dezember

...

2021

...

Session_34Moderation: Christa Schöning-Walter NN Deutsche Nationalbibliothek
9:30 Uhr

Dr. Anna Kasprzik, Moritz Fürneisen • Deutsche

Bericht aus den Diskussionsgruppen am Vortag

Das Toolkit Annif

Claudia Grote  Deutsche Nationalbibliothek (DNB), Frankfurt Ι Präsentation

Entwicklung eines lexikalischen Verfahren auf der Basis endlicher Automaten an der ZBW 

Moritz Fürneisen  Deutsche

Zentralbibliothek für Wirtschaftswissenschaften (ZBW)

, Hamburg Ι Präsentation
Session_4Moderation: Christa Schöning-Walter / Elisabeth Mödden Deutsche Nationalbibliothek

Impulsvortrag: Gemeinsamer Werkzeugkasten

Elisabeth Mödden, Deutsche Nationalbibliothek (DNB), Frankfurt Ι Christoph Poley, Deutsche Nationalbibliothek (DNB), Leipzig Ι Präsentation

Toggle Cloak
id@T8
AutoSE: Automatisierung der Inhaltserschließung mit Machine-Learning-Methoden an der ZBW – Ergebnisse und Perspektiven

Cloak
id@T8

Die ZBW – Leibniz-Informationszentrum Wirtschaft befasst sich schon etliche Jahre im Rahmen von angewandter Forschung mit der Entwicklung von Machine-Learning-Methoden für die Automatisierung der Inhaltserschließung. Die so entstandenen prototypischen Lösungen mussten jedoch noch in produktive Dienste überführt werden, die sich für den durchgängigen Betrieb eignen und mit den anderen Erschließungs- und Metadatenverarbeitungsprozessen der ZBW sinnvoll verzahnt werden können. 

Hierfür wurde die Automatisierung der Inhaltserschließung (AutoSE) 2019 zu einer Daueraufgabe erklärt und für den Aufbau einer geeigneten Software-Architektur eine Pilotphase gestartet, die bis 2024 laufen soll. Ergebnisse aus der parallel dazu fortgeführten wissenschaftlichen Methodenentwicklung fließen kontinuierlich über Experimentier- und Testphasen in das produktive System ein. 

Wir berichten über die bereits erreichten Meilensteine, schildern exemplarisch technische und konzeptionelle Herausforderungen, die auf dem Weg dahin überwunden werden mussten, und skizzieren die weiteren Schritte bis zum Ende der Pilotphase.


10:00 Uhr

Claudia Grote, Sandro Uhlmann  Deutsche Nationalbibliothek (DNB)

Toggle Cloak
id@T9
Die Erschließungsmaschine der DNB (Arbeitstitel)

Cloak
id@T8



10:30 Uhr

Osma Suominen  Finnische Nationalbibliothek

11:30 UhrZusammenfassung

Dritter Diskussionsschwerpunkt: DACH-Kooperation maschinelle Verfahren

Moderation: Elisabeth Mödden / Christoph Poley Deutsche Nationalbibliothek

Vierter Diskussionsschwerpunkt: Infrastruktur zur maschinellen Erschließung mit Annif

Moderation: Claudia Grote / Sandro Uhlmann Deutsche Nationalbibliothek

Wie können Bibliotheken den Ausbau des Toolkits Annif unterstützen?

Sollten die Arbeiten mit Annif als Baustein eines kooperativen Forschungslabors auf europäischer Ebene gesehen werden? Wie könnte ein solches Labor entstehen? 

Oder sollte ein "DACH-Konsortium" die Initiative ergreifen, die Anforderungen abstimmen und dann auf die Entwickler*innen in der Finnischen Nationalbibliothek zugehen?

Das heißt: Organisiert weiterarbeiten oder doch lieber spontan? Abgestimmt oder jede Institution für sich?

Mögliche Fragen an alle Teilnehmer:

Wer setzt Annif bereits ein und welche Hürden mussten überwunden werden?

Wer plant Annif einzusetzen und wie? Welche Anwendungsszenarien sind angedacht?

Wie integriere ich Annif in meine Infrastruktur?

Welche Abhängigkeiten gibt es?

Welche Ergänzungen/Anpassungen des Tools könnten uns helfen?

Wie können wir mit beschränkten Hardwareressourcen zu validen Modellen kommen?

Zusammenfassung der Diskussionsergebnisse und Ausblick