Die Fachtagung 2021 im Rahmen des → Netzwerks maschinelle Verfahren in der Erschließung hat am 18. und 19. November 2021 online stattgefunden.
Der Fokus der diesjährigen Veranstaltung war auf die Frage gerichtet, welche Technologien der Künstlichen Intelligenz (KI) perspektivisch für die Aufbereitung, Verarbeitung und Analyse von Texten in natürlicher Sprache nutzbar sind, um deren Inhalt zu erfassen, und welche Strategien eine gute Qualität der Resultate versprechen.
Die Präsentationen stellen wir hier zum Download bereit (CC BY-SA 3.0).
Ein zusammenfassender Bericht ist im → Dialog mit Bibliotheken 2022/1 publiziert.
Programm und Präsentationen
Donnerstag • 18. November 2021
Session_1 | Moderation: Elisabeth Mödden • Deutsche Nationalbibliothek |
10:00 Uhr | Frank Scholze • Generaldirektor der Deutschen Nationalbibliothek Begrüßung und Einführung |
Prof. Dr. Kristian Kersting • TU Darmstadt, Artificial Intelligence and Machine Learning Lab Was ist und was kann KI?
→ Intelligence and Machine Learning Lab der TU Darmstadt |
11:00 Uhr | Sven Giesselbach • Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) Natural Language Understanding: Von der Forschung in die Praxis - der Siegeszug vortrainierter Sprachmodelle
Natural Language Understanding (NLU) hat in unserem Alltag Einzug gehalten. Kerntreiber der Erfolge sind Sprachmodelle wie BERT oder GPT. Sie lernen durch selbstüberwachtes Vortrainieren Texte zu repräsentieren und werden durch Transferlernen auf beliebige Aufgaben im Bereich NLU spezialisiert. Diese Modelle erzielen nicht nur State-of-the-art-Ergebnisse in der Forschung sondern verändern auch nachhaltig die Art und Weise, wie wir NLU-Projekte durchführen. In diesem Vortrag werden aktuelle NLU-Entwicklungen vorgestellt und im historischen Kontext eingeordnet. Dazu wird die Entwicklung von einfachen Textrepräsentationsverfahren bis hin zu transformerbasierten Sprachmodellen aufgezeigt. Anhand aktueller Projekte am Fraunhofer IAIS wird dargestellt, welche Vorteile die jeweiligen Modelle bieten und warum es sinnvoll ist, auch klassische Verfahren weiter einzusetzen. Schließlich wird ein Ausblick auf die weitere Entwicklung des Themenfeldes und aktuelle Forschungsrichtungen gegeben. → Präsentation |
Session_2 | Moderation: Christoph Poley • Deutsche Nationalbibliothek |
13:00 Uhr | Prof. Dr. Georg Rehm • DFKI, Speech and Language Technology Lab
Im Fokus dieses Beitrags steht das EU-Projekt European Language Grid, sowie dessen Schwester-Projekt European Language Equality, in dem wir das Thema “digitale Sprachgerechtigkeit” in Europa vorantreiben. Es werden auch Ergebnisse – und Pläne – aus anderen Projekten vorgestellt, z.B. QURATOR, SPEAKER und NFDI4DataScience. → Präsentation |
13:45 Uhr | Lydia Pintscher • Wikimedia Deutschland e.V. Wikidata : Datenqualität in einer offenen Wissensdatenbank
Wikidata ist Wikimedias Wissensdatenbank. In dem Schwesterprojekt von Wikipedia sammeln und kuratieren über 12.000 Beitragende Daten über die Welt und machen sie frei verfügbar. Die Daten sind Grundlage für unzählige Applikationen und Services, die tagtäglich genutzt werden - vom Wikipedia-Artikel über den persönlichen digitalen Assistenten bis hin zur Forschung. Für Wikimedia ist die Offenheit des Projektes essentiell und gleichzeitig haben wir eine Verpflichtung, der Welt vertrauenswürdige Daten zu liefern. In diesem Vortrag werden wir beleuchten, wie Wikimedia damit umgeht, welche Werkzeuge und Strategien bei der Datenqualitätsarbeit zum Einsatz kommen und welche Parallelen zur Arbeit an Normdaten gezogen werden können. → Präsentation |
14:15 Uhr | Jürgen Kett • Deutsche Nationalbibliothek (DNB) Datenqualität in der Gemeinsamen Normdatei (GND)
Die Gemeinsame Normdatei (GND) steht in besonderem Maße für Verlässlichkeit. Normdaten sollen inhaltlich korrekt, nach einheitlichen Regeln erfasst und dauerhaft referenzierbar sein. Für diesen allgemeinen Anspruch bürgen die Institutionen, die die GND gemeinschaftlich betreiben und pflegen. Bislang verträgt sich dieser Anspruch nur bedingt mit dem Einsatz maschineller Verfahren. Die Inhalte der GND sind bis dato das Ergebnis softwaregestützter Handarbeit. Selbst maschinell importierte Daten sind im Ursprung durch manuelle Eingaben von Kultur- und Wissenschaftseinrichtungen, Community-Projekten oder Verlagen und Autoren entstanden. Der Einsatz von Skripten beschränkt sich auf unterstützende Analysen zur Qualitätssicherung und auf triviale Datenmanipulationen, zum Beispiel um Daten in die benötigte syntaktische Form zu bringen oder um systematische Fehler zu bereinigen. Der zunehmende Einsatz maschineller Verfahren stellt die GND-Community nun vor neue Fragen und Herausforderungen: Was ist erforderlich, um die Eignung der GND für die maschinelle Erschließung zu verbessern? Wie finden neue Entitäten und Konzepte künftig Eingang in die GND, wenn die Veröffentlichungen dazu ausschließlich maschinell erschlossen wurden? Lassen sich maschinelle Verfahren für die GND-Pflege nutzen, um dem steigenden Anspruch hinsichtlich Vollständigkeit und Präzision bei gleichzeitig fehlenden Ressourcen in vielen GND-Redaktionen besser gerecht zu werden? Wie können die Anforderungen an die Verlässlichkeit der GND auch dann noch erfüllt werden? → Präsentation |
Session 3 | Moderation: Christa Schöning-Walter • Deutsche Nationalbibliothek |
15:15 Uhr | Stefan Geißler • Kairntech Open Source - Ein Schlaraffenland für KI/NLP-Anwendungen
Seit Jahren verläuft die Entwicklung neuer, immer leistungsfähigerer Programmierbibliotheken und Daten im Bereich natürliche Sprachverarbeitung (NLP) immer ungestümer und ermöglicht neue, immer leistungsfähigere Anwendungen. Entwicklungsteams, die hier den Überblick behalten und verfügbare Open Source Bausteine zu passgenauen Lösungen zusammensetzen, können sich hierfür aus einem Schlaraffenland von Komponenten, oft direkt aus der ersten Liga weltweiter Forschungsgruppen, bedienen. Das französisch-deutsche KI/NLP-Unternehmen Kairntech nimmt aktiv an dieser Community teil und erstellt für seine Anwender:innen Systeme für spezialisierte Anforderungen. Im Vortrag werden mit theaurus-basiertem Indexieren, automatischer Unterstützung bei der Pflege von Thesauri sowie automatischer Dokumentensegmentierung und Metadatenanalyse drei entsprechende Beispiele kurz vorgestellt. → Präsentation |
16:00 Uhr | Hans-Jörg Schäuble • Aleph Alpha GmbH Was kommt nach supervised learning? Chancen & Nutzen und ein Blick in die (nahe) Zukunft.
Früher wurden für KI-Modelle große Menge an (manuell) annotierten Trainingsdaten benötigt („supervised learning“). Die Folge: hochspezialisierte Modelle die eine bestimmte Aufgabe erledigen können – in vielen Bereichen besser als Menschen. Die nächste Generation von KI-Modellen ist anders und wird mit Hilfe von unfassbaren Mengen an nicht-annotierten Daten einmalig trainiert und anschließend nur noch auf die jeweilige Aufgabe gefinetuned. Aleph Alpha baut diese Art von Modellen und arbeitet daran, sie multimodal zu trainieren. So erlernen diese Art der Modelle u.a. ein deutlich verbessertes „Verständnis“ der Welt, unterschiedliche Sprachkonzepte, eine neue Form der Verknüpfung von relevantem Wissen bis zu einer moralischen Grundausrichtung. Doch was bedeutet das für den praktischen Umgang mit Wissen und die Zukunft in der Erschließung von Wissen? → Präsentation |
Freitag • 19. November 2021
Session_4 | Moderation: Ulrike Junger • Deutsche Nationalbibliothek |
9:30 Uhr | D. Sc. Osma Suominen • Finnische Nationalbibliothek Automated subject indexing with Annif and Finto AI
The National Library of Finland has developed Annif, an open source toolkit for automated subject indexing, since 2017. In May 2020, we launched Finto AI, a production service for automated subject indexing, based on Annif and a set of machine learning models trained using the General Finnish Ontology YSO and existing metadata and fulltext collections. In this presentation, lead developer Osma Suominen will present the current state of Annif development, the evaluation of automated subject indexing processes, and reflect on the future roadmap for Annif and Finto AI. → Präsentation |
10:45 Uhr | Dr. Anna Kasprzik, Moritz Fürneisen • ZBW – Leibniz-Informationszentrum Wirtschaft AutoSE: Automatisierung der Inhaltserschließung mit Machine-Learning-Methoden an der ZBW – Ergebnisse und Perspektiven
Die ZBW – Leibniz-Informationszentrum Wirtschaft befasst sich schon etliche Jahre im Rahmen von angewandter Forschung mit der Entwicklung von Machine-Learning-Methoden für die Automatisierung der Inhaltserschließung. Die so entstandenen prototypischen Lösungen mussten jedoch noch in produktive Dienste überführt werden, die sich für den durchgängigen Betrieb eignen und mit den anderen Erschließungs- und Metadatenverarbeitungsprozessen der ZBW sinnvoll verzahnt werden können. Hierfür wurde die Automatisierung der Inhaltserschließung (AutoSE) 2019 zu einer Daueraufgabe erklärt und für den Aufbau einer geeigneten Software-Architektur eine Pilotphase gestartet, die bis 2024 laufen soll. Ergebnisse aus der parallel dazu fortgeführten wissenschaftlichen Methodenentwicklung fließen kontinuierlich über Experimentier- und Testphasen in das produktive System ein. Wir berichten über die bereits erreichten Meilensteine, schildern exemplarisch technische und konzeptionelle Herausforderungen, die auf dem Weg dahin überwunden werden mussten, und skizzieren die weiteren Schritte bis zum Ende der Pilotphase. → Präsentation |
11:15 Uhr | Sandro Uhlmann • Deutsche Nationalbibliothek (DNB) Die Erschließungsmaschine (EMa) – Ergebnisse und Perspektiven der automatischen Inhaltserschließung an der DNB
Die Deutsche Nationalbibliothek (DNB) baut derzeit ein neues System zur automatischen Inhaltserschließung auf. Es ist modular gestaltet, damit Funktionen und Verfahren flexibel kombiniert, ausgetauscht oder ergänzt werden können. Nach erfolgreicher Evaluierung soll Annif als Verfahren produktiv eingesetzt werden. Dabei handelt es sich um einen Open-Source-Werkzeugkasten zur automatischen Klassifizierung und Indexierung, entwickelt an der Finnischen Nationalbibliothek. Im Vortrag werden Ergebnisse der automatischen Vergabe von DDC-Sachgruppen, DDC-Kurznotationen sowie GND-Schlagworten vorgestellt. Des Weiteren wird die technische Integration von Annif in den produktiven Workflow veranschaulicht: Von der Textbereitstellung und der Identifizierung der Sprache des Textes über die Auswahl des geeigneten Annif-Verfahrens bis hin zur Aktualisierung des bibliografischen Datensatzes. → Präsentation |
| Fazit und Ausblick |