Versionen im Vergleich

Schlüssel

  • Diese Zeile wurde hinzugefügt.
  • Diese Zeile wurde entfernt.
  • Formatierung wurde geändert.

...

Session_1

Moderation: N.N Deutsche Nationalbibliothek

13:00 Uhr


Frank Scholze • Generaldirektor der Deutschen Nationalbibliothek

Begrüßung und Einführung

Prof. Dr. Felix Naumann Professor for Information Systems Digital Engineering Fakultät at the University of Potsdam Hasso Plattner Institute

Keynote: Was Sie schon immer über Datenqualität wissen wollten, aber bisher nicht zu fragen wagten.

Toggle Cloak
id@T1
Abstract


Cloak
id@T1

"Unsere Daten sind in Ordnung" – wirklich? Datenqualität ist mehr als die Abwesenheit offensichtlicher Fehler. Von simplen Tippfehlern über subtile Inkonsistenzen bis zu systematischen Verzerrungen: Die Bandbreite möglicher Qualitätsprobleme ist groß, und mit dem Siegeszug von KI und maschinellem Lernen werden die Konsequenzen schlechter Daten immer sichtbarer. Was bedeuten eigentlich "gute Daten" und warum reichen klassische Maßstäbe wie Vollständigkeit und Korrektheit heute nicht mehr aus? Und wie misst man Datenqualität? Spätestens seit das EU-KI-Gesetz Anforderungen an Trainingsdaten stellt, müssen wir auch über Fairness, Diversität und Erklärbarkeit reden. Der Vortrag beleuchtet zentrale Konzepte, Methoden und offene Forschungsfragen der Datenqualität – von klassischen Ansätzen bis zu den Herausforderungen des KI-Zeitalters.


14:00 Uhr

Maximilian Kähler  Deutsche Nationalbibliothek

Ergebnisse aus vier Jahren KI-Projekt an der DNB

Toggle Cloak
id@T2
Abstract


Cloak
id@T2

In  einem internen KI-Projekt wurde an der DNB in den letzten vier Jahren untersucht, wie sich aktuelle Entwicklungen aus der natürlichen Sprachverarbeitung für die Weiterentwicklung der automatischen Erschließung eignen. Speziell wurde die Frage behandelt, welche Methoden sich am besten für die Beschlagwortung von deutschen wissenschaftlicher Publikationen mit Deskriptoren aus der Gemeinsamen Normdatei (GND) eignen. Im Ergebnis zeigt sich, dass bereits existierende Verfahren durch den Einsatz neuer Encoder-(Sprach-)Modelle weiterentwickelt werden können. Andererseits bieten generative Sprachmodelle völlig neue Wege das Beschlagwortungsproblem zu adressieren. Wir berichten von Vor- und Nachteilen und zeigen Ergebnisse unserer Evaluation.

14:30 Uhr bis 15:00 Uhr • Kaffeepause

Session_2Moderation: N.N. Deutsche Nationalbibliothek

15:00 Uhr

Prof. Dr. Andreas Hotho  • Head of Data Science Chair (Informatik X) Universität Würzburg

 LLäMmlein und ModernGBERT: Eine neue deutsche LLM-Familie in Forschung und Anwendung

Toggle Cloak
id@T3
Abstract


Cloak
id@T3

Während die meisten großen Sprachmodelle auf Englisch ausgerichtet sind, präsentieren wir mit LLäMmlein und ModernGBERT zwei komplementäre Modellfamilien, die vollständig auf die deutsche Sprache optimiert wurden: LLäMmlein, ein generatives Decoder-Modell (120 M – 7 B Parameter), und ModernGBERT, eine Encoder-Familie (138 M – 1 B Parameter) für Verständnis- und Klassifikationsaufgaben. Beide wurden von Grund auf auf einem ausschließlich öffentlich verfügbaren deutschen Korpus mit einem eigens entwickelten Tokenizer trainiert – transparent, reproduzierbar und skalierbar über verschiedene Modellgrößen und Cluster-Konfigurationen hinweg.


Im Vortrag erläutern wir den Aufbau der Datenbasis, die Trainingspipeline und die technischen Herausforderungen beim Training. Zur Evaluation wurde der eigens entwickelte SuperGLEBer-Benchmark genutzt, der speziell auf deutsche Sprachverarbeitung zugeschnitten ist und die Grundlage für unsere weiteren Anwendungen bildet. ModernGBERT erzielt dabei in mehreren Aufgabenbereichen derzeit führende Ergebnisse. Die Leistungsfähigkeit des LLMs wird zudem durch externe Anwendungen bestätigt, etwa bei der Erkennung schädlicher Inhalte in sozialen Medien im Rahmen der GermEval 2025 oder bei der deutschen Koreferenzauflösung. Die Beispiele verdeutlichen die Bedeutung aktueller deutschsprachiger LLMs, um leistungsfähige und anwendungsnahe KI-Systeme entwickeln zu können.

15:30 Uhr

Dr. Christopher Tauchmann  Postdoctoral Researcher in the Artificial Intelligence and Machine Learning Group Computer Science Department
TU Darmstadt

Think First, Talk Later – Wie moderne Reasoning Models funktionieren

Toggle Cloak
id@T4
 Abstract


Cloak
id@T4

Die Entwicklung großer Sprachmodelle hat sich 2025 spürbar verschoben: Der Fokus liegt zunehmend auf Modellen, die komplexe Probleme über mehrstufige Inferenz- und Suchprozesse bearbeiten, anstatt direkt zu antworten.
Dieser Vortrag gibt einen Überblick über moderne Reasoning-Modelle und grenzt ihre Funktionsweise von der klassischen, einmaligen Antwortgenerierung ab. Wir analysieren, wie Reasoning-Modelle zur Laufzeit über Such- und iterative Verfeinerungsverfahren zusätzliche Rechenzeit in bessere Lösungen umsetzen. Zudem betrachten wir, wie diese Fähigkeiten durch gezieltes Training sowie durch Verifikations- und Bewertungsmodelle erlernt und gesteuert werden.
Abschließend ordnen wir ein, unter welchen Bedingungen zusätzliche Inferenz sinnvoll ist und welche praktischen Grenzen sich daraus ergeben. Ziel ist eine verständliche Einordnung dieser Modellklasse.

16:00 Uhr

Robin Jegan  Lehrstuhl für Medieninformatik • Wirtschaftsinformatik und Angewandte Informatik  Universität Bamberg

LLMs vs. traditionelle Methoden: Eine fallbasierte Analyse von NLP-Szenarien

Toggle Cloak
id@T5
Abstract


Cloak
id@T5


16:30 Uhr bis 16:50 Uhr • Kaffeepause

Session 3Moderation: N.N. Deutsche Nationalbibliothek
16:50 Uhr

Dr. Oliver Vettermann Team für Immaterialgüterrechte in verteilten Informationsinfrastrukturen • FIZ Karlsruhe

Don’t be evil • Zum (rechtlichen) Schutz intellektueller Arbeit

Toggle Cloak
id@T6
Abstract


Cloak
id@T6

Künstliche Intelligenz soll Arbeit schneller, leichter und effizienter machen. Wenn man dem Transhumanismus glaubt, verhilft die Nutzung populärer LLM-Modelle der Menschheit auf die nächste Entwicklungsstufe. Die Grundlage für diese positiven Effekte sind unzählige Datenpunkte des Internets, unter anderem auch Digitalisate im Open Access. Die Fragmente dieser Digitalisate streuen weit. Teilweise bis in eine KI-generierte Wikipedia von Elon Musk, genannt Grokipedia, in der die Fragmente teils in ihr Gegenteil verkehrt und verzerrt werden. Verliert der ursprüngliche Datenpunkt, das Digitalisat, dadurch an Wert? Diese Frage lässt sich dabei auf verschiedene Weise beantworten: Wert als Konzept ist sowohl ökonomischer Nutzen, als auch gesellschaftlich-ethische Aufladung, aber auch rechtliches Schutzgut. Der Vortrag verbindet diese Perspektiven für ein interdisziplinäres Verständnis von "Wert". Wie sich der Wert durch den Einsatz von LLM-Modellen verändert, wird anhand verschiedener Beispiele illustriert.

17:20 Uhr

Prof. Dr. Mascha Will-Zocholl • Soziologie der Digitalisierung von Arbeit und Organisation  Hessischen Hochschule für öffentliches Management und Sicherheit (HöMS) Wiesbaden

Arbeit im Zeitalter von KI: Wie Automatisierung Arbeit verändert und welche Fragen wir uns stellen sollten. 

Toggle Cloak
id@T7
Abstract


Cloak
id@T7

Die Automatisierung von Arbeit ist kein neues Phänomen – seit den 1950er-Jahren prägt die Rationalisierung durch Technik und Organisation die Arbeitswelt. Doch mit dem Aufstieg Künstlicher Intelligenz (KI) erreicht dieser Prozess eine neue Qualität: Algorithmen übernehmen nicht nur repetitive, sondern zunehmend auch komplexe und wissensintensive Tätigkeiten. Dieser Vortrag untersucht aus arbeitssoziologischer Perspektive, wie KI-gestützte Automatisierung Arbeitsinhalte, Qualifikationsanforderungen und Machtverhältnisse in Organisationen verändert.

Im Rückgriff auf die lang währenden Rationalisierungsdebatten – von der Taylorisierung über die Computerisierung bis hin zur Digitalisierung – wird gefragt: Welche Kontinuitäten und Brüche zeigen sich durch KI? Wie verändern sich Arbeitsprozesse, wenn Entscheidungen zunehmend von Algorithmen getroffen oder vorbereitet werden? Und welche sozialen Folgen hat es, wenn menschliche Arbeit durch maschinelle Lernverfahren ersetzt, ergänzt oder neu strukturiert wird? Abschließend wird der Blick auf die Gestaltung von Arbeit gerichtet

17:50 Uhr

Dr. Nicolas Flores-Herr   Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS   

Keynote: Keywords (vorläufig): Datenfilter für das Training von LLMs - Teuken-7B Multilingual und Open Source

Toggle Cloak
id@T8
Abstract


Cloak
id@T8


18:30 Uhr

...