Sie zeigen eine alte Version dieser Seite an. Zeigen Sie die aktuelle Version an.

Unterschiede anzeigen Seitenhistorie anzeigen

Version 1 Nächste Version anzeigen »


Willkommen zur Fachtagung 2023 des Netzwerks maschinelle Verfahren in der Erschließung am 07. und 08. Dezember 2023


Wegen des Bahnstreiks führen wir die Fachtagung als Hybridveranstaltung durch. Wenn Sie für die Tagung angemeldet sind, erhalten Sie den Link für den Online-Zugang. Die Teilnehmerzahl ist begrenzt.


Schwerpunkt der Fachveranstaltung der Deutschen Nationalbibliothek sind die aktuellen Entwicklungen im Bereich generativer KI und großer Sprachmodelle und deren Bedeutung für die Bibliotheken.

Was können die neuesten Technologien leisten und welche Herausforderungen, Chancen und Risiken sind damit verbunden (technische, rechtliche und ethische Aspekte)? Sind die aktuellen Sprachmodelle für Anwendungen in Bibliotheken, Wissenschaft und Forschung geeignet? Und wäre es sinnvoll und rechtlich möglich, dass sich Bibliotheken mit ihren umfangreichen Beständen auch am weiteren Aufbau beteiligen? Das sind die Fragen, die beleuchtet werden.

Veranstaltungsort: Deutsche Nationalbibliothek in Frankfurt am Main, Adickesallee 1

13:00 Uhr bis ca. 18:45 Uhr

09:00 Uhr bis ca. 13:00 Uhr

Bitte melden Sie sich   HIER  an, wenn Sie teilnehmen möchten. Die Teilnahme an der Fachveranstaltung ist kostenlos. 

Hinweis: Die geplante Abendveranstaltung am 07. Dezember wird nicht stattfinden. Unsere Umfrage hat ergeben, dass das Interesse gering ist. 


Weitere Informationen

Organisation und Anfahrt:  https://www.dnb.de/kibibliotheken2023

Kontakt

Mail:  ki-ee@dnb.de  

 .


Programm der Fachtagung (Stand: 06.12.2023)


Donnerstag • 07. Dezember 2023


Beginn um 13:00 Uhr

Frank Scholze • Generaldirektor der Deutschen Nationalbibliothek

Begrüßung und Einführung



Session 1 

Datenräume



13:10 Uhr — 14:50 Uhr

Prof. Dr. Wolfgang Nejdl  •   Leibniz Universität Hannover, Institut für Data Science & Forschungszentrum L3S 

Warum auch ein großes Sprachmodell Dinge nachschlagen sollte – Über die Vernetzung von LLMs mit Suchmaschinen und Wissensgraphen





Prof. Dr. Georg Rehm  •  DFKI Berlin, Speech and Language Technology Lab  •  HU Berlin, Institut für deutsche Sprache und Linguistik

Europäische Sprachmodelle: Herausforderungen, Initiativen, Lösungsansätze


Pause 




Session 2

Infrastrukturen und Werkzeuge



15:20 Uhr — 16:40 Uhr

Prof. Dr. Martin Potthast • Universität Leipzig, Intelligent Language Technologies

Generative Suche und Biases 


Die Suche nach Informationen steht wieder einmal an einem Wendepunkt in ihrer langen Geschichte: Texte und Bilder, die früher ausschließlich aus Sammlungen bestehender Dokumente abgerufen wurden, können jetzt auf Anfrage synthetisiert werden. Aufgrund der jüngsten Fortschritte in der generativen KI im Allgemeinen und bei großen Sprachmodellen (LLMs) im Besonderen erwarten die Suchenden zunehmend, dass sie von der manuellen Aufgabe entlastet werden, die relevanten Teile der abgerufenen Dokumente zu identifizieren, und erwarten stattdessen Antworten in Form von Text- oder Multimediadokumenten. Dieser Umbruch verläuft parallel zu der wahrgenommenen Verschlechterung der Qualität der Ergebnisse traditioneller Web-Suchmaschinen. Seit Jahren beschweren sich die Nutzer/innen sozialer Medien über die geringe Relevanz der Suchergebnisse der großen Suchmaschinen. In dieser Hinsicht könnte generative KI eine Schlüsselrolle bei einer Renaissance der Informationsbeschaffung spielen. Dennoch lauern hier auch Risiken und es bedarf offener Daten und neuen Infrastrukturen, um diesen Herausforderung begegnen.




Prof. Dr. Sonja Schimmler  • Fraunhofer FOKUS Berlin, Geschäftsbereich DPS  • TU Berlin, Fachgebiet Open Distributed Systems •  Weizenbaum-Institut 

Forschungsdateninfrastrukturen und deren Bedeutung für moderne Forschung


Moderne Forschung auf international kompetitivem Niveau ist ohne digitale Unterstützung nicht mehr möglich. So werden immer mehr Daten erzeugt und auch immer mehr technische Systeme eingesetzt. Dies betrifft nicht nur die Lebens-, Natur- und Ingenieurwissenschaften, sondern ebenso die Geistes- und Sozialwissenschaften. Dies führt zu einem Paradigmenwechsel, der derzeit von zahlreichen Aktivitäten begleitet wird. Prominente Beispiele sind die Nationale Forschungsdateninfrastruktur (NFDI) sowie die European Open Science Cloud (EOSC). 

Meine zentrale Hypothese ist, dass der wissenschaftliche Fortschritt nur gewährleistet werden kann, wenn (1) Daten in großem Maßstab verfügbar sind, (2) diese Daten sinnvoll repräsentiert und verknüpft sind und (3) die Besonderheiten der einzelnen Disziplinen sehr sorgfältig berücksichtigt werden.

Im Vortrag konzentriere ich mich auf Forschungsdateninfrastrukturen und deren Bedeutung für moderne Forschung. Es wird ein Überblick über aktuelle technische Entwicklungen gegeben, wobei der Schwerpunkt auf der Repräsentation und Verknüpfung von digitalen Artefakten wie Publikationen, Forschungsdaten und Forschungssoftware liegt.

Pause




Session 3

Recht und Ressourcen

17:00 Uhr — 18:45 Uhr

Prof. Dr. Malte Stieper • Martin-Luther-Universität Halle-Wittenberg, Gundling-Professur für Bürgerliches Recht, Recht des geistigen Eigentums und Wettbewerbsrecht

Künstliche Intelligenz und Urheberrecht: Die Verwendung urheberrechtlich geschützter Werke als Trainingsdaten für „generative“ KI-Modelle


Die rasant steigende Leistungsfähigkeit sog. „generativer“ KI-Modelle, wie sie von Diensten wie ChatGPT oder DALL-E genutzt werden, lässt die jeweiligen Systeme Ergebnisse produzieren, die von menschlichen Kreationen kaum mehr zu unterscheiden sind. Das Urheberrecht, das den Werkbegriff an eine „persönliche geistige Schöpfung“ knüpft, wird dadurch vor erhebliche Herausforderungen gestellt. Auf der anderen Seite müssen die zugrunde liegenden „large language models“ (LLM) mit großen Mengen von Daten trainiert werden, deren Inhalte ihrerseits häufig urheberrechtlich geschützt sind. Viele Autor:innen befürchten, dass ihre Werke durch die Verwendung als KI-Trainingsdaten zu „Motoren ihrer eigenen Zerstörung" werden, weil diese Sprachmodelle die automatische Erstellung von Texten ermöglichen, für die sonst Autor:innen bezahlt werden müssten. Im Bibliothekskontext stellt sich daher u. a. die Frage, inwieweit die im Bestand einer Bibliothek oder eines Archivs vorhandenen Werke genutzt werden dürfen, um solche KI-Modelle zu trainieren.

Prof. Dr. Malte Stieper, Inhaber der Gundling-Professur für Bürgerliches Recht, Recht des geistigen Eigentums und Wettbewerbsrecht an der Martin-Luther-Universität Halle-Wittenberg, stellt den geltenden Rechtsrahmen im Urheberrecht vor und wirft einen Blick auf die zukünftige Entwicklung insbesondere im Recht der Europäischen Union. Einen Schwerpunkt bilden dabei die in diesem Zusammenhang relevanten Schrankenregelungen, vor allem für das Text und Data Mining.




Dr. Thomas Fricke • Consultant

The Hidden Costs of AI  - Resource Consumption and Conflicts


Even before the AI hype the energy and water consumption of data centers has grown exponentially. With the arrival of Large Language Models LLMs the problem has grown dramatically.

The talk will raise questions about how to handle the unprecedented hype and try to give responses. Is the public discussion about ethical AI really necessary or just a distraction from the real problems? Can we improve the models and the usage of AI in a way to answer useful questions? 

Veranstaltungsende um 18:45 Uhr






Freitag • 08. Dezember 2023


Beginn um 09:00 Uhr



Session 4

Technologien und Initiativen

09:00 Uhr   10:50 Uhr

Prof. Dr. Felix Sasaki  • SAP SE

Zusammenspiel von Wissensgraphen und LLMs: Ansätze praxisorientierter Rahmenbedingungen


Generative KI und insbesondere große Sprachmodelle (LLMs) zeigen neue Wege der Generierung und Erschließung von Inhalten auf. Dabei können sich LLMs und Wissensgraphen (KGs) wunderbar ergänzen: LLMs als sprachliche Schnittstelle und Speicher für generelles Wissen; KGs als Kodierung für strukturiertes, semantisch verknüpftes und domänenspezifisches Wissen. Die Herausforderung liegt darin, gewinnbringende Kombinationen der beiden Ansätze zu finden, die auch nichttechnischen Rahmenbedingungen genügt.




Hans Ole Hatzel • Universität Hamburg, Department of Informatics, Language Technology Group

Maschinelles Lernen in den digitalen Literaturwissenschaften


Traditionell wird in den digitalen Literaturwissenschaften oft explorativ mit unterschiedlichen Eigenschaften von Texten, wie etwa Worthäufigkeiten, gearbeitet. Zusätzlich wird auch Forschung auf Grundlage von Annotationen komplizierterer Konzepte betrieben.

Spätestens seit dem Aufkommen von Sprachmodellen wie BERT lassen sich viele Annotationsschemata automatisiert umsetzen, sodass Analysen der entsprechenden Konzepte auf großen Korpora ermöglicht werden. In diesem Vortrag wird der Stand der Techniken im Feld der digitalen Literaturwissenschaften dargelegt. Daraufhin werden die Herausforderungen diskutiert vor denen das Feld auch unter der Zuhilfenahme von LLMs weiterhin steht, insbesondere in Bezug auf die semantische Erschließung von Texten.




Christoph Schuhmann, Jenia JitsevLaion gemeinnütziger Verein e.V.

Laion - Das Wissen der Menschen verfügbar machen


Pause




Session 5

Fairness und Erklärbarkeit

11:20 Uhr — 13:00 Uhr

Felix Friedrich    Technische Universität Darmstadt, Computer Science Department, Hessian.AI and AI/ML Group

Generative KI - erklärbar und fair?


Wie können wir die gesellschaftliche Akzeptanz von KI-Systeme verbessern?“ Ein große Hilfe dabei ist es den Menschen zu integrieren (human-in-the-loop). ChatGPT ist hier nur ein Beispiel, bei dem menschliche Interaktion die Nutzbarkeit und Leistung deutlich steigerte und Menschen daran zweifeln ließ, dass Kreativität tot und KI gelöst sei. Obwohl beides nicht zutrifft, zeigt es dennoch das massive Potential von menschlicher Interaktion. Eine Modalität, der dabei besondere Aufmerksamkeit gilt, ist die Erklärbarkeit von KI-Modellen (XAI). Die Kommunikation zwischen Mensch und Maschine benötigt eine tiefere Ebene — die gegenseitige Erklärung für Entscheidungen.  Andererseits sehen wir, dass aktuelle Modelle stark verzerrt (biased) sind. Dies ist nicht sonderlich überraschend, da sie self-supervised auf riesigen Mengen ungefilterter Daten aus dem Internet trainiert werden. Sie laufen daher Gefahr diese (Internet-)Vorurteile widerzuspiegeln. Entsprechend ist eine weitere Herausforderung, die erlernten Darstellungen in diesen Modellen besser zu verstehen und sie in beliebige Richtungen verändern zu können, um den Weg für fairere KI-Modelle zu ebnen.




Hans-Jörg Schäuble Aleph Alpha GmbH

Chancen und Risiken generativer KI aus der Perspektive eines Startup-Unternehmens


Veranstaltungsende um 13:00 Uhr




  • Keine Stichwörter