, 13:00-14:30 Uhr, BigBlueButton der UB Mannheim
Jana Hentschke (ZBW), Ulrike Oelhoff (UB Mannheim), Melanie Janßen (VZG des GBV), Kathrin Gläßer (SLUB Dresden), Kristin Exner (Charité), Berrit Genat (TIB) und weitere [insgesamt 20 Personen]
In der Selbsthilfegruppensitzung vom 23.09.2022 kam das Gespräch auf die Situation, dass Metadaten nicht direkt über die Inhaltsanbieter bezogen werden.
Es konnten spontan vier Fälle gesammelt werden, die unterschiedliche Vor- und Nachteile haben und die Anwesenden beschlossen, in einem separaten Treffen zum Thema genaueres zusammenzutragen und die Situationen zu analysieren.
Gemeinsame Einordnung: Was halten wir davon? Was hat Vorteile, was hat Nachteile? Wie würde man es sich als Metadaten-Konsument aussuchen, wenn man könnte?
Scheint nicht mehr aktuell sein. Wegen Rechtsstreit mit OCLC? Bedenklich wenn so andere Dienstleistungen unterbunden werden?
siehe auch: https://dltj.org/article/oclc-v-clarivate/
Exkurs, off-topic: OCLC scheint jüngst den neuen Kurs zu fahren, OCLC-Lizenzbedingungsbedingungslinks in den ausgelieferten Metadaten sehen zu wollen ... was aus verschiedenen Gründen problematisch ist - z.B. bei OCLC-IDs auf Expressionsebene (=mehrere parallele Sprachausgaben) vergeben werden (=also damit keine 1:1-Beziehung zu Datensätzen in hiesigen Verbundkatalogen besteht), außerdem sind die WorldCat-IDs praktiker:innen-bekanntermaßen nicht persistent sind
BASE (Aufsätze, Artikel)
[Nachtrag Hentschke: vielleicht auch OpenAlex?]
Beispiel: Dienstleister Barkmann + Verlag utb (anwesend)
Service z.B. individuelle Metadatenzuschnitte (z.B. Teilmenge der lizenzierten Paketen) entsprechend den Bedürfnissen der Metadatenkonsumenten
Einblicke interne Metadatenverwaltung bei utb:
Metadatendatenbank die selber betreut wird und flexible Metadatenselektionen oder Erweiterungen möglich sind
scholars - Datenkonsolidierung für ~40 Verlage (= hier wenig Einfluss auf Daten, ihren Umfang und ihre Qualität)
Hugendubel liefert Metadaten für CDs, DVDs
Potentiell für Schweitzer auch der Fall?
Dreier aggregiert Metadaten (ONIX, div. Buchhandelsformate) z.B. für ihre EBA-Modelle und lässt ihr Softwarehaus MARC produzieren
Gibt es Erfahrungen für diesen Fall, wie auf Metadatenänderungs- Erweiterungswünsche
Charakterisierung EBSCO: Ist EBSCO ein Zweifelsfall zwischen 3 und 4?
Herausforderung: Dublettencheck bei der Erwerbung um Ressourcen nicht doppelt zu kaufen. -> Metadatenproblem, da begründet in schlechter ISSN/ISBN-Lage u.ä.
E-Journals: Aus der EZB (E- / Print ISSN vertauscht, oder ganz falsch; nicht nur E-Journals sondern auch andere Arten von E-Ressourcen)
E-Books: durch E-Book-Pool-Kolleg:innen im K10Plus Situation heute sehr viel entspannter - aus deren Bereich der Eindruck, dass sich auch die Datenqualität über die letzten Jahre entscheidend verbessert hat - trotzdem laufen noch eine sehr hohe Anzahl an Korrekturen
EBSCO-Metadatenkorrekturen: keine ISSNs von Überordnungen zu E-Books mitnehmen -> Erfahrungswert, dass es damit nur Ärger gibt
Besonderheit: EBSCO
macht es besonders schwer, Paketzugehörigkeit einzelner Ressourcen zu erfahren
MARC 912 ist nur im Deutschsprachigen Raum (wenn überhaupt) erwartbar
Alternative: Paketzuordnung wird aus MARC-Bereitstellung in einzelnen Dateien oder in KBART-Dateien.
MARC-Datenqualität ... [Protokollücke]
Besonderheit Proquest: viele DDA/ATO/... Lizenzierungsmodelle
Erfahrung: partout keine KBART-Daten aus Proquest zu bekommen (um zum Bsp. Knowledge Base GOKb zu füttern)
MARC Daten zu bekommen ist für Verbundzentralen kein Problem
Bestandskennzeichnung für einzelne Bibliotheken ist hier etwas speziell (wegen DDA/ATO/EBS/... Lizenzierungsmodelle)
Libcentral Plattform (=Metadatenbereitstellungsplattform) erstmal ganz seriös, in der Nutzung fällt aber auf: zumindest in einigen Fällen sind die Titelzahlen in verschiedenen Quellen (LibCentral, Dateien, Titellisten) abweichend
Metdatendefizite:
Es werden Gesamt-MARC-Daten geliefert - weil große Mengen relativ lohnend Aufwand reinzustecken
keine Löschinfos wenn Titel aus (hochdynamischen) Aggregatordatenbanken entfernt werden
Zu beachten: Datennutzung ggf nur [Protokollücke]
Besonderheiten Content Select
per Pre Select gutes MARC
Fazit
Problem, ständig wechselnder Vermarktungseinheiten besteht hier genauso wie bei anderen (normalen) Verlagen
Sicht der Verbundzentralen: Wenn die Strukturen stabil bleiben dann grundlegend gut zu verarbeiten. Wenn es Änderungen (URL Struktur, ID Aufbau) gibt dann sind große Mengen = großer Aufwand
Als Bibliothek teilweise guter Zugriff auf Metadaten für individuelle Pakete / Modelle
Übertragen + ergänzt von Hentschke, Jana aus den während des Treffens gemeinsam erstellte geteilten Notizen im BigBlueButton, Original im Etherpad wo alle auch weiterhin schreiben dürfen