Nehmen, was kommt, oder Ansprüche stellen?

10 - 12 Uhr, BigBlueButton der UB Mannheim

Gesprächsnotizen übertragen aus dem kollaborativ geführten Etherpad.


TeilnehmerInnen

24 Personen, u.a. Anna Kasprzik (ZBW Hamburg), Jens Nauber (SLUB Dresden), Claudia Germer (DNB Frankfurt), Maike Kittelmann (SUB Göttingen), Julia Baum (DNB Frankfurt), Saskia Brauns (SUB Göttingen), Evelyn Weiser (UB Leipzig / finc), David Aumüller (UB Leipzig / finc), Thomas Gersch (SLUB Dresden), Hedda Staub (BSB München ), Mathias Kratzer (BSB München), Roswitha Kühn (BSZ Konstanz), Manfred Müller (BSB München), Ulrike Oelhoff (UB Mannheim), Jana Hentschke (ZBW Hamburg)

Themen

Vorstellungsrunde (30 Minuten)

Metadatenbezug

Übertragungswege

  • FTP
    • Passiv: laden lassen in "Hotfolder", "Data Feed"
    • Aktiv abholen
  • OAI
  • Webformular
  • SRU
  • Mail
  • Download von Website
  • Download aus Admin-Backend
  • K10Plus Zentral (direkter Zugriff auf den solr-Index)
  • WebDAV (owncloud)
  • OCLC WorldShare Collection Manager (kann nur mit Login abgeholt werden)

Einschätzungen:

  • Vorteil, wenn Alert verfügbar, wenn neue Daten verfügbar werden
  • E-Mail unelegant

  • Automatisierbarkeit wünschenswert (gewährleiste über Schnittstellen, FTP, mit Chronjobs)

  • Kein Wunschkonzert: Es kommen bei vielen Teilnehmern fast alle Übertragungswege vor

Update/Ergänzungsmechanismen

  • Gesamtabzüge bevorzugt
  • Problem der Löschungen
    • explizite Löschmeldungen werden benötigt, wenn Löschinformation weitergereicht werden muss z. B. an Lokalsysteme
    • Art der Markierung von Löschsätzen kann sich auch bei ein und demselben Anbieter ändern
    • Übermittlungsformen durch Verlage vielfältig:
      • Excellisten
      • Markierung auf Plattform (zeitliche vor entgültiger Löschung)
    • Unterschiedliche Paketzuschnitte für Lizenzteilnehmer unterschiedlicher Generationen - Lösung in K10plus: zwei unterschiedliche Löschkennzeichen. Paketaustritte einzelner Titel entweder für alle Lizenzteilnehmer (Kennzeichen "Löschung") oder nur für neuere Lizenzteilnehmer (Kennzeichen "Pseudo"löschungen)

Einschätzungen:

  • Arbeitsaufwand durch das Thema "Löschungen" enorm (vergleichbar mit "Neue Titel einspielen"!)

Bereitstellungszeitpunkt

Mit wie viel Vorlauf zum Lizenzbeginn werden die Daten bereitgestellt? Anbieterbewusstsein müsste geschürt werden, dass der Vorlauf möglichst groß sein muss, damit zu Lizenzstart der Nachweis bereits vorhanden ist. Nur dann wirklich Vorteil gegenüber manueller Katalogisierung. 

Selektion des individuell relevanten Teils der Metadaten

  • Zuordnung der Produktsigel für die Verarbeitung an den zentralen Stellen wichtig. Das Bewusstsein bei Verlagen, dass sie erkennbar machen sollten, was welches Paket ist, wäre wünschenswert.
  • Lizenzjahre werden im E-Book-Pool ausgezeichnet. Die Lizenzjahrgänge anhand der Metadaten zu identifizieren ist aber nicht immer leicht möglich - sie entsprechend nicht bei allen Anbietern den Erscheinungsjahren.
  • In der Verbundpraxis wird auch anhand relevanter inhaltlicher Ausschnitte bestellt – z.B. Ausschnitt (aller) Verbunddaten nach bspw. RVK selektiert (insbesondere für Fachinformationsdienste interessant) schwierig (z.B. per SRU aufgrund der gewünschten Datenmenge nicht günstig)

Vertragliche Regelungen

  • Problem Rechteklärung: welcher Anspruch, welche Nutzungsmöglichkeiten?

  • In der Vergangenheit vielfach keine Sanktionen in den Verträgen

  • international besonderes Problem, weil Rechtsanspruch einfordern so kompliziert wird, dass das keine Bibliothek auf sich nimmt

  • Kniff: in die Waagschale werfen bei nächsten Vertragsverhandlungen?

  • Idee + Modellversuch UB Dortmund: vor Vertragsabschluss Metadatensample anfordern und Vertragsabschluss nur, wenn Qualität stimmt. In der Praxis leider nicht durchgesetzt (am Ende immer inhaltliche Relevanz des Produktes für die Erwerbungsentscheidung das letzte Kriterium).

    • Vielleicht schürt aber allein das Anfordern des Samples ein Bewusstsein bei Verlagen?

    • Es gibt aber auch Beispiele für tatsächlich nicht zustandegekommene Verträgen nach Metadatenrückfragen im Vorfeld

  • Über die Situation heute berichten viele der Anwesenden, von dem strikten Grundsatz: Metadatenverfügbarkeit (Aufsatzebene) im Vertrag Bedingung drin

Weitere Probleme

  • Mühsam, die Übertragungsoptionen, Zugangsdaten, ... in Erfahrung zu bringen. Das bedeutet auch noch Zeitverzug.
  • Ansprechpartner ausfindig machen. An Sales/Lizenz-Ansprechpartnern vorbei zu den richtigen Metadaten-Kontaktpersonen durchdringen braucht oft lange.
  • Schlechtere Position als Dienstleister (BSZ) gegenüber dem eigentlichen Vertragspartner bei der Anbahnung des Bezugs der Metadaten. 
  • Schwierigkeiten, überhaupt Daten zu erhalten

    • Gelingt nicht immer!
    • Aus kleinen Verlagen (aber nicht nur!) sind manchmal überhaupt keine Daten herauszuholen.
    • Bei ausländischen Verlagen Daten über andere Nationalbibliotheken? Praxiserfahrung war nicht erfolgreich.
    • Könnte bei problematischen deutschsprachigen Verlagen über die DNB Metadaten bezogen werden oder Druck ausgeübt werden?
      • Beispiel: Nomos Verlag. Verzug von 3-4 Monaten bis aus DNB in K10plus. Woran liegt das? [DNB: Verlag liefert in größeren Abständen E-Book-Daten] Datenaustausch in den Verbünden. Werden wöchentlich in Ebook-Pool eingespielt. Problem: Daten sind nicht vollständig.

    • Besonderes Problem Metadatenverständnis zu gewinnen bei Juristischen Verlagen.

  • Metadatenangebot nur über Verbundnachweis OCLC World Share / Collection Manager - Extraktion schwer. Besonders für kleinen Bibliotheken. Berechtigungslage schwer an den Verbunddienstleister weiterzugeben. (Beispiel Wiley, Elsevier). Immerhin Vorteil für Verbunddienstleister, dass dann eigener zentrale Account.
  • Teilweise müssen/können ISBNs/DOIs aus URLs rausgeholt werden, wenn nicht explizit aufgeführt.

Stellenwert von KBART-Listen

  • Was enthalten KBART-Listen?
    • keine vollständigen bibliografischen Daten
    • Nachweis, welche Titel zu einem Paket gehören oder eine Bibliothek bei einem Anbieter im Zugriff hat
    • Zentrale Elemente: Identifier und zeitliche Lizenzabdeckung
  • Anwendungsfälle:
    • BVB: werden von derzeit drei Anbietern (Elsevier, Ovid und Springer) automatisch geliefert und wöchentlich in die einzelnen Bibliotheks-Instanzen der SFX-KnowledgeBase eingespielt. Laut Teilnehmerbibs ist die Genauigkeit des Nachweises, worauf sie Zugriff haben, gut.
    • ZBW: zur Ermittlung, welche Titel zu einem Paket gehören. Lizenzmanagement liefert verifizierte KBART-Listen die den Vertragsgegenstand vollständig abbilden. Die separaten Metadatenlieferungen werden damit selektiert oder auf Vollständigkeit geprüft.
    • Hohe Relevanz zur Paketverwaltung in GOKb (überregional), FOLIO (lokale Pakete), Linkresolver"beschickung"
  • Vorhandensein von Identifier für Abgleich mit Metadaten essentiell!

E-Books

In deutschen Nachweissystemen gibt es zwei verschiedene Ansätze, E-Books abzubilden:

  • Fall "Anbieterspezifische E-Book-Aufnahmen"
    angewendet im K10plus. Zwar vieles vielfach, aber für Aktualisierungsprozesse sehr viel händelbarer.
  • Fall "Anbieterneutrale Aufnahme"
    angewendet im BVB. Verschiedene AnbieterIDs in einem Datensatz. Verlässlichkeit der "Übergreifenden Identifier" (ISBNs, DOIs, ...) sehr wichtig für Aktualisierungsprozesse.

Eignet sich das Dokument "Anforderungen der dt.spr. Verbünde an Metadatenlieferungen für E-Books" der AG KVA um es Anbietern an die Hand zu geben?

Umfrage:
A) Das Dokument kannte ich bis eben nicht (10 Stimmen)
B) Ja, habe ich schon mal Anbietern an die Hand gegeben (3 Stimmen)
C) Ich hätte es gerne schon mal weitergegeben, aber hätte es dafür auf englisch gebraucht (1 Stimme)
D) Ich habe es noch nicht weitergegeben, weil mir die Anforderungen zu speziell erschienen um damit eine Chance zu haben (4 Stimmen)

Anregungen für die AG KVA:

  • Problem: nur deutschsprachig
  • ONIX und MARC trennen?
  • Anforderungen zu speziell für Anbieter (andere, grundlegendere Probleme essentieller)
  • Missverstandene Zielgruppe (Feld 912 lies an Regelung f)
  • Auffindbarkeit im Web schwierig

Datenqualität

Identifier

  • Es kommt häufig vor, dass Anbieter zwar DOIs vergeben, aber nicht granular ausliefert. Bewusstsein schärfen durch Rückmeldung? Erfolge dabei?
    • Erfahrung aus der DNB: häufig sind die Daten in Datenbanken, die den Webshop füttern, andere als die, die z.B. MARC-Daten enthalten. dann ist es ggf. schwer, die Datenpools zu vereinigen. Die Anregung zur Verbesserung wird aber meistens gut aufgenommen:
  • Print- und E-Versionen von ISBN/ISSN? E-, wenn überhaupt vorhanden im korrekten Feld? Sehr häufig sehr chaotisch.

Können wir gemeinsam die Situation verbessern? Ideen:

  • E-Mail-Vorlagen mit fertigen Formulierungen zur Rückmeldungen zu den häufigsten Identifiernproblemen (DOI, ISSN,ISBN) in deutsch und englisch?
  • (oder stattdessen) Policies austauschen und eine Metadaten-Policy-Vorlage erarbeiten?


Weiteres Vorgehen

  • Vierteljährlicher Austausch per VK (weiterer Austausch zu den noch offen Themen)
  • Mailingliste einrichten, evtl. Slack-Workspace für themengruppierten Instant-Austausch? (Was ist Slack?)
  • Mögliche zukünftige Aktivitäten:
    • Checklisten für Anbieter (und vielleicht auch Lizenznehmer) erarbeiten mit Angaben zu präferierten Bezugswegen, Datenübermittlung an Verbunddienstleister, ... ?
    • Metadaten-Policy-Vorlage erarbeiten?
    • E-Mail-Vorlagen zu Qualitätsmängelrückmeldungen?
    • Online-Treffen mit Anbietern organisieren um Aufklärungsarbeit für bibliothekarische Bedürfnisse zu wecken?

  • Keine Stichwörter