Nehmen, was kommt, oder Ansprüche stellen?

10:00 - 11:30 Uhr, BigBlueButton der UB Mannheim


TeilnehmerInnen

11 Personen, u.a. Jana Hentschke (ZBW Hamburg), Stefanie Nooke (UB Leipzig, finc), Claudia Germer (DNB), Manuela Klasing (TU Dortmund), Anna Kasprzik (ZBW Hamburg), Ulrike Oelhoff (UB Mannheim), Hedda Staub (BSB/BVB), Roswitha Kühn (BSZ B-W)

Vorstellungsrunde

Themen

Gesprächsnotizen übertragen aus dem kollaborativ geführten Etherpad.

Trennung zwischen E-Books und E-Journals beim Erfahrungsaustausch?

Bei der Vorstellungsrunde fällt auf, dass sich die meisten Teilnehmerinnen eines der beiden Lager zuordnen lässt, wobei die E-Books überrepräsentiert sind. Sollte der Erfahrungsaustausch anhand dieser Trennlinie organisiert werden?

  • Trennung in den Bibliotheken wahlweise nach E-Book/ E-Journal (mit höherem Personenanteil E-Books) oder nach Metadatenformaten oder Mischformen -> hohe Spezialisierungsgrad bei den Mitarbeiter*
  • Perspektive der Nachnutzung der Metadaten: Möglichst große Abdeckung der Metadaten aller Medienarten -- wenn die Daten später für Prozesse genutzt werden sollen, die agnostisch sind gegenüber der Medienart (z.B. Inhaltserschließung), wäre es gut, wenn die Daten möglichst früh gemeinsame Standards (z.B. Vollständigkeit, Maschinenlesbarkeit) erfüllen --> schon bei Lieferung prüfen/fordern?
  • andere Datenflüsse/Nachweissysteme: E-Journals über ZDB und E-Books über E-Book-Pool
  • GOKb als zukünftiges System, das beides vereint?

Fazit: solange der Erfahrungsaustausch noch so breit gehalten ist, wie aktuell, besteht kein Bedarf der Trennung. Falls später dazu übergegangen wird, konkreten Empfehlungen o.ä. auszuarbeiten, könnte es sich ergeben.

Welchen Ansprüchen genügen die gelieferten Daten?

Wieviel Analyseaufwand ist angebracht? Lohnt es, ggf. zu reklamieren? Welche eigenen Investitionen in Verbesserungen oder Anreicherungen sind angemessen? Was sollten Mindeststandards sein?

  • BSZ hat Mini-Mindestanforderungen (Titel + URL. Nachrangig Jahre + Autoren). Alles, was keinen Titel + URL hat, geht direkt zurück. Als nächsten Schritt Testeinspielung in Testsystem wobei Konverter-Fehlermeldungen zum Format generiert werden. Im Testsystem dann auch intellektuell Prüfung Zeichenkodierung möglich. Wenn "stabile" verlagsspezifische Fehler selbstständig analysiert und automatisch behoben werden können, dann wird diese Anpassung fest in den Konverter verankert. "Erziehungs-"Rückmeldungen an Verlage nur, wenn vielversprechend.
  • DNB bekommt Daten einerseits direkt von Verlagen ("Direktablieferung"), aber manchmal auch von Dienstleistern. Direktablieferungen werden gegen DNB-Mindestanforderungen (ID, Titel, ...) validiert und bekommen Ablieferer bekommen ggf. Rückmeldungen. Anforderungen sind in den Kernsets dokumentiert. ((warning) Die Kernsets werden derzeit überabeitet und Neuerungen eingearbeitet.) Vorgehen: Initiale "Testphase" mit intensiver Rückmeldung um spätere regelmäßige Ablieferung möglichst solide zu haben.
  • BVB: Rückmeldungen sind das Ziel. Eindruck: Einzelrückmeldung bringt nicht viel. Aber vielleicht, wenn sich die Rückmeldungen häufen. "Steter Tropfen ...". 
  • ZBW: Rückmeldungen möglichst immer, wenn was gefunden. Nicht mit unmittelbarer Hoffnung, dass direkt Besserungen eintreten. Aber vielleicht über die Zeit.

An wem ist es, sich in der Metadatenverarbeitung zu engagieren?

Die Teilnehmerinnen bringen auf Grund ihrer unterschiedlichen Rollen verschiedene Perspektiven in den Erfahrungsaustausch ein. Sie habe dadurch auch unterschiedliche Möglichkeiten des Auftretens gegenüber den Verlagen. 

  • Dienstleister
    • DNB
    • Verbünde (BSZ, BVB)
    • Konsortialführer (ZBW)
  • Teilnehmer
    • UB Mannheim mit Sonderrolle: Datenbezug sowohl über Alma Community Zone als auch über Verbund SWB
    • TU Dortmund und UB Leipzig mit überdurchschnittlichen Metadaten-Engagement


Problem URL-Änderung / Zugriffsausfall - wie wird sich dagegen gewappnet?

Austausch zu der Frage, ob und wenn ja wie Verlage über Zugriffs-URL-Änderungen informieren.

  • DNB prüft beim Import einmalig die Korrektheit der URN (indirekt über URN-Resolving-Prüfung), aber nicht mehr laufend
  • wünschenswert wäre, solche Problem nicht zufällig oder auf Hinweis der E ndnutzer festzustellen. Monitoringtools zum systematischen Beobachten von Verfügbarkeit/Textänderungen auf Webseiten?
  • Abfrage zur aktuellen Praxis in der Runde: Mehrheit verfährt nach dem Prinzip "was auffällt, wird behoben, aber kein laufendes/automatisches Monitoring/URL-Checking"
  • Verlage sollten gravierende Plattform-/URL-Änderungen kommunizieren - das wäre die sinnvolle Stelle um anzusetzen weil die Wurzel des Problems
    • Fälle bekannt, dass Verlage angaben, Verbünden anstehende Änderung mit Vorlauf gemeldet zu haben und es kam trotzdem zu toten URLs. Wenn das stimmt, woran hat es dann gehapert?
    • Problem: Vielfalt der Kommunikationswege (Mails, Alerts im Adminaccount)
    • Lösung:
      • Anbieterbewusstsein schärfen, dass es mit initialer Ablieferung nicht getan ist.
      • Selber zum festen Workflowbestandteil machen, den Informationskanal für Änderungen bei jedem Verlag explizit abzufragen - am Besten vor den Vertragsverhandlungen!

Wie metadatenstandardkonform sind die Daten?

MARC, ONIX, JATS, ... mit wieviel Anteil Kreativität? Wieviel Zeit steckt man sinnvoll in ihre Validation und mit welchen Konsequenzen?

Praxisberichte:

  • Konverter liefert Fehlermeldungen bei Testeinspielung (BSZ und BVB)
  • DNB: Formatvalidation (XML) an erster Stelle, dann intellektuelle (inhaltliche) Prüfung, später Testimporte
  • Überall tricky: wenn Änderungen/Verschlechterungen im laufenden Betrieb (nach initialer Testphase) auftreten und formal nicht auffallen sondern durchlaufen.
    • dann eigentlich nur die Nutzermeldung als Erkennungsmittel
    • nachträgliche Reparaturen machen viel Arbeit
    • Ansatz: bei der Gelegenheit den Anlass nutzen für Rückmeldung an Anbieter, dass um Vorabinfo bei Änderungen gebeten wird
  • Zeichensatzvalidation als besondere Herausforderung, weil mit kurioser Vielfalt zu rechnen ist


Aktuelles 

  • Proquest: Liefert seit kurzem ISBNs im Feld invalid ISBN.  (BSZ)
  • Alma in NRW - Wie läuft es? Wie wird die Datenübernahme aus den Verbünden realisiert?
    Niemand auskunftsfähiges anwesend. TU Dortmund geht voraussichtlich weiter über lobid.org. Hinweise auch nachträglich gerne an die Mailingliste

  • Als positiven Effekt aus dem letzten Treffen ist jetzt das Dokument "Anforderungen der dt.spr. Verbünde an Metadatenlieferungen für E-Books" in der Übersetzung ins Englische

Zusammenspiel der Nachweissysteme

Bedeutung der Verbundsysteme vs. eigene Nachweise

E-Book-Pool

  • Betreiber VZG und BSZ für K10Plus. Ist mittlerweile frei verfügbar für alle Verbünde. Kostenlose MARC-Abzüge werden bereitgestellt.
  • Kleine Anbieter werden aktuell ggf. in den Verbundkatalogen manuell katalogisiert - diese Daten werden also aktuell nicht über Verbundgrenzen hinweg verfügbar.

Datenflüsse: wie gelangen Daten von DNB in die Verbünde?

Claudia Germer und Roswitha Kühn tragen für E-Books am Beispiel des deutschen Verlag Nomos zusammen und teilen über die Mailingliste (zum Thread).

Auch Artikeldaten werden zunehmend über die DNB verfügbar, werden aber noch nicht über die Metadatendienste ausgeliefert (Interesse daran wird aus der Runde geäußert!). Produktsigel wären für potentielle Nachnutzenden in den Verbünden/Aufsatzindexen natürlich sehr wertvoll, werden aktuell aber im Normalfall von den Verlagen nicht mit angegeben.  Im aktuellen Ablieferungsstandard könnte ein Element "Sonstige Informationen" dafür verwendet werden, das ginge aber über die laut Kernset obligatorischen und fakultativen Angaben hinaus. Im Zuge der aktuellen Überarbeitungen der Mindestanforderungen besteht auch Entwicklungsmöglichkeit. Attraktive Symbiose?: DNB wirbt bei abliefernden Verlagen für Produktsigel + Lizenzjahr-Auszeichnung und die Verlage müssen sich dann nicht mehr mit jedem Teilnehmer/Verbund in Deutschland einzeln rumschlagen?

Produktsigeln

[Nachtrag] Einführung: Die Produktsigel spielen derzeit im Zusammenhang von E-Book- und z.B. Nationallizenzen für die Exemplardatenbestellungen in den Verbünden eine große Rolle, weil sie ein Verlagspaket, ggf. in Verbindung mit dem Lizenzjahr, eindeutig identifizieren.

Zuordnung von Produktsigeln im Verbundkontext: hauptsächlich über den E-Book-Pool oder an den Artikelindexen durch die Verbundzentralen koordiniert. Daneben gibt es im K10Plus aber auch die Möglichkeit der manuellen Erfassung, die problematisch sein kann. Die Bedeutung und Definition der Produktsigel ist nicht bei allen Verbundteilnehmern bekannt. Einzelfälle falscher Zuordnungen sind ärgerlich, sind aber z.B. über Mailboxkommunikation im Dialog lösbar. Die Auswertung der Produktsigel für die Exemplardatengenerierung ist in beiden Verbünden unterschiedlich:

  • im GBV werden Exemplare automatisch auf Basis der Produktsigel im K10Plus angelegt. Das bedeutet, dass eine manuell falsche Sigelzuordnung dort allen Bibliotheken mit Exemplardatenabo direkt falsche Exemplare erzeugt
  • im SWB werden die Exemplare ausschließlich anhand der über den E-Book-Pool gesetzten Sigel generiert (was eine Motivation für dessen Pflege ist!)


Weitere Aspekte des Themas verschoben auf das nächste Treffen.

Weiteres Vorgehen

  • Nächstes Treffen auf 90 Minuten reduzieren weil angenehmere Distanz
  • Vorschläge für nächste Themen:
    • Weiter beim Thema "Zusammenspiel der Nachweissysteme"
    • Praktischer Austausch / Best Practice Vermittlung? Z.B. Zeichenkodierungsvalidation, URL-Checks?
      Über Mailingliste? Als Rubrik beim nächsten Treffen am 15.01.2021? Ergebnisse im Wiki (Blog?) dokumentieren in einer Rubrik "Kniffe und Tipps" o.ä.
  • No labels