Lerntagebuch

Willkommen zu meinem Lerntagebuch

Ich freue mich, dass Du da bist. Ich schreibe hier über meine Erfahrungen im Kurs Bibliotheks- und Archivinformatik.

Posts

  • Abschluss des Lerntagebuchs

    So, am Ende des Moduls angelangt. Auch wenn es noch einiges an Korrekturen in den Tagebuch-Einträgen zu erledigen gilt. In diesem letzten Beitrag versuche ich das Modul nochmals zu rekapitulieren und meine Schlüsse aus “Bibliotheks- und Archivinformatik” zu ziehen. Was habe ich gelernt? Was habe ich nicht gelernt? Was habe ich erwartet und wie kam es dann? Vielleicht beginnen wir gleich mit den Erwartungen, denn die kamen ja chronologisch auch zuerst.

  • Tag 9 - Linked Data

    So letzter Tag. Bin ja auch irgendwie froh geht ein weiteres Pandemie-Semester zu ende. Seit der letzten Vorlesung ist einiges an Zeit vergangen, jedoch hatte ich die Möglichkeit, die obligatorischen Übungen noch nachzuholen, was sicherlich dabei half, bei der Sache zu bleiben. Widmen wir uns also dem letzten Tag!

  • Übung: Konfiguration Suche und Facetten

    So, die VM läuft wieder und ich kann die Übung nachholen. Die Installation von VuFind als auch die Verknüpfung mit MariaDB gestaltet sich erfreulicherweise sehr einfach und problemlos. Auch der Start der Auto-Configuration in VuFind und das beheben der fehlgeschlagenen Prozesse lässt sich anhand der Anleitung im gemeinsamen Dokument auch zum jetzigen Zeitpunkt noch gut nachvollziehen.

  • Tag 8 - Suchmaschinen und Discovery-Systeme

    So, weiter geht’s mit BAIN. Leider komme ich seit gestern nicht mehr in die VM und konnte somit auch die Übung auf heute leider nicht durchführen. Ich hoffe mal, dass wir die VM heute nicht brauchen werden. Aber zurück zur Sache.

  • Tag 7 - Metadaten modellieren und Schnittstellen nutzen 2/2

    Weiterführende Bearbeitung des Themas «Metadatenmodellierung», insbesondere in tabellarischer Form. OpenRefine wurde hier als Beispiel genannt, mit dessen Daten analysiert, bereinigt, konvertiert und auch angereichert werden können. Will heissen, durch externe Daten ergänzt werden können. Bspw. können Personennamen in Verbindung mit Geburtsdaten mit einer gemeinsamen Normdatei abgeglichen werden, um mittels Identifier zusätzliche Information aus der GND zu entnehmen, und diese im eigenen Datensatz zu ergänzen. OpenRefine ist insbesondere für tabellarische Daten zu benutzen, will heissen CSV, XLS und ähnliche Formate. Einfache XML-Dokumente sollten einfach zu modellieren sein, verschachtelte XML-Dokumente sind ohne Zusatzsoftware schwierig umzusetzen. In Kombination mit MarcEdit können auch MARC21-Daten analysiert und transformiert werden.

  • Tag 6 - Metadaten modellieren und Schnittstellen nutzen 1/2

    Donnerstagabend, etwas ungewohnt für Vorlesungen, insbesondere wenn am nächsten Tag der thematische Anschluss mit der nächsten Vorlesung stattfindet. Heute geht’s um die Modellierung von Metadaten und die Nutzung von Schnittstellen. Eigentlich ein sehr interessantes Thema, also los geht’s.

  • Übung OAI-PMH-Schnittstelle

    Die Übung zur OAI-Schnittstelle verlief äusserst zufriedenstellend. Nach ca. 24 Stunden konnte mein File auch in der OAI-Schnittstelle aufgefunden werden. Etwas mühsam gestaltet sich hier, dass die Files alle nur mit einem Identifier und dem letzten Änderungsdatum versehen sind, so sind kaum Differenzen zwischen den Files auszumachen und eine Suche nach Stichworten funktioniert auf diese Weise auch nicht. Da ich jedoch noch wusste, wann ich circa mein File auf DSpace hochgeladen habe, konnte ich es über das “Last Modified”-Feld schnell ausfinding machen. Die Metadaten zu meinem File konnte ebenfalls problemlos abrufen, diese lauten wie folgt:

  • Tag 5 - Repository-Software für Publikationen und Forschungsdaten

    So, mit einer Woche Verspätung soll es mir heute, am 26. November, auch noch gelingen, die verpasste BAIN-Vorlesung nachzuholen. Dies ist aufgrund der Web-Aufnahmen ja auch gut möglich, hier zeigt sich die Pandemie ausnahmsweise mal vorteilhaft. Let’s dive in.

  • Übung Import und Export mit ArchivesSpace

    So, Zeit für praktische Übungen mit Archivesspace. Da die bisherigen Erfahrungen mit Archivesspace durchaus positiv waren, freue ich mich auf weitere Erfahrungen. Ich muss jedoch hier auch anmerken, dass ich mir die Arbeit mit derart detaillierten Archivsystemen nicht gewohnt bin. Ich arbeite in meinem beruflichen Umfeld mit einem Medienarchiv, welches auch als Produktionsarchiv genutzt wird. Die Klassifizierung der Daten wird dort anders, und wesentlich simpler, gehandhabt, als dies hier bei Archivesspace der Fall ist. Doch genug der vorgängigen Ausreden, es folgt ein kleines Fazit aus den Übungen. Der Download der Daten als «Raw XML»-File gestaltete sich als etwas umständlich, da sich keine Funktion für den direkten Download auf der Website befand. Ich musste also einen Umweg gehen und das File im Browser öffnen, dort den XML-Code herauskopieren und via Texteditor wieder als XML-File abspeichern. Etwas mühsam, doch auch das führte zum Ziel. Ein erstes Mal stutzig wurde ich nach Beendigung des Datenimports, als bei den Ressourcen trotz angeblich gelungenem Import nichts vorhanden war. Ich beschloss mich, die vorhandenen Ressourcen aus den vorherigen Übungen zu löschen und den Import neu zu starten, vielleicht gab es ja einen Konflikt mit den Datensätzen. Doch gleich zu Beginn des Imports musste ich feststellen, dass ich beim erstem Import einen Fehler begangen hatte, und die Daten im XML-Format eingelesen habe, und nicht wie empfohlen im EAD-Format. Nun ja, kein Wunder ist hier nichts passiert. Als kleine Erklärung muss vielleicht erwähnt werden, dass Dropdown Menus, wie die Formatauswahl beim Import, auf meiner VM leider einiges an Problemen hervorrufen. Ich klickte mich also mit der Tastatur zum EAD-Format und startete den Import neu. Nach circa einer Minute waren die Ressourcen dann auch auffindbar. Ein Erfolg. Die Ressourcen wirken sehr vollständig und es scheint keine Inkonsistenzen oder Probleme beim Import gegeben zu haben. Das Einzige, was mir auffällt ist, dass im Bereich «Scope and Contents» -> «Sub Notes» -> «Text» noch Style-Tags sichtbar sind, welche offenbar in Archivesspace so nicht gelesen werden können. Ich weiss jedoch nicht, ob die daran liegt, dass ein wenig gebräuchlicher Tag in HTML 5 ist. Dasselbe Problem besteht im Bereich «Immediate Source of Acquisition» -> «Sub Notes» -> «Text» mit dem Tag , welches jedoch eher aus dem Bereich XML stammen dürfte. Aber alles in allem scheint der Import gut geglückt zu sein. Lustigerweise führte diese Entdeckung auch dazu, dass mir Inkonsistenzen beim exportierten MARCXML-File auffielen. Nachdem ich via Volltextsuche die eben angesprochenen Tags ausfindig machen wollte, waren diese im exportierten File nicht mehr auffindbar. Es scheint so, als ob beim Export Daten, welche von Archivesspace nicht interpretiert werden können, verloren gehen. Dies könnte sich bei komplexeren Files durchaus als Stolperstein erweisen und zu massivem Datenverlust führen. Dies kann daran liegen, dass MARC21 auch nicht für alle spezifischen Angaben Felder zur Verfügung stellt, somit also nicht alle Angaben beim Export übernommen werden können.

    Anzumerken gilt es, dass die Übung sich aufgrund der VM-Umgebung und der zusätzlichen Belastung durch die VPN-Verbindung erneut etwas mühsam gestaltet. Die Arbeit mit der VM ist äusserst zeitintensiv, auch da sich die Arbeit mit Archivesspace immer wieder in die Länge zieht. Dass sich das Programm jeweils etwa nach zehn Minuten von selbst beendet, macht die Sache nicht besser. Aber lehrreich war die Übung auf alle Fälle.

  • Tag 4 - Funktion und Aufbau von Archivsystemen

    So, endlich wieder einen Tagebucheintrag schreiben. Doch wo anfangen? Die letzte Vorlesung fiel aufgrund von Krankheit aus, also ist schon einiges an Zeit vergangen. Nichtsdestotrotz musste ich noch vor Beginn der Vorlesung feststellen, dass ich trotz des grossen Zeitraums zwischen den Vorlesungen vergass, «ArchivesSpaces» zu installieren. Ich startete also die Vorlesung mit einer hektischen Installation von Java 8 und darauffolgend ArchivesSpaces. Diese ging glücklicherweise problemlos vonstatten und ich konnte mehr oder weniger rechtzeitig mit der Vorlesung beginnen.

  • Tag 3 - Funktion und Aufbau von Bibliothekssystemen 2/2

    Erster Teil der Vorlesung.

  • Tag 2 - Funktion und Aufbau von Bibliothekssystemen 1/2

    Zweite Lehreinheit “Weitere Unix & Git-Funktionen, Einblick in Metadaten-Standards und Download Koha”

  • Vorstellung / Woher komme ich?

    Ich erlaube mir hier, mich selbst, meine beruflichen Hintergründe, als auch meinen Weg hierhin in einigen Zeilen vorzustellen.

  • Tag 1 - Technische Grundlagen

    Erste Lehreinheit “Organisatorisches und Grundlagen der Unix Shell”

subscribe via RSS