So, am Ende des Moduls angelangt. Auch wenn es noch einiges an Korrekturen in den Tagebuch-Einträgen zu erledigen gilt. In diesem letzten Beitrag versuche ich das Modul nochmals zu rekapitulieren und meine Schlüsse aus “Bibliotheks- und Archivinformatik” zu ziehen. Was habe ich gelernt? Was habe ich nicht gelernt? Was habe ich erwartet und wie kam es dann? Vielleicht beginnen wir gleich mit den Erwartungen, denn die kamen ja chronologisch auch zuerst.

Mir war vor Beginn des Semesters noch nicht ganz klar, was genau in BAIN auf uns Studenten zukommen wird. Und um ehrlich zu sein, war es das auch bis circa Mitte des Semesters noch nicht. Auch wenn sich im Laufe des Semesters einige der Unklarheiten aufgelöst haben, so scheint mir das Konzept des Moduls “Bibliotheks- und Archivinformatik” nachwievor wie eine etwas chaotische Zusammstellung verschiedener Inhalte. Den Umgang mit Bibliotheks- und Archivsystemen wie Koha und ArchivesSpace zu lernen war an sich spannend, jedoch fehlt mir hier der Bezug zu meiner täglichen Arbeit und meinem Studienschwerpunkt Web- und Usability-Engineering. Auch bringe ich, insbesondere was die Bibliothekssysteme angeht, leider auch keinerlei Vorkenntnisse mit, so war die Arbeit mit Koha zwar spannend, aber auch etwas verwirrend, da mit einige der Begrifflichkeiten und Prozesse aus der Bibliothekswelt schlichtwegs nicht bekannt waren. Es war spannend und lehrreich, die ganzen Programme direkt via Shell zu installieren und diese einzurichten. Auch das hochladen von Daten in GitHub via Shell war sehr spannend, ich hätte mir jedoch mehr Einsicht in diese Prozesse auf technischer Ebene gewünscht. Ich verstehe schon, dass dies den Rahmen des Moduls sprengen würde, doch grundsätzlich fände ich es interessant und erstrebenswert, dem Informatik-Teil des Moduls etwas mehr Aufmerksamkeit zu schenken, die Kompetenzen hierfür sind sicherlich beidseits vorhanden. Um dies zu erreichen, könnte vielleicht die Anzahl der verwendeten Tools etwas zurückgefahren werden (Die Unterlagen sind in einem HedgeDoc, Blog ist auf GitHub, Accounts bei Koha, Archivesspace etc.) um das Modul etwas übersichtlicher zu gestalten.

Doch ich will mich nicht nur beklagen, denn die zweite Hälfte des Moduls entsprach mir sehr und sorgte dementsprechend auch für etwas mehr Klarheit. Die Arbeit mit Metadaten-Schnittstellen wie bspw. OAI-PMH war spannend und die durchgeführten Praxisübungen liessen einen näher an die Materie herankommen. Auch die Einblicke in Programme wie OpenRefine, welches mir bis dato unbekannt war und in Zukunft sicher zur Verwendung kommen wird, waren äusserst aufschlussreich und hätten meiner Meinung nach ein bisschen mehr in die Tiefe gehen können. Auch die Crosswalks, also die Konvertierungen von Metadaten in andere Standards, hätten gerne etwas mehr Platz einnehmen dürfen. Ein tieferer Einblick in XSLT, GREL oder generell in die Programmierung von Metadaten-Konvertierung (Auf was gilt es zu achten? Bevorzugte Programmiersprachen? etc.) wäre sehr spannend und vielleicht auch hilfreich für das Berufsleben und zukünftige Arbeit in Projekten.

image Das ganze ergibt plötzlich Sinn

Rückblickend stellt sich heraus, dass das etwas verwirrende Schaubild aus der ersten Vorlesung plötzlich Sinn ergibt. Das Harvesting der Metadaten aus den verschiedenen Ursprungssystemen Koha, ArchivesSpace und DSpace via OAI-MPH-Schnittstelle, die daraufhinfolgende Konvertierung in einen gemeinsamen Metadaten-Standard via MarcEdit und die folgende Importierung in das auf Solr basierende Discovery-System VuFind als zusammenhängende Prozesse erschliessen sich einem nun. Ich habe also doch so einiges gelernt in Bibliotheks- und Archivinformatik.