Frisch erholt starteten wir am Samstagmorgen früh mit einem Nachtrag zu VuFind und den Kommandos, die unsere Probleme gestern lösen. Danach schlug uns Herr Lohmeier verschiedene Möglichkeiten vor, wie wir auch nach dem Kurs noch Software testen können, respektive in welcher Umgebung, weil Ende Semester ja unsere Virtuellen Maschinen weg sind. Damit wir dafür gewappnet sind, zeigte uns Herr Lohmeier live, wie man beim Root-Server Digitalocean zuerst den Server zusammenstellt (man könnte auch einen Standard-fixfertig-Server haben) und dort dann OpenRefine installiert.

Linked Data

Als Beispiel für das breite Feld von Linked Data schauten wir Wikidata an. Wikidata basiert auf der Software Wikibase. Diese wird von verschiedenen Institutionen genutzt, aktuell prüft gerade die DNB, ob Wikibase auch für die GND genutzt werden kann. In einer Gruppenarbeit nuttzen wir OpenRefine und WikiData, um Metadaten anzureichern. Im vorhin live erstellten Server und frisch installierten OpenRefine haben wir dann zuerst ein neues Projekt angelegt und über eine URL erste Daten eingefügt:

03-projekt-anlegen

Danach haben wir die Autoren mit Daten angereichert. Da habe ich wohl einen Schritt übersprungen und beim nicht eindeutigen Namen niemanden (respektive alle) ausgewählt:

04-reconiliation

05-ergebnis-reconcialiation

Im nächsten Schritt haben wir die Bilder mit Daten aus Wikidata angereichert:

06-Daten aus Wikidata angereichert

Das ist echt cool, so hat man sogar Bilder, wenn man mit der Maus über die Autoren fährt:

07-Ergebnis

Nach der Übung zeigte uns Herr Lohmeier noch einige Anwendungsbeispiele und Orte, wo man weitere Literatur zur Reconciliation erhält.

SPARQL-Abfragen mit dem Wikidata Query Service

Obwohl wir schon ganze zwei Semester mit SPARQL gearbeitet haben, kam in der allerletzten Unterrichtseinheit des gesamten Studiums nocheinmal ein Hinweis, der Gold wert ist: Wenn man mit STR+Leer sucht, dann kriegt man Vorschläge, auch Propertyvorschläge! Hätte ich das nur schon viel früher erfahren. Ein weiteres Erleuchtungsinput war: Wikidata Query Service bietet einen Abfragehelfer an, mit ganz vielen Beispielsuchen! Das ist ja super-mega-praktisch! Die vergangenen Jahre haben wir jeweils Stunden damit verbraten, die Strukturierten Daten zu durchforschen, nur schon um heruaszufinden welche Properties verwendet werden und wonach wir suchen können…

Bevor wir zu den Übungen kamen, zeigte uns Herr Lohmeier zur Auflockerungen diesen lustigen Blogbeitrag mit den lustigsten SPARQL-Abfragen. Nummer 7 wird dich schokieren! ;)

Beim Ausprobieren suchte ich nach Nachnamen von Wissenschaftlerinnen. Ausgangslage war dafür eine Beispielabfrage. Dort habe ich zuerst einmal viele Labels entfernt (Geburt, Tod, Geschichte). Um eine überschaubare Liste an Treffern zu erhalten setzte ich ein LIMIT 10. Trotzdem kam die Abfrage nicht zum Abschluss:

07-abfrage

Gut möglich, dass da noch ein Fehler drin ist. Meiner Erfahrung nach braucht es immer ein bis zwei Studnen, bis man richtig im SPARQL und der Datenbank drin ist und selber erfolgreiche Abfragen zu machen. Darum führte ich nochmals die Original-Beispielabfrage durch, die aber ebenfalls zur Zeitüberschreitung führte (mit und ohne LIMIT).

Da es die letzte Stunde ist, sollte doch noch ein bisschen Spass und Erfolg mit dabei sein. Darum machten wir in der Gruppe gemeinsam die Beispiel-Katzen-Abfrage. Die hat auch wunderbar funktioniert:

01-katzenabfrage

Von den zahlreichen Ergebnissen, hier einen lustigen Teaser:

02-Katze

Zum Schluss stellte uns Herr Lohmeier noch einige weitere Tutorials vor. Diese findet ihr wie immer in seinem Skript.