Open Repositories – Brisbane 26-30 juni 2017

Tijdens de jaarlijkse Open Repositories Conference worden de gebruikers en ontwikkelaars van open source digitale repository platforms wereldwijd samengebracht. De repositories worden voornamelijk gebruikt voor het bewaren, beheren en beschikbaar stellen van wetenschappelijke publicaties en gedigitaliseerd of digital born erfgoed. Dit kunnen instellingen zijn voor hoger onderwijs, maar ook overheid, bibliotheken, archieven en musea. Omdat we bij de UBL momenteel druk bezig zijn met het inrichten van een platform voor digitale bijzondere collecties, Digital Collections genoemd, is het voor ons extra belangrijk om hierbij aanwezig te zijn. Niet alleen om op de hoogte te blijven van wat er speelt, maar ook om te vertellen waar wij zelf staan. De conferentie wordt jaarlijks op een ander continent georganiseerd. Vorig jaar bezochten Laurents en ik de conferentie voor het eerst in Dublin. Dat was dus nog redelijk dicht bij huis. Maar dit keer reisden we naar de andere kant van de wereld, de 2017 editie was namelijk in Brisbane, Australië. Wij waren niet de enigen die ver hadden moeten reizen, want er waren 320 bezoekers uit 29 verschillende landen. Ook bijzonder: meer dan de helft presenteerde een paper of poster, of zat in een panel.

We arriveerden in de nacht van zondag op maandag en hoewel het in Brisbane momenteel winter is, was het naar onze maatstaven heerlijk weer. Dat hielp wel bij het verjagen van de jetlag. Maandag waren er nog geen sessies georganiseerd, maar konden we deelnemen aan een rondleiding langs diverse bibliotheekvestigingen van de University of QueenslandQueensland University of Technology, en Griffith University. Ik zag vooral veel experimenten met verschillende typen werkplekken en samenwerkruimtes, zowel binnen als buiten. Gedeelde ervaring: het is overal en altijd druk. En belangrijkste tip: zorg voor flexibele ruimtes en meubels op wielen die je makkelijk kunt verplaatsen, want de studenten zullen je voorzieningen zeker anders gaan gebruiken dan jij had bedacht.

Hoogtepunt was de recent verbouwde rechtenbibliotheek, oorspronkelijk een gebouw uit de jaren 30. Hier geen glas, metaal of heldere kleuren. De architect had bewust gekozen voor een sfeer die ergens lag tussen een herensociëteit uit de 19de eeuw en een Brits universiteitscollege. Een gebouw met een chique en tegelijk moderne uitstraling, met ruimtes die uitnodigden tot studeren. Het hele gebouw was 24/7 geopend, zonder dat dit problemen veroorzaakte. Blijkbaar is het zo dat wanneer je echt iets moois bouwt voor je studenten, ze ook bereid zijn om er zorgvuldig mee om te gaan. Omdat de studenten die deze week komen zeker nieuw zullen zijn stonden er drie behulpzame studenten bij de ingang met borden met “ask us” erop: zij helpen je op weg, wijzen de weg etc. Ook opvallend: er zijn overal waterpunten, en oplaadpunten voor laptops en telefoons.

Dinsdag stond in het teken van de pre-conference workshops. Het was Laurents gelukt om er zelfs aan twee mee te kunnen doen: in de ochtend Design thinking for open science innovation een methode waarmee aan verandering in organisaties vorm kan worden gegeven. In Noorwegen wordt deze methodiek door verschillende bibliotheken al volop gebruikt. Voorafgaand was de vraag gesteld om een complex vraagstuk aan te dragen. Bij datamanagement is een van de uitdagingen waar we voor staan op welke wijze gebruik gemaakt kan worden van commerciële dienstverleners zonder dat we de controle over de wetenschappelijke data verliezen, en zodoende niet terecht komen in eenzelfde situatie als het geval is met wetenschappelijke publicaties. Er is behoefte aan zogenaamde ‘rules of engagement’, d.w.z. regels waaraan commerciële partijen zich committeren zodat data voor wetenschappelijk onderzoek toegankelijk en bruikbaar blijven. Uit de inzendingen waren twee complexe vragen geselecteerd die door 5 groepen tijdens de workshop met behulp van Design Thinking methodieken werden aangepakt. De vraag van Laurents was er een van. Na een korte introductie over wat design thinking inhoudt (“Generally referred to as applying a designers’s sensibility and methods to problem solving, no matter what the problem is” (Lockwood, 2009)) werd er aan de hand van twee methodieken aan het werk gegaan. De eerste methodiek bestond uit het goed omschrijven van de vraagstelling met behulp van de stappen problem statement – participants – target users – scope – constraints – systems en goals. Vervolgens werden de drie belangrijkste elementen benoemd die cruciaal zijn voor een oplossing. Deze werden gevisualiseerd met afbeeldingen afkomstig uit papieren tijdschriften. De groep loste de vraagstelling niet op, maar de gestructureerde aanpak leidde wel snel tot inzicht over hoe de vraagstelling benaderd dient te worden.

In de middag vond workshop Hyku: Hydra in a box plaats, open source repository software voor instellingen die niet over een bataljon ontwikkelaars beschikken, maar toch van een flexibel repository systeem gebruik willen maken. Er zitten allerlei interessante API’s bij, zoals voor gebruik van IIIF, maar helaas is het nog (lang) niet af. Dit is overigens exemplarisch voor de stand van zaken voor veel open repository-systemen. Men worstelt om bij blijven. Dit bleek ook tijdens de update van de Islandora community. Hier wordt gewerkt aan de ontwikkeling van Islandora CLAW, waaraan tijdens Islandora Camp in Delft ook uitgebreid aandacht was besteed. Ook hier duurt het nog heel lang voordat er iets wordt opgeleverd waar instellingen mee aan de slag kunnen. En ondertussen moet er ook nog tijd, energie en aandacht worden besteed aan de “gewone” Islandora, want voor je het weet loop je hiermee weer hopeloos achter. Verder was er onder meer een presentatie door het repository-team van de Chinese University in Hong Kong. Zij gaan dit jaar nog over op Alma, en blijken te worstelen met de beschrijfregels voor Chinees en de synchronisatie met Islandora. Typisch een onderwerp waarin we samen op kunnen trekken. Zij beschikken over een vergelijkbaar (klein) team als wij in Leiden, en werken aan een repository van vergelijkbare omvang. Een hele geschikte partner om mee samen te werken dus en er zijn inmiddels al heel wat emails uitgewisseld met collega’s Jeff Liu en Louisa Lam. Hopelijk kunnen zij ons op hun beurt helpen om het inladen van de scans te versnellen, want zij hebben er inmiddels al meer dan 1 miljoen in zitten!

IMG_1125

IIIF Workshop

De workshop die rondom IIIF was georganiseerd was voor natuurlijk niet helemaal nieuw meer (zie eerdere blogs hierover van Lucas van Schaik), maar toch de moeite waard om een keer heel uitgebreid uitgelegd te krijgen hoe IIIF in elkaar zit, en hoe de verschillende API’s werken. Erg leuk was dat we allerlei opdrachten kregen aan de hand waarvan de theorie telkens werd toegelicht. Ik kon daardoor voor het eerst zeggen dat ik het (echt!) snapte. Naast de standaard Image en Presentation API wordt er ook gewerkt aan de verdere ontwikkeling van Fulltext zoeken en Authenticatie. De laatste is vooral van belang om afbeeldingen te kunnen delen waar toegangsrestricties op zitten. Dat is niet alleen voor digitaal erfgoed van belang, onderdeel van de middag was ook een korte demonstratie van de werking van deze API voor publicaties in DSpace.

En verder hebben we ons vergaapt aan de prachtige faciliteiten van Queens University Faculty of Technology. Zo beschikte men over een enorm scherm voor presentaties en visualisaties (ook de posters werden hiermee gepresenteerd), en er waren overal aangename werkplekken en samenwerkruimtes in verschillende vormen en maten. De campus lag heerlijk in het groen, aan de botanische tuin met bloeiende planten en exotische vogels. En we troffen zelfs een half-ondergronds Olympisch zwembad aan tussen de collegezalen. Jaloersmakend inderdaad….

De keynote op woensdag werd gegeven door Timoty Gowers, niet alleen bekend als wiskundige, maar ook actief in de open access beweging. Gowers verhaal genaamd Perverse incentives. How the reward structures of academia are getying in the way of scholalry communication and good science was vooral een persoonlijke schets over de ontwikkelingen in zijn eigen vakgebied op het gebied van open science (met name ArXiv.org en MathOverflow). Niet heel spannend of vernieuwend, wel plezierig om naar te luisteren.

IMG_1198Tijdens het bijwonen van de panel sessie van de Confederation of Open Access Repositories COAR Next Generation Repositories: Results and Recommendations kreeg je een helder overzicht gepresenteerd van de uitdagingen waar instellingen die een repository beheren mee te maken hebben.

Belangrijkste doel voor de toekomst is het creëren van repositories die interoperabel zijn, waarop vervolgens allerlei andere diensten kunnen worden gebouwd, zoals notificaties, global sign-on etc. Dit lijkt voor de hand liggend, maar is voor instellingen met kleine budgetten een grote uitdaging. Hiertegenover staan bovendien de commerciële partijen, waar de budgetten groot zijn en men dus consequent voorop loopt, en niet per se belang hierbij hebben. Om die reden worden de ontwikkelingen door gebruikers dan ook niet direct als een innovatie beschouwd, maar eerder als een noodzakelijkheid. Dit werd nog eens bevestigd door het verhaal van Chris Bourg, bibliothecaris van MIT. Waar COAR de internationale visie op repositories laat zien, toont Bourg in de Task Force on the Future of Libraries Preliminary Report de lokale visie.

Wat was er verder zoal te zien tijdens de reguliere sessies? In de sessie Discovery & Visualisation liet Tomasz Neugebauer aan de hand van e-Artexte, een repository voor contemporaine kunst, zien hoe netwerk visualisaties “serendipity discovery” kunnen stimuleren. Aan de hand van de metadata krijg je bijvoorbeeld een goed beeld van welke kunstenaars en curatoren met elkaar samenwerken. Een groep ontwikkelaars van CORE (een aggregator voor open access publicaties) ging dieper in op de zin en onzin van aanbevelingen in het repository. Het was grappig om te zien dat onderzoekers aanbevelingen niet altijd waardeerden, bijvoorbeeld omdat ze van een concurrent kwamen. Om deze reden hadden ze een knopje toegevoegd, waarmee onderzoekers konden aangeven dat de aanbeveling niet relevant was. Erg interessant in relatie tot digitale bijzondere collecties vond ik de presentatie van Northeastern University: Using WordPress to Contextualize and Publish Digital Repository Content. Hun Digital Scholarship Group werd (net als wij) steeds vaker geconfronteerd met de wens van onderzoekers om de resultaten van hun onderzoek via een webpresentatie te delen met de buitenwereld. Hiervoor ontwikkelden zij een gebruiksvriendelijke Exhibit Toolkit gebaseerd op WordPress. Deze plugin is gebouwd op het eigen Fedora/Hydra repository en werkt ook ook op DPLA. Ook de image API van IIIF is geïntegreerd. Onderzoekers kunnen hieruit objecten selecteren en zo heel eenvoudig webtentoonstellingen maken, terwijl tegelijk het duurzame beheer van de objecten kan worden gegarandeerd.

Wat duidelijk werd tijdens de conferentie, met name de sessie  Managing images is dat veel repositories zich bezighouden met de integratie van IIIF, maar dat in veel gevallen alleen de image API wordt gebruikt, en/of dat alles buiten het repository is gehouden.

1111

Scans vergelijken in het Sinai Palimpsest Project

Het is vooral nog een kwestie van experimenteren, net als bij ons in Leiden. Een erg mooi voorbeeld hiervan is het Sinai Palimpsests Project, een onderzoeks- en onderwijs omgeving voor 100 palimpsest handschriften uit de bibliotheek van het Sint-Catharinaklooster op het schiereiland Sinaï in Egypte.  Met behulp van het IIIF framework en de Mirador viewer is een onderzoeksomgeving ingericht voor de bestudering van het materiaal. Ze hebben hiervoor van elk fragment meerdere soorten scans gemaakt, waaronder met multispectrum imaging. Vervolgens kun je verschillende versies met elkaar vergelijken. Er zijn ook allerlei handige tools toegevoegd, waaronder een meeschalende centimeter.

In de sessie over Innovations in open science werd de interessantste paper gegeven door Heli Kautonen van de National Library of Finland. Zij was eveneens verantwoordelijk voor de Design Thinking for Open Innovation workshop op dinsdag. Zij heeft de design principes toegepast op het inrichten van de access restricties in Finna, de Finse digitale bibliotheek. Basis vormt de identificatie van de gebruiker en het ultieme doel, en het vaststellen van de design principes voor de betreffende case. Een van de resultaten is dat in de facetten een specifieke vorm van access kan worden gekozen (bijvoorbeeld helemaal open, of alleen na inlog): zie links de facetten van de zoekterm “trial”: https://www.finna.fi/Search/Results?lookfor=trial&type=AllFields&limit=20&sort=

Op donderdagmiddag waren wij zelf aan de beurt en gaf ik onze presentatie over modellen voor samenwerking tussen het CDS en I&P. De presentatie maakte deel uit van de sessie Cultural heritage. Walters Art Gallery is een van de voorlopers op het gebied van open access van digitaal erfgoed. Bij zijn overstap van de Walters naar de University of Pennsylvania nam William Noel ook dit gedachtengoed met zich mee. Resultaat is de OPenn filosofie, zoals spreker Doug Emery vertelde in zijn paper. De bibliotheek beschikt op dit moment nog niet over een fancy infrastructuur en discovery interface (hier wordt wel aan gewerkt- een Fedora/Samvera omgeving). Wat ze doen is eenvoudigweg de mappenstructuur zichtbaar maken, en toegang geven tot alle files, dus ook de TIF archiefkopieën. Ook kunnen gebruikers (zowel mens als machine) CSV files met metadata downloaden. Simpel en goedkoop dus. Jammer genoeg kunnen ze ook geen goede statistieken genereren, want ik zou heel graag willen weten wie de gebruikers zijn, wat ze downloaden en welk percentage de OPenn op de hoogte stelt van gebruik van de files voor publicaties. In elk geval een voorbeeld dat navolging verdient.

2222Ook interessant was de paper over Reverse Image Lookup, waarvoor aan de hand van de module “teaching with primary resources” van de Library of Congress het hergebruik van afbeeldingen werd onderzocht. Wat blijkt: de afbeeldingen (meest omslagen van boeken) werden helemaal niet exclusief gebruikt in het lager onderwijs. Slechts 10 % werd educatief hergebruikt, de rest bestond uit privé/persoonlijk hergebruik op social media en in blogs. Dat maakt dat je wel even gaat nadenken over wat nu echt je gebruikers zijn, en waar ze zich bevinden. Of is het zoals Open Knowledge oprichter Rufus Pollock schreef: “the best thing to do with your data will be thought of by someone else”

Op vrijdagochtend liet iedereen die zich bij Queensland University in Brisbane bezig houdt met research support zien hoe men onderzoeks-ondersteuning biedt door de gehele cyclus: van digitalisering, via Research Data Management en Scholarly Publishing tot aan Research Output & Impact. Een interessant voorbeeld van een keten-proces in de bibliotheek, een onderwerp dat ook bij ons in de UBL actueel is. Want hoewel de verantwoordelijken niet afkomstig zijn uit dezelfde afdeling, werd naar de gebruiker toe gestreefd naar een zogenaamde “seamless experience”. Basis voor de keten vormt het repository ESpace, waarin de digitale bijzondere collecties en de publicaties samen zijn opgeslagen. Dit is een bewuste keuze, en het maakt dat je gaat nadenken over het verschil tussen digitale (bijzondere) collecties en wetenschappelijke data (misschien is er wel geen verschil….)

Door de hele keten hieromheen op te bouwen, weet je al vanaf het begin waar de onderzoeker zich mee bezig gaat houden, je hebt hem als het ware al bij de hand genomen. Ook kan op die manier worden gestimuleerd dat onderzoekers hun data in het repository opnemen, en niet voor een externe voorziening kiezen. Want ze bieden aan het begin en eind van de cyclus ook metrics aan, onder meer voor het meten van de impact. Hiermee kunnen onderzoekers hun eigen meerwaarde aantonen. De identifier in ESpace is hiervoor essentieel. Relevant blijven is de belangrijkste uitdaging voor het team. Hoe zorg je ervoor dat je onderzoeker niet liever hetzelfde doet in een zelf gekozen repository? Dat kan alleen wanneer het voor onderzoekers makkelijker en plezieriger is om met de eigen bibliotheek samen te werken. De juiste mensen en voldoende budget zijn hiervoor essentiële factoren.

35308037360_de9505f435_z

Rondleiding door de bibliotheek van Queensland University

Op de laatste middag kregen wij samen met de collega’s uit Hong Kong een Behind the Scenes rondleiding door de bibliotheek van Queensland University, waaronder de digitaliseringsafdeling en het CDS. Deze was georganiseerd door Tina Macht, alumnus van Book & Digital Media Studies in Leiden (op de foto in het midden, vandaar de universiteit Leiden trui!) die drie jaar geleden naar Brisbane is geëmigreerd en nu werkt voor het digitaliseringscentrum. Omdat outsourcen van digitaliseringsactiviteiten in een land als Australië minder voor de hand ligt, beschikken ze over uitgebreide voorzieningen, zoals een eigen fotostudio, en twee mooie Treventus robotscanners.

35308050880_b87dff0584_zOok kregen we een uitgebreide tour langs de verschillende bibliotheeklocaties, waar we ons vergaapten aan de faciliteiten. Zo waren er overal fonteintjes en watertaps, en troffen we in elke bibliotheek een kitchenette aan, waar de studenten hun eigen eten in de koelkast konden bewaren, opwarmen in de magnetron en een kop thee konden zetten. En omdat veel vestigingen 24/7 open zijn, waren er zelfs relax fauteuils aanwezig, waar studenten even een power nap konden doen. En nee, er lag geen beschimmelde kaas in de koelkast (hebben we gecontroleerd) en de boeken waren niet besmeurd met spaghetti in tomatensaus. De baliemedewerkers bevestigden dat de studenten aan het begin van het semester altijd even moeten worden “opgevoed” en dat er hierna best wel eens een ongelukje kon gebeuren, maar dat het reuze meeviel met de rommel.

Achter de linkjes in de tekst vind je telkens de bijbehorende foto’s. Wil je de complete set bekijken? Kijk dan op Flickr: https://www.flickr.com/photos/saskiavanbergen/albums/72157682679715802

Saskia van Bergen

Advertenties

Islandora Camp Delft 2017

islandora_camp_delft

Van 13 tot en met 15 juni 2017 werd het Islandora Camp in Delft gehouden. Een Islandora Camp is een bijeenkomst van gebruikers van Islandora (een digitaal repository) waar presentaties, workshops en tutorials gehouden worden door de Islandora Foundation en ook de gebruikers zelf. Ook wordt er veel gepraat en vooral kennis gedeeld tussen alle gebruikers van Islandora, wat ook dit keer weer heel zinvol was. Vanuit Leiden waren we met een (zware) delegatie van 4 personen: Wouter Kool van de faculteit Archeologie, Liesbeth van Wijk en Niels Molenaar van Digitale Diensten, en ik.
islandoraburger
De eerste dag werd uitgelegd wat Islandora nu eigenlijk is, wat je ermee kan, hoe je kan bijdragen en wat er in de (nabije) toekomst gaat gebeuren. Elk jaar wordt bij de uitleg van wat islandora is de Islandora hamburger erbij gehaald. Het ene jaar is het plaatje wat mooier dan het andere jaar maar het komt erop neer dat Islandora als hamburger tussen de broodjes “Fedora” (de DAM architectuur, waar de digitale objecten worden bewaard) en “Drupal” (het CMS, die de presentatie van de digitale objecten doet) in zit. Er zijn dan verschillende toppings op de hamburger mogelijk, waaronder Solr (een zoek platform). Aangezien Solr vaak als de kaas van de hamburger wordt afgebeeld en eigenlijk een standaard component is, wordt tegenwoordig ook wel gesproken van de “cheeseburger”.

Islandora kan uitgebreid worden op verschillende manieren, oftewel er zijn verschillende toppings mogelijk. Voor verschillende types content zijn er solution packs beschikbaar, zoals voor plaatjes, boeken, video, pdf, enzovoorts. Maar als je content van een ander type in Islandora wil zetten, dan is dat mogelijk door een eigen solution pack hiervoor te ontwikkelen. Ook kan de functionaliteit uitgebreid worden door een module te installeren of zelf te maken. Het uiterlijk kan helemaal aangepast worden door in Drupal een theme te installeren of zelf te maken.

Islandora is een erg flexibel, modulair, aanpasbaar en uitbreidbaar repositorium en biedt dus veel mogelijkheden om naar eigen wens aan te passen, uit te breiden en te verbeteren. Hiervoor is echter wel veel kennis nodig en die konden we voor een deel opdoen tijdens dit camp.

Er werd ook uitgebreid stilgestaan bij de toekomst; de broodjes (Fedora en Drupal) hebben namelijk allebei een nieuwe versie die nogal verschilt van de versie die de huidige Islandora gebruikt, en daarom wordt er hard gewerkt aan een nieuwe versie van Islandora. Deze nieuwe versie staat bekend onder de naam Islandora CLAW. Deze kan ook niet meer als een hamburger gerepresenteerd worden, aangezien de verschillende onderdelen op een andere manier met elkaar omgaan. Islandora zelf is geen laag meer hierin, maar integreert in elk onderdeel en speelt daarin verschillende rollen. Als er iets gebeurt in een onderdeel (bijvoorbeeld een nieuwe digitaal object wordt ingelezen in Fedora), dan worden andere onderdelen daarvan via events op de hoogte gebracht waarop zij kunnen handelen (bijv. Solr doet indexering). Door deze asynchrone manier van werken lijken acties veel sneller uitgevoerd te worden, omdat er niet meer op gewacht hoeft te worden. Eigenlijk wordt alleen maar gezegd dat een actie uitgevoerd moet worden en het systeem handelt dit dan af op het eerste beschikbare moment.

Ook wordt het onderliggende data model gewijzigd. Aangezien Fedora 4 alle data opslaat als RDF en via Linked Data communiceert, is er hiervoor (dit is dus meer omvattend dan Islandora alleen) een nieuw data model ontwikkeld genaamd het Portland Common data model. Dit is een uitbreidbaar, flexibel domein model dat als basis moet dienen voor veel DAMS.

Een mooie ontwikkeling is het plan is om binnen Islandora CLAW IIIF te gaan ondersteunen. Wanneer dit ontwikkeld wordt en in welke mate, bleef echter nog even onduidelijk, maar er zijn wel concrete plannen voor.

Islandora CLAW wordt op dit moment ontwikkeld. Een eerste minimale versie staat gepland voor eind juni 2017, maar dat is zeker geen versie die al gebruikt kan gaan worden. Dit is absoluut iets om in de gaten te houden, maar niet iets waar we concreet mee aan de slag kunnen op korte termijn.

In de huidige Islandora versie zijn er ook genoeg ontwikkelingen. Hieronder een korte beschrijving van de meest interessante:

Het Oral History Solution Pack maakt het mogelijk om audio en video in Islandora in te laden. Op zich was dit al mogelijk, maar nu kunnen ondertitels en transcript er ook bij ingeladen en afgebeeld worden. Binnen de ondertitels en transcripts kan gezocht worden, zelfs op de naam van de spreker.

May Bragdon Diaries is een Islandora site die de moeite waard is om te bekijken. De site bevat 10 dagboeken die volledig doorzoekbaar en geannoteerd zijn. Via links kan men meer te weten komen over de verschillende personen en objecten, die allemaal bekend staan onder verschillende namen. Sommige bladzijdes bevatten krantenknipsels, foto’s of ansichtkaarten en deze zijn als geheel maar ook los gescand en dus te bekijken. Deze site laat goed de kracht en flexibiliteit van Islandora zien, maar ook dat zoiets veel werk is (een projectteam van 10 personen heeft hier 5 jaar aan gewerkt).

Natuurlijk werden er andere leuke Islandora sites ook getoond; katten, honden, geneeskunde, violen en St. Andrews. Ook werden er veel (nieuwe) Islandora modules getoond, allemaal te vinden via Islandora awesome. Zo is er een EAD solution pack, een Serial solution pack, een Document solution pack (waarmee Office documenten ingeladen kunnen worden), een Binary solution pack (alle bestandstypes maar zonder een manier om die te tonen), een XML solution pack (XML bestanden ingelezen in Islandora kunnen met een XSL transformatie getoond worden) en een Streaming media solution pack (kan MP4 video bestanden die ergens anders zijn opgeslagen via Islandora streamen naar de gebruiker).

Op dag 2 was er een dev track en een admin track. Ik heb de dev track gevolgd, waarin van alles werd besproken en veel vragen beantwoord werden. Zo heb ik weer wat nieuws geleerd over SOLR en XACML die beide belangrijk zijn binnen Islandora. Al deze dingen waren heel leerzaam voor mij, maar helaas niet heel geschikt om in een blog over te schrijven. Wel bleek er iemand bezig te zijn met een IIIF module voor de huidige versie van Islandora. Deze module is nog in ontwikkeling maar is wel interessant om dit te volgen en wellicht hieraan bij te dragen.

Op de derde en laatste dag werden als eerste zoals gebruikelijk de “Islandora Camp awards” uitgereikt. Dit zijn prijzen voor degene die het verst gereisd heeft, die het meest betrokken was bij het camp enzovoorts. Deze prijzen zijn een ludiek en terugkerend thema op de Islandora Camps.

De derde dag was ook de dag van de presentaties. Er werd door een aantal gebruikers van Islandora een presentatie gegeven over hoe zij Islandora gebruikten en/of hadden aangepast aan hun wensen. Een van de mensen was ik. In mijn presentatie heb ik uitgelegd hoe wij de data van onze oude systemen in ons nieuwe Islandora repositorie importeren. Het probleem is namelijk dat de data die geëxporteerd wordt uit deze oude systemen, niet in een formaat staat wat ingelezen kan worden door Islandora. En aangezien we meerdere oude systemen hebben die allemaal meerdere eigen formaten exporteren, is dit een groot probleem. Hiervoor heb ik een module (Prepare Ingest) gebouwd waarmee een workflow gemaakt kan worden waarmee de data van het ene formaat in een formaat wat Islandora in kan lezen, omgezet kan worden. Tijdens de presentatie demonstreerde ik dit met een relatief simpele export van plaatjes die meerdere boeken representeerden. Gelukkig ging dit allemaal goed.

Als de data is omgezet met deze module, kan het ingelezen worden in Islandora. Deze maakt er dan automatisch afgeleiden van. Aangezien dit niet altijd goed gaat en we een mogelijkheid wilden hebben om te controleren of een importeeractie goed was gegaan, heb ik een module (Check datastreams) gemaakt die controleert of alle objecten compleet zijn. Deze module heb ik ook gepresenteerd.

Metadata wordt bij ons in Alma geregistreerd. Natuurlijk willen we deze metadata ook binnen Islandora gebruiken. Ik heb hiervoor een module (Metadata synchronisation) gemaakt die metadata van een OAI-PMH bron kan ophalen en gebruiken binnen Islandora. Ook deze module heb ik op het Islandora Camp gepresenteerd. Mijn volledige presentatie is hier te vinden.

Na mijn presentatie was er nog een presentatie van de man die de meeste lovende woorden over mijn modules had. Hij (Diego Pino Navarro) presenteerde zijn eigen module de Multi Importer. Hiermee kunnen objecten van verschillende types tegelijkertijd ingelezen worden in Islandora. Deze module heeft voor een deel soortgelijke functionaliteit als mijn module Prepare Ingest. We hebben nog hierover gepraat en vonden het allebei een goed idee om meer naar elkaars werk te kijken en wellicht delen van elkaars werk in het eigen werk op te nemen. Dit is dus nog een van de dingen die op mijn to do lijstje staat.

Islandora Camp eindigde met een unconference; oftewel stel alle vragen die je nog hebt en dan proberen we samen een antwoord te vinden. Dat hebben we natuurlijk gedaan en onze vragen werden ook allemaal beantwoord. Dit was echter wel een conferentie waar je vandaan komt met een heel pak huiswerk; ik moet nog veel dingen bekijken, nader uitzoeken en vooral heel veel lezen. Dus ik ga nu maar weer ’s aan mijn huiswerk!

 

 

 

IIIF 2017 Vaticaanstad

iiif2017vatican

Van 6 tot 9 juni 2017 was ik met Laurents Sesink (CDS) naar de IIIF (spreek uit als Triple-Eye-Eff) conferentie in Vaticaanstad. Natuurlijk was er veel te zien in Rome en Vaticaanstad zelf, maar de conferentie was ook erg interessant, dus hieronder een korte impressie.

De dag voor de eigenlijke conferentie begon, was er een IIIF showcase waarin duidelijk werd gemaakt wat IIIF nu eigenlijk is en wat je ermee kan. Hieronder nog een korte uitleg over de verschillende mogelijkheden van IIIF, maar ook mijn vorige blog is interessant om (nog eens) te lezen.

IIIF is een verzameling API’s en ideeën/concepten over het tonen van, delen van en samenwerken met plaatjes. Het bestaat momenteel uit 4 verschillende API’s:

  1. Image API, waarmee op een eenduidige manier (delen van) plaatjes opgevraagd kunnen worden in o.a. verschillende groottes en formaten en waarmee informatie over het plaatje verkregen kan worden;
  2. Presentation API, waarmee de structuur en opmaak (layout) van een object bestaand uit meerdere plaatjes beschreven en getoond kan worden inclusief eventuele annotaties;
  3. Authentication API, beschrijft een aantal manieren hoe een IIIF viewer om kan gaan met bestaande authenticatie systemen;
  4. Content Search API, waarmee binnen de structuur van een object en de gerelateerde annotaties gezocht kan worden.

Tijdens de eerste dag van de conferentie werd veel aandacht aan de community gegeven. IIIF is een community-driven framework, wat inhoudt dat het bedacht, gedocumenteerd en onderhouden wordt door een groot aantal mensen van verschillende organisaties. Voor elke specialisatie is er een aparte community die elk wat voorbeelden lieten zien van waar ze mee bezig waren. Een leuk voorbeeld van de manuscript community is hier te vinden. Je kan daar zoeken in een groot aantal manifesten en deze met elkaar vergelijken. Kies rechtsboven in voor “Change Layout” en dan 1×2. Sleep een van de IIIF iconen van links naar de viewer. Je moet soms wat geduldig/vasthoudend zijn, maar het is een mooi voorbeeld van wat kan met IIIF.

De Museums community had een brief opgesteld en verstuurd waarin werd gevraagd aan de makers van bibliotheek software om IIIF te ondersteunen. Aangezien de brief  ondertekend was door meerdere musea in de VS en Europa, zou dit meer gewicht geven aan de vraag om ondersteuning voor IIIF in bibliotheek software.

Verder wordt er hard gewerkt aan Discovery, oftewel er zijn veel organisaties die IIIF gebruiken en hun plaatjes via IIIF aanbieden, maar hoe zorg je er nu voor dat deze ook te vinden zijn. Deze community was druk bezig met het uitzoeken hoe dit het best opgelost kon worden

Er waren ook veel “lightning talks” waarbij verschillende organisaties maar ook software leveranciers lieten zijn waar ze mee bezig waren. Interessant was dat het al veel en steeds meer gebruikt wordt, maar ook dat bijvoorbeeld Europeana zei dat ze IIIF zien “as key to sharing images”. Dit betekent dus dat IIIF steeds beter populairder wordt en dus ook door de grotere spelers gezien en ondersteund wordt.

Verschillende organisaties zijn druk bezig om IIIF op nieuwe en innovatieve manieren in te zetten. Zo is Getty Research bezig met het omzetten van EAD (Encoded Archival Description) naar manifesten voor het gebruik van IIIF. De Johns Hopkins University is bezig met een project om Fedora Commons (de software die wij ook gebruiken als backend van onze nieuwe repository) IIIF te laten praten. Maar helaas bleek dit nog een theoretisch verhaal.

Ook aan het gebruik van annotaties werd door verschillende partijen veel aandacht besteed. Annotaties zijn een essentieel onderdeel van de IIIF API’s maar ze worden hierin niet gespecificeerd. Hiervoor wordt namelijk de Open Annotations Data Model gebruikt. Het annotatie model is heel flexibel opgezet, eigenlijk zijn overal annotaties op te maken, er kunnen zelfs annotaties op annotaties gemaakt worden. Ook kunnen de annotaties van andere bronnen komen dan de manifesten zelf, wat weer meer vrijheid geeft.

Het was zeker een interessante conferentie waarbij heel veel te zien en horen was (en dan heb ik het niet eens gehad over de ICT monnik in habijt, met overgewicht en bloempotkapsel). En natuurlijk was er buiten de conferentie ook veel te zien en lekker te eten!

 

Wetenschappelijke neutronenkorrels

Mylovabletiger

Ach, dat waren nog eens mooie tijden. De onwetende student ging naar de informatiespecialist en die kon precies vertellen hoe en waar de gevraagde informatie te vinden was. Over de kwaliteit hoefde niemand zich zorgen te maken: Bij de poort van de bibliotheek zat immers een vakreferent die er voor zorgde dat alle niet wetenschappelijk verantwoorde literatuur geweerd werd. Tegenwoordig is dat wel anders. In de (om het afgrijselijke woord maar weer eens te gebruiken) tsunami aan informatie die we over ons heen krijgen moeten de bibliotheken hun uiterste best doen om een overzicht te houden op wat zich waar bevindt.

En dan zitten we ook nog in het tijdperk van het fake news. De wetenschappelijke wereld heeft te maken met het groeiende ongemak van de predatory publishers, uitgevers die het Open Access-model misbruiken door auteurs te lokken met snelle en vrijwel gegarandeerde plaatsing van hun artikelen in goed aangeschreven, peer reviewed journals en dat tegen lage publicatiekosten. Wie zijn Van Kooten en De Bie kent denkt direct aan neutronenkorrels, en inderdaad, vaak blijkt er nauwelijks of geen peer review te zijn, blijven ook de taalfouten gewoon staan en is het e-journal niet meer dan een slordig vormgegeven website, die vaak dan ook niet is geïndexeerd door degelijke databases als Thompson Reuters en EBSCO. Ondanks die geur van onbetrouwbaarheid zijn er genoeg auteurs die hun artikelen onderbrengen bij zo’n malafide uitgever. Gebrek aan geld en een grote publicatiedruk vergroten maar al te vaak de aantrekkingskracht en vertroebelen de kritische blik van de (vaak nog jonge) wetenschapper.

De afgelopen jaren is het aantal predatory publishers enorm gegroeid. De Amerikaanse bibliothecaris Jeffrey Beall begon in 2011 met een lijst waarop 18 potential, possible, or probable predatory publishers stonden. Toen Beall zijn lijst begin dit jaar onverwacht offline zette, stonden er bijna 1300 roofdieruitgevers op. Natuurlijk staan er genoeg goede artikelen in de journals die door predatory publishers worden uitgegeven worden, maar de rammelende acceptatiecriteria zorgen er voor dat er ook veel kaf tussen het koren zit, en dat is een kwalijke zaak (denk bijvoorbeeld aan artikelen in medische tijdschriften).
Het is lastig om dat kaf van het koren te scheiden. Vorig jaar heeft DOAJ (Directory of Open Access Journals, de meest bekende aanbieder van OA journals) veel tijdschriften verwijderd en werden de toelatingscriteria aanmerkelijk verscherpt. Niettemin bevat de DOAJ nog honderden journals die voorkomen in Beall’s lijst. Wat is waarheid? Wie heeft gelijk?

Het betekent in ieder geval dat de mensen aan de poort van onze informatiecentra een scherp oog moeten hebben voor deze (al dan niet) wetenschappelijke gelukszoekers. Er circuleren op internet al veel pagina’s waarop tips staan om predatory journals te kunnen identificeren. Het gaat dan om vragen als ‘Heeft het tijdschrift een formele editorial board?’ of ‘Is het copyright goed en duidelijk geregeld?’ Uitgebreide voorbeelden zijn ondermeer te vinden bij WAME (met de criteria van Beall, DOAJ), the MAP Newsletter en Think,Check,Submit (met daarachter o.a. PubMed Central en Springer.)

Het is goed om de werkelijk onbetrouwbare tijdschriften buiten de deur te houden, want eenmaal binnen worden ze door onze klanten, die vertrouwen in ons hebben, als betrouwbaar beschouwd en dus is Minder! Minder! Minder! in dit geval nu eens volkomen op zijn plaats.

 

Holland – Engeland. Uitslag: 158.000.000-3

Wie durft er nu nog te beweren dat het Nederlands wordt verdrongen door het Engels? De zoekvraag This is the best * on the internet levert 3 resultaten op, terwijl Dit is de beste * op het internet maar liefst 158.000.000 resultaten oplevert. Overigens is de uitslag bij andere zoekmachines aanmerkelijk minder schrijnend voor Engeland.

Waarschijnlijk heeft Google hier een probleem met stopwoorden.

ned

eng

 

 

 

 

 

Mediaevistiek, moderne technologie en de “Tremulous hand of Worcester”

9a503e8d-be4f-4314-ac40-ce5ee04028ff

Regionaal Historisch Centrum Limburg in Maastricht, gevestigd in de oude Minderbroederskerk

Op 2 en 3 februari vond in het Regionaal Historisch Centrum Limburg in Maastricht de internationale conferentie Parchment, Paper and Pixels. Medieval Writing and Modern Technology plaats. De bijeenkomst werd georganiseerd door SSNM (Schrift en Schriftdragers in de Nederlanden in de Middeleeuwen), het Huygens Instituut voor Nederlandse Geschiedenis, het RHCL en het Henri Pirenne Instituut voor Middeleeuwse Studies te Gent. Hoewel de titel doet vermoeden dat de presentaties alleen paleografie en oorkondeleer als onderwerp hadden, was de scope breder dan dat. Het doel van de conferentie was om de relatie tussen de Middeleeuwse en digitale wetenschappen in het algemeen te analyseren. Mediëvisten die op geen enkele manier gebruik maken van digitale hulpmiddelen zullen dun zijn gezaaid, alleen al de aanwezigheid van gedigitaliseerd handschriftelijk materiaal op het web heeft het onderzoek de laatste decennia veel toegankelijker gemaakt. Maar voor Digital Humanities onderzoek is wel wat meer nodig. Tijdens het symposium werd een aantal succesvolle projecten gepresenteerd.

Opgeleid als Mediaevist ben ik uiteraard breed geïnteresseerd in de ontwikkelingen in mijn vakgebied. Maar vanuit mijn functie bij de UBL was het ook boeiend om te zien van welk type tools onderzoekers op dit moment gebruik maken bij hun onderzoek, welke behoeften spelen, en bij welke onderdelen van het onderzoeksproces de bibliotheek een rol kan spelen.

De keynote op de eerste dag werd verzorgd door Peter Stokes. Hij is de bedenker van DigiPal, een open source tool voor het vergelijken van schrift. De software stelt onderzoekers in staat om te zoeken naar lettervormen, en de karakteristieke kenmerken eenvoudig met elkaar te vergelijken. Je kunt bijvoorbeeld letters over elkaar schuiven, en ze op een tijdlijn zetten. Hoewel Stokes DigiPal oorspronkelijk ontwikkelde voor Engels elfde-eeuws schrift, wordt de software inmiddels breder toegepast, met als resultaat SephardiPal (Hebreeuws schrift van het iberisch schiereiland), ScandiPal (het schrift van Scandavische fragmenten) en BayeuxPal (lettervormen op het tapijt van Bayeux).

In het verleden werd er nog wel eens getwijfeld aan de status van paleografie en codicologie: was het niet eigenlijk een hulpwetenschap voor historici? De DigiPal tool maakt het werk van de onderzoeker makkelijker, maar neemt het niet uit handen. DigiPal vertelt je niet of handschrift A en B door dezelfde kopiist zijn geschreven of niet, de interpretatie moet nog altijd van de onderzoeker zelf komen. Toch bestaat de angst dat tools als DigiPal er op den duur voor zorgen dat de rol van de paleograaf helemaal verdwijnt, en op basis van kwantitatieve analyses ook de conclusies kunnen worden getrokken. Dit was precies het onderwerp van de paper van Mats Dahllöf, die zich bezighoudt met automatische toeschrijving. In zijn abstract claimt hij een nauwkeurigheid van 97,1 % te bereiken, maar helaas moest hij door ziekte afzeggen. Natuurlijk wordt pas door de juiste vragen, methode en analyses van de onderzoeker software een echte onderzoekstool. Tegelijk vereist het andere kwaliteiten van de onderzoeker. Is het ook nodig dat zij zich al deze nieuwe technieken eigen maken? Tot op welke hoogte? En hoe komen ze aan deze kennis?

Miriam Edlich-Muth houdt zich bezig met de verspreiding van Floris ende Blancefloer. Van deze tekst zijn vele versies en vertalingen gemaakt, en het verhaal is dan ook van Griekenland tot en met IJsland bekend. Zoals veel onderzoekers begon zij met het vastleggen van kwantitatieve gegevens in een spreadsheet, maar al snel realiseerde ze zich dat deze methode niet voldeed aan haar wensen. Met behulp van een ontwikkelaar op haar afdeling maakte ze enkele zogenaamde heatmaps en dendrogrammen (voor het maken van een hiërarchische cluster analyse), tools die veel worden gebruikt door statistici. Uit diverse papers bleek dat onderzoekers op verschillende niveaus hulp kunnen gebruiken bij Digital Humanities onderzoek. In de eerste plaats bij het kiezen van de juiste tool. Hiltmann & Gniffke wilden bijvoorbeeld TEI gebruiken om de ontwikkeling van de Franse tekst “Comment les obseques se doivent faire”, over de uitvaart van edelen, in kaart te brengen. Als snel kwamen ze erachter dat de standaard hiervoor voldeed. TEI is een xml standaard bedoeld voor het maken van digitale edities en te plat voor het visualiseren van relaties tussen teksten. Ook wilden ze allerlei zaken in de standaard stoppen die er eigenlijk helemaal niet in thuis horen, en waar waarschijnlijk veel betere tools beschikbaar voor zijn. Precies hierin kan een Centre for Digital Scholarship een belangrijke rol spelen. Hier beschikt men over een overzicht van de beschikbare tools en technieken in de diverse vakgebieden en de toepassingen tot dat moment. Software die binnen het ene vakgebied is ontwikkeld om taken te automatiseren, kan in het andere vakgebied geschikt zijn om nieuwe onderzoeksvragen te beantwoorden. Ook kan een dergelijk loket een rol spelen bij het samenbrengen van onderzoekers uit verschillende disciplines. Het onderzoek van Stephen Smith en Deborah Thorpe liet zien waar een dergelijke samenwerking toe kan leiden. Smith houdt zich bezig met de ontwikkeling van medische hulpmiddelen voor patiënten met neurologische aandoeningen, en Thorpe is paleograaf. Samen onderzochten zij neurologische aandoeningen in de middeleeuwen aan de hand van (handgeschreven) teksten. Een bekend voorbeeld hiervan zijn de teksten van de 13de eeuwse Tremulous hand of Worcester, herkenbaar aan zijn bevende schrift. Opvallend is dat veel kopiisten, waaronder de Tremulous hand, ondanks hun conditie nog heel lang door konden schrijven. De onderzoekers wilden achterhalen aan welke aandoening zij leden. Was het mogelijk de ziekte van Parkinson, of toch Alzheimer?

schermafbeelding-2017-02-12-om-9-40-17-am

Ook het magische woord IIIF kwam een aantal keer voorbij. Verschillende onderzoekers lieten weten dat ze staan te springen om de mogelijkheden van het protocol te gaan gebruiken. Ze willen bijvoorbeeld gedigitaliseerde handschriften over een specifiek onderwerp op één plek samenbrengen om ze beter te kunnen vergelijken, of gedigitaliseerde handschriften transcriberen en annoteren, zoals wordt gedaan in French Renaissance Paleography.

Agata Dierick vertelde over Itinera Nova, een voorbeeld van een succesvol crowdsourcings-project geïnitieerd door het stadsarchief van Leuven. Doel is het digitaliseren en ontsluiten van de registers van de Leuvsense schepenbank (1362-1795). Aangezien het bijna een half miljoen folia betreft, heeft men hiervoor de hulp van vrijwilligers ingeroepen. Hiervoor werd een online platform ingericht met handleidingen, filmpjes en mogelijkheden voor kennisuitwisseling. Ook werd een interactieve online tutorial paleografie ontwikkeld.

De keynote op de tweede dag werd gegeven door Georg Vogeler van de universiteit van Graz. Hij werkt hier als Digital Humanities specialist voor het ‘Zentrum für Informationsmodellierung in den Geisteswissenschaften’. Hij vertelde met name over de uitdagingen bij het integreren van twee charter databases: Regesta imperii en Monasterium.net. Regesta imperii heeft een tijd geleden de ruwe data vrij beschikbaar gesteld onder CC-BY licentie. Hierdoor was het mogelijk geworden om de dataset te integreren in Monasterium.net, een database platform dat zelf ook weer verschillende typen bronnen samenbrengt: gedigitaliseerde gedrukte edities, beschrijvingen en scans van charters en aanvullende data die alleen via de website beschikbaar wordt gesteld. Integratie levert niet alleen een betere vindbaarheid op, maar ook een verbetering van de functionaliteiten. Wat is hiervoor nodig?

  • Meer datasets zouden open access beschikbaar moeten worden gesteld;
  • Via een api met data in formats die uitwisseling bevorderen;
  • Als linked open data met semantic web technologies;
  • En door het gebruik van gedeelde conceptuele modellen

Allemaal zaken waar in Nederland dankzij de activiteiten van het NDE gelukkig al hard aan wordt gewerkt.

In zijn slotbeschouwing stelde Georg Vogeler vast dat onderzoek aan de ene kant steeds vaker interdisciplinair is, maar dat dit aan de andere kant ook weer eigen specialisaties aan het worden zijn. “ Hij vraagt zich dan ook af: are we narrowing down again?” Samenwerking en kennisdeling is noodzakelijk voor innovatie, dus de vraag is hoe dit kan worden voorkomen. Ook hierin kan volgens mij de bibliotheek (en met name een CDS) een rol spelen, doordat de kennis over tools en methodes hier niet alleen wordt verzameld en gedocumenteerd, maar ook weer wordt gedeeld. Dat kan door lezingen, conferenties en workshops, maar ook met een-op-een contact met onderzoekers. De bibliotheek kan op deze manier ook fungeren als motor voor innovatie.

Saskia

p.s. De tremulous hand bleek trouwens aan een essentiële tremor te lijden, d.w.z. zonder aanwijsbare oorzaak. Dat op sommige pagina’s het schrift een stuk minder bibberig is, komt volgens de onderzoekers doordat de kopiist ofwel heeft uitgerust, ofwel licht beschonken was. Een borrel was in de middeleeuwen dus niet alleen een beloning na het schrijven