Dominant design

Aan geboden een video recorder 2000 draaid wel is een video band bij verdere werking onbekend.misschien iets voor de verzamelaar.

v2000

Die advertentie op Marktplaats brak mijn hart, niet alleen vanwege de aandoenlijke variant van het Nederlands, maar vooral omdat dit in een notendop de teloorgang van een superieur stukje Nederlandse technologie demonstreert. Video2000 had meer kwaliteit dan VHS, maar toch werd dat laatste systeem de standaard. Videorecorders werden alleen nog gemaakt voor VHS-banden en Video2000 ging kansloos ten onder. Het is het principe van dominant design: na een rommelige beginperiode wordt één systeem , om wat voor reden ook, leidend en past de hele markt zich aan, ook als er betere alternatieven voorhanden zijn.

Dat verschijnsel zie je ook in het publicatieproces. Van oudsher worden artikelen gepubliceerd in tijdschriften omdat het nu eenmaal niet rendabel is om ze individueel te drukken en te verspreiden. In onze digitale tijd spelen die kosten nauwelijks een rol meer, maar toch blijft het tijdschrift, ook digitaal, een dominante publicatievorm. Raar eigenlijk. En dan heb ik het nog niet eens over de door het verleden bepaalde, maar al lang niet meer noodzakelijke dominantie van uitgevers in het digitale publicatieproces.

Dominant design is ook heel mooi te zien in het distributiemodel voor e-books. Van sommige leveranciers mag een universiteit een e-book maar uitlenen aan één persoon en slechts voor een beperkte periode, kortom dezelfde regels die je hanteert voor een papieren boek. Het verschil is dat een e-book een verzameling digitale nullen en eentjes is die je, letterlijk, voor hetzelfde geld onbeperkt aan de volledige wereldbevolking ter beschikking zou kunnen stellen. Natuurlijk begrijp ik wel dat er een verdienmodel moet zijn, maar niemand zou op deze specifieke formule zijn uitgekomen als hij al niet had bestaan voor het papieren boek. Het is alsof je een paard voor een auto spant omdat we dat vroeger nu eenmaal ook deden. Dominant design in optima forma.

Maar de meest schrijnende vorm van dominant design in ons vak bevindt zich aan de consumentenkant. Om een groot bereik te krijgen moest tekst tot heel recent worden gedrukt en verspreid. Omdat informatie dus relatief duur en schaars was, gingen we er terecht stilzwijgend van uit dat alles wat we tot ons kregen een zekere kwaliteit had, want je mag toch zeker verwachten dat je waar voor je geld krijgt! En dat impliciete vertrouwen is er nog steeds, getuige bijvoorbeeld de mevrouw die zeker wist dat de vluchtelingen onze banen krijgen omdat het op Facebook had gestaan. Een exces? Misschien, maar dat geldt niet voor al die mensen die klakkeloos het eerste het beste zoekresultaat van hun zoekmachine als waar accepteren zonder naar de bron te kijken (als Google zelf al niet als de bron wordt gezien). Die vorm van dominant design is kwalijker en waarschijnlijk hardnekkiger dan de voorbeelden die ik hierboven beschreef. En we zijn er nog lang niet van af.

 

 

Video et vinco – Ik doe aan video en overwin

Video in het onderwijs heeft de afgelopen jaren een enorme vlucht genomen. In mijn eigen schooltijd diende de tv vooral als tijdvulling. Hij werd naar binnen gereden als er een docent ziek was geworden of op de laatste middag voor de vakantie. Zo herinner me de film The Wave bij Maatschappijleer, die we wel 2 of 3 keer hebben gezien.

In actuele onderwijsconcepten als MOOCs en Flipped Classroom is video een belangrijk medium. Het wordt gebruikt om colleges op te nemen (Weblectures), om stof uit te leggen (Kennisclips), vaardigheden te oefenen en observaties te doen. Ook moeten studenten steeds vaker een video als opdracht maken, in plaats van een schriftelijk verslag.

Van 8-10 maart bezocht ik in Brussel de Media & Learning Conference, om me eens goed te verdiepen in het gebruik van video in het hoger onderwijs. Nu de UBL immers het beheer over de universitaire videoserver heeft gekregen (Kaltura wordt momenteel geïmplementeerd), is het zaak dat we goed weten hoe medium wordt ingezet zodat we kunnen inspelen op wat er op ons af komt.

mandlfull

Bij video komt veel kijken. Weblectures zijn wel de meest elementaire vorm. Maar door het opnemen van colleges verandert een normaal efemere gebeurtenis ineens in een learning object, zoals Clive Young van University College London (bekijk op Slideshare) dat zo mooi zei. En dan komen er hele andere eisen om de hoek kijken. Kun je korte stukjes uit zo’n Weblecture bijvoorbeeld ook los gebruiken, of is een andere vorm dan geschikter? Voor iedere inzet van video die verder gaat dan eenvoudige college-opnamen moet worden nagedacht over wat je er precies mee wilt bereiken, en wat dan de meest geschikte vorm is. Een goede voorbereiding en een script – hoe beknopt ook – zijn daarbij onontbeerlijk.
Video is feitelijk een nogal passief medium, de student heeft de neiging om achterover te leunen. Maar zoals meerdere sprekers benadrukten: Learning does not happen until you stretch your brain. De student dient dus geactiveerd te worden. Toverwoorden daarbij zijn Engagement (betrokkenheid) en immersion (onderdompeling), volgens spreker Jeff Rubenstein, VP of Product van Kaltura (bekijk weblecture). Dit kan bijvoorbeeld door er vragen bij te stellen. Kaltura bevat functionaliteit om een video op bepaalde momenten te larderen met quizvragen – al verschillen de meningen over de inzet daarvan (het hindert bij het kijken of scannen door een video, en het zijn vaak oppervlakkige vragen). Ook kun je studenten actief met een video aan de slag laten gaan door hen uit meerdere scenario’s te laten kiezen (zoals bij deze film over wetenschappelijke integriteit), of hen te laten reflecteren op de inhoud. Met video kun je leermomenten in een verhalende vorm verpakken, waardoor studenten zich goed kunnen inleven en de stof beter beklijft.

Kaltura-Logo-Transparent-Background.gifKaltura doet jaarlijks onderzoek naar het gebruik van video in onderwijs. In The State of Video in Education 2015 (bekijk pdf) is onder andere gekeken naar digital literacy, inzet van video in cijfers, use cases, de behoeften van docenten, en een toekomst beeld van de inzet van video in het onderwijs. Docenten blijken vooral behoefte te hebben aan eenvoudige tools en workflows, een centrale videodienst die aan de leeromgeving is gekoppeld, maar zeker ook aan training, ondersteuning en tijd om hieraan te besteden.

De didactische en praktische docentondersteuning blijft in Leiden bij de faculteiten, waar ook de Weblectures worden ondersteund en de afgelopen jaren studio-opstellingen zijn gerealiseerd dan wel gerevitaliseerd. Ook het Online Learning Lab van Centre for Innovation in Den Haag, waar de Leidse MOOCs worden geproduceerd, heeft studiofaciliteiten. De UBL zal bij dit alles een coördinerende rol bij spelen. De Media & Learning Conference heeft veel inspiratie gebracht hoe de ondersteuning van video bij andere universiteiten in binnen- en buitenland is georganiseerd.

Zo heeft de Vrije Universiteit Amsterdam (bekijk ppt) een walk-in studio ingericht, met vaste apparatuur en beperkte opties. Dit is geïnspireerd op Valencia en is een soort tussenvorm tussen Do It Yourself en een professionele studio. Er wordt gewerkt met een standaardprocedure. Je kunt boeken via een online formulier en de URL staat klaar als je de studio verlaat. Docenten zijn erg tevreden over deze dienst.

Video Rucksack ErlangenDe Universiteit Erlangen-Nürnberg (ppt) heeft een rugzak met opnameset. Dit aanbod is met name gericht op studenten. Er is een kleine training beschikbaar, maar deze is niet verplicht. Wel geven ze er een checklist bij met camera-instellingen en andere dingen waar je op moet letten (bv. omgevingsgeluid, camera niet richting raam plaatsen). Voor de voorbereiding hebben ze schema’s om structuur te bieden bij het bepalen van de didactische opzet en het maken van een script. De Oulu University of Applied Sciences (Finland) scoort hoge kijkcijfers met een video waarin het gebruik van de camera wordt gedemonstreerd.

Inholland (spreker Zac Woolfitt, bekijk ppt) heeft workshops van 2 uur opgezet, compleet met praktijkdeel (zelf optreden in video). De deelnemers leren zo meteen wat de valkuilen zijn. Er is veel tijd voor reflectie (nadenken hoe je dit goed kan doen en hoe je het goed kunt inzetten). In het natraject zijn er coaching sessies.

Bij diverse instellingen worden studenten actief betrokken bij het produceren van video. Zij zijn vaak creatiever en handiger met video dan docenten. Een video met het studentperspectief erin is bovendien aansprekend voor de doelgroep.

De productie van video wordt zo laagdrempelig mogelijk gehouden. Er wordt daarom veel met eenvoudige middelen gewerkt, en er vindt vaak geen controleslag voor publicatie plaats (mits de video alleen intern beschikbaar wordt gesteld). Hoogstens wordt er een label (gemaakt door studenten/docenten) aan gehangen. Voor de laagdrempeligheid is het ook belangrijk om de voorzieningen en ondersteuning zo dichtbij mogelijk te hebben. Docenten kunnen vaak geen dagdelen vrij plannen en moeten het tussendoor kunnen doen.

Aanpassen en updaten zijn lastig bij video. Hier kun je al rekening mee houden bij het maken van een nieuwe video. Gebruik bv. geen ‘talking head’, maar alleen audio boven een screencast of ander beeld. Let er bij de audio op dat je af en toe een pauze laat vallen, zodat achterhaalde informatie er later weer uitgeknipt en vervangen kan worden. Deze tips zijn van Jörn Loviscach (Fachhochschule Bielefeld, bekijk pdf), in Duitsland bekend om zijn kennisclips op het gebied van wiskunde. Nog een tip van hem: Maak opnames zoveel mogelijk met publiek. Desnoods vraag je een paar mensen als publiek te dienen. Hierdoor heb je een natuurlijkere presentatiestijl, waardoor de kijkers straks ook hun aandacht beter kunnen vasthouden. Voor de geluidskwaliteit wordt aanbevolen een usb-microfoon in plaats van de ingebouwde te gebruiken.

Als uitsmijter nog een tip:
Het Erasmus+ LoCoMoTion project van Jörn Loviscach, waarbij ook de TU Delft is betrokken, start op 17 mei met de meta-MOOC Making MOOCs on a Budget, met daarin ook veel tips over het maken van video. Allemaal meedoen: Video et vinco!

Waarom zijn ijsberen linkspotig?

Polar_Bear_0319_-_23-11-06

Om te illustreren hoe slecht kinderen vaak toegerust zijn om internet te gebruiken vertelde Hanna Jochmann tijdens de Vogin IP-lezing op 3 maart in de OBA dat ze vaak hele vragen in Google invoeren. Even later spoorde de Amerikaanse zoekgoeroe Ran Hock ons juist aan om veel vaker dit soort vormen van natuurlijke taal te gebruiken bij zoekacties.

Huh?

Natuurlijk hebben ze alle twee op hun eigen manier gelijk. Jochmann toont hiermee aan dat kinderen Google niet zien als een zoekmachine, maar als een vraag-en-antwoordapparaat, waardoor ze geen optimale zoekopdrachten geven. En Ran Hock is enthousiast over de vooruitgang in Natural Language Programming (NLP), waardoor spreektaal steeds beter te interpreteren is door zoekmachines.

Hoe komt het dan dat er toch een vreemde tegenstelling in lijkt te zitten?

Het antwoord is simpel. Het stellen van vragen aan een Google duidt op onvermogen of een gebrek aan kennis van de mens (en echt niet alleen de schoolgaande mens) , terwijl de eigenschap om in spreektaal gestelde vragen te beantwoorden een kwaliteit is van de zoekmachine (en echt niet alleen Google). Als je er met een zonnige blik naar kijkt zou je kunnen zeggen dat het gebrek van de één wordt opgeheven door het vermogen van de ander. Maar is dat ook zo? Zonder mezelf als een Somberman te willen afschilderen, denk ik dat daar wel wat aan af te dingen valt.

Uit allerlei onderzoeken blijkt dat veel mensen geen onderscheid maken tussen feit en mening.’Als het op het internet staat zal het wel waar zijn.’ Peter Burger vertelde in zijn lezing dat journalisten zich vaak wel bewust zijn van het nut van factchecking, maar dat dat uiteindelijk veel te weinig gebeurt. Als de serieuze pers dat al niet doet, is het nauwelijks verwonderlijk dat ´gewone´ mensen blind varen op wat zij via internet tot zich nemen.
Er zit een niet eens zo subtiel verschil tussen de zoekopdracht
`Donald Trump´ AND Racist
en
`Is Donald Trump een racist?´
In het eerste geval is de opdracht ondubbelzinnig: geef resultaten met daarin ‘Donald Trump’ en Racist. Ik het tweede geval wordt minimaal de suggestie gewekt dat de zoekmachine met het (juiste) antwoord op de vraag komt en dan is het bovenste zoekresultaat bepalend, als we uitgaan van hoe mensen doorgaans hun zoekresultaten beoordelen.

Over dit soort zaken mag ik graag wat mijmeren, overigens zonder dat het mijn leven vergalt, en ik was dan ook geïntrigeerd door de titel van Ran Hocks verhaal: “Brave new search world”. Ik dacht dat hij daarmee verwees naar Aldous Huxley’s Brave New World, waarin hij een totalitaire, technologische samenleving beschrijft, een maatschappij die wordt geleid en gemanipuleerd door een kleine bovenklasse die de kennis beheert.

images

Met dat in het achterhoofd verwachte ik een verhaal van Hock over de nieuwste technologische inzichten met daarbij de nodige kanttekeningen. Maar van dat laatste was weinig te merken, waardoor het voor de Huxley-lezers leek of hij die wereld wel zag zitten. En ook het verhaal van de andere keynote speaker Pieter Cobelens, Generaal-Majoor B.D. en voormalig hoofd van de MIVD, ging in die richting. Zijn betoog ging over de noodzaak van hooggeschoolde informatieprofessionals die optimaal gebruik moeten maken van de nieuwste technieken (ik refereer nog maar even aan de kleine bovenklasse die de kennis beheert). En passant vertelde hij ons dat we rustig onze informatie op het internet kunnen achterlaten. Als je het maar versleutelt. En de overheid zorgt er wel voor dat er verder niets mee gebeurt.

Wat is dat toch met die door technologie, landsbelang of anderszins gedreven mensen die zo opgaan in hun fascinatie dat ze de doorsnee internetgebruiker, bewust of onbewust, veronachtzamen?

Het merendeel van de bezoekers aan de Vogin IP-lezing is verbonden aan een bibliotheek. Ze zijn er bij gebaat als hun klanten beschikken over de kritische vaardigheden om de informatie te vinden waar ze echt behoefte aan hebben. Voor het merendeel van de internetgebruikers is niet zoeken het probleem, maar vinden. Ik heb in de OBA allerlei interessante verhalen gehoord over de nieuwste technologische ontwikkelingen, over een veilig internet voor kinderen, professionele factchecking, social media tools en nog veel meer, maar het verhaal over hoe we er voor kunnen zorgen dat onze klanten kritische vinders worden heb ik ook hier weer gemist.

‘Zoeken en vinden’ was het thema van de Vogin IP-dag. Het zou mooi zijn als dat volgend jaar ‘Zoeken, vinden en er iets van vinden’ is. Oh ja, en over die ijsberen: als je zoekt op ‘Wist je dat ijsberen linkspotig zijn?’ vind je weliswaar een paar honderd hits, maar wie even kritisch verder zoekt , komt erachter dat dat pure onzin is.

IIIF we could present images

Je zou denken dat plaatjes aanleveren via het internet toch heel eenvoudig is. En dat is ook zo, tenminste voor de “normale” plaatjes. Maar als het gaat om plaatjes van meer dan 100 MB groot, dan wordt het wat ingewikkelder. Zeker als die plaatjes niet in zijn geheel afgebeeld kunnen worden op het beeldscherm omdat de afmeting van de plaatjes meer dan 10.000 pixels breed zijn. Je kan je afvragen of het dan verstandig is om voor het afbeelden van deze plaatjes de plaatjes in zijn geheel op de volledig beschikbare resolutie te versturen naar een scherm dat dat toch niet aan kan. Nou inderdaad, dat is niet verstandig.

Het is dan beter om een manier te hebben om het plaatje te versturen op 800 pixels breed naar iemand die een scherm heeft van 800 pixels breed en het hele plaatje wil zien. Of alleen de rechterbovenhoek van het plaatje op 800 pixels breed voor iemand die de rechterbovenhoek van het plaatje ingezoomd wil zien. Nu is dit al lang technisch mogelijk, maar sinds september 2014 is er een officiële API voor, gemaakt door het IIIF.

API staat voor Application Programming Interface. Dit is een beschrijving van hoe een stuk software communiceert met een ander stuk software. Het IIIF  is het International Image Interoperability Framework. Deze API beschrijft hoe je op een standaard manier (een deel van) een plaatje kan opvragen. En dat is niet het enige wat het beschrijft, maar daarover later meer.

Wat heb je nu aan zo’n API? Als een systeem deze API implementeert, dan kunnen andere systemen daar gebruik van maken, aangezien beschreven is hoe de API werkt en hoe die te gebruiken is. Als je plaatjes van een systeem wilt halen die de IIIF API implementeert, dan is het meteen duidelijk hoe je dat moet doen. Oftewel, het is voor iedereen duidelijk welke taal er wordt gesproken en aangezien het een taal is waar meerdere partijen het over eens zijn, kan je ook gebruikmaken van de systemen van meerdere partijen. En wat voor systemen zijn dat dan? Dat kan bijvoorbeeld gaan om een systeem wat een plaatje op een nette manier afbeeldt. Dit wordt ook wel een image viewer genoemd. Door de IIIF API is het dus mogelijk om verschillende image viewers te gebruiken, zolang die aan de IIIF API voldoen.

Er zijn 2 IIIF API’s beschikbaar: de IIIF image API en de IIIF presentation API.

Met de IIIF image API is het mogelijk om informatie over een plaatje op te vragen, zoals hoe groot het plaatje is, hoe ver ingezoomd kan worden, welke formaten beschikbaar zijn en wat er allemaal mogelijk is met dit plaatje via de IIIF image API. Ook kan natuurlijk (een deel van) het plaatje op een bepaalde grootte opgevraagd worden. Om dit te doen, kan een regio (deel van het plaatje) in absolute eenheden of percentage gevraagd worden. Daarna kan opgegeven worden hoe groot het resulterende deel van het plaatje teruggegeven moet worden. Eventueel kan ook opgegeven worden dat het plaatje in kleur, grijstinten of zwartwit geleverd wordt, en eventueel geroteerd of gespiegeld.

Hoe werkt het nu concreet? Hieronder een URL wat een deel van een plaatje opvraagt:

https://images-
dev.harvardx.harvard.edu/ids/iiif/47174896/750,840,256,256/256,
/0/native.jpg

nativeWaarbij de URL uit de verschillende onderdelen bestaat, die  door de IIIF image API beschreven worden:

  • https://images-dev.harvardx.harvard.edu/ids/iiif/
    Dit is een IIIF image server URL
  • 47174896
    Dit is de image identifier
  • 750,840,256,256
    De regio van het plaatje wat gewenst is. Dit zijn achtereenvolgens de x, y en breedte en hoogte van de regio in absolute eenheden, ten opzichte van het originele plaatje. Dit kunnen ook percentages zijn. Om het hele plaatje op te vragen kan ‘full’ gebruikt worden.
  • 256,
    Dit is de grootte van het plaatje wat gewenst is. Hier wordt alleen de breedte gegeven, aangezien de hoogte hieruit afgeleid kan worden. Aangezien de breedte gelijk is aan de breedte die eerder in de regio gedefinieerd werd, kan dit ook worden vervangen door ‘full’, wat betekent dat de volledig beschikbare resolutie wordt gebruikt.
  • 0
    Dit is de rotatie in graden. Hier wordt niet geroteerd. Vaak worden alleen veelvouden van 90 ondersteund (dat is bij de IIIF image server ook het geval)
  • native
    Dit is de kwaliteit van het plaatje. Hier kan ook color (kleur), gray (grijstinten) of bitonal (zwart/wit) gebruikt worden.
  • jpg
    Dit is het formaat van het plaatje, andere waarden zijn onder andere png,tif en pdf

Op deze manier kan ook het volgende plaatje opgevraagd worden:

nativehttps://images-dev.harvardx.harvard.edu/ids/iiif/47174896/full/100,/180/native.jpg

Voor de duidelijkheid, het basisplaatje is steeds dezelfde, namelijk een plaatje met JPEG2000 formaat. Hieruit kunnen de andere plaatjes gegenereerd worden. De IIIF image API beschrijft alleen welk deel van het plaatje op welke manier geleverd moet worden, maar niet hoe dat gebeurt.

Ook kan de informatie van het plaatje opgevraagd worden met:

https://images-dev.harvardx.harvard.edu/ids/iiif/47174896/info.json

Dit levert het volgende resultaat:

{
“@context”:”http://library.stanford.edu/iiif/image-api/1.1/context.json”,
“@id”:”https://images-dev.harvardx.harvard.edu/ids/iiif/47174896″,
“width”:2087,
“height”:2550,
“scale_factors”:[1,2,4,8,16,32],
“tile_width”:256,
“tile_height”:256,
“formats”:[“jpg”],
“qualities”:[“native”],
“profile”:”http://library.stanford.edu/iiif/image-api/1.1/compliance.html#level1″
}

Hieruit wordt duidelijk wat de grootte van het plaatje is (width/height), welke schalen omndersteund worden (dus hoever ingezoomd kan worden) (scale_factors), in welke grootte de verschillende delen van het plaatje het best opgevraagd kunnen worden (tile_width/tile_height), welke formaten ondersteund worden (formats), de mogelijke kwaliteiten waarin het plaatje opgevraagd kan worden (qualities) en welke versie en niveau van de IIIF image API ondersteund wordt (profile). Zoals hier te zien is, wordt versie 1.1 van de IIIF image API gebruikt op level 1. Helaas ondersteunt dit niet alle hierboven genoemde mogelijkheden.

Met de IIIF image API kan een image viewer alle informatie en onderdelen van een plaatje opvragen om die op een nette manier af te beelden, zodat in- en uitgezoomd kan worden. Een voorbeeld van hoe dat werkt is hier te vinden.

Maar dit is nog niet alles, want waar het interessant wordt, is met de tweede API, de IIIF presentation API. Met deze API kan de structurele en presentatie informatie van een object opgevraagd worden. Een object? Het ging hier toch om plaatjes? Ja, maar een object bestaat hier uit een of meerdere plaatjes. Bijvoorbeeld een schilderij kan uit één plaatje bestaan, een foto uit 2 plaatjes (voor- en achterkant), een standbeeld uit 4 plaatjes (voor- en achterkant en beide zijkanten) en een boek uit meerdere plaatjes. De IIIF image API is bedoeld om een plaatje af te kunnen beelden, maar de IIIF presentation API is bedoeld om een object, bestaand uit allerlei plaatjes, in context te kunnen presenteren.

objectsHoe werkt het? De IIIF presentation API biedt de mogelijkheid om een manifest op te halen en in dit manifest staat beschreven hoe het object gepresenteerd moet worden en bevat een beschrijving (metadata) van het object en van de verschillende componenten van het object. Het manifest bevat 1 of meerdere opeenvolgingen (sequences) van beelden (canvas) voor het object. Een boek bijvoorbeeld heeft 1 opeenvolging van bladzijdes (in volgorde), maar er zijn boeken waar er meerdere opeenvolgingen mogelijk zijn. Elk beeld bevat ook weer inhoud (content). Dit kan bijvoorbeeld het plaatje zijn wat via de IIIF image API afgebeeld kan worden, maar het kan eveneens de OCR tekst zijn. Een beeld hoeft zelfs geen inhoud te hebben, wat het mogelijk maakt om een deels gescand boek ook netjes te beschrijven in een manifest en af te beelden (de niet-gescande bladzijdes blijven dan leeg).

Wat kan je er nu eigenlijk mee? Afbeelden van allerlei materiaal, maar wellicht kan het beter getoond worden dan beschreven. Hieronder enkele voorbeelden van de UniversalViewer, een viewer die beide IIIF API’s ondersteund.

Boek: The biocrats

Brief: Copied letter from Francis Crick to Michael Crick

Folio: Pseudo-Albert the Great

Collectie: The biological basis of medicine

Kaart: Typus Orbis Terrarum

De inhoud van het “more information” tabje (rechts) wordt geleverd via de IIIF presentation API, evenals de volgorde van de bladzijdes of zelfs de hiërarchie bij het collectie voorbeeld. Bemerk dat ook de attribution, conditions of use, de license en een link naar het catalogus record in sommige gevallen zijn opgenomen. Dit alles wordt ook door de IIIF presentation API ondersteund. Bij het kaart voorbeeld wordt duidelijk hoe ver ingezoomd kan worden en hoe soepel dit gaat. Ook kan het plaatje gedraaid worden terwijl al ingezoomd is, terwijl op de juiste plek gebleven wordt. Dit alles dankzij de IIIF image API.

 

Het idee is om deze twee IIIF API’s te ondersteunen binnen de nieuwe repository infrastructuur. Op deze manier kunnen we de objecten mooi presenteren, gebruikmakend van een IIIF-compatible viewer zoals de UniversalViewer. Maar andere partijen kunnen ook onze objecten of delen daarvan binnen hun eigen website afbeelden. Ook kunnen we binnen de repository infrastructuur (delen van) objecten presenteren van partijen die ook de IIIF API’s ondersteunen. Dus als we van een object maar een deel hebben, kunnen we een manifest maken dat andere delen bij andere partijen die de IIIF API’s ondersteunen, ophaalt.

De IIIF API’s bieden dus veel meerwaarden, maar we moeten er nog wel wat voor doen. Helaas worden deze IIIF API’s nog niet nu al ondersteund binnen de nieuwe repository infrastructuur. Maar we kunnen dit wel zelf (met hulp van derden) implementeren. Hierna kunnen we een bestaande IIIF-compatible viewer binnen de repository infrastructuur implementeren die gebruik maakt van deze API’s.

Zoals gezegd, het wordt mooi als we plaatjes kunnen presenteren!

Het UBL Repository & de inrichting van een Duurzaam Digitaal Depot

Het onderwerp Digitale duurzaamheid is de afgelopen jaren steeds meer in de belangstelling komen te staan, mede dankzij de in 2015 gepubliceerde Nationale Strategie Digitaal Erfgoed waarbinnen Digitaal Erfgoed Houdbaar een van de drie werkpakketten is. Verschillende erfgoedinstellingen, waaronder de Koninklijke Bibliotheek, hebben in hun beleidsplan laten opnemen dat ze binnen enkele jaren een repository willen dat beschikt over het Data Seal of Approval, een van de certificeringen voor een Trusted Digital Repository. Hiertoe heeft de KB ook de functie Digital Preservation Officer in het leven geroepen, waarvoor kort geleden is geworven. En het Nationaal Archief heeft voor het eerst een preservation policy gepubliceerd, waarin ook het ambitieniveau ten aanzien van de toegankelijkheid van de collecties op langere termijn wordt uitgelegd.

image.jpg

Met het inrichten van het UBL edepot hebben we in de UBL een goede eerste stap gezet op weg naar een duurzame opslag van onze digitale bijzondere collecties. Wanneer een collectie door een scanbedrijf wordt gedigitaliseerd, kunnen de ontvangen scans voortaan op één plaats worden opgeslagen, wat het overzicht bevordert. Aan medewerkers kunnen afzonderlijk kijk, upload en download rechten worden verleend ten bate van het beheer. Maar dit is slechts een eerste stap op weg naar de inrichting van een Trusted Digital Repository.

Om meer expertise te ontwikkelen over dit onderwerp heb ik eind 2015 bij de Archiefschool Amsterdam een vijfdaagse cursus gevolgd over de inrichting van een Digitaal Depot.  Het woord ‘depot’ moet hierbij vooral als een metafoor worden gezien en niet als één fysieke plek. Het gaat er vooral om dat de opslag van digitale collecties zodanig is ingericht dat de bestanden ook weer gemakkelijk tevoorschijn gehaald kunnen worden als een gebruiker daarom vraagt, niet alleen morgen of volgende week, maar ook over X aantal jaar.

De cursus van de Archiefschool had een praktische insteek. Zo werd er uitgebreid aandacht besteed aan het opstellen van plan van aanpak voor de eigen organisatie. De overige vijf deelnemers waren afkomstig uit de archief- en of DIV- wereld, en dat bood wat mij betreft meerwaarde. Ik vond het interessant om te zien met welke problematiek men zich in de archiefwereld bezighoudt en wat het verschil in aanpak is tussen bibliotheken en archieven. Onderdeel van de cursus was een bezoek aan het Stadsarchief Rotterdam. Hier is men sinds enkele jaren verantwoordelijk voor de gehele keten van gemeentelijke informatievoorziening, van het inladen van data en metadata tot en met beschikbaarstelling. Het archief beschikt over een gecertificeerde digitale archiefbewaarplaats voor alle documenten die door de gemeentelijke overheid worden geproduceerd. Deze documenten dienen niet alleen duurzaam te worden opgeslagen, maar burgers moeten ze ook (digitaal) kunnen inzien. Ze hebben hier een filmpje over gemaakt, een beetje saai, maar het hele proces en de functie van het edepot wordt wel heel helder uitgelegd.

550px-Resources.png

Theoretisch uitgangspunt bij de cursus was het Reference Model for an Open Archival Information System, of kort gezegd het OAIS-referentiemodel. Het is niet mijn bedoeling om op deze plaats OAIS uitgebreid te gaan beschrijven, daarvoor kun je beter het uitgebreide artikel lezen dat Barbara Sierman schreef over dit onderwerp. Maar kort samengevat is het een raamwerk dat de functies benoemd die je nodig hebt voor duurzaam beheer: ingest (inladen), storage (opslag), data management (beheer) en access (toegang). Om deze vier functies mogelijk te maken heb je daarnaast ook administratie en planning nodig. Het is dus een conceptueel model en het helpt je vooral om na te denken over het hele proces: wie gaat welke stap uitvoeren? En moeten die door een mens worden gedaan, of kan het ook geautomatiseerd? Op welke manier kunnen we garanderen dat de bestanden betrouwbaar en bruikbaar zijn én blijven?

Wat betekent dit alles nou voor de UBL? Op dit moment zijn we bezig met de inrichting van een nieuwe repository infrastructuur, waar (onder meer) onze digitale bijzondere collecties in beheerd en gepresenteerd zullen worden. Dat betekent dus dat we in potentie beschikken over twee opties voor de opslag en beheer van deze collecties, het UBL edepot en het repository, maar welke van de twee gaan we nu precies voor welke functies gebruiken? Aan deze vraag hebben we inmiddels al heel wat denkwerk besteed en op korte termijn wordt het eerste voorkeurscenario in overleg met ISSC getest.

Ook brengen we op dit moment precies in kaart hoe de workflow gaat verlopen voor het inladen, opslaan en beschikbaar stellen van scans. Welke onderdelen van de digitale objecten slaan we waar op, hoe vaak gaan we ze back-uppen, hoe zorgen we ervoor dat digitale objecten met copyright-restricties ook daadwerkelijk niet beschikbaar worden gesteld? En hoe kunnen we controleren dat alles volgens plan is verlopen? Het gaat daarbij niet alleen om techniek. Soms is het ook gewoon een kwestie van goede afspraken maken. Denk bijvoorbeeld aan een digitaliseringsproject. Als voorafgaand aan een project de projectmanager en/of inhoudelijk specialist hebben afgestemd in welk formaat en volgens welke structuur de scans en andere bestanden worden opgeleverd en wie verantwoordelijk is voor bijvoorbeeld de kwaliteitscontrole, dan is de kans groot dat het inladen van de scans in het nieuwe repository ook soepel verloopt. Samen met de collega’s van digitale diensten worden hiervoor op dit moment workflows ontwikkeld, tegelijk met hulpmiddelen zoals checklists waarin de afspraken kunnen worden vastgelegd.

13610569124_1b60a1c857_z.jpg

Dit alles laat ook duidelijk zien dat het bouwen van een nieuw repository een complex proces is dat uiteenlopende aspecten bevat. Het gaat niet alleen om het technisch realiseren van een digitale omgeving, of om het overzetten van scans en metadata, het gaat ook om het herinrichten van processen en het maken van goede afspraken om deze soepel te laten verlopen. Genoeg werk aan de winkel dus.

Het resultaat is dat we straks (minstens) twee vliegen in één klap kunnen slaan: een prachtige nieuwe repository voor de digitale bijzondere collecties, met alle zoek- en gebruiksmogelijkheden die maar mogelijk zijn voor onze klanten, en tegelijk kunnen we dezelfde klanten een duurzame opslag garanderen, niet alleen nu, maar ook voor de toekomst!

Digital Heritage Conference 2015

IMG_4882

Er vonden ook bijzondere ontmoetingen plaats tijdens de week…

Van 28 september tot en met 2 oktober vond in Granada de Digital Heritage Conference 2015 plaats. De conferentie werd dit jaar pas voor de tweede keer gehouden, maar toch lijkt het nu al een vaste waarde te zijn geworden in de wereld van het digitale erfgoed. Nergens komen er dan ook zoveel verschillende mensen bijeen die zich met één en hetzelfde onderwerp bezighouden. Je vindt er conservatoren, onderzoekers, beleidsmakers en ontwikkelaars uit de universitaire wereld, bibliotheken, musea, archeologische diensten en archieven uit meer dan 40 landen. Tegelijk met het congres vindt er ook een expo plaats, met stands van (non-)profit bedrijven die zich bezig houden met onderwerpen als augmented reality, serious gaming, digitale reconstucties en OCR. Wil je dus in een kleine week op de hoogte raken van de nieuwste ontwikkelingen in het veld, en in contact komen met collega’s uit de hele wereld, dan is dit de plek waar je moet zijn.

De conferentie vond dit keer plaats in het Parque de las Ciencias, net buiten het centrum van Granada en het programma richtte zich op 5 deelonderwerpen:

  • Digitisation and Acquisition
  • Computer Graphics and Interaction
  • Analysis and Interpretation
  • Theory, Methodologies, Preservation and Standards
  • Digital Heritage Projects and Applications.
IMG_1159

Het beursterrein

Dit betekent dat er veel hippe, grote projecten werden gepresenteerd die niet zozeer op de bibliotheek betrekking hebben, maar wel een goed overzicht bieden van waar onderzoekers op dit moment mee bezig zijn. Goed voorbeeld hiervan is het project Etruscan VR experience, waarvoor enkele hologrammen zijn ontwikkeld, maar er was bijvoorbeeld ook een presentatie over opblaasbare koepels waarmee bezoekers virtual reality reconstructies kunnen ervaren.
Ook was er veel te zien en te horen over de ontwikkelingen op het gebied van 3D scanning en -printing. Zo was de Leuvense hoogleraar Luc van Gool uitgenodigd voor een keynote over zijn bijdrage aan de ontwikkeling van 3D scanners. De door hem gebouwde portable light dome werd in eerste instantie vooral gebruikt voor wetenschappelijke analyse en presentatie van archeologische objecten, ivoren, munten en fossielen, maar kent inmiddels een veel bredere toepassing. Zo is de scanner met succes ingezet voor de digitalisering van de geborduurde boekbanden van de UB Amsterdam. Van Gool vertelde dat de prijs van de scanner inmiddels is gedaald tot 10.000 EUR, waardoor deze vorm van digitalisering ook voor kleinere instellingen betaalbaar is geworden, vooral als men bereid is om de scanner met meerdere instellingen te delen. Tatjana Dzambazova van het bedrijf Autodesk ging in haar keynote nog veel verder. Haar doel is het ontwikkelen van open source software waarmee instellingen zelf op basis van Fotogrammetrie 3D reconstructies kunnen maken.

Steeds vaker worden bij het digitaliseren van erfgoed technieken gebruikt uit andere disciplines, zoals de geneeskunde en scheikunde. Denk bijvoorbeeld aan de CT-scan die wordt gebruikt om de binnenkant van mummies te bekijken en vast te leggen. OCT (Optische coherentietomografie) , een onderzoeksmethode die kan worden beschouwd als optisch equivalent van de echografie, is ontwikkeld voor het onderzoeken van o.a. netvliezen en bloedvaten, maar wordt momenteel gebruikt om de vezels van papier en perkament te analyseren. Marc Walton liet in een helder gebrachte presentatie zien op welke manier digitalisering was gebruikt bij het onderzoek naar de prenten van Gauguin, die autodidact was als prentmaker. Als experimenterend ontwikkelde hij geheel een eigen, onconventionele werkwijze, die tot op heden kunsthistorici voor raadsels stelde. Hij schreef ook een mooie blog over het onderzoek en die is hier te lezen.

Een spectaculair voorbeeld van de toepassing van nieuwe technieken is het Venice Time Machine Project. Het Archivo di Stato in Venetië bevat 80 km aan archief, dat te fragiel is om te hanteren en daarom ongeschikt voor digitalisering op conventionele wijze. Daarom wordt er nu geëxperimenteerd met röntgentechnieken, waarmee een gehele plank in 1 keer wordt opgenomen. De boeken hoeven dus niet van de plank te worden gehaald. Vervolgens worden de banden, pagina’s en recto en versozijden virtueel van elkaar gescheiden, zodat de tekst weer kan worden gelezen.
Wanneer je trouwens meer wilt weten over de verschillende technieken voor 3D-Digitalisering, waaronder bovenbeschreven technieken, maar ook laserscanning en structured light scanning, kun je terecht bij het Kennisdossier van DEN over dit onderwerp.

Bij sommige presentaties bekroop me wel het idee dat het vooral onderzoek om het onderzoek betrof en dat een praktische toepassing nog ver te zoeken is. Zo was er een presentatie over het automatisch clusteren van kleuren in middeleeuwse handschriften wat tot dusver nog weinig concreet resultaat had opgeleverd (blijkbaar werkt het kunsthistorisch oog in dit opzicht toch beter). In een ander onderzoek werd onderzocht of de computer kleuren op schilderijen kon herkennen aan de hand van 3D-scans. De conclusie was dat op dit moment 65 % van de analyses klopte en dat er nog werd gewerkt aan de accuratesse. Tja..

IMG_1256

Vanuit de uitkijktoren op het congresterrein had je een prachtig uitzicht over de Sierra Nevada

.
Maar tegelijk laten deze presentaties goed zien waar het onderzoek naar toe gaat. Op dit moment is het technisch onderzoek al een onmisbaar onderdeel van de restauratie- en conserveringspraktijk geworden, en in de toekomst zullen ook steeds meer traditionele kunsthistorische technieken, zoals stilistische en iconografische analyse door de computer worden uitgevoerd.

De keynote van de voormalige directeur van het Alhambra Maria del Mar Villafranca Jimenez maakte duidelijk dat documentatie inherent is aan verantwoord restauratiebeleid. De technieken die we hiervoor gebruiken veranderen alleen voortdurend: van tekeningen, prenten en foto’s, tot digitale media. Tijdens de verschillende restauratiecampagnes voor het beroemde leeuwenhof heeft men telkens weer teruggegrepen op de foto’s, prenten en tekeningen die er door de eeuwen heen van de binnenplaats waren gemaakt. Voor de laatste campagne, die onder haar supervisie is uitgevoerd, heeft men zowel voor als na restauratie de leeuwenfontein 3D gedigitaliseerd. De scans waren niet alleen belangrijk tijdens het hele restauratietraject, maar zijn ook gemaakt als documentatie en ter verantwoording voor latere generaties.

Hoewel de presentaties over 3D-digitalisering en -printing, archeologie en architectuur het programma domineerden, kon je ook zonder problemen je dagen vullen met lezingen over 2D, archieven en bibliotheken. Zo schoof ik op de eerste dag aan bij een workshop over het UNESCO-PERSIST-project (Platform to Enhance the Sustainability of the Information Society Transglobally), mede georganiseerd door DEN directeur Marco de Niet. Het UNESCO-PERSIST project onderzoekt wereldwijde trends en ontwikkeling op het gebied van selectie van digitaal erfgoed collecties. In augustus 2015 zijn de Draft Guidelines for the selection of digital content for long-term digital preservation gepubliceerd. Doelstelling voor de langere termijn is het opzetten van pilots waarmee best practices kunnen worden verzameld voor zowel selectie als management van digital born bronnen. De workshop diende als een laatste check: zijn er nog zaken vergeten die zeker in de definitieve Guidelines moeten worden opgenomen?

IMG_1143

Aan het werk tijdens de PERSIST workshop

Belangrijk discussiepunt was wat er in deze tijd van informatie-overvloed de moeite waard is om te bewaren en wat niet. Uit de laatste Enumerate enquete bleek dat nog maar heel weinig instellingen actief beleid voeren op de acquisitie van digital born materialen. Wat voor de gebruikers van de toekomst van waarde is en wat als afval kan worden beschouwd en weggegooid, is niet zo eenvoudig te voorspellen. Zo blijken de vele -op het eerste gezicht identieke en daarom nutteloze- foto’s die we delen op social media inmiddels gebruikt te worden voor allerlei typen onderzoek, zoals bijvoorbeeld het ijsverlies van gletsjers en ontbossing. Er werd ook regelmatig een vergelijking gemaakt met archeologie, waar afval als een belangrijke bron voor onderzoek wordt beschouwd. Maar waar vinden de schatgravers van de toekomst hun digitale afvalberg/schatkamer?

DSC_0685

De lunchtent

Ook waren er verschillende presentaties over het interPARES Trust project. Vertrouwen, betrouwbaarheid en authenticiteit zijn belangrijke concepten in de digitale informatiewereld, denk aan issues rondom cybercrime, e-commerce, copyright en privacy. Adam Jansen presenteerde een conceptueel model (door hem object-oriented diplomatics genoemd) voor het behoud van de authenticiteit van digitale records, onafhankelijk van het systeem waarin ze zijn opgeslagen. Dit is onder andere toegepast in het open source programma Archivematica. Corinne Rogers presenteerde haar onderzoek naar de hulpmiddelen die archivarissen gebruikten om de authenticiteit van digitale records beoordeelden, en de manier waarop dit volgens henzelf eigenlijk gedaan zou moeten worden. Haar conclusie was dat authenticiteit en betrouwbaarheid meer wordt verondersteld, dan werkelijk technisch uitgevoerd. Doel van het InterPARES project is het ontwikkelen van beleid en procedures om dit te verbeteren.

Dankzij de parallelle sessies zat er altijd wel een lezing van je gading bij. Maar anders kon je natuurlijk altijd nog naar de beurs. De leukste stand was wat mij betreft die van Cultlab3D van het Fraunhofer institute in München. Zij ontwikkelden een 3D-digitaliseringsstraat voor het betaalbaar en op hoge snelheid verwerken van erfgoed. Deze video geeft een mooie indruk van het proces.

O ja, en natuurlijk werden we de hele week verwend met heerlijk eten, goede wijnen, Spaanse zon en leuke excursies, waaronder een rondleiding  by night door het Alhambra. Jammer dat we twee jaar moeten wachten op de volgende Digital Heritage Conference. Er gaan geluiden dat die in 2017 in Amsterdam zal worden gehouden….

Behendig software-ontwikkelen

Software-ontwikkelen kan op vele manieren (watervalmethode, cowboy-coding, iteratief) maar de Agile-software-ontwikkelingsmethoden zijn de laatste jaren in populariteit gestegen. In dit blog beschrijf ik wat Agile-software-ontwikkeling nu eigenlijk is, wat de verhouding met SCRUM is en hoe we het gebruiken binnen het project “Voorbereiding nieuwe repository infrastructuur”. Het projectteam heeft ook een tweedaagse cursus gedaan om te leren wat Agile nu inhoudt en hoe het te gebruiken is.

Agile-software-ontwikkeling is een conceptueel raamwerk voor het uitvoeren van software-ontwikkelingsprojecten als alternatief voor traditionele starre praktijken.

Agile werkt met iteraties, waarbij elke iteraties eigenlijk een miniatuurproject op zichzelf is die in een korte periode uitgevoerd wordt. Dit miniatuurproject omvat planning, analyse, ontwerp, bouw, testen en documentatie. Dit miniatuurproject levert altijd iets bruikbaars op; dat kan in de vorm van een webpagina, een procedure, een prototype, een mockup, een functie of een deel van een werkend programma zijn.

Bij Agile-software-ontwikkeling ligt de nadruk op directe communicatie, bij voorkeur persoonlijk contact. Een Agile team moet op 1 locatie werken, liefst zelfs binnen een ruimte, waarbij het team in elk geval bestaat uit mensen die het product definiëren en mensen die de ontwikkeling doen. Tijdens de cursus hebben we geleerd hoe belangrijk communicatie is en hoeveel makkelijker directe communicatie gaat. Of eigenlijk hebben we zelf meegemaakt met oefeningen hoe lastig communiceren is als je niet direct contact hebt. Een van de oefeningen was om een tekening na te tekenen, waarbij de tekenaar de originele tekening niet zag. Communicatie met degene die de tekening wel voor zich had, ging door middel van briefjes. Hiermee leerden we hoe specifiek je moet zijn met communicatie, dat woorden altijd anders geïnterpreteerd worden en dat directe feedback cruciaal is.

Natuurlijk gaat het bij Agile-software-ontwikkeling niet alleen om de directe communicatie, maar heeft het meerdere aspecten. Om het hoe en waarom van deze aspecten beter te kunnen uitleggen, een korte geschiedenis van de Agile-software-ontwikkeling.

De geschiedenis van Agile-software-ontwikkeling begon midden jaren 90 als onderdeel van een reactie op “zwaargewicht”-methoden. Deze methoden zijn zwaar gereguleerd, detail-gestuurd en maken gebruik van waterval-ontwikkelmodellen. Deze modellen werden als bureaucratisch, traag en bekrompen ervaren en belemmeren de creativiteit en effectiviteit van ontwikkelaars. Hierdoor ontstaat er een aantal nieuwe methoden van software-ontwikkeling, zoals DSDM, SCRUM, Crystal Clear, Extreme Programming, ASD en FDD. Al deze nieuwe methoden hebben een aantal waarden gemeen. Deze waarden werden in 2001 in het Agile Manifesto vastgelegd en ondertekend door een groot aantal software ontwikkelaars.

Manifest voor Agile Software Ontwikkeling (vertaalde versie)

Wij laten zien dat er betere manieren zijn om software te ontwikkelen door in de praktijk aan te tonen dat dit werkt en door anderen ermee te helpen. Daarom verkiezen we:

  • Mensen en hun onderlinge interactie boven processen en hulpmiddelen
  • Werkende software boven allesomvattende documentatie
  • Samenwerking met de klant boven contractonderhandelingen
  • Inspelen op verandering boven het volgen van een plan

Hoewel wij waardering hebben voor al hetgeen aan de rechterkant staat vermeld, hechten wij méér waarde aan wat aan de linkerzijde wordt genoemd.

Het Agile Manifesto is gebaseerd op de onderstaande 12 principes:

  • Klanttevredenheid door frequente, snelle levering van bruikbare software
  • Regelmatig aanbod van nieuwe werkende software
  • Voortgang wordt afgemeten a.d.h.v. werkende software
  • Wijziging van doelstellingen zijn welkom, zelfs laat in het proces
  • Nauwe samenwerking op een dagelijkse basis tussen ontwikkelaars en hun belanghebbenden
  • Direct persoonlijk contact als beste vorm van communicatie
  • Projecten worden opgezet rondom gemotiveerde individuen, en die moeten dan vertrouwd worden
  • Voortdurende aandacht aan technische hoogstandjes en goed ontwerp
  • Eenvoud is essentieel
  • Zelf-organiserende teams
  • Voortdurende aanpassing aan veranderende omstandigheden

In 2005 werd er nog een addendum geschreven aan het Agile Manifesto.

Declaration of Interdependence

“We …

  • increase return on investment by — making continuous flow of value our focus.
  • deliver reliable results by — engaging customers in frequent interactions and shared ownership.
  • expect uncertainty and manage for it through — iterations, anticipation and adaptation.
  • unleash creativity and innovation by — recognizing that individuals are the ultimate source of value, and creating an environment where they can make a difference.
  • boost performance through — group accountability for results and shared responsibility for team effectiveness.
  • improve effectiveness and reliability through — situationally specific strategies, processes and practices.

Dus wat is Agile nu eigenlijk:

  • Adaptief
    gericht op snel aanpassen aan de veranderende werkelijkheid, dus wanneer het moeilijk is om de toekomst exact te omschrijven en te plannen (heeft veel gemeen met RAD methoden)
  • Timeboxed
    Agile neemt de timebox letterlijk (kort, hooguit enkele weken)
  • Klant centraal
    De klant is onderdeel van het team. Na elke iteratie wordt voorgang besproken en de prioriteiten heroverwogen
  • Product als doel
    Voortgang wordt gemeten aan de hand van werkende producten
  • Communicatie
    Communicatie is heel belangrijk en gebeurt op persoonlijk nivo. Rapporten zijn geen communicatiemiddel.

Maar binnen de UBL maken we toch gebruik van de PRINCE2 methodiek? Betekent dit dat Agile werken en werken met PRINCE2 niet samengaan? Dat deze twee methodes elkaar bijten?
Nee, ze bijten elkaar niet, maar ze hebben wel verschillende doelstellingen. PRINCE2 is een projectmanagement methode, Agile is een software-ontwikkelingsmethode. Binnen het project “Voorbereiding nieuwe repository infrastructuur” worden beide methodes gebruikt naast elkaar. SCRUM (een Agile methode, hierover later meer) als de software-ontwikkeling en PRINCE2 als project management methode. Veel kernwaarden komen overeen bij deze twee methoden, alleen worden ze anders uitgewerkt. Het is echter goed mogelijk (en dat doen we dan ook) om binnen een PRINCE2 project de software ontwikkeling op een Agile manier uit te voeren.

We gebruiken SCRUM als Agile-software-ontwikkelingsmethodiek binnen het project “Voorbereiding nieuwe repository infrastructuur”. SCRUM werkt met een multidisciplinair team dat in korte sprints producten oplevert. Deze producten zijn meestal een aantal gerelateerde functionaliteiten binnen de repository infrastructuur. De sprint duurt bij ons 2 weken, niet langer maar ook niet korter.

De requirements die nog geïmplementeerd moeten worden, zijn beschreven in het product backlog. Deze requirements zijn geschreven in de vorm van een user story, zodat deze begrepen kunnen worden door alle teamleden en niet te technisch zijn. Aan de start van een nieuwe sprint wordt uit de items in de product back log de sprint backlog gemaakt. Dit gebeurt in een overleg tussen het team en de product owner. Er wordt een aantal items gekozen die de hoogste prioriteit hebben en binnen 2 weken te implementeren zijn.scrum-overview

Na elke sprint is er een potentially shippable product increment, oftewel een product dat echt aan de klant getoond kan worden.

Elke werkdag wordt er ook een scrum-meeting van 15 minuten gehouden. Hierin beantwoordt elk teamlid de volgende vragen:

  • Wat heb je gedaan?
  • Wat ga je doen?
  • Wat zijn je problemen?

Natuurlijk is er nog veel meer te vertellen over Agile-software-ontwikkeling en in het bijzonder de SCRUM methodiek. Maar voor deze blog laat ik het hier bij, maar vragen mag je natuurlijk altijd stellen (bij voorkeur via directe communicatie!).