Project SABIO wil bias in collectiebeschrijvingen via AI opsporen
Erfgoedinstellingen hebben te maken met bias in hun collectiebeschrijvingen. Of anders gezegd: met termen die we nu als kwetsend kunnen ervaren en niet zo snel meer zouden gebruiken. Na de zomer start het project SABIO – the SociAl BIas Observatory om die bias in collectiebeschrijvingen via kunstmatige intelligentie naar boven te halen.
SABIO – the SociAl BIas Observatory is het eerste project dat de Adviesgroep NDE Onderzoek heeft geïnitieerd; het wordt een jaar lang door het NDE gefinancierd. In SABIO draait het om de bias in de data van erfgoedcollecties. De collectiedata waarmee als eerste wordt gewerkt in het project is die van het Nationaal Museum van Wereldculturen. Dit rijksmuseum is in 2014 ontstaan door de fusie van het Afrika Museum, het Rijksmuseum Volkenkunde en het Tropenmuseum. Ook wordt sinds 2017 nauw samengewerkt met het Wereldmuseum.
‘De vraag om mee te doen aan het project SABIO kwam op het juiste moment,’ zegt hoofd Collectiemanagement Cindy Zalm. ‘We zijn al een paar jaar bezig om het Nationaal Museum van Wereldculturen te “dekoloniseren”. We verwachten dat de medewerking aan SABIO ons nadenken over dit onderwerp verder aanscherpt.’
Dekolonisatie
Het museum is de ‘dekolonisatie’ destijds gestart met een interventie door het collectief Decolonize the Museum. ‘Bezoek ons museum, bekijk de teksten bij de tentoongestelde objecten en laat ons weten wat je ervan vindt,’ was de vraag. ‘Het collectief wees ons op onder meer pijnlijke formuleringen,’ zegt Cindy. Ze doelt op woorden als ‘bosneger’ die we ooit vanzelfsprekend vonden, maar die niet passen in een inclusieve samenleving.
Dit proces van bewustwording leidde tot de publicatie ‘Words Matter’, waarin een lijst van dergelijke beladen termen is opgenomen. ‘Daarvan zeggen we nu: gebruik die termen liever niet, en als je dat toch doet, ben je er dan van bewust in welke context je ze toepast en welke politieke en sociale lading deze woorden hebben.’
Work in progress
In het SABIO-project zullen de collectiedata van de vier musea worden meegenomen. ‘Het gaat met name om de titels, de beschrijvingsvelden en de trefwoorden die je toekent aan de voorwerpen. Het is in feite de laag die wij als museummedewerkers door de jaren heen, vanuit een bepaalde visie op de wereld, hebben toegevoegd aan de objecten,’ zegt Cindy. ‘Die vooringenomen blik is een proces van eeuwen geweest, en is tot in de haarvaten van onze organisatie doorgedrongen. Dat kunnen we niet zomaar loslaten, hoe graag we dat ook zouden willen. Daarom is de “dekolonisatie” van ons museum een work in progress.’
Onbalans
‘Die vooringenomen blik, de zogeheten bias in de beschrijvingen van erfgoedcollecties, willen we in SABIO zichtbaar gaan maken,’ zegt Marieke van Erp, afdelingshoofd van het Digital Humanities Lab bij KNAW Humanities Cluster en projectleider van SABIO. Ze benadrukt dat we bias toch vooral breder zien dan alleen die vooringenomenheid. ‘Het gaat ook om de onbalans in de data. Kijk bijvoorbeeld naar Wikipedia: hier vind je vooral informatie over de Europese geschiedenis; de online encyclopedie is vanuit een westers perspectief geschreven. Zoiets kan ook het geval zijn bij collectiedata.’
Kunstmatige intelligentie
Het project gaat deel uitmaken van het binnenkort te starten Cultural AI Lab. De KB, Beeld en Geluid, Rijksmuseum, KNAW Humanities Cluster, het Centrum voor Wiskunde en Informatica en TNO werken aan een nationaal lab voor Culturele Kunstmatige Intelligentie. ‘Als erfgoedinstellingen, geesteswetenschappers en informatici nauw met elkaar gaan samenwerken, kunnen ze kunstmatige intelligentiesystemen bewuster maken van bias,’ legt Marieke uit.
Pilot
‘Na de zomer gaan we voor een jaar een pilot draaien met data van het Nationaal Museum van Wereldculturen. Voorlopig noemen we ons einddoel een “unconscious bias detector”. Het wordt een prototype dat we later in workshops met het erfgoedveld gaan testen. Maar eerst moeten we software bouwen waarin we de data kunnen stoppen en de bias inzichtelijk kunnen maken.’
Context
Het voordeel is dat Wereldculturen al beschikt over een lijst met beladen termen. ‘Die kunnen we gebruiken als startpunt voor het AI-systeem. Vervolgens gaan we ook kijken naar de context van deze termen,’ aldus Marieke. Als voorbeeld noemt ze het taalgebruik dat we bijvoorbeeld bij ‘slavernij’ gebruiken: ‘Vaak wordt het niet als zodanig benoemd, maar moet je het opmaken uit de beschrijving: iemand werd “te werk gesteld” of “naar Amerika afgevoerd”, et cetera.’
Of neem iemand als Jan Pieterszoon Coen, directeur-generaal van de VOC. Marieke: ‘In de geschiedenisboeken lezen we dat hij “de wereldzeeën heeft bevaren” en “stammen onder de duim heeft gekregen”. Dus dit soort taalgebruik kan ons weer helpen om andere personen in collectiedata te vinden die we nu als mogelijk controversieel beschouwen.’
Nauw overleg
De samenwerking met de collectiemanagers van het Wereldmuseum vindt Marieke een belangrijk aspect in het onderzoek: ‘We zullen deze groep er nauw bij betrekken en steeds met hen evalueren hoe het AI-systeem op een bepaald moment met bias omgaat. Want dit is te belangrijk en te moeilijk om alleen aan informatici over te laten.’
De ontwikkelde software komt voor het hele erfgoedveld beschikbaar. ‘Vervolgens gaan we kijken of we het project kunnen uitbreiden naar vervolgprojecten.’ De bias in collectiebeschrijvingen is niet zomaar op te lossen, besluit Marieke. ‘Maar hopelijk kunnen we een mooi begin maken.’