Een hoge resolutie massaspectrometer. Beeld: WUR
De resultaten van Artificial Intelligence kunnen indrukwekkend zijn, maar de werking blijft vaak onbegrijpelijk. Moeten we dan blind vertrouwen op deze algoritmen? Nee, gelukkig niet. Innovaties op het gebied van Explainable AI kunnen meer inzicht geven in AI, of zelfs ervoor zorgen dat AI zichzelf kan uitleggen.
Kunstmatige intelligentie (AI) herbergt een indrukwekkende rekenkracht. Dat maakt deze technologie uitermate geschikt om complexe analyses uit te voeren. Enorme datasets of zeer gedetailleerde metingen kunnen sneller en beter doorgrond worden door de toepassing van AI; denk bijvoorbeeld aan medische diagnoses of voedselveiligheidscontroles. Tegelijk roept de nieuwe technologie ook doemscenario’s op bij leken, en ook niet elke wetenschapper toont zich even enthousiast over de innovaties op dit gebied. ‘Een belangrijke reden daarvoor is de zwarte doos: de berekeningen en analytische stappen die zo’n neuraal netwerk maakt, blijven in veel gevallen onbekend. Juist wetenschappers willen hun gereedschap goed begrijpen. Wat als AI bijvoorbeeld bevooroordeeld is om bepaalde conclusies te trekken, en dat in eerste instantie niet opvalt?’ Aan het woord is dr. ir. Bas van der Velden, teamleider Data Science bij Wageningen Food Safety Research (WFSR). Hij en zijn collega’s onderzoeken manieren waarop de werking van AI inzichtelijk kan worden gemaakt.
AI die uitlegbaar is
‘Wat in de volksmond AI heet, zijn in de meeste gevallen zelflerende algoritmen, zogenoemde “deep learning”-modellen. Getraind op relevante data, kunnen deze modellen zichzelf programmeren,’ legt Van der Velden uit. ‘AI legt heel veel zogenoemde ‘niet-lineaire’ verbanden aan. Dat zijn het soort complexe wiskundige vergelijkingen waarmee bijvoorbeeld de bewegingen van een pendule of de vermenigvuldiging van cellen worden beschreven. Deep learning-modellen bestaan uit wel een miljoen van dat soort vergelijkingen.’ De hoge complexiteit van deep learning-modellen maakt het nagenoeg onhaalbaar om de conclusies van AI handmatig na te rekenen. ‘Zelfs al zou iemand alle vergelijkingen nalopen, dan is het nog steeds geen gegeven dat de werking van het netwerk inzichtelijk zou worden,’ stelt Van der Velden. 'Dat complexe netwerk aan verbanden stelt AI’s tegelijk in staat om zeer diepgravende analyses uit te voeren. Hoewel we dus niet precies weten hoe.'
'Wat als AI bevooroordeeld is om conclusies te trekken?'
Beeld: Shutterstock
‘Onder de noemer Explainable AI schuiven datawetenschappers daarom verschillende oplossingen naar voren die dit soort neurale netwerken transparanter zouden kunnen maken.’ Om te experimenteren met zo’n oplossing zetten Van der Velden en zijn collega’s een project op: een Small Innovative Project heet zo’n kortlopend onderzoek. ‘Dat is een project waarin we als het ware proof of concept proberen te geven voor een mogelijk groter onderzoek.’ Het doel: AI die uitgelegd kan worden.
Controleren op groeihormonen
Met de AI die ze voor dit project zouden bouwden, wilden de onderzoekers bijdragen aan het controleren van runderen op groeihormonen. Deze stoffen die koeien onnatuurlijk fors maken, zijn verboden. Er zijn verschillende chemisch-analytische methodes om op groeihormonen te testen. Kan AI hieraan bijdragen? Van der Velden en zijn collega’s trainden een algoritme om koeienurine te analyseren op sporen van de verboden stoffen. Om precies te zijn voedden de wetenschappers het netwerk met de data uit een massaspectrometer. Dat is een instrument dat heel precies de massa van moleculen kan bepalen en daarmee de structuur van chemische verbindingen die aanwezig zijn in bijvoorbeeld een urinemonster.
Kunstmatige intelligentie kan bijzondere taken verrichten, vooral als het gaat om het analyseren van grote hoeveelheden data. Tegelijk is AI vaak een black box die antwoorden uitspuugt zonder ze te onderbouwen. Dat hoeft niet zo te zijn. Onderzoekers Bas van der Velden en Zuzanne Fendor werken aan Explainable AI: kunstmatige intelligentie die zichzelf uitlegt. Deze modellen geven inzicht in hun eigen functioneren. Dat maakt ze niet alleen betrouwbaarder, maar ook informatiever.
Het neurale netwerk leerde om data uit de massaspectrometer te analyseren en de monsters die sporen bevatten van groeihormonen te onderscheiden van monsters zonder. Het resultaat was indrukwekkend: AI had een nauwkeurigheid van 90%, ongeveer zo goed als bestaande statistische methoden. ‘We verwachten dat AI op grotere schaal nog beter gaat werken,’ vertelt Van der Velden ‘Het algoritme maakt het misschien ook mogelijk om onbekende groeibevorderaars op te sporen, en het kan ook goed voor andere toepassingen worden ingezet. Ik denk dan bijvoorbeeld aan controles op het gebied van voedselveiligheid.'
Geen AI voor makkelijke problemen
Een mooi resultaat dus, maar nog zonder verantwoording. Op basis van welke eigenschappen van de data trok AI nu precies zijn conclusies? ‘Om dat te bepalen, hebben we een veelgebruikt framework uit de speltheorie gebruikt, genaamd SHAP. Dat legt verbanden tussen de data die het model ingaan en de resultaten die het voortbrengt,’ vertelt Van der Velden. Het framework wees een specifieke chemische structuur aan als de meest belangrijke eigenschap van urinemonsters die wezen op groeihormonen. ‘Domeinexperts hebben bevestigd dat die analyse correct is. SHAP slaagde er dus in om uit te wijzen waar AI zijn analyse op baseerde.’
Voorbeeld van een LC-MS-spectrum, dat gebruik kan worden als input voor de AI-analyse. Bron: Wikipedia
‘Deze uitleg maakt het niet alleen mogelijk om meer te begrijpen van hoe een neuraal netwerk werkt. Als AI fouten maakt, kan een uitleg als deze ook uitwijzen waar die fouten vandaan komen. Met dat inzicht kunnen algoritmen ook verbeterd worden, zodat ze geen fouten blijven maken.’ Dat is belangrijk, omdat AI vooral ingezet zal worden voor grote, ingewikkelde taken. ‘Voor een makkelijk probleem hoef je waarschijnlijk geen Explainable AI te programmeren, maar als een neuraal netwerk bijvoorbeeld medische diagnoses gaat stellen of het risico op recidieven in moet schatten, wordt transparantie ook veel belangrijker.’
AI die zichzelf uitlegt
Hoewel Van der Velden trots is op het resultaat van het project, ziet hij spel-theoretische oplossingen niet als de toekomst van uitlegbare AI. ‘Er zijn grofweg twee richtingen waarin Explainable AI uiteenvalt: uitleg naderhand, zoals wij in dit project hebben gedaan, en uitlegfunctionaliteit die ingebakken zit in AI. AI die zichzelf leert uitleggen, eigenlijk.’ Methoden die naderhand uitleg geven, hebben zeker hun nut, maar hebben ook nadelen. ‘Het is natuurlijk heel handig dat zulke systemen op elke AI kunnen worden aangesloten, maar helaas zijn de resultaten niet altijd van dezelfde kwaliteit.’
'Datawetenschappers schuiven oplossingen naar voren die netwerken transparanter maken'
Met een hoge resolutie massaspectrometer worden massaspectra van hoge resolutie gemeten - zoals toegepast in de specifieke use case. Foto: WUR
‘Die geïntegreerde uitleg is eleganter,’ stelt Van der Velden met een woord dat een heel specifieke betekenis heeft voor wiskundigen. ‘Elegantie, ja, daarmee bedoel ik vooral dat zo’n uitleg veel specifieker is, toegespitst op het doel waarvoor AI wordt ingezet. Omdat de uitleggende functies samen met het algoritme worden ontwikkeld, kan die worden afgestemd op de gebruiker. Dat is volgens mij een groot voordeel. Biologen hebben immers andere informatie nodig dan voedselverwerkers.’ Ook als het algoritme nog getraind wordt, geeft AI die zichzelf uitlegt al meer inzicht in zijn eigen werking. ‘Je krijgt een soort feedbackloop. Zo’n netwerk kun je dus veel verder optimaliseren.’
Maatschappelijke verantwoordelijkheid
‘Veel wetenschappers die aan kunstmatige intelligentie werken, geloven dat het onze toekomst significant zal veranderen. Ze hebben het dan niet over slimme keukenapparatuur, maar over ingrijpende, grote transformaties in hoe we met data omgaan,’ vertelt Van der Velden. ‘Dit is het moment om de richting van die transformatie te bepalen. Als AI-onderzoeker zie ik het dan ook als mijn maatschappelijke verantwoordelijkheid om zorgvuldig met de risico’s van kunstmatige intelligentie om te gaan.’ Van der Velden denkt daarbij niet aan doemscenario’s uit science fictionverhalen. ‘Nee, maar het gaat wel om het verantwoord ontwikkelen van deze krachtige algoritmes. Als we de zwarte doos van AI open maken, kunnen we veel bewuster met kunstmatige intelligentie omgaan.’
Deel dit artikel