16 apr 2021

Ethiek kan niet zonder context

We zien om ons heen de nodige ‘ethische principes’ en richtlijnen daarvoor gepubliceerd worden. Door bedrijven, koepelorganisaties en toezichthouders. Vaak blijven deze richtlijnen redelijk vaag en hoog over en geven ze weinig concrete houvast. Dat kan frustrerend zijn. Hoe kan het dan wel?

Na ruim een jaar experimenteren met manieren om ethische principes concreet te maken, merkten we bij de Volksbank dat het bijna onmogelijk is om dit op een generieke manier te doen Het probleem zit ‘m in de context. Juist bij ethische dilemma’s is die zo alles bepalend. Kijk bijvoorbeeld naar de controversiële uitspraak van de voorstanders van wapenbezit in de VS :‘Guns don’t kill people, people kill people’. Hier moeten we constateren dat er een kern van waarheid in zit.

Bij AI-modellen is het model zelf meestal niet het probleem (uitzonderingen daargelaten uiteraard). Er ontstaat pas een mogelijk probleem door de manier waarop de uitkomsten van het model gebruikt worden.

Een voorbeeld zijn de deepfakes. In China gebruiken sommige politieke activisten deepfake-technieken om hun echte identiteit te verhullen. Hiermee beschermen zij zichzelf tegen het optreden van een totalitair regime. Veel mensen zullen dit een prima iets vinden. Maar het is wél dezelfde techniek die ook gebruikt kan worden om mensen iets te laten doen of zeggen wat nooit gebeurt is. Dat vinden we een minder goed idee.

Denk ook aan een AI-model dat de performance van iemand meet. Dat gebeurt , vooral in de VS, steeds meer. Krijg ik via een AI-model wat tips over hoe ik mijn werk beter kan doen? Dan is dat niet meteen zo’n probleem. Daar kan ik nog wat van opsteken. Doet het model af en toe, in mijn ogen, zinloze suggesties? Dan zit ik daar niet zo mee.

Bepaalt dit AI-model vervolgens dat ik ontslagen moet worden omdat ik onvoldoende presteer? Dan zie ik dat wel als een probleem. En wil ik toch echt wel zeker weten hoe dat model precies werkt.  Waarom het deze beslissing neemt en zal ik de beslissing willen kunnen aanvechten. Mijn relatie met dit model is nu toch een heel andere geworden.

Kortom, het model zelf is niet per se goed of kwaad. Vooral de manier waarop het ingezet wordt, bepaalt in welke mate het voldoet aan de ethische principes.

Je kunt van te voren niet alle mogelijke manieren overzien waarop een model gebruikt kan worden. Dat maakt het erg moeilijk om met vaste regels vooraf te bepalen wat precies wel en niet mag. Daarom hebben we binnen de Volksbank een Ethics Office opgericht en een Ethische Klankbord Groep in het leven geroepen. Elke casus wordt hier apart bekeken. Niet alleen de techniek van het AI-model. Maar juist de intenties en processen rondom het daadwerkelijke gebruik van het datamodel.

Het is duidelijk dat AI niet alleen veel kansen biedt, er kunnen ook de nodige ethische haken en ogen aan zitten. Vanuit de Volksbank hopen we dat meer bedrijven gaan inzien dat ze hier ook iets mee moeten doen.

Overigens zou het mooi zijn als bedrijven die (nog) niks doen met AI ook overwegen om met een ethische bril naar hun handelen te kijken. Zeker als het gaat om de rol van commercie bij sociale en maatschappelijke problemen (denk aan inclusiviteit) en het milieu.

Robert Enters neemt je in zijn columns mee in de wereld van financiële innovatie, trends en ontwikkelingen.