Het gebruik van algoritmes door de
overheid
Management voor
Overheid & Non-profit
Eindopdracht
XXXXX
XXXX
11/02/2021
NCOI
Master of Business Administration
Masterclass Management voor Overheid & Non-profit
,Voorwoord
Geachte Lezer,
Voor u ligt de eindopdracht voor de masterclass Management voor overheid & non-profit, welke
onderdeel uitmaakt van mijn studie Master of Business Administration aan de NCOI. De module heeft
als doel inzicht te creëren in de aard en het functioneren van organisaties centraal. Het gaat om het
beter begrijpen en doorgronden van patronen en situaties. Hierbij wordt niet gezocht naar snelle
antwoorden op urgente problemen, maar wordt er gekeken naar de dieperliggende patronen waaruit
dringende problemen naar de oppervlakte komen.
Ik ben XXXX, 26 jaar en ben naast mijn opleiding Master of Business Administration werkzaam als
adviseur Interne Beheersing bij de XXXXX. Na het afronden van mijn opleiding ambieer ik een
managementfunctie.
Voor deze eindopdracht is een essay geschreven die de thema’s ethiek, reputatie en duurzaamheid
raakt. Het onderwerp luidt als volgt: “het gebruik van algoritmes door de overheid”. Dit onderwerp is
erg actueel en staat onder de aandacht van de media. Zowel binnen de XXXXX als onder de burgers
is het onderwerp een belangrijke discussiepunt. Het onderwerp heeft invloed op het management en
organisatie. In het essay wordt een persoonlijke visie over het onderwerp gegeven en onderbouwd.
Graag wil ik mijn opdrachtgever bedanken voor het meedenken en vertrouwen in mij. Daarnaast wil ik
dhr. Eskens bedanken voor de goed verzorgde masterclasses en voor de fijne begeleiding.
Ik wens u veel leesplezier toe.
XXXXX, 11 februari 2022
XXXXX
, Samenvatting
Dit essay is geschreven in het kader van het afronden van de masterclass Management en
organisatie. Het gekozen onderwerp heeft invloed op het management en organisatie. De thema’s
ethiek, reputatie en duurzaamheid komen hierin naar voren. Het onderwerp luidt als volgt: “het gebruik
van algoritmes door de overheid”.
Maanden lang is het toeslagenaffaire actueel geweest en onder onze aandacht gebracht door de
media. Bij de toeslagenaffaire leidde het gebruik van algoritmes door de overheid tot privacy
schending en discriminatie. Toepassing van algoritmes in het algemeen, maar ook binnen de overheid
is een hot-topic.
De Nederlandse overheid gebruikt algoritmes en Big Data. De gegevens hebben een direct of indirect
verband met privégegevens van personen (Gartner IT Glossary, 2019) om risico’s in te schatten en
mensen te beoordelen. De overheid verwerkt bijvoorbeeld gegevens om te proberen fraude op te
sporen of de kans te berekenen of iemand een andere strafbare feit zal begaan, aan de hand van
beschikbare (persoons)gegevens van deze persoon. Het gebruik van algoritmes brengt ook risico’s
met zich mee.
Algoritmes lijken objectief, maar dat is niet zo. Het gaat om software wat is gemaakt door mensen.
Mensen die een beeldvorming hebben en de criteria daarop instellen. Dus algoritmes kunnen ook
bevooroordeeld zijn, net zoals mensen. Geautomatiseerde risicoprofielen (criteria om aan een profiel
te voldoen die is ingevoerd als algoritme), kunnen voor verkeerde conclusies zorgen en extreme
gevolgen met zich meebrengen.
In het gepubliceerde rapport van Amnesty (2021) concluderen zij dat de gebruikte algoritmes van het
risicoclassificatiemodel door de XXXXX tot etnisch profileren en discriminatie hebben geleid. Deze
data en algoritmes werden gebruikt voor de beoordeling van (potentiële) onjuistheden en fraude bij de
aanvragen voor de kinderopvangtoeslag. Daarbij werd de nationaliteit geregistreerd en gebruikt om
het risico op onjuistheden of fraude in te schatten. Het is verboden om de nationaliteit mee te wegen in
de toekenningen en valt dus onder discriminatie.
Keer op keer is de werking van algoritmes en de context om het verantwoord toepasbaar te houden
het onderwerp. Het ethische toepasbaarheid is een onderwerp wat aandacht verdient. Vooral als het
gaat om zelflerende algoritmes, zijn de risico’s minder goed te voorspellen. Zo leerde een wervings-
en selectiealgoritme zichzelf aan dat mannelijke sollicitanten de voorkeur kregen boven vrouwelijke,
wat uiteraard onethisch is. Sommige organisaties vangen deze risico’s op, door een menselijk second-
opinion te koppelen aan bijvoorbeeld afwijzingen. Echter kost dit te veel geld en tijd. Zonder dat het
ten koste gaat van financiële efficiëntie en tijdsbesparing, moeten er toch goede oplossingen komen
om te voorkomen dat er een tweede toeslagenschandaal komt.
Goede regels zijn hierbij van groot belang. Deze ontbreken in Nederland. Zorgvuldig omgaan met
persoonsgegevens en duidelijke en bindende regels moeten komen over het gebruik van algoritmes.
Transparantie is een vereiste zodat beslissingen aangevochten kunnen worden die met behulp van
algoritmes zijn genomen. Als je weet hoe een algoritme werkt, kun je ook aantonen dat je bijvoorbeeld
gediscrimineerd wordt. Er moet een toezichtsorgaan komen om toe te zien op de bescherming van
persoonsgegevens en mensenrechten bij het gebruik van algoritmische besluitvormingssystemen in
de publieke sector. Deze toezichtsorgaan moet richtlijnen opstellen en mensen die werken met
algoritmes, ter verantwoording kunnen roepen. Amnesty geeft hetzelfde advies voor de implementatie
van Algoritmes (Amnesty International, 2021), omdat de inzet er van niet meer te voorkomen is en
onwijs veel kansen biedt, zolang het op de correcte manier wordt ingezet, met respect voor
mensenrechten en houdend aan de wet. Wat Amnesty ook wenst, is dat zelflerende algoritmes niet
gebruikt moeten worden, omdat deze minder goed te checken zijn. Dit lijkt echter niet haalbaar in
praktijk, als we een kosten-baten afweging maken en beoordelen vanuit alle mogelijkheden die het
met zich mee brengt.
Wat wel kan is te kijken op welke vlak binnen een overheidsorganisatie, zelflerende algoritmes worden
ingezet. Het is een kunst om zicht te houden op complexer wordende technologie, doormiddel van het
inzet van de juiste richtlijnen, toetsingskaders en door regel- en wetgeving hierop aan te passen. En