Berichten

Algoritmes

De overheid gebruikt tegenwoordig steeds meer alogritmes om gedrag van mensen te voorspellen. Zo worden algoritmes ingezet om criminaliteit op te sporen, te bepalen wat voor zorg iemand nodig heeft en wat de kans is dat een leerling vroegtijdig school verlaat.

Verschillende sociale diensten gebruiken nu ook algoritmes om te voorspellen wie fraude pleegt bij een bijstandsuitkering. Geboortedata, gezinssamenstelling, uitkeringsverleden, gegevens van de Belastingdienst, kadaster en RDW worden ingevoerd en het algoritme spoort daaruit verdachte partonen op. De mensen die door het algoritme worden aangewezen als mogelijke fraudeurs kunnen gecontroleerd worden, terwijl andere mensen niet gecontroleerd hoeven worden. Dat scheelt geld.

Met eerdere fraudegevallen wordt het algortime getraind. Dit brengt wel een risico met zich mee: vooroordelen kunnen in de toekomst blijven voortleven. Als sociaal rechercheurs vaker in bepaalde wijken hebben gezocht naar uitkeringsfraude, of meer controles uitvoerden bij mensen met een bepaalde afkomst, dan is het algoritme geneigd om mensen die ook deze afkomst hebben en in deze wijken wonen aan te merken als fraudeurs. Een oplossing hiervoor is het gebruiken van een tweede algoritme dat afwijkend gedrag registreert.

Privacy

In de AVG is bepaald dat mensen niet automatisch op basis van hetoordeel van een computer mogen worden beoordeeld. Een sociaal rechercheur moet dus ook zelf onderzoek doen voordat de uitkering als gevolg van fraude wordt stopgezet.

De data die het algoritme gebruikt om fraude op te sporen moet voor specifiek voor dit doel zijn verzameld of de personen moeten expliciet toestemming geven.

Bron: NRC