© Pixabay
Author profile picture

Inbrekers slaan graag hun slag slaan tijdens Kerst en rond de jaarwisseling. Wiskundig psycholoog Dick Willems bedacht een oplossing om het hen een stuk lastiger te maken. Hij ontwikkelde een systeem dat vooraf kan zien waar de kans op inbraak het grootst is. Het lijkt te werken, want onlangs betrapte de politie in Spijkenisse door daarvan gebruik te maken twee inbrekers op heterdaad.

Op deze tijden slaan inbrekers graag hun slag.

Op Eerste Kerstdag vinden de meeste inbraken tussen twee en vier uur in de middag plaats, terwijl inbrekers op Tweede Kerstdag iets eerder actief zijn: rond een uur ‘s middags. Op Oudejaarsdag is dat tussen vijf en ach uur ‘s avonds, terwijl op Nieuwjaarsdag rond een uur ’s nachts én twaalf uur ’s middags de meeste inbraakpogingen zijn, zo blijkt uit onderzoeken.

Het Criminaliteitsanticipatie Systeem (CAS) werkt op basis van datamining. Het systeem analyseert gegevens als de meest voorkomende inbraakmethoden, tijdstippen en adressen. Maar ook de aangiftes van burgers en het aantal uitkeringen per wijk. Het doel: deze data omzetten in bruikbare inzichten die laten zien waar en wanneer inbrekers hun slag willen slaan. Elke week genereert het systeem een digitale landkaart waarop te zien is waar de kans op inbraken groter is dan normaal.

Dat de politie extra gaat surveilleren in risicogebieden, hoeft niet te betekenen dat we nu allemaal van huis kunnen zonder ramen en deuren op slot te doen. Ook zijn er inmiddels tal van innovaties die huizen net een beetje slimmer maken. Denk aan de bewegingssensoren, glasbreukdetectoren of slimme beveiligingscamera’s. Of een magneetcontact, dat je via een app waarschuwt als er nog een raam of deur openstaat.

Discriminatie van minderheden

Volgens criticus Marc Schuilenburg moeten we ons echter niet blindstaren op CAS. Schuilenburg stelt dat er nogal veel zogenaamde vervuilde data in het systeem zit. Schuilenburg is professor Digitale Surveillance aan de Erasmus Universiteit en assistent-professor Criminologie aan de VU in Amsterdam.

“Daarnaast is er ook nog de keerzijde van predictive policing. Denk aan het risico dat opsporingsautoriteiten zich blijven richten op dezelfde buurten en typen criminaliteit. Ook kan het gebruik van data en algoritmen om criminaliteit te voorspellen leiden tot discriminatie van minderheden en het identificeren van risicogroepen op basis van bepaalde kenmerken. Dit noemen we social sorting”, aldus Schuilenburg.

Ook de Algemene Rekenkamer heeft er zijn vraagtekens bij. Door dit algoritme te gebruiken, zou het ertoe kunnen leiden dat personen al worden verdacht zonder iets verkeerd gedaan te hebben. De politie ontkent dit: “Het algoritme wordt niet gebruikt tegen individuele burgers, maar uitsluitend om criminaliteit in woonwijken voorspellen”, zo laat de politie weten in een reactie.

Andere politiesystemen

Dergelijke systemen zijn al vaker onderwerp van discussie geweest. Bijvoorbeeld SyRI, het opsporingssysteem voor uitkeringsfraude, of ClearView AI. Dit is de controversiële gezichtsherkenningssoftware die de politie zeker vijftig keer heeft toegepast, volgens Amerikaanse media. De politie ontkent dat er gebruik is gemaakt van deze software.

Met ClearView ging de politie de gangen van burgers na, zelfs als zij nergens van werden verdacht. De toepassing verzamelde foto’s van internet en zocht daar persoonsgegevens bij. Zo kan de politie iedereen die bijvoorbeeld een foto van zichzelf op LinkedIn of Facebook heeft, herkennen als men een met ClearView uitgeruste bewakingscamera op straat passeert.

“Willen voorspellende systemen als CAS zich tot volwaardige en integere opsporingsmethoden voor de overheid ontwikkelen, dan is een basisvoorwaarde hiervoor dat de gebruikte data ‘schoon’ is en ook dat de objectiviteit van de data kan worden gecontroleerd”, aldus Schuilenburg.