Soft Sister

‘Niet alles wat mogelijk is moet je willen’

Steeds meer gemeenten proberen op basis van big data het gedrag van hun inwoners te voorspellen. Zo willen ze bijvoorbeeld schooluitval, criminaliteit en huiselijk geweld beperken. Wordt argwaan de norm?

Medium soft 20sister 202k

Ze weten het niet, maar in Dordrecht hebben sommige achttienjarigen sinds kort een rood vlaggetje achter hun naam staan. Dat vlaggetje is daar automatisch beland, het werk van een algoritme. Het betekent: foute boel. Niet nu, maar in de toekomst. Het betekent ook dat er bij één keer spijbelen direct een leerplichtambtenaar op de stoep staat. ‘Dan rijden wij met toeters en bellen de straat in en gaan we in gesprek met de betreffende leerling en de ouders’, zegt Erwin Keuskamp.

De gemeente Dordrecht wil vroegtijdige schooluitval terugdringen. Jongeren die hun opleiding niet afmaken komen later moeilijk aan de bak en kosten de stad veel geld. Keuskamp, programmamanager onderwijs en arbeidsmarkt in de regio Zuid-Holland Zuid, heeft daarbij voor een spiksplinternieuwe werkwijze gekozen: machine learning, een techniek waarmee op basis van grote hoeveelheden data een voorspelling gedaan kan worden.

Zo kan het dat de gemeente Dordrecht sinds een paar maanden weet wat de toekomst haar achttienjarige inwoners te bieden heeft. Dat wil zeggen, de stad weet welke leerlingen een goede kans hebben hun opleiding af te maken en welke niet. Om te voorkomen dat die voorspelling werkelijkheid wordt, krijgt de laatste groep nu alvast extra aandacht. Keuskamp: ‘Door er meteen op af te gaan, creëren we een afschrikwekkend effect. Dat voorkomt recidive.’

Dordrecht mag een voorloper zijn, de stad is allerminst uniek. Steeds meer gemeenten zijn aan het experimenteren geslagen met de grote hoeveelheid gegevens die ze in huis hebben. Ze maken daarbij gebruik van dezelfde methodes als waar bedrijven als Netflix, Amazon en bol.com al langer in uitblinken: het combineren van big data en slimme algoritmen. Het zijn ook dezelfde technieken die veiligheidsorganisaties recent hebben opgepikt om misdaad te voorspellen. Een glimp van de toekomst, zo blijkt, is ook onder gemeenten een gewild product.

De stad Utrecht probeert bijvoorbeeld te voorspellen in welke buurten jongeren wonen die hun school niet gaan afmaken. Sinds mei is de gemeente een systeem aan het testen dat voorspelt waar in de stad inbrekers gaan toeslaan. Wordt er in een bepaalde wijk meer inbraak verwacht, dan kan de stad daar extra handhavers op af sturen. ‘Het klinkt als sciencefiction’, zegt projectleider big data en veiligheid Geerte van Rije, ‘maar dit soort voorspellingen zijn al mogelijk.’

In Amsterdam weten brandweermannen en ambulancebroeders tegenwoordig dankzij een algoritme nog voor ze uitrukken of ze op het adres van bestemming een gewelddadige bewoner aantreffen. Zaanstad sleutelde vorig jaar zelfs aan een systeem dat huiselijk geweld moest gaan voorspellen.

‘Gemeenten zijn erachter gekomen dat ze data hebben en dat ze die kunnen gebruiken’, zegt Selmar Smit van tno. Als data scientist werkt hij al langer met voorspellende systemen, vooral op het gebied van veiligheid. Sinds twee jaar weten ook steden hem te vinden. De onderzoeker heeft al in zeker tien verschillende plaatsen projecten gedraaid. Hij maakte bijvoorbeeld voor Den Haag een model dat voorspelt op welke plekken hangjongeren voor overlast gaan zorgen. In Rotterdam probeerde hij in te schatten welke ouderen langer thuis blijven wonen en wat daarvoor nodig is. ‘Of je nou voorspelt waar de volgende inbraak gaat plaatsvinden, of een inschatting maakt of een leerling zijn school niet gaat afmaken; in essentie verschilt het niet veel van elkaar.’

De techniek is vergelijkbaar, de gevolgen zijn dat ook. Dezelfde problemen die bij voorspellend politiewerk spelen, steken ook bij deze stedelijke variant de kop op. Zo is het maar de vraag of alles wat de gemeenten op dit vlak ondernemen in overeenstemming is met privacy-wetgeving. Bovendien is er nog veel onduidelijk over hoe gemeenten te werk gaan. Controle is daardoor lastig.

Jaring Hiemstra noemt de nieuwe manier van werken de ‘soft sister-aanpak’. Inderdaad, een knipoog naar de booswichtige grote broer. ‘Veel mensen associëren big data met big brother. Maar je kunt er ook een andere kant mee op, waarbij je mensen helpt in plaats van straft.’ Hiemstra is directeur van Ynformed, een bedrijf dat gespecialiseerd is in big data-oplossingen voor de publieke sector. Hij ziet tal van mogelijkheden. ‘Nederland is een enorm administratief landje. We zijn heel goed in van alles bijhouden.’ Uit de stapels gegevens die nu nog stof liggen te vangen in gemeentehuizen en publieke instellingen valt veel meer te halen, meent de directeur: ‘Neem bijvoorbeeld consultatiebureaus. Vrijwel alle kinderen in Nederland worden daar gemiddeld vijftien keer gezien. Dat levert een geweldige hoeveelheid data op, die kun je samenbrengen en dan kijken welke patronen te zien zijn.’

‘Nederland is een enorm administratief landje. We zijn heel goed in van alles bijhouden’

Een van de producten die Ynformed in de etalage heeft staan, is het model dat in Dordrecht schooluitval onder scholieren voorspelt. Hoewel het nog te vroeg is voor concrete resultaten heeft gemeentemedewerker Erwin Keuskamp hoge verwachtingen. ‘Dit systeem zit vernuftig in elkaar, het houdt met meer factoren rekening dan een mens zou kunnen.’ Wel rolt er af en toe een ietwat vreemde predictie uit het model, dat zich baseert op gegevens van de Dienst Uitvoering Onderwijs. ‘Er komen soms namen van leerlingen uit die nog nooit een dag school hebben gemist’, zegt Keuskamp. ‘Daar gaan we dan toch maar langs, ook al weten we niet goed waarom.’ Andere scholieren met een uitgebreide verzuimgeschiedenis en een roerige schoolcarrière komen juist niet uit het systeem. Het zal de nieuwigheid wel zijn, denkt de ambtenaar: ‘Zo’n model wordt natuurlijk alleen maar beter.’

Keuskamps enthousiasme is tekenend voor de geestdrift die zich van veel steden meester heeft gemaakt als het gaat om big data. Uit een rondgang langs gemeenten en betrokken onderzoekers valt op te maken dat zo’n tien tot twintig steden al aan het voorspellen zijn geslagen. Dat is geen spontane opwelling, de experimenten hangen samen met twee bredere ontwikkelingen. In de eerste plaats de opkomst van de ‘smart city’, de intelligente, data-doordrenkte stad waarin alles wordt bijgehouden – van verkeersstromen, luchtvervuiling en het gemiddelde geluidsniveau in een straat tot eetpatronen en geluksgevoelens van inwoners. De vijf grootste Nederlandse steden hebben zichzelf de laatste jaren stuk voor stuk al uitgeroepen tot slimme stad en zijn momenteel hard op weg de daad bij het woord te voegen. Veel middelgrote en kleine gemeenten volgen ze op de voet.

De tweede ontwikkeling is een verschijnsel dat journalistiek platform De Correspondent eerder omdoopte tot de ‘scorebord-samenleving’. Een samenleving waarin individuen door steeds meer bedrijven en overheidsinstanties een score krijgen toegekend op basis van big data. Dat gebeurt vaak ongemerkt. Een voorbeeld is het nieuwe overheidssysteem SyRI (Systeem Risico Indicatie) dat belasting- en uitkeringsfraude moet voorkomen. Door grote hoeveelheden gegevens van burgers aan elkaar te koppelen kan de overheid voorspellen wie een mogelijk risico vormt en alvast in de gaten gehouden moet worden.

Het zijn ontwikkelingen die met evenveel halleluja- als boegeroep worden ontvangen. ‘Je ziet bij overheden een enorm positief denken over wat er allemaal kan met big data’, zegt Valerie Frissen. ‘Ze experimenteren erop los.’ Daar kleven volgens de bijzonder hoogleraar ict en sociale verandering wel risico’s aan. Niet in de laatste plaats omdat de overheid toch al een ‘tamelijk ongelukkige relatie’ met ict heeft. ‘Er is weinig reden om te denken dat dat de komende tijd beter gaat.’ Maar ook omdat de techniek zelf problemen met zich meebrengt. Privacy-wetgeving loopt volgens Frissen bijvoorbeeld al gauw achter op de in hoog tempo doorstomende technologische ontwikkelingen. ‘Het argument is vaak dat de data worden geanonimiseerd en dat daarmee de privacy is gewaarborgd. Maar als er eenmaal grote hoeveelheden gegevens op een hoop worden gegooid en slimme algoritmen kijken ernaar, dan zijn die data vaak toch weer te herleiden tot de persoon.’

De Rotterdamse hoogleraar maakt zich soms meer zorgen over wat de overheid onderneemt op het gebied van big data dan wat bedrijven ermee doen. ‘Begrijp me niet verkeerd: die gegevens zijn een fantastische poel van mogelijkheden. En de bedoelingen zijn goed. Maar juist als overheid heb je een politieke verantwoordelijkheid om alle belangen goed af te wegen.’ Een gevaar is bijvoorbeeld dat argwaan het uitgangspunt wordt in de houding ten opzichte van burgers. ‘Het is mooi dat steden problemen als schooluitval en criminaliteit proberen aan te pakken. Maar als dat betekent dat je op individueel niveau al gaat ingrijpen vóór mensen daadwerkelijk iets verkeerd hebben gedaan, ga je mensen op basis van wantrouwen benaderen. We moeten ons afvragen of we dat willen.’

De wens om de toekomst te vatten in een handzame voorspelling is op zichzelf niets nieuws. Van mythische Griekse orakels tot middeleeuwse waarzegsters, wichelroedelopers en tarotkaartleggers – er zijn altijd partijen geweest die op de een of andere manier in die behoefte voorzagen. Maar de laatste jaren is het lezen van de toekomst serieuze handel geworden, met dank aan de razendsnelle ontwikkelingen op het gebied van kunstmatige intelligentie.

Een van de eerste partijen die dat overtuigend aantoonden was Google. De zoekmachine bleek in 2008 in staat om op basis van zoektermen de uitbraak van een griepepidemie te voorspellen. Een paar jaar later werd duidelijk dat de Amerikaanse supermarktketen Target dankzij een speciale predictive analytics-afdeling niet alleen kan voorspellen of een klant zwanger is, maar ook vrij nauwkeurig kan inschatten wanneer ze uitgerekend is. Dat alles op basis van aankopen als parfumvrije zeep en washandjes.

Amazon deed er in 2014 een schepje bovenop toen het patent aanvroeg voor een systeem dat het mogelijk maakt een pakketje op de post te doen al voordat het besteld is. Door bijvoorbeeld te kijken naar eerder aankoopgedrag en wensenlijstjes van klanten weet de online boekhandel al welke artikelen een klant gaat kopen, nog voor deze zelf tot een keuze is gekomen. Het boek wordt, met andere woorden, al verstuurd voor het verkocht is. Of Amazon deze techniek ook daadwerkelijk toepast is niet bekend – het geeft in elk geval een idee van de mogelijkheden. >

De voorspellingsbranche, of predictive analytics-markt, is inmiddels uitgegroeid tot een miljardenindustrie. Maar de bijbehorende technieken roepen vragen op over privacy en het automatisch profileren van individuen en buurten. Zo ontdekte de website Bloomberg onlangs dat een nieuwe gratis, extra snelle bezorgdienst die Amazon sinds kort in de VS aanbiedt, vaak niet beschikbaar is in wijken waar vooral mensen van gemengde komaf wonen. Blanke inwoners van veel grote steden hebben twee keer zo veel kans om in een buurt te wonen waar ze wel gebruik kunnen maken van de extra service. Dat is niet omdat het bedrijf zo’n kwaadaardige inborst heeft of er stiekem een racistische agenda op nahoudt. Het komt domweg doordat de beslissing automatisch werd genomen. Een algoritme bepaalde in welke buurten de kosten voor de dure dienst het minst zwaar zouden wegen en dat bleken voornamelijk welvarende, witte wijken te zijn.

‘Als je gaat ingrijpen vóór mensen iets verkeerd hebben gedaan, ga je ze op basis van wantrouwen benaderen’

Nu dezelfde systemen opmars maken in het publieke domein worden vragen over privacy en profileren alleen maar prangender, zegt Frissen. ‘Het is makkelijk om alleen maar tegen big data te zijn. Ik ben geen technologie-basher, integendeel. Maar als je dit soort systemen de ruimte geeft kan er van alles misgaan. We moeten niet afwachten, maar nu al controlemechanismen inbouwen en wetgeving goed regelen.’

Medium soft 20sister 201

Terug naar de praktijk, naar het Utrechtse Oudwijk. Daar, in een statig pand, huist start-up Ynformed. Directeur Jaring Hiemstra en zijn tien medewerkers werken er voor zo’n zestien steden aan big data-oplossingen. Om eerlijk te zijn, Hiemstra had zo zijn twijfels om mee te werken aan een interview. ‘Big data is geen makkelijk onderwerp, er bestaan veel misverstanden over. Het klinkt al snel eng.’

Het bewijs voor die stelling werd halverwege mei nog geleverd toen de gemeente Apeldoorn een nieuwe data-aanpak aankondigde. ‘Computer zegt wie een boef wordt’, kopte regionaal dagblad de Stentor. De gemeente zou volgens het bijbehorende artikel big data gaan inzetten om te voorspellen welke jongeren ‘ongewenst gedrag’ gaan vertonen. Landelijke media namen het nieuws over. Op Twitter was het oordeel ‘big brother’ al snel geveld, en de plaatselijke fractie van d66 riep het college op om de aanpak onmiddellijk stop te zetten. De werkelijkheid blijkt bij navraag minder heftig. De gemeente gaat niet voorspellen wie opgroeit tot crimineel, maar in welke buurten overlast van jeugdcriminaliteit kan ontstaan. Een werkwijze die overigens al in meer steden gebruikelijk is.

Ondanks de nationale huiver wil Hiemstra toch vertellen over zijn werk. ‘Het dilemma is: de techniek is er. Wat gaan we ermee doen?’ Neem bijvoorbeeld een project waar Ynformed nu aan werkt voor een middelbare school in Almere. De school in kwestie (‘ik kan geen naam noemen’) kampt met veel leerlingen die na hun eerste jaar afzakken naar een lager niveau. Op basis van schoolresultaten probeert Hiemstra’s team nu te voorspellen welke leerlingen dreigen af te glijden, zodat leraren ze al eerder extra aandacht kunnen geven. ‘Je kunt als school natuurlijk ook denken: ik gebruik deze methode om te bepalen welke leerlingen ik wel of niet toelaat. Bedrijfseconomisch zou dat heel slim zijn en het kan met onze techniek. Maar ik weet uit ervaring dat bestuurders niet zo denken.’

Veel proeven pakken veelbelovend uit, zegt de directeur. Zo was er een experiment voor een ggd in een grote stad (opnieuw, ‘geen namen’) waarbij de start-up op basis van dossiers wist te signaleren welke kinderen mogelijk mishandeld worden. ‘Artsen hebben vaak te weinig tijd om een dossier integraal door te nemen. Ons model ging automatisch door alle dossiers en haalde er twintig gevallen uit waar mogelijk iets aan de hand was.’ En inderdaad, bij nadere inspectie bleek dat de dokters in achttien gevallen de computer gelijk moesten geven. Zelf hadden ze de mogelijke kindermishandeling over het hoofd gezien. ‘We zijn nu met de ggd in gesprek hoe we dit verder kunnen toepassen.’

Een vergelijkbaar experiment, waar Ynformed zijdelings bij betrokken was, had minder succes. De gemeente Zaanstad probeerde vorig jaar tot voorspellingen over huiselijk geweld te komen. Door het koppelen van gegevens over incidenten met huiselijk geweld op buurtniveau aan onder andere gegevens van de geestelijke gezondheidszorg, gezinssamenstelling, inkomensniveau in een buurt en data afkomstig van sociale media, hoopte de gemeente patronen te ontdekken om daarmee tot een risico-inschatting te komen. Het resultaat was ‘niet om over naar huis te schrijven’, zegt een woordvoerder. ‘De belangrijkste reden is dat we in verband met privacy niet op huishoudelijk niveau konden kijken. Daardoor leverde het alleen globale beelden op waar we niets mee konden.’ De gemeente gaat nu kijken of een samenwerking met andere steden op dit onderwerp meer kan opleveren.

Het gebeurt ook dat Hiemstra achteraf toch z’n twijfels heeft over een pilot. Zo benaderde ‘een grote stad’ zijn bedrijf een tijd geleden met de vraag of ze konden achterhalen met wie risicojongeren die bij de gemeente bekend waren online uithingen. Vrienden kunnen immers ook uitgroeien tot notoire lastpakken. Ynformed maakte op basis van openbare Facebook-gegevens een lijst met 1120 personen die met zes of meer van die risicojongeren bevriend waren. Hiemstra: ‘De gemeente heeft uiteindelijk besloten het bij een pilot te laten. En terecht, dit is op het randje. Het gaat om persoonlijke profielen van mensen. Niet alles wat technisch mogelijk is moet je willen.’

Volgens de directeur letten zijn opdrachtgevers goed op of alles in overeenstemming is met privacy-wetgeving. ‘Er wordt serieus werk van gemaakt. Er zijn zelfs steden die speciaal een privacy officer hebben aangesteld.’ Toch is het de vraag of alle gemeentelijke big data-expedities binnen de privacy-wet passen. De Autoriteit Persoonsgegevens heeft geen onderzoek gedaan naar het onderwerp, maar woordvoerder Merel Eilander ziet meerdere problemen. ‘Als er risicoprofielen van mensen worden opgesteld, is het gevaar dat je anders wordt behandeld op grond van iets wat je zelf niet bepaald hebt of kunt controleren.’ Daarmee komt de individuele vrijheid in het geding.

‘Een politieagent hoeft toch ook niet uit te leggen waarom hij de ene keer wel een boete uitschrijft en de andere niet?’

Bovendien is het volgens de woordvoerster niet de bedoeling dat persoonsgegevens zomaar worden gebruikt om voorspellingen over individuen te doen. Zoiets mag alleen als er een aanleiding voor is. ‘Bijvoorbeeld als iemand mogelijk fraude pleegt. Maar ook dan moet er met heel veel waarborgen rekening gehouden worden.’ Daar komt bij dat bij dit soort experimenten voor de proefkonijnen in kwestie vaak bijzonder lastig te controleren valt wat er precies met hun persoonsgegevens gebeurt, terwijl de wet voorschrijft dat burgers op de hoogte zijn wie met welk doel hun persoonsgegevens gebruikt.

Steden hebben toch al bepaald geen smetteloze reputatie als het gaat om privacy. In april publiceerde de Autoriteit Persoonsgegevens de resultaten van een uitgebreid onderzoek onder 41 gemeenten. De pijnlijke conclusie: gemeenten hebben geen flauw benul hoe het zit met privacy-wetgeving en de toepassing daarvan in de praktijk. Zo blijkt dat ambtenaren vaak niet weten welke privacy-gevoelige informatie ze van inwoners mogen vragen. ‘Het risico is dat gemeenten gegevens van burgers verwerken terwijl dat niet mag’, aldus Eilander. Het gevolg kan zijn dat burgers voor de zekerheid contact met de gemeente vermijden, omdat ze bang zijn dat hun gegevens te makkelijk worden gedeeld. Dat is geen hypothetisch probleem, blijkt uit het onderzoek van de Autoriteit Persoonsgegevens. ‘Wij hebben al signalen binnengekregen van mensen die zo geschrokken zijn van het feit dat er meer informatie van ze gebruikt werd dan ze dachten dat ze zorg zijn gaan mijden.’

Gemeenten zouden transparanter moeten zijn over de algoritmen die ze op hun burgers loslaten, vindt Bart Schellekens. Hij is onderzoeker recht en ict bij de Raad voor de Rechtspraak, maar reageert op persoonlijke titel. ‘Als burger moet je jezelf kunnen verdedigen tegen de overheid. Nu weten we in veel gevallen niet wat er gebeurt.’ Bedrijven die voorspellende software leveren, beschouwen hun algoritmen vaak als bedrijfsgeheim en geven het niet zomaar prijs. ‘Steden verschuilen zich vaak achter het argument dat het alleen om een pilot gaat. Maar voor die pilot worden wel gegevens van echte mensen gebruikt.’ De systemen die overheden gebruiken voor risicoanalyses en voorspellingen worden volgens de jurist almaar machtiger. Ze nemen steeds vaker beslissingen die het dagelijks leven van mensen beïnvloeden. ‘Toch zijn ze niet openbaar, terwijl het beleid en het handelen van de overheid in principe openbaar zijn.’

In Dordrecht worden scholieren die een vlaggetje achter hun naam hebben daarover door de gemeente niet op de hoogte gebracht. Dat is ook niet nodig, vindt Erwin Keuskamp. ‘Wij hebben de bevoegdheid op te treden als er een melding is. Een politieagent hoeft toch ook niet uit te leggen waarom hij de ene keer wel een boete uitschrijft en de andere niet?’ Bovendien: er is geen beginnen aan. ‘Het valt niet uit te leggen hoe ons model heeft besloten of iemand wel of niet een risicoleerling is, daarvoor is het systeem te ingewikkeld. Dan krijg je dáár weer discussie over.’

Het is precies dit gebrek aan transparantie dat het gebruik van algoritmen in de publieke sector problematisch kan maken, zegt Cathy O’Neil. Volgens de Amerikaanse wiskundige, die eerder aan Columbia University werkte, leven we in het ‘tijdperk van het algoritme’. Als big data de aardolie van de 21ste eeuw zijn, zoals het steeds vaker klinkt, dan zijn algoritmes de raffinaderij die van dat onbruikbare goedje waardevolle brandstof maakt. Onmisbaar kortom voor iedereen die iets van waarde uit die cijferberg wil halen. Een algoritme is in feite niets meer en niets minder dan een reeks instructies waarmee een computer aan het rekenen slaat. Die rekenregels worden wel steeds ingewikkelder. Bij sommige zeer gecompliceerde algoritmes valt achteraf niet meer te achterhalen hoe ze te werk zijn gegaan, en daarmee hoe de computer tot een bepaalde beslissing of voorspelling is gekomen.

Een werkwijze gebaseerd op mathematische logica klinkt weliswaar eerlijk en neutraal, zegt O’Neil ‘maar dat is het niet altijd’. Sommige algoritmes zijn verkregen volgens de wiskundige weapons of math destruction. Ze schreef er een boek over dat later dit jaar verschijnt. Bij een mathematisch massavernietigingswapen zijn er volgens O’Neil drie dingen aan de hand. Ten eerste is het algoritme wijdverspreid en heeft het impact op de levens van veel mensen. Ten tweede is het intransparant. ‘De mensen om wie het gaat hebben geen inzicht in de manier waarop een algoritme een beslissing over ze neemt.’ Het effect van die beslissing is, tot slot, destructief.

Een goed voorbeeld is volgens O’Neil predictive policing, voorspellend politiewerk, waar behalve de Nederlandse politie ook de gemeenten Utrecht en Eindhoven al gebruik van maken. ‘Deze vorm van werken wordt steeds wijdverspreider. De manier waarop tot een beslissing wordt gekomen is vaak ondoorzichtig en kan destructief zijn, omdat het bepaalde vooroordelen in de data weerspiegelt.’ Een ander voorbeeld zijn algoritmes die in de VS op veel scholen worden gebruikt om leraren te beoordelen. Docenten krijgen jaarlijks een automatisch gegenereerde score toebedeeld die uitdrukt hoeveel ze hebben bijgedragen aan de vooruitgang van hun leerlingen. O’Neil: ‘Die score kan veel invloed hebben op de loopbaan van leerkrachten. Daarbij valt voor docenten niet te controleren of de score waar ze op afgerekend worden wel klopt.’

Of de experimenten van Nederlandse gemeenten met big data uiteindelijk een negatieve impact hebben, hangt volgens O’Neil af van welke rol ze krijgen in het beleid. ‘Het gaat erom: wat doe je met zo’n voorspelling. Ga je iemand straffen of helpen? En ben je open over je werkwijze of niet?’ Het kan volgens de wiskundige kortom twee kanten op. ‘Een algoritme is niet per definitie kwaadaardig. Als je mensen ermee kunt helpen en iets positiefs weet te bereiken, is het een goed gebruik van data.’


Dit artikel kwam tot stand met steun van Fonds 1877. In De Groene van vorige week schreef Kaya Bouma over predictive policing

De voorlopers

Hoeveel geld steden precies uittrekken voor big data-experimenten valt lastig vast te stellen. Ze vallen veelal onder de noemer van bredere smart city-plannen. De drie steden die daarin voorop lopen zijn Amsterdam, Eindhoven en Utrecht. In Amsterdam wordt volgens de speciaal benoemde CTO (Chief Technology Officer) Ger Baron tussen 2013 en 2018 ongeveer voor honderd miljoen euro in ‘innovatieprojecten’ geïnvesteerd. Dat geld is voor een deel afkomstig uit Nederlandse en Europese subsidiepotjes, en voor het merendeel (zo’n zeventig miljoen euro) van bedrijven als Google, KPN en TomTom. ‘Amsterdam betaalt zelf nog geen miljoen’, schat Baron. Eindhoven kondigde vorig jaar aan 1,8 miljoen euro extra uit te trekken om uit te groeien tot slimme stad. Dat bedrag komt volgens een woordvoerder boven op een budget van zeker ‘enkele miljoenen’ die de stad er al insteekt. Utrecht investeert in vier jaar tijd acht miljoen euro in ten minste dertig pilots rondom ‘datagedreven sturing’.