Overheid en algoritmes

Een algoritme kijkt hoe vol de afvalcontainer is en geeft een seintje aan de gemeente dat die leeggemaakt moet worden. Een scanauto controleert of voor een auto parkeergeld is betaald. Een algoritme moet helpen voorspellen welke mensen met een uitkering mogelijk frauderen. De Rijksoverheid en gemeenten zetten algoritmes op allerlei manieren in.  

Vaak is dat heel handig. Het scheelt ambtenaren uren werk. En soms is het ook handig voor de burger: voor de inkomstenbelasting vult een algoritme alle gegevens in die al bekend zijn bij de Belastingdienst. Maar aan de inzet van algoritmes kleven risico's. Ook als de overheid ze inzet. 

Presentator Frederique legt uit: “De overheid neemt dagelijks veel beslissingen over burgers. Denk aan vergunningen, boetes of uitkeringen. De overheid gebruikt hiervoor algoritmes. Vaak gaat dit goed, maar soms gaat het fout en kunnen algoritmes discrimineren. Het is daarom belangrijk dat de overheid open is over het gebruik van algoritmes. 
In deze video leggen we je meer uit over algoritmes, hoe de overheid open moet zijn over het gebruik en wat jij kunt doen.   
Aan wat voor algoritmes moet je denken? Een voorbeeld is een softwareprogramma waarin via een stappenplan wordt bepaald of jij recht hebt op een uitkering. Het algoritme kijkt onder andere naar de hoogte van je inkomen, naar je eigen vermogen en andere factoren die belangrijk kunnen zijn. Het algoritme zet die stappen automatisch. Hierdoor kan de overheid sneller beslissingen nemen.  
Een ander voorbeeld is een algoritme dat het risico op overtredingen van burgers voorspelt.  
Algoritmes kunnen eenvoudige zijn, een soort beslisbomen die aan concrete criteria toetsen: ‘als dit, dan dat’. Maar er zijn ook algoritmes die heel ingewikkeld zijn, zoals zelflerende algoritmes.  
Er kunnen verschillende dingen fout gaan. Zo kan het zijn dat jij zelf een fout maakt bij een aanvraag, door per ongeluk de verkeerde gegevens aan te leveren. Of de overheid heeft nog oude informatie over jou, omdat je net verhuisd bent. Dan gaat er verkeerde informatie het algoritme in.   
Ook kunnen algoritmes discrimineren. In de voorspellingen van een algoritme kunnen vooroordelen zitten. Zoals ‘alleenstaande moeders frauderen vaker met een bijstandsuitkering'.  
Voordat er algoritmes waren kwam discriminatie ook voor, maar een belangrijk verschil is dat een algoritmes een fout automatisch op veel burgers tegelijk toepast. Ze systematiseren fouten. Hierdoor is het effect veel groter dan bij een enkele verkeerde beslissing van een ambtenaar.   
Daarnaast kunnen algoritmes een probleem geven voor de rechtsbescherming. Je moet je recht kunnen halen als je onrecht wordt aangedaan. Je kunt bezwaar maken tegen een besluit, en je mag in beroep bij de rechter. Maar als je niet weet dat een besluit deels door een algoritme is bepaald, kun je je niet tegen dat onderdeel verweren.   
Daar komt bij dat het zonder technische kennis soms niet helder is hoe het algoritme voor jou uitpakte, zeker niet bij de meer ingewikkelde algoritmes.  
Maar hoe weet je nou wanneer er een algoritme is gebruikt voor een beslissing? Dat weet je nu vaak niet!  En juist daarom vinden wij dat de overheid bij elk besluit moet vertellen of er een algoritme is gebruikt en hoe het werkt.  In een besluitbrief zou in begrijpelijke taal moeten staan hoe het algoritme voor jou heeft uitgepakt. Algemene informatie over algoritmes kan de overheid in het centrale algoritmeregister bijhouden.  
Heb je een besluit gehad waarvoor de overheid algoritmes heeft gebruikt, maar begrijp je niet hoe? Of heb je een duidelijke aanwijzing dat de overheid een algoritme heeft gebruikt zonder dit te melden? Dan heb je recht op uitleg!   
Ga in bezwaar en geef hierbij aan dat de uitleg onvoldoende is. In de besluitbrief  staat, als het goed is, altijd onderaan een zin ‘ben je het niet eens met dit besluit...’. Daarna volgt een uitleg wat je moet doen . 
Iedereen kan bij ons terecht met vragen en meldingen over hoe algoritmes van de overheid impact kunnen hebben op zijn of haar rechten. In bepaalde specifieke gevallen kunnen wij  kijken of er sprake is van discriminatie. 
Kortom, algoritmes kunnen voordelen opleveren voor de overheid en de samenleving. . Maar we moeten wel kritisch naar ze blijven kijken. En als de overheid beslissingen over jouw neemt – met of zonder algoritme - dan heb je gewoon recht op uitleg. Zo kun jij opkomen voor je rechten.” 

Eén van de belangrijkste aandachtspunten hierbij is dat de burger altijd moet kunnen weten hoe de overheid een besluit over hem, haar of hen heeft genomen. Sommige besluiten hebben grote impact op iemands leven. Dan wil je weten hoe de overheid tot zo'n besluit is gekomen. Ambtenaren moeten daarom altijd kunnen uitleggen hoe zij een besluit hebben genomen. En of algoritmes daarin een rol speelden en zo ja, hoe dan? 

Algoritmeregister

Eén van de manieren om open te zijn hierover is het aanleggen van een algoritmeregister. De vier grote steden zijn hier al volop mee bezig: Amsterdam, Rotterdam, Den Haag en Utrecht. Maar het zijn allemaal nog projecten in ontwikkeling: want moeten echt alle algoritmes erin? Of alleen de algoritmes die mogelijk een groot risico vormen voor mensenrechten? En welke informatie moet er dan in zo'n register komen? Hoe maken gemeenten het begrijpelijk voor de inwoners? Welke informatie hebben mensen nodig om een besluit aan te kunnen vechten? 

Het is belangrijk dat de overheid werkt met schone, representatieve data. Dat betekent dat er geen vooroordelen in zitten. En dat ze terughoudend zijn met het delen van data. In de Eerste Kamer ligt nu een wet voor (de wet gegevensverwerking door samenwerkingsverbanden, de WGS) die het mogelijk maakt om vooral informatie over mensen in kwetsbare situaties op grote schaal te gaan delen, niet alleen met overheidsorganisaties maar ook met bedrijven.  

Voor mensen is het moeilijk te achterhalen dat ze ergens op een lijst staan en wie er wat van hen weet. Daarbij kan het ze ook ontbreken aan tijd of kennis om dit soort dingen uit te zoeken en juridische expertise in te winnen als ze denken dat er iets gebeurt met hun data wat niet klopt. Daarom heeft het College advies uitgebracht over dit wetsvoorstel en gewezen op de risico's.