Iedere organisatie die iets met AI doet, is wettelijk verplicht om te zorgen voor ‘AI-geletterdheid’ binnen de eigen organisatie. Op 2 augustus is het alweer een half jaar geleden dat deze verplichting geldt. Maar wat betekent AI-geletterdheid dan? En hoe zorg je daarvoor? Organisaties moeten zich realiseren dat dit in de kern draait om grondrechten. AI-geletterdheid betekent dat degenen die met deze systemen werken een helder beeld hebben van wat de grondrechtenrisico’s zijn en hoe ze ermee om moeten gaan. Het College is de AI-grondrechtenautoriteit  (één van de toezichthouders voor de nieuwe AI-verordening) en speelt daarmee een cruciale rol bij het in kaart brengen en minimaliseren van deze grondrechtenrisico’s.

Beeld: Markus Spiske via Unsplash

De AI-verordening verplicht tot AI-geletterdheid

Op 2 februari 2025 is de AI-geletterdheidsverplichting van kracht gegaan. De AI-verordening is een omvangrijk stuk wetgeving dat stapsgewijs in werking treedt, waarbij AI-geletterdheid één van de eerste en breedst geldende verplichtingen is. De verordening heeft als doel dat AI-systemen alleen worden ingezet als deze grondrechten respecteren. Deze Europese wet stelt hiervoor eisen aan aanbieders van AI-systemen en de organisaties die deze willen gebruiken, afhankelijk van hoe groot de risico's van het systeem lijken te zijn. De verplichting voor organisaties om te zorgen voor ‘AI-geletterdheid’ uit artikel 4 van de AI-verordening, is extra belangrijk omdat zij geldt voor álle AI-systemen, ongeacht hun risiconiveau – van eenvoudige chatbots tot complexe risicoanalyse systemen. 

Samengevat betekent deze verplichting dat organisaties hun werknemers in staat moeten stellen om verantwoordelijk met AI-systemen om te gaan en zich bewust moeten zijn van de risico's die deze systemen met zich meebrengen. De meeste van deze risico’s gaan over hoe een AI-systeem de grondrechten van mensen kunnen raken. Denk bijvoorbeeld aan het beschermen van persoonsgegevens, de mogelijkheid dat een AI-systeem discrimineert en/of rechtsbescherming. In de rest van dit artikel geven we een eerste beeld van wat deze verantwoordelijkheid precies inhoudt voor organisaties. We leggen uit waarom AI-geletterdheid gekoppeld moet worden aan een dieper begrip van grondrechten en welke rol het College voor de Rechten van de Mens (College) hierin gaat spelen als grondrechtenautoriteit.

Wat is AI-geletterdheid in de AI-verordening?

De AI-verordening geeft een duidelijke definitie van AI-geletterdheid. In de kern betekent het dat je in staat bent verantwoordelijk om te gaan met een AI-systeem. Concreet gaat het om de “vaardigheden, kennis en [het] begrip” van mensen in de organisaties die AI produceren of gebruiken die hen “in staat stellen geïnformeerd AI-systemen in te zetten” en bewust te zijn van de kansen, risico’s en mogelijke schade die het AI-systeem met zich meebrengt. Het niveau van kennis dat nodig is, is afhankelijk van het type organisatie.

Verder schrijft artikel 4 van de AI-verordening voor dat aanbieders en gebruiksverantwoordelijken van AI-systemen moeten zorgen voor een “toereikend niveau” van AI-geletterdheid bij hun personeel. Wat een ‘toereikend’ niveau is, hangt volgens de wettekst expliciet af van “hun vaardigheden, kennis en ervaring” alsook van “de personen of groepen personen ten aanzien van wie de AI-systemen zullen worden gebruikt”.    

Ook de Europese Commissie benadrukt het belang van maatwerk en context-gevoeligheid. De Commissie  heeft bijvoorbeeld duidelijk uitgelegd dat het simpelweg lezen van een gebruikershandleiding onvoldoende is, maar dat organisaties echt op maat moeten nadenken over de specifieke risico's van hun AI-toepassingen.

AI-geletterdheid draait dus om het juiste niveau van bewustzijn over risico's, aangepast aan de specifieke context waarin een AI-systeem wordt ingezet én aangepast aan de mensen die met het AI-systeem werken of erdoor geraakt worden. Het vereist een doordachte, contextuele benadering waarbij organisaties de specifieke risico's van hun AI-gebruik in kaart brengen en hun werknemers daarop voorbereiden.  

AI-geletterdheid gaat over mensenrechten

Er kleven veel verschillende risico's aan AI-systemen. In de kern gaat de AI-verordening over de bescherming van “gezondheid, veiligheid en grondrechten”. Hoe AI-systemen grondrechten kunnen raken is hier de grootste risicocategorie. Deze grondrechtendimensie klinkt misschien abstract, maar is in de praktijk heel concreet en direct merkbaar voor mensen.

Neem bijvoorbeeld AI-gebruik in het onderwijs: een algoritme dat studenten beoordeelt of selecteert raakt direct aan het recht om niet gediscrimineerd te worden (heeft het algoritme geen vooroordelen tegen bepaalde groepen op basis van bijvoorbeeld sociaaleconomische status of etniciteit?), het recht op onderwijs (krijgt iedereen eerlijke toegang tot onderwijsmogelijkheden?), en het recht op privacy (hoe worden studentgegevens verwerkt en beschermd?)

Of denk aan gezichtsherkenningssystemen die gebruikt worden door de politie. Deze raken aan het recht op non-discriminatie (is het systeem even goed in het herkennen van zwarte vrouwen als witte mannen?), het recht op een eerlijk proces (kunnen besluiten wel worden gecontroleerd en aangevochten?), en het recht op privacy (kunnen mensen wel voldoende zorgeloos door de publieke ruimte lopen?).

Van de meeste typen AI-systemen is al veel bekend over de algemene risico’s die zij met zich meebrengen. Deze kunnen verder in kaart worden gebracht door goed te kijken naar hoe een specifiek AI-systeem werkt, waar het wordt ingezet, wie met het systeem werkt én wie er uiteindelijk door wordt geraakt. Neem bijvoorbeeld een verzekeringsmedewerker die werkt met een risicobeoordelingssysteem dat gebruikt wordt om frauduleuze zorgverzekeringsclaims op te sporen. AI-geletterdheid betekent dan onder andere dat deze medewerker een beeld heeft van wanneer er sprake kan zijn van discriminatie, of wanneer iemands recht op gezondheidszorg in het geding komt.

Voor organisaties betekent dit dat AI-geletterdheid verder gaat dan technische kennis alleen. Het vereist dat medewerkers in kaart kunnen brengen hoe hun specifieke AI-systemen concrete grondrechten kunnen raken, en dat deze kennis vervolgens structureel en organisatorisch wordt verankerd in werkprocessen. Het gaat dus echt om begrip van de concrete context waarin AI wordt ingezet en de specifieke grondrechtenrisico's die daarbij horen.

Hoe breng je de (grondrechten)risico’s van AI in kaart?

Deze contextafhankelijkheid van AI-geletterdheid betekent niet dat organisaties telkens het wiel opnieuw hoeven uit te vinden. De AI-verordening zelf biedt verschillende aanknopingspunten en instrumenten die kunnen helpen bij het vinden van grondrechtenrisico’s. Aanbieders van AI-systemen hebben onder artikel 9 van de AI-verordening al de verplichting om risicobeheersystemen op te zetten.

Voor organisaties die AI-systemen gebruiken zijn er instrumenten zoals de in Nederland ontwikkelde Impact Assessment Mensenrechten en Algoritmes (IAMA) die specifiek is opgesteld om grondrechtenrisico's van algoritmes systematisch in kaart te brengen. Daarnaast wordt op EU-niveau ook een model ‘Fundamental Rights Impact Assessment’ (FRIA) ontwikkeld voor de grondrechtenrisico’s in AI-systemen. 

Verschillende toezichthouders en overheidsinstanties – van de AP tot rijksoverheidsinstanties en EU-organisaties – geven verdere uitleg over hoe deze voortdurende processen ingericht moeten worden om ervoor te zorgen dat het niet een afvinkoefening wordt. De Autoriteit Persoonsgegevens (AP) heeft, bijvoorbeeld, een handreiking opgesteld die duidelijk aangeeft dat het zorgen voor AI-geletterdheid niet het aanbieden van eenmalige training is, maar het inrichten van een voortdurend proces van bewustwording en competentieontwikkeling. De AP legt hiermee de nadruk op ‘hoe’ je toereikende AI-geletterdheid ontwikkelt en onderhoudt, in plaats van rigide voorschriften over 'wat' toereikende geletterdheid precies inhoudt. Dit sluit goed aan bij de benadering van de Europese Commissie die, onder andere, een openbare onlinedatabase heeft opgezet met voorbeelden van hoe organisaties AI-geletterdheid organisatorisch en beleidsmatig hebben ingericht samen met een overzicht van beschikbaar  online leermateriaal.

Het College als grondrechtenautoriteit AI-toezicht

Het College voor de Rechten van de Mens is aangewezen als grondrechtenautoriteit voor AI-toezicht. Deze benoeming betekent dat het College een specifieke verantwoordelijkheid krijgt voor het bewaken van grondrechten die in het geding kunnen komen bij het gebruik van AI-systemen.

Als grondrechtenautoriteit zal het College samenwerken met andere (markt)toezichthouders zoals de AP en sectorale toezichthouders, om ervoor te zorgen dat AI-ontwikkeling en -gebruik in Nederland in lijn blijven met grondrechten. Concreet zal het College de komende tijd investeren in nieuw onderzoek naar grondrechtenrisico’s en brede publieksvoorlichting over AI en mensenrechten.