Ga direct naar inhoud

AI Literacy – Begrijp AI, voorkom risico’s

Capgemini
Mar 18, 2025

De trein van de EU AI Act is op 2 februari 2025 het eerste perron gepasseerd: de inwerkingtreding van Artikel 4 en Artikel 5 is een feit. Artikel 4 legt de focus op AI Literacy (AI-geletterdheid) en verplicht organisaties om maatregelen te nemen die ervoor zorgen dat iedereen die betrokken is bij de werking en het gebruik van AI-systemen, beschikt over voldoende kennis en vaardigheden. Dit geldt niet alleen voor werknemers binnen een organisatie, maar ook voor externe betrokkenen zoals partners en gebruikers van AI-systemen.

AI biedt enorme kansen, maar zonder de juiste kennis en vaardigheden kunnen de risico’s groot zijn. Denk hierbij aan uitdagingen zoals incorrecte voorspellingen, bias en het ontbreken van transparantie. In dit blog bespreken we wat Artikel 4 inhoudt, waarom AI Literacy essentieel is en hoe organisaties hieraan kunnen voldoen. Meer informatie over Artikel 5 over verboden AI-systemen kunt u vinden in dit blog.

Artikel 4: De basis voor veilig en ethisch AI-gebruik

Sinds 2 februari verplicht Artikel 4 van de EU AI-verordening organisaties om maatregelen te nemen die een voldoende niveau van AI Literacy waarborgen. Deze verplichting geldt niet alleen voor interne medewerkers, maar kan ook van toepassing zijn op andere betrokkenen die zich bezighouden met het gebruik en beheer van AI-systemen, zoals externe partijen en ingehuurde krachten. Hoewel deze groepen niet letterlijk worden genoemd in de wetgeving, kan op basis van Artikel 4(1) en Recital 20 van de EU AI Act worden geïnterpreteerd dat organisaties verantwoordelijkheid dragen voor iedereen die namens hen met AI-systemen werkt of deze gebruikt.

De EU AI Act definieert AI Literacy als “vaardigheden, kennis en begrip die aanbieders, gebruiksverantwoordelijken en betrokken personen, rekening houdend met hun respectieve rechten en plichten in het kader van deze verordening, in staat stellen geïnformeerd AI-systemen in te zetten en zich bewuster te worden van de kansen en risico’s van AI en de mogelijke schade die zij kan veroorzaken”. 

In de praktijk betekent dit dat AI Literacy organisaties en betrokkenen moet uitrusten met de volgende kennis en vaardigheden:

  1. Inzicht in de werking van AI-systemen en hoe beslissingen worden genomen: Dit omvat het begrijpen van de technische elementen en de data die worden gebruikt tijdens de ontwikkeling en toepassing van AI-systemen.
  2. Bewustzijn van risico’s en mogelijke schade: Denk hierbij aan risico’s zoals bias, incorrecte voorspellingen en de impact die deze kunnen hebben op fundamentele rechten en veiligheid.
  3. Kennis over de impact van AI-beslissingen op getroffen personen (“affected persons”): Personen moeten kunnen begrijpen hoe beslissingen, genomen met hulp van AI, hen beïnvloeden en welke rechten zij hebben.

Deze verplichtingen variëren afhankelijk van de rol van de betrokkenen en de context waarin het AI-systeem wordt gebruikt. De EU AI Act beschrijft ook dat AI Literacy breder moet worden beschouwd dan enkel de vaardigheden van interne medewerkers.

Risico’s en kansen: Het nut van AI Literacy

De EU AI Act stelt duidelijke verplichtingen aan publieke en private organisaties. Organisaties moeten ervoor zorgen dat medewerkers en andere betrokkenen die met AI-systemen werken, voldoende kennis en vaardigheden hebben. EU AI Act benadrukt het belang van bewustwording en training om AI-systemen veilig, transparant en ethisch te gebruiken. Dit gaat verder dan alleen het verzorgen van trainingen; organisaties moeten ook zorgen voor het monitoren en documenteren van naleving. Hoewel er geen directe boetes zijn voor het niet waarborgen van AI Literacy, kan een gebrek hieraan wel gevolgen hebben bij de beoordeling van andere overtredingen door toezichthouders. Organisatorische maatregelen en de mate van verantwoordelijkheid wegen hierbij mee.

Daarnaast kan non-compliance leiden tot reputatieschade en verlies van vertrouwen bij zowel medewerkers als klanten. AI-systemen die slecht worden beheerd of ondoordacht worden ingezet, vergroten het risico op schadelijke neveneffecten, zoals regelmatig in het nieuws te lezen is. Het vermijden van deze valkuilen vereist een gestructureerde aanpak die AI Literacy integreert in uw organisatie.

Maak AI Literacy prioriteit

AI Literacy is niet alleen een wettelijke verplichting; het is ook een strategische investering in de toekomst van uw organisatie. Door bewustwording en training te combineren met duidelijke beleidslijnen en documentatie, bouwt u niet alleen aan compliance, maar benut u ook kansen om innovatie te stimuleren en vertrouwen te versterken.

Bij Capgemini Invent bieden we uitgebreide ondersteuning om aan de eisen van de EU AI Act te voldoen. We begrijpen dat AI Literacy contextafhankelijk is en passen onze oplossingen aan op de specifieke behoeften van uw organisatie. Onze jarenlange ervaring met data literacy in diverse sectoren vormt daarbij een stevig fundament. Via de Capgemini Academy bieden we op maat gemaakte trainingen aan om kennis en vaardigheden op het gebied van AI en datageletterdheid te vergroten.

Met ons AI Act Readiness Assessment en Control Framework helpen wij uw organisatie niet alleen bij het ontwikkelen van trainingen, maar ook bij het opstellen en documenteren van beleid en processen om naleving aan te tonen. Ons team van experts staat klaar om uw vragen te beantwoorden en u te begeleiden bij het opzetten van een solide governance-structuur voor AI Literacy. Hiermee zorgen we niet alleen voor compliance, maar ook voor een duurzame en verantwoorde implementatie van AI binnen uw organisatie.

Dit perron is slechts een tussenstop in de reis naar verantwoorde en betrouwbare AI. In onze volgende blogs gaan we dieper in op andere belangrijke artikelen, zoals Artikel 5 over verboden AI-systemen. Blijf onze publicaties volgen om op de hoogte te blijven van de laatste ontwikkelingen rondom de AI Act. Heeft u vragen of behoefte aan ondersteuning? Neem gerust contact met ons op voor een vrijblijvend adviesgesprek.

Auteur

Nick Verschut

Co-author
Nick Verschut is a data expert with a background in marketing analytics and data science. As a co-author of this AI Act blog, he brings a strong analytical perspective to AI literacy, focusing on making complex AI regulations accessible and understandable for a broad audience.

Maurits Hulsman

Consultant Data Strategy & Factory
Maurits works as a Consultant at Capgemini Invent in the Data Strategy & Factory team. Maurits advises clients on developing and implementing various aspects of data transformation, with a strong focus on data strategy.
Jochem Dogger staat op de foto. Hij draagt een donkerblauw pak en kijkt recht in de camera met zijn armen over elkaar heen.

Jochem Dogger

Managing Consultant, Data Science & Data Strategy
Jochem Dogger is Manager bij Capgemini Invent en gespecialiseerd in data ethiek, open data en de digitale transformatie. Hiervoor voert hij projecten uit voor zowel Nederlandse als Europese overheidsinstanties. Hij is gecertificeerd als Data Ethics Professional door het Open Data Institute.

Robert Kreuger

Senior Manager, Data Ethics & Regulations
Robert is Senior Manager en Team lead Data Ethics & Regulations bij Capgemini Invent. Hij is gespecialiseerd in transformatieprogramma’s en strategisch risicomanagement op het gebied van privacy, datagerelateerde wet- en regelgeving, en digitale beveiliging, in zowel de publieke als private sector.