De inzet van AI kan zorgen voor versnelling en grote efficiëntievoordelen. Dat geldt vooral voor organisaties en bedrijven met gestandaardiseerde (werk)processen. De publieke sector lijkt bij uitstek geschikt om van AI te profiteren. Veel publieke organisaties (64%) experimenteren dan ook al volop. Dat is interessant, maar hoe gaat de publieke sector die experimenten in 2026 praktisch, snel én ethisch opschalen?

AI: geen doel maar een middel

Waarom wil je met AI werken en wat moet het oplossen voor je organisatie? Dat zijn basisvragen bij de start van iedere AI-strategie. Uiteindelijk moet AI het waarom van een publieke organisatie ondersteunen en de (maatschappelijke) doelen die moeten worden bereikt. Hoe kan AI de publieke sector hierbij het beste helpen? Want AI is een middel, geen doel op zichzelf.

Een impactvolle AI-strategie opstellen, begint bij de basis. Wil je AI in de praktijk nuttig en veilig inzetten? Dan moeten deze drie basislagen op orde zijn. Dat sluit aan bij de koers van de overheid, zoals vastgelegd in de Nederlandse Digitaliseringsstrategie (NDS). Daarin benadrukt ze dat digitale innovatie alleen slaagt, wanneer data, infrastructuur en digitale weerbaarheid en overkoepelende regie op orde zijn.

Laag 1: AI essentials – de technische basis en het datafundament

Data is zuurstof voor AI; essentieel dus. Is er onvoldoende, kwalitatief slechte en/of ontoegankelijke data? Dan kan AI onmogelijk betrouwbare resultaten opleveren. Andere basisvoorwaarden zijn een schaalbare infrastructuur, geavanceerde taalmodellen en software met ingebouwde AI-mogelijkheden. Anders kan AI geen transformatieve waarde leveren. 77% van de organisaties in de publieke sector zegt dat het ze op dit moment ontbreekt aan een moderne, schaalbare infrastructuur[1].

Dan is er werk aan de winkel. Want een succesvolle AI-strategie combineert 1) Intelligence‑as‑a‑Service (een schaalbare, slimme infrastructuur) en 2) de ruwe data van de organisatie als basis voor nieuwe inzichten en een slimmere ‘werkkracht’.

Het gaat overigens niet alleen over de datakwaliteit en -beschikbaarheid, maar ook over vragen als: is de data wel betrouwbaar waarmee AI gaat werken? Waar komt die data vandaan, op basis van welke technologie? Waar draaien deze datasystemen? Kortom, (ook) de soevereiniteit van data moet op orde zijn. Nederland focust (samen met de EU) op de eigen strategische autonomie, ook in de digitale wereld. Dat betekent niet dat we alles zelf gaan doen, maar wel dat we onze kritieke processen en gegevens beter onder controle moeten krijgen. Zeker in de huidige geopolitieke context is het dus cruciaal voor bestuurders om te kunnen afwegen welke afhankelijkheden (bijvoorbeeld: data op servers in Amerika) en welke risico’s (bijvoorbeeld: data 100% vrij van vooroordelen) acceptabel zijn, en welke niet.

Laag 2: AI readiness – AI verantwoord en effectief inzetten

Vervolgens moet een organisatie worden voorbereid op het verantwoord en effectief gebruiken van AI. Dat vereist kaders. In deze laag wordt AI daarom gekoppeld aan de missie, visie en strategie van de organisatie en aan interne rollen, regels, kennis, documenten en processen. AI wordt getraind op de context van de organisatie. Daarmee kan AI binnen een specifiek kader opereren, wat bijdraagt aan een veilig gebruik en afgebakende inzet.

In deze laag horen ook beveiliging, ethische kaders en checks and balances thuis: afspraken over wie AI mag inzetten, waarvoor en onder welke voorwaarden. De mens (bestuurders, beleidsmakers) bepaalt deze kaders, de mate van autonomie en de risico’s die men, ook internationaal, bereid is te accepteren.

Laag 3: Human-AI chemistry – samenwerking mens en AI

Hoewel daar angst voor bestaat, zal AI de mens niet vervangen. AI vergroot wél de impact van mensen die slim met de technologie weten om te gaan. De kwaliteit van de samenwerking tussen mens en AI wordt bepaald door drie kernelementen: 1) duidelijk gedefinieerde rollen en verantwoordelijkheden, 2) goed ontworpen interacties, en 3) sterke afstemming op juridische en ethische normen om betrouwbaarheid op te bouwen.

Human-AI chemistry krijgt pas écht vorm wanneer mensen over de juiste vaardigheden beschikken om AI in hun dagelijks werk te adopteren. Daarom moeten mensen niet alleen toegerust zijn met richtlijnen maar ook met de juiste kennis. Denk aan veilig datagebruik, het kunnen voldoen aan de EU AI act en toegang hebben tot data en AI-tools voor onder meer datagedreven besluitvorming. Uit onderzoek[2] blijkt dat in 2028 38% van de organisaties AI-agents als teamleden binnen menselijke teams denken te hebben. Gemengde teams, waar mensen en AI-agenten samenwerken, zullen de norm worden.

Het belang van data readiness

Deze drie basislagen zorgen dat een organisatie zinvol aan de slag kan met AI. Want een organisatie kan nog zulke slimme technische oplossingen bouwen; als het fundament niet klopt en mensen er niet (goed) mee kunnen werken, dan zal AI geen enkele meerwaarde opleveren. De ambitie is er: 90%[3] van de publieke sector is in de komende 2-3 jaar van plan om agentic AI ​​te onderzoeken, te testen of te implementeren. Op dit moment beschikt slechts 21% over voldoende kwalitatieve data waarmee AI-agents aan de slag kunnen. Dan is er sprake van intelligence, maar niet van intelligence made real. En dat is de basis voor zinvolle AI-toepassingen.

Van experiment naar opschaling: ethisch en verantwoord

Voor publieke organisaties is ethisch verantwoord opschalen niet onderhandelbaar. Terecht, want het gaat niet alleen om wat er technisch kan, maar vooral om de afweging waar AI echt waarde toevoegt, welke risico’s daarbij komen kijken en waar menselijke controle nodig is. We geven twee praktijkvoorbeelden.

Ethisch opschalen in Amsterdam: Chat with History

Capgemini ontwikkelde met Microsoft een AI-toepassing voor het Stadsarchief Amsterdam[4]. Via een interactieve AI-chatbot gaan gebruikers in gesprek met de geschiedenis van de stad. Chat with History laat zien hoe succesvol én verantwoord op te schalen van proof-of-concept naar een ethisch AI-product.

Chat with History werkt namelijk binnen het Retrieval Augmented Generation-framework (RAG). Dit is gekoppeld aan het Nationaal Archief. Dat zorgt voor afgebakende kaders waarbinnen de AI-toepassing mag opereren:

  1. Directe verbinding aan de bron: iedere vraag aan de chatbot wordt gekoppeld aan een selectie archiefdocumenten. Die selectie wordt gemaakt op basis van tekstuele overeenkomst: alle archiefstukken zijn vooraf gedigitaliseerd en opgedeeld in fragmenten. RAG vergelijkt vragen van gebruikers met de fragmenten in het archief. De meest overeenkomende fragmenten komen in de selectie terecht.
  2. Geen informatie zelf verzinnen: de chatbot mag alleen antwoord geven op basis van die selectie van documenten.
  3. Nauwkeurigheid boven volledigheid: staat een (deel van het) antwoord niet in de documentatie van het archief? Dan moet de chatbot dat aangeven en niet zelf verzinnen.

AI heeft dus géén vrije toegang tot andere informatie of bronnen van buiten het archief, en mag zelf geen informatie ‘bedenken’. De maatschappelijke en ethische risico’s zijn daardoor klein, de publieke waarde groot.  

AI laten beslissen over leven of dood? De 112-meldkamer

Ethisch verantwoord opschalen betekent in sommige gevallen het verschil tussen leven of dood. In een 112-meldkamer zou AI technisch kunnen bepalen welke meldingen legitiem zijn en welke niet. Daarmee zou je de aanzienlijke hoeveelheid broekzak- of valse telefoontjes kunnen afvangen. Maar dat is ethisch onacceptabel. Iedere melding kan immers levensbedreigend zijn. Bovendien mag AI volgens wet- en regelgeving in een high risk environment niet leidend zijn. De AI Act[5] stelt dat er altijd menselijke controle aanwezig moet zijn, zowel vooraf als achteraf. Wat wél kan: AI achteraf inzetten om repetitief, arbeidsintensief werk te ondersteunen, zoals het screenen van verkeerde telefoontjes op strafbaarheid. Ook kan AI ondersteunen bij het opstellen van proces-verbalen, waarbij een mens altijd het laatste oordeel velt.

Hoe halen bestuurders het meest uit kunstmatige intelligentie?

Kunstmatige intelligentie op zichzelf is niet ‘slim’. Het wordt pas intelligent door het in de praktijk slim te gebruiken: Intelligence made real noemen we dat. Intelligente inzet van AI vraagt van bestuurders om gericht leiderschap. Welke publieke opgaven willen we oplossen? Is AI daarbij een verstandige versneller? Dat betekent: keuzes maken, prioriteren en expliciet bepalen waar AI wel waarde toevoegt en waar niet. Om die keuzes te kunnen maken, moeten bestuurders heldere kaders bepalen. Kaders voor datakwaliteit, technische capaciteit, soevereiniteit, privacy en veiligheid.  Als alle randvoorwaarden kloppen, wordt AI een hefboom voor publieke waarde. Dan ontstaan er efficiëntere processen en wordt schaarse capaciteit verstandiger ingezet. En dat leidt uiteindelijk tot een betere dienstverlening aan onze burgers.

Intelligence made real draait om het samenspel tussen mens en technologie. De mens bepaalt de spelregels waarbinnen AI opereert, technologie ondersteunt, versnelt en versterkt. Meer lezen over publieke organisatie die hun AI-ambities in lijn brengen met hun executiekracht? Lees: https://www.capgemini.com/insights/research-library/data-mastery-in-government


[1] Data foundations for government: From AI ambition to action, a report from the Capgemini Research Institute, 2025

[2] Rise of agentic AI: How trust is the key to human-AI collaboration, a report from the Capgemini Research Institute, 2025

[3] Data foundations for government: From AI ambition to action, a report from the Capgemini Research Institute, 2025 https://www.capgemini.com/insights/research-library/data-mastery-in-government/

[4] https://www.capgemini.com/nl-nl/nieuws/client-stories/amsterdam-brengt-750-jaar-aan-geschiedenis-tot-leven-met-ai/

[5] Artificial Intelligence Act (Regulation (EU) 2024/1689), article 14, Official Journal version of 13 June 2024’