Ga direct naar inhoud
Cybersecurity

GenAI: De sleutel tot een toekomstbestendige cyberverdediging

Hoe zet u AI en GenAI optimaal in bij de versterking van uw cyberverdediging?

Dreigingsactoren maken steeds vaker en steeds effectiever gebruik van AI en GenAI. Om die dreigingen te weerstaan, en uw assets en operaties te verdedigen, moeten organisaties dezelfde technologieën inzetten. Hoe u dat doet leest u in dit hoofdstuk, waarin we op basis van onze enquête, interviews en ervaring een aantal aanbevelingen doen.

Ontwikkel een AI/Gen AI-beveiligingsstrategie

Routekaart en use cases In het tijdperk van GenAI moeten organisaties beschikken over een robuuste beveiligingsstrategie. Alleen dan kunnen ze hun assets en de integriteit van hun data beschermen. Zo’n strategie moet in elk geval de volgende aspecten omvatten:

Formuleer een duidelijke strategie om AI en GenAI te integreren in bestaande beveiligingssystemen. Adopteer een gefaseerde aanpak om uw huidige systemen voor te bereiden op complexe risico’s en bedreigingen gerelateerd aan AI-technologieën. AI en GenAI hebben hun eigen toepassingen. AI kan bijvoorbeeld helpen bij dreigings- of anomaliedetectie, reacties automatiseren op veelvoorkomende incidenten en grote datasets analyseren; GenAI kan helpen bij het creëren van realistische phishing-simulaties en het ontwikkelen van geavanceerde testscenario’s.

Ga na of de behaalde efficiëntiewinst of risicomitigatie opweegt tegen de benodigde investeringen in GenAI-tools. Hierbij is het van belang dat u een duidelijke strategie formuleert om het een en ander te kunnen meten. Naast de initiële investering moet u ook de doorlopende operationele kosten evalueren, om te kunnen bepalen of de opbrengst op de lange termijn deze kosten rechtvaardigt. Investeren in een tool louter en alleen omdat de tool is gebaseerd op GenAI, zonder naar de totale kosten te kijken, kan op de lange termijn onvoordelig uitpakken.

Richt u op fundamentele elementen (zoals gegevens) en schaal geleidelijk op. Use cases voor bijvoorbeeld oplossingen voor kwetsbaarheden of verbeteringen van incidentrespons, helpen u de prestaties van uw toekomstige beveiliging en de implicaties voor uw beveiliging te kunnen inschatten. Met een risico-referentiearchitectuur legt u standaarden en benchmarks neer voor de identificatie en mitigatie van risico’s. Daardoor borgt u een consistente aanpak voor het effectief beheren ervan. Julio C. Padilha van Volkswagen: “De benadering van AI en Generatieve AI moet gebaseerd zijn op een risico-gebaseerd kader, waarin alle potentiële risico’s zijn geïdentificeerd en gerubriceerd die verband houden met de technologie of het implementatieproject daarvan.”

Voer regelmatig beoordelingen uit van uw cybersecuritystrategie en AI-beleid om in te spelen op voortschrijdende bedreigingen en technologische vooruitgang. Samenwerking waarbij kennis, ervaring en middelen worden gebundeld, is cruciaal: tussen IT-teams, juridische experts, bedrijfsleiders en andere belanghebbenden binnen en buiten de organisatie. Luciano Valdomiro Dos Santos van een Braziliaanse retailbank hierover: “Cybersecurity-oefeningen die aanvallen simuleren en de organisatie weerbaar maken, tonen aan hoe belangrijk samenwerking is – tussen diverse interne afdelingen en sectoren, banken en andere private ondernemingen. Door samen te werken borgen we continuïteit, in het licht van een continu veranderend cyberdreigingslandschap.”

Om ernstige beveiligingsincidenten zoals datalekken, ransomware-aanvallen of verlies van gevoelige informatie effectief te beheren, moeten organisaties een wereldwijd incidentrespons- en beheerteam opzetten dat 24/7 beschikbaar is, met strikte protocollen voor respons en mitigatie. Het ISO/IEC 27035-1:2016-framework biedt bijvoorbeeld protocollen voor de analyse, beoordeling, reactie op en beheersing van cyberbeveiligingsdreigingen. Zo wordt naleving van internationale normen gewaarborgd.

  • Omschrijf acties om incidenten in te dammen en te mitigeren, zoals het isoleren van getroffen systemen, het afsluiten van gecompromitteerde accounts en het blokkeren van ongeautoriseerde toegang.
  • Gebruik GenAI om inzichten en aanbevelingen te bieden aan first responders. Bedenk daarbij wel dat GenAI relatief nieuw is. Het blijft van belang om mensen bij het besluitvormingsproces te betrekken. En alle acties moeten weloverwogen en passend ondernomen worden. Het volstaat om acties vanaf het begin automatisch te initiëren. 
  • Zorg voor een veilige chain of custody voor bewijsmateriaal en houd gedetailleerde verslagen bij van alle beveiligingsincidenten. Deze documentatie is essentieel voor toekomstige dreigingsanalyse, responsplanning en proactieve kwetsbaarheidsmitigatie.
  • Voer grondige post-incidentanalyses uit om hiaten in beveiligingscontroles en responsprocedures vast te stellen en de algehele cyberbeveiliging te verbeteren.

Alexandra Foster, voormalig Managing Director bij BT en nu onafhankelijk consultant, merkt op: “Investeer in data backup and recovery. Veel industrieën werken samen aan incidentrespons en preventie, maar dat alleen is niet genoeg. Het is essentieel om AI actief te gebruiken om het back-upproces te optimaliseren en dataverlies snel te herstellen.”

Het integreren van AI, met name GenAI, in incidentresponsplanning stelt organisaties in staat niet alleen snel te reageren op beveiligingsincidenten, maar ook toekomstige dreigingen te anticiperen en te mitigeren. Met GenAI kunt u een brede waaier aan cyberaanvalscenario’s simuleren. Zo stelt u incidentresponsteams in staat hun respons te verfijnen.

“De benadering van AI en Generatieve AI moet gebaseerd zijn op een risico-gebaseerd kader, waarin alle potentiële risico’s zijn geïdentificeerd en gerubriceerd die verband houden met de technologie of het implementatieproject daarvan.”

Julio C. Padilha Chief Information Security Officer bij Volkswagen en Audi, Zuid-Amerika

Beoordeel het beveiligingslandschap en de beveiligingsrisico’s steeds weer opnieuw

Dankzij een dergelijke, preventieve benadering kunt u op tijd nieuwe risico’s identificeren en adaptieve verdedigingsmechanismen inzetten.

  • Identificeer kritieke activa zoals gevoelige gegevens, IP en belangrijke infrastructuur, prioriteer middelen en pas maatregelen aan om inbreukrisico’s te verminderen en schade te minimaliseren. Gerichte bescherming zorgt ervoor dat kritieke operaties en informatie veilig blijven.
  • Het herbeoordelen van de beveiligingshouding bevordert verbeterde dreigingsdetectie en respons, helpt de systeemintegriteit te behouden en gevoelige informatie te beschermen.

Deze benadering ondersteunt ook de naleving van wettelijke vereisten en bevordert een proactieve beveiligingscultuur. Uit ons onderzoek blijkt dat 62% van de organisaties gelooft dat Gen AI hen in staat zal stellen proactief kwetsbaarheden te identificeren. GenAI kan bovendien helpen bij het interpreteren van complexe regelgeving en het opstellen van gedetailleerde rapporten die nodig zijn voor naleving daarvan.

62% van de organisaties gelooft dat GenAI hen in staat zal stellen proactief kwetsbaarheden te identificeren

De adoptie van AI en Gen AI vereist geavanceerdere communicatie-, gegevensbeheer- en cloud computing-infrastructuren, gespecialiseerde AI-processors en uitgebreide gegevensopslag. Er bestaat een zekere synergie tussen GenAI en de juiste, geavanceerde hardware; die synergie moet u doorgronden, om de juiste keuzes in hardware te kunnen maken. Organisaties kunnen de benodigde infrastructuurupgrades intern ontwikkelen of aanschaffen bij externe specialisten.
Geef prioriteit aan hardwarebeveiligingsupgrades. Hoogwaardige componenten zoals krachtige grafische verwerkingseenheden (GPU’s) en gespecialiseerde AI-versnellers verbeteren GenAI-modellen, waardoor snelle verwerking en analyse van grote hoeveelheden gegevens mogelijk wordt. Dit stelt AI in staat om snel onregelmatigheden en potentiële dreigingen in complexe netwerken te identificeren.
Hardwarebeveiligingsmodules (HSM’s) en Trusted Platform Modules (TPM’s) bieden robuuste encryptie en veilig sleutelbeheer. Organisaties moeten ook functies zoals hardware root of trust (RoT, een fundamentele softwarecomponent binnen uw systeem) en fingerprinting adopteren om verdedigingslagen te versterken[1].

“De convergentie van Gen AI en hardware-innovaties bevordert cyberbeveiliging met snellere, nauwkeurigere dreigingsdetectie, verbeterde gegevensbescherming in veilige computeromgevingen en meer robuuste gebruikersauthenticatie,”

bevestigt Mohit Sagar, Chief Executive Officer en Editor-in-Chief bij OpenGov Asia, een contentplatform dat de dialoog aanjaagt tussen CIO’s in de publieke sector en technologie-experts.

Naarmate AI verder uitbreidt in datacenters en aan de edge, zal de integratie van AI-gebaseerde beveiligingsmechanismen in datacenters en netwerkinfrastructuur van steeds groter belang worden. Snellere hardware en processors verbruiken echter ook meer energie en dragen bij aan de ecologische voetafdruk. In plaats van GPU-farms en HSM’s te kopen, moeten organisaties overwegen om de benodigde capaciteit vanuit de cloud uit te breiden. Door cloudresources te gebruiken, maakt u gebruik van een gedeelde infrastructuur. Dat leidt tot een meer duurzame situatie, met efficiënter gebruik van middelen en een verminderde ecologische voetafdruk.

Stel een framework, beleid en richtlijnen op

Een robuust, goed geïntegreerd en schaalbaar dataplatform zorgt voor gegevensveiligheid en integriteit; elementen die essentieel zijn voor het opbouwen van vertrouwen in AI-modellen. Verder hangt de effectiviteit van AI – en specifiek GenAI – in cyberbeveiliging af van de omvang en kwaliteit van de gegevens en de algoritmen die worden gebruikt om de cyberveiligheid te analyseren. Momenteel zijn noch het gegevensvolume en de kwaliteit, noch de algoritmen zelf voldoende geavanceerd voor een wijdverbreid gebruik van GenAI in cyberbeveiliging, afgezien van enkele gerichte toepassingen waar gegevens en algoritmen betrouwbaar zijn.
Om dit aan te pakken, moeten organisaties:

  • Gegevensbronnen, bestanden en ongestructureerde gegevens identificeren en classificeren, vooral vertrouwelijke gegevens (bijv. klantinformatie, zakelijke transacties, enz.).
  • Gegevensbronnen volgen en evalueren op nauwkeurigheid, volledigheid, consistentie, tijdigheid en betrouwbaarheid.
  • De frequentie en het doel van gegevensgebruik registreren om afhankelijkheden en potentiële knelpunten te identificeren en inbreuken te voorkomen.

Bovendien moeten dataplatforms naadloos kunnen opschalen naarmate organisaties hun personeelsbestand uitbreiden, complexe gegevensinfrastructuren opbouwen en grotere hoeveelheden gegevens beheren. Corence Klop, CISO bij Rabobank, bevestigt: “Ik zou prioriteit geven aan het organiseren van uw gegevens en ervoor zorgen dat u een gecentraliseerde repository heeft om vanuit te werken. Dit begint met het opzetten van een enkele, uitgebreide gegevensbron. Gebruik bestaande middelen in plaats van vanaf nul te beginnen, en voer experimenten uit om te zien wat voor u werkt.”

AI en Gen AI roepen belangrijke vragen op over gegevensbeheer, intellectueel eigendom (IP), bias-mitigatie en verantwoord gebruik van door AI gegenereerde inhoud. Het opzetten van een dedicated team of afdeling om AI-governance op organisatieniveau te overzien, is cruciaal.
Hélio Cordeiro Mariano van Cooperativa Central Ailos benadrukt het belang van dit governance-mechanisme: “We stellen een Innovatieteam samen om alle afdelingen effectief te betrekken. Onze focus gaat verder dan beveiligingsleiders en omvat hoe het bedrijf experimenten, tests en simulaties vormgeeft. We creëren een proces om impactvolle acties te prioriteren en hun waarde aan te tonen. Er zijn tal van marktalternatieven, maar ze zijn niet altijd afgestemd op onze specifieke behoeften. Onze aanpak houdt in dat we klein beginnen, testen op waardecreatie en veelbelovende initiatieven snel opschalen. Governance, planning en het afstemmen van verwachtingen zijn cruciale discussies, om ons bedrijf te laten profiteren van de integratie van AI.”
Hieronder geven we nog een aantal andere handvatten mee voor deze dedicated teams:

  • Formuleer en documenteer duidelijk beleid rond het gebruik, de opslag en de overdracht van gegevens in AI- en GenAI-systemen.
  • Stel beleid en richtlijnen op voor de ontwikkeling en implementatie van AI- en GenAI-tools om een ethisch verantwoorde uitvoering en effectieve governance te waarborgen.
  • Definieer duidelijke richtlijnen voor werknemers over het gebruik van AI- en GenAI-tools.

Benadruk het belang van de naleving van privacyregels en de gevolgen van misbruik. Dit stelt werknemers in staat om weloverwogen beslissingen te nemen en vermindert het organisatierisico. De CISO van een payment solutions-bedrijf in Brazilië merkt op: “Iedereen kan de LLM compromitteren. Dat is het voornaamste beveiligingsrisico waar we ons zorgen over maken. Ook privacy-inbreuken vormen een aanzienlijk probleem, want gevoelige informatie mag niet voor iedereen toegankelijk zijn. Zelfs binnen een gesloten omgeving moet de toegang tot alle bedrijfsinformatie beperkt zijn. Dit zijn enkele van de uitdagingen waarmee we momenteel worden geconfronteerd.”

  • Controleer en beperk gegevenstoegang tot de noodzakelijke belanghebbenden, door middel van role based toegangscontrole en technieken zoals blocking, hashing en het beperken van platformconnectiviteit met externe netwerken.
  • Faciliteer de regelmatige herbeoordeling van alle gebruikte modellen en hun gegenereerde outputs, om frameworks continu te kunnen verfijnen en aanpassen. De CTO van een internationaal kledingbedrijf merkt op: “Organisaties moeten ervoor zorgen dat hun modellen voldoen aan privacy-principes en wettelijke vereisten. Een ander belangrijk probleem zijn ethische overwegingen en bias. Biases in trainingsgegevens kunnen leiden tot discriminerende uitkomsten. Bovendien kunnen AI-modellen artefacten produceren die moeten worden doorgrond en beheerd. Daarom is het waarborgen van de kwaliteit en diversiteit van outputs met betrekking tot geslacht en andere factoren essentieel voor de praktische toepassing van generatieve AI.”
  • Wees transparant over uw privacybeleid. Leg op een laagdrempelige, toegankelijke manier uit aan uw klant wat de onderliggende logica is van uw AI-algoritmen en hoe de methodologie werkt die u toepast om bias te identificeren, te elimineren en te voorkomen. Overweeg gespecialiseerde rollen binnen het beveiligingsteam om deze inspanningen te overzien. “Bepaalde organisaties benoemen een Chief Trust Officer binnen hun beveiligingsfuncties. Dat is een goed voorbeeld van hoe traditionele rollen en verantwoordelijke rollen vervagen en convergeren, als gevolg van veranderende regelgeving. Overwegingen over cyberbeveiligings-frameworks raken steeds meer verweven met overwegingen over de kansen, risico’s en betrouwbaarheid van AI-betrouwbaarheid,” aldus Alexandra Foster, voormalig Managing Director bij BT.
  • CDO’s moeten nauw samenwerken met de CISO’s en CIO’s om de gegevensintegriteit en gegevenskwaliteit te waarborgen. Door rollen zoals deze aan te wijzen, kunnen organisaties hun technologie en data effectief benutten in de strijd tegen cyberaanvallen.
  • Beoordeel beleid van leveranciers met betrekking tot gegevensverwerking, opslag, verwijderingstermijnen en modeltraining. Zoek naar details over traceerbaarheid, loggeschiedenis, anonimiseren en andere essentiële functies.
  • Vraag feedback van verschillende belanghebbenden, waaronder technologie-experts, zakelijke professionals en gebruikers, om de potentiële impact en implicaties van AI-toepassingen te evalueren. Er is een duidelijke behoefte aan meer samenwerking tussen de overheid en de private sector in het beheer van complexe technologieplatforms.
  • Zorg voor compliance met de nieuwste regelgeving rond beveiligings- en meldingsvereisten, zoals de AI-wet van de Europese Unie, de Network and Information Systems (NIS)-richtlijn en de GDPR.

“Bepaalde organisaties benoemen een Chief Trust Officer binnen hun beveiligingsfuncties. Dat is een goed voorbeeld van hoe traditionele rollen en verantwoordelijke rollen vervagen en convergeren, als gevolg van veranderende regelgeving. Overwegingen over cyberbeveiligings-frameworks raken steeds meer verweven met overwegingen over de kansen, risico’s en betrouwbaarheid van AI-betrouwbaarheid,”

Alexandra Foster, voormalig Managing Director bij BT en nu onafhankelijk consultant

Om de ecologische voetafdruk van LLM’s te verminderen, moeten organisaties de training ervan beperken. Door vooral op ‘ruwe’ cyberbeveiligingslogs gerenommeerde en betrouwbare LLM’s in te zetten, kunt u false positives minimaliseren en onnodige meldingen verminderen, terwijl echte dreigingen wel duidelijk naar voren komen.  Ze bieden robuuste aanvalssimulaties en what-if-scenario’s, waarmee waarschuwingen en verdedigingen goed kunnen worden getoetst[1]. Voor een flexibele inzet van LLM’s, kunnen organisaties open-source modellen zoals Meta’s Llama gebruiken en afstemmen op hun specifieke behoeften.
In plaats van zich uitsluitend te richten op LLM’s, kunnen organisaties ook overwegen om kleine taalmodellen (SLM’s) te gebruiken die minder parameters hebben, minder gegevens en trainingstijd vereisen, gericht zijn op specifieke use cases en een kleinere ecologische voetafdruk hebben.
SLM’s hebben ook kleinere aanvalsvlakken, waardoor ze minder vatbaar zijn voor aanvallen[2]. De CISO van het Braziliaanse betalingsbedrijf merkt op: “Een van de belangrijkste uitdagingen die we tegenkomen met AI in beveiliging is het hoge percentage false positives en negatives. Dit maakt het moeilijk om AI in productie te vertrouwen. We moeten nauwkeurigheid waarborgen voordat we AI-oplossingen op grote schaal inzetten.”
In de toekomst zullen organisaties waarschijnlijk een combinatie van LLM’s en SLM’s gebruiken om aan hun cyberbeveiligingsbehoeften te voldoen. Daarom moeten ze zich ook richten op het ontwikkelen van een aangepaste Gen AI-implementatiepijplijn om deze modellen effectief te beheren.
Organisaties kunnen ook aangepaste GPT-modellen verkennen, die vergelijkbaar zijn met op maat gemaakte cybertools. Deze modellen leren de specifieke taal van de organisatie, passen zich aan de nuances aan, houden constant toezicht om anomalieën te detecteren en leren continu. Organisaties moeten dergelijke modellen trainen op relevante gegevens zoals logs, incidentrapporten en dreigingsinformatie. Ze moeten worden gesynchroniseerd met de bestaande technologie-stack, waardoor naadloze communicatie met firewalls, inbraakdetectiesystemen en andere beveiligingsprotocollen mogelijk wordt.
We willen hierbij opmerken dat ook deze aangepaste GPT’s kwetsbaarheden kunnen hebben. Om misbruik ervan te voorkomen zijn de nodige guardrails nodig; daarnaast moeten de omgevingen voor ontwikkeling en productie strikt van elkaar gescheiden blijven. Dit helpt u de risico’s te mitigeren. Daarbij moet u de prestaties en integriteit van het model nauwlettend monitoren en valideren. 
Bij het trainen van modellen moeten organisaties er rekening mee houden dat modellen die zijn getraind op gevoelige gegevens ook zélf als gevoelig moeten worden beschouwd. Om ongeautoriseerde toegang te voorkomen is het dan ook cruciaal om deze modellen te beveiligen met hetzelfde niveau van beveiliging en vertrouwelijkheid als de gegevens waarop ze zijn getraind. Om deze modellen en de model weights te beschermen tegen ongeautoriseerde toegang en diefstal, moeten organisaties:

  • Een beveiligingsplan opstellen om model weights te beperken tot een beperkt aantal systemen met beperkte en gecontroleerde toegang.
  • Zorgen dat interfaces voor toegang tot het model hardened zijn tegen pogingen tot gegevens-exfiltratie.
  • Vertrouwelijke computing-technieken integreren om model weights tijdens de verwerking te beveiligen en aanvalsvlakken te minimaliseren[4].

Verder kunnen organisaties de federated learning (FL) benadering volgen. Dat is een gedecentraliseerde ML-benadering, waarbij training plaatsvindt op meerdere apparaten en alleen modelupdates worden verzonden in plaats van ruwe gegevens. Deze methode verbetert de privacy door persoonlijke informatie op lokale apparaten te bewaren en modellen gezamenlijk te verbeteren zonder gevoelige gegevens te centraliseren. Op die manier ondersteunt deze benadering dreigingsdetectie, anomalie-identificatie, malwaredetectie en voorspellende analyse, zonder de vertrouwelijkheid van gegevens op te offeren.

Nu de softwarization van chips toeneemt, neemt het aanvalsoppervlak van organisaties toe. Dit uitgebreide aanvalsoppervlak kan leiden tot ernstige beveiligingsproblemen, zoals ongeautoriseerde toegang tot gevoelige gegevens, manipulatie van chipfuncties of zelfs volledige systeemcontrole door aanvallers. Daarom is het ook cruciaal om robuuste beveiligingsmaatregelen op chipniveau in te voeren.

Formuleer plannen voor integratie en monitoring

GenAI vernieuwt SecOps door de huidige SOC-mogelijkheden te verbeteren, helpt bij automatisering, gegevensinterpretatie en het suggereren van best practices. Naarmate dreigingen geavanceerder worden, moeten organisaties zich richten op AI-gedreven oplossingen voor verbeterde detectie en snellere respons.
Organisaties moeten investeren in AI-gebaseerde oplossingen die autonoom dreigingen kunnen identificeren en blokkeren. Door specifieke respons-playbooks te maken en workflows te optimaliseren, stelt AI beveiligingsteams ook in staat om efficiënt prioriteiten te stellen, problemen te detecteren en op te lossen.
Er zijn verschillende oplossingen op de markt om dreigingen zoals deepfakes te detecteren en vooringenomenheid in AI-systeemuitvoer te vermijden. Het opzetten van guardrails tegen veelvoorkomende aanvallen zal er ook aan bijdragen dat de AI-systemen niet ontsporen. Het is essentieel om silo’s af te breken, een cross-platform samenwerking te bevorderen en een samenhangende en uniforme beveiligingsstrategie te promoten. Door een dergelijke integrale aanpak is volledige monitoring en bescherming van alle facetten van de digitale infrastructuur van een organisatie mogelijk[5].
Prompt injection vormt een serieuze bedreiging, in combinatie met de autonome aard van AI-systemen.
Daarom is het van cruciaal belang om een extra beveiligingslaag te implementeren die continu potentieel kwaadaardige commando’s monitort en onderschept. Dit secundaire systeem moet worden ontworpen als schil rond het primaire AI-systeem, als een poortwachter die commando’s kan onderzoeken en filteren voordat ze de core AI-functies bereiken.
Bij dit alles kan het helpen om een zero-trust-attitude in te nemen – een attitude waarin elke invoer als potentieel gecompromitteerd wordt behandeld en onderzocht. Dit helpt u risico’s te mitigeren en de algehele beveiliging te verbeteren.

Organisaties moeten strategisch AI-agenten integreren in hun cyberbeveiligingsoperaties. Deze agenten zijn ontworpen om onafhankelijk te functioneren, plannen, reflecteren, hogere doelen na te streven en complexe workflows uit te voeren met minimale of beperkte directe menselijke supervisie[6]. In cybersecurity opereren dergelijke agenten autonoom en monitoren ze netwerkverkeer, detecteren anomalieën, reageren in real-time op bedreigingen en zoeken actief naar bedreigingen zonder menselijke tussenkomst. Bovendien simuleren AI-agenten aanvallen, identificeren kwetsbaarheden en ontwikkelen verdedigingsstrategieën. Dit iteratieve proces omvat een voortdurende samenwerking tussen deze agenten.
Naast ecosysteemsamenwerking moeten organisaties ook werknemers trainen om samen te werken met deze geavanceerde agenten. Naarmate het aantal aanvallen toeneemt, zijn AI-agenten die binnen bepaalde drempels opereren cruciaal voor de verdediging van de operaties van een organisatie. Ze vereisen echter wel waarborgen. Ons laatste onderzoek naar GenAI toont aan dat 57% van de onderzochte organisaties de noodzaak erkent voor robuuste controlemechanismen voordat AI-agenten in hun operaties kunnen worden geïntegreerd. 73% staat erop dat mensen AI-beslissingen moeten verifiëren en, indien nodig, moeten ingrijpen. Een zorgvuldige balans is vereist tussen het gebruik van dergelijke autonome agenten en het handhaven van toezicht op diezelfde agenten, vanwege de risico’s die ze met zich meebrengen.

Organisaties moeten continue monitoring en updates van AI- en GenAI-systemen handhaven om zich te verdedigen tegen evoluerende bedreigingen. Ze moeten:
Monitoren, meten, auditen en loggen van metrics om de verantwoorde, ethische en veilige inzet van AI-modellen te waarborgen. Het implementeren van scoringsmechanismen biedt real-time inzichten in het risiconiveau dat aan elke invoer en uitvoer is gekoppeld, waardoor gebruikers weloverwogen beslissingen kunnen nemen en robuust toezicht kunnen houden. Monitoring van model drift en de recalibration van de modellen zal ervoor zorgen dat de output blijvend betrouwbaar is.
Focus testing op AI-specifieke risico’s, waaronder jailbreaks, prompt injection en issues rond de samenhang, leesbaarheid en toxiciteit van de gegenereerde inhoud. Daarnaast moeten organisaties controleren op vooroordelen en red teaming-oefeningen uitvoeren om de security posture van het model te versterken.
Investeren in real-time gedragspatroonherkenning. Naarmate social engineering-aanvallen toenemen, moeten organisaties in staat zijn om gedrag te detecteren en te voorkomen dat dat gedrag afwijkt van de norm.
Investeren in bestaande oplossingen en tools om GenAI-handtekeningen en -patronen zoals deepfakes te detecteren, proactief potentiële aanvallen te voorkomen en bedreigingen effectief te mitigeren.

In ons onderzoek meldde 58% van de organisaties een tekort aan getalenteerde cybersecurity-professionals. Bovendien erkent 63% de moeilijkheid om GenAI in hun bestaande beveiligingsoplossingen te integreren; het ontbreekt simpelweg aan het benodigde talent. Daarom investeert meer dan de helft (51%) van de organisaties vandaag in uitgebreide AI-cybersecurity-trainingsprogramma’s.
Deze programma’s bevorderen een dieper begrip van AI-mogelijkheden, beperkingen en ethische overwegingen, waardoor verantwoord gebruik wordt gewaarborgd. Alexandra Foster, voormalig Managing Director bij BT, benadrukt het belang van diverse trainingsprogramma’s: “In veel organisaties ligt de nadruk sterk op basis-beveiligingsbewustzijn en training, vooral op gebieden zoals phishing. Ik geloof dat er ruimte is om de inspanningen uit te breiden met uitgebreide modules over social engineering en malware; denk aan simulaties en de inzet van gamification. Bovendien moeten deze initiatieven verder reiken dan alleen het cybersecurity-team, zodat in de hele organisatie een cultuur van veiligheid ontstaat waarin iedereen zijn rol in het handhaven van de veiligheid onderkent.”
58% van de organisaties meldt een tekort aan getalenteerde cyberveiligheid-professionals.
63% van de organisaties geeft toe dat een gebrek aan beschikbaar talent het moeilijk maakt om GenAI te integreren in bestaande beveiligingsoplossingen.
51% van de organisaties investeert op dit moment in uitgebreide trainingsprogramma’s rond AI in cyberbeveiliging.
Bewustwording en training leiden tot betere dreigingsdetectie, betere responsstrategieën en een betere algehele cybersecurity-posture. Frédéric Pégaz-Fiornet van Siemens Healthineers zegt: “We hebben hackers binnen ons bedrijf die continu onze systemen uittesten. We voeren interne tests uit en betrekken ook het lokale Computer Emergency Re

  • Gebruikersbewustzijn en educatie in AI-cybersecurity zorgen ervoor dat individuen potentiële bedreigingen herkennen en begrijpen hoe ze moeten reageren. Dit vermindert menselijke fouten, versterkt de algehele beveiliging en bevordert een cultuur van waakzaamheid. Dit verhoogt de effectiviteit van AI-gedreven verdedigingen.
  • Upskilling-programma’s in AI en GenAI voor cybersecurity overbruggen de kloof tussen cybersecurity en AI. Een CISO van een autobedrijf benadrukt het belang van Gen AI-training: “Voordat werknemers toegang krijgen tot GenAI, moeten ze een verplichte training voltooien. Zo leren ze hoe ze het platform verantwoordelijk kunnen gebruiken. En zo zorgen wij ervoor dat gevoelige informatie niet per ongeluk wordt gedeeld. Werknemers moeten weten welk type informatie geschikt is voor invoer in het systeem – en welke typen niet – voordat ze het platform gaan gebruiken.” Frederic Jesupret, Group Information Security Officer bij Allianz Partners, benadrukt verder het belang van het opleiden van werknemers over Gen AI: “Het is essentieel om controles in te stellen, zodat generatieve AI niet in een negatieve of foutieve loop terechtkomt. Het is al bewezen dat dit kan gebeuren. Dit benadrukt de noodzaak om mijn medewerkers te upskillen. Hoewel generatieve AI een groter aantal gebeurtenissen kan verwerken dan handmatig werk, blijft menselijk toezicht cruciaal. Dankzij menselijk toezicht kun je conclusies periodiek verifiëren en ervoor zorgen dat ethische overwegingen worden nageleefd.”
  • Bewustwordingsprogramma’s moeten zich niet alleen richten op eindgebruikers en beveiligingsteams, maar ook op datawetenschappers en ingenieurs. Zij spelen een cruciale rol in de beveiliging van de modellen die ze ontwikkelen en aanpassen. Het is ook belangrijk om de praktijken van alle relevante persona’s te evalueren, zoals GenAI-gebruikers, ontwikkelaars, datawetenschappers en cyber- en infrastructuurteams. Zo zorgt u ervoor dat ze in lijn zijn met beveiligingsbeleid en best practices.

Meer dan de helft van de organisaties (56%) in ons onderzoek gelooft dat de rollen en verantwoordelijkheden van cybersecurity-professionals in de komende 2-3 jaar aanzienlijk zullen veranderen – als gevolg van GenAI.

“We stellen een Innovatieteam samen om alle afdelingen effectief te betrekken. Onze focus gaat verder dan beveiligingsleiders en omvat hoe het bedrijf experimenten, tests en simulaties vormgeeft. We creëren een proces om impactvolle acties te prioriteren en hun waarde aan te tonen. Er zijn tal van marktalternatieven, maar ze zijn niet allemaal afgestemd op onze specifieke behoeften. Onze aanpak houdt in dat we klein beginnen, testen op waardecreatie en veelbelovende initiatieven snel opschalen.”

Hélio Cordeiro Mariano, Chief Information Officer bij Cooperative Central Ailos

Met de toename van social engineering-aanvallen is het essentieel dat organisaties beveiligingsbewustzijn in de organisatiecultuur verankeren. Werknemers moeten worden getraind om potentiële bedreigingen snel te kunnen herkennen en melden. Door een cultuur van risicobewustzijn te cultiveren, kunnen organisaties ervoor zorgen dat werknemers waakzaam en proactief blijven. Een verhoogd bewustzijn en kritische denkvaardigheden (zoals het analyseren van de context en het verifiëren van vertrouwde bronnen) van werknemers kan organisaties helpen bedreigingen tegen te gaan.
Bovendien benadrukken cyberaanvallen vaak de problemen in bedrijfsprocessen. Organisatiestructuren zijn opgebouwd rond individueel vertrouwen, waarbij instructies vaak via e-mail of workflow worden gegeven. Met het toenemende gebruik van digitale communicatie en het vermogen van dreigingsactoren om deze communicatie te onderscheppen, is het cruciaal om de authenticiteit van de interacties te verifiëren. AI kan dit doen door realtime risico-evaluaties in bedrijfsprocessen op te nemen. Bij het uitvoeren van risicovolle transacties – zoals het overmaken van geld – kan AI bijvoorbeeld de activiteit scoren, het risico beoordelen en zo weloverwogen beslissingen mogelijk maken. Het gebruik van AI om risicovolle transacties te evalueren zorgt voor grotere veiligheid en beschermt mensen, processen en assets. Uiteindelijk kan menselijk toezicht op autonome AI-systemen en een duidelijke afbakening van taken helpen om efficiëntie te waarborgen, met behoud van veiligheid. In de drie-eenheid van mensen, processen en technologie is het essentieel dat alledrie de elementen naadloos met elkaar integreren. Alleen zo ontstaat een veerkrachtige en robuuste verdediging.

“Het is essentieel om controles in te stellen, zodat generatieve AI niet in een negatieve of foutieve loop terechtkomt. Het is al bewezen dat dit kan gebeuren. Dit benadrukt de noodzaak om mijn medewerkers te upskillen. Hoewel generatieve AI een groter aantal gebeurtenissen kan verwerken dan handmatig werk, blijft menselijk toezicht cruciaal. Dankzij menselijk toezicht kun je conclusies periodiek verifiëren en ervoor zorgen dat ethische overwegingen worden nageleefd.”

Frederic Jesupret, Group Information Security Officer bij Allianz Partners.

[1] Opengovasia, “Exclusive! Generative AI unleashed: Bridging hardware and cybersecurity,” July 2024.

[2] Nvidia, “Building cyber language models to unlock new cybersecurity capabilities,” July 2024.

[3] Synergy-technical, “The significance of small language models for the future of AI & computing,” February 2024.

[4] Synergy-technical, “The significance of small language models for the future of AI & computing,” February 2024.

[5] Sumologic, “How AI will impact cybersecurity: The beginning of fifth-gen SIEM,” April 2024.

[6] Capgemini Research Institute, “Harnessing the value of generative AI 2nd edition: Top use cases across sectors,” July 2024.