Ga direct naar inhoud

AI en minderheidsgroeperingen: 6 richtlijnen om onbewuste vooroordelen in kunstmatige intelligentie te voorkomen

Reinoud Kaasschieter
2019-10-08

Regelmatig verschijnen berichten in de media hoe bij dataprojecten bepaalde groepen mensen onbewust worden gediscrimineerd. Algoritmes of kunstmatige Intelligentie zien met name minderheidsgroeperingen in de samenleving over het hoofd. Ze worden hierdoor uit- of buitengesloten, zodat ze geen eerlijke kans hebben op een baan, inkomen, opleiding enzovoorts. Dit leidt tot maatschappelijk ongewenste discriminatie. Hoe kun je ervoor zorgen dat ethiek tijdig wordt geadresseerd in dataprojecten en dat minderheidsgroepen niet over het hoofd worden gezien?

De oorzaak van deze vorm van discriminatie wordt gevonden in bias. Bias is Engels voor vooroordeel, vooroordelen die bewust of onbewust in de systemen zijn opgenomen. Meestal gebeurt dat niet door het opzettelijk programmeren van verkeerde of oneerlijke beslissingen. De belangrijkste oorzaak ligt bij het gebruik van verkeerde data. Kunstmatige intelligente systemen leren van grote hoeveelheden data. Het verzamelen van data is mensenwerk. En mensen hebben vooroordelen, bewust of onbewust. En wanneer deze data vooroordelen bevat, nemen de systemen deze vooroordelen over.

De meeste algoritmes die gebruikt worden bij kunstmatige intelligentie zijn neutraal. Ze bevatten geen waardeoordelen en kunnen ook geen waardeoordelen doen. Ze zijn dus uit zichzelf ongeschikt om vooroordelen in de data op te sporen.

We moeten een balans vinden tussen de gegevens die worden gebruikt voor de training van KI-modellen, zodat alle groepen op de juiste manier worden gerepresenteerd. Er zijn ook veel manieren om wiskundig te controleren op vertekening tegen een beschermde groep en om correcties aan te brengen

Capgemini beveelt in het rapport “Why addressing ethical questions in AI will benefit organizations” aan om er in ieder geval voor te zorgen dat de teams die dergelijke systemen maken, te trainen om deze vooroordelen op te sporen. Het helpt daarbij om op de diversiteit van de ontwikkelteams te letten. Zo kunnen teamleden elkaar scherp houden en expliciete en impliciete vooroordelen op te sporen. En kunnen datasets worden gemaakt die representatief zijn voor de groep waar de kunstmatige intelligentie voorspellingen over gaat doen. Want de afweging of een Artificieel intelligent systeem niet discriminatoir is, is onderdeel van alle ethische afwegingen die bij de ontwikkeling en gebruik van een systeem noodzakelijk is.

Ethische AI

Maar correcte AI is nog geen ethische AI. Kunstmatige intelligentie, die technisch in orde is, kan toch nog ethisch problematisch zijn. Bijvoorbeeld, autonome wapens kunnen perfect doen wat ervan verwacht wordt. Maar of we autonome wapens daardoor ook ethisch vinden, is een andere vraag.

“De belangrijkste vraag is niet of een algoritme goed werkt, maar of het überhaupt moet worden gebouwd en hoe het eenvoudige feit kan worden afgewogen dat bijna elke technologie kan worden gebruikt voor goed of kwaad.” – Kalev Leetaru

Ik wil graag analoog hieraan de vraag opwerpen of kunstmatige intelligentie die gebruikt maakt van representatieve data, toch oneerlijk kan zijn. En daarmee bepaalde groepen mensen uitsluit. Helaas is het antwoord: ja. Ook correct opgezette datasystemen, ook wel algoritmes genoemd, kunnen discrimineren. En het zijn vooral minderheden die daar last van ondervinden.

De overheid wil neutraal zijn en groepen mensen niet uitsluiten. Er wordt terecht beleid ontwikkeld om uitsluiting en discriminatie van minderheden te voorkomen. Maar hoe kan het dan toch gebeuren dat technisch correcte systemen toch nog vooroordelen bevatten?

Maatschappelijke bias

Data wordt verzameld in de echte wereld van vandaag. Kunstmatige intelligentie leert op basis van deze data. Maar de huidige wereld kent vooroordelen en discriminatie. De data de we verzamelen bevat die vooroordelen. Een systeem dat op basis van die data leert, zal dus ook bevooroordeeld worden.

Zeker bij de overheid is deze vorm van discriminatie onaanvaardbaar. We willen juist dat de systemen bij de overheid niet discrimineren. Dus wanneer we data hebben die “perfect” is, namelijk echt representatief voor de groep waarover we iets willen weten, zal deze systemen nog niet voldoen aan de maatschappelijk normen die we nastreven.

“Bij maatschappelijk bias heb je perfecte data en een perfect model maar een imperfecte wereld.” – Dr. Rumman Chowdhury

Te weinig data

Kunstmatige intelligentie werkt met grote hoeveelheden gegevens. Hoe meer gegevens, hoe beter de intelligentie wordt, is het mantra. Maar als van bepaalde groepen weinig gegevens beschikbaar zijn, heeft kunstmatige intelligentie de neiging deze groepen over het hoofd te zien. En van minderheidsgroepen is gewoon minder bekend. Het gevolg is dat de kunstmatige intelligentie over de groepen geen goede voorspellingen kan doen. En het vervelende is dat zonder tegenmaatregelen het systeem maar gaat “raden”. In plaats van te zeggen dat het systeem het niet weet, worden schijnbaar willekeurige antwoorden gegeven.

Zelfbevestiging

“Predictive policing” zijn systemen die voorspellen in welke buurten er veel criminaliteit zal zijn. Op basis van historische gegevens van politiepatrouilles worden de algoritmes gevoed. Op basis van de voorspellingen worden extra patrouilles gereden. Het probleem met dergelijke systemen is dat het zichzelf bevestigd. Door extra patrouilles te rijden, worden er ook meer criminele activiteiten gezien. Waardoor het systeem die wijken als nog crimineler ziet.

Kunstmatig intelligente systemen kunnen op deze manier gaan stigmatiseren. Dit gebeurt vooral wanneer we op basis van de voorspellingen van kunstmatige intelligentie beleid gaan opzetten en er maatregelen op gaan treffen. Omdat kunstmatige intelligentie alleen werkt op basis van de ‘harde” cijfers, kunnen de systemen niet nagaan waarom bepaalde verschijnselen optreden. En wat er verandert op basis van beleid en wat op basis van andere factoren.

“Als de gegevens waarmee u werkt een aantal inherente vooroordelen bevatten, leert het model deze vooroordelen niet alleen, maar worden ze uiteindelijk versterkt.” – Stas Sajin

Eerlijke kunstmatige intelligentie

Het maken van eerlijke kunstmatige intelligentie, die ook rekening houdt met minderheden, is vol met valkuilen. Deze valkuilen ontstaan niet alleen omdat de gegevens, data, waarmee we de systemen laten leren vooroordelen tegen deze minderheden bevat. Ook de techniek rondom kunstmatige intelligentie voorkomt oneerlijkheid niet vanuit zichzelf.

Erik Hartman geeft vijf richtlijnen voor iedereen die werkt met AI om AI beter toe te passen. Samen met de aanbevelingen, uit het rapport “Why addressing ethical questions in AI will benefit organizations”, kom ik tot de volgende lijst van zes richtlijnen die kunnen helpen bias en discriminatie te voorkomen:

  1. Wees altijd alert op vooroordelen.
  2. Zorg voor een inclusief en mogelijk interdisciplinair ontwikkelteam.
  3. Denk niet alleen na over wat er goed zal gaan, maar ook wat er fout kan gaan.
  4. Bepaal ook van tevoren hoe je omgaat met het opsporen en verbeteren van fouten. Ook fouten die ontstaan door bias.
  5. Bouw bij het gebruik van algoritmes altijd de mogelijkheid in dat mensen kunnen protesteren tegen de genomen beslissingen.
  6. Neem verantwoordelijkheid, ook als jouw bijdrage maar een deel is van het hele systeem.

Deze richtlijnen gelden natuurlijk ook voor de overheid. Wie bij de overheid kunstmatige intelligentie wil toepassen, moet ervoor zorgen dat de systemen voldoen aan de strenge eisen die de overheid aan zichzelf stelt. Dat is niet eenvoudig. Het ter harte nemen van bovengenoemde richtlijnen is een goed begin. Maar blijf gewoon zelf alert. Controleer en controleer nog eens of het Artificieel Intelligente systeem discrimineren gaat. Want zeker bij de overheid is dit een van de grotere risico’s op het verlies van vertrouwen in diezelfde overheid.