Ga direct naar inhoud

AI rapport: organisaties bewust van ethiek, maar handelen nog te terughoudend

30 sep. 2020

Ethisch bewustzijn bij het gebruik van kunstmatige intelligentie (AI) is in bedrijven en overheden toegenomen. Toch is het beeld hierover nog diffuus, aangezien er slechts op enkele gebieden verbeteringen zijn bereikt. Een van de redenen is dat slechts 53 procent van de onderzochte organisaties een manager heeft die verantwoordelijk is voor ethische en betrouwbare AI-systemen. Tegelijkertijd is 62 procent van de consumenten, tegen 76 procent vorig jaar, van mening dat bedrijven volledig transparant zijn over hoe persoonlijke informatie wordt gebruikt. Dit blijkt uit een nieuw rapport van het Capgemini Research Institute: “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust. Het rapport benadrukt verder dat een focus op ethische aspecten cruciaal is om het transformatiepotentieel van AI voor het milieu, de economie en de maatschappij te realiseren.

Organisaties zien in toenemende mate de noodzaak om actie te ondernemen met betrekking tot ethische AI-systemen: 45 procent heeft in 2020 een AI-handvest opgesteld (2019: 5 procent) en twee derde (65 procent) van de managers is zich ervan bewust dat AI-systemen mogelijk tot discriminerende beslissingen kunnen leiden. 58 procent geeft ook aan dat ze hun medewerkers hebben geïnformeerd over de mogelijke effecten van het gebruik van AI. Toch tonen AI-systemen in 2020 vooruitgang op de ethische dimensie van “verklaarbaarheid” ten opzichte van 2019. Op dit gebied denkt 40 procent van de AI-ontwikkelaars en 27 procent van de AI-gebruikers in marketing en sales te begrijpen hoe beslissingen door AI worden genomen. Aan de consumentenkant verwacht 71 procent echter dat bedrijven in staat zijn dergelijke beslissingen nauwkeurig te herleiden. Bovendien gaat 66 procent ervan uit dat AI-modellen eerlijk en zonder bias handelen en dat de interacties transparant zijn.

Voor het onderzoek heeft het Capgemini Research Institute in totaal 2.900 consumenten in zes landen en bijna 900 leidinggevenden in tien landen, waaronder Nederland, ondervraagd. De resultaten werden ook vergeleken met verschillende studies van vorig jaar.

COVID-19 heeft een negatief effect op transparantie AI-processen

De studie onderzocht AI-systemen op basis van vier ethische dimensies: ‘verklaarbaarheid’, ‘eerlijkheid’, ‘controleerbaarheid’ en ‘transparantie’. Het rapport concludeert dat in 2020 alleen de verklaarbaarheid is verbeterd: volgens het onderzoek kan 64 procent – twee keer zoveel organisaties als in 2019 – de werking van hun AI-systemen in eenvoudige taal verklaren. Een herziening van datasets en AI-systemen om een eerlijke en gelijke behandeling van alle groepen te garanderen, wordt uitgevoerd door 65 procent van de organisaties (2019: 66 procent). Het aantal bedrijven dat onafhankelijke audits van hun AI-systemen uitvoert is met één procentpunt gedaald tot 45 procent. Het aantal bedrijven dat transparante informatie verstrekt aan AI-gebruikers over de mogelijke effecten van AI-beslissingen is het sterkst gedaald, van 73 naar 59 procent. In Nederland is dit percentage overigens onveranderd gebleven: 71%. Wereldwijd is er sprake van een lager consumentenvertrouwen: 62 procent van de consumenten (2019: 76 procent) is ervan overtuigd dat bedrijven transparant opereren.

Volgens het rapport is dit indicatief voor de huidige omstandigheden die door COVID-19 zijn ontstaan, maar ook voor de maatschappelijke en ecologische behoeften, de toenemende complexiteit van AI-modellen en een verandering in het consumentengedrag, die allemaal de functionaliteiten van de bestaande AI-modellen hebben verstoord. Nieuwe factoren, waaronder een voorkeur voor veiligheid en een gebrek aan trainingsgegevens voor vergelijkbare situaties uit het verleden, hebben ertoe geleid dat organisaties hun systemen herontwerpen om ze aan te passen aan een nieuwe norm; dit heeft echter geleid tot minder transparantie.

Klantverwachtingen en regelgeving oefenen druk uit om te handelen

Veel publieke en private ondernemingen hebben aanvullende AI-technologieën ingevoerd om de gevolgen van de coronapandemie tegen te gaan. Daarom zal het vertrouwen van de consument in AI-interacties in de toekomst nog belangrijker worden. Tegelijkertijd verhogen wettelijke kaders de druk op bedrijven. Zo heeft de Europese Commissie ethische richtlijnen ontwikkeld [1] en heeft de Amerikaanse Trade Commission FTC begin 2020 richtlijnen opgesteld voor transparante AI [2]. Deze laatste richtlijn bepaalt, in geval van negatieve beslissingen – bijvoorbeeld een afgewezen krediet – dat de datapunten die centraal staan in het besluitvormingsproces moeten worden gedeeld met de consument. Dit moet hen de kans geven om onjuiste of misleidende informatie te corrigeren. Van de bedrijven geeft 62 procent aan dat ze voldoen aan de regelgeving voor gegevensbescherming zoals de GDPR die in hun regio geldt, een stijging van 13 procentpunten ten opzichte van 2019.

Het onderzoek toont aan dat datasets soms zelfs sociale en culturele vooroordelen bevatten[3], waarbij 65 procent van de managers zich bewust is van het probleem van discriminerende vooroordelen. Bij 60 procent van de ondernemingen is al een wettelijke controle uitgevoerd. In totaal is 22 procent van de bedrijven de afgelopen drie jaar door klanten geconfronteerd met het feit dat zij twijfelen aan op AI gebaseerde beslissingen of het besluitvormingsproces willen begrijpen. Aarzelend handelen vormt een risico, aangezien 45 procent van de klanten negatieve ervaringen deelt met vrienden en familie en hen aanmoedigt om geen contact op te nemen met de betreffende bedrijven. In elk geval zou 39 procent een verklaring eisen voor twijfelachtige beslissingen of hogere kosten accepteren om over te stappen op een menselijke contactpersoon. Meer dan een kwart van de consumenten (27 procent) zou het contact met de betreffende organisatie verbreken.

Verantwoordelijkheid beleggen in ethische kwesties

Volgens de studie moeten bedrijven een verantwoordelijke manager, zoals een Chief Ethics Officer, in het leven roepen om te zorgen voor ethisch verantwoorde AI-systemen. Momenteel is deze functie in 53 procent van de bedrijven aanwezig. Een ombudsman of hotline, waar klanten en medewerkers terecht kunnen met ethische vragen over AI-systemen, is ook slechts in één op de twee bedrijven beschikbaar. Daarnaast moeten bedrijfs- en technologie-executives er ook voor kunnen zorgen dat de AI-toepassingen die in hun gebied worden gebruikt, ethische resultaten opleveren.

Samenvattend benadrukt de studie zeven belangrijke maatregelen [4] die cruciaal zijn voor het bouwen van een ethisch robuust AI-systeem en die gebaseerd moeten zijn op een sterk fundament van leiderschap, governance en interne processen. Organisaties moeten daarom:

  • het beoogde doel van het AI-systeem nauwkeurig kunnen beschrijven en het potentiële totale effect kunnen bepalen;
  • Actief AI gebruiken ten behoeve van de samenleving en het milieu;
  • de beginselen van diversiteit en inclusie gedurende de gehele levenscyclus van AI-systemen verankeren;
  • de transparantie optimaliseren met behulp van geschikte technologische hulpmiddelen;
  • ervoor te zorgen dat AI-ervaringen mensgericht zijn en dat AI-systemen onder menselijk toezicht staan;
  • ervoor zorgen dat AI-systemen technisch robuust zijn;
  • privacy beschermen door gebruikers controle te geven over hun AI-interacties.

Gezien het potentieel van AI, moet het ethisch gebruik ervan natuurlijk zorgen dat er geen schade aan de mens wordt toegebracht en dat de mens volledig verantwoordelijk en aansprakelijk is voor wanneer er iets misgaat. Dan is er een zeer reële kans om proactief te streven naar een goed milieu en sociaal welzijn,” zegt Anne-Laure Thieullent, Artificial Intelligence and Analytics Group Offer Leader bij Capgemini. “AI is een transformationele technologie met de kracht om vergaande ontwikkelingen te bewerkstelligen in het bedrijfsleven, maar ook in de maatschappij en het milieu. In plaats van bang te zijn voor de gevolgen van AI voor mens en maatschappij, is het absoluut mogelijk om AI te richten op het actief bestrijden van vooroordelen tegen minderheden, en zelfs het corrigeren van de menselijke bias in onze samenleving. Dit betekent dat organisaties die over de AI-capaciteiten beschikken, de schat aan gegevens en het doel om te werken aan het welzijn van de samenleving en het milieu, meer verantwoordelijkheid moeten nemen in het aanpakken van deze kwesties om de samenlevingen nu en in de toekomst ten goede te komen, en dit alles met respect voor de transparantie en hun eigen verantwoordelijkheid in het proces”.

Onderzoeksmethodologie

Capgemini heeft in april – mei 2020 een wereldwijde consumenten- en executive survey uitgevoerd. In de consumentenenquête werden 2.900 consumenten in zes landen ondervraagd, terwijl in de enquête voor executives 884 managers werden ondervraagd (onder meer in de functies: Informatietechnologie, AI-ontwikkelaars, datawetenschappers, verkoop, marketing en klantenservice) uit tien landen. Deze resultaten werden verder vergeleken met de enquêtes van 2019 die in april 2019 en juni 2019 werden gehouden onder 5.000 consumenten en 722 leidinggevenden, waaronder AI-ontwikkelaars, datawetenschappers, verkoop- en marketingteams. Capgemini heeft in augustus-september 2020 ook diepte-interviews gehouden met een aantal managers uit diverse sectoren, academici en vakspecialisten op het gebied van ethiek in AI.

[1] SSIR, “The Problem With COVID-19 Artificial Intelligence Solutions and How to Fix Them,” juni 2020.

[2] Europese Commissie, “Ethics guidelines for trustworthy AI,” april 2019.

[3] FTC.Gov, “Using Artificial Intelligence and Algorithms,” april 2020.

[4] De zeven dimensies van ethische AI zijn afgeleid van de zeven principes voor ethische AI zoals gedefinieerd door de Europese Commissie.