Ga direct naar inhoud

Ethiek voorwaarde voor verkrijgen vertrouwen bij inzet AI door bedrijven

05 jul. 2019

Het ethisch gebruik van kunstmatige intelligentie (Artificial Intelligence – AI) is van fundamenteel belang om loyaliteit en vertrouwen van consumenten en burgers in AI te verkrijgen, zo blijkt uit een nieuwe studie van het Capgemini Research Institute. Naarmate organisaties meer gebruik maken van de voordelen van AI, zijn kritische consumenten, werknemers en burgers bereid om activiteiten op dit gebied positief te waarderen of juist af te keuren. Respondenten gaven aan loyaler te zijn aan, of meer te kopen van, organisaties waarvan de AI-interacties als ethisch worden beschouwd.

Het onderzoek “Why addressing ethical questions in AI will benefit organizations” vond plaats onder 1.580 managers van grote organisaties in 10 landen en meer dan 4.400 consumenten in 6 landen, waaronder Nederland.

De belangrijkste bevindingen zijn:

Bedrijven die AI op een ethische manier gebruiken, worden beloond: Wereldwijd zegt 62% van de ondervraagde consumenten (Nederland: 52%) meer vertrouwen te hebben in een bedrijf waarvan de AI-interacties door hen als ethisch worden ervaren; 61% zegt dat ze positieve ervaringen met vrienden en familie zullen delen (Nederland: 50%), 59% zegt dat ze meer loyaliteit aan het bedrijf zullen hebben (Nederland: 43%) en 55% zegt dat ze meer producten zullen kopen en hoge ratings en positieve feedback op sociale media zullen geven (Nederland 44%). Wanneer de AI-interacties van consumenten daarentegen leiden tot ethische kwesties, vormt dit een bedreiging voor zowel de reputatie als het resultaat: 41% zei dat ze een klacht zullen indienen als een AI-interactie tot ethische kwesties zou leiden (Nederland: 40%) , 36% zou een verklaring eisen (Nederland: 32%) en 34% zou stoppen met de interactie met het bedrijf (Nederland: 29%).

Ethische kwesties die het gevolg zijn van AI-systemen zijn waargenomen en ervaren: Leidinggevenden in 9 van de 10 organisaties zijn van mening dat ethische kwesties het gevolg zijn van het gebruik van AI-systemen in de afgelopen 2-3 jaar, met voorbeelden zoals het verzamelen van persoonlijke patiëntgegevens zonder toestemming in de zorg en het overdreven vertrouwen op geautomatiseerde beslissingen in het bank- en verzekeringswezen. Leidinggevenden noemen redenen zoals de druk om AI haastig in te voeren, het niet in overweging nemen van ethiek bij het bouwen van AI-systemen, en een gebrek aan middelen gericht op ethische AI-systemen.

Consumenten, werknemers en burgers maken zich zorgen over ethische kwesties die verband houden met AI en willen enige vorm van regelgeving: Bijna de helft van de respondenten (47%) gelooft dat ze ten minste twee soorten gebruik van AI hebben ervaren die de afgelopen 2-3 jaar tot ethische problemen hebben geleid. In Nederland ligt dit percentage iets lager op 42%.

De meeste respondenten (75%) zegt meer transparantie te willen wanneer een dienst wordt aangedreven door AI, en dat ze willen weten of AI hen eerlijk behandelt (73%). Meer dan driekwart (76%) van de consumenten vindt dat er verdere regelgeving moet komen over de manier waarop bedrijven AI gebruiken.

Organisaties beginnen het belang van ethische AI te beseffen: 51% van de leidinggevenden vindt het belangrijk om ervoor te zorgen dat AI-systemen ethisch en transparant zijn. Organisaties ondernemen ook concrete acties wanneer ethische kwesties aan de orde worden gesteld. Uit het onderzoek blijkt dat 41% van de topmanagers aangeeft een AI-systeem volledig te hebben opgegeven toen een ethische kwestie aan de orde werd gesteld.

Veel organisaties bevinden zich op een kruispunt in het gebruik van AI. Consumenten, werknemers en burgers staan steeds meer open voor interactie met de technologie, maar zijn zich bewust van de mogelijke ethische implicaties. Dit onderzoek toont aan dat organisaties ethische systemen en gebruiken moeten creëren voor AI om het vertrouwen van mensen te winnen. Dit is niet alleen een compliance-probleem, maar ook een probleem dat een belangrijk voordeel kan opleveren wat betreft loyaliteit, steun en betrokkenheid“, zegt Anne-Laure Thieullent, AI en Analytics Group Offer Leader bij Capgemini. “Om dit te bereiken, moeten organisaties zich richten op het opzetten van de juiste governance, moeten ze niet alleen een gedragscode definiëren op basis van hun eigen waarden, maar deze ook implementeren als een ‘ethics-by-design’ -benadering, en zich vooral richten op het informeren van mensen de manier waarop ze met AI-oplossingen omgaan“.

Organisaties moeten voorrang geven aan een ethische AI-strategie: Om tegemoet te komen aan de zorgen van de consument en het vertrouwensdividend van ethisch AI-gebruik te ontsluiten, moeten organisaties een gerichte aanpak hanteren om systemen geschikt te maken voor hun doel. Capgemini beveelt een drieledige aanpak aan om een strategie voor ethiek in AI te ontwikkelen die alle belangrijke stakeholders omvat:

1) Voor CxO’s en bestuurders: een sterke basis leggen met een strategie en gedragscode voor ethische AI; een beleid ontwikkelen dat aanvaardbare praktijken voor het personeel en de AI-applicaties definieert; structuren voor ethisch bestuur creëren en ervoor zorgen dat er verantwoording wordt afgelegd over AI-systemen; en diverse teams samenstellen om ervoor te zorgen dat er rekening wordt gehouden met het volledige spectrum van ethische kwesties;

2) Voor de klant- en medewerkersgerichte teams, zoals HR, marketing, communicatie en klantenservice: zorgen voor een ethisch gebruik van AI-applicaties; gebruikers opleiden en informeren om het vertrouwen in AI-systemen op te bouwen; gebruikers in staat stellen om meer controle te krijgen en de mogelijkheid te geven om verhaal te kunnen halen; en proactief intern en extern te handelen en te communiceren over AI-kwesties om vertrouwen op te bouwen.

3) Voor AI-, data- en IT-managers en hun teams: streef ernaar om AI-systemen zo transparant en begrijpelijk mogelijk te maken om het vertrouwen van gebruikers te winnen; pas goed datamanagement toe en verminder potentiële vooroordelen in gegevens; monitor voortdurend op precisie en accuratesse; en gebruik technologische hulpmiddelen om ethiek in AI op te bouwen.

Luciano Floridi, directeur van Digital Ethics Labs, Oxford Internet Institute, zegt in het rapport: “Een klassieke manier om vertrouwen te winnen, met name met AI-interacties, kan in drie woorden worden samengevat: transparantie, verantwoording en empowerment. Dat betekent transparantie, zodat mensen kunnen zien wat je doet; verantwoording afleggen omdat je verantwoordelijkheid neemt voor wat je doet; en empowerment omdat je de mensen die de leiding hebben, de taak geeft om je te vertellen of iets wat je niet goed of niet goed deed.

Een exemplaar van het rapport kan hier worden gedownload.

Onderzoeksmethodologie
Het onderzoek omvatte meer dan 1.580 kaderleden van grote organisaties (met meer dan 1 miljard dollar aan jaarinkomsten) uit 10 landen (China, Frankrijk, Duitsland, India, Italië, Nederland, Spanje, Spanje, Zweden, het Verenigd Koninkrijk en de VS). De leidinggevenden waren afkomstig uit drie groepen – general management/strategie/bedrijf; IT/AI/datawetenschap/analytica; HR en marketing. Daarnaast werd een consumentenonderzoek uitgevoerd onder 4.400 consumenten uit zes landen (VS, China, VK, Frankrijk, Duitsland, Nederland en het Verenigd Koninkrijk), die in het verleden allemaal een of andere vorm van AI-interactie hebben gehad, zodat zij zich konden verhouden tot ethische, vertrouwens- en transparantiegerelateerde kwesties in AI. Het Capgemini Research Institute hield ook diepte-interviews met meer dan 20 academici, industrie-experts en ondernemers.