Vai al contenuto

Un approccio etico nell’adozione dell’IA è fondamentale per assicurarsi la fiducia e la lealtà del pubblico

05 lug 2019

Milano, 5 luglio 2019 – Da un nuovo studio del Capgemini Research Institute emerge che un approccio etico all’utilizzo dell’IA sta diventando fondamentale per conquistare la fiducia delle persone. Mentre le organizzazioni fanno progressi nello sfruttare i benefici dell’IA, consumatori, dipendenti e cittadini guardano con attenzione alla tecnologia e sono pronti a favorire o penalizzare aziende che adottano determinati comportamenti. Gli intervistati hanno affermato che sarebbero più fedeli, disposti ad aumentare gli acquisti, o a sostenere le aziende che dimostrano di fare un uso etico dell’IA.

Lo studio, dal titolo “Why addressing ethical questions in AI will benefit organizations“, ha coinvolto 1.580 dirigenti di grandi aziende in 10 paesi e oltre 4.400 consumatori in sei paesi.

Tra le principali evidenze troviamo:

Le aziende che utilizzano eticamente l’IA saranno premiate: Il 62% dei consumatori intervistati ha dichiarato di riporre una maggiore fiducia in un’azienda le cui interazioni con i sistemi di IA vengono percepite come etiche, il 61% ha affermato di essere disposto a condividere esperienze positive con amici e familiari, il 59% che l’uso etico dell’IA incrementerebbe il proprio grado di fidelizzazione con un’azienda e il 55% che questo si tradurrebbe in un aumento dei prodotti acquistati e in un incremento dei feedback positivi sui social media. Al contrario, quando le interazioni tra i sistemi di IA e i consumatori generano problemi di natura etica, questi minacciano sia la reputazione che i profitti: il 41% degli intervistati ha dichiarato che si lamenterebbe qualora un’interazione con i sistemi di IA portasse a problemi etici, il 36% richiederebbe una spiegazione e il 34% smetterebbe di rivolgersi a tale azienda.

Sono stati osservati e sperimentati problemi etici derivanti dai sistemi di IA: I dirigenti di 9 aziende su 10 ritengono che l’utilizzo dell’IA abbia generato problemi etici negli ultimi 2-3 anni, ad esempio nel settore sanitario per quanto riguarda la raccolta di dati personali dei pazienti senza il loro consenso, oppure in quello bancario e assicurativo, per via dell’eccessivo utilizzo di decisioni machine-led senza aver avvisato prima il cliente. La cause riscontrate da un lato evidenziano le pressioni per l’implementazione dell’IA, dall’altro l’assenza di un approccio e di risorse dedicate all’aspetto etico dell’implementazione dei sistemi di IA.

Consumatori, dipendenti e cittadini sono preoccupati per le questioni etiche legate all’IA e richiedono l’attuazione di forme di regolamentazione: Quasi la metà degli intervistati (47%) ritiene di aver sperimentato almeno due tipi di utilizzo dell’IA che, negli ultimi 2-3 anni, hanno dato luogo a problemi etici. La maggior parte (74%) ha dichiarato di volere maggiore trasparenza quando si trova a usufruire di un servizio erogato tramite l’IA, mentre il 72% vuole sapere se la tecnologia li stia trattando in modo equo. Più di tre quarti dei consumatori (76%) ritiene che ci dovrebbe essere una regolamentazione aggiuntiva sull’utilizzo dell’IA da parte delle aziende.

Le organizzazioni stanno iniziando a rendersi conto dell’importanza dell’etica nell’IA: Il 51% dei dirigenti ritiene che sia importante garantire l’etica e la trasparenza dei sistemi di IA. Le organizzazioni stanno anche adottando azioni concrete quando vengono poste loro questioni etiche. La ricerca ha rilevato che il 41% dei dirigenti senior riferisce di aver abbandonato completamente i sistemi di IA che sollevavano problemi etici.

“Le organizzazioni oggi si trovano a un bivio nell’adozione dell’IA. Consumatori, dipendenti e cittadini sono sempre più disposti a interagire con questa tecnologia, ma allo stesso tempo sono consapevoli delle potenziali implicazioni etiche. Per conquistare la fiducia dei consumatori, le organizzazioni sono chiamate ad attuare sistemi e politiche etiche per l’utilizzo dell’IA. Non si tratta solo di un tema di compliance, ma di un’opportunità per generare benefici significativi in termini di fidelizzazione, engagement e riconoscimento”, ha affermato Andrea Falleni, Managing Director, Capgemini Business Unit Italy. “Per raggiungere questi obiettivi, le organizzazioni devono dotarsi di una governance adeguata. Questo significa non solo definire un codice di condotta basato sui valori aziendali, ma anche adottare un approccio etico fin dalla fase strategica e soprattutto informare e supportare le persone nell’interazione con servizi e sistemi che utilizzano l’IA.”

La priorità è definire un approccio etico nella strategia di adozione dell’IA: Per indirizzare le preoccupazioni dei consumatori e guadagnare un vantaggio competitivo nell’utilizzo etico dell’IA, è necessario progettare i sistemi fin dal principio per rispondere a queste esigenze. Capgemini raccomanda un approccio strategico che tenga in considerazione tutti i principali stakeholder dell’ecosistema:

  • CxO, business leader e responsabili per la fiducia e l’etica aziendale devono stabilire una strategia e un codice di condotta per l’utilizzo etico dell’IA, sviluppare adeguate procedure di adozione per i dipendenti e per le applicazioni basate sull’IA, creare strutture di governance etica e garantire responsabilità per i sistemi di IA e costruire team eterogenei per assicurare un’elevata sensibilità su tutto lo spettro delle questioni etiche;
  • Le funzioni che hanno un contatto diretto con il pubblico, come risorse umane, marketing, comunicazione e servizio clienti devono garantire un uso etico nell’applicazione dell’IA, informare ed educare gli utenti per costruire fiducia nei sistemi di IA, fornire supporto e assistenza nell’interazione con l’IA e comunicare tempestivamente eventuali criticità correlate all’IA sia all’interno dell’azienda che verso il consumatore;
  • I responsabili in ambito IA, dati e IT devono cercare di garantire il più possibile trasparenza e comprensione dei sistemi, una corretta gestione dei dati per mitigare i potenziali rischi, il monitoraggio continuo per verificarne precisione e accuratezza e l’utilizzo di strumenti tecnologici che assicurino l’etica nell’IA.

Luciano Floridi, Director del Digital Ethics Lab, Oxford Internet Institute, ha dichiarato: “Per le organizzazioni guadagnarsi la fiducia del pubblico in relazione all’utilizzo dell’IA significa garantire trasparenza, ovvero permettere agli utenti di vedere cosa si sta facendo, assumersi la responsabilità delle proprie azioni e permettere alle persone di segnalare eventuali criticità.”

Metodologia di ricerca

Lo studio ha coinvolto oltre 1.580 dirigenti di grandi aziende (con un fatturato annuo superiore a un miliardo di dollari) provenienti da 10 paesi (Cina, Francia, Germania, India, Italia, Paesi Bassi, Regno Unito, Spagna, Stati Uniti e Svezia). I dirigenti provengono da tre gruppi: General management/strategy/corporate; IT/AI/data science/analytics; HR e marketing. Inoltre, è stato condotto un sondaggio su 4.400 consumatori provenienti da 6 paesi (Cina, Francia, Germania, Paesi Bassi, Regno Unito e Stati Uniti) che avevano già avuto delle interazioni con l’IA, in modo da poter esprime la loro opinione sulle questioni etiche, di fiducia e di trasparenza in materia di IA. Inoltre, il Capgemini Research Institute ha condotto interviste approfondite con più di 20 esponenti del mondo accademico, esperti del settore e imprenditori.