Saltar al contenido

Informe “La Inteligencia Artificial y el dilema ético”

30 sept. 2020
Logo

Un 70% de los clientes espera que las empresas ofrezcan experiencias de IA transparentes y justas, según un informe de Capgemini

Madrid, 1 de octubre de 2020 – La Inteligencia Artificial (IA) tiene la capacidad de transformar positivamente la sociedad y el medio ambiente, y para aprovechar todo su potencial, las organizaciones deben centrarse en abordar los desafíos éticos. Así lo indica el nuevo informe del Instituto de Investigación de Capgemini, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust, que señala que un 62% de los consumidores cree que las empresas son completamente transparentes en el uso de sus datos personales en comparación con el 76% de 2019. El estudio también afirma que sólo el 53% de las organizaciones tienen un líder responsable de la ética de los sistemas de IA. Además, la gobernanza, la rendición de cuentas de la IA y el despliegue de herramientas y marcos pragmáticos para el desarrollo y uso de estos sistemas tiene un alto coste para las organizaciones.

El documento señala que, aunque las empresas están más sensibilizadas a nivel ético, la puesta en marcha de IA ética no es uniforme. Por ejemplo, un 64% de los directivos señala que su empresa avanza en su capacidad de explicar el razonamiento de la IA (frente al 32% en 2019), mientras que el número de directivos que ha tomado medidas para establecer dimensiones de «justicia» (65% en 2020 vs. 66% en 2019) y «auditabilidad» (45% en 2020 vs. 46% en 2019) en sus sistemas de IA no ha avanzado. Al mismo tiempo, la transparencia ha caído del 73% al 59%, a pesar del hecho de que el 58% de los negocios dice haber fomentado la concienciación entre su personal sobre problemas que pueden surgir del uso de IA.

Asimismo, el informe pone de manifiesto que el 70% de los consumidores busca una explicación más clara de los resultados y espera de las empresas interacciones de IA transparentes y justas.

Los prejuicios de los sistemas de IA y las experiencias negativas del consumidor salen caras a las empresas

Conforme las instituciones públicas y privadas aumentan el uso de tecnologías de IA, es clave que mantengan la confianza de sus usuarios con el fomento de las relaciones positivas con la IA. De todos modos, los informes indican que los conjuntos de datos recopilados para el sector sanitario y público están sometidos a sesgos sociales y culturales[1].

Esto no se limita al sector público. El estudio de Capgemini llega a la conclusión de que el 65% de los directivos dice ser consciente del problema de las inclinaciones discriminatorias de los sistemas de IA. Es más, casi un 60% de las empresas ha sido estudiada jurídicamente y un 22% se ha enfrentado a reacciones negativas de sus clientes en los últimos dos o tres años, a raíz de decisiones tomadas por estos sistemas. De hecho, el 45% de los consumidores apunta que compartirá sus experiencias negativas con su familia y amistades y les desaconsejará cualquier relación con esas empresas; un 39% planteará sus preocupaciones a la empresa y exigirá una explicación, y otro 39% cambiará el canal de IA por una interacción humana de mayor coste. Más de una cuarta parte de los consumidores (27%) declara que dejaría de tratar con la compañía en general.

Compromiso con las cuestiones éticas: quienes lideran han de asumir la responsabilidad

Solo el 53% de las empresas cuenta con un responsable de ética de IA. Es esencial que un alto directivo esté encargado de estas cuestiones para garantizar que se priorizan de la forma adecuada desde la alta dirección y para crear sistemas de IA sólidos en el ámbito moral.

Además, la responsabilidad de los resultados éticos de las aplicaciones de IA debe recaer sobre directivos tanto del área de tecnología como de negocio. Según nuestro estudio, solo la mitad ha declarado tener una línea de atención confidencial o figura de mediación que facilite a los consumidores y el personal el planteamiento de cuestiones éticas con los sistemas de IA.

El gobierno ético ya es un requisito

La necesidad de un código ético empresarial viene también impulsada por el aumento de marcos normativos. Por ejemplo, la Comisión Europea ha publicado unas directrices con principios éticos clave que deberían utilizarse en el diseño de aplicaciones de IA[2]. Entretanto, las pautas formuladas por la Comisión Federal de Comercio de los EE. UU. (FTC) a principios de 2020 piden una IA transparente[3]. Esta reclamación se apoya en que, cuando un sistema con funciones de IA toma una decisión desfavorable (como la denegación de un crédito a un cliente), la empresa debería mostrar a la persona afectada los datos clave utilizados para llegar a esa decisión, y otorgarle el derecho de modificar cualquier información errónea. Sin embargo, aunque el 73% de las compañías del mundo informaba a sus usuarios sobre cómo podían afectarles las decisiones de la IA en 2019, esta cifra se ha desplomado hasta el 59% en la actualidad.

De acuerdo con el informe, estas salvaguardas son muestra de las circunstancias actuales provocadas por la covid-19, así como de necesidades de la sociedad y del medio ambiente, la complejidad creciente de los modelos de IA y un cambio en el comportamiento de la población consumidora, todo lo cual ha alterado las funcionalidades de los algoritmos de IA. Factores nuevos, como una preferencia por la seguridad, las compras al por mayor o una falta de datos pasados adecuados para formar a las IA, han provocado el rediseño de los sistemas empresariales para adaptarse a la nueva normalidad; pero esto se ha traducido en una menor transparencia.

Asimismo, el informe pone de relieve siete medidas clave para que las empresas desarrollen sistemas de IA éticamente firmes sostenidos sobre una base sólida de liderazgo, gobierno y prácticas internas[4]:

  • Definir de manera clara el propósito previsto de los sistemas de IA y evaluar su impacto potencial general.
  • Implementar de forma proactiva la IA para el beneficio de la sociedad y el medioambiente.
  • Integrar proactivamente principios de diversidad e inclusión a través de la vida útil de los sistemas de IA.
  • Aumentar la transparencia con la ayuda de herramientas tecnológicas.
  • Humanizar la experiencia de IA y garantizar la supervisión humana de sus sistemas.
  • Garantizar la seguridad tecnológica de los sistemas de IA.
  • Proteger la privacidad de las personas, capacitándolas y poniéndolas a cargo de las interacciones de IA.

«Dado su potencial, el uso ético de la IA debe garantizar que no se daña a las personas. Al mismo tiempo, debe estar respaldada por humanos que rindan cuentas y se hagan responsables cuando las cosas no funcionan como deben. Además, crea una oportunidad para perseguir el bienestar social y la mejora medioambiental», indica Anne-Laure Thieullent, responsable de Inteligencia Artificial y analítica de datos de Capgemini. «La IA es una tecnología de transformación con la capacidad de lograr avances de gran alcance en negocios, así como en la sociedad y el entorno. En vez de temer el impacto de estos sistemas en la sociedad y las personas, es posible dirigir activamente la IA para que se oponga a los prejuicios contra minorías e, incluso, corregir los prejuicios existentes en la sociedad actual. Esto significa que las organizaciones, gubernamentales o no, que cuentan con las capacidades de IA, grandes cantidades de datos y un propósito de trabajar para el bienestar social y medioambiental han de asumir una responsabilidad mayor para abordar estas cuestiones y beneficiar a las sociedades ahora y en el futuro, mientras respetan principios de transparencia y establecen reglas para la rendición de cuentas».

Si desea leer una copia completa del informe y sus recomendaciones, haga clic aquí.

Metodología de investigación

Para obtener los datos del informe de 2020, Capgemini encuestó a consumidores y directivos de todo el mundo entre abril y mayo de 2020. La primera encuesta preguntó a 2.900 consumidores en seis países, y la segunda, a 884 cargos ejecutivos (entre ellos: tecnologías de la información, desarrollo de IA, ciencia de datos, ventas, marketing y servicios de atención al cliente) en diez países. Los resultados se compararon con encuestas efectuadas entre abril de 2019 y junio de 2019, a 5.000 consumidores y a 722 altos cargos, que incluían a equipos de desarrollo de IA, ciencia de datos, ventas y marketing. Capgemini también realizó entrevistas en profundidad a una serie de directivos sectoriales, académicos y expertos en el ámbito de la ética en IA, entre agosto y septiembre de 2020.

Acerca de Capgemini

Un líder global en servicios de consultoría, transformación digital, tecnología e ingeniería. Grupo Capgemini está a la vanguardia de la innovación para abordar la diversidad de oportunidades que tienen sus empresas clientes en el dinámico entorno de las plataformas, la nube y lo digital. Respaldada por una sólida trayectoria de más de 50 años y una dilatada experiencia multisectorial, Capgemini ayuda a las compañías a alcanzar sus objetivos de negocio mediante una amplia gama de servicios que cubre desde la estrategia, hasta las operaciones. Capgemini actúa bajo la firme convicción de que el valor de negocio de la tecnología se genera y desarrolla a través de las personas. Se trata de una compañía multicultural de 270.000 profesionales, presente en casi 50 países y, junto con Altran, en 2019, el grupo registró unos ingresos mundiales combinados de 17.000 millones de euros.

Más información en www.capgemini.com/es-es/

People matter, results count

Acerca del Instituto de Investigación de Capgemini

El Instituto de Investigación es el think tank interno de Capgemini para el estudio del ámbito digital. El instituto publica investigaciones sobre el impacto de las tecnologías digitales en grandes negocios tradicionales. El equipo se apoya en la red mundial de expertos de Capgemini y trabaja codo con codo con socios académicos y tecnológicos. El instituto cuenta con centros de investigación especializados en Estados Unidos, Reino Unido y la India. Recientemente ha sido reconocido como líder por la calidad de sus informes por analistas independientes.

Más información en www.capgemini.com/es-es/instituto-de-investigacion-de-capgemini/

[1] SSIR, «The Problem With COVID-19 Artificial Intelligence Solutions and How to Fix Them», junio de 2020.

[2] Comisión Europea, «Directrices éticas para una IA fiable», abril de 2019.

[3] FTC. Gov, «Using Artificial Intelligence and Algorithms», abril de 2020.

[4] Las siete dimensiones clave de una IA ética proceden de los siete principios para una IA ética definidos por la Comisión Europea.