Por qué abordar cuestiones éticas en IA beneficiará a las organizaciones

Las organizaciones deben adoptar la ética en la IA para ganarse la confianza y la lealtad del mercado

La inteligencia artificial puede cambiar radicalmente el mundo en el que vivimos, pero es la ética detrás de ella la que determinará cómo será ese cambio. Los consumidores parecen saber o sentir esto, y exigen cada vez más un comportamiento ético de los sistemas de inteligencia artificial de las organizaciones con las que interactúan. Pero ¿están las organizaciones preparadas para responder a este reto?

La IA ética es la piedra angular sobre la que se construyen la confianza y la lealtad del cliente

En el nuevo informe del Instituto de Investigación de Capgemini, “Por qué abordar cuestiones éticas en IA beneficiará a las organizaciones”, encuestamos a 1,580 ejecutivos en 510 organizaciones y a más de 4,400 consumidores en todo el mundo, para averiguar cómo ven los consumidores la ética y la transparencia de sus interacciones habilitadas por IA, y qué están haciendo las organizaciones para disipar sus preocupaciones al respecto. En nuestra investigación encontramos lo siguiente:

  • La ética impulsa la confianza y satisfacción del consumidor. De hecho, las organizaciones que se considera que utilizan la IA de forma ética disfrutan de una ventaja de 44 puntos de NPS® en comparación con las que se considera que no utilizan la IA de forma ética.
  • Entre los consumidores encuestados, el 62% dijo que confía más en una empresa cuyas interacciones con IA son percibidas como éticas, el 61% dijo que compartiría experiencias positivas con amigos y familiares.
  • Los ejecutivos de nueve de cada diez organizaciones creen que los problemas éticos han resultado del uso de sistemas de inteligencia artificial en los últimos 2 o 3 años. Algunos ejemplos son: la recopilación de datos personales de pacientes sin consentimiento en el cuidado de la salud y la dependencia excesiva de las decisiones dirigidas por máquinas en banca y seguros. Además, casi la mitad de los consumidores encuestados (47%) cree haber experimentado al menos dos tipos de usos de la IA que generaron problemas éticos en los últimos 2 o 3 años. Al mismo tiempo, más de tres cuartas partes de los consumidores esperan nuevas regulaciones sobre el uso de la IA.
  • Las organizaciones están comenzando a darse cuenta de la importancia de la IA ética: el 51% de los ejecutivos considera que es importante garantizar que los sistemas de IA sean éticos y transparentes.

¿Cómo abordar cuestiones éticas en IA?

En este contexto, ¿pueden las organizaciones trabajar para construir sistemas de IA de manera ética? Los hallazgos sugieren que las organizaciones que intentan centrarse en la ética en la IA deben adoptar un enfoque específico para hacer que los sistemas se ajusten a su propósito. Capgemini recomienda un enfoque triple para construir una estrategia de ética en IA que abarque a todas las partes interesadas clave:

  1. Para los CXO, los líderes empresariales y aquellos a los que les compete la confianza y la ética Establecer una base sólida con una estrategia y un código de conducta para la IA ética; desarrollar políticas que definan prácticas aceptables para la fuerza laboral y las aplicaciones de IA; crear estructuras de gobernanza ética y garantizar la rendición de cuentas de los sistemas de IA; y construir equipos diversos para garantizar la sensibilidad hacia el espectro completo de cuestiones éticas
  2. Para los equipos orientados al cliente y a los empleados, como recursos humanos, marketing, comunicaciones y servicio al cliente: Garantizar el uso ético de la aplicación de IA; educar e informar a los usuarios para generar confianza en los sistemas de IA; empoderar a los usuarios con más control y la capacidad de buscar recursos; y comunicarse de manera proactiva sobre problemas de IA interna y externamente para generar confianza
  3. Para los líderes de IA, datos y TI y sus equipos: Hacer que los sistemas de IA sean transparentes y comprensibles para ganarse la confianza de los usuarios; practicar una buena gestión de datos y mitigar posibles sesgos, y usar herramientas tecnológicas para desarrollar la ética en la IA.

Claramente, la IA reformulará la relación entre los consumidores y las organizaciones, pero esta relación solo será tan fuerte como la ética detrás de ella.

Suscríbase para recibir una copia anticipada de los nuevos informes del Instituto de Investigación de Capgemini

Report - Ethics in AI

Tamaño de archivo: 1.63 MB File type: PDF

Infographic – Ethics in...

Tamaño de archivo: 823.72 KB File type: PDF

Punto de Vista

Luciano Floridi, profesor de Filosofía y Ética de la Información y director del Laboratorio de Ética Digital, Oxford Internet Institute, Universidad de Oxford

La confianza es algo muy difícil de obtener y muy fácil de perder. Pero una forma clásica de ganar confianza, con las interacciones de la IA en particular, se puede resumir en tres palabras: transparencia, responsabilidad y empoderamiento. Eso significa transparencia para que las personas puedan ver lo que estás haciendo; responsabilidad porque se responsabiliza por lo que está haciendo y empoderamiento porque pone a las personas a cargo para decirle si algo que hizo no fue correcto o no fue bueno.

Patrick Hall, director sénior de Producto, H20

Si un equipo de ciencia de datos está trabajando en un proyecto de aprendizaje automático que afectará a los humanos, creo que tienen la responsabilidad ética y comercial de hacer un análisis de impacto dispar básico.

Marija Slavkovik, profesor asociado en la Universidad de Bergen

Hoy en día, no tenemos una manera de evaluar el impacto ético de un producto o servicio de IA.

About the Capgemini Research Institute

Instituto de Investigación Capgemini

El grupo de expertos interno de Capgemini número 1 en todo lo relacionado con lo digital.