¿Por qué abordar cuestiones éticas en IA beneficiará a las organizaciones?

Las organizaciones deben adoptar la ética en IA para ganar la confianza y lealtad del público

La inteligencia artificial puede cambiar radicalmente el mundo en el que vivimos, pero es la ética la que determinará cómo se verá ese mundo. Los consumidores parecen saber o sentir esto, y exigen cada vez más un comportamiento ético para los sistemas de inteligencia artificial de las organizaciones con las que interactúan. ¿Pero están las organizaciones preparadas para responder?

La IA ética es la piedra angular sobre la que se construye la confianza y lealtad del cliente.

En el nuevo informe del Instituto de Investigación Capgemini, Por qué abordar las cuestiones éticas en IA beneficiará a las organizaciones, el Instituto encuestó a 1,580 ejecutivos en 510 organizaciones y más de 4,400 consumidores a nivel internacional, para descubrir cómo los consumidores ven la ética y la transparencia de sus interacciones con IA y qué organizaciones están haciendo para disipar sus preocupaciones. Encontramos esto:

  • La ética impulsa la confianza y satisfacción del consumidor. De hecho, las organizaciones que se considera que utilizan la IA de forma ética disfrutan de una ventaja de NPS® de 44 puntos en comparación con las que se considera que no utilizan la IA de forma ética.
  • Entre los consumidores encuestados, el 62% dijo que confiaría más en una compañía cuyas interacciones de inteligencia artificial percibieron como éticas; El 61% dijo que compartiría experiencias positivas con amigos y familiares.
  • Los ejecutivos de nueve de cada diez organizaciones creen que los problemas éticos se deben al uso de los sistemas de inteligencia artificial durante los últimos 2 o 3 años, con ejemplos como la recopilación de datos personales de pacientes sin consentimiento en la atención médica. La excesiva dependencia de las máquinas en decisiones sin divulgación en banca y seguros. Además, casi la mitad de los consumidores encuestados (47%) creen que han experimentado al menos dos tipos de usos de IA que resultaron en problemas éticos en los últimos 2-3 años. Al mismo tiempo, más de tres cuartos de los consumidores esperan nuevas regulaciones sobre el uso de IA.
  • Las organizaciones están comenzando a darse cuenta de la importancia de la IA ética: el 51% de los ejecutivos considera que es importante garantizar que los sistemas de IA sean éticos y transparentes.

¿Cómo abordar las cuestiones éticas en la IA?

En el escenario dado. ¿Pueden las organizaciones trabajar para construir sistemas de inteligencia artificial de manera ética? Los hallazgos sugieren que las organizaciones que intentan centrarse en la ética en la inteligencia artificial deben adoptar un enfoque específico para hacer que los sistemas se ajusten a su propósito. Capgemini recomienda un enfoque de tres frentes para construir una estrategia para la ética en AI que abarque a todas las partes interesadas clave:

  1. Para los Chief Experience Officer (CXOs), los líderes de negocio y aquellos con un mandato de confianza y ética: Establecer una base sólida con una estrategia y un código de conducta para una IA ética; desarrollar políticas que definan prácticas aceptables para la fuerza laboral y aplicaciones de IA; crear estructuras de gobernanza éticas y garantizar la responsabilidad de los sistemas de IA; y construir equipos diversos para asegurar la sensibilidad hacia todo el espectro de problemas éticos;
  2. Para el cliente y los equipos enfocados en empleados, tales como recursos humanos marketing, comunicación y servicios de consumo: Asegurar el uso ético de aplicaciones de IA; educar e informar a los usuarios de construir confianza en sistemas de IA; empoderar a los usuarios con más control y con la capacidad de buscar recursos; y comunicar proactivamente sobre problemas de IA, de manera interna y externa, para generar confianza;
  3. Para los líderes de IA, datos y tecnologías de la información y sus equipos: Hacer que los sistemas de IA sean transparentes y comprensibles para ganar la confianza de los usuarios; practicar una buena gestión de datos y mitigar posibles sesgos en los datos; y usar herramientas tecnológicas para construir la ética en la IA.

 

Claramente, la IA replanteará la relación entre los consumidores y las organizaciones, pero esta relación solo será tan fuerte como la ética detrás de ella.

 

Report - Ethics in AI

Tamaño de archivo: 1.63 MB File type: PDF

Infographic – Ethics in...

Tamaño de archivo: 823.72 KB File type: PDF

Punto de Vista

Luciano Floridi, profesor de Filosofía y Ética de la Información y director del Laboratorio de Ética Digital, Oxford Internet Institute, Universidad de Oxford

La confianza es algo muy difícil de obtener y muy fácil de perder. Pero una forma clásica de ganar confianza, con las interacciones de la IA en particular, se puede resumir en tres palabras: transparencia, responsabilidad y empoderamiento. Eso significa transparencia para que las personas puedan ver lo que estás haciendo; responsabilidad porque se responsabiliza por lo que está haciendo y empoderamiento porque pone a las personas a cargo para decirle si algo que hizo no fue correcto o no fue bueno.

Patrick Hall, director sénior de Producto, H20

Si un equipo de ciencia de datos está trabajando en un proyecto de aprendizaje automático que afectará a los humanos, creo que tienen la responsabilidad ética y comercial de hacer un análisis de impacto dispar básico.

Marija Slavkovik, profesor asociado en la Universidad de Bergen

Hoy en día, no tenemos una manera de evaluar el impacto ético de un producto o servicio de IA.

About the Capgemini Research Institute