Las empresas deben ser éticas en el uso de Inteligencia Artificial para ganar la confianza y lealtad del público

Consumidores, empleados y ciudadanos recompensarán a las organizaciones que proactivamente muestren que sus sistemas de IA son éticos, justos y transparentes.

Publish date:

Autor Moore, Michele

Paris, julio de 2019 – El uso ético de la Inteligencia Artificial (IA) se está volviendo fundamental para ganar la confianza del cliente, según ha encontrado un nuevo estudio del Capgemini Research Institute. Conforme las organizaciones avanzan en aprovechar los beneficios de la IA, los consumidores, empleados y ciudadanos observan de cerca y están listos para premiar o castigar el comportamiento. Los encuestados dijeron que ellos serían más leales, comprarían más, o serían defensores de aquellas organizaciones cuyas interacciones de IA sean éticas.

El estudio “Por qué enfocarse en cuestiones éticas en IA beneficiará a las organizaciones” encuestó 1,580 ejecutivos de grandes empresas a través de 10 países, y a más de 4,400 consumidores a través de seis países.

Los hallazgos clave incluyen:

 Las empresas que usan IA de forma ética serán recompensadas: Entre los consumidores encuestados, 62% dijo que confiaría más en una compañía en la que su interacción de IA se perciba como ética; 61% compartiría su experiencia positiva con familiares y amigos, 59% tendría mayor lealtad a la compañía, y el 55% dijo que compraría más productos y otorgaría una mayor calificación y retroalimentación en redes sociales. En contraste, cuando la interacción de los consumidores con IA genera problemas éticos, la reputación resulta amenazada y afecta el resultado final: 41% dijo que se quejaría en el caso de que una interacción con IA resultará en problemas éticos, 36% demandaría una explicación y el 34% dejaría de interactuar con la compañía.

Se han observado y experimentado problemas éticos resultantes de sistemas de IA: Ejecutivos en nueve de cada 10 organizaciones creen que los problemas éticos han sido resultado del uso de sistemas de IA durante los últimos 2 – 3 años, con ejemplos como la recopilación de datos personales de pacientes sin consentimiento en la atención médica, y la dependencia excesiva en las decisiones dirigidas por máquinas sin difusión en banca y seguros. Los ejecutivos citaron razones como la presión para implementar con urgencia la IA, la falta de consideración de la ética al construir sistemas de IA y la falta de recursos dedicados a sistemas éticos de IA.

Los consumidores, empleados y ciudadanos están preocupados acerca de las inquietudes éticas relacionadas con la IA, y quieren algún tipo de regulación: Casi la mitad de los encuestados (47%) creen que han experimentado al menos dos tipos de usos de IA que resultaron en problemas éticos en los últimos 2 – 3 años. La mayoría (74%) dijeron que quieren una mayor transparencia cuando un servicio es impulsado por IA, así como saber si la IA los está tratando de manera justa (72%). Más de tres cuartos (76%) de los consumidores creen que debería haber más regulaciones en la forma en que las empresas usan la IA.

Las organizaciones están empezando a percatarse de la importancia de una IA ética: 53% de los ejecutivos considera que es importante asegurar que los sistemas de IA sean éticos y transparentes. Las organizaciones también están tomando acciones concretas cuando surgen asuntos éticos. La investigación encontró que 41% de los ejecutivos senior reportaron haber abandonado un sistema de IA por completo cuando surgió un problema ético.

Muchas organizaciones se encuentran en una encrucijada por el uso de IA. Los consumidores, empleados y ciudadanos están cada vez más abiertos a interactuar con tecnología, pero están conscientes de las potenciales implicaciones éticas. Esta investigación muestra que las organizaciones deben crear prácticas éticas para el uso de la IA si quieren ganar la confianza de la gente. Esto no es solo un problema de cumplimiento interno, sino un problema que puede generar un beneficio significativo en términos de lealtad, respaldo y compromiso“, dijo Anne-Laure Thieullent, líder de IA y de ofertas del Grupo de analítica en Capgemini. “Para lograr esto, las organizaciones deben centrarse en establecer las estructuras de gobierno adecuadas, no solo deben definir un código de conducta basado en sus propios valores, sino también implementarlo de manera concreta como una aproximación de ‘ética por diseño’, y, sobre todo, enfocarse en informar y empoderar a las personas sobre cómo interactúan con las soluciones de IA“.

Las organizaciones deben priorizar una estrategia de IA ética: Para enfocarse en las preocupaciones de los consumidores y desbloquear la desconfianza del uso ético de la IA, las organizaciones deben adoptar un enfoque centrado para hacer que los sistemas se ajusten a su propósito. Capgemini recomienda un enfoque de tres pilares para construir una estrategia para la ética en IA que abarque a todas las partes clave interesadas:

  • Para los Chief Experience Officer (CXOs), los líderes de negocio y aquellos con un mandato de confianza y ética: Establecer una base sólida con una estrategia y un código de conducta para una IA ética; desarrollar políticas que definan prácticas aceptables para la fuerza laboral y aplicaciones de IA; crear estructuras de gobernanza éticas y garantizar la responsabilidad de los sistemas de IA; y construir equipos diversos para asegurar la sensibilidad hacia todo el espectro de problemas éticos;
  • Para el cliente y los equipos enfocados en empleados, tales como recursos humanos marketing, comunicación y servicios de consumo: Asegurar el uso ético de aplicaciones de IA; educar e informar a los usuarios de construir confianza en sistemas de IA; empoderar a los usuarios con más control y con la capacidad de buscar recursos; y comunicar proactivamente sobre problemas de IA, de manera interna y externa, para generar confianza;
  • Para los líderes de IA, datos y tecnologías de la información y sus equipos: Hacer que los sistemas de IA sean transparentes y comprensibles para ganar la confianza de los usuarios; practicar una buena gestión de datos y mitigar posibles sesgos en los datos; y usar herramientas tecnológicas para construir la ética en la IA.

Luciano Floridi, Director de laboratorios de ética digital, en el Instituto de internet de Oxford, dijo, “Un método clásico para obtener confianza, con interacciones de Inteligencia Artificial en particular, puede resumirse en tres ideas: transparencia, rendición de cuentas y empoderamiento. Esto significa transparencia para que las personas puedan ver lo que estás haciendo; rendición de cuentas porque asumes la responsabilidad por lo que estás haciendo; y empoderamiento porque pones a las personas a cargo para decirte si algo que hiciste no estuvo bien o no fue bueno”.

Puedes descargar una copia del reporte aquí.

Metodología de investigación

La investigación encuestó a más de 1,580 ejecutivos de grandes organizaciones (con más de mil millones en ingresos anuales) de 10 países (China, Francia, Alemania, India, Italia, los Países Bajos, España, Suecia, el Reino Unido y los Estados Unidos). Se seleccionaron ejecutivos de tres grupos: gerencia general / estrategia / corporativo; IT / IA / Ciencia de datos / analíticos; RRHH y marketing. Además, se realizó una encuesta de consumidores con 4,400 consumidores de seis países (EE. UU., China, Reino Unido, Francia, Alemania, Países Bajos), todos los cuales habían tenido algún tipo de interacción con IA en el pasado, que pudieran identificarse con la ética, la confianza y cuestiones relacionadas con la transparencia en IA. El Instituto de Investigación Capgemini también realizó entrevistas en profundidad con más de 20 académicos, expertos de la industria y empresarios.

Acerca de Capgemini

Líder global en consultoría, servicios de tecnología, y transformación digital, Capgemini está a la cabeza de la innovación para enfrentar las oportunidades de nuestros clientes en el cambiante mundo de la nube, digital y plataformas. Basándose en su sólida herencia de 50 años y profunda experiencia específica de las industrias, Capgemini habilita a las organizaciones a alcanzar sus ambiciones de negocio a través de un conjunto de servicios que van desde la estrategia hasta las operaciones. Capgemini se impulsa por la convicción que el valor de negocio de la tecnología viene de y a través de las personas. Es una compañía multicultural con 200,000 miembros del equipo en más de 40 países. El Grupo reportó ingresos globales de 13.2 miles de millones de Euros en 2018.

Visítanos en www.capgemini.com/mx-es/. People matter, results count.

Acerca del Instituto de Investigación Capgemini

El Instituto de Investigación Capgemini es el grupo de expertos interno de Capgemini sobre todo lo digital. El Instituto publica investigaciones sobre el impacto de las tecnologías digitales en las grandes empresas tradicionales. El equipo se basa en la red mundial de expertos de Capgemini y trabaja en estrecha colaboración con socios académicos y tecnológicos. El Instituto ha dedicado centros de investigación en la India, el Reino Unido y los Estados Unidos. Recientemente fue clasificado como el número 1 en el mundo por la calidad de su investigación por analistas independientes.

Visítenos en https://www.capgemini.com/researchinstitute/

 

Ética en Inteligencia artificial...

Tamaño de archivo: 144.25 KB File type: PDF

Ethics in AI Infographic

Tamaño de archivo: 823.72 KB File type: PDF
cookies.

Al continuar navegando en este sitio, acepta el uso de cookies

Para más información y para cambiar la configuración de las cookies en tu ordenador, por favor lee nuestra política de privacidad

Cerrar

Cerrar información de cookies