Saltar al contenido

La ética de la inteligencia artificial

Adam Bujak
2019-10-15

Abordar los problemas éticos relacionados con la IA siempre será un trabajo en progreso y deberá desarrollarse a medida que la IA evolucione.

Imagina que has solicitado un trabajo o un préstamo, y te dicen que no tuviste éxito. Tienes curiosidad sobre por qué, por lo que utilizas la legislación GDPR para solicitar acceso a la información que la compañía tiene sobre ti. Obtienes tus datos y, al mismo tiempo, descubres que la decisión se tomó utilizando algoritmos de inteligencia artificial (IA) que descartaron tu aplicación sin ninguna razón obvia.

O imagina esto. Descubre que la IA se está utilizando para fines de vigilancia en su lugar de trabajo, y también que tu empleador está recopilando y procesando datos relacionados con tu historial de salud utilizando algoritmos de IA. En ninguno de los casos se ha solicitado u obtenido tu consentimiento.

En todos estos escenarios, sería comprensible si te sintieras bastante agraviado. Por lo menos, dañaría la relación que tienes con la organización que emplea la IA; en el peor de los casos, podría motivarte a considerar tomar medidas legales y hacer pública tu historia.

En resumen, si bien las organizaciones aprovechan cada vez más los beneficios de la IA, deben ser conscientes de las consecuencias de su comportamiento. Un estudio reciente realizado por el Capgemini Research Institute descubrió que los consumidores, empleados y ciudadanos recompensarán a las organizaciones que demuestren de manera proactiva que sus sistemas de IA son éticos, justos y transparentes.

El estudio “Por qué abordar las cuestiones éticas en IA beneficiará a las organizaciones” encuestó a más de 1,500 ejecutivos de grandes compañías en 10 países, y más de 4,400 consumidores en seis países.

Desarrollar un plan de acción.

Los principales hallazgos del estudio son quizás obvios: las preocupaciones éticas son consideradas importantes por casi todas las personas que son atendidas o empleadas por organizaciones; esa regulación se considera deseable; y que las empresas son recompensadas o castigadas en relación con el grado en que se les percibe que usan la IA de manera ética.

Sin embargo, el estudio va más allá de un análisis de las actitudes de las personas, para delinear un curso de acción para las organizaciones que buscan desarrollar una estrategia ética de IA. El enfoque recomendado abarca a todas las partes interesadas clave:

  • Para los CxO, los líderes empresariales y aquellos con un mandato de confianza y ética: establezcan una estrategia y un código de conducta para la IA ética; desarrollar políticas que definan prácticas aceptables para la fuerza laboral y las aplicaciones de IA; crear estructuras de gobernanza ética y garantizar la responsabilidad de los sistemas de IA; y crear equipos diversos para garantizar la sensibilidad hacia el espectro completo de cuestiones éticas.
  • Para los equipos orientados al cliente y al empleado, como RH, marketing, comunicaciones y servicio al cliente: garantizar el uso ético de la aplicación de IA; educar e informar a los usuarios para generar confianza en los sistemas; capacitar a los usuarios con más control y la capacidad de buscar recursos; y comunicarse de manera proactiva sobre problemas de IA interna y externamente para generar confianza.
  • Para los líderes de IA, datos, TI y sus equipos: busca hacer que los sistemas de IA sean lo más transparentes y comprensibles posible, para ganar la confianza de los usuarios; practicar una buena gestión de datos y mitigar posibles sesgos en la información; supervisar continuamente la precisión y exactitud; y usar herramientas tecnológicas para construir ética en IA.

La necesidad de continuidad

Quizás la conclusión clave del estudio es que el enfoque estructurado y planificado de la IA que he resumido anteriormente puede lograr dos objetivos importantes. Primero, ganará la confianza y lealtad de las personas, y logrará una mayor participación en el mercado. Y segundo, evitará riesgos significativos desde una perspectiva de cumplimiento, privacidad, seguridad y reputación.

Por supuesto, lo que sea que hagan las organizaciones no lo hará ni será una solución única. Será necesario desarrollar los problemas éticos relacionados con la IA, a medida que la IA evoluciona: siempre será un trabajo en progreso o, para usar ese cliché comercial, un viaje. Y cuanto antes comience ese viaje, mejor.

Author

Adam Bujak

Experto en finance, information technology and business transformation, Strategy