Saltar al contenido

IA ética: decodificada en 7 principios

Capgemini
2021-04-30

Por  Zhiwei Jiang, CEO, Insights & Data y  Ron Tolido , CTO y Oficial de Innovación, Insights & Data, Capgemini

Las empresas basadas en datos crean mejores experiencias para los clientes, ejecutan sus operaciones de manera más eficaz y siempre crean nuevas olas de innovación y crecimiento. Y el pináculo de este florecimiento de datos está en la Inteligencia Artificial, que ayuda a los humanos a desarrollar conocimientos, tomar decisiones y tomar medidas inmediatas y automatizadas.

Sin embargo, como dice tan elocuentemente el principio de Peter Parker, “Un gran poder conlleva una gran responsabilidad”. Las empresas que exploran el potencial de la IA deben asegurarse de aplicar la IA de la manera correcta y para los fines correctos. Necesitan dominar la IA ética. Siendo un líder reconocido tanto en ética como en IA, Capgemini ha desarrollado su Código de Ética para IA, no solo para propósitos internos sino también para compartirlo con el mundo exterior. A continuación, presentamos una breve introducción a sus siete principios rectores.

Noblesse Oblige

El famoso escritor francés Honoré de Balzac tenía una forma ligeramente diferente de expresarlo. En una de sus novelas, recomienda estándares específicos de comportamiento a un joven y concluye:

“Todo lo que les acabo de decir se puede resumir en una vieja frase: noblesse oblige ”

Si eres noble, rico o poderoso, esto siempre viene con ciertas obligaciones hacia la sociedad. Sin lugar a dudas, si De Balzac hubiera vivido hoy, también lo habría encontrado aplicable a la Inteligencia Artificial. Cada día, el fenomenal poder de innovación de la IA se vuelve cada vez más evidente, afectando potencialmente a economías enteras y extendiéndose de manera muy visible más allá del sector empresarial a áreas de la vida diaria.

Un desafío al que se enfrentan tanto las empresas como la sociedad en la actualidad es cómo optimizar las oportunidades que ofrece la IA, al tiempo que se abordan los riesgos y las preocupaciones que pueden conllevar. Está en manos de quienes están a la vanguardia de la aplicación de la Inteligencia Artificial a las empresas para abordar este enigma ético .

Consistentemente clasificada como una de las empresas más éticas a nivel mundial e impulsando la IA como uno de sus servicios críticos y transformadores para sus clientes, Capgemini debe tener la obligación de expresar su compromiso con la aplicación ética de la IA. Lo ha hecho a través del desarrollo y publicación de su Código de Ética para la IA .

Este código se basa en activos establecidos en el campo, incluida la edición de las “Directrices éticas para una IA confiable” del Grupo de expertos de alto nivel independiente sobre IA creado por la Comisión Europea. Se combina con los valores fundamentales del grupo (en particular, honestidad, confianza, audacia, libertad, modestia). Además, adopta un enfoque pragmático hacia la aplicación diaria de la IA en el campo.

El código guía a nuestra organización sobre cómo incorporar el pensamiento ético en nuestro negocio de IA. También estimula el razonamiento ético e incita a un diálogo abierto entre nuestros clientes y otras partes interesadas. Fundamentalmente, aborda cómo incorporamos principios éticos en el diseño y la entrega de soluciones y servicios de IA mientras nos enfocamos en el propósito previsto de las aplicaciones de IA.

El código consta de 7 principios, todos con el objetivo de crear soluciones de inteligencia artificial centradas en el ser humano:

  1. Impacto cuidadosamente delimitado

Diseñado para el beneficio humano, con un propósito claramente definido que establece lo que entregará la solución, a quién y el impacto en los humanos.

Aquí está la primera dimensión ética a considerar, y tenga la seguridad de que es la más fundamental. A lo largo de la historia de la humanidad, desde el uso de un palo, las herramientas se han utilizado por igual con una intención positiva y negativa. La IA debería beneficiar a la sociedad y a las personas sin causar ningún daño. Desde la perspectiva de nuestra razón de ser corporativa , nuestro objetivo es utilizar la inteligencia artificial únicamente para liberar la energía humana y construir un futuro más sostenible e inclusivo.

2. Sostenible

Considere desarrollar una IA consciente de cada parte interesada para beneficiar al medio ambiente y a todos los miembros presentes y futuros del ecosistema, humanos y no humanos por igual.

La IA amigable con los humanos es una necesidad. Pero también lo es la IA amigable con la TierraNuestra investigación muestra que la IA puede ayudar a las organizaciones a cumplir hasta el 45% de sus objetivos de emisiones. Y se puede lograr un impacto similar en áreas tan diversas como la salud, la producción de alimentos, la deforestación y la vida marina. Sin embargo, al aprendizaje automático le gusta mucho la energía. El desarrollo de excelentes algoritmos de inteligencia artificial tiene un precio ambiental, por lo que, para mantener el equilibrio, la sostenibilidad a menudo triunfará sobre lo inteligente .

3. Justa

La IA debe ser producida por equipos diversos, utilizando datos sólidos para obtener resultados imparciales y la inclusión de todas las personas y grupos de población.

Los algoritmos anhelan datos. La IA normalmente requiere toneladas de datos para aprender. Refleja cualquier dato con el que lo alimentes: datos potencialmente sesgados, discriminatorios, partidistas, manipulados o simplemente erróneos. Las herramientas inteligentes pueden garantizar la equidad al entrenar datos y algoritmos. Los datos sintéticos y los modelos previamente entrenados ofrecen alternativas. Además, los equipos más diversos e inclusivos crean una IA más justa. Al final, la IA nos proporciona un espejo cristalino: si no nos gusta lo que vemos, debemos actuar.

4. Transparente y explicable

Con resultados que se puedan comprender, rastrear y auditar, según corresponda. ¿Qué pasa si la computadora dice que no?

Muchos de los avances de la IA también conllevan dificultades. Los sistemas de aprendizaje a menudo procesan patrones complejos que son difíciles de comprender para la mente humana. Los algoritmos resultantes pueden ser muy precisos pero difíciles de entender y explicar . Esto es de gran preocupación cuando las personas necesitan confiar en la IA para tomar decisiones y actuar en una fracción de segundo, o simplemente se encuentran dependientes de sus veredictos. La transparencia total y la comunicación incansable son esenciales para suavizar el corazón frío de silicio de los algoritmos de la IA.

5. Controlable con clara responsabilidad

Permitir que los humanos tomen decisiones más informadas y tengan la última palabra.

Todos nos hemos preguntado ” ¿Y si sucede Skynet?” Los métodos de aprendizaje automático de la IA pueden ser misteriosos. Además, los sistemas autónomos, que aparentemente deciden y actúan de forma independiente, pueden robar nuestra última ilusión de tener el control (aunque seguro que se sintió bien en Marte ). La IA debería aumentar a los humanos; por lo tanto, los humanos siempre deberían tener la última palabra sobre cómo funciona la IA. O cuando la IA ya no debería funcionar, para el caso. No hay necesidad de las 3 reglas de robótica de Asimov; pero  crean sistemas de inteligencia artificial responsables que están centrados en el ser humano por diseño.

6. Robusto y seguro

Incluyendo planes alternativos cuando sea necesario,

Hemos llegado a depender de sistemas de inteligencia artificial autónomos y con gran capacidad de respuesta, implementados en los mismos bordes de la TI, en el suelo, en la fábrica, en los automóviles. Por lo tanto, será mejor que nos aseguremos de que estos sistemas sean sólidos como una roca. Un modelo de IA entrenado es un activo de oro. Necesitamos aplicar todo lo que hemos aprendido en DevOps, y más, para garantizar una calidad superior durante su ciclo de vida, desde la creación y actualización hasta su implementación en la vida real. Aún así, los sistemas se rompen. Tanto los planes alternativos como la mentalidad de diseño antifrágil ayudan a crear una resistencia y solidez similares al agua.

7. Respectful of privacy and data protection

Al considerar la privacidad y seguridad de los datos desde la fase de diseño, el uso de datos es seguro y cumple legalmente con las regulaciones de privacidad.

Cuanto más interactúe la IA con nuestra vida diaria, más dependerá de nuestros datos personales y confidenciales. Nos lleva a lo que podría decirse que se encuentra en la base de la pirámide de Maslow ‘IA’. Donde su parte superior nos permite autoactualizarnos y crear, su base debe garantizar que los datos y los algoritmos sean seguros y cumplan con las reglas y regulaciones. Como siempre, estas cualidades esenciales no deben ser una ocurrencia tardía, sino incorporadas al núcleo de la conceptualización . Lo primero es lo primero.

Depende de cada profesional comprender seriamente las consideraciones éticas de los datos y la IA y luego vivirlas y respirarlas todos los días. IA de la buena manera, IA para buenos propósitos. No hay atajos, no hay solución. Es una causa noble, ¿sabes? Nuestro código de IA ética nos proporciona la brújula para navegar por aguas prometedoras que a menudo están inexploradas. Siéntete libre de aprovechar lo que hemos iniciado para crear el tuyo propio. Ponte en contacto con nuestros expertos ahora mismo para poder ayudarte a desarrollar una IA Ética: connect.mx@capgemini.com