Saltar al contenido

Equidad en AI: una introducción imparcial

Capgemini
2021-03-10

¿Por qué la equidad de la IA es un tema muy debatido?

La IA ética se centra en el impacto social de los sistemas de IA y su equidad percibida. Hay una multitud de definiciones superpuestas, pero el denominador común siempre está ahí: ¿Este sistema de IA afectará a nuestra sociedad de manera positiva o negativa? Al igual que con todos los demás avances técnicos transformadores, las implicaciones de la integración de sistemas de IA en nuestra sociedad son de gran alcance y, a menudo, no son obvias. Casi todas las organizaciones internacionales importantes han publicado documentos de trabajo o informes sobre IA ética o IA para siempre;  IEEEITUOECDEuropean CommissionUK governmentGoogleMicrosoftIBM ¡la lista es lo suficientemente larga como para ser una publicación de blog en sí misma! Esto demuestra que las personas se preocupan por el impacto de los sistemas de IA en su vida diaria. En una publicación anterior de AI Guild ya se ha mencionado esta necesidad de generar confianza en los sistemas de inteligencia artificial. Para lograr esta tarea, la investigación actual de ML ha (re) introducido términos relacionados con la imparcialidad, la rendición de cuentas, la transparencia, las razones y la causalidad. Aquí está sucintamente a lo que se refiere cada uno de ellos:

  • Imparcialidad / Equidad: ¿Los resultados de los algoritmos de IA son independientes de ciertas características sensibles / protegidas? (por ejemplo, etnia)
  • Responsabilidad: ¿Quién es responsable (es decir, responsable) del diseño de un sistema de IA y, lo que es más importante, de sus decisiones?
  • Transparencia y explicabilidad: ¿Qué hace el sistema de IA? ¿Cómo se toma esta decisión?
  • Causalidad: ¿Por qué sucedió algo en la vida real?

Observamos que, aunque están interrelacionados, estos términos no son equivalentes.

Un sistema justo puede resultar opaco; no necesariamente apreciamos cómo funciona un desfibrilador inteligente, pero todos estamos de acuerdo en que tiene un impacto que salva vidas en todas las personas. Un sistema perfectamente explicable puede ser completamente arbitrario; se podría utilizar un método simple de estimación de riesgos (por ejemplo, regresión logística) para una tarea de clasificación sin una razón aparente de por qué se eligió un umbral determinado. Un vínculo causal puede ser completamente injusto; una campaña de marketing validada A / B puede tener éxito porque aprovecha las vulnerabilidades de las personas (por ejemplo, adicciones a las compras). Al emplear un sistema de inteligencia artificial, todos estos puntos deben comentarse de manera informada. Durante el resto de la entrada del blog, nos centraremos en una simple exposición de equidad y las métricas asociadas a ella.

La actividad de investigación en equidad en IA se ha disparado en los últimos años; Google Scholar sugiere 6 resultados para el término “IA Equidad” entre 2010 y 2015, pero  444 resultados  desde 2016 hasta mediados de octubre de 2020. Esto ha llevado, correctamente, a varias definiciones diferentes de equidad. Hacemos hincapié en que el hecho de que existan múltiples definiciones de equidad de la IA es correcto y esperado. En diferentes escenarios, la definición de equidad no es sencilla. Si bien todos estamos de acuerdo en que la discriminación injusta y los prejuicios son incorrectos, tampoco están claramente definidos en todos los casos e incluso si lo están, su remedio tampoco es obvio. Exploraremos tres criterios simples de equidad: paridad demográfica, igualdad de oportunidades e igualdad de precisión. Nos centraremos en su aplicación en cuanto a tareas de clasificación. Cada uno de ellos se puede interpretar de la siguiente manera:

  • Paridad demográfica: las predicciones de nuestro algoritmo de inteligencia artificial son independientes de la característica sensible A, es decir, la misma proporción de cada subgrupo se clasifica como positiva. Formalmente, verificamos si el valor positivo predictivo entre los subgrupos es igual.
  • Igualdad de oportunidades: las predicciones positivas de nuestro algoritmo de IA aparecen a tasas iguales entre los subgrupos de la característica sensible A, es decir, la misma proporción de cada subgrupo de candidatos verdaderamente positivos se clasifica como positiva. Formalmente, verificamos si la Tasa de Verdaderos Positivos (o Recuperación) entre los subgrupos es igual.
  • Igual precisión: las predicciones correctas de nuestro algoritmo de inteligencia artificial (positivas y negativas tomadas juntas) aparecen a tasas iguales entre los subgrupos de la característica sensible A, es decir, somos igualmente buenos para clasificar cada subgrupo. Formalmente, verificamos si la Precisión entre los subgrupos es igual.

Usaremos un ejemplo simplificado de un sistema de inteligencia artificial que clasifica a los solicitantes de empleo como “contratables” o no. En esa medida, asumimos que no queremos utilizar información de género al tomar una decisión de contratación, es decir, no queremos que el sexo de un solicitante sea un factor en nuestra toma de decisiones. Empecemos:

Reconocemos de inmediato que simplemente excluir el sexo de un candidato es una solución inadecuada. En pocas palabras, debido a las variables proxy (por ejemplo, escuelas de asistencia, membresías de clubes sociales, etc.) podríamos inferir eso fácilmente.

Es posible que deseemos asegurarnos de satisfacer la paridad demográfica. Si el 20% de nuestros candidatos son mujeres, entonces el 20% de las nuevas contrataciones deberían ser mujeres. Pero uno puede objetar, ya que podemos elegir candidatos al azar y ¡seguiremos satisfaciendo la paridad demográfica!

Es posible que deseemos asegurarnos de satisfacer la igualdad de oportunidades. Si el 30% de nuestros candidatos contratantes son mujeres, entonces el 30% de las nuevas contrataciones deberían ser mujeres. ¡Pero uno puede objetar ya que todavía podemos rechazar a la mayoría de las mujeres candidatas y aún así satisfacer la igualdad de oportunidades!

Es posible que deseemos asegurarnos de que cumplimos con la misma precisión. Si nuestra precisión de clasificación para las mujeres candidatas es del 70%, entonces debería ser la misma con otros géneros de candidatos. Pero uno puede objetar, ya que todavía podemos rechazar a la mayoría de las mujeres candidatas (tanto en términos de paridad demográfica como de igualdad de oportunidades) y seguir cumpliendo con la misma precisión.

¡Y todos estos resultados ni siquiera tocan los posibles sesgos reflejados en los datos de capacitación, donde las mujeres pueden parecer menos “enfocadas en la carrera” que los hombres!

Entonces, ¿existe alguna solución universal de equidad de IA? No. El veredicto sobre esta cuestión ya está aquí (ver Kleinberg et al. (2016) para este importante resultado que muestra que “las nociones clave de justicia son incompatibles entre sí”) pero eso no significa que los sistemas de IA justos sean inalcanzables. Significa que la IA, al igual que sus creadores, es un marco imperfecto que debe sintonizarse y entrenarse para una tarea en particular. La equidad en las admisiones universitarias y en la identificación facial no se refiere al mismo concepto. Debemos aceptar que necesitamos hacer concesiones informadas entre diferentes métricas de equidad y ser responsables de ellas.

Para concluir, es igualmente fácil dejarse llevar por una falsa sensación de seguridad o entrar en pánico por el impacto social de un sistema de inteligencia artificial. No debería ser así y no tiene por qué ser así. Para obtener un enfoque informado, experimentado y actual de su solución de IA y sus implicaciones de equidad, comuníquese conmigo aquí.

A través de nuestro gremio de inteligencia artificial ética de Capgemini, brindas orientación sobre cuestiones y prácticas éticas. El gremio, formado por practicantes de IA con experiencia, busca acelerar los viajes de nuestros clientes hacia aplicaciones éticas de IA que beneficien a todos.

Hablemos más sobre el tema

Nos encantaría reunirnos contigo para brindarte más información sobre nuestras soluciones de IA a la medida de tu organización. Escribe a connect.mx@capgemini.com para programar una sesión con uno de nuestros expertos.