La próxima semana, la compañía de servicios profesionales de Accenture lanzará una nueva herramienta para ayudar a sus clientes a identificar y corregir los sesgos injustos en los algoritmos de inteligencia artificial. La idea es capturar la discriminación antes de que se convierta en un modelo y pueda causar daños humanos a gran escala.
El "AI Equity Facility", como se describe, es una pieza de un paquete más amplio que la consultora recientemente comenzó a ofrecer a los clientes sobre transparencia y ética para implementaciones de aprendizaje automático, mientras empuja empresas para adoptar e implementar la IA. ( Entonces, la intención, al menos, se puede resumir como: "Muévete rápido y no rompes cosas" o, en un lenguaje corporativo muy condensado: "Ética ágil".)
"La mayor parte del último el año se ha gastado … entendiendo este reino de la ética y la inteligencia artificial y realmente educándonos a nosotros mismos, y siento que 2018 se ha convertido realmente en el año del hacer, el 39, el año en el que nos movemos más allá de la señal de la virtud y avanzamos hacia la creación y el desarrollo actuales " afirma Rumman Chowdhury, jefe de la AI responsable de Accenture, quien se convirtió en parte de la compañía cuando se creó el rol, en enero de 2017.
"Para muchos de nosotros, especialmente para aquellos de nosotros que estamos en este espacio todo el tiempo, estamos cansados de hablar solo de eso – queremos comenzar a construir y resolver problemas, y es precisamente esto lo que ha inspirado este instrumento de equidad. "
Chowdhury dice que Accenture s ta definir equidad para este propósito como "resultados iguales para diferentes personas".
"No hay un algoritmo perfecto", dice. "Sabemos que a veces los modelos serán incorrectos. Consideramos que es injusto si existen diferentes grados de error … para diferentes personas, según las características que no deberían afectar los resultados".
Espera que el instrumento tenga un & # 39; amplia aplicación y utilidad en diferentes sectores y mercados, lo que sugiere que los primeros en adoptar probablemente sean los de los sectores más fuertemente regulados, como los servicios financieros y la atención médica, donde "la inteligencia artificial puede tener un gran potencial". pero tiene un impacto humano muy grande ".
"Estamos presenciando un enfoque creciente en los sesgos algorítmicos, la justicia La semana pasada vimos a Singapur anunciar una comisión de ética de la AI, Corea anuncia un comité de ética de la IA En los Estados Unidos ya tenemos una industria que crea diferentes grupos, como The Partnership on AI. Google acaba de publicar sus directrices éticas … Así que creo que los líderes de la industria, así como las compañías que no son de tecnología, buscan una guía. Están buscando estándares y protocolos y algo para unirse porque quieren saber que están seguros al crear productos.
"No es una tarea fácil pensar en estas cosas. No todas las organizaciones o empresas tienen los recursos para. Entonces, ¿cómo podríamos habilitarlo mejor? A través de una buena legislación, permitiendo la confianza, la comunicación. Y también a través del desarrollo de este tipo de herramientas para ayudar en el largo proceso. "
La herramienta, que utiliza métodos estadísticos para evaluar los modelos de inteligencia artificial, se centra en un tipo de problema de sesgo IA que es" cuantificable y medible ". En particular, tiene como objetivo ayudar a las empresas a evaluar los conjuntos de datos que se alimentan de los modelos IA para identificar los sesgos relacionados con las variables sensibles y el curso correcto para ellos, ya que también es capaz de ajustar los modelos para igualar el impacto. [19659004] además, la herramienta examina "la influencia de los datos" de las variables sensibles (edad, sexo, raza, etc.) en otras variables de un modelo, midiendo la cantidad de una correlación entre las variables para ver si están distorsionando la modelo y sus resultados
Puede luego eliminar el impacto de variables sensibles, dejando solo el impacto residual, por ejemplo, que la "probabilidad de poseer una casa" tendría en una salida de modelo, en cambio que la salida d era desde la edad y probable que sea dueño de una casa y, por lo tanto, arriesga las decisiones tomadas por ciertos grupos de edad.
" Hay dos partes para tener variables confidenciales como la edad, la raza, el sexo, el origen étnico, etc. para determinar o guiar los resultados. Por lo tanto, la primera parte de Nuestra herramienta nos permite identificar qué variables en el conjunto de datos potencialmente confidenciales afectan a otras variables ", explica. "No es tan fácil como decir: no incluya la edad en el algoritmo y eso está bien porque la edad está muy relacionada con cosas como la cantidad de hijos que tiene o la probabilidad de ser Entonces tenemos que eliminar el impacto que tiene la variable sensible en otras variables que consideramos no sensibles y necesarias para desarrollar un buen algoritmo ".
Chowdhury cita un ejemplo en los Estados Unidos, donde los algoritmos utilizado para determinar los resultados de las palabras era menos probable que fuera incorrecto para los hombres blancos que para los negros. "Ha sido injusto", dice. "A la gente se le ha negado la libertad condicional, a la que se debería haber otorgado la libertad condicional, y sucedió más a menudo para los negros que para los blancos, y este es el tipo de justicia que estamos viendo. oportunidad. "
Sin embargo, una peculiaridad de los algoritmos de inteligencia artificial es que cuando los modelos son corregidos por sesgos injustos, puede haber una reducción en su precisión . Entonces, la herramienta también calcula la precisión de cualquier compensación para mostrar si la mejora de la equidad del modelo lo hará menos preciso y en qué medida.
U sers obtiene un antes y después de la visualización de posibles errores de corrección. Y esencialmente puede elegir establecer su propia "barra ética" basada en la precisión con respecto a la precisión, utilizando una barra de alternar en la plataforma, suponiendo que es conveniente comprometer la primera para la última (y, de hecho, para cómodo con cualquier riesgo legal asociado si eligen activamente un compromiso obviamente injusto).
En Europa, por ejemplo, existen reglas que requieren que los procesadores de datos eviten los errores, los prejuicios y la discriminación en las decisiones automatizadas. También se les puede solicitar que proporcionen a los individuos información sobre la lógica de una decisión automatizada que los influye. Por lo tanto, elegir activamente un modelo de decisión que sea manifiestamente injusto podría alentar muchos riesgos legales.
Aunque Chowdhury admite que hay un costo exacto para corregir la lesión en un modelo de IA, ella afirma que las compensaciones pueden "variar enormemente". "Puede ser que su modelo sea increíblemente injusto y corregirlo para que sea mucho más justo no tendrá ningún impacto en su modelo … tal vez 1% o 2% [accuracy]. Así que no es un En otros casos, es posible que vea un cambio mayor en la precisión del modelo. "
También dice que es posible que la herramienta pueda plantear preguntas sustanciales para los usuarios sobre la oportunidad de un conjunto completo de datos, esencialmente mostrando que el conjunto de datos es "simplemente inadecuado para sus necesidades".
"Si ve un gran cambio en la precisión de su modelo, probablemente signifique que hay algo mal con sus datos, y es posible que tenga que volver atrás y mirar sus datos", dice. "Así que incluso si esta herramienta ayuda a corregir lo que es parte de este proceso más amplio, donde es posible que tenga que volver atrás y obtener datos nuevos, obtenga datos diferentes". Lo que hace esta herramienta es resaltar esa necesidad de una manera eso es fácil de entender.
"Anteriormente las personas no tenían la capacidad de visualizar y comprender que sus datos pueden no ser adecuados para lo que están tratando de resolver. "
Agrega:" Podrían ser datos que usó por un tiempo. Y en realidad podría inducir a las personas a reexaminar sus datos, tal como se modela, ya que las influencias de la sociedad influyen en los resultados. Es una especie de belleza de la inteligencia artificial como una especie de observador subjetivo de la humanidad. "
Mientras que los gigantes de la tecnología pueden haber desarrollado sus herramientas internas para evaluar la neutralidad de sus algoritmos de inteligencia artificial, Facebook llamó a Fairness Flow, por ejemplo: Chowdhury afirma que la mayoría de las empresas no tecnológico no podrá desarrollar sus herramientas sofisticadas para evaluar la distorsión algorítmica
Aquí es donde Accenture espera intervenir con un servicio de soporte, y que también integra los marcos éticos y los kits de herramientas en el ciclo de vida del desarrollo del producto, luego la I + D sigue siendo lo más ágil posible.
"Una de las preguntas que siempre he tenido que enfrentar es cómo integrar el comportamiento ético en la forma en que se alinea con la innovación rápida. Entonces, todas las empresas realmente adoptan esta idea de innovación y desarrollo ágil, etc. La gente habla mucho sobre procesos iterativos durante tres a seis meses. Entonces no puedo ingresar con un proceso ético que demora tres meses. Así que parte de uno de mis límites es cómo crear algo que sea fácil de integrar en este ciclo de vida de la innovación. "
Un inconveniente específico es que en la actualidad la herramienta no ha sido probada trabajando en diferentes tipos de modelos IA. Chowdhury dice que se probó principalmente en modelos que usan clasificación para agrupar personas con el propósito de construir modelos. de inteligencia artificial, por lo que puede no ser adecuado para otros tipos. (Aunque usted dice que el próximo paso será probarlo para " otros tipos de modelos de uso común".)
De manera más general, dice que el desafío es que muchas empresas esperan una tecnología mágica del "botón", todo para el sesgo algorítmico, que obviamente simplemente no existe y no existirá
"Yo f hay casi un exceso de mercado en el mercado para un solución técnica a todos sus problemas … y este no es el caso en el que la tecnología lo resolverá todo ", Avverte. " La tecnología sin duda puede ayudar, pero parte de esto es hacer que la generación esta es una herramienta informativa, le ayudará, pero no resolverá todos sus problemas por usted ".
La herramienta fue co-prototipo con la ayuda de un grupo de estudio de datos en el Alan Turing Institute del Reino Unido, utilizando conjuntos de datos disponibles públicamente.
Durante la creación de prototipos, cuando los investigadores utilizaron un conjunto de datos alemanes sobre puntuaciones de riesgo de crédito Chowdhury declara que el equipo se dio cuenta de que la nacionalidad estaba influyendo en muchas otras variables. Y para los resultados del riesgo de crédito descubrieron que las decisiones tenían más probabilidades de ser incorrectas para los ciudadanos no alemanes.
Luego usaron la herramienta para ecualizar el resultado y encontraron que no tuvo un impacto significativo en la precisión del modelo. "Por lo tanto, al final tiene un modelo tan preciso como los modelos anteriores para determinar si alguien era un riesgo de crédito, pero confiamos en que nuestra nacionalidad no tuvo influencia indebida en ese resultado. "
Un artículo sobre la creación de prototipos del instrumento estará a disposición del público antes de fin de año, agrega.