Himabindu " Hima " Lakkaraju es un informático indio-estadounidense que trabaja en aprendizaje automático , inteligencia artificial , sesgo algorítmico y responsabilidad de la IA . Actualmente es profesora adjunta en la Escuela de Negocios de Harvard y también está afiliada al Departamento de Ciencias de la Computación de la Universidad de Harvard . Lakkaraju es conocida por su trabajo sobre aprendizaje automático explicable . En términos más generales, su investigación se centra en el desarrollo de modelos y algoritmos de aprendizaje automático que sean interpretables, transparentes, justos y confiables. También investiga las implicaciones prácticas y éticas de implementar modelos de aprendizaje automático en dominios que involucran decisiones de alto riesgo como la atención médica, la justicia penal , los negocios y la educación . Lakkaraju fue nombrado uno de los principales innovadores menores de 35 años del mundo tanto por Vanity Fair como por MIT Technology Review .
También es conocida por sus esfuerzos para hacer que el campo del aprendizaje automático sea más accesible para el público en general. Lakkaraju cofundó la Trustworthy ML Initiative (TrustML) para reducir las barreras de entrada y promover la investigación sobre la interpretabilidad, la equidad , la privacidad y la solidez de los modelos de aprendizaje automático. [1] También ha desarrollado varios tutoriales [2] [3] [4] [5] y un curso completo sobre el tema del aprendizaje automático explicable . [6]
Lakkaraju obtuvo una maestría en informática del Instituto Indio de Ciencias de Bangalore. Como parte de su tesis de maestría, trabajó en modelos gráficos probabilísticos y desarrolló modelos temáticos semisupervisados que pueden usarse para extraer automáticamente opiniones y conceptos de las opiniones de los clientes. [7] [8] Este trabajo fue publicado en la Conferencia Internacional SIAM sobre Minería de Datos y ganó el Premio al Mejor Trabajo de Investigación en la conferencia. [9]
Luego pasó dos años como ingeniera de investigación en IBM Research, India, en Bangalore, antes de trasladarse a la Universidad de Stanford para realizar su doctorado en informática. Su tesis doctoral fue dirigida por Jure Leskovec . También colaboró con Jon Kleinberg , Cynthia Rudin y Sendhil Mullainathan durante su doctorado. Su investigación doctoral se centró en el desarrollo de modelos de aprendizaje automático interpretables y justos que puedan complementar la toma de decisiones humanas en ámbitos como la atención sanitaria, la justicia penal y la educación. [10] Este trabajo recibió la Beca de Disertación de Investigación de Microsoft [11] y el premio INFORMS al Mejor Trabajo de Minería de Datos. [12]
Durante su doctorado, Lakkaraju pasó un verano trabajando como investigadora en el programa Data Science for Social Good de la Universidad de Chicago . Como parte de este programa, colaboró con Rayid Ghani para desarrollar modelos de aprendizaje automático que puedan identificar estudiantes en riesgo y también prescribir intervenciones apropiadas. Esta investigación fue aprovechada por escuelas del condado de Montgomery, Maryland . [13] Lakkaraju también trabajó como pasante de investigación e investigadora visitante en Microsoft Research , Redmond durante su doctorado. Colaboró con Eric Horvitz en Microsoft Research para desarrollar algoritmos humanos en el circuito para identificar puntos ciegos de modelos de aprendizaje automático. [14]
La investigación doctoral de Lakkaraju se centró en desarrollar y evaluar modelos predictivos interpretables, transparentes y justos que puedan ayudar a quienes toman decisiones humanas (por ejemplo, médicos, jueces) en ámbitos como la atención sanitaria, la justicia penal y la educación. [10] Como parte de su tesis doctoral, desarrolló algoritmos para construir automáticamente reglas interpretables para la clasificación [15] y otras decisiones complejas que implican compensaciones. [16] Lakkaraju y sus coautores también destacaron los desafíos asociados con la evaluación de modelos predictivos en entornos en los que faltan contrafactuales y factores de confusión no medidos , y desarrollaron nuevos marcos computacionales para abordar estos desafíos. [17] [18] Fue coautora de un estudio que demostró que cuando se utilizan modelos de aprendizaje automático para ayudar a tomar decisiones sobre la libertad bajo fianza, pueden ayudar a reducir las tasas de criminalidad hasta en un 24,8% sin exacerbar las disparidades raciales. [18] [19]
Lakkaraju se unió a la Universidad de Harvard como investigadora postdoctoral en 2018 y luego se convirtió en profesora asistente en la Escuela de Negocios de Harvard y en el Departamento de Ciencias de la Computación de la Universidad de Harvard en 2020. [20] [21] En los últimos años, ha sido pionera Trabajar en el área del aprendizaje automático explicable . Inició el estudio de explicaciones post hoc adaptativas e interactivas [22] [23] que pueden usarse para explicar el comportamiento de modelos complejos de aprendizaje automático de una manera que se adapte a las preferencias del usuario. [24] [25] Ella y sus colaboradores también hicieron uno de los primeros intentos de identificar y formalizar las vulnerabilidades de los métodos populares de explicación post hoc. [26] Demostraron cómo los adversarios pueden jugar con métodos de explicación populares y provocar explicaciones que ocultan sesgos indeseables (por ejemplo, sesgos raciales o de género) de los modelos subyacentes. Lakkaraju también fue coautor de un estudio que demostró que es posible que los expertos en el dominio no siempre interpreten correctamente las explicaciones post hoc, y que los adversarios podrían explotar las explicaciones post hoc para manipular a los expertos para que confíen y desplieguen modelos sesgados. [27]
También trabajó para mejorar la confiabilidad de los métodos de explicación. Ella y sus colaboradores desarrollaron teorías [28] y métodos [29] [30] novedosos para analizar y mejorar la solidez de diferentes clases de métodos de explicación post hoc proponiendo un marco teórico unificado y estableciendo las primeras conexiones conocidas entre explicabilidad y entrenamiento adversario . Lakkaraju también ha realizado importantes contribuciones de investigación al campo del recurso algorítmico. Ella y sus coautores desarrollaron uno de los primeros métodos que permite a los tomadores de decisiones examinar minuciosamente los modelos predictivos para garantizar que el recurso proporcionado sea significativo y no discriminatorio. [25] Su investigación también ha puesto de relieve fallos críticos en varios enfoques populares en la literatura sobre el recurso algorítmico. [31]
En 2020, Lakkaraju cofundó la Trustworthy ML Initiative (TrustML) para democratizar y promover la investigación en el campo del aprendizaje automático confiable, que abarca en términos generales la interpretabilidad, la equidad, la privacidad y la solidez de los modelos de aprendizaje automático. [1] Esta iniciativa tiene como objetivo permitir un fácil acceso a recursos fundamentales para los recién llegados en el campo, proporcionar una plataforma para que los investigadores que inician su carrera muestren su trabajo y, de manera más amplia, desarrollar una comunidad de investigadores y profesionales que trabajen en temas relacionados con el aprendizaje automático confiable.
Lakkaraju ha desarrollado varios tutoriales [2] [3] [4] [5] y un curso completo sobre aprendizaje automático explicable [6] como parte de esta iniciativa.
Un curso sobre "Interpretabilidad y Explicabilidad en Machine Learning", 2019
Tutorial de la conferencia NeurIPS sobre "Explicación de las predicciones del aprendizaje automático: estado del arte, desafíos y oportunidades ", 2020
Tutorial de la conferencia AAAI sobre "Explicación de las predicciones del aprendizaje automático: estado del arte, desafíos y oportunidades", 2021
Tutorial de la conferencia CHIL sobre "ML explicable: comprender los límites y superar los límites", 2021