stringtranslate.com

Himabindu Lakkaraju

Himabindu " Hima " Lakkaraju es un informático indio-estadounidense que trabaja en aprendizaje automático , inteligencia artificial , sesgo algorítmico y responsabilidad de la IA . Actualmente es profesora adjunta en la Escuela de Negocios de Harvard y también está afiliada al Departamento de Ciencias de la Computación de la Universidad de Harvard . Lakkaraju es conocida por su trabajo sobre aprendizaje automático explicable . En términos más generales, su investigación se centra en el desarrollo de modelos y algoritmos de aprendizaje automático que sean interpretables, transparentes, justos y confiables. También investiga las implicaciones prácticas y éticas de implementar modelos de aprendizaje automático en dominios que involucran decisiones de alto riesgo como la atención médica, la justicia penal , los negocios y la educación . Lakkaraju fue nombrado uno de los principales innovadores menores de 35 años del mundo tanto por Vanity Fair como por MIT Technology Review .

También es conocida por sus esfuerzos para hacer que el campo del aprendizaje automático sea más accesible para el público en general. Lakkaraju cofundó la Trustworthy ML Initiative (TrustML) para reducir las barreras de entrada y promover la investigación sobre la interpretabilidad, la equidad , la privacidad y la solidez de los modelos de aprendizaje automático. [1] También ha desarrollado varios tutoriales [2] [3] [4] [5] y un curso completo sobre el tema del aprendizaje automático explicable . [6]

Temprana edad y educación

Lakkaraju obtuvo una maestría en informática del Instituto Indio de Ciencias de Bangalore. Como parte de su tesis de maestría, trabajó en modelos gráficos probabilísticos y desarrolló modelos temáticos semisupervisados ​​que pueden usarse para extraer automáticamente opiniones y conceptos de las opiniones de los clientes. [7] [8] Este trabajo fue publicado en la Conferencia Internacional SIAM sobre Minería de Datos y ganó el Premio al Mejor Trabajo de Investigación en la conferencia. [9]

Luego pasó dos años como ingeniera de investigación en IBM Research, India, en Bangalore, antes de trasladarse a la Universidad de Stanford para realizar su doctorado en informática. Su tesis doctoral fue dirigida por Jure Leskovec . También colaboró ​​con Jon Kleinberg , Cynthia Rudin y Sendhil Mullainathan durante su doctorado. Su investigación doctoral se centró en el desarrollo de modelos de aprendizaje automático interpretables y justos que puedan complementar la toma de decisiones humanas en ámbitos como la atención sanitaria, la justicia penal y la educación. [10] Este trabajo recibió la Beca de Disertación de Investigación de Microsoft [11] y el premio INFORMS al Mejor Trabajo de Minería de Datos. [12]

Durante su doctorado, Lakkaraju pasó un verano trabajando como investigadora en el programa Data Science for Social Good de la Universidad de Chicago . Como parte de este programa, colaboró ​​con Rayid Ghani para desarrollar modelos de aprendizaje automático que puedan identificar estudiantes en riesgo y también prescribir intervenciones apropiadas. Esta investigación fue aprovechada por escuelas del condado de Montgomery, Maryland . [13] Lakkaraju también trabajó como pasante de investigación e investigadora visitante en Microsoft Research , Redmond durante su doctorado. Colaboró ​​con Eric Horvitz en Microsoft Research para desarrollar algoritmos humanos en el circuito para identificar puntos ciegos de modelos de aprendizaje automático. [14]

Investigación y carrera

La investigación doctoral de Lakkaraju se centró en desarrollar y evaluar modelos predictivos interpretables, transparentes y justos que puedan ayudar a quienes toman decisiones humanas (por ejemplo, médicos, jueces) en ámbitos como la atención sanitaria, la justicia penal y la educación. [10] Como parte de su tesis doctoral, desarrolló algoritmos para construir automáticamente reglas interpretables para la clasificación [15] y otras decisiones complejas que implican compensaciones. [16] Lakkaraju y sus coautores también destacaron los desafíos asociados con la evaluación de modelos predictivos en entornos en los que faltan contrafactuales y factores de confusión no medidos , y desarrollaron nuevos marcos computacionales para abordar estos desafíos. [17] [18] Fue coautora de un estudio que demostró que cuando se utilizan modelos de aprendizaje automático para ayudar a tomar decisiones sobre la libertad bajo fianza, pueden ayudar a reducir las tasas de criminalidad hasta en un 24,8% sin exacerbar las disparidades raciales. [18] [19]

Lakkaraju se unió a la Universidad de Harvard como investigadora postdoctoral en 2018 y luego se convirtió en profesora asistente en la Escuela de Negocios de Harvard y en el Departamento de Ciencias de la Computación de la Universidad de Harvard en 2020. [20] [21] En los últimos años, ha sido pionera Trabajar en el área del aprendizaje automático explicable . Inició el estudio de explicaciones post hoc adaptativas e interactivas [22] [23] que pueden usarse para explicar el comportamiento de modelos complejos de aprendizaje automático de una manera que se adapte a las preferencias del usuario. [24] [25] Ella y sus colaboradores también hicieron uno de los primeros intentos de identificar y formalizar las vulnerabilidades de los métodos populares de explicación post hoc. [26] Demostraron cómo los adversarios pueden jugar con métodos de explicación populares y provocar explicaciones que ocultan sesgos indeseables (por ejemplo, sesgos raciales o de género) de los modelos subyacentes. Lakkaraju también fue coautor de un estudio que demostró que es posible que los expertos en el dominio no siempre interpreten correctamente las explicaciones post hoc, y que los adversarios podrían explotar las explicaciones post hoc para manipular a los expertos para que confíen y desplieguen modelos sesgados. [27]

También trabajó para mejorar la confiabilidad de los métodos de explicación. Ella y sus colaboradores desarrollaron teorías [28] y métodos [29] [30] novedosos para analizar y mejorar la solidez de diferentes clases de métodos de explicación post hoc proponiendo un marco teórico unificado y estableciendo las primeras conexiones conocidas entre explicabilidad y entrenamiento adversario . Lakkaraju también ha realizado importantes contribuciones de investigación al campo del recurso algorítmico. Ella y sus coautores desarrollaron uno de los primeros métodos que permite a los tomadores de decisiones examinar minuciosamente los modelos predictivos para garantizar que el recurso proporcionado sea significativo y no discriminatorio. [25] Su investigación también ha puesto de relieve fallos críticos en varios enfoques populares en la literatura sobre el recurso algorítmico. [31]

Iniciativa de aprendizaje automático confiable (TrustML)

En 2020, Lakkaraju cofundó la Trustworthy ML Initiative (TrustML) para democratizar y promover la investigación en el campo del aprendizaje automático confiable, que abarca en términos generales la interpretabilidad, la equidad, la privacidad y la solidez de los modelos de aprendizaje automático. [1] Esta iniciativa tiene como objetivo permitir un fácil acceso a recursos fundamentales para los recién llegados en el campo, proporcionar una plataforma para que los investigadores que inician su carrera muestren su trabajo y, de manera más amplia, desarrollar una comunidad de investigadores y profesionales que trabajen en temas relacionados con el aprendizaje automático confiable.

Lakkaraju ha desarrollado varios tutoriales [2] [3] [4] [5] y un curso completo sobre aprendizaje automático explicable [6] como parte de esta iniciativa.

Premios y honores

enlaces externos

Un curso sobre "Interpretabilidad y Explicabilidad en Machine Learning", 2019

Tutorial de la conferencia NeurIPS sobre "Explicación de las predicciones del aprendizaje automático: estado del arte, desafíos y oportunidades ", 2020

Tutorial de la conferencia AAAI sobre "Explicación de las predicciones del aprendizaje automático: estado del arte, desafíos y oportunidades", 2021

Tutorial de la conferencia CHIL sobre "ML explicable: comprender los límites y superar los límites", 2021

Publicaciones Seleccionadas

Referencias

  1. ^ ab "ML confiable". www.trustworthyml.org . Consultado el 26 de abril de 2021 .
  2. ^ ab "Tutorial de NeurIPS 2020 sobre aprendizaje automático explicable".
  3. ^ ab "Tutorial AAAI 2021 sobre aprendizaje automático explicable".
  4. ^ ab "Tutorial FAccT 2021 sobre aprendizaje automático explicable en la naturaleza".
  5. ^ ab "Tutorial de la Conferencia CHIL 2021 sobre los límites del aprendizaje automático explicable".
  6. ^ ab "Un curso sobre interpretabilidad y explicabilidad en ML".
  7. ^ Lakkaraju, Himabindu; Bhattacharyya, Chiranjib; Bhattacharya, Indrajit; Merugu, Srujana (2011). "Explotación de la coherencia para el descubrimiento simultáneo de facetas latentes y sentimientos asociados" (PDF) . Actas de la Conferencia Internacional SIAM 2011 sobre Minería de Datos (PDF) . págs. 498–509. doi :10.1137/1.9781611972818.43. ISBN 978-0-89871-992-5. S2CID  632401.
  8. ^ "Instituto Indio de Ciencias" . Consultado el 26 de abril de 2021 .
  9. ^ "Premio SIAM SDM al Mejor Artículo".
  10. ^ ab "Aprendizaje automático centrado en el ser humano: habilitación del aprendizaje automático para la toma de decisiones de alto riesgo | Ciencias de la Computación". cse.ucsd.edu . Consultado el 26 de abril de 2021 .
  11. ^ ab "Ganadores de la beca de tesis de investigación de Microsoft". Microsoft . 27 de junio de 2017.
  12. ^ ab "Curriculum Vitae, Lakkaraju" (PDF) .
  13. ^ "Himabindu Lakkaraju". Revisión de tecnología del MIT . Consultado el 26 de abril de 2021 .
  14. ^ Lakkaraju, Himabindu; Kamar, Ece; Caruana, Rico; Horvitz, Eric (2016). "Identificación de incógnitas desconocidas en el mundo abierto: representaciones y políticas para la exploración guiada". Conferencia AAAI sobre Inteligencia Artificial : 2124-2132. arXiv : 1610.09064 .
  15. ^ Lakkaraju, Himabindu; Bach, Stephen H.; Leskovec, Jure (1 de agosto de 2016). "Conjuntos de decisiones interpretables: un marco conjunto para la descripción y la predicción". Actas de la 22ª Conferencia Internacional ACM SIGKDD sobre Descubrimiento de Conocimiento y Minería de Datos . vol. 2016. págs. 1675-1684. doi :10.1145/2939672.2939874. ISBN 9781450342322. PMC  5108651 . PMID  27853627.
  16. ^ "Aprendizaje de regímenes de tratamiento interpretables y rentables" (PDF) . Congreso Internacional sobre Inteligencia Artificial y Estadística (AISTATS) .
  17. ^ Lakkaraju, H.; Kleinberg, J.; Leskovec, J.; Luis, J.; Mullainathan, S. (2017). "El problema de las etiquetas selectivas: evaluación de predicciones algorítmicas en presencia de no observables". Actas de la 23ª Conferencia Internacional ACM SIGKDD sobre Descubrimiento de Conocimiento y Minería de Datos . vol. 2017, págs. 275–284. doi :10.1145/3097983.3098066. ISBN 9781450348874. PMC  5958915 . PMID  29780658.
  18. ^ ab Kleinberg, Jon Michael; Lakkaraju, Himabindu; Leskovec, Jure; Luis, Jens; Mullainathan, Sendhil (1 de febrero de 2017). "Decisiones humanas y predicciones de máquinas". La revista trimestral de economía . Serie de documentos de trabajo de la Oficina Nacional de Investigación Económica. 133 (1): 237–293. doi : 10.3386/W23180 . PMC 5947971 . PMID  29755141. 
  19. ^ "Declaración de investigación - Lakkaraju" (PDF) .
  20. ^ "Himabindu Lakkaraju; PROFESOR ADJUNTO DE ADMINISTRACIÓN DE EMPRESAS". Escuela de Negocios de Harvard . Consultado el 26 de abril de 2021 .
  21. ^ "SEAS Harvard - Lakkaraju".
  22. ^ ab "La Fundación Nacional de Ciencias, en colaboración con Amazon, otorga 11 proyectos de subvenciones de Equidad en la IA". Ciencia Amazónica . 10 de febrero de 2021 . Consultado el 26 de abril de 2021 .
  23. ^ "Búsqueda de premios NSF: Premio n.° 2040989 - FAI: hacia explicaciones post hoc interactivas y adaptativas". www.nsf.gov . Consultado el 26 de abril de 2021 .
  24. ^ Lakkaraju, Himabindu; Kamar, Ece; Caruana, Rico; Leskovec, Jure (2019). "Explicaciones fieles y personalizables de los modelos de caja negra". Actas de la Conferencia AAAI/ACM de 2019 sobre IA, ética y sociedad . vol. 2020. págs. 131-138. doi : 10.1145/3306618.3314229 . ISBN 9781450363242. S2CID  84839090.
  25. ^ ab Rawal, Kaivalya; Lakkaraju, Himabindu (2020). "Más allá del recurso individualizado: resúmenes interpretables e interactivos de recursos procesables" (PDF) . Avances en los sistemas de procesamiento de información neuronal . 2020 . arXiv : 2009.07165 .
  26. ^ Flojo, Dylan; Hilgard, Sofía; Jia, Emily; Singh, Sameer; Lakkaraju, Himabindu (7 de febrero de 2020). "Engañando a LIME y SHAP". Actas de la Conferencia AAAI/ACM sobre IA, ética y sociedad . vol. 2019. págs. 180–186. doi : 10.1145/3375627.3375830 . ISBN 9781450371100. S2CID  211041098.
  27. ^ Lakkaraju, Himabindu; Bastani, Osbert (7 de febrero de 2020). ""¿Cómo puedo engañarte?"". Actas de la Conferencia AAAI/ACM sobre IA, ética y sociedad . págs. 79–85. doi : 10.1145/3375627.3375833 . ISBN 9781450371100. S2CID  208077044.
  28. ^ Agarwal, Sushant; Jabbari, Shahin; Agarwal, Chirag; Upadhyay, Sohini; Zhiwei Steven Wu; Lakkaraju, Himabindu (2021). "Hacia la unificación y robustez de las explicaciones basadas en perturbaciones y gradientes". Congreso Internacional sobre Aprendizaje Automático . 2021 . arXiv : 2102.10618 .
  29. ^ Lakkaraju, Himabindu; Arsov, Nino; Bastani, Osbert (2020). "Explicaciones de la caja negra robustas y estables". Congreso Internacional sobre Aprendizaje Automático . 2020 . arXiv : 2011.06169 .
  30. ^ Flojo, Dylan; Hilgard, Sofía; Singh, Sameer; Lakkaraju, Himabindu (2020). "¿Cuánto debería confiar en usted? Modelado de la incertidumbre de las explicaciones de la caja negra". arXiv : 2008.05030 [cs.LG].
  31. ^ Rawal, Kaivalya; Kamar, Ece; Lakkaraju, Himabindu (2020). "Comprensión del impacto de los cambios de distribución en los recursos algorítmicos". arXiv : 2012.11788 [cs.LG].
  32. ^ "Se anunciaron los ganadores de los premios de investigación de Amazon 2020". 27 de abril de 2021.
  33. ^ "Conozca a los innovadores menores de 35 años - MIT Technology Review". Eventos de revisión de tecnología del MIT . Consultado el 26 de abril de 2021 .
  34. Feria, Vanidad (3 de octubre de 2019). "El índice de futuros innovadores 2019". Feria de la vanidad . Consultado el 26 de abril de 2021 .
  35. ^ axsdeny. "ACERCA DE | Estrellas en ascenso en EECS: 2016" . Consultado el 26 de abril de 2021 .