Investigador estadounidense en aprendizaje automático
Dan Hendrycks (nacido en 1994 o 1995 [1] ) es un investigador estadounidense en el campo del aprendizaje automático . Se desempeña como director del Centro para la Seguridad de la IA .
Vida temprana y educación
Hendrycks se crió en un hogar cristiano evangélico en Marshfield, Missouri . [2] [3] Recibió una licenciatura de la Universidad de Chicago en 2018 y un doctorado de la Universidad de California, Berkeley en Ciencias de la Computación en 2022. [4]
Carrera e investigación
La investigación de Hendrycks se centra en temas que incluyen la seguridad del aprendizaje automático , la ética de las máquinas y la solidez.
Él atribuye su participación en el programa 80,000 Hours , vinculado al movimiento de altruismo efectivo (EA) , por el enfoque de su carrera hacia la seguridad de la IA, aunque negó ser un defensor del EA. [2]
En febrero de 2022, Hendrycks fue coautor de recomendaciones para el Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU. para informar la gestión de los riesgos de la inteligencia artificial . [5] [6]
En septiembre de 2022, Hendrycks escribió un artículo que proporcionaba un marco para analizar el impacto de la investigación de IA en los riesgos sociales. [7] [8] Más tarde, en marzo de 2023, publicó un artículo que examinaba cómo la selección natural y las presiones competitivas podrían dar forma a los objetivos de los agentes artificiales . [9] [10] [11] A esto le siguió "Una descripción general de los riesgos catastróficos de la IA", que analiza cuatro categorías de riesgos: uso malintencionado, dinámica de la carrera de la IA, riesgos organizacionales y agentes de IA deshonestos. [12] [13]
Hendrycks es el asesor de seguridad de xAI , una empresa emergente de inteligencia artificial fundada por Elon Musk en 2023. Para evitar posibles conflictos de intereses, recibe un salario simbólico de un dólar y no posee acciones de la empresa. [1] [14]
En 2024, Hendrycks publicó un libro de 568 páginas titulado "Introducción a la seguridad, la ética y la sociedad de la IA", basado en el material educativo que había desarrollado previamente. [15]
Publicaciones seleccionadas
- Hendrycks, Dan; Gimpel, Kevin (8 de julio de 2020). "Unidades lineales de error gaussiano (GELU)". arXiv : 1606.08415 [cs.LG].
- Hendrycks, Dan; Gimpel, Kevin (3 de octubre de 2018). "Una línea base para detectar ejemplos mal clasificados y fuera de distribución en redes neuronales". Conferencia internacional sobre representaciones de aprendizaje 2017. arXiv : 1610.02136 .
- Hendrycks, Dan; Mazeika, Mantas; Dietterich, Thomas (28 de enero de 2019). "Detección de anomalías profundas con exposición a valores atípicos". Conferencia internacional sobre representaciones de aprendizaje 2019 . arXiv : 1812.04606 .
- Hendrycks, Dan; Mazeika, Mantas; Zou, Andy (25 de octubre de 2021). "¿Qué haría Pepito Grillo? Con los agentes que se comportan moralmente". Conferencia sobre sistemas de procesamiento de información neuronal 2021. arXiv : 2110.13136 .
Referencias
- ^ ab Henshall, Will (7 de septiembre de 2023). "Time 100 AI: Dan Hendrycks". Time .
- ^ ab Scharfenberg, David (6 de julio de 2023). «Dan Hendrycks quiere salvarnos de una catástrofe de IA. No está seguro de tener éxito» . The Boston Globe . Archivado desde el original el 8 de julio de 2023.
- ^ Castaldo, Joe (23 de junio de 2023). "'Espero estar equivocado': por qué algunos expertos ven el desastre de la IA". The Globe and Mail .
- ^ "Dan Hendrycks". people.eecs.berkeley.edu . Consultado el 14 de abril de 2023 .
- ^ "Nvidia se adentra en los servicios de inteligencia artificial y ChatGPT ahora puede usar tu tarjeta de crédito". Fortune . Consultado el 13 de abril de 2023 .
- ^ "Solicitud de información para la actualización del Plan Estratégico Nacional de Investigación y Desarrollo en Inteligencia Artificial: Respuestas" (PDF) . Iniciativa Nacional de Inteligencia Artificial . Marzo de 2022.
- ^ Hendrycks, Dan; Mazeika, Mantas (13 de junio de 2022). "Análisis de riesgo X para la investigación en IA". arXiv : 2206.05862v7 [cs.CY].
- ^ Gendron, Will. "Un experto en seguridad de la IA describió una serie de escenarios apocalípticos especulativos, desde la utilización de armas hasta el comportamiento de búsqueda de poder". Business Insider . Consultado el 7 de mayo de 2023 .
- ^ Hendrycks, Dan (28 de marzo de 2023). "La selección natural favorece a las IA sobre los humanos". arXiv : 2303.16200 [cs.CY].
- ^ Colton, Emma (3 de abril de 2023). "La IA podría convertirse en 'Terminator' y ganar ventaja sobre los humanos en las reglas darwinianas de la evolución, advierte un informe". Fox News . Consultado el 14 de abril de 2023 .
- ^ Klein, Ezra (7 de abril de 2023). "Por qué la IA podría no quitarte el trabajo ni potenciar la economía". The New York Times . Consultado el 14 de abril de 2023 .
- ^ Hendrycks, Dan; Mazeika, Mantas; Woodside, Thomas (2023). "Una descripción general de los riesgos catastróficos de la IA". arXiv : 2306.12001 [cs.CY].
- ^ Scharfenberg, David (6 de julio de 2023). «Dan Hendrycks quiere salvarnos de una catástrofe de IA. No está seguro de tener éxito». The Boston Globe . Consultado el 10 de julio de 2023 .
- ^ Lovely, Garrison (22 de enero de 2024). "¿Puede la humanidad sobrevivir a la IA?". Jacobin .
- ^ "Libro de texto sobre seguridad, ética y sociedad en materia de inteligencia artificial". www.aisafetybook.com . Consultado el 9 de mayo de 2024 .