Centro de investigación de seguridad de inteligencia artificial de EE. UU.
El Centro de Inteligencia Artificial Compatible con los Humanos ( CHAI ) es un centro de investigación de la Universidad de California, Berkeley, centrado en métodos avanzados de seguridad de la inteligencia artificial (IA) . El centro fue fundado en 2016 por un grupo de académicos dirigido por el profesor de informática de Berkeley y experto en IA Stuart J. Russell . [1] [2] Russell es conocido por ser coautor del libro de texto de IA ampliamente utilizado Artificial Intelligence: A Modern Approach .
El cuerpo docente de CHAI incluye a Russell , Pieter Abbeel y Anca Dragan de Berkeley , Bart Selman y Joseph Halpern de Cornell , [3] Michael Wellman y Satinder Singh Baveja de la Universidad de Michigan , y Tom Griffiths y Tania Lombrozo de Princeton . [4] En 2016, el Proyecto de Filantropía Abierta (OpenPhil) recomendó que Good Ventures brindara apoyo a CHAI por $5,555,550 durante cinco años. [5] Desde entonces, CHAI ha recibido subvenciones adicionales de OpenPhil y Good Ventures por más de $12,000,000, incluso para colaboraciones con el Foro Económico Mundial y el Consejo Global de IA. [6] [7] [8]
Investigación
El enfoque de CHAI para la investigación de seguridad de la IA se centra en estrategias de alineación de valores, en particular el aprendizaje de refuerzo inverso , en el que la IA infiere valores humanos a partir de la observación del comportamiento humano. [9] También ha trabajado en el modelado de la interacción hombre-máquina en escenarios donde las máquinas inteligentes tienen un "interruptor de apagado" que son capaces de anular. [10]
Véase también
Referencias
- ^ Norris, Jeffrey (29 de agosto de 2016). «UC Berkeley lanza el Centro de Inteligencia Artificial Compatible con los Humanos» . Consultado el 27 de diciembre de 2019 .
- ^ Solon, Olivia (30 de agosto de 2016). «El auge de los robots: olvidémonos de la IA malvada: el riesgo real es mucho más insidioso». The Guardian . Consultado el 27 de diciembre de 2019 .
- ^ Universidad de Cornell . «Human-Compatible AI» (IA compatible con humanos) . Consultado el 27 de diciembre de 2019 .
- ^ Centro de Inteligencia Artificial Compatible con los Humanos. «People» . Consultado el 27 de diciembre de 2019 .
- ^ Open Philanthropy Project (agosto de 2016). «UC Berkeley — Center for Human-Compatible AI (2016)» (UC Berkeley: Centro de IA compatible con humanos, 2016) . Consultado el 27 de diciembre de 2019 .
- ^ Open Philanthropy Project (noviembre de 2019). «UC Berkeley — Center for Human-Compatible AI (2019)» (UC Berkeley: Centro de IA compatible con humanos, 2019) . Consultado el 27 de diciembre de 2019 .
- ^ "UC Berkeley — Centro de Inteligencia Artificial Compatible con Humanos (2021)". openphilanthropy.org .
- ^ "Foro Económico Mundial - Taller del Consejo Global de Inteligencia Artificial". Open Philanthropy . Abril de 2020. Archivado desde el original el 2023-09-01 . Consultado el 2023-09-01 .
- ^ Conn, Ariel (31 de agosto de 2016). "Nuevo centro para la IA compatible con los humanos". Future of Life Institute . Consultado el 27 de diciembre de 2019 .
- ^ Bridge, Mark (10 de junio de 2017). "Hacer que los robots sean menos seguros podría evitar que tomen el control". The Times .
Enlaces externos