Centro inglés de investigación de riesgos existenciales.
El Centro para el Estudio del Riesgo Existencial ( CSER ) es un centro de investigación de la Universidad de Cambridge , destinado a estudiar posibles amenazas a nivel de extinción planteadas por la tecnología presente o futura. [1] Los cofundadores del centro son Huw Price (Profesor Bertrand Russell de Filosofía en Cambridge), Martin Rees (astrónomo real y ex presidente de la Royal Society ) y Jaan Tallinn (cofundador de Skype , uno de los primeros inversores en antrópico ). [2]
Áreas de enfoque
Gestión de riesgos tecnológicos extremos
Los riesgos están asociados con los avances tecnológicos emergentes y futuros y los impactos de la actividad humana. Gestionar estos riesgos tecnológicos extremos es una tarea urgente, pero que plantea dificultades particulares y ha sido comparativamente descuidada en el mundo académico. [3]
- Los investigadores del CSER desarrollaron una herramienta ampliamente utilizada para escanear automáticamente la literatura científica en busca de nuevas investigaciones relevantes para el riesgo global. [4]
- CSER ha celebrado dos conferencias internacionales de Cambridge sobre riesgo catastrófico. [5] [6] El Centro también ha asesorado sobre el establecimiento de proyectos de riesgo global en la Universidad Nacional de Australia, [7] la Universidad de California, Los Ángeles [8] y la Universidad de Warwick. [9]
- CSER ayudó a establecer el primer Grupo Parlamentario Multipartidista para las Generaciones Futuras en el Parlamento del Reino Unido, acercando el riesgo global y el pensamiento a largo plazo a los líderes políticos del Reino Unido. [10]
- CSER ha celebrado más de treinta talleres que han reunido a la academia, las políticas y la industria sobre temas que incluyen la ciberseguridad, la seguridad nuclear, el cambio climático y los impulsores genéticos. [11]
- Las conferencias públicas de CSER se han visto más de 100.000 veces en línea. [12]
Riesgos biológicos catastróficos globales
- En 2017, CSER convocó a responsables políticos y académicos para identificar los desafíos para la Convención sobre Armas Biológicas (BWC). Una cuestión clave identificada fue que el rápido ritmo de progreso en las ciencias y tecnologías relevantes ha hecho que sea muy difícil para los órganos de gobernanza, incluida la BWC, mantener el ritmo. [13]
- Los investigadores del CSER llevaron a cabo un ejercicio de exploración del horizonte para 20 cuestiones emergentes en ingeniería biológica en el que participaron 30 expertos europeos y estadounidenses. [14] Presentaron el documento en la Reunión de los Estados Partes de la BWC de 2017, [15] y en la Junta Asesora Científica de la Organización para la Prohibición de las Armas Químicas en 2018. [16]
Riesgos extremos y el entorno global
- Martin Rees y Partha Dasgupta , un asesor principal, han coorganizado una serie de talleres influyentes con el Vaticano. El taller de 2015 influyó en la Encíclica Papal sobre el Cambio Climático, [17] que a su vez influyó en el Acuerdo de París sobre el cambio climático. Los hallazgos del taller de 2017 pronto se publicarán como un libro sobre Extinción Biológica. [18]
- Los investigadores del CSER han publicado en Nature [19] el impacto medioambiental de la agricultura de alto rendimiento [20] y las perspectivas de la geoingeniería sobre la pérdida de biodiversidad y la gobernanza . [21]
- Los investigadores del CSER publicaron un informe pidiendo que las clasificaciones de las escuelas de negocios incluyan la sostenibilidad. [22] Cuatro días después, el Financial Times anunció una "revisión completa de nuestra metodología". [23]
Riesgos de la inteligencia artificial avanzada
- En 2015, CSER ayudó a organizar una conferencia sobre las direcciones futuras de la IA en Puerto Rico, lo que resultó en una Carta Abierta sobre Inteligencia Artificial firmada por líderes de investigación de todo el mundo pidiendo investigaciones para garantizar que los sistemas de IA sean seguros y socialmente beneficiosos. [24]
- En 2016, CSER lanzó su primera spin-off: el Centro Leverhulme para el Futuro de la Inteligencia (CFI). Dirigido por el profesor Price, CFI se centra en las oportunidades y desafíos que plantea la IA. [25]
- Desde 2017, CSER ha organizado una serie de conferencias académicas que reúnen la teoría de la decisión y la seguridad de la IA. [26]
- En 2018, con socios de empresas de tecnología y grupos de expertos en seguridad, CSER publicó The Malicious Use of Artificial Intelligence: Forecasting, Preventing and Mitigation , sobre las implicaciones de la IA para la seguridad física y cibernética. [27] También publicaron An AI Race: Rhetoric and Risks , que ganó el premio inaugural al Mejor Artículo en la conferencia AAAI / ACM AI Ethics and Society de 2018. [28]
Cobertura mediática
CSER ha sido cubierto en muchos periódicos diferentes (particularmente en el Reino Unido), [29] [30] [31] cubriendo principalmente diferentes temas de interés. CSER apareció en la portada de Wired , [32] y en la edición especial de Frankenstein de Science en 2018. [33]
Asesores
Los asesores CSER incluyen académicos de Cambridge como:
Y asesores como:
Ver también
Referencias
- ^ Biba, Erin (1 de junio de 2015). "Conozca al cofundador de un grupo de expertos sobre Apocalipsis". Científico americano . 312 (6): 26. doi : 10.1038/scientificamerican0615-26. PMID 26336680.
- ^ Lewsey, Fred (25 de noviembre de 2012). "El último invento de la humanidad y nuestro futuro incierto". Noticias de investigación . Consultado el 24 de diciembre de 2012 .
- ^ "Gestión de riesgos tecnológicos extremos".
- ^ "Red de investigación de riesgos existenciales | Red de investigación de riesgos X | www.x-risk.net".
- ^ "Conferencia de Cambridge sobre riesgo catastrófico 2016".
- ^ "Conferencia de Cambridge sobre riesgo catastrófico 2018".
- ^ "Últimas noticias | Humanos para la supervivencia".
- ^ "El Instituto B. John Garrick de Ciencias del Riesgo".
- ^ "Los investigadores de PAIS obtienen la prestigiosa financiación de Leverhulme".
- ^ "Appg-futuro-gens".
- ^ "Eventos".
- ^ "CSER Cambridge". YouTube . Consultado el 6 de abril de 2019 .
- ^ "Convención sobre armas biológicas: ¿hacia dónde sigue?".
- ^ Wintle, Bonnie C.; Boehm, Christian R.; Rodas, Catalina; Molloy, Jennifer C.; Millett, muelles; Adán, Laura; Breitling, Rainer; Carlson, Rob; Casagrande, Rocco; Dando, Malcolm; Doble día, Robert; Drexler, Eric; Edwards, Brett; Ellis, Tom; Evans, Nicolás G.; Hammond, Richard; Haseloff, Jim; Kahl, Linda; Kuiken, Todd; Lichman, Benjamín R.; Matthewman, Colette A.; Napier, Johnathan A.; Óhéigeartaigh, Seán S.; Patrón, Nicola J.; Perelló, Eduardo; Shapira, Felipe; Tait, Joyce; Takano, Eriko; Sutherland, William J. (2017). "Una perspectiva transatlántica sobre 20 cuestiones emergentes en ingeniería biológica". eVida . 6 . doi : 10.7554/eLife.30247 . PMC 5685469 . PMID 29132504.
- ^ "Conferencia de prensa de la BWC".
- ^ "Hable con la Organización para la Prohibición de las Armas Químicas".
- ^ Universidad de California (24 de septiembre de 2015). "Un 'parque de estacionamiento' para el Papa" . Consultado el 6 de abril de 2019 a través de YouTube.
- ^ Dasgupta, Partha; Cuervo, Pedro; McIvor, Anna, eds. (2019). Extinción biológica editado por Partha Dasgupta. Prensa de la Universidad de Cambridge. doi :10.1017/9781108668675. ISBN 9781108668675. S2CID 241969653.
- ^ Amano, Tatsuya; Székely, Tamás; Sandel, Brody; Nagy, Szabolcs; Mundkur, Taej; Langendoen, Tom; Blanco, Daniel; Soykan, Candan U.; Sutherland, William J. (2017). "La conservación exitosa de las poblaciones mundiales de aves acuáticas depende de una gobernanza eficaz" (PDF) . Naturaleza . 553 (7687): 199–202. doi : 10.1038/naturaleza25139. PMID 29258291. S2CID 205262876.
- ^ Balmford, Andrés; Amano, Tatsuya; Bartlett, Harriet; Chadwick, Dave; Collins, Adrián; Edwards, David; Campo, Rob; Garnsworthy, Felipe; Verde, Rhys; Smith, Pete; Aguas, Helena; Whitmore, Andrés; Escoba, Donald M.; Chara, Julián; Pinzón, Tom; Granate, Emma; Gathorne-Hardy, Alfred; Hernández-Medrano, Juan; Herrero, Mario; Hua, Fangyuan; Latawiec, Agnieszka; Misselbrook, Tom; Falan, Ben; Simmons, Benno I.; Takahashi, Taro; Vause, James; Zu Ermgassen, Erasmo; Eisner, serbal (2018). "Los costos y beneficios ambientales de la agricultura de alto rendimiento". Sostenibilidad de la Naturaleza . 1 (9): 477–485. doi :10.1038/s41893-018-0138-5. PMC 6237269 . PMID 30450426.
- ^ Currie, Adrián (2018). "Tensiones de geoingeniería" (PDF) . Futuros . 102 : 78–88. doi :10.1016/j.futures.2018.02.002. hdl : 10871/35739 . S2CID 240258929.
- ^ "Ranking de escuelas de negocios para el siglo XXI".
- ^ Berwick, Isabel (27 de enero de 2019). "A medida que las escuelas de negocios reconsideran lo que hacen, también debe hacerlo el Financial Times". Tiempos financieros .
- ^ McMillan, Robert (16 de enero de 2015). "La IA ha llegado y eso realmente preocupa a las mentes más brillantes del mundo". Cableado . Consultado el 24 de abril de 2015 .
- ^ "Centro Leverhulme para el futuro de la inteligencia".
- ^ "Decisión e IA".
- ^ maliciosoaireport.com
- ^ "Premio al mejor artículo - Conferencia Aies".
- ^ Connor, Steve (14 de septiembre de 2013). "¿Podemos sobrevivir?". El Heraldo de Nueva Zelanda .
- ^ "Cobertura mediática del CSER". Centro de Estudios del Riesgo Existencial. Archivado desde el original el 30 de junio de 2014 . Consultado el 19 de junio de 2014 .
- ^ "El último invento de la humanidad y nuestro futuro incierto". Noticias de investigación de la Universidad de Cambridge . 25 de noviembre de 2012.
- ^ Benson, Richard (12 de febrero de 2017). "Conozca a los Guardianes de la Tierra, los hombres y mujeres X del mundo real que nos salvan de amenazas existenciales". Reino Unido cableado .
- ^ Kupferschmidt, Kai (12 de enero de 2018). "Domando a los monstruos del mañana". Ciencia . 359 (6372): 152-155. Código Bib : 2018 Ciencia... 359..152K. doi : 10.1126/ciencia.359.6372.152. PMID 29326256.
- ^ "Equipo".
enlaces externos