stringtranslate.com

Centro de Seguridad y Tecnología Emergente

El Centro de Seguridad y Tecnología Emergente ( CSET ) es un grupo de expertos dedicado al análisis de políticas en la intersección de la seguridad nacional e internacional y las tecnologías emergentes , con sede en la Escuela de Servicio Exterior de la Universidad de Georgetown .

Su misión es estudiar los impactos de seguridad de las tecnologías emergentes mediante el análisis de datos, el apoyo al trabajo académico en estudios de seguridad y tecnología y la entrega de análisis no partidista a la comunidad de políticas. [1] CSET se centra particularmente en la intersección de la seguridad y la inteligencia artificial (IA). [2] Aborda temas como la competitividad nacional, [3] las oportunidades relacionadas con la IA, [4] los flujos de talento y conocimiento, [5] las evaluaciones de seguridad de la IA , [6] y las aplicaciones de la IA en biotecnología [7] y seguridad informática . [8]

El director fundador de CSET, Jason Gaverick Matheny , se desempeñó anteriormente como director de la Actividad de Proyectos de Investigación Avanzada de Inteligencia . [9] Su actual director ejecutivo es Dewey Murdick, ex director de análisis y científico jefe adjunto del Departamento de Seguridad Nacional . [10]

Fundada en enero de 2019, la CSET ha recibido más de 57 000 000 de dólares en financiación del Open Philanthropy Project , [11] la William and Flora Hewlett Foundation , [12] y la Public Interest Technology University Network . La CSET ha recibido críticas por sus vínculos con el movimiento de altruismo eficaz . [13]

Publicaciones

El CSET publica un boletín quincenal, policy.ai. [14] Ha publicado investigaciones sobre diversos aspectos de la intersección entre la inteligencia artificial y la seguridad, incluidos los cambios en la fuerza laboral de IA de EE. UU., [15] el efecto de las leyes de inmigración en el sector de IA, [16] y la transferencia de tecnología al exterior. [17] Su producción de investigación incluye informes de políticas e informes publicados más extensos. [18]

Un estudio [19] publicado en enero de 2023 por CSET, OpenAI y Stanford Internet Observatory y cubierto por Forbes citó que "También existen posibles aplicaciones negativas de los modelos de lenguaje generativo, o 'modelos de lenguaje' para abreviar. Para los actores maliciosos que buscan difundir propaganda (información diseñada para dar forma a las percepciones para promover los intereses de un actor), estos modelos de lenguaje traen la promesa de automatizar la creación de texto convincente y engañoso para su uso en operaciones de influencia, en lugar de tener que depender del trabajo humano". [20]

En mayo de 2023, funcionarios chinos anunciaron que cerrarían parte del acceso que tenían los países extranjeros a su información pública como resultado de estudios de grupos de expertos como CSET, citando preocupaciones sobre la cooperación entre el ejército estadounidense y el sector privado. [21]

En un testimonio de septiembre de 2024 ante el Comité Selecto de la Cámara de Representantes de los Estados Unidos sobre Competencia Estratégica entre los Estados Unidos y el Partido Comunista Chino , la ex empleada del CSET Anna B. Puglisi declaró que recibió amenazas legales de difamación de BGI Group por un informe que escribió mientras trabajaba en el CSET y que la Universidad de Georgetown le había negado la indemnización legal por el informe. [22] Después del testimonio, un representante de la Universidad de Georgetown declaró que "apoya plenamente el informe" y está "preparada para defender el informe y a sus autores en caso de que las cartas conduzcan a una acción legal formal". [22]

Referencias

  1. ^ "Acerca de nosotros". Centro de Seguridad y Tecnología Emergente. Enero de 2019. Archivado desde el original el 25 de marzo de 2019 . Consultado el 30 de junio de 2019 .
  2. ^ "Georgetown lanza un nuevo centro de seguridad y tecnología emergente de 55 millones de dólares". Instituto de Tecnología, Derecho y Política. 28 de febrero de 2019. Archivado desde el original el 30 de junio de 2019 . Consultado el 30 de junio de 2019 .
  3. ^ "Competir". Centro de Seguridad y Tecnología Emergente . Consultado el 3 de septiembre de 2024 .
  4. ^ "Aplicaciones". Centro de Seguridad y Tecnología Emergente . Consultado el 3 de septiembre de 2024 .
  5. ^ "Fuerza laboral". Centro de seguridad y tecnología emergente . Consultado el 3 de septiembre de 2024 .
  6. ^ "Evaluación". Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 23 de septiembre de 2024. Consultado el 3 de septiembre de 2024 .
  7. ^ "Bio-Risk". Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 23 de septiembre de 2024. Consultado el 3 de septiembre de 2024 .
  8. ^ "CyberAI". Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 23 de septiembre de 2024. Consultado el 3 de septiembre de 2024 .
  9. ^ Anderson, Nick (28 de febrero de 2019). «Georgetown lanza un grupo de expertos sobre seguridad y tecnología emergente». The Washington Post . Archivado desde el original el 14 de mayo de 2019. Consultado el 30 de junio de 2019 .
  10. ^ "Dewey Murdick". Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 23 de septiembre de 2024. Consultado el 8 de junio de 2023 .
  11. ^ "Universidad de Georgetown: Centro de seguridad y tecnología emergente". Proyecto de filantropía abierta . Enero de 2019. Archivado desde el original el 29 de junio de 2019. Consultado el 30 de junio de 2019 .
  12. ^ "Hewlett Foundation". 8 de octubre de 2019. Archivado desde el original el 23 de septiembre de 2024. Consultado el 8 de diciembre de 2019 .
  13. ^ Bordelon, Brendan (13 de octubre de 2023). «Cómo una red de asesores de inteligencia artificial respaldada por multimillonarios se apoderó de Washington». Politico . Archivado desde el original el 13 de octubre de 2023. Consultado el 12 de mayo de 2024 .
  14. ^ "Boletines informativos". Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 23 de septiembre de 2024. Consultado el 3 de septiembre de 2024 .
  15. ^ "US AI Workforce". Centro de Seguridad y Tecnología Emergente . Abril de 2021. Archivado desde el original el 23 de septiembre de 2024. Consultado el 3 de septiembre de 2024 .
  16. ^ "Política de inmigración y el sector de inteligencia artificial de Estados Unidos" (PDF) . Centro de Seguridad y Tecnología Emergente . Septiembre de 2019. Archivado (PDF) desde el original el 2019-12-08 . Consultado el 2020-01-05 .
  17. ^ "El acceso de China a la tecnología de inteligencia artificial extranjera" (PDF) . Centro de Seguridad y Tecnología Emergente . Septiembre de 2019. Archivado (PDF) desde el original el 2020-07-31 . Consultado el 2020-01-05 .
  18. ^ "Universidad de Georgetown". Septiembre de 2019. Archivado desde el original el 8 de diciembre de 2019 . Consultado el 8 de diciembre de 2019 .
  19. ^ Goldstein, Josh A.; Sastry, Girish; Musser, Micah; DiResta, Renee; Gentzel, Matthew; Sedova, Katerina (enero de 2023). "Modelos de lenguaje generativo y operaciones de influencia automatizadas: amenazas emergentes y posibles mitigaciones" (PDF) . cdn.openai.com . arXiv : 2301.04246 . Archivado (PDF) desde el original el 23 de septiembre de 2024. Consultado el 6 de septiembre de 2023 .
  20. ^ Vigdor, Dan. "Council Post: How Could Artificial Intelligence Impact Cybersecurity?" (Publicado en el Consejo: ¿Cómo podría la inteligencia artificial afectar la ciberseguridad?). Forbes . Archivado desde el original el 23 de septiembre de 2024. Consultado el 6 de septiembre de 2023 .
  21. ^ "China limita el acceso de los extranjeros a los datos". Taipei Times . Bloomberg News . 2023-05-09. Archivado desde el original el 2024-09-23 . Consultado el 2023-09-06 .
  22. ^ ab Quinn, Jimmy (23 de septiembre de 2024). "Exinvestigador de Georgetown afirma que la escuela le ha negado su apoyo ante las amenazas de una empresa biotecnológica china". National Review . Archivado desde el original el 23 de septiembre de 2024 . Consultado el 23 de septiembre de 2024 .

Enlaces externos