stringtranslate.com

Instituto de Seguridad de la IA

Un Instituto de Seguridad de IA ( AISI ), en general, es un instituto respaldado por el estado que tiene como objetivo evaluar y garantizar la seguridad de los modelos de inteligencia artificial (IA) más avanzados, también llamados modelos de IA de frontera . [1]

La seguridad de la IA cobró importancia en 2023, en particular con las declaraciones públicas sobre los posibles riesgos existenciales de la IA . Durante la Cumbre de Seguridad de la IA de noviembre de 2023, el Reino Unido y los Estados Unidos crearon su propio AISI. Durante la Cumbre de Seúl de IA de mayo de 2024, los líderes internacionales acordaron formar una red de Institutos de Seguridad de la IA, que comprende institutos del Reino Unido, los Estados Unidos, Japón, Francia, Alemania, Italia, Singapur, Corea del Sur, Australia, Canadá y la Unión Europea. [2]

Cronología

En 2023, Rishi Sunak , el primer ministro del Reino Unido, expresó su intención de "hacer del Reino Unido no solo el hogar intelectual sino el hogar geográfico de la regulación global de la seguridad de la IA" y dio a conocer los planes para una Cumbre de Seguridad de la IA. [3] Hizo hincapié en la necesidad de evaluaciones de seguridad independientes, afirmando que las empresas de IA no pueden "calificar su propia tarea". [4] Durante la cumbre de noviembre de 2023, se estableció oficialmente el AISI del Reino Unido como una evolución del Frontier AI Taskforce , [5] y el AISI de los EE. UU. como parte del NIST . Japón siguió con el lanzamiento de un instituto de seguridad de la IA en febrero de 2024. [6]

En abril de 2024, Politico informó que muchas empresas de IA no habían compartido el acceso previo a la implementación a sus modelos de IA más avanzados para su evaluación. El presidente de asuntos globales de Meta , Nick Clegg , dijo que muchas empresas de IA estaban esperando que los Institutos de Seguridad de IA del Reino Unido y los EE. UU. elaboraran reglas y procedimientos de evaluación comunes. [7] De hecho, en abril de 2024 se concluyó un acuerdo entre el Reino Unido y los EE. UU. para colaborar en al menos una prueba de seguridad conjunta. [8] Inicialmente establecido en Londres , el Instituto de Seguridad de IA del Reino Unido anunció en mayo de 2024 que abriría una oficina en San Francisco , donde se encuentran muchas empresas de IA. Esto es parte de un plan para "establecer nuevos estándares internacionales sobre seguridad de la IA", según la ministra de tecnología del Reino Unido, Michele Donelan . [9] [10]

En la Cumbre de IA de Seúl, celebrada en mayo de 2024, la Unión Europea y otros países acordaron crear sus propios institutos de seguridad de IA, formando así una red internacional. [2]

Reino Unido

En abril de 2023, el Reino Unido fundó una organización de seguridad llamada Frontier AI Taskforce , con un presupuesto inicial de 100 millones de libras esterlinas. [11] En noviembre de 2023, se convirtió en la AISI del Reino Unido y continuó siendo dirigida por Ian Hogarth . La AISI es parte del Departamento de Ciencia, Innovación y Tecnología del Reino Unido . [5]

La estrategia de inteligencia artificial del Reino Unido apunta a equilibrar la seguridad y la innovación. A diferencia de la Unión Europea, que adoptó la Ley de Inteligencia Artificial , el Reino Unido se muestra reacio a legislar antes de tiempo, considerando que podría reducir el crecimiento del sector y que las leyes podrían quedar obsoletas por el progreso tecnológico. [6]

En mayo de 2024, el instituto publicó en código abierto una herramienta de seguridad de IA llamada "Inspect", que evalúa las capacidades del modelo de IA, como el razonamiento y su grado de autonomía. [12]

Estados Unidos

La AISI estadounidense se fundó en noviembre de 2023 como parte del NIST . Esto ocurrió al día siguiente de la firma de la Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial . [13] En febrero de 2024, la ex asesora de política económica de Joe Biden, Elizabeth Kelly, fue designada para dirigirla. [14]

En febrero de 2024, el gobierno estadounidense creó el Consorcio del Instituto de Seguridad de la IA de Estados Unidos (AISIC), que agrupa a más de 200 organizaciones como Google , Anthropic o Microsoft . [15]

En marzo de 2024, se asignó un presupuesto de 10 millones de dólares. [16] Los observadores señalaron que esta inversión es relativamente pequeña, especialmente considerando la presencia de muchas grandes empresas de IA en los EE. UU. El propio NIST, que alberga el AISI, también es conocido por su falta crónica de financiación. [17] [6] La solicitud de financiación adicional de la administración Biden se encontró con nuevos recortes presupuestarios por parte de los encargados de asignar fondos del Congreso. [18] [17]

Véase también

Referencias

  1. ^ "Los institutos de seguridad formarán una 'red internacional' para impulsar la investigación y las pruebas de IA". The Independent . 2024-05-21 . Consultado el 2024-07-06 .
  2. ^ ab Desmarais, Anna (22 de mayo de 2024). «Los líderes mundiales acuerdan lanzar una red de institutos de seguridad de la IA». euronews . Consultado el 15 de junio de 2024 .
  3. ^ Browne, Ryan (12 de junio de 2023). "El primer ministro británico Rishi Sunak propone que el Reino Unido sea el hogar de la regulación de la seguridad de la IA mientras Londres aspira a ser el próximo Silicon Valley". CNBC . Consultado el 21 de junio de 2024 .
  4. ^ "Rishi Sunak: Las empresas de inteligencia artificial no pueden 'corregir sus propios deberes'". BBC . 2023-11-01 . Consultado el 2024-06-21 .
  5. ^ ab "Presentación del Instituto de Seguridad de la IA". GOV.UK . Noviembre de 2023 . Consultado el 15 de junio de 2024 .
  6. ^ abc Henshall, Will (1 de abril de 2024). "Estados Unidos y el Reino Unido anuncian una asociación para probar modelos de inteligencia artificial de manera segura". TIME . Consultado el 6 de julio de 2024 .
  7. ^ "Rishi Sunak prometió hacer que la IA fuera segura. Las grandes tecnológicas no están jugando". Politico . 2024-04-26 . Consultado el 2024-06-15 .
  8. ^ David, Emilia (2 de abril de 2024). «Estados Unidos y el Reino Unido trabajarán juntos para probar modelos de inteligencia artificial para amenazas a la seguridad». The Verge . Consultado el 21 de junio de 2024 .
  9. ^ Coulter, Martin (20 de mayo de 2024). "El instituto británico de seguridad de inteligencia artificial abrirá una oficina en Estados Unidos". Reuters .
  10. ^ Browne, Ryan (20 de mayo de 2024). "Gran Bretaña expande el Instituto de Seguridad de la IA a San Francisco en medio del escrutinio por deficiencias regulatorias". CNBC . Consultado el 15 de junio de 2024 .
  11. ^ "100 millones de libras esterlinas iniciales para un grupo de trabajo de expertos que ayude al Reino Unido a construir y adoptar la próxima generación de inteligencia artificial segura". GOV.UK . Consultado el 6 de julio de 2024 .
  12. ^ Wodecki, Ben (15 de mayo de 2024). "AI Safety Institute lanza una plataforma de herramientas de prueba de seguridad de modelos de IA". AI Business .
  13. ^ Henshall, Will (1 de noviembre de 2023). "Por qué la orden ejecutiva de inteligencia artificial de Biden tiene sus límites". TIME . Consultado el 7 de julio de 2024 .
  14. ^ Henshall, Will (7 de febrero de 2024). "La asesora económica de Biden, Elizabeth Kelly, elegida para dirigir el organismo de pruebas de seguridad de la IA". TIME . Consultado el 6 de julio de 2024 .
  15. ^ Shepardson, David (8 de febrero de 2024). "Estados Unidos afirma que las principales empresas de inteligencia artificial se unirán a un consorcio de seguridad para abordar los riesgos". Reuters .
  16. ^ "El líder de la mayoría, Schumer, anuncia una financiación única en su tipo para establecer un instituto de seguridad de inteligencia artificial en EE. UU.; la financiación es un anticipo para equilibrar la seguridad con la innovación en inteligencia artificial y ayudará a desarrollar estándares, herramientas y pruebas para garantizar que los sistemas de inteligencia artificial funcionen de manera segura". www.democrats.senate.gov . 2024-03-07 . Consultado el 2024-07-06 .
  17. ^ ab Zakrzewski, Cat (8 de marzo de 2024). "Esta agencia tiene la tarea de mantener segura la IA. Sus oficinas se están desmoronando". Washington Post . ISSN  0190-8286 . Consultado el 6 de julio de 2024 .
  18. ^ "El NIST 'tendría que considerar' reducciones de personal si se aprueba el recorte de asignaciones". FedScoop . 2024-05-24 . Consultado el 2024-07-06 .

Enlaces externos