Un Instituto de Seguridad de IA ( AISI ), en general, es un instituto respaldado por el estado que tiene como objetivo evaluar y garantizar la seguridad de los modelos de inteligencia artificial (IA) más avanzados, también llamados modelos de IA de frontera . [1]
La seguridad de la IA cobró importancia en 2023, en particular con las declaraciones públicas sobre los posibles riesgos existenciales de la IA . Durante la Cumbre de Seguridad de la IA de noviembre de 2023, el Reino Unido y los Estados Unidos crearon su propio AISI. Durante la Cumbre de Seúl de IA de mayo de 2024, los líderes internacionales acordaron formar una red de Institutos de Seguridad de la IA, que comprende institutos del Reino Unido, los Estados Unidos, Japón, Francia, Alemania, Italia, Singapur, Corea del Sur, Australia, Canadá y la Unión Europea. [2]
En 2023, Rishi Sunak , el primer ministro del Reino Unido, expresó su intención de "hacer del Reino Unido no solo el hogar intelectual sino el hogar geográfico de la regulación global de la seguridad de la IA" y dio a conocer los planes para una Cumbre de Seguridad de la IA. [3] Hizo hincapié en la necesidad de evaluaciones de seguridad independientes, afirmando que las empresas de IA no pueden "calificar su propia tarea". [4] Durante la cumbre de noviembre de 2023, se estableció oficialmente el AISI del Reino Unido como una evolución del Frontier AI Taskforce , [5] y el AISI de los EE. UU. como parte del NIST . Japón siguió con el lanzamiento de un instituto de seguridad de la IA en febrero de 2024. [6]
En abril de 2024, Politico informó que muchas empresas de IA no habían compartido el acceso previo a la implementación a sus modelos de IA más avanzados para su evaluación. El presidente de asuntos globales de Meta , Nick Clegg , dijo que muchas empresas de IA estaban esperando que los Institutos de Seguridad de IA del Reino Unido y los EE. UU. elaboraran reglas y procedimientos de evaluación comunes. [7] De hecho, en abril de 2024 se concluyó un acuerdo entre el Reino Unido y los EE. UU. para colaborar en al menos una prueba de seguridad conjunta. [8] Inicialmente establecido en Londres , el Instituto de Seguridad de IA del Reino Unido anunció en mayo de 2024 que abriría una oficina en San Francisco , donde se encuentran muchas empresas de IA. Esto es parte de un plan para "establecer nuevos estándares internacionales sobre seguridad de la IA", según la ministra de tecnología del Reino Unido, Michele Donelan . [9] [10]
En la Cumbre de IA de Seúl, celebrada en mayo de 2024, la Unión Europea y otros países acordaron crear sus propios institutos de seguridad de IA, formando así una red internacional. [2]
En abril de 2023, el Reino Unido fundó una organización de seguridad llamada Frontier AI Taskforce , con un presupuesto inicial de 100 millones de libras esterlinas. [11] En noviembre de 2023, se convirtió en la AISI del Reino Unido y continuó siendo dirigida por Ian Hogarth . La AISI es parte del Departamento de Ciencia, Innovación y Tecnología del Reino Unido . [5]
La estrategia de inteligencia artificial del Reino Unido apunta a equilibrar la seguridad y la innovación. A diferencia de la Unión Europea, que adoptó la Ley de Inteligencia Artificial , el Reino Unido se muestra reacio a legislar antes de tiempo, considerando que podría reducir el crecimiento del sector y que las leyes podrían quedar obsoletas por el progreso tecnológico. [6]
En mayo de 2024, el instituto publicó en código abierto una herramienta de seguridad de IA llamada "Inspect", que evalúa las capacidades del modelo de IA, como el razonamiento y su grado de autonomía. [12]
La AISI estadounidense se fundó en noviembre de 2023 como parte del NIST . Esto ocurrió al día siguiente de la firma de la Orden Ejecutiva sobre el Desarrollo y Uso Seguro, Protegido y Confiable de la Inteligencia Artificial . [13] En febrero de 2024, la ex asesora de política económica de Joe Biden, Elizabeth Kelly, fue designada para dirigirla. [14]
En febrero de 2024, el gobierno estadounidense creó el Consorcio del Instituto de Seguridad de la IA de Estados Unidos (AISIC), que agrupa a más de 200 organizaciones como Google , Anthropic o Microsoft . [15]
En marzo de 2024, se asignó un presupuesto de 10 millones de dólares. [16] Los observadores señalaron que esta inversión es relativamente pequeña, especialmente considerando la presencia de muchas grandes empresas de IA en los EE. UU. El propio NIST, que alberga el AISI, también es conocido por su falta crónica de financiación. [17] [6] La solicitud de financiación adicional de la administración Biden se encontró con nuevos recortes presupuestarios por parte de los encargados de asignar fondos del Congreso. [18] [17]