La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA). Es parte de la regulación más amplia de los algoritmos . [1] [2] El panorama regulatorio y de políticas para la IA es un tema emergente en jurisdicciones de todo el mundo, incluso para organizaciones internacionales sin poder de aplicación directa como el IEEE o la OCDE . [3]
Desde 2016, se han publicado numerosas directrices éticas sobre IA con el fin de mantener el control social sobre la tecnología. [4] La regulación se considera necesaria tanto para fomentar la innovación en IA como para gestionar los riesgos asociados.
Además, las organizaciones que implementan IA tienen un papel central que desempeñar en la creación e implementación de una IA confiable , adhiriéndose a los principios establecidos y asumiendo la responsabilidad de mitigar los riesgos. [5]
La regulación de la IA a través de mecanismos como los comités de revisión también puede considerarse un medio social para abordar el problema del control de la IA . [6] [7]
Según el Índice de IA 2023 de la Universidad de Stanford , el número anual de proyectos de ley que mencionan la "inteligencia artificial" aprobados en 127 países encuestados aumentó de uno en 2016 a 37 en 2022. [8] [9]
En 2017, Elon Musk pidió la regulación del desarrollo de la IA. [10] Según NPR , el CEO de Tesla "claramente no estaba emocionado" de abogar por un escrutinio gubernamental que podría afectar a su propia industria, pero creía que los riesgos de prescindir por completo de la supervisión son demasiado altos: "Normalmente, la forma en que se establecen las regulaciones es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se crea una agencia reguladora para regular esa industria. Lleva una eternidad. Eso, en el pasado, ha sido malo, pero no algo que representara un riesgo fundamental para la existencia de la civilización". [10] En respuesta, algunos políticos expresaron escepticismo sobre la sabiduría de regular una tecnología que aún está en desarrollo. [11] En respuesta tanto a Musk como a las propuestas de febrero de 2017 de los legisladores de la Unión Europea para regular la IA y la robótica, el CEO de Intel, Brian Krzanich, ha argumentado que la IA está en su infancia y que es demasiado pronto para regular la tecnología. [12] Muchas empresas tecnológicas se oponen a la regulación estricta de la IA y "si bien algunas de las empresas han dicho que dan la bienvenida a las reglas en torno a la IA, también se han pronunciado en contra de regulaciones estrictas similares a las que se están creando en Europa" [13]. En lugar de tratar de regular la tecnología en sí, algunos académicos sugirieron desarrollar normas comunes que incluyan requisitos para las pruebas y la transparencia de los algoritmos, posiblemente en combinación con alguna forma de garantía. [14]
En una encuesta de Ipsos de 2022 , las actitudes hacia la IA variaron mucho según el país: el 78% de los ciudadanos chinos, pero solo el 35% de los estadounidenses, estuvieron de acuerdo en que "los productos y servicios que utilizan IA tienen más beneficios que inconvenientes". [8] Una encuesta de Reuters /Ipsos de 2023 encontró que el 61% de los estadounidenses está de acuerdo, y el 22% no, en que la IA plantea riesgos para la humanidad. [15] En una encuesta de Fox News de 2023 , el 35% de los estadounidenses pensó que era "muy importante", y un 41% adicional pensó que era "algo importante", que el gobierno federal regulara la IA, frente al 13% que respondió "no muy importante" y el 8% que respondió "nada importante". [16] [17]
La regulación de las inteligencias artificiales consiste en el desarrollo de políticas y leyes del sector público para promover y regular la IA. [18] En la actualidad, la regulación se considera generalmente necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. [19] [20] [21] Las consideraciones de la administración pública y las políticas se centran generalmente en las implicaciones técnicas y económicas y en sistemas de IA fiables y centrados en el ser humano, [22] aunque también se considera la regulación de las superinteligencias artificiales. [23] El enfoque básico de la regulación se centra en los riesgos y sesgos de los algoritmos de aprendizaje automático , a nivel de los datos de entrada, las pruebas de algoritmos y el modelo de decisión. También se centra en la explicabilidad de los resultados. [20]
Ha habido propuestas tanto de derecho duro como de derecho blando para regular la IA. [24] Algunos académicos legales han señalado que los enfoques de derecho duro para la regulación de la IA tienen desafíos sustanciales. [25] [26] Entre los desafíos, la tecnología de IA está evolucionando rápidamente, lo que lleva a un "problema de ritmo" en el que las leyes y regulaciones tradicionales a menudo no pueden seguir el ritmo de las aplicaciones emergentes y sus riesgos y beneficios asociados. [25] [26] De manera similar, la diversidad de aplicaciones de IA desafía a las agencias reguladoras existentes, que a menudo tienen un alcance jurisdiccional limitado. [25] Como alternativa, algunos académicos legales argumentan que los enfoques de derecho blando para la regulación de la IA son prometedores porque las leyes blandas se pueden adaptar de manera más flexible para satisfacer las necesidades de la tecnología de IA emergente y en evolución y las aplicaciones nacientes. [25] [26] Sin embargo, los enfoques de derecho blando a menudo carecen de un potencial de aplicación sustancial. [25] [27]
Cason Schmit, Megan Doerr y Jennifer Wagner propusieron la creación de un regulador cuasi gubernamental aprovechando los derechos de propiedad intelectual (es decir, licencias copyleft ) en ciertos objetos de IA (es decir, modelos de IA y conjuntos de datos de entrenamiento) y delegando los derechos de cumplimiento a una entidad de cumplimiento designada. [28] Argumentan que la IA puede licenciarse bajo términos que requieren el cumplimiento de prácticas éticas y códigos de conducta específicos (por ejemplo, principios de derecho indicativo). [28]
Las organizaciones juveniles destacadas centradas en la IA, en particular Encode Justice, también han publicado agendas integrales que piden regulaciones más estrictas en materia de IA y asociaciones público-privadas . [29] [30]
La regulación de la IA podría derivar de principios básicos. Una meta-revisión de 2020 del Berkman Klein Center for Internet & Society de conjuntos de principios existentes, como los Principios de Asilomar y los Principios de Beijing, identificó ocho de esos principios básicos: privacidad, rendición de cuentas, seguridad y protección, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y respeto por los valores humanos. [31] La legislación y las regulaciones de la IA se han dividido en tres temas principales, a saber, la gobernanza de los sistemas de inteligencia autónomos, la responsabilidad y la rendición de cuentas por los sistemas, y las cuestiones de privacidad y seguridad. [19] Un enfoque de administración pública ve una relación entre la legislación y la regulación de la IA, la ética de la IA y la "sociedad de la IA", definida como la sustitución y transformación de la fuerza laboral, la aceptación social y la confianza en la IA, y la transformación de la interacción entre humanos y máquinas. [32] Se considera necesario el desarrollo de estrategias del sector público para la gestión y regulación de la IA a nivel local, nacional [33] e internacional [34] y en una variedad de campos, desde la gestión de servicios públicos [35] y la rendición de cuentas [36] hasta la aplicación de la ley, [34] [37] la atención sanitaria (especialmente el concepto de Garantía Humana), [38] [39] [40] [41] [42] el sector financiero, [33] la robótica, [43] [44] los vehículos autónomos, [43] el ejército [45] y la seguridad nacional, [46] y el derecho internacional. [47] [48]
Henry Kissinger , Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 titulada "Ser humano en la era de la IA", en la que pedían una comisión gubernamental para regular la IA. [49]
La regulación de la IA puede ser vista como un medio social positivo para gestionar el problema del control de la IA (la necesidad de asegurar una IA beneficiosa a largo plazo), con otras respuestas sociales como no hacer nada o prohibir siendo vistas como poco prácticas, y enfoques como mejorar las capacidades humanas a través de técnicas de transhumanismo como las interfaces cerebro-computadora siendo vistas como potencialmente complementarias. [7] [50] La regulación de la investigación en inteligencia artificial general (AGI) se centra en el papel de las juntas de revisión, desde la universidad o corporación hasta los niveles internacionales, y en fomentar la investigación en seguridad de la IA , [50] junto con la posibilidad de un progreso intelectual diferencial (priorizar las estrategias protectoras sobre las estrategias arriesgadas en el desarrollo de la IA) o realizar una vigilancia masiva internacional para realizar el control de armas de AGI. [7] Por ejemplo, la 'Niñera AGI' es una estrategia propuesta, potencialmente bajo el control de la humanidad, para prevenir la creación de una superinteligencia peligrosa , así como para abordar otras amenazas importantes para el bienestar humano, como la subversión del sistema financiero global, hasta que se pueda crear una verdadera superinteligencia de manera segura. Implica la creación de un sistema de IA más inteligente que los humanos, pero no superinteligente, conectado a una gran red de vigilancia, con el objetivo de monitorear a la humanidad y protegerla del peligro. [7] La regulación de las IA conscientes y éticamente conscientes se centra en cómo integrarlas con la sociedad humana existente y puede dividirse en consideraciones de su situación legal y de sus derechos morales. [7] La regulación de la IA se ha visto como restrictiva, con el riesgo de impedir el desarrollo de la IA. [43]
La creación de una junta de gobernanza global para regular el desarrollo de la IA se sugirió al menos ya en 2017. [52] En diciembre de 2018, Canadá y Francia anunciaron planes para un Panel Internacional sobre Inteligencia Artificial respaldado por el G7, inspirado en el Panel Internacional sobre Cambio Climático , para estudiar los efectos globales de la IA en las personas y las economías y para orientar el desarrollo de la IA. [53] En 2019, el Panel pasó a llamarse Alianza Global sobre IA. [54] [55]
La Alianza Mundial sobre Inteligencia Artificial (GPAI, por sus siglas en inglés) se lanzó en junio de 2020, y plantea la necesidad de que la IA se desarrolle de conformidad con los derechos humanos y los valores democráticos, para garantizar la confianza pública en la tecnología, como se describe en los Principios de la OCDE sobre Inteligencia Artificial (2019). [56] Los 15 miembros fundadores de la Alianza Mundial sobre Inteligencia Artificial son Australia, Canadá, la Unión Europea, Francia, Alemania, India, Italia, Japón, la República de Corea, México, Nueva Zelanda, Singapur, Eslovenia, los Estados Unidos y el Reino Unido. En 2023, la GPAI tiene 29 miembros. [57] La Secretaría de la GPAI está alojada por la OCDE en París, Francia. El mandato de la GPAI cubre cuatro temas, dos de los cuales cuentan con el apoyo del Centro Internacional de Expertos en Montreal para el Avance de la Inteligencia Artificial, a saber, la IA responsable y la gobernanza de datos. Un centro de excelencia correspondiente en París apoyará los otros dos temas sobre el futuro del trabajo y sobre la innovación y la comercialización. GPAI también investigó cómo se puede aprovechar la IA para responder a la pandemia de COVID-19. [56]
Los Principios de IA de la OCDE [58] se adoptaron en mayo de 2019, y los Principios de IA del G20 en junio de 2019. [55] [59] [60] En septiembre de 2019, el Foro Económico Mundial publicó diez "Directrices para la contratación pública basada en IA". [61] En febrero de 2020, la Unión Europea publicó su proyecto de documento de estrategia para promover y regular la IA. [34]
En las Naciones Unidas (ONU), varias entidades han comenzado a promover y debatir aspectos de la regulación y la política de la IA, incluido el Centro de IA y Robótica del UNICRI . [46] En asociación con INTERPOL, el Centro del UNICRI publicó el informe AI and Robotics for Law Enforcement en abril de 2019 [62] y el informe de seguimiento Towards Responsible AI Innovation en mayo de 2020. [37] En la 40.ª sesión científica de la UNESCO en noviembre de 2019, la organización inició un proceso de dos años para lograr un "instrumento normativo mundial sobre la ética de la inteligencia artificial". En pos de este objetivo, se celebraron foros y conferencias de la UNESCO sobre IA para recabar las opiniones de las partes interesadas. En septiembre de 2020 se publicó un proyecto de texto de una Recomendación sobre la ética de la IA del Grupo de expertos especial de la UNESCO que incluía un llamamiento para que se llenaran las lagunas legislativas. [63] La UNESCO presentó el instrumento internacional sobre la ética de la IA para su adopción en su Conferencia General en noviembre de 2021; [56] Esto fue adoptado posteriormente. [64] Si bien la ONU está avanzando en la gestión global de la IA, su capacidad institucional y legal para gestionar el riesgo existencial de la IAG es más limitada. [65]
AI for Good , una iniciativa de la Unión Internacional de Telecomunicaciones (UIT) en colaboración con 40 organismos hermanos de las Naciones Unidas, es una plataforma mundial cuyo objetivo es identificar aplicaciones prácticas de la IA para promover los Objetivos de Desarrollo Sostenible de las Naciones Unidas y ampliar esas soluciones para que tengan un impacto global. Es una plataforma global e inclusiva de las Naciones Unidas orientada a la acción que fomenta el desarrollo de la IA para influir positivamente en la salud, el clima, el género, la prosperidad inclusiva, la infraestructura sostenible y otras prioridades de desarrollo global. [66]
Investigaciones recientes han indicado que los países también comenzarán a utilizar la inteligencia artificial como herramienta para la ciberdefensa nacional. La IA es un factor nuevo en la industria de las armas cibernéticas, ya que puede utilizarse con fines de defensa. Por lo tanto, los académicos instan a que las naciones establezcan regulaciones para el uso de la IA, de manera similar a como existen regulaciones para otras industrias militares. [67]
El 5 de septiembre de 2024, se promulgará el primer tratado internacional sobre IA, en el que participarán países como Estados Unidos, Gran Bretaña y miembros de la Unión Europea, cuyo objetivo es proteger los derechos humanos y promover el uso responsable de la IA, aunque los expertos han expresado su preocupación por sus principios generales y sus exenciones. [68]
El panorama regulatorio y de políticas para la IA es un tema emergente en jurisdicciones regionales y nacionales a nivel mundial, por ejemplo en la Unión Europea [70] y Rusia. [71] Desde principios de 2016, muchas autoridades nacionales, regionales e internacionales han comenzado a adoptar estrategias, planes de acción y documentos de políticas sobre IA. [72] [73] Estos documentos cubren una amplia gama de temas como regulación y gobernanza, así como estrategia industrial, investigación, talento e infraestructura. [22] [74]
Los distintos países han abordado el problema de distintas maneras. En relación con las tres mayores economías, se ha dicho que "Estados Unidos está siguiendo un enfoque impulsado por el mercado, China está impulsando un enfoque impulsado por el Estado y la UE está adoptando un enfoque impulsado por los derechos". [75]
En octubre de 2023, la Sociedad Australiana de Computación , el Consejo Empresarial de Australia , la Cámara de Comercio e Industria de Australia , Ai Group (también conocido como Australian Industry Group) , el Consejo de Organizaciones de Pequeñas Empresas de Australia y el Consejo Tecnológico de Australia publicaron conjuntamente una carta abierta en la que se pedía un enfoque nacional para la estrategia de IA. [76] La carta respalda que el gobierno federal establezca un grupo de trabajo de IA de todo el gobierno. [76]
El 30 de septiembre de 2021, la Cámara de Diputados de Brasil aprobó el Marco Legal de la Inteligencia Artificial, en un esfuerzo regulatorio para el desarrollo y uso de tecnologías de IA y para estimular aún más la investigación e innovación en soluciones de IA orientadas a la ética, la cultura, la justicia, la equidad y la rendición de cuentas. Este proyecto de ley de 10 artículos describe objetivos que incluyen misiones para contribuir a la elaboración de principios éticos, promover inversiones sostenidas en investigación y eliminar barreras a la innovación. Específicamente, en el artículo 4, el proyecto de ley enfatiza la evitación de soluciones de IA discriminatorias, la pluralidad y el respeto por los derechos humanos. Además, esta ley enfatiza la importancia del principio de igualdad en los algoritmos de toma de decisiones deliberadas, especialmente para sociedades altamente diversas y multiétnicas como la de Brasil.
Cuando el proyecto de ley se hizo público por primera vez, enfrentó fuertes críticas, lo que alarmó al gobierno por sus disposiciones críticas. El problema subyacente es que este proyecto de ley no aborda de manera exhaustiva y cuidadosa los principios de rendición de cuentas, transparencia e inclusión. El artículo VI establece la responsabilidad subjetiva, lo que significa que cualquier individuo que resulte perjudicado por un sistema de IA y desee recibir una compensación debe especificar la parte interesada y demostrar que hubo un error en el ciclo de vida de la máquina. Los académicos enfatizan que está fuera del orden legal asignar a una persona responsable de probar los errores algorítmicos dado el alto grado de autonomía, imprevisibilidad y complejidad de los sistemas de IA. Esto también llamó la atención sobre los problemas que están ocurriendo actualmente con los sistemas de reconocimiento facial en Brasil, que conducen a arrestos injustos por parte de la policía, lo que implicaría que, cuando se apruebe este proyecto de ley, las personas tendrían que probar y justificar estos errores de las máquinas.
La principal controversia de este proyecto de ley se centró en tres principios propuestos. En primer lugar, el principio de no discriminación, que sugiere que la IA debe desarrollarse y utilizarse de una manera que simplemente mitigue la posibilidad de prácticas abusivas y discriminatorias. En segundo lugar, el principio de búsqueda de la neutralidad enumera recomendaciones para que las partes interesadas mitiguen los sesgos; sin embargo, no hay obligación de lograr este objetivo. Por último, el principio de transparencia establece que la transparencia de un sistema solo es necesaria cuando existe un alto riesgo de violar los derechos fundamentales. Como se observa fácilmente, el marco legal brasileño para la inteligencia artificial carece de cláusulas vinculantes y obligatorias y está más bien lleno de directrices poco rigurosas. De hecho, los expertos destacan que este proyecto de ley puede incluso dificultar aún más la rendición de cuentas por los sesgos discriminatorios de la IA. En comparación con la propuesta de la UE de amplias regulaciones basadas en el riesgo, el proyecto de ley brasileño tiene 10 artículos que proponen recomendaciones vagas y genéricas.
En comparación con el enfoque de participación de múltiples partes interesadas adoptado anteriormente en la década de 2000 cuando se redactó la Carta de Derechos de Internet brasileña, el Marco Civil da Internet, se considera que el proyecto de ley brasileño carece significativamente de perspectiva. El multisectorialismo, más comúnmente conocido como gobernanza de múltiples partes interesadas, se define como la práctica de lograr que múltiples partes interesadas participen en el diálogo, la toma de decisiones y la implementación de respuestas a problemas percibidos conjuntamente. En el contexto de la IA regulatoria, esta perspectiva de múltiples partes interesadas captura las compensaciones y las diferentes perspectivas de diferentes partes interesadas con intereses específicos, lo que ayuda a mantener la transparencia y una eficacia más amplia. Por el contrario, la propuesta legislativa para la regulación de la IA no siguió un enfoque de múltiples partes interesadas similar.
Los pasos futuros pueden incluir la ampliación de la perspectiva de múltiples partes interesadas. Ha habido una creciente preocupación por la inaplicabilidad del marco del proyecto de ley, lo que pone de relieve que la solución única para todos puede no ser adecuada para la regulación de la IA y exige disposiciones subjetivas y adaptativas.
La Estrategia Pancanadiense de Inteligencia Artificial (2017) cuenta con el apoyo de una financiación federal de 125 millones de dólares canadienses y tiene como objetivos aumentar el número de investigadores destacados en materia de IA y de graduados cualificados en Canadá, establecer nodos de excelencia científica en los tres principales centros de IA, desarrollar un "liderazgo de pensamiento global" sobre las implicaciones económicas, éticas, políticas y jurídicas de los avances en IA y apoyar a una comunidad nacional de investigación que trabaje en IA. [56] El Programa de Cátedras de IA de CIFAR de Canadá es la piedra angular de la estrategia. Se beneficia de una financiación de 86,5 millones de dólares canadienses a lo largo de cinco años para atraer y retener a investigadores de IA de renombre mundial. [56] El gobierno federal designó un Consejo Asesor sobre IA en mayo de 2019 con el objetivo de examinar cómo aprovechar las fortalezas de Canadá para garantizar que los avances en IA reflejen los valores canadienses, como los derechos humanos, la transparencia y la apertura. El Consejo Asesor sobre IA ha establecido un grupo de trabajo para extraer valor comercial de la IA y el análisis de datos de propiedad canadiense. [56] En 2020, el Gobierno federal y el Gobierno de Quebec anunciaron la apertura del Centro Internacional de Expertos en Montreal para el Avance de la Inteligencia Artificial, que promoverá la causa del desarrollo responsable de la IA. [56] En junio de 2022, el Gobierno de Canadá inició una segunda fase de la Estrategia Pancanadiense de Inteligencia Artificial. [77] En noviembre de 2022, Canadá presentó la Ley de Implementación de la Carta Digital (Proyecto de Ley C-27), que propone tres leyes que se han descrito como un paquete holístico de legislación para la confianza y la privacidad: la Ley de Protección de la Privacidad del Consumidor, la Ley del Tribunal de Protección de Datos e Información Personal y la Ley de Inteligencia Artificial y Datos (AIDA). [78] [79]
En Marruecos, una coalición de partidos políticos ha presentado una nueva propuesta legislativa en el Parlamento para crear la Agencia Nacional de Inteligencia Artificial (IA). Esta agencia tiene por objeto regular las tecnologías de IA, mejorar la colaboración con entidades internacionales en ese ámbito y aumentar la conciencia pública sobre las posibilidades y los riesgos asociados a la IA. [80]
La regulación de la IA en China está regida principalmente por el "Plan de desarrollo de inteligencia artificial de próxima generación" del Consejo de Estado de la República Popular China del 8 de julio de 2017 (Documento del Consejo de Estado No. 35), en el que el Comité Central del Partido Comunista Chino y el Consejo de Estado de la República Popular China instaron a los órganos de gobierno de China a promover el desarrollo de la IA hasta 2030. La regulación de las cuestiones de apoyo ético y legal para el desarrollo de la IA se está acelerando, y la política garantiza el control estatal de las empresas chinas y sobre datos valiosos, incluido el almacenamiento de datos sobre usuarios chinos dentro del país y el uso obligatorio de los estándares nacionales de la República Popular China para la IA, incluidos los de big data, computación en la nube y software industrial. [81] [82] [83] En 2021, China publicó directrices éticas para el uso de la IA en China que establecen que los investigadores deben asegurarse de que la IA respete los valores humanos compartidos, esté siempre bajo control humano y no ponga en peligro la seguridad pública. [84] En 2023, China introdujo medidas provisionales para la gestión de los servicios de IA generativa . [85]
El Consejo de Europa (CdE) es una organización internacional que promueve los derechos humanos, la democracia y el estado de derecho. Está compuesto por 46 estados miembros, incluidos los 29 signatarios de la Declaración de Cooperación sobre Inteligencia Artificial de la Unión Europea de 2018. El CdE ha creado un espacio jurídico común en el que los miembros tienen la obligación legal de garantizar los derechos establecidos en el Convenio Europeo de Derechos Humanos . Específicamente en relación con la IA, "el objetivo del Consejo de Europa es identificar áreas de intersección entre la IA y nuestros estándares en materia de derechos humanos, democracia y estado de derecho, y desarrollar soluciones relevantes para el establecimiento de estándares o el desarrollo de capacidades". La gran cantidad de documentos relevantes identificados por el CdE incluyen directrices, cartas, documentos, informes y estrategias. [86] Los organismos autores de estos documentos de regulación de la IA no se limitan a un sector de la sociedad e incluyen organizaciones, empresas, organismos y estados-nación. [63]
En 2019, el Consejo de Europa inició un proceso para evaluar la necesidad de una regulación jurídicamente vinculante de la IA, centrándose específicamente en sus implicaciones para los derechos humanos y los valores democráticos. Las negociaciones sobre un tratado comenzaron en septiembre de 2022, en las que participaron los 46 Estados miembros del Consejo de Europa, así como Argentina, Australia, Canadá, Costa Rica, la Santa Sede, Israel, Japón, México, Perú, los Estados Unidos de América y Uruguay, así como la Unión Europea. El 17 de mayo de 2024 se adoptó el « Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho », que se abrió a la firma el 5 de septiembre de 2024. Aunque fue elaborado por una organización europea, el tratado está abierto a la adhesión de Estados de otras partes del mundo. Los primeros diez signatarios fueron: Andorra, Georgia, Islandia, Noruega, Moldavia, San Marino, el Reino Unido, Israel, los Estados Unidos y la Unión Europea. [87] [88]
La UE es una de las jurisdicciones más grandes del mundo y desempeña un papel activo en la regulación global de la tecnología digital a través del RGPD , [89] la Ley de Servicios Digitales y la Ley de Mercados Digitales . [90] [91] En el caso de la IA en particular, la Ley de Inteligencia Artificial se considera en 2023 como la regulación de mayor alcance de la IA en todo el mundo. [92] [93]
La mayoría de los países de la Unión Europea (UE) tienen sus propias estrategias nacionales para regular la IA, pero estas son en gran medida convergentes. [63] La Unión Europea se guía por una Estrategia Europea sobre Inteligencia Artificial, [94] apoyada por un Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial. [95] [96] En abril de 2019, la Comisión Europea publicó sus Directrices éticas para la inteligencia artificial (IA) confiable , [97] seguidas de sus recomendaciones de política e inversión para la inteligencia artificial confiable en junio de 2019. [98] El Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea lleva a cabo trabajos sobre IA confiable, y la Comisión ha publicado informes sobre los aspectos de seguridad y responsabilidad de la IA y sobre la ética de los vehículos automatizados. En 2020, la Comisión Europea solicitó opiniones sobre una propuesta de legislación específica sobre IA, y ese proceso está en curso. [63]
El 2 de febrero de 2020, la Comisión Europea publicó su Libro Blanco sobre Inteligencia Artificial: un enfoque europeo de la excelencia y la confianza . [99] [100] El Libro Blanco consta de dos bloques principales, un "ecosistema de excelencia" y un "ecosistema de confianza". El "ecosistema de confianza" describe el enfoque de la UE para un marco regulatorio para la IA. En su enfoque propuesto, la Comisión distingue las aplicaciones de IA en función de si son "de alto riesgo" o no. Solo las aplicaciones de IA de alto riesgo deberían estar en el alcance de un futuro marco regulatorio de la UE. Una aplicación de IA se considera de alto riesgo si opera en un sector de riesgo (como la atención médica, el transporte o la energía) y se "utiliza de tal manera que es probable que surjan riesgos significativos". Para las aplicaciones de IA de alto riesgo, los requisitos se refieren principalmente a: "datos de entrenamiento", "datos y mantenimiento de registros", "información que se proporcionará", "robustez y precisión" y "supervisión humana". También hay requisitos específicos para ciertos usos, como la identificación biométrica remota. Las aplicaciones de IA que no se consideren de «alto riesgo» podrían regirse por un sistema de etiquetado voluntario. En lo que respecta al cumplimiento y la aplicación, la Comisión considera la posibilidad de realizar evaluaciones de conformidad previas que podrían incluir «procedimientos de prueba, inspección o certificación» y/o «controles de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo». Una estructura de gobernanza europea en materia de IA en forma de un marco de cooperación entre las autoridades nacionales competentes podría facilitar la aplicación del marco regulador. [101]
El 14 de abril de 2021 se filtró en Internet un borrador de enero de 2021 [102] , antes de que la Comisión presentara su "Propuesta de Reglamento por el que se establecen normas armonizadas sobre inteligencia artificial" oficial una semana después [103] . Poco después, sobre esta base se propuso formalmente la Ley de Inteligencia Artificial (también conocida como Ley de IA). [104] Esta propuesta incluye un refinamiento del enfoque basado en el riesgo de 2020 con, esta vez, 4 categorías de riesgo: "mínimo", "limitado", "alto" e "inaceptable". [105] La propuesta ha sido duramente criticada en el debate público. Los académicos han expresado su preocupación por varios elementos poco claros de la propuesta (como la definición amplia de lo que constituye la IA) y han temido implicaciones legales no deseadas, especialmente para grupos vulnerables como los pacientes y los migrantes. [106] [107] La categoría de riesgo "IA de propósito general" se agregó a la Ley de IA para dar cuenta de modelos versátiles como ChatGPT , que no encajaban en el marco de regulación basado en aplicaciones. [108] A diferencia de otras categorías de riesgo, los modelos de IA de propósito general se pueden regular en función de sus capacidades, no solo de sus usos. Los modelos de IA de propósito general más débiles están sujetos a requisitos de transparencia, mientras que aquellos que se considera que plantean "riesgos sistémicos" (en particular, aquellos entrenados utilizando capacidades computacionales superiores a 10 25 FLOPS ) también deben someterse a un proceso de evaluación exhaustivo. [109] Una versión posterior de la Ley de IA se adoptó finalmente en mayo de 2024. [110] La Ley de IA se aplicará progresivamente. [111] El reconocimiento de emociones y la identificación biométrica remota en tiempo real estarán prohibidos, con algunas excepciones, como para la aplicación de la ley. [112]
Los observadores han expresado su preocupación por la multiplicación de propuestas legislativas en el marco de la Comisión von der Leyen . La velocidad de las iniciativas legislativas está en parte determinada por las ambiciones políticas de la UE y podría poner en riesgo los derechos digitales de los ciudadanos europeos, incluidos los derechos a la privacidad, [113] especialmente ante las garantías inciertas de protección de datos a través de la ciberseguridad. [96] Entre los principios rectores establecidos en la variedad de propuestas legislativas en el ámbito de la IA en el marco de la Comisión von der Leyen se encuentran los objetivos de autonomía estratégica [114] y el concepto de soberanía digital. [115] El 29 de mayo de 2024, el Tribunal de Cuentas Europeo publicó un informe en el que afirmaba que las medidas de la UE no estaban bien coordinadas con las de los países de la UE; que el seguimiento de las inversiones no era sistemático; y que se necesitaba una gobernanza más fuerte. [116]
En noviembre de 2020, [117] DIN , DKE y el Ministerio Federal de Asuntos Económicos y Energía de Alemania publicaron la primera edición de la "Hoja de ruta de normalización alemana para la inteligencia artificial" (NRM KI) y la presentaron al público en la Cumbre Digital del Gobierno Federal de Alemania. [118] NRM KI describe los requisitos para futuras regulaciones y estándares en el contexto de la IA. La implementación de las recomendaciones de acción tiene como objetivo ayudar a fortalecer la economía y la ciencia alemanas en la competencia internacional en el campo de la inteligencia artificial y crear condiciones favorables a la innovación para esta tecnología emergente . La primera edición es un documento de 200 páginas escrito por 300 expertos. La segunda edición de NRM KI se publicó para coincidir con la Cumbre Digital del gobierno alemán el 9 de diciembre de 2022. [119] DIN coordinó a más de 570 expertos participantes de una amplia gama de campos de la ciencia, la industria, la sociedad civil y el sector público. La segunda edición es un documento de 450 páginas.
Por una parte, el documento NRM KI cubre los temas centrales en términos de aplicaciones (por ejemplo, medicina, movilidad, energía y medio ambiente, servicios financieros, automatización industrial) y cuestiones fundamentales (por ejemplo, clasificación de IA, seguridad, certificabilidad, sistemas sociotécnicos, ética). [119] Por otra parte, proporciona una visión general de los términos centrales en el campo de la IA y su entorno en una amplia gama de grupos de interés y fuentes de información. En total, el documento cubre 116 necesidades de normalización y proporciona seis recomendaciones centrales para la acción. [120]
El 30 de octubre de 2023, los miembros del G7 suscriben once principios rectores para el diseño, la producción y la implementación de sistemas avanzados de inteligencia artificial, así como un Código de conducta voluntario para los desarrolladores de inteligencia artificial en el contexto del Proceso de Hiroshima. [121]
El acuerdo recibe el aplauso de Ursula von der Leyen , que encuentra en él los principios de la Directiva IA, actualmente en fase de finalización.
El 30 de octubre de 2022, de conformidad con la resolución gubernamental 212 de agosto de 2021, el Ministerio de Innovación, Ciencia y Tecnología de Israel publicó su libro blanco "Principios de política, regulación y ética en IA" para consulta pública. [122] Para diciembre de 2023, el Ministerio de Innovación y el Ministerio de Justicia publicaron un documento conjunto de política de regulación y ética de la IA, en el que se describen varios principios éticos de la IA y un conjunto de recomendaciones que incluyen la opción de una regulación basada en sectores, un enfoque basado en el riesgo, la preferencia por herramientas regulatorias "blandas" y el mantenimiento de la coherencia con los enfoques regulatorios globales existentes para la IA. [123]
En octubre de 2023, la autoridad de privacidad italiana aprobó un reglamento que establece tres principios para las decisiones terapéuticas tomadas por sistemas automatizados: transparencia de los procesos de toma de decisiones, supervisión humana de las decisiones automatizadas y no discriminación algorítmica. [124]
A julio de 2023 [actualizar], no existe ninguna legislación específica sobre IA, pero su uso está regulado por leyes existentes, entre ellas la Ley de Privacidad , la Ley de Derechos Humanos , la Ley de Comercio Justo y la Ley de Comunicaciones Digitales Dañinas . [125]
En 2020, el Gobierno de Nueva Zelanda patrocinó un proyecto piloto del Foro Económico Mundial titulado "Reimaginar la regulación para la era de la IA", cuyo objetivo era crear marcos regulatorios en torno a la IA. [126] Ese mismo año, se actualizó la Ley de Privacidad para regular el uso de la información personal de los neozelandeses en la IA. [127] En 2023, el Comisionado de Privacidad publicó una guía sobre el uso de la IA de acuerdo con los principios de privacidad de la información. [128] En febrero de 2024, la Fiscal General y Ministra de Tecnología anunció la formación de un grupo parlamentario multipartidario de IA , y que se estaba desarrollando ese marco para el uso de la IA por parte del Gobierno. También anunció que no se planeaba ninguna regulación adicional en esa etapa. [129]
En 2023, se presentó un proyecto de ley en la Cámara de Representantes de Filipinas que proponía la creación de la Autoridad de Desarrollo de Inteligencia Artificial (AIDA), que supervisaría el desarrollo y la investigación de la inteligencia artificial. También se propuso que la AIDA fuera un organismo de control contra los delitos que utilizan la IA. [130]
La Comisión Electoral también ha considerado en 2024 la prohibición del uso de inteligencia artificial y deepfake para campañas electorales. Buscan implementar regulaciones que se aplicarían ya en las elecciones generales de 2025. [131]
En 2018, el Ministerio de Ciencia, Innovación y Universidades de España aprobó una Estrategia de I+D en Inteligencia Artificial. [132]
Con la formación del segundo Gobierno de Pedro Sánchez en enero de 2020 se reforzaron las áreas relacionadas con las nuevas tecnologías que, desde 2018, estaban en el Ministerio de Economía . Así, en 2020 se creó la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). [133] Desde este órgano superior, siguiendo las recomendaciones realizadas por la Estrategia de I+D en Inteligencia Artificial de 2018, [134] se elaboró la Estrategia Nacional de Inteligencia Artificial (2020), que ya preveía actuaciones concernientes a la gobernanza de la inteligencia artificial y los estándares éticos que debían regir su uso. Este proyecto también se incluyó dentro del Plan de Recuperación, Transformación y Resiliencia (2021).
Durante 2021, [133] el Gobierno reveló que estas ideas se desarrollarían a través de una nueva agencia gubernamental, y los Presupuestos Generales del Estado para 2022 autorizaron su creación y destinaron cinco millones de euros para su desarrollo. [135]
El Consejo de Ministros , en su reunión del 13 de septiembre de 2022, inició el proceso para la elección de la sede de la AESIA. [136] [137] 16 provincias españolas presentaron candidaturas, optándose el Gobierno por La Coruña , que propuso el edificio de La Terraza. [138]
El 22 de agosto de 2023, el Gobierno aprobó el reglamento interno de la Agencia. [139] Con ello, España se convirtió en el primer país europeo con una agencia dedicada a la supervisión de la IA, anticipándose a la entrada en vigor del futuro Reglamento Europeo sobre Inteligencia Artificial, [140] que establece la necesidad de que los Estados miembros cuenten con una autoridad supervisora en esta materia.El Reino Unido apoyó la aplicación y el desarrollo de la IA en las empresas a través de la Estrategia de Economía Digital 2015-2018 [141] introducida a principios de 2015 por Innovate UK como parte de la Estrategia Digital del Reino Unido. [141] En el sector público, el Departamento de Cultura, Medios de Comunicación y Deporte Digital asesoró sobre la ética de los datos y el Instituto Alan Turing proporcionó orientación sobre el diseño e implementación responsables de sistemas de IA. [142] [143] En términos de ciberseguridad, en 2020 el Centro Nacional de Ciberseguridad publicó una guía sobre "Herramientas de Seguridad Inteligente". [46] [144] El año siguiente, el Reino Unido publicó su Estrategia Nacional de IA de 10 años, [145] que describe acciones para evaluar los riesgos de la IA a largo plazo, incluidos los riesgos catastróficos relacionados con la IAG. [146]
En marzo de 2023, el Reino Unido publicó el libro blanco Un enfoque pro-innovación para la regulación de la IA . [147] Este libro blanco presenta principios generales de IA, pero deja una flexibilidad significativa a los reguladores existentes en cómo adaptan estos principios a áreas específicas como el transporte o los mercados financieros. [148] En noviembre de 2023, el Reino Unido fue anfitrión de la primera cumbre de seguridad de IA , con el primer ministro Rishi Sunak con el objetivo de posicionar al Reino Unido como líder en la regulación de la seguridad de la IA . [149] [150] Durante la cumbre, el Reino Unido creó un Instituto de Seguridad de IA , como una evolución del Grupo de Trabajo de IA Fronteriza dirigido por Ian Hogarth . Al instituto se le asignó notablemente la responsabilidad de avanzar en las evaluaciones de seguridad de los modelos de IA más avanzados del mundo, también llamados modelos de IA de frontera . [151]
El gobierno del Reino Unido manifestó su renuencia a legislar tempranamente, argumentando que ello podría reducir el crecimiento del sector y que las leyes podrían quedar obsoletas debido a un mayor progreso tecnológico. [152]
Los debates sobre la regulación de la IA en los Estados Unidos han incluido temas como la oportunidad de regular la IA, la naturaleza del marco regulatorio federal para gobernar y promover la IA, incluido qué agencia debería liderar, los poderes regulatorios y de gobierno de esa agencia y cómo actualizar las regulaciones frente a la tecnología que cambia rápidamente, así como los roles de los gobiernos estatales y los tribunales. [153]
Ya en 2016, la administración Obama había comenzado a centrarse en los riesgos y las regulaciones para la inteligencia artificial. En un informe titulado Preparing For the Future of Artificial Intelligence [154] , el Consejo Nacional de Ciencia y Tecnología sentó un precedente para permitir que los investigadores siguieran desarrollando nuevas tecnologías de IA con pocas restricciones. En el informe se afirma que "el enfoque de la regulación de los productos habilitados para IA para proteger la seguridad pública debe basarse en la evaluación de los aspectos de riesgo...". [155] Estos riesgos serían la razón principal para crear cualquier forma de regulación, suponiendo que cualquier regulación existente no se aplicaría a la tecnología de IA.
El primer informe importante fue el Plan Nacional Estratégico de Investigación y Desarrollo para la Inteligencia Artificial. [156] El 13 de agosto de 2018, la Sección 1051 de la Ley de Autorización de Defensa Nacional John S. McCain del Año Fiscal 2019 (PL 115-232) estableció la Comisión de Seguridad Nacional sobre Inteligencia Artificial "para considerar los métodos y medios necesarios para avanzar en el desarrollo de la inteligencia artificial, el aprendizaje automático y las tecnologías asociadas para abordar de manera integral las necesidades de seguridad nacional y defensa de los Estados Unidos". [157] La Comisión de Seguridad Nacional sobre Inteligencia Artificial proporciona orientación sobre la regulación de la IA relacionada con la seguridad. [158] La Ley de Iniciativa de Inteligencia Artificial (S.1558) es un proyecto de ley que establecería una iniciativa federal diseñada para acelerar la investigación y el desarrollo de la IA para, entre otras cosas , la seguridad económica y nacional de los Estados Unidos. [159] [160]
El 7 de enero de 2019, tras una Orden Ejecutiva sobre el Mantenimiento del Liderazgo Estadounidense en Inteligencia Artificial, [161] la Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un borrador de Orientación para la Regulación de Aplicaciones de Inteligencia Artificial , [162] que incluye diez principios para las agencias de los Estados Unidos al decidir si regular la IA y cómo hacerlo. [163] En respuesta, el Instituto Nacional de Estándares y Tecnología publicó un documento de posición, [164] y la Junta de Innovación de Defensa emitió recomendaciones sobre el uso ético de la IA. [45] Un año después, la administración solicitó comentarios sobre la regulación en otro borrador de su Orientación para la Regulación de Aplicaciones de Inteligencia Artificial. [165]
Otras agencias específicas que trabajan en la regulación de la IA incluyen la Administración de Alimentos y Medicamentos, [39] que ha creado vías para regular la incorporación de la IA en las imágenes médicas. [38] El Consejo Nacional de Ciencia y Tecnología también publicó el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial, [166] que recibió escrutinio público y recomendaciones para mejorarlo aún más con el fin de permitir una IA confiable. [167]
En marzo de 2021, la Comisión de Seguridad Nacional sobre Inteligencia Artificial publicó su informe final. [168] En el informe, afirmaron que "los avances en IA, incluido el dominio de capacidades de IA más generales a lo largo de una o más dimensiones, probablemente proporcionarán nuevas capacidades y aplicaciones. Algunos de estos avances podrían conducir a puntos de inflexión o saltos en las capacidades. Dichos avances también pueden introducir nuevas preocupaciones y riesgos y la necesidad de nuevas políticas, recomendaciones y avances técnicos para asegurar que los sistemas estén alineados con los objetivos y valores, incluida la seguridad, la solidez y la confiabilidad. Estados Unidos debe monitorear los avances en IA y realizar las inversiones necesarias en tecnología y prestar atención a las políticas para garantizar que los sistemas de IA y sus usos se alineen con nuestros objetivos y valores".
En junio de 2022, los senadores Rob Portman y Gary Peters presentaron la Ley de Mitigación de Riesgos Catastróficos Globales. El proyecto de ley bipartidista "también ayudaría a contrarrestar el riesgo de que la inteligencia artificial... sea objeto de abuso de formas que puedan suponer un riesgo catastrófico". [169] [170] El 4 de octubre de 2022, el presidente Joe Biden presentó una nueva Carta de Derechos de la IA, [171] que describe cinco protecciones que los estadounidenses deberían tener en la era de la IA: 1. Sistemas seguros y eficaces, 2. Protección contra la discriminación algorítmica, 3. Privacidad de los datos, 4. Notificación y explicación, y 5. Alternativas humanas, consideración y respaldo. El proyecto de ley fue presentado en octubre de 2021 por la Oficina de Política Científica y Tecnológica (OSTP), un departamento del gobierno estadounidense que asesora al presidente en materia de ciencia y tecnología. [172]
En enero de 2023, el Ayuntamiento de la ciudad de Nueva York promulgó la Ley de auditoría de sesgos de la ciudad de Nueva York (Ley local 144 [173] ). Originalmente prevista para entrar en vigor el 1 de enero de 2023, la fecha de aplicación de la Ley local 144 se ha retrasado debido al gran volumen de comentarios recibidos durante la audiencia pública sobre las normas propuestas por el Departamento de Protección al Consumidor y al Trabajador (DCWP) para aclarar los requisitos de la legislación. Finalmente entró en vigor el 5 de julio de 2023. [174] A partir de esta fecha, las empresas que operan y contratan en la ciudad de Nueva York tienen prohibido utilizar herramientas automatizadas para contratar candidatos o ascender a empleados, a menos que las herramientas hayan sido auditadas de forma independiente para detectar sesgos.
En julio de 2023, la administración Biden-Harris obtuvo compromisos voluntarios de siete empresas ( Amazon , Anthropic , Google , Inflection , Meta , Microsoft y OpenAI ) para gestionar los riesgos asociados a la IA. Las empresas se comprometieron a garantizar que los productos de IA se sometan a pruebas de seguridad internas y externas antes de su lanzamiento al público; a compartir información sobre la gestión de los riesgos de la IA con la industria, los gobiernos, la sociedad civil y el mundo académico; a priorizar la ciberseguridad y proteger los componentes patentados del sistema de IA; a desarrollar mecanismos para informar a los usuarios cuando el contenido es generado por IA, como la marca de agua; a informar públicamente sobre las capacidades, limitaciones y áreas de uso de sus sistemas de IA; a priorizar la investigación sobre los riesgos sociales que plantea la IA, incluidos los prejuicios, la discriminación y las preocupaciones sobre la privacidad; y a desarrollar sistemas de IA para abordar los desafíos sociales, que van desde la prevención del cáncer hasta la mitigación del cambio climático . En septiembre de 2023, ocho empresas más ( Adobe , Cohere , IBM , Nvidia , Palantir , Salesforce , Scale AI y Stability AI ) suscribieron estos compromisos voluntarios. [175] [176]
En octubre de 2023, la administración Biden señaló que emitiría una orden ejecutiva que aprovecharía el poder adquisitivo del gobierno federal para dar forma a las regulaciones de IA, lo que sugiere una postura gubernamental proactiva en la regulación de las tecnologías de IA. [177] El 30 de octubre de 2023, el presidente Biden emitió esta Orden Ejecutiva sobre Inteligencia Artificial Segura, Protegida y Confiable . La Orden Ejecutiva aborda una variedad de cuestiones, como centrarse en los estándares para la infraestructura crítica, la ciberseguridad mejorada por IA y los proyectos de síntesis biológica financiados por el gobierno federal. [178]
La Orden Ejecutiva otorga autoridad a varias agencias y departamentos del gobierno de Estados Unidos, incluidos los departamentos de Energía y Defensa, para aplicar las leyes de protección al consumidor existentes al desarrollo de la IA. [179]
La Orden Ejecutiva se basa en acuerdos anteriores de la Administración con empresas de IA para implementar nuevas iniciativas para "poner en equipo" o poner a prueba los modelos básicos de IA de doble uso, especialmente aquellos que tienen el potencial de presentar riesgos de seguridad, con datos y resultados compartidos con el gobierno federal.
La Orden Ejecutiva también reconoce los desafíos sociales de la IA y pide a las empresas que construyen modelos de base de IA de doble uso que sean cautelosas ante estos problemas sociales. Por ejemplo, la Orden Ejecutiva establece que la IA no debe "empeorar la calidad del trabajo" y no debe "causar disrupciones en la fuerza laboral". Además, la Orden Ejecutiva de Biden ordena que la IA debe "promover la equidad y los derechos civiles", y no puede perjudicar a los grupos marginados. [180] También pidió que los modelos de base incluyan "marcas de agua" para ayudar al público a discernir entre el contenido generado por humanos y el generado por IA, lo que ha generado controversia y críticas por parte de los investigadores de detección de deepfake. [181]
En febrero de 2024, el senador Scott Wiener presentó la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Fronteras a la legislatura de California. El proyecto de ley se basó en gran medida en la orden ejecutiva de Biden . [182] Tenía el objetivo de reducir los riesgos catastróficos al ordenar pruebas de seguridad para los modelos de IA más potentes. Si se aprobaba, el proyecto de ley también habría establecido un clúster de computación en la nube financiado con fondos públicos en California. [183] El 29 de septiembre, el gobernador Gavin Newsom vetó el proyecto de ley. Se considera poco probable que la legislatura anule el veto del gobernador con un voto de dos tercios de ambas cámaras. [184]
El 21 de marzo de 2024, el estado de Tennessee promulgó una legislación llamada Ley ELVIS , dirigida específicamente a las falsificaciones profundas de audio y la clonación de voz. [185] Esta legislación fue la primera legislación promulgada en la nación destinada a regular la simulación de imagen, voz y semejanza mediante IA. [186] El proyecto de ley se aprobó por unanimidad en la Cámara de Representantes y el Senado de Tennessee . [187] Sus partidarios esperaban que el éxito de esta legislación inspirara acciones similares en otros estados, contribuyendo a un enfoque unificado de los derechos de autor y la privacidad en la era digital, y reforzara la importancia de salvaguardar los derechos de los artistas contra el uso no autorizado de sus voces y semejanzas. [188] [189]
El 13 de marzo de 2024, el gobernador de Utah, Spencer Cox, firmó la SB 149 "Artificial Intelligence Policy Act". Esta legislación entra en vigor el 1 de mayo de 2024. Establece responsabilidad, en particular para las empresas que no revelen su uso de IA generativa cuando lo exigen las leyes estatales de protección al consumidor, o cuando los usuarios cometen delitos penales utilizando IA generativa. También crea la Oficina de Política de Inteligencia Artificial y el Programa de Laboratorio de Aprendizaje de Inteligencia Artificial . [190] [191]
Las cuestiones jurídicas relacionadas con los sistemas de armas autónomas letales (LAWS), en particular el cumplimiento de las leyes de los conflictos armados , han sido objeto de debate en las Naciones Unidas desde 2013, en el contexto de la Convención sobre ciertas armas convencionales . [192] Cabe destacar que se celebraron reuniones informales de expertos en 2014, 2015 y 2016 y se nombró un Grupo de Expertos Gubernamentales (GGE) para seguir deliberando sobre el tema en 2016. En 2018 se adoptó un conjunto de principios rectores sobre los LAWS afirmados por el GGE sobre los LAWS. [193]
En 2016, China publicó un documento de posición en el que cuestionaba la idoneidad del derecho internacional existente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar la cuestión, [47] y dando lugar a propuestas de regulación global. [194] La posibilidad de una moratoria o prohibición preventiva del desarrollo y uso de LAWS también ha sido planteada en varias ocasiones por otras delegaciones nacionales ante la Convención sobre Ciertas Armas Convencionales y es fuertemente defendida por la Campaña para Detener los Robots Asesinos , una coalición de organizaciones no gubernamentales. [195] El gobierno de Estados Unidos sostiene que el derecho internacional humanitario actual es capaz de regular el desarrollo o uso de LAWS. [196] El Servicio de Investigación del Congreso indicó en 2023 que Estados Unidos no tiene LAWS en su inventario, pero que su política no prohíbe su desarrollo y empleo. [197]