stringtranslate.com

Regulación de la inteligencia artificial

La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA). Es parte de la regulación más amplia de los algoritmos . [1] [2] El panorama regulatorio y de políticas para la IA es un tema emergente en jurisdicciones de todo el mundo, incluso para organizaciones internacionales sin poder de aplicación directa como el IEEE o la OCDE . [3]

Desde 2016, se han publicado numerosas directrices éticas sobre IA con el fin de mantener el control social sobre la tecnología. [4] La regulación se considera necesaria tanto para fomentar la innovación en IA como para gestionar los riesgos asociados.

Además, las organizaciones que implementan IA tienen un papel central que desempeñar en la creación e implementación de una IA confiable , adhiriéndose a los principios establecidos y asumiendo la responsabilidad de mitigar los riesgos. [5]

La regulación de la IA a través de mecanismos como los comités de revisión también puede considerarse un medio social para abordar el problema del control de la IA . [6] [7]

Fondo

Según el Índice de IA 2023 de la Universidad de Stanford , el número anual de proyectos de ley que mencionan la "inteligencia artificial" aprobados en 127 países encuestados aumentó de uno en 2016 a 37 en 2022. [8] [9]

En 2017, Elon Musk pidió la regulación del desarrollo de la IA. [10] Según NPR , el CEO de Tesla "claramente no estaba emocionado" de abogar por un escrutinio gubernamental que podría afectar a su propia industria, pero creía que los riesgos de prescindir por completo de la supervisión son demasiado altos: "Normalmente, la forma en que se establecen las regulaciones es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se crea una agencia reguladora para regular esa industria. Lleva una eternidad. Eso, en el pasado, ha sido malo, pero no algo que representara un riesgo fundamental para la existencia de la civilización". [10] En respuesta, algunos políticos expresaron escepticismo sobre la sabiduría de regular una tecnología que aún está en desarrollo. [11] En respuesta tanto a Musk como a las propuestas de febrero de 2017 de los legisladores de la Unión Europea para regular la IA y la robótica, el CEO de Intel, Brian Krzanich, ha argumentado que la IA está en su infancia y que es demasiado pronto para regular la tecnología. [12] Muchas empresas tecnológicas se oponen a la regulación estricta de la IA y "si bien algunas de las empresas han dicho que dan la bienvenida a las reglas en torno a la IA, también se han pronunciado en contra de regulaciones estrictas similares a las que se están creando en Europa" [13]. En lugar de tratar de regular la tecnología en sí, algunos académicos sugirieron desarrollar normas comunes que incluyan requisitos para las pruebas y la transparencia de los algoritmos, posiblemente en combinación con alguna forma de garantía. [14]

En una encuesta de Ipsos de 2022 , las actitudes hacia la IA variaron mucho según el país: el 78% de los ciudadanos chinos, pero solo el 35% de los estadounidenses, estuvieron de acuerdo en que "los productos y servicios que utilizan IA tienen más beneficios que inconvenientes". [8] Una encuesta de Reuters /Ipsos de 2023 encontró que el 61% de los estadounidenses está de acuerdo, y el 22% no, en que la IA plantea riesgos para la humanidad. [15] En una encuesta de Fox News de 2023 , el 35% de los estadounidenses pensó que era "muy importante", y un 41% adicional pensó que era "algo importante", que el gobierno federal regulara la IA, frente al 13% que respondió "no muy importante" y el 8% que respondió "nada importante". [16] [17]

Perspectivas

La regulación de las inteligencias artificiales consiste en el desarrollo de políticas y leyes del sector público para promover y regular la IA. [18] En la actualidad, la regulación se considera generalmente necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. [19] [20] [21] Las consideraciones de la administración pública y las políticas se centran generalmente en las implicaciones técnicas y económicas y en sistemas de IA fiables y centrados en el ser humano, [22] aunque también se considera la regulación de las superinteligencias artificiales. [23] El enfoque básico de la regulación se centra en los riesgos y sesgos de los algoritmos de aprendizaje automático , a nivel de los datos de entrada, las pruebas de algoritmos y el modelo de decisión. También se centra en la explicabilidad de los resultados. [20]

Ha habido propuestas tanto de derecho duro como de derecho blando para regular la IA. [24] Algunos académicos legales han señalado que los enfoques de derecho duro para la regulación de la IA tienen desafíos sustanciales. [25] [26] Entre los desafíos, la tecnología de IA está evolucionando rápidamente, lo que lleva a un "problema de ritmo" en el que las leyes y regulaciones tradicionales a menudo no pueden seguir el ritmo de las aplicaciones emergentes y sus riesgos y beneficios asociados. [25] [26] De manera similar, la diversidad de aplicaciones de IA desafía a las agencias reguladoras existentes, que a menudo tienen un alcance jurisdiccional limitado. [25] Como alternativa, algunos académicos legales argumentan que los enfoques de derecho blando para la regulación de la IA son prometedores porque las leyes blandas se pueden adaptar de manera más flexible para satisfacer las necesidades de la tecnología de IA emergente y en evolución y las aplicaciones nacientes. [25] [26] Sin embargo, los enfoques de derecho blando a menudo carecen de un potencial de aplicación sustancial. [25] [27]

Cason Schmit, Megan Doerr y Jennifer Wagner propusieron la creación de un regulador cuasi gubernamental aprovechando los derechos de propiedad intelectual (es decir, licencias copyleft ) en ciertos objetos de IA (es decir, modelos de IA y conjuntos de datos de entrenamiento) y delegando los derechos de cumplimiento a una entidad de cumplimiento designada. [28] Argumentan que la IA puede licenciarse bajo términos que requieren el cumplimiento de prácticas éticas y códigos de conducta específicos (por ejemplo, principios de derecho indicativo). [28]

Las organizaciones juveniles destacadas centradas en la IA, en particular Encode Justice, también han publicado agendas integrales que piden regulaciones más estrictas en materia de IA y asociaciones público-privadas . [29] [30]

La regulación de la IA podría derivar de principios básicos. Una meta-revisión de 2020 del Berkman Klein Center for Internet & Society de conjuntos de principios existentes, como los Principios de Asilomar y los Principios de Beijing, identificó ocho de esos principios básicos: privacidad, rendición de cuentas, seguridad y protección, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y respeto por los valores humanos. [31] La legislación y las regulaciones de la IA se han dividido en tres temas principales, a saber, la gobernanza de los sistemas de inteligencia autónomos, la responsabilidad y la rendición de cuentas por los sistemas, y las cuestiones de privacidad y seguridad. [19] Un enfoque de administración pública ve una relación entre la legislación y la regulación de la IA, la ética de la IA y la "sociedad de la IA", definida como la sustitución y transformación de la fuerza laboral, la aceptación social y la confianza en la IA, y la transformación de la interacción entre humanos y máquinas. [32] Se considera necesario el desarrollo de estrategias del sector público para la gestión y regulación de la IA a nivel local, nacional [33] e internacional [34] y en una variedad de campos, desde la gestión de servicios públicos [35] y la rendición de cuentas [36] hasta la aplicación de la ley, [34] [37] la atención sanitaria (especialmente el concepto de Garantía Humana), [38] [39] [40] [41] [42] el sector financiero, [33] la robótica, [43] [44] los vehículos autónomos, [43] el ejército [45] y la seguridad nacional, [46] y el derecho internacional. [47] [48]

Henry Kissinger , Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 titulada "Ser humano en la era de la IA", en la que pedían una comisión gubernamental para regular la IA. [49]

Como respuesta al problema del control de la IA

La regulación de la IA puede ser vista como un medio social positivo para gestionar el problema del control de la IA (la necesidad de asegurar una IA beneficiosa a largo plazo), con otras respuestas sociales como no hacer nada o prohibir siendo vistas como poco prácticas, y enfoques como mejorar las capacidades humanas a través de técnicas de transhumanismo como las interfaces cerebro-computadora siendo vistas como potencialmente complementarias. [7] [50] La regulación de la investigación en inteligencia artificial general (AGI) se centra en el papel de las juntas de revisión, desde la universidad o corporación hasta los niveles internacionales, y en fomentar la investigación en seguridad de la IA , [50] junto con la posibilidad de un progreso intelectual diferencial (priorizar las estrategias protectoras sobre las estrategias arriesgadas en el desarrollo de la IA) o realizar una vigilancia masiva internacional para realizar el control de armas de AGI. [7] Por ejemplo, la 'Niñera AGI' es una estrategia propuesta, potencialmente bajo el control de la humanidad, para prevenir la creación de una superinteligencia peligrosa , así como para abordar otras amenazas importantes para el bienestar humano, como la subversión del sistema financiero global, hasta que se pueda crear una verdadera superinteligencia de manera segura. Implica la creación de un sistema de IA más inteligente que los humanos, pero no superinteligente, conectado a una gran red de vigilancia, con el objetivo de monitorear a la humanidad y protegerla del peligro. [7] La ​​regulación de las IA conscientes y éticamente conscientes se centra en cómo integrarlas con la sociedad humana existente y puede dividirse en consideraciones de su situación legal y de sus derechos morales. [7] La ​​regulación de la IA se ha visto como restrictiva, con el riesgo de impedir el desarrollo de la IA. [43]

Orientación global

Las organizaciones encuestadas coinciden en gran medida en que las empresas que desarrollan modelos básicos serán responsables de los riesgos asociados (en lugar de quienes los utilizan) y que se requiere una gobernanza global para abordar los riesgos de la IA generativa . [51]

La creación de una junta de gobernanza global para regular el desarrollo de la IA se sugirió al menos ya en 2017. [52] En diciembre de 2018, Canadá y Francia anunciaron planes para un Panel Internacional sobre Inteligencia Artificial respaldado por el G7, inspirado en el Panel Internacional sobre Cambio Climático , para estudiar los efectos globales de la IA en las personas y las economías y para orientar el desarrollo de la IA. [53] En 2019, el Panel pasó a llamarse Alianza Global sobre IA. [54] [55]

La Alianza Mundial sobre Inteligencia Artificial (GPAI, por sus siglas en inglés) se lanzó en junio de 2020, y plantea la necesidad de que la IA se desarrolle de conformidad con los derechos humanos y los valores democráticos, para garantizar la confianza pública en la tecnología, como se describe en los Principios de la OCDE sobre Inteligencia Artificial (2019). [56] Los 15 miembros fundadores de la Alianza Mundial sobre Inteligencia Artificial son Australia, Canadá, la Unión Europea, Francia, Alemania, India, Italia, Japón, la República de Corea, México, Nueva Zelanda, Singapur, Eslovenia, los Estados Unidos y el Reino Unido. En 2023, la GPAI tiene 29 miembros. [57] La ​​Secretaría de la GPAI está alojada por la OCDE en París, Francia. El mandato de la GPAI cubre cuatro temas, dos de los cuales cuentan con el apoyo del Centro Internacional de Expertos en Montreal para el Avance de la Inteligencia Artificial, a saber, la IA responsable y la gobernanza de datos. Un centro de excelencia correspondiente en París apoyará los otros dos temas sobre el futuro del trabajo y sobre la innovación y la comercialización. GPAI también investigó cómo se puede aprovechar la IA para responder a la pandemia de COVID-19. [56]

Los Principios de IA de la OCDE [58] se adoptaron en mayo de 2019, y los Principios de IA del G20 en junio de 2019. [55] [59] [60] En septiembre de 2019, el Foro Económico Mundial publicó diez "Directrices para la contratación pública basada en IA". [61] En febrero de 2020, la Unión Europea publicó su proyecto de documento de estrategia para promover y regular la IA. [34]

En las Naciones Unidas (ONU), varias entidades han comenzado a promover y debatir aspectos de la regulación y la política de la IA, incluido el Centro de IA y Robótica del UNICRI . [46] En asociación con INTERPOL, el Centro del UNICRI publicó el informe AI and Robotics for Law Enforcement en abril de 2019 [62] y el informe de seguimiento Towards Responsible AI Innovation en mayo de 2020. [37] En la 40.ª sesión científica de la UNESCO en noviembre de 2019, la organización inició un proceso de dos años para lograr un "instrumento normativo mundial sobre la ética de la inteligencia artificial". En pos de este objetivo, se celebraron foros y conferencias de la UNESCO sobre IA para recabar las opiniones de las partes interesadas. En septiembre de 2020 se publicó un proyecto de texto de una Recomendación sobre la ética de la IA del Grupo de expertos especial de la UNESCO que incluía un llamamiento para que se llenaran las lagunas legislativas. [63] La UNESCO presentó el instrumento internacional sobre la ética de la IA para su adopción en su Conferencia General en noviembre de 2021; [56] Esto fue adoptado posteriormente. [64] Si bien la ONU está avanzando en la gestión global de la IA, su capacidad institucional y legal para gestionar el riesgo existencial de la IAG es más limitada. [65]

AI for Good , una iniciativa de la Unión Internacional de Telecomunicaciones (UIT) en colaboración con 40 organismos hermanos de las Naciones Unidas, es una plataforma mundial cuyo objetivo es identificar aplicaciones prácticas de la IA para promover los Objetivos de Desarrollo Sostenible de las Naciones Unidas y ampliar esas soluciones para que tengan un impacto global. Es una plataforma global e inclusiva de las Naciones Unidas orientada a la acción que fomenta el desarrollo de la IA para influir positivamente en la salud, el clima, el género, la prosperidad inclusiva, la infraestructura sostenible y otras prioridades de desarrollo global. [66]

Investigaciones recientes han indicado que los países también comenzarán a utilizar la inteligencia artificial como herramienta para la ciberdefensa nacional. La IA es un factor nuevo en la industria de las armas cibernéticas, ya que puede utilizarse con fines de defensa. Por lo tanto, los académicos instan a que las naciones establezcan regulaciones para el uso de la IA, de manera similar a como existen regulaciones para otras industrias militares. [67]

El 5 de septiembre de 2024, se promulgará el primer tratado internacional sobre IA, en el que participarán países como Estados Unidos, Gran Bretaña y miembros de la Unión Europea, cuyo objetivo es proteger los derechos humanos y promover el uso responsable de la IA, aunque los expertos han expresado su preocupación por sus principios generales y sus exenciones. [68]

Regulación regional y nacional

Cronología de estrategias, planes de acción y documentos de políticas que definen enfoques nacionales, regionales e internacionales para la IA [69]

El panorama regulatorio y de políticas para la IA es un tema emergente en jurisdicciones regionales y nacionales a nivel mundial, por ejemplo en la Unión Europea [70] y Rusia. [71] Desde principios de 2016, muchas autoridades nacionales, regionales e internacionales han comenzado a adoptar estrategias, planes de acción y documentos de políticas sobre IA. [72] [73] Estos documentos cubren una amplia gama de temas como regulación y gobernanza, así como estrategia industrial, investigación, talento e infraestructura. [22] [74]

Los distintos países han abordado el problema de distintas maneras. En relación con las tres mayores economías, se ha dicho que "Estados Unidos está siguiendo un enfoque impulsado por el mercado, China está impulsando un enfoque impulsado por el Estado y la UE está adoptando un enfoque impulsado por los derechos". [75]

Australia

En octubre de 2023, la Sociedad Australiana de Computación , el Consejo Empresarial de Australia , la Cámara de Comercio e Industria de Australia , Ai Group (también conocido como Australian Industry Group) , el Consejo de Organizaciones de Pequeñas Empresas de Australia y el Consejo Tecnológico de Australia publicaron conjuntamente una carta abierta en la que se pedía un enfoque nacional para la estrategia de IA. [76] La carta respalda que el gobierno federal establezca un grupo de trabajo de IA de todo el gobierno. [76]

Brasil

El 30 de septiembre de 2021, la Cámara de Diputados de Brasil aprobó el Marco Legal de la Inteligencia Artificial, en un esfuerzo regulatorio para el desarrollo y uso de tecnologías de IA y para estimular aún más la investigación e innovación en soluciones de IA orientadas a la ética, la cultura, la justicia, la equidad y la rendición de cuentas. Este proyecto de ley de 10 artículos describe objetivos que incluyen misiones para contribuir a la elaboración de principios éticos, promover inversiones sostenidas en investigación y eliminar barreras a la innovación. Específicamente, en el artículo 4, el proyecto de ley enfatiza la evitación de soluciones de IA discriminatorias, la pluralidad y el respeto por los derechos humanos. Además, esta ley enfatiza la importancia del principio de igualdad en los algoritmos de toma de decisiones deliberadas, especialmente para sociedades altamente diversas y multiétnicas como la de Brasil.

Cuando el proyecto de ley se hizo público por primera vez, enfrentó fuertes críticas, lo que alarmó al gobierno por sus disposiciones críticas. El problema subyacente es que este proyecto de ley no aborda de manera exhaustiva y cuidadosa los principios de rendición de cuentas, transparencia e inclusión. El artículo VI establece la responsabilidad subjetiva, lo que significa que cualquier individuo que resulte perjudicado por un sistema de IA y desee recibir una compensación debe especificar la parte interesada y demostrar que hubo un error en el ciclo de vida de la máquina. Los académicos enfatizan que está fuera del orden legal asignar a una persona responsable de probar los errores algorítmicos dado el alto grado de autonomía, imprevisibilidad y complejidad de los sistemas de IA. Esto también llamó la atención sobre los problemas que están ocurriendo actualmente con los sistemas de reconocimiento facial en Brasil, que conducen a arrestos injustos por parte de la policía, lo que implicaría que, cuando se apruebe este proyecto de ley, las personas tendrían que probar y justificar estos errores de las máquinas.

La principal controversia de este proyecto de ley se centró en tres principios propuestos. En primer lugar, el principio de no discriminación, que sugiere que la IA debe desarrollarse y utilizarse de una manera que simplemente mitigue la posibilidad de prácticas abusivas y discriminatorias. En segundo lugar, el principio de búsqueda de la neutralidad enumera recomendaciones para que las partes interesadas mitiguen los sesgos; sin embargo, no hay obligación de lograr este objetivo. Por último, el principio de transparencia establece que la transparencia de un sistema solo es necesaria cuando existe un alto riesgo de violar los derechos fundamentales. Como se observa fácilmente, el marco legal brasileño para la inteligencia artificial carece de cláusulas vinculantes y obligatorias y está más bien lleno de directrices poco rigurosas. De hecho, los expertos destacan que este proyecto de ley puede incluso dificultar aún más la rendición de cuentas por los sesgos discriminatorios de la IA. En comparación con la propuesta de la UE de amplias regulaciones basadas en el riesgo, el proyecto de ley brasileño tiene 10 artículos que proponen recomendaciones vagas y genéricas.

En comparación con el enfoque de participación de múltiples partes interesadas adoptado anteriormente en la década de 2000 cuando se redactó la Carta de Derechos de Internet brasileña, el Marco Civil da Internet, se considera que el proyecto de ley brasileño carece significativamente de perspectiva. El multisectorialismo, más comúnmente conocido como gobernanza de múltiples partes interesadas, se define como la práctica de lograr que múltiples partes interesadas participen en el diálogo, la toma de decisiones y la implementación de respuestas a problemas percibidos conjuntamente. En el contexto de la IA regulatoria, esta perspectiva de múltiples partes interesadas captura las compensaciones y las diferentes perspectivas de diferentes partes interesadas con intereses específicos, lo que ayuda a mantener la transparencia y una eficacia más amplia. Por el contrario, la propuesta legislativa para la regulación de la IA no siguió un enfoque de múltiples partes interesadas similar.

Los pasos futuros pueden incluir la ampliación de la perspectiva de múltiples partes interesadas. Ha habido una creciente preocupación por la inaplicabilidad del marco del proyecto de ley, lo que pone de relieve que la solución única para todos puede no ser adecuada para la regulación de la IA y exige disposiciones subjetivas y adaptativas.

Canadá

La Estrategia Pancanadiense de Inteligencia Artificial (2017) cuenta con el apoyo de una financiación federal de 125 millones de dólares canadienses y tiene como objetivos aumentar el número de investigadores destacados en materia de IA y de graduados cualificados en Canadá, establecer nodos de excelencia científica en los tres principales centros de IA, desarrollar un "liderazgo de pensamiento global" sobre las implicaciones económicas, éticas, políticas y jurídicas de los avances en IA y apoyar a una comunidad nacional de investigación que trabaje en IA. [56] El Programa de Cátedras de IA de CIFAR de Canadá es la piedra angular de la estrategia. Se beneficia de una financiación de 86,5 millones de dólares canadienses a lo largo de cinco años para atraer y retener a investigadores de IA de renombre mundial. [56] El gobierno federal designó un Consejo Asesor sobre IA en mayo de 2019 con el objetivo de examinar cómo aprovechar las fortalezas de Canadá para garantizar que los avances en IA reflejen los valores canadienses, como los derechos humanos, la transparencia y la apertura. El Consejo Asesor sobre IA ha establecido un grupo de trabajo para extraer valor comercial de la IA y el análisis de datos de propiedad canadiense. [56] En 2020, el Gobierno federal y el Gobierno de Quebec anunciaron la apertura del Centro Internacional de Expertos en Montreal para el Avance de la Inteligencia Artificial, que promoverá la causa del desarrollo responsable de la IA. [56] En junio de 2022, el Gobierno de Canadá inició una segunda fase de la Estrategia Pancanadiense de Inteligencia Artificial. [77] En noviembre de 2022, Canadá presentó la Ley de Implementación de la Carta Digital (Proyecto de Ley C-27), que propone tres leyes que se han descrito como un paquete holístico de legislación para la confianza y la privacidad: la Ley de Protección de la Privacidad del Consumidor, la Ley del Tribunal de Protección de Datos e Información Personal y la Ley de Inteligencia Artificial y Datos (AIDA). [78] [79]

Marruecos

En Marruecos, una coalición de partidos políticos ha presentado una nueva propuesta legislativa en el Parlamento para crear la Agencia Nacional de Inteligencia Artificial (IA). Esta agencia tiene por objeto regular las tecnologías de IA, mejorar la colaboración con entidades internacionales en ese ámbito y aumentar la conciencia pública sobre las posibilidades y los riesgos asociados a la IA. [80]

Porcelana

La regulación de la IA en China está regida principalmente por el "Plan de desarrollo de inteligencia artificial de próxima generación" del Consejo de Estado de la República Popular China del 8 de julio de 2017 (Documento del Consejo de Estado No. 35), en el que el Comité Central del Partido Comunista Chino y el Consejo de Estado de la República Popular China instaron a los órganos de gobierno de China a promover el desarrollo de la IA hasta 2030. La regulación de las cuestiones de apoyo ético y legal para el desarrollo de la IA se está acelerando, y la política garantiza el control estatal de las empresas chinas y sobre datos valiosos, incluido el almacenamiento de datos sobre usuarios chinos dentro del país y el uso obligatorio de los estándares nacionales de la República Popular China para la IA, incluidos los de big data, computación en la nube y software industrial. [81] [82] [83] En 2021, China publicó directrices éticas para el uso de la IA en China que establecen que los investigadores deben asegurarse de que la IA respete los valores humanos compartidos, esté siempre bajo control humano y no ponga en peligro la seguridad pública. [84] En 2023, China introdujo medidas provisionales para la gestión de los servicios de IA generativa . [85]

Consejo de Europa

El Consejo de Europa (CdE) es una organización internacional que promueve los derechos humanos, la democracia y el estado de derecho. Está compuesto por 46 estados miembros, incluidos los 29 signatarios de la Declaración de Cooperación sobre Inteligencia Artificial de la Unión Europea de 2018. El CdE ha creado un espacio jurídico común en el que los miembros tienen la obligación legal de garantizar los derechos establecidos en el Convenio Europeo de Derechos Humanos . Específicamente en relación con la IA, "el objetivo del Consejo de Europa es identificar áreas de intersección entre la IA y nuestros estándares en materia de derechos humanos, democracia y estado de derecho, y desarrollar soluciones relevantes para el establecimiento de estándares o el desarrollo de capacidades". La gran cantidad de documentos relevantes identificados por el CdE incluyen directrices, cartas, documentos, informes y estrategias. [86] Los organismos autores de estos documentos de regulación de la IA no se limitan a un sector de la sociedad e incluyen organizaciones, empresas, organismos y estados-nación. [63]

En 2019, el Consejo de Europa inició un proceso para evaluar la necesidad de una regulación jurídicamente vinculante de la IA, centrándose específicamente en sus implicaciones para los derechos humanos y los valores democráticos. Las negociaciones sobre un tratado comenzaron en septiembre de 2022, en las que participaron los 46 Estados miembros del Consejo de Europa, así como Argentina, Australia, Canadá, Costa Rica, la Santa Sede, Israel, Japón, México, Perú, los Estados Unidos de América y Uruguay, así como la Unión Europea. El 17 de mayo de 2024 se adoptó el « Convenio Marco sobre Inteligencia Artificial y Derechos Humanos, Democracia y Estado de Derecho », que se abrió a la firma el 5 de septiembre de 2024. Aunque fue elaborado por una organización europea, el tratado está abierto a la adhesión de Estados de otras partes del mundo. Los primeros diez signatarios fueron: Andorra, Georgia, Islandia, Noruega, Moldavia, San Marino, el Reino Unido, Israel, los Estados Unidos y la Unión Europea. [87] [88]

unión Europea

La UE es una de las jurisdicciones más grandes del mundo y desempeña un papel activo en la regulación global de la tecnología digital a través del RGPD , [89] la Ley de Servicios Digitales y la Ley de Mercados Digitales . [90] [91] En el caso de la IA en particular, la Ley de Inteligencia Artificial se considera en 2023 como la regulación de mayor alcance de la IA en todo el mundo. [92] [93]

La mayoría de los países de la Unión Europea (UE) tienen sus propias estrategias nacionales para regular la IA, pero estas son en gran medida convergentes. [63] La Unión Europea se guía por una Estrategia Europea sobre Inteligencia Artificial, [94] apoyada por un Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial. [95] [96] En abril de 2019, la Comisión Europea publicó sus Directrices éticas para la inteligencia artificial (IA) confiable , [97] seguidas de sus recomendaciones de política e inversión para la inteligencia artificial confiable en junio de 2019. [98] El Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea lleva a cabo trabajos sobre IA confiable, y la Comisión ha publicado informes sobre los aspectos de seguridad y responsabilidad de la IA y sobre la ética de los vehículos automatizados. En 2020, la Comisión Europea solicitó opiniones sobre una propuesta de legislación específica sobre IA, y ese proceso está en curso. [63]

El 2 de febrero de 2020, la Comisión Europea publicó su Libro Blanco sobre Inteligencia Artificial: un enfoque europeo de la excelencia y la confianza . [99] [100] El Libro Blanco consta de dos bloques principales, un "ecosistema de excelencia" y un "ecosistema de confianza". El "ecosistema de confianza" describe el enfoque de la UE para un marco regulatorio para la IA. En su enfoque propuesto, la Comisión distingue las aplicaciones de IA en función de si son "de alto riesgo" o no. Solo las aplicaciones de IA de alto riesgo deberían estar en el alcance de un futuro marco regulatorio de la UE. Una aplicación de IA se considera de alto riesgo si opera en un sector de riesgo (como la atención médica, el transporte o la energía) y se "utiliza de tal manera que es probable que surjan riesgos significativos". Para las aplicaciones de IA de alto riesgo, los requisitos se refieren principalmente a: "datos de entrenamiento", "datos y mantenimiento de registros", "información que se proporcionará", "robustez y precisión" y "supervisión humana". También hay requisitos específicos para ciertos usos, como la identificación biométrica remota. Las aplicaciones de IA que no se consideren de «alto riesgo» podrían regirse por un sistema de etiquetado voluntario. En lo que respecta al cumplimiento y la aplicación, la Comisión considera la posibilidad de realizar evaluaciones de conformidad previas que podrían incluir «procedimientos de prueba, inspección o certificación» y/o «controles de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo». Una estructura de gobernanza europea en materia de IA en forma de un marco de cooperación entre las autoridades nacionales competentes podría facilitar la aplicación del marco regulador. [101]

El 14 de abril de 2021 se filtró en Internet un borrador de enero de 2021 [102] , antes de que la Comisión presentara su "Propuesta de Reglamento por el que se establecen normas armonizadas sobre inteligencia artificial" oficial una semana después [103] . Poco después, sobre esta base se propuso formalmente la Ley de Inteligencia Artificial (también conocida como Ley de IA). [104] Esta propuesta incluye un refinamiento del enfoque basado en el riesgo de 2020 con, esta vez, 4 categorías de riesgo: "mínimo", "limitado", "alto" e "inaceptable". [105] La propuesta ha sido duramente criticada en el debate público. Los académicos han expresado su preocupación por varios elementos poco claros de la propuesta (como la definición amplia de lo que constituye la IA) y han temido implicaciones legales no deseadas, especialmente para grupos vulnerables como los pacientes y los migrantes. [106] [107] La ​​categoría de riesgo "IA de propósito general" se agregó a la Ley de IA para dar cuenta de modelos versátiles como ChatGPT , que no encajaban en el marco de regulación basado en aplicaciones. [108] A diferencia de otras categorías de riesgo, los modelos de IA de propósito general se pueden regular en función de sus capacidades, no solo de sus usos. Los modelos de IA de propósito general más débiles están sujetos a requisitos de transparencia, mientras que aquellos que se considera que plantean "riesgos sistémicos" (en particular, aquellos entrenados utilizando capacidades computacionales superiores a 10 25 FLOPS ) también deben someterse a un proceso de evaluación exhaustivo. [109] Una versión posterior de la Ley de IA se adoptó finalmente en mayo de 2024. [110] La Ley de IA se aplicará progresivamente. [111] El reconocimiento de emociones y la identificación biométrica remota en tiempo real estarán prohibidos, con algunas excepciones, como para la aplicación de la ley. [112]

Los observadores han expresado su preocupación por la multiplicación de propuestas legislativas en el marco de la Comisión von der Leyen . La velocidad de las iniciativas legislativas está en parte determinada por las ambiciones políticas de la UE y podría poner en riesgo los derechos digitales de los ciudadanos europeos, incluidos los derechos a la privacidad, [113] especialmente ante las garantías inciertas de protección de datos a través de la ciberseguridad. [96] Entre los principios rectores establecidos en la variedad de propuestas legislativas en el ámbito de la IA en el marco de la Comisión von der Leyen se encuentran los objetivos de autonomía estratégica [114] y el concepto de soberanía digital. [115] El 29 de mayo de 2024, el Tribunal de Cuentas Europeo publicó un informe en el que afirmaba que las medidas de la UE no estaban bien coordinadas con las de los países de la UE; que el seguimiento de las inversiones no era sistemático; y que se necesitaba una gobernanza más fuerte. [116]

Alemania

En noviembre de 2020, [117] DIN , DKE y el Ministerio Federal de Asuntos Económicos y Energía de Alemania publicaron la primera edición de la "Hoja de ruta de normalización alemana para la inteligencia artificial" (NRM KI) y la presentaron al público en la Cumbre Digital del Gobierno Federal de Alemania. [118] NRM KI describe los requisitos para futuras regulaciones y estándares en el contexto de la IA. La implementación de las recomendaciones de acción tiene como objetivo ayudar a fortalecer la economía y la ciencia alemanas en la competencia internacional en el campo de la inteligencia artificial y crear condiciones favorables a la innovación para esta tecnología emergente . La primera edición es un documento de 200 páginas escrito por 300 expertos. La segunda edición de NRM KI se publicó para coincidir con la Cumbre Digital del gobierno alemán el 9 de diciembre de 2022. [119] DIN coordinó a más de 570 expertos participantes de una amplia gama de campos de la ciencia, la industria, la sociedad civil y el sector público. La segunda edición es un documento de 450 páginas.

Por una parte, el documento NRM KI cubre los temas centrales en términos de aplicaciones (por ejemplo, medicina, movilidad, energía y medio ambiente, servicios financieros, automatización industrial) y cuestiones fundamentales (por ejemplo, clasificación de IA, seguridad, certificabilidad, sistemas sociotécnicos, ética). [119] Por otra parte, proporciona una visión general de los términos centrales en el campo de la IA y su entorno en una amplia gama de grupos de interés y fuentes de información. En total, el documento cubre 116 necesidades de normalización y proporciona seis recomendaciones centrales para la acción. [120]

G7

El 30 de octubre de 2023, los miembros del G7 suscriben once principios rectores para el diseño, la producción y la implementación de sistemas avanzados de inteligencia artificial, así como un Código de conducta voluntario para los desarrolladores de inteligencia artificial en el contexto del Proceso de Hiroshima. [121]

El acuerdo recibe el aplauso de Ursula von der Leyen , que encuentra en él los principios de la Directiva IA, actualmente en fase de finalización.

Israel

El 30 de octubre de 2022, de conformidad con la resolución gubernamental 212 de agosto de 2021, el Ministerio de Innovación, Ciencia y Tecnología de Israel publicó su libro blanco "Principios de política, regulación y ética en IA" para consulta pública. [122] Para diciembre de 2023, el Ministerio de Innovación y el Ministerio de Justicia publicaron un documento conjunto de política de regulación y ética de la IA, en el que se describen varios principios éticos de la IA y un conjunto de recomendaciones que incluyen la opción de una regulación basada en sectores, un enfoque basado en el riesgo, la preferencia por herramientas regulatorias "blandas" y el mantenimiento de la coherencia con los enfoques regulatorios globales existentes para la IA. [123]

Italia

En octubre de 2023, la autoridad de privacidad italiana aprobó un reglamento que establece tres principios para las decisiones terapéuticas tomadas por sistemas automatizados: transparencia de los procesos de toma de decisiones, supervisión humana de las decisiones automatizadas y no discriminación algorítmica. [124]

Nueva Zelanda

A julio de 2023 , no existe ninguna legislación específica sobre IA, pero su uso está regulado por leyes existentes, entre ellas la Ley de Privacidad , la Ley de Derechos Humanos , la Ley de Comercio Justo y la Ley de Comunicaciones Digitales Dañinas . [125]

En 2020, el Gobierno de Nueva Zelanda patrocinó un proyecto piloto del Foro Económico Mundial titulado "Reimaginar la regulación para la era de la IA", cuyo objetivo era crear marcos regulatorios en torno a la IA. [126] Ese mismo año, se actualizó la Ley de Privacidad para regular el uso de la información personal de los neozelandeses en la IA. [127] En 2023, el Comisionado de Privacidad publicó una guía sobre el uso de la IA de acuerdo con los principios de privacidad de la información. [128] En febrero de 2024, la Fiscal General y Ministra de Tecnología anunció la formación de un grupo parlamentario multipartidario de IA , y que se estaba desarrollando ese marco para el uso de la IA por parte del Gobierno. También anunció que no se planeaba ninguna regulación adicional en esa etapa. [129]

Filipinas

En 2023, se presentó un proyecto de ley en la Cámara de Representantes de Filipinas que proponía la creación de la Autoridad de Desarrollo de Inteligencia Artificial (AIDA), que supervisaría el desarrollo y la investigación de la inteligencia artificial. También se propuso que la AIDA fuera un organismo de control contra los delitos que utilizan la IA. [130]

La Comisión Electoral también ha considerado en 2024 la prohibición del uso de inteligencia artificial y deepfake para campañas electorales. Buscan implementar regulaciones que se aplicarían ya en las elecciones generales de 2025. [131]

España

En 2018, el Ministerio de Ciencia, Innovación y Universidades de España aprobó una Estrategia de I+D en Inteligencia Artificial. [132]

Con la formación del segundo Gobierno de Pedro Sánchez en enero de 2020 se reforzaron las áreas relacionadas con las nuevas tecnologías que, desde 2018, estaban en el Ministerio de Economía . Así, en 2020 se creó la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). [133] Desde este órgano superior, siguiendo las recomendaciones realizadas por la Estrategia de I+D en Inteligencia Artificial de 2018, [134] se elaboró ​​la Estrategia Nacional de Inteligencia Artificial (2020), que ya preveía actuaciones concernientes a la gobernanza de la inteligencia artificial y los estándares éticos que debían regir su uso. Este proyecto también se incluyó dentro del Plan de Recuperación, Transformación y Resiliencia (2021).

Durante 2021, [133] el Gobierno reveló que estas ideas se desarrollarían a través de una nueva agencia gubernamental, y los Presupuestos Generales del Estado para 2022 autorizaron su creación y destinaron cinco millones de euros para su desarrollo. [135]

El Consejo de Ministros , en su reunión del 13 de septiembre de 2022, inició el proceso para la elección de la sede de la AESIA. [136] [137] 16 provincias españolas presentaron candidaturas, optándose el Gobierno por La Coruña , que propuso el edificio de La Terraza. [138]

El 22 de agosto de 2023, el Gobierno aprobó el reglamento interno de la Agencia. [139] Con ello, España se convirtió en el primer país europeo con una agencia dedicada a la supervisión de la IA, anticipándose a la entrada en vigor del futuro Reglamento Europeo sobre Inteligencia Artificial, [140] que establece la necesidad de que los Estados miembros cuenten con una autoridad supervisora ​​en esta materia.

Reino Unido

El Reino Unido apoyó la aplicación y el desarrollo de la IA en las empresas a través de la Estrategia de Economía Digital 2015-2018 [141] introducida a principios de 2015 por Innovate UK como parte de la Estrategia Digital del Reino Unido. [141] En el sector público, el Departamento de Cultura, Medios de Comunicación y Deporte Digital asesoró sobre la ética de los datos y el Instituto Alan Turing proporcionó orientación sobre el diseño e implementación responsables de sistemas de IA. [142] [143] En términos de ciberseguridad, en 2020 el Centro Nacional de Ciberseguridad publicó una guía sobre "Herramientas de Seguridad Inteligente". [46] [144] El año siguiente, el Reino Unido publicó su Estrategia Nacional de IA de 10 años, [145] que describe acciones para evaluar los riesgos de la IA a largo plazo, incluidos los riesgos catastróficos relacionados con la IAG. [146]

En marzo de 2023, el Reino Unido publicó el libro blanco Un enfoque pro-innovación para la regulación de la IA . [147] Este libro blanco presenta principios generales de IA, pero deja una flexibilidad significativa a los reguladores existentes en cómo adaptan estos principios a áreas específicas como el transporte o los mercados financieros. [148] En noviembre de 2023, el Reino Unido fue anfitrión de la primera cumbre de seguridad de IA , con el primer ministro Rishi Sunak con el objetivo de posicionar al Reino Unido como líder en la regulación de la seguridad de la IA . [149] [150] Durante la cumbre, el Reino Unido creó un Instituto de Seguridad de IA , como una evolución del Grupo de Trabajo de IA Fronteriza dirigido por Ian Hogarth . Al instituto se le asignó notablemente la responsabilidad de avanzar en las evaluaciones de seguridad de los modelos de IA más avanzados del mundo, también llamados modelos de IA de frontera . [151]

El gobierno del Reino Unido manifestó su renuencia a legislar tempranamente, argumentando que ello podría reducir el crecimiento del sector y que las leyes podrían quedar obsoletas debido a un mayor progreso tecnológico. [152]

Estados Unidos

Los debates sobre la regulación de la IA en los Estados Unidos han incluido temas como la oportunidad de regular la IA, la naturaleza del marco regulatorio federal para gobernar y promover la IA, incluido qué agencia debería liderar, los poderes regulatorios y de gobierno de esa agencia y cómo actualizar las regulaciones frente a la tecnología que cambia rápidamente, así como los roles de los gobiernos estatales y los tribunales. [153]

2016–2017

Ya en 2016, la administración Obama había comenzado a centrarse en los riesgos y las regulaciones para la inteligencia artificial. En un informe titulado Preparing For the Future of Artificial Intelligence [154] , el Consejo Nacional de Ciencia y Tecnología sentó un precedente para permitir que los investigadores siguieran desarrollando nuevas tecnologías de IA con pocas restricciones. En el informe se afirma que "el enfoque de la regulación de los productos habilitados para IA para proteger la seguridad pública debe basarse en la evaluación de los aspectos de riesgo...". [155] Estos riesgos serían la razón principal para crear cualquier forma de regulación, suponiendo que cualquier regulación existente no se aplicaría a la tecnología de IA.

2018–2019

El primer informe importante fue el Plan Nacional Estratégico de Investigación y Desarrollo para la Inteligencia Artificial. [156] El 13 de agosto de 2018, la Sección 1051 de la Ley de Autorización de Defensa Nacional John S. McCain del Año Fiscal 2019 (PL 115-232) estableció la Comisión de Seguridad Nacional sobre Inteligencia Artificial "para considerar los métodos y medios necesarios para avanzar en el desarrollo de la inteligencia artificial, el aprendizaje automático y las tecnologías asociadas para abordar de manera integral las necesidades de seguridad nacional y defensa de los Estados Unidos". [157] La ​​Comisión de Seguridad Nacional sobre Inteligencia Artificial proporciona orientación sobre la regulación de la IA relacionada con la seguridad. [158] La Ley de Iniciativa de Inteligencia Artificial (S.1558) es un proyecto de ley que establecería una iniciativa federal diseñada para acelerar la investigación y el desarrollo de la IA para, entre otras cosas , la seguridad económica y nacional de los Estados Unidos. [159] [160]

El 7 de enero de 2019, tras una Orden Ejecutiva sobre el Mantenimiento del Liderazgo Estadounidense en Inteligencia Artificial, [161] la Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un borrador de Orientación para la Regulación de Aplicaciones de Inteligencia Artificial , [162] que incluye diez principios para las agencias de los Estados Unidos al decidir si regular la IA y cómo hacerlo. [163] En respuesta, el Instituto Nacional de Estándares y Tecnología publicó un documento de posición, [164] y la Junta de Innovación de Defensa emitió recomendaciones sobre el uso ético de la IA. [45] Un año después, la administración solicitó comentarios sobre la regulación en otro borrador de su Orientación para la Regulación de Aplicaciones de Inteligencia Artificial. [165]

Otras agencias específicas que trabajan en la regulación de la IA incluyen la Administración de Alimentos y Medicamentos, [39] que ha creado vías para regular la incorporación de la IA en las imágenes médicas. [38] El Consejo Nacional de Ciencia y Tecnología también publicó el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial, [166] que recibió escrutinio público y recomendaciones para mejorarlo aún más con el fin de permitir una IA confiable. [167]

2021–2022

En marzo de 2021, la Comisión de Seguridad Nacional sobre Inteligencia Artificial publicó su informe final. [168] En el informe, afirmaron que "los avances en IA, incluido el dominio de capacidades de IA más generales a lo largo de una o más dimensiones, probablemente proporcionarán nuevas capacidades y aplicaciones. Algunos de estos avances podrían conducir a puntos de inflexión o saltos en las capacidades. Dichos avances también pueden introducir nuevas preocupaciones y riesgos y la necesidad de nuevas políticas, recomendaciones y avances técnicos para asegurar que los sistemas estén alineados con los objetivos y valores, incluida la seguridad, la solidez y la confiabilidad. Estados Unidos debe monitorear los avances en IA y realizar las inversiones necesarias en tecnología y prestar atención a las políticas para garantizar que los sistemas de IA y sus usos se alineen con nuestros objetivos y valores".

En junio de 2022, los senadores Rob Portman y Gary Peters presentaron la Ley de Mitigación de Riesgos Catastróficos Globales. El proyecto de ley bipartidista "también ayudaría a contrarrestar el riesgo de que la inteligencia artificial... sea objeto de abuso de formas que puedan suponer un riesgo catastrófico". [169] [170] El 4 de octubre de 2022, el presidente Joe Biden presentó una nueva Carta de Derechos de la IA, [171] que describe cinco protecciones que los estadounidenses deberían tener en la era de la IA: 1. Sistemas seguros y eficaces, 2. Protección contra la discriminación algorítmica, 3. Privacidad de los datos, 4. Notificación y explicación, y 5. Alternativas humanas, consideración y respaldo. El proyecto de ley fue presentado en octubre de 2021 por la Oficina de Política Científica y Tecnológica (OSTP), un departamento del gobierno estadounidense que asesora al presidente en materia de ciencia y tecnología. [172]

2023

En enero de 2023, el Ayuntamiento de la ciudad de Nueva York promulgó la Ley de auditoría de sesgos de la ciudad de Nueva York (Ley local 144 [173] ). Originalmente prevista para entrar en vigor el 1 de enero de 2023, la fecha de aplicación de la Ley local 144 se ha retrasado debido al gran volumen de comentarios recibidos durante la audiencia pública sobre las normas propuestas por el Departamento de Protección al Consumidor y al Trabajador (DCWP) para aclarar los requisitos de la legislación. Finalmente entró en vigor el 5 de julio de 2023. [174] A partir de esta fecha, las empresas que operan y contratan en la ciudad de Nueva York tienen prohibido utilizar herramientas automatizadas para contratar candidatos o ascender a empleados, a menos que las herramientas hayan sido auditadas de forma independiente para detectar sesgos.

Reunión del presidente Biden sobre Inteligencia Artificial (IA) con senadores en la Oficina Oval en 2023.

En julio de 2023, la administración Biden-Harris obtuvo compromisos voluntarios de siete empresas ( Amazon , Anthropic , Google , Inflection , Meta , Microsoft y OpenAI ) para gestionar los riesgos asociados a la IA. Las empresas se comprometieron a garantizar que los productos de IA se sometan a pruebas de seguridad internas y externas antes de su lanzamiento al público; a compartir información sobre la gestión de los riesgos de la IA con la industria, los gobiernos, la sociedad civil y el mundo académico; a priorizar la ciberseguridad y proteger los componentes patentados del sistema de IA; a desarrollar mecanismos para informar a los usuarios cuando el contenido es generado por IA, como la marca de agua; a informar públicamente sobre las capacidades, limitaciones y áreas de uso de sus sistemas de IA; a priorizar la investigación sobre los riesgos sociales que plantea la IA, incluidos los prejuicios, la discriminación y las preocupaciones sobre la privacidad; y a desarrollar sistemas de IA para abordar los desafíos sociales, que van desde la prevención del cáncer hasta la mitigación del cambio climático . En septiembre de 2023, ocho empresas más ( Adobe , Cohere , IBM , Nvidia , Palantir , Salesforce , Scale AI y Stability AI ) suscribieron estos compromisos voluntarios. [175] [176]

En octubre de 2023, la administración Biden señaló que emitiría una orden ejecutiva que aprovecharía el poder adquisitivo del gobierno federal para dar forma a las regulaciones de IA, lo que sugiere una postura gubernamental proactiva en la regulación de las tecnologías de IA. [177] El 30 de octubre de 2023, el presidente Biden emitió esta Orden Ejecutiva sobre Inteligencia Artificial Segura, Protegida y Confiable . La Orden Ejecutiva aborda una variedad de cuestiones, como centrarse en los estándares para la infraestructura crítica, la ciberseguridad mejorada por IA y los proyectos de síntesis biológica financiados por el gobierno federal. [178]

La Orden Ejecutiva otorga autoridad a varias agencias y departamentos del gobierno de Estados Unidos, incluidos los departamentos de Energía y Defensa, para aplicar las leyes de protección al consumidor existentes al desarrollo de la IA. [179]

La Orden Ejecutiva se basa en acuerdos anteriores de la Administración con empresas de IA para implementar nuevas iniciativas para "poner en equipo" o poner a prueba los modelos básicos de IA de doble uso, especialmente aquellos que tienen el potencial de presentar riesgos de seguridad, con datos y resultados compartidos con el gobierno federal.

La Orden Ejecutiva también reconoce los desafíos sociales de la IA y pide a las empresas que construyen modelos de base de IA de doble uso que sean cautelosas ante estos problemas sociales. Por ejemplo, la Orden Ejecutiva establece que la IA no debe "empeorar la calidad del trabajo" y no debe "causar disrupciones en la fuerza laboral". Además, la Orden Ejecutiva de Biden ordena que la IA debe "promover la equidad y los derechos civiles", y no puede perjudicar a los grupos marginados. [180] También pidió que los modelos de base incluyan "marcas de agua" para ayudar al público a discernir entre el contenido generado por humanos y el generado por IA, lo que ha generado controversia y críticas por parte de los investigadores de detección de deepfake. [181]

2024

En febrero de 2024, el senador Scott Wiener presentó la Ley de Innovación Segura para Modelos de Inteligencia Artificial de Fronteras a la legislatura de California. El proyecto de ley se basó en gran medida en la orden ejecutiva de Biden . [182] Tenía el objetivo de reducir los riesgos catastróficos al ordenar pruebas de seguridad para los modelos de IA más potentes. Si se aprobaba, el proyecto de ley también habría establecido un clúster de computación en la nube financiado con fondos públicos en California. [183] ​​El 29 de septiembre, el gobernador Gavin Newsom vetó el proyecto de ley. Se considera poco probable que la legislatura anule el veto del gobernador con un voto de dos tercios de ambas cámaras. [184]

El 21 de marzo de 2024, el estado de Tennessee promulgó una legislación llamada Ley ELVIS , dirigida específicamente a las falsificaciones profundas de audio y la clonación de voz. [185] Esta legislación fue la primera legislación promulgada en la nación destinada a regular la simulación de imagen, voz y semejanza mediante IA. [186] El proyecto de ley se aprobó por unanimidad en la Cámara de Representantes y el Senado de Tennessee . [187] Sus partidarios esperaban que el éxito de esta legislación inspirara acciones similares en otros estados, contribuyendo a un enfoque unificado de los derechos de autor y la privacidad en la era digital, y reforzara la importancia de salvaguardar los derechos de los artistas contra el uso no autorizado de sus voces y semejanzas. [188] [189]

El 13 de marzo de 2024, el gobernador de Utah, Spencer Cox, firmó la SB 149 "Artificial Intelligence Policy Act". Esta legislación entra en vigor el 1 de mayo de 2024. Establece responsabilidad, en particular para las empresas que no revelen su uso de IA generativa cuando lo exigen las leyes estatales de protección al consumidor, o cuando los usuarios cometen delitos penales utilizando IA generativa. También crea la Oficina de Política de Inteligencia Artificial y el Programa de Laboratorio de Aprendizaje de Inteligencia Artificial . [190] [191]

Regulación de armas completamente autónomas

Las cuestiones jurídicas relacionadas con los sistemas de armas autónomas letales (LAWS), en particular el cumplimiento de las leyes de los conflictos armados , han sido objeto de debate en las Naciones Unidas desde 2013, en el contexto de la Convención sobre ciertas armas convencionales . [192] Cabe destacar que se celebraron reuniones informales de expertos en 2014, 2015 y 2016 y se nombró un Grupo de Expertos Gubernamentales (GGE) para seguir deliberando sobre el tema en 2016. En 2018 se adoptó un conjunto de principios rectores sobre los LAWS afirmados por el GGE sobre los LAWS. [193]

En 2016, China publicó un documento de posición en el que cuestionaba la idoneidad del derecho internacional existente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar la cuestión, [47] y dando lugar a propuestas de regulación global. [194] La posibilidad de una moratoria o prohibición preventiva del desarrollo y uso de LAWS también ha sido planteada en varias ocasiones por otras delegaciones nacionales ante la Convención sobre Ciertas Armas Convencionales y es fuertemente defendida por la Campaña para Detener los Robots Asesinos , una coalición de organizaciones no gubernamentales. [195] El gobierno de Estados Unidos sostiene que el derecho internacional humanitario actual es capaz de regular el desarrollo o uso de LAWS. [196] El Servicio de Investigación del Congreso indicó en 2023 que Estados Unidos no tiene LAWS en su inventario, pero que su política no prohíbe su desarrollo y empleo. [197]

Véase también

Referencias

  1. ^ Cath, Corinne (2018). "Gobernando la inteligencia artificial: oportunidades y desafíos éticos, legales y técnicos". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences . 376 (2133): 20180080. Bibcode :2018RSPTA.37680080C. doi : 10.1098/rsta.2018.0080 . PMC  6191666 . PMID  30322996.
  2. ^ Erdélyi, Olivia J.; Goldsmith, Judy (2020). "Regulación de la inteligencia artificial: propuesta para una solución global". arXiv : 2005.11072 [cs.CY].
  3. ^ Tallberg, Jonas; Erman, Eva; Furendal, Markus; Geith, Johannes; Klamberg, Mark; Lundgren, Magnus (2023). "Gobernanza global de la inteligencia artificial: próximos pasos para la investigación empírica y normativa". International Studies Review . 25 (3). arXiv : 2305.11528 . doi : 10.1093/isr/viad040 .
  4. ^ Heder, M (2020). "Una crítica a las directrices éticas de la IA". Información Társadalom . 20 (4): 57–73. doi : 10.22503/inftars.XX.2020.4.5 . S2CID  233252939.
  5. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 de mayo de 2022). "Las organizaciones que implementan IA son clave para abordar la 'tormenta perfecta' de riesgos de IA". IA y ética . 3 (1): 145–153. doi :10.1007/s43681-022-00163-7. ISSN  2730-5961. PMC 9127285 . PMID  35634256. Archivado desde el original el 15 de marzo de 2023 . Consultado el 30 de mayo de 2022 . 
  6. ^ "Un enfoque ético de la IA es un imperativo absoluto, Andreas Kaplan". Archivado desde el original el 17 de diciembre de 2019. Consultado el 26 de abril de 2021 .
  7. ^ abcde Sotala, Kaj; Yampolskiy, Romano V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. Código bibliográfico : 2015PhyS...90a8001S. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  8. ^ ab Vincent, James (3 de abril de 2023). «La IA está entrando en una era de control corporativo». The Verge . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
  9. ^ "Informe del Índice de Inteligencia Artificial 2023/Capítulo 6: Política y gobernanza" (PDF) . Índice de IA. 2023. Archivado (PDF) del original el 19 de junio de 2023 . Consultado el 19 de junio de 2023 .
  10. ^ ab "Elon Musk advierte a los gobernadores: la inteligencia artificial plantea un 'riesgo existencial'". NPR.org . Archivado desde el original el 23 de abril de 2020 . Consultado el 27 de noviembre de 2017 .
  11. ^ Gibbs, Samuel (17 de julio de 2017). «Elon Musk: regular la IA para combatir la 'amenaza existencial' antes de que sea demasiado tarde». The Guardian . Archivado desde el original el 6 de junio de 2020. Consultado el 27 de noviembre de 2017 .
  12. ^ Kharpal, Arjun (7 de noviembre de 2017). «La IA está en su 'infancia' y es demasiado pronto para regularla, afirma el director ejecutivo de Intel, Brian Krzanich». CNBC . Archivado desde el original el 22 de marzo de 2020 . Consultado el 27 de noviembre de 2017 .
  13. ^ Chamberlain, Johanna (marzo de 2023). "El enfoque basado en el riesgo de la propuesta de regulación de la inteligencia artificial de la Unión Europea: algunos comentarios desde una perspectiva de derecho de responsabilidad civil". Revista Europea de Regulación de Riesgos . 14 (1): 1–13. doi :10.1017/err.2022.38. ISSN  1867-299X. Archivado desde el original el 2024-03-12 . Consultado el 2024-03-12 .
  14. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, en mi mano: ¿Quién es la más bella de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Business Horizons . 62 : 15–25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  15. ^ Edwards, Benj (17 de mayo de 2023). «Encuesta: la IA supone un riesgo para la humanidad, según la mayoría de los estadounidenses». Ars Technica . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
  16. ^ Kasperowicz, Peter (1 de mayo de 2023). "¿Regular la IA? El Partido Republicano es mucho más escéptico que los demócratas respecto de que el gobierno pueda hacerlo bien, según una encuesta". Fox News . Archivado desde el original el 19 de junio de 2023. Consultado el 19 de junio de 2023 .
  17. ^ "Encuesta de Fox News" (PDF) . Fox News. 2023. Archivado (PDF) del original el 12 de mayo de 2023. Consultado el 19 de junio de 2023 .
  18. ^ Barfield, Woodrow; Pagallo, Ugo (2018). Manual de investigación sobre la ley de la inteligencia artificial . Cheltenham, Reino Unido: Edward Elgar Publishing. ISBN 978-1-78643-904-8.OCLC 1039480085  .
  19. ^ ab Wirtz, Bernd W.; Weyerer, Jan C.; Geyer, Carolin (24 de julio de 2018). «Inteligencia artificial y el sector público: aplicaciones y desafíos». Revista Internacional de Administración Pública . 42 (7): 596–615. doi :10.1080/01900692.2018.1498103. ISSN  0190-0692. S2CID  158829602. Archivado desde el original el 18 de agosto de 2020 . Consultado el 17 de agosto de 2020 .
  20. ^ ab Buiten, Miriam C. (2019). "Hacia una regulación inteligente de la inteligencia artificial". Revista Europea de Regulación de Riesgos . 10 (1): 41–59. doi : 10.1017/err.2019.8 .
  21. ^ Mantelero, Alessandro; Esposito, Maria Samantha (2021). "Una metodología basada en evidencia para la evaluación del impacto en los derechos humanos (EIDH) en el desarrollo de sistemas de inteligencia artificial con uso intensivo de datos". Computer Law & Security Review . 41 : 105561. arXiv : 2407.20951 . doi : 10.1016/j.clsr.2021.105561 . ISSN  0267-3649. S2CID  237588123.
  22. ^ ab Inteligencia artificial en la sociedad . París: Organización para la Cooperación y el Desarrollo Económicos. 11 de junio de 2019. ISBN 978-92-64-54519-9.OCLC 1105926611  .
  23. ^ Kamyshansky, Vladimir P.; Rudenko, Evgenia Y.; Kolomiets, Evgeniy A.; Kripakova, Dina R. (2020), "Revisitando el lugar de la inteligencia artificial en la sociedad y el estado", Inteligencia artificial: naturaleza antropogénica vs. origen social , Advances in Intelligent Systems and Computing, vol. 1100, Cham: Springer International Publishing, págs. 359–364, doi :10.1007/978-3-030-39319-9_41, ISBN 978-3-030-39318-2, Número de identificación del sujeto  213070224
  24. ^ "Número especial sobre gobernanza de inteligencia artificial mediante derecho indicativo: información de publicación de la revista IEEE Technology and Society". Revista IEEE Technology and Society . 40 (4): C2. Diciembre de 2021. doi : 10.1109/MTS.2021.3126194 .
  25. ^ abcde Marchant, Gary. "Gobernanza de la IA mediante el derecho blando" (PDF) . AI Pulse . Documentos AI PULSE. Archivado (PDF) del original el 21 de marzo de 2023 . Consultado el 28 de febrero de 2023 .
  26. ^ abc Johnson, Walter G.; Bowman, Diana M. (diciembre de 2021). "Un estudio de los instrumentos e instituciones disponibles para la gobernanza global de la inteligencia artificial". Revista IEEE Technology and Society . 40 (4): 68–76. doi :10.1109/MTS.2021.3123745. S2CID  245053179.
  27. ^ Sutcliffe, Hillary R.; Brown, Samantha (diciembre de 2021). "Confianza y derecho blando para la IA". Revista IEEE Tecnología y Sociedad . 40 (4): 14–24. doi :10.1109/MTS.2021.3123741. S2CID  244955938.
  28. ^ ab Schmit, CD; Doerr, MJ; Wagner, JK (17 de febrero de 2023). "Aprovechamiento de la propiedad intelectual para la gobernanza de la IA". Science . 379 (6633): 646–648. Bibcode :2023Sci...379..646S. doi :10.1126/science.add2202. PMID  36795826. S2CID  256901479.
  29. ^ Lima-Strong, Cristiano (16 de mayo de 2024). «Los jóvenes activistas piden a los líderes mundiales que establezcan salvaguardas para la IA para 2030». The Washington Post . Consultado el 24 de junio de 2024 .
  30. ^ Haldane, Matt (21 de mayo de 2024). «Los estudiantes activistas de IA de Encode Justice publican 22 objetivos para 2030 antes de la cumbre mundial en Seúl». Archivado desde el original el 25 de septiembre de 2024. Consultado el 24 de junio de 2024 .
  31. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhu (15 de enero de 2020). Inteligencia artificial basada en principios: mapeo del consenso en enfoques éticos y basados ​​en derechos para los principios de la IA (informe). Berkman Klein Center for Internet & Society. Archivado desde el original el 16 de julio de 2021. Consultado el 4 de julio de 2021 .
  32. ^ Wirtz, Bernd W.; Weyerer, Jan C.; Sturm, Benjamin J. (15 de abril de 2020). "Los lados oscuros de la inteligencia artificial: un marco integrado de gobernanza de la IA para la administración pública". Revista Internacional de Administración Pública . 43 (9): 818–829. doi :10.1080/01900692.2020.1749851. ISSN  0190-0692. S2CID  218807452.
  33. ^ ab Bredt, Stephan (4 de octubre de 2019). "Inteligencia artificial (IA) en el sector financiero: potencial y estrategias públicas". Frontiers in Artificial Intelligence . 2 : 16. doi : 10.3389/frai.2019.00016 . ISSN  2624-8212. PMC 7861258 . PMID  33733105. 
  34. ^ abc Libro blanco: Inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza (PDF) . Bruselas: Comisión Europea. 2020. p. 1.
  35. ^ Wirtz, Bernd W.; Müller, Wilhelm M. (3 de diciembre de 2018). "Un marco de inteligencia artificial integrado para la gestión pública". Public Management Review . 21 (7): 1076–1100. doi :10.1080/14719037.2018.1549268. ISSN  1471-9037. S2CID  158267709.
  36. ^ Reisman, Dillon; Schultz, Jason; Crawford, Kate; Whittaker, Meredith (2018). Evaluaciones de impacto algorítmicas: un marco práctico para la rendición de cuentas de las agencias públicas (PDF) . Nueva York: AI Now Institute. Archivado desde el original (PDF) el 2020-06-14 . Consultado el 2020-04-28 .
  37. ^ ab "Hacia una innovación responsable en inteligencia artificial". UNICRI . Julio de 2020. Archivado desde el original el 2022-07-05 . Consultado el 2022-07-18 .
  38. ^ ab Kohli, Ajay; Mahajan, Vidur; Seals, Kevin; Kohli, Ajit; Jha, Saurabh (2019). "Conceptos en la regulación de la inteligencia artificial para imágenes médicas por parte de la Administración de Alimentos y Medicamentos de Estados Unidos". Revista estadounidense de roentgenología . 213 (4): 886–888. doi :10.2214/ajr.18.20410. ISSN  0361-803X. PMID  31166758. S2CID  174813195. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 27 de marzo de 2021 .
  39. ^ ab Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (17 de diciembre de 2019). "Regulación del ciclo de vida de dispositivos de software basados ​​en inteligencia artificial y aprendizaje automático en medicina". JAMA . 322 (23): 2285–2286. doi :10.1001/jama.2019.16842. ISSN  0098-7484. PMID  31755907. S2CID  208230202. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 27 de marzo de 2021 .
  40. ^ Sharma, Kavita; Manchikanti, Padmavati (1 de octubre de 2020). "Regulación de la inteligencia artificial en el descubrimiento de fármacos y la atención sanitaria". Informe sobre la ley de biotecnología . 39 (5): 371–380. doi :10.1089/blr.2020.29183.ks. ISSN  0730-031X. S2CID  225540889. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 27 de marzo de 2021 .
  41. ^ Petkus, Haroldas; Hoogewerf, Jan; Wyatt, Jeremy C (2020). "¿Qué piensan los médicos de alto nivel sobre la IA y los sistemas de apoyo a la toma de decisiones clínicas? Análisis cuantitativo y cualitativo de los datos de las sociedades especializadas". Medicina clínica . 20 (3): 324–328. doi :10.7861/clinmed.2019-0317. ISSN  1470-2118. PMC 7354034 . PMID  32414724. 
  42. ^ Cheng, Jerome Y.; Abel, Jacob T.; Balis, Ulysses GJ; McClintock, David S.; Pantanowitz, Liron (2021). "Desafíos en el desarrollo, implementación y regulación de la inteligencia artificial en patología anatómica". The American Journal of Pathology . 191 (10): 1684–1692. doi : 10.1016/j.ajpath.2020.10.018 . ISSN  0002-9440. PMID  33245914. S2CID  227191875.
  43. ^ abc Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). "Sofocando la inteligencia artificial: peligros humanos". Computer Law & Security Review . 32 (5): 749–758. doi :10.1016/j.clsr.2016.05.003. ISSN  0267-3649.
  44. ^ Iphofen, Ron; Kritikos, Mihalis (3 de enero de 2019). "Regulación de la inteligencia artificial y la robótica: ética por diseño en una sociedad digital". Ciencia social contemporánea . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN  2158-2041. S2CID  59298502.
  45. ^ Principios de la IA: Recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa (PDF) . Washington, DC: Junta de Innovación de Defensa de los Estados Unidos. 2019. OCLC  1126650738. Archivado (PDF) desde el original el 14 de enero de 2020. Consultado el 28 de marzo de 2020 .
  46. ^ abc Babuta, Alexander; Oswald, Marion; Janjeva, Ardi (2020). Inteligencia artificial y seguridad nacional del Reino Unido: consideraciones políticas (PDF) . Londres: Royal United Services Institute. Archivado desde el original (PDF) el 2020-05-02 . Consultado el 2020-04-28 .
  47. ^ ab "Robots con armas: el auge de los sistemas de armas autónomos". Snopes.com . 21 de abril de 2017. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 24 de diciembre de 2017 .
  48. ^ Bento, Lucas (2017). "No son meros despojos: responsabilidades humanas en el uso de sistemas inteligentes violentos según el derecho internacional público". Harvard Scholarship Depository . Archivado desde el original el 23 de marzo de 2020. Consultado el 14 de septiembre de 2019 .
  49. ^ Kissinger, Henry (1 de noviembre de 2021). «El desafío de ser humano en la era de la IA». The Wall Street Journal . Archivado desde el original el 4 de noviembre de 2021. Consultado el 4 de noviembre de 2021 .
  50. ^ ab Barrett, Anthony M.; Baum, Seth D. (23 de mayo de 2016). "Un modelo de vías hacia una catástrofe de superinteligencia artificial para el análisis de riesgos y decisiones". Revista de inteligencia artificial experimental y teórica . 29 (2): 397–414. arXiv : 1607.07730 . doi :10.1080/0952813x.2016.1186228. ISSN  0952-813X. S2CID  928824.
  51. ^ "Informe AI Index 2024 - capítulo 3: IA responsable" (PDF) . aiindex.stanford.edu . Abril de 2024. Archivado (PDF) desde el original el 24 de mayo de 2024 . Consultado el 7 de junio de 2024 .
  52. ^ Boyd, Matthew; Wilson, Nick (1 de noviembre de 2017). "Desarrollos rápidos en inteligencia artificial: ¿cómo podría responder el gobierno de Nueva Zelanda?". Policy Quarterly . 13 (4). doi : 10.26686/pq.v13i4.4619 . ISSN  2324-1101.
  53. ^ Innovación, Ciencia y Desarrollo Económico de Canadá (16 de mayo de 2019). «Declaración del Panel Internacional sobre Inteligencia Artificial». gcnws . Archivado desde el original el 29 de marzo de 2020 . Consultado el 29 de marzo de 2020 .
  54. ^ Simonite, Tom (8 de enero de 2020). «El mundo tiene un plan para controlar la IA, pero a Estados Unidos no le gusta». Wired . Archivado desde el original el 18 de abril de 2020. Consultado el 29 de marzo de 2020 .
  55. ^ ab "Regulación de la IA: ¿ha llegado el momento?". InformationWeek . 24 de febrero de 2020. Archivado desde el original el 23 de mayo de 2020 . Consultado el 29 de marzo de 2020 .
  56. ^ abcdefg Informe de la UNESCO sobre la ciencia: la carrera contra el tiempo hacia un desarrollo más inteligente. París: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6Archivado desde el original el 18 de junio de 2022 . Consultado el 18 de septiembre de 2021 .
  57. ^ "Comunidad". GPAI . Archivado desde el original el 30 de marzo de 2023.
  58. ^ "Resumen de los principios de la IA". OECD.AI . Archivado desde el original el 2023-10-23 . Consultado el 2023-10-20 .
  59. ^ Declaración Ministerial del G20 sobre Comercio y Economía Digital (PDF) . Ciudad de Tsukuba, Japón: G20. 2019.
  60. ^ "El panel internacional de ética de la IA debe ser independiente". Nature . 572 (7770): 415. 2019-08-21. Bibcode :2019Natur.572R.415.. doi : 10.1038/d41586-019-02491-x . PMID  31435065.
  61. ^ Directrices para la adquisición de inteligencia artificial (PDF) . Cologny/Ginebra: Foro Económico Mundial. 2019. Archivado (PDF) desde el original el 17 de julio de 2020 . Consultado el 28 de abril de 2020 .
  62. ^ "Evento de alto nivel: Inteligencia artificial y robótica: redefiniendo el futuro del crimen, el terrorismo y la seguridad". UNICRI . Archivado desde el original el 2022-07-18 . Consultado el 2022-07-18 .
  63. ^ abcd NíFhaoláin, Labhaoise; Hines, Andrew; Nallur, Vivek (2020). Evaluación del apetito por la confianza y la regulación de la inteligencia artificial en Europa (PDF) . Dublín: Universidad Tecnológica de Dublín, Facultad de Informática, Dublín. págs. 1–12. Archivado (PDF) desde el original el 15 de enero de 2021 . Consultado el 27 de marzo de 2021 . Este artículo incorpora texto disponible bajo la licencia CC BY 4.0. (La licencia CC BY 4.0 significa que todos tienen derecho a reutilizar el texto que se cita aquí, u otras partes del artículo original, siempre que se reconozca a los autores. Más información: licencia Creative Commons ) Se realizaron los siguientes cambios: se eliminaron citas y se realizaron modificaciones gramaticales menores.
  64. ^ "Recomendación sobre la ética de la inteligencia artificial". UNESCO . 2020-02-27. Archivado desde el original el 2022-07-18 . Consultado el 2022-07-18 .
  65. ^ Nindler, Reinmar (11 de marzo de 2019). «La capacidad de las Naciones Unidas para gestionar los riesgos existenciales con un enfoque en la inteligencia artificial». Revista de Derecho Comunitario Internacional . 21 (1): 5–34. doi :10.1163/18719732-12341388. ISSN  1871-9740. S2CID  150911357. Archivado desde el original el 2022-08-30 . Consultado el 2022-08-30 .
  66. ^ "Acerca de". AI for Good . Archivado desde el original el 27 de abril de 2019 . Consultado el 6 de abril de 2023 .
  67. ^ Taddeo, Mariarosaria; Floridi, Luciano (abril de 2018). "Regular la inteligencia artificial para evitar la carrera armamentista cibernética". Nature . 556 (7701): 296–298. Bibcode :2018Natur.556..296T. doi : 10.1038/d41586-018-04602-6 . PMID  29662138.
  68. ^ Jaiswal, Rishabh (5 de septiembre de 2024). «Estados Unidos, Gran Bretaña y la UE firmarán el primer tratado internacional sobre inteligencia artificial». Reuters . Consultado el 7 de septiembre de 2024 .
  69. ^ "Inteligencia artificial y robótica". UNICRI . Archivado desde el original el 19 de octubre de 2020. Consultado el 8 de agosto de 2020 .
  70. ^ Biblioteca de Derecho del Congreso (EE. UU.). Dirección de Investigación Jurídica Global, organismo emisor. Regulación de la inteligencia artificial en jurisdicciones seleccionadas . LCCN  2019668143. OCLC  1110727808.
  71. ^ Popova, Anna V.; Gorokhova, Svetlana S.; Abramova, Marianna G.; Balashkina, Irina V. (2021), El sistema de derecho y la inteligencia artificial en la Rusia moderna: objetivos e instrumentos de la modernización digital, Estudios de sistemas, decisiones y control, vol. 314, Cham: Springer International Publishing, págs. 89–96, doi :10.1007/978-3-030-56433-9_11, ISBN 978-3-030-56432-2, S2CID  234309883, archivado desde el original el 25 de septiembre de 2024 , consultado el 27 de marzo de 2021
  72. ^ "Observatorio de la OCDE sobre Innovación del Sector Público – Estrategias de IA y componentes del sector público". Archivado desde el original el 2024-09-25 . Consultado el 2020-05-04 .
  73. ^ Berryhill, Jamie; Heang, Kévin Kok; Clogher, Rob; McBride, Keegan (2019). Hola, mundo: inteligencia artificial y su uso en el sector público (PDF) . París: Observatorio de la Innovación del Sector Público de la OCDE. Archivado (PDF) desde el original el 2019-12-20 . Consultado el 2020-05-05 .
  74. ^ Campbell, Thomas A. (2019). Inteligencia artificial: una descripción general de las iniciativas estatales (PDF) . Evergreen, CO: FutureGrasp, LLC. Archivado desde el original (PDF) el 31 de marzo de 2020.
  75. ^ Bradford, Anu (27 de junio de 2023). «La carrera por regular la inteligencia artificial». Foreign Affairs . ISSN  0015-7120. Archivado desde el original el 11 de agosto de 2023. Consultado el 11 de agosto de 2023 .
  76. ^ ab "Australia necesita un enfoque nacional para la estrategia de IA". Information Age . Consultado el 8 de noviembre de 2023 .
  77. ^ Innovación, Ciencia y Desarrollo Económico de Canadá (22 de junio de 2022). «El Gobierno de Canadá lanza la segunda fase de la Estrategia Pancanadiense de Inteligencia Artificial». www.canada.ca . Archivado desde el original el 26 de octubre de 2023 . Consultado el 24 de octubre de 2023 .
  78. ^ Canadá, Gobierno de (18 de agosto de 2022). «Resumen del proyecto de ley C-27: Ley de aplicación de la Carta Digital, 2022». ised-isde.canada.ca . Archivado desde el original el 20 de diciembre de 2023 . Consultado el 24 de octubre de 2023 .
  79. ^ "Proyecto de ley (Cámara de los Comunes) C-27 (44–1) – Primera lectura – Ley de implementación de la Carta Digital, 2022 – Parlamento de Canadá". www.parl.ca . Consultado el 12 de julio de 2022 .
  80. ^ The Moroccan Times (24 de abril de 2024). «Marruecos propone una legislación para la Agencia Nacional de Inteligencia Artificial». The Moroccan Times . Archivado desde el original el 25 de abril de 2024. Consultado el 25 de abril de 2024 .
  81. ^ Consejo de Estado de China. «Plan de desarrollo de la nueva generación de inteligencia artificial». www.unodc.org . Archivado desde el original el 7 de junio de 2023. Consultado el 18 de julio de 2022 .
  82. ^ Departamento de Cooperación Internacional del Ministerio de Ciencia y Tecnología (septiembre de 2017). "Plan de desarrollo de inteligencia artificial de próxima generación emitido por el Consejo de Estado" (PDF) . Boletín de Ciencia y Tecnología de China (17): 2–12. Archivado desde el original (PDF) el 21 de enero de 2022 – vía Ministerio de Asuntos Exteriores de China .
  83. ^ Wu, Fei; Lu, Cewu; Zhu, Mingjie; Chen, Hao; Zhu, junio; Yu, Kai; Li, Lei; Li, Ming; Chen, Qianfeng; Li, Xi; Cao, Xudong (2020). "Hacia una nueva generación de inteligencia artificial en China". Inteligencia de la máquina de la naturaleza . 2 (6): 312–316. doi :10.1038/s42256-020-0183-4. ISSN  2522-5839. S2CID  220507829. Archivado desde el original el 18 de julio de 2022 . Consultado el 18 de julio de 2022 .
  84. ^ "Se publican normas éticas para la inteligencia artificial de nueva generación". Centro de Seguridad y Tecnología Emergente . Archivado desde el original el 10 de febrero de 2023. Consultado el 18 de julio de 2022 .
  85. ^ "China acaba de darle al mundo un modelo para dominar la IA generativa" Fortune . Archivado desde el original el 2023-07-24 . Consultado el 2023-07-24 .
  86. ^ "El Consejo de Europa y la Inteligencia Artificial". Inteligencia Artificial . Archivado desde el original el 19 de enero de 2024 . Consultado el 29 de julio de 2021 .
  87. ^ "El Convenio Marco sobre Inteligencia Artificial". Consejo de Europa . Archivado desde el original el 5 de septiembre de 2024. Consultado el 5 de septiembre de 2024 .
  88. ^ "El Consejo de Europa abre a la firma el primer tratado mundial sobre IA". Consejo de Europa . 5 de septiembre de 2024. Archivado desde el original el 17 de septiembre de 2024 . Consultado el 17 de septiembre de 2024 .
  89. ^ Peukert, Christian; Bechtold, Stefan; Kretschmer, Tobias; Batikas, Michail (30 de septiembre de 2020). «Exportación regulatoria y efectos indirectos: cómo afecta el RGPD a los mercados globales de datos». CEPR . Archivado desde el original el 26 de octubre de 2023 . Consultado el 26 de octubre de 2023 .
  90. ^ Coulter, Martin (24 de agosto de 2023). "Big Tech braces for EU Digital Services Act regulatory". Reuters . Archivado desde el original el 26 de octubre de 2023. Consultado el 26 de octubre de 2023 .
  91. ^ "El nuevo papel de Europa en la regulación digital". Le Monde.fr . 2023-08-28. Archivado desde el original el 2023-10-26 . Consultado el 2023-10-26 .
  92. ^ Satariano, Adam (14 de junio de 2023). «Los europeos dan un paso importante hacia la regulación de la IA» The New York Times . ISSN  0362-4331. Archivado desde el original el 26 de octubre de 2023. Consultado el 25 de octubre de 2023 .
  93. ^ Browne, Ryan (14 de junio de 2023). «Los legisladores de la UE aprueban una normativa histórica sobre inteligencia artificial». CNBC . Archivado desde el original el 26 de octubre de 2023. Consultado el 25 de octubre de 2023 .
  94. ^ Anónimo (25 de abril de 2018). «Inteligencia artificial en las comunicaciones para Europa». Dar forma al futuro digital de Europa – Comisión Europea . Archivado desde el original el 13 de mayo de 2020. Consultado el 5 de mayo de 2020 .
  95. ^ smuhana (14 de junio de 2018). «Grupo de expertos de alto nivel sobre inteligencia artificial». Shaping Europe's digital future – Comisión Europea . Archivado desde el original el 24 de octubre de 2019. Consultado el 5 de mayo de 2020 .
  96. ^ ab Andraško, Jozef; Mesarčík, Matúš; Hamuľák, Ondrej (2021-01-02). «Las intersecciones regulatorias entre inteligencia artificial, protección de datos y ciberseguridad: desafíos y oportunidades para el marco legal de la UE». AI & Society . 36 (2): 623–636. doi :10.1007/s00146-020-01125-5. ISSN  0951-5666. S2CID  230109912. Archivado desde el original el 2024-09-25 . Consultado el 2021-03-27 .
  97. ^ "Directrices éticas para una IA fiable". Comisión Europea . 2019. Archivado desde el original el 29 de marzo de 2023. Consultado el 30 de mayo de 2022 .
  98. ^ "Recomendaciones de política e inversión para una inteligencia artificial fiable". Dar forma al futuro digital de Europa – Comisión Europea . 2019-06-26 . Consultado el 2020-05-05 .
  99. ^ «Libro Blanco sobre la Inteligencia Artificial: un enfoque europeo hacia la excelencia y la confianza». Comisión Europea . 19 de febrero de 2020. Archivado desde el original el 5 de enero de 2024. Consultado el 7 de junio de 2021 .
  100. ^ Broadbent, Meredith (17 de marzo de 2021). "¿Qué nos depara una agenda regulatoria cooperativa sobre inteligencia artificial?". www.csis.org . Archivado desde el original el 7 de junio de 2021 . Consultado el 7 de junio de 2021 .
  101. ^ Comisión Europea. (2020). Libro blanco sobre inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza . OCLC  1141850140.
  102. ^ Heikkilä, Melissa (14 de abril de 2021). "POLITICO AI: Decoded: The EU's AI rules — Finland talks to machines — Facebook's fairness project" (boletín informativo). POLITICO . Consultado el 14 de mayo de 2021.
  103. ^ Comisión Europea (21 de abril de 2021). Europa preparada para la era digital: la Comisión propone nuevas normas y acciones para la excelencia y la confianza en la inteligencia artificial Archivado el 14 de mayo de 2021 en Wayback Machine (nota de prensa). Consultado el 14 de mayo de 2021.
  104. ^ Pery, Andrew (6 de octubre de 2021). «Inteligencia artificial y minería de procesos confiables: desafíos y oportunidades». DeepAI . Archivado desde el original el 18 de febrero de 2022 . Consultado el 27 de febrero de 2022 .
  105. ^ Browne, Ryan (15 de mayo de 2023). "Europa apunta a ChatGPT con lo que pronto podría ser la primera ley de inteligencia artificial de Occidente. Esto es lo que significa". CNBC . Consultado el 25 de octubre de 2023 .
  106. ^ Veale, Michael; Borgesius, Frederik Zuiderveen (1 de agosto de 2021). «Desmitificando el proyecto de ley de inteligencia artificial de la UE: análisis de los elementos buenos, malos y poco claros del enfoque propuesto». Computer Law Review International . 22 (4): 97–112. arXiv : 2107.03721 . doi :10.9785/cri-2021-220402. ISSN  2194-4164. S2CID  235765823. Archivado desde el original el 26 de marzo de 2023 . Consultado el 12 de enero de 2023 .
  107. ^ van Kolfschooten, Hannah (enero de 2022). «Regulación de la inteligencia artificial en la UE: desafíos para los derechos de los pacientes». Common Market Law Review . 59 (1): 81–112. doi :10.54648/COLA2022005. S2CID  248591427. Archivado desde el original el 25 de septiembre de 2024. Consultado el 10 de diciembre de 2023 .
  108. ^ Coulter, Martin (7 de diciembre de 2023). "¿Qué es la Ley de Inteligencia Artificial de la UE y cuándo entrará en vigor la normativa?". Reuters . Archivado desde el original el 10 de diciembre de 2023. Consultado el 1 de junio de 2024 .
  109. ^ Bertuzzi, Luca (7 de diciembre de 2023). «AI Act: los responsables políticos de la UE fijan normas sobre modelos de IA, pero se enfrentan en materia de aplicación de la ley». euractiv . Archivado desde el original el 8 de enero de 2024 . Consultado el 1 de junio de 2024 .
  110. ^ Browne, Ryan (21 de mayo de 2024). «La primera ley importante del mundo sobre inteligencia artificial obtiene luz verde final de la UE». CNBC . Archivado desde el original el 21 de mayo de 2024. Consultado el 1 de junio de 2024 .
  111. ^ "Ley de Inteligencia Artificial: los eurodiputados adoptan una ley histórica". Parlamento Europeo . 2024-03-13. Archivado desde el original el 2024-03-15 . Consultado el 2024-06-01 .
  112. ^ "Reacción de los expertos: la UE llegó a un acuerdo sobre las normas de inteligencia artificial. Pero ¿pueden los reguladores avanzar a la velocidad de la tecnología?". Atlantic Council . 11 de diciembre de 2023.
  113. ^ Natale, Lara (febrero de 2022). «Las ambiciones digitales de la UE se ven afectadas por una disonancia estratégica». Encompass . Consultado el 25 de febrero de 2022 .
  114. ^ Bertuzzi, Luca; Killeen, Molly (17 de septiembre de 2021). "Digital Brief powered by Google: make it or break it, Chips Act, marking the path" (Informes digitales impulsados ​​por Google: triunfar o deshacerlo, Ley Chips, mostrando el camino). Euractiv . Consultado el 25 de febrero de 2022 .
  115. ^ Propp, Kenneth (7 de febrero de 2022). «El nuevo mantra de Francia: libertad, igualdad, soberanía digital». Atlantic Council . Archivado desde el original el 25 de febrero de 2022. Consultado el 25 de febrero de 2022 .
  116. ^ «Inteligencia artificial: la UE debe acelerar el ritmo». Tribunal de Cuentas Europeo . 29 de mayo de 2024. Archivado desde el original el 25 de septiembre de 2024. Consultado el 29 de mayo de 2024 .
  117. ^ Klimaschutz, BMWK-Bundesministerium für Wirtschaft und. ""KI - Fabricado en Alemania "etablieren". www.bmwk.de (en alemán). Archivado desde el original el 12 de junio de 2023 . Consultado el 12 de junio de 2023 .
  118. ^ "DIN, DKE y BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz". totalmente electrónica (en alemán) . Consultado el 12 de junio de 2023 .
  119. ^ ab Runze, Gerhard; Haimerl, Martín; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023). "Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon". Java Spektrum (en alemán) (3): 42–46. Archivado desde el original el 27 de abril de 2024 . Consultado el 12 de junio de 2023 .
  120. ^ "Normungsroadmap Künstliche Intelligenz". www.dke.de (en alemán) . Consultado el 12 de junio de 2023 .
  121. ^ "Principios rectores internacionales del proceso de Hiroshima para un sistema avanzado de inteligencia artificial | Dar forma al futuro digital de Europa". digital-strategy.ec.europa.eu . 2023-10-30. Archivado desde el original el 2023-11-01 . Consultado el 2023-11-01 .
  122. ^ Cahane, Amir (13 de noviembre de 2022). "Libro blanco sobre regulación y políticas de IA en Israel: un primer vistazo". Blog de RAILS .
  123. ^ Ministerio de Innovación, Ciencia y Tecnología y Ministerio de Justicia (12 de diciembre de 2023). "Política de Israel sobre regulación y ética de la inteligencia artificial".
  124. ^ Marzio Bartoloni (11 de octubre de 2023). «Curas e inteligencia artificial: privacidad y el riesgo del algoritmo que discrimina».
  125. ^ Rebecca (13 de julio de 2023). "¿Por qué regular la IA es un desafío tan grande?". Asesor científico jefe del Primer Ministro . Archivado desde el original el 25 de septiembre de 2024. Consultado el 20 de agosto de 2024 .
  126. ^ "Reimaginar la regulación para la era de la IA: proyecto piloto de Nueva Zelanda". Foro Económico Mundial . 2020-06-29.
  127. ^ Cann, Geraden (25 de mayo de 2023). «La Comisión de Privacidad emite una advertencia a las empresas y organizaciones que utilizan inteligencia artificial». Stuff . Archivado desde el original el 25 de septiembre de 2024 . Consultado el 20 de agosto de 2024 .
  128. ^ "Inteligencia artificial y los proveedores de servicios de Internet". www.privacy.org.nz . 2023-09-21. Archivado desde el original el 2024-08-20 . Consultado el 2024-08-20 .
  129. ^ "Una encuesta revela que la mayoría de los kiwis están asustados por la IA maliciosa: responde el ministro". NZ Herald . 2024-02-21. Archivado desde el original el 2024-08-20 . Consultado el 2024-08-20 .
  130. ^ Arasa, Dale (13 de marzo de 2023). "Proyecto de ley de inteligencia artificial filipino propone una agencia para la inteligencia artificial". Philippine Daily Inquirer . Archivado desde el original el 25 de septiembre de 2024 . Consultado el 29 de mayo de 2024 .
  131. ^ Abarca, Charie (29 de mayo de 2024). "Comelec quiere prohibir la inteligencia artificial en los materiales de campaña antes de las elecciones de 2025". Philippine Daily Inquirer . Archivado desde el original el 29 de mayo de 2024. Consultado el 29 de mayo de 2024 .
  132. ^ Ministerio de Ciencia de España (2018). «Estrategia Española de I+D+i en Inteligencia Artificial» (PDF) . www.knowledge4policy.ec.europa.eu . Archivado (PDF) del original el 18 de julio de 2023. Consultado el 9 de diciembre de 2023 .
  133. ^ ab "Encadenando los chatbots: España se acerca a la Ley de Inteligencia Artificial". POLITICO . 2023-06-22 . Consultado el 2023-09-03 .
  134. ^ Ministerio de Ciencia de España (2018). «Estrategia Española de I+D+i en Inteligencia Artificial» (PDF) . www.knowledge4policy.ec.europa.eu . Consultado el 9 de diciembre de 2023 .
  135. ^ Castillo, Carlos del (28 de diciembre de 2021). "España vigilará la Inteligencia Artificial como a los fármacos o los alimentos". elDiario.es (en español) . Consultado el 3 de septiembre de 2023 .
  136. ^ "España comienza el proceso para elegir la sede de la futura Agencia Española de Supervisión de la IA". El Español (en español). 2022-09-13 . Consultado el 3 de septiembre de 2023 .
  137. ^ Marcos, José (12 de septiembre de 2022). "El Gobierno inicia con la Agencia de Inteligencia Artificial el traslado de sedes fuera de Madrid". El País (en español) . Consultado el 3 de septiembre de 2023 .
  138. ^ "A Coruña acogerá la Agencia Española de Inteligencia Artificial". Prensa Europea. 2022-12-05 . Consultado el 3 de septiembre de 2023 .
  139. ^ "El Gobierno aprueba el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial". Prensa Europea. 2023-08-22 . Consultado el 3 de septiembre de 2023 .
  140. ^ Guerrini, Federico. "Los países europeos compiten por marcar el ritmo regulatorio de la IA". Forbes . Consultado el 4 de septiembre de 2023 .
  141. ^ ab "Estrategia de la economía digital 2015-2018". www.ukri.org . 16 de febrero de 2015. Archivado desde el original el 2022-09-01 . Consultado el 2022-07-18 .
  142. ^ "Ética de datos y panorama de orientación de la IA". GOV.UK . Archivado desde el original el 2023-10-26 . Consultado el 2023-10-26 .
  143. ^ Leslie, David (11 de junio de 2019). "Comprensión de la ética y la seguridad de la inteligencia artificial: una guía para el diseño y la implementación responsables de sistemas de IA en el sector público". Zenodo . arXiv : 1906.05684 . doi :10.5281/zenodo.3240529. S2CID  189762499. Archivado desde el original el 16 de abril de 2020 . Consultado el 28 de abril de 2020 .
  144. ^ "Herramientas de seguridad inteligentes". www.ncsc.gov.uk . Archivado desde el original el 6 de abril de 2020 . Consultado el 28 de abril de 2020 .
  145. ^ Richardson, Tim. «Reino Unido publica su Estrategia Nacional de Inteligencia Artificial». www.theregister.com . Archivado desde el original el 10 de febrero de 2023. Consultado el 1 de enero de 2022 .
  146. ^ La Estrategia Nacional de IA del Reino Unido Archivado el 10 de febrero de 2023 en Wayback Machine , 2021 (acciones 9 y 10 de la sección "Pilar 3: Gobernar la IA de manera eficaz")
  147. ^ "Un enfoque pro-innovación para la regulación de la IA". GOV.UK . Archivado desde el original el 2023-10-27 . Consultado el 2023-10-27 .
  148. ^ Gikay, Asress Adimi (8 de junio de 2023). «Cómo el Reino Unido está acertando con la regulación de la IA». The Conversation . Archivado desde el original el 27 de octubre de 2023. Consultado el 27 de octubre de 2023 .
  149. ^ Browne, Ryan (12 de junio de 2023). "El primer ministro británico Rishi Sunak propone que el Reino Unido sea el hogar de la regulación de la seguridad de la IA mientras Londres aspira a ser el próximo Silicon Valley". CNBC . Archivado desde el original el 27 de julio de 2023 . Consultado el 27 de octubre de 2023 .
  150. ^ "Cumbre sobre seguridad de la IA: introducción (HTML)". GOV.UK . Archivado desde el original el 2023-10-26 . Consultado el 2023-10-27 .
  151. ^ "Presentación del Instituto de Seguridad de la IA". GOV.UK . Archivado desde el original el 2024-07-07 . Consultado el 2024-07-08 .
  152. ^ Henshall, Will (1 de abril de 2024). «Estados Unidos y el Reino Unido se asociarán para realizar pruebas de seguridad de la inteligencia artificial». TIME . Archivado desde el original el 7 de julio de 2024. Consultado el 8 de julio de 2024 .
  153. ^ Weaver, John Frank (28 de diciembre de 2018). "Regulación de la inteligencia artificial en los Estados Unidos". Manual de investigación sobre el derecho de la inteligencia artificial : 155–212. doi :10.4337/9781786439055.00018. ISBN 9781786439055Archivado desde el original el 30 de junio de 2020. Consultado el 29 de junio de 2020 .
  154. ^ "Informe de la Administración sobre el futuro de la inteligencia artificial". whitehouse.gov . 2016-10-12. Archivado desde el original el 2023-10-04 . Consultado el 2023-11-01 .
  155. ^ Comité de Tecnología del Consejo Nacional de Ciencia y Tecnología (octubre de 2016). “Preparación para el futuro de la inteligencia artificial”. whitehouse.gov – vía Archivos Nacionales .
  156. ^ "Plan Estratégico Nacional de Investigación y Desarrollo en Inteligencia Artificial" (PDF) . Consejo Nacional de Ciencia y Tecnología . Octubre de 2016.
  157. ^ "Acerca de". Comisión Nacional de Seguridad sobre Inteligencia Artificial . Consultado el 29 de junio de 2020 .
  158. ^ Stefanik, Elise M. (22 de mayo de 2018). «HR5356 – 115.º Congreso (2017-2018): Ley de Inteligencia Artificial de la Comisión de Seguridad Nacional de 2018». www.congress.gov . Archivado desde el original el 23 de marzo de 2020. Consultado el 13 de marzo de 2020 .
  159. ^ Heinrich, Martin (21 de mayo de 2019). «Texto – S.1558 – 116.º Congreso (2019-2020): Ley de Iniciativa de Inteligencia Artificial». www.congress.gov . Archivado desde el original el 29 de marzo de 2020 . Consultado el 29 de marzo de 2020 .
  160. ^ Scherer, Matthew U. (2015). "Regulación de sistemas de inteligencia artificial: riesgos, desafíos, competencias y estrategias". Serie de documentos de trabajo de la SSRN . doi :10.2139/ssrn.2609777. ISSN  1556-5068.
  161. ^ "Orden ejecutiva sobre el mantenimiento del liderazgo estadounidense en inteligencia artificial – La Casa Blanca". trumpwhitehouse.archives.gov . Archivado desde el original el 20 de enero de 2021 . Consultado el 1 de noviembre de 2023 .
  162. ^ Vought, Russell T. "MEMORANDUM PARA LOS DIRECTORES DE DEPARTAMENTOS Y AGENCIAS EJECUTIVAS – Guía para la regulación de las aplicaciones de inteligencia artificial" (PDF) . La Casa Blanca . Archivado (PDF) desde el original el 2020-03-18 . Consultado el 2020-03-28 .
  163. ^ "Actualización de IA: la Casa Blanca publica 10 principios para la regulación de la inteligencia artificial". Inside Tech Media . 14 de enero de 2020. Archivado desde el original el 25 de marzo de 2020. Consultado el 25 de marzo de 2020 .
  164. ^ Liderazgo estadounidense en IA: un plan para la participación federal en el desarrollo de estándares técnicos y herramientas relacionadas (PDF) . Instituto Nacional de Ciencia y Tecnología. 2019. Archivado (PDF) del original el 25 de marzo de 2020 . Consultado el 28 de marzo de 2020 .
  165. ^ "Solicitud de comentarios sobre un proyecto de memorando a los jefes de departamentos y agencias ejecutivas, "Guía para la regulación de aplicaciones de inteligencia artificial"". Registro Federal . 2020-01-13. Archivado desde el original el 2020-11-25 . Consultado el 2020-11-28 .
  166. ^ Consejo Nacional de Ciencia y Tecnología (21 de junio de 2019). «Plan estratégico nacional de investigación y desarrollo de inteligencia artificial: actualización de 2019» (PDF) . Archivado (PDF) del original el 25 de agosto de 2023. Consultado el 8 de agosto de 2023 .
  167. ^ Gursoy, Furkan; Kakadiaris, Ioannis A. (2023). "Estrategia de investigación en inteligencia artificial de los Estados Unidos: evaluación crítica y recomendaciones de políticas". Frontiers in Big Data . 6 . doi : 10.3389/fdata.2023.1206139 . ISSN  2624-909X. PMC 10440374 . PMID  37609602. 
  168. ^ Informe final de la NSCAI (PDF) . Washington, DC: Comisión de Seguridad Nacional sobre Inteligencia Artificial. 2021. Archivado (PDF) del original el 15 de febrero de 2023 . Consultado el 27 de mayo de 2021 .
  169. ^ Homeland Newswire (25 de junio de 2022). «Portman y Peters presentan un proyecto de ley bipartidista para garantizar que el gobierno federal esté preparado para los riesgos catastróficos para la seguridad nacional». HomelandNewswire. Archivado desde el original el 25 de junio de 2022. Consultado el 4 de julio de 2022 .
  170. ^ "Texto – S.4488 – 117.º Congreso (2021-2022): Proyecto de ley para establecer un comité interinstitucional sobre riesgo catastrófico global y para otros fines". Congress.gov . Biblioteca del Congreso. 2022-06-23. Archivado desde el original el 2022-07-05 . Consultado el 2022-07-04 .
  171. ^ "Plan para una Carta de Derechos de la IA | OSTP". La Casa Blanca . Archivado desde el original el 2023-10-31 . Consultado el 2023-11-01 .
  172. ^ "La Casa Blanca acaba de presentar una nueva Carta de Derechos de la IA". MIT Technology Review . Archivado desde el original el 2023-10-26 . Consultado el 2023-10-24 .
  173. ^ "Ley local para modificar el código administrativo de la ciudad de Nueva York, en relación con las herramientas automatizadas de toma de decisiones laborales". Ayuntamiento de la ciudad de Nueva York . Archivado desde el original el 18 de octubre de 2023. Consultado el 1 de noviembre de 2023 .
  174. ^ Kestenbaum, Jonathan (5 de julio de 2023). "La nueva ley de sesgo en inteligencia artificial de la ciudad de Nueva York afecta ampliamente la contratación y exige auditorías". Bloomberg Law . Archivado desde el original el 2023-11-01 . Consultado el 2023-10-24 .
  175. ^ House, The White (21 de julio de 2023). "HOJA INFORMATIVA: La administración Biden-Harris obtiene compromisos voluntarios de las principales empresas de inteligencia artificial para gestionar los riesgos planteados por la IA". La Casa Blanca . Archivado desde el original el 25 de septiembre de 2023. Consultado el 25 de septiembre de 2023 .
  176. ^ House, The White (12 de septiembre de 2023). "HOJA INFORMATIVA: La administración Biden-Harris obtiene compromisos voluntarios de ocho empresas de inteligencia artificial adicionales para gestionar los riesgos planteados por la IA". La Casa Blanca . Archivado desde el original el 24 de septiembre de 2023. Consultado el 25 de septiembre de 2023 .
  177. ^ Chatterjee, Mohar (12 de octubre de 2023). "Orden de inteligencia artificial de la Casa Blanca para flexibilizar el poder adquisitivo federal". POLITICO . Consultado el 27 de octubre de 2023 .
  178. ^ House, The White (30 de octubre de 2023). "HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura, protegida y confiable". La Casa Blanca . Archivado desde el original el 30 de enero de 2024. Consultado el 5 de diciembre de 2023 .
  179. ^ Lewis, James Andrew; Benson, Emily; Frank, Michael (31 de octubre de 2023). «Orden ejecutiva de la administración Biden sobre inteligencia artificial». Archivado desde el original el 5 de diciembre de 2023. Consultado el 5 de diciembre de 2023 .
  180. ^ House, The White (30 de octubre de 2023). «Orden ejecutiva sobre el desarrollo y uso seguro, protegido y confiable de la inteligencia artificial». La Casa Blanca . Archivado desde el original el 5 de diciembre de 2023. Consultado el 5 de diciembre de 2023 .
  181. ^ Lanum, Nikolas (7 de noviembre de 2023). "La orden ejecutiva sobre inteligencia artificial del presidente Biden tiene 'limitaciones peligrosas', dice el director ejecutivo de una empresa de detección de deepfakes". FOXBusiness . Archivado desde el original el 5 de diciembre de 2023 . Consultado el 5 de diciembre de 2023 .
  182. ^ Myrow, Rachael (16 de febrero de 2024). "Los legisladores de California abordan la regulación de la inteligencia artificial con una serie de proyectos de ley". KQED . Archivado desde el original el 11 de julio de 2024 . Consultado el 7 de julio de 2024 .
  183. ^ De Vynck, Gerrit (8 de febrero de 2024). "En el patio trasero de las grandes tecnológicas, un legislador de California presenta un proyecto de ley histórico sobre inteligencia artificial". The Washington Post .
  184. ^ Lee, Wendy (29 de septiembre de 2024). "El gobernador Gavin Newsom veta el proyecto de ley de seguridad de la IA al que se opone Silicon Valley". Los Angeles Times . Consultado el 29 de septiembre de 2024 .
  185. ^ Kristin Robinson (2024). "Tennessee adopta la Ley ELVIS, que protege las voces de los artistas de la suplantación de identidad por parte de la IA". The New York Times . Archivado desde el original el 25 de marzo de 2024. Consultado el 26 de marzo de 2024 .
  186. ^ Ashley King (2024). "La Ley ELVIS se ha convertido oficialmente en ley: la primera legislación sobre inteligencia artificial a nivel estatal en los EE. UU." Digital Music News . Consultado el 26 de marzo de 2024 .
  187. Cámara de Representantes de Tennessee (2024). "House Floor Session – 44th Legislative Day" (video) . Cámara de Representantes de Tennessee . Archivado desde el original el 25 de septiembre de 2024. Consultado el 26 de marzo de 2024 .
  188. ^ Audrey Gibbs (2024). "El gobernador de Tennessee, Lee, convierte en ley la Ley ELVIS en un barrio marginal y protege a los músicos de los abusos de la inteligencia artificial". The Tennessean . Archivado desde el original el 25 de septiembre de 2024. Consultado el 26 de marzo de 2024 .
  189. ^ Alex Greene (2024). «The ELVIS Act». Memphis Flyer . Archivado desde el original el 25 de septiembre de 2024. Consultado el 26 de marzo de 2024 .
  190. ^ Wodecki, Ben (27 de marzo de 2024). «Utah aprueba una legislación que regula el uso de la inteligencia artificial». AI Business . Archivado desde el original el 25 de abril de 2024. Consultado el 25 de abril de 2024 .
  191. ^ "SB0149". le.utah.gov . Archivado desde el original el 29 de abril de 2024 . Consultado el 25 de abril de 2024 .
  192. ^ "Antecedentes sobre los sistemas de armas autónomas letales en la Convención sobre ciertas armas convencionales". Naciones Unidas, Ginebra. Archivado desde el original el 27 de abril de 2020. Consultado el 5 de mayo de 2020 .
  193. ^ "Principios rectores afirmados por el Grupo de expertos gubernamentales sobre tecnologías emergentes en el ámbito de los sistemas de armas autónomas letales" (PDF) . Naciones Unidas, Ginebra. Archivado desde el original (PDF) el 2020-12-01 . Consultado el 2020-05-05 .
  194. ^ Baum, Seth (30 de septiembre de 2018). "Cómo contrarrestar la desinformación de la superinteligencia". Información . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489.
  195. ^ "Country Views on Killer Robots" (PDF) . La campaña para detener a los robots asesinos. Archivado (PDF) del original el 2019-12-22 . Consultado el 2020-05-05 .
  196. ^ Sayler, Kelley (2020). Inteligencia artificial y seguridad nacional: actualizado el 10 de noviembre de 2020 (PDF) . Washington, DC: Servicio de Investigación del Congreso. Archivado (PDF) del original el 8 de mayo de 2020. Consultado el 27 de mayo de 2021 .
  197. ^ "Defense Primer: US Policy on Lethal Autonomous Weapon Systems" (Manual de defensa: política estadounidense sobre sistemas de armas autónomas letales). Servicio de Investigación del Congreso . 15 de mayo de 2023. Archivado desde el original el 1 de noviembre de 2023. Consultado el 18 de octubre de 2023 .