stringtranslate.com

Regulación de la inteligencia artificial

La regulación de la inteligencia artificial es el desarrollo de políticas y leyes del sector público para promover y regular la inteligencia artificial (IA). Es parte de la regulación más amplia de los algoritmos . [1] [2] El panorama regulatorio y político para la IA es un tema emergente en jurisdicciones de todo el mundo, incluso para organizaciones internacionales sin poder de aplicación directa como el IEEE o la OCDE . [3]

Desde 2016, se han publicado numerosas directrices éticas de la IA para mantener el control social sobre la tecnología. [4] La regulación se considera necesaria tanto para fomentar la innovación en IA como para gestionar los riesgos asociados.

Además, las organizaciones que implementan IA tienen un papel central que desempeñar en la creación e implementación de IA confiable , adhiriéndose a los principios establecidos y asumiendo la responsabilidad de mitigar los riesgos. [5]

La regulación de la IA a través de mecanismos como juntas de revisión también puede verse como un medio social para abordar el problema del control de la IA . [6] [7]

Fondo

Según el Índice de IA de 2023 de la Universidad de Stanford , el número anual de proyectos de ley que mencionan la "inteligencia artificial" aprobados en 127 países encuestados saltó de uno en 2016 a 37 en 2022. [8] [9]

En 2017, Elon Musk pidió que se regulara el desarrollo de la IA. [10] Según NPR , el CEO de Tesla "claramente no estaba entusiasmado" de abogar por un escrutinio gubernamental que podría afectar su propia industria, pero creía que los riesgos de pasar completamente sin supervisión son demasiado altos: "Normalmente, la forma en que se establecen las regulaciones Es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se crea una agencia reguladora para regular esa industria. Eso, en el pasado, ha sido malo, pero no es algo que represente un riesgo fundamental. a la existencia de la civilización." [10] En respuesta, algunos políticos expresaron escepticismo sobre la conveniencia de regular una tecnología que aún está en desarrollo. [11] En respuesta tanto a Musk como a las propuestas de febrero de 2017 de los legisladores de la Unión Europea para regular la IA y la robótica, el director ejecutivo de Intel, Brian Krzanich, ha argumentado que la IA está en su infancia y que es demasiado pronto para regular la tecnología. [12] Muchas empresas de tecnología se oponen a la dura regulación de la IA y "Si bien algunas de las empresas han dicho que acogen con agrado las normas en torno a la IA, también se han opuesto a regulaciones estrictas similares a las que se están creando en Europa" [13] En lugar de tratar de regular En cuanto a la tecnología en sí, algunos académicos sugirieron desarrollar normas comunes que incluyan requisitos para las pruebas y la transparencia de los algoritmos, posiblemente en combinación con alguna forma de garantía. [14]

En una encuesta de Ipsos de 2022 , las actitudes hacia la IA variaron mucho según el país; El 78% de los ciudadanos chinos, pero sólo el 35% de los estadounidenses, coincidieron en que "los productos y servicios que utilizan IA tienen más beneficios que inconvenientes". [8] Una encuesta de Reuters /Ipsos de 2023 encontró que el 61% de los estadounidenses está de acuerdo, y el 22% no está de acuerdo, en que la IA plantea riesgos para la humanidad. [15] En una encuesta de Fox News de 2023 , el 35% de los estadounidenses pensó que era "muy importante" y un 41% adicional pensó que era "algo importante" que el gobierno federal regulara la IA, frente a un 13% que respondió "no muy importante". y el 8% respondió "nada importante". [16] [17]

Perspectivas

La regulación de las inteligencias artificiales es el desarrollo de políticas y leyes del sector público para promover y regular la IA. [18] Hoy en día se considera generalmente que la regulación es necesaria tanto para fomentar la IA como para gestionar los riesgos asociados. [19] [20] [21] Las consideraciones de política y administración pública generalmente se centran en las implicaciones técnicas y económicas y en sistemas de IA confiables y centrados en el ser humano, [22] aunque también se considera la regulación de las superinteligencias artificiales . [23] El enfoque básico de la regulación se centra en los riesgos y sesgos de los algoritmos de aprendizaje automático , a nivel de los datos de entrada, las pruebas de algoritmos y el modelo de decisión. También se centra en la explicabilidad de los resultados. [20]

Ha habido propuestas de leyes duras y blandas para regular la IA. [24] Algunos juristas han señalado que los enfoques de legislación estricta para la regulación de la IA presentan desafíos sustanciales. [25] [26] Entre los desafíos, la tecnología de IA está evolucionando rápidamente, lo que genera un "problema de ritmo" donde las leyes y regulaciones tradicionales a menudo no pueden mantenerse al día con las aplicaciones emergentes y sus riesgos y beneficios asociados. [25] [26] De manera similar, la diversidad de aplicaciones de IA desafía a las agencias reguladoras existentes, que a menudo tienen un alcance jurisdiccional limitado. [25] Como alternativa, algunos juristas sostienen que los enfoques de derecho indicativo para la regulación de la IA son prometedores porque las leyes indicativas pueden adaptarse de manera más flexible para satisfacer las necesidades de la tecnología de IA emergente y en evolución y de las aplicaciones incipientes. [25] [26] Sin embargo, los enfoques de derecho indicativo a menudo carecen de un potencial sustancial de aplicación. [25] [27]

Cason Schmit, Megan Doerr y Jennifer Wagner propusieron la creación de un regulador cuasi gubernamental aprovechando los derechos de propiedad intelectual (es decir, licencias copyleft ) en ciertos objetos de IA (es decir, modelos de IA y conjuntos de datos de entrenamiento) y delegando derechos de aplicación a una entidad de aplicación designada. entidad. [28] Sostienen que se puede otorgar licencia a la IA bajo términos que requieran el cumplimiento de prácticas éticas y códigos de conducta específicos. (por ejemplo, principios de derecho indicativo). [28]

Destacadas organizaciones juveniles centradas en la IA, a saber, Encode Justice, también han emitido agendas integrales que exigen regulaciones de IA y asociaciones público-privadas más estrictas . [29] [30]

La regulación de la IA podría derivar de principios básicos. Una meta-revisión del Centro Berkman Klein para Internet y Sociedad de 2020 de conjuntos de principios existentes, como los Principios de Asilomar y los Principios de Beijing, identificó ocho de esos principios básicos: privacidad, responsabilidad, seguridad, transparencia y explicabilidad, equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y respeto por los valores humanos. [31] Las leyes y regulaciones de IA se han dividido en tres temas principales, a saber, la gobernanza de los sistemas de inteligencia autónomos, la responsabilidad y la rendición de cuentas por los sistemas, y las cuestiones de privacidad y seguridad. [19] Un enfoque de administración pública ve una relación entre la ley y la regulación de la IA, la ética de la IA y la "sociedad de la IA", definida como sustitución y transformación de la fuerza laboral, aceptación social y confianza en la IA, y la transformación de la interacción entre humanos y máquinas. [32] El desarrollo de estrategias del sector público para la gestión y regulación de la IA se considera necesario a nivel local, nacional [33] e internacional [34] y en una variedad de campos, desde la gestión de servicios públicos [35] y la rendición de cuentas [ 36] a la aplicación de la ley, [34] [37] atención médica (especialmente el concepto de Garantía Humana), [38] [39] [40] [41] [42] el sector financiero, [33] robótica, [43] [44] vehículos autónomos, [43] el ejército [45] y la seguridad nacional, [46] y el derecho internacional. [47] [48]

Henry Kissinger , Eric Schmidt y Daniel Huttenlocher publicaron una declaración conjunta en noviembre de 2021 titulada "Ser humano en la era de la IA", en la que pedían una comisión gubernamental para regular la IA. [49]

Como respuesta al problema del control de la IA

La regulación de la IA puede verse como un medio social positivo para gestionar el problema de control de la IA (la necesidad de garantizar una IA beneficiosa a largo plazo), mientras que otras respuestas sociales, como no hacer nada o prohibir, se consideran poco prácticas, y enfoques como mejorar las capacidades humanas. a través de técnicas de transhumanismo , como las interfaces cerebro-computadora, que se consideran potencialmente complementarias. [7] [50] La regulación de la investigación sobre inteligencia artificial general (AGI) se centra en el papel de los comités de revisión, desde universidades o corporaciones hasta niveles internacionales, y en fomentar la investigación sobre la seguridad de la IA , [50] junto con la posibilidad de diferencias intelectuales. avances (priorizar estrategias de protección sobre estrategias riesgosas en el desarrollo de la IA) o llevar a cabo una vigilancia masiva internacional para realizar el control de armas AGI. [7] Por ejemplo, la 'AGI Nanny' es una estrategia propuesta, potencialmente bajo el control de la humanidad, para prevenir la creación de una superinteligencia peligrosa , así como para abordar otras amenazas importantes al bienestar humano, como la subversión de la sistema financiero global, hasta que se pueda crear de manera segura una verdadera superinteligencia. Implica la creación de un sistema AGI más inteligente que el humano, pero no superinteligente, conectado a una gran red de vigilancia, con el objetivo de monitorear a la humanidad y protegerla del peligro. [7] La ​​regulación de los AGI conscientes y éticamente conscientes se centra en cómo integrarlos en la sociedad humana existente y puede dividirse en consideraciones de su situación jurídica y de sus derechos morales. [7] La ​​regulación de la IA se ha considerado restrictiva, con el riesgo de impedir el desarrollo de la AGI. [43]

Orientación global

Las organizaciones encuestadas coinciden en gran medida en que las empresas que desarrollen modelos básicos serán responsables de los riesgos asociados (en lugar de aquellas que los utilicen), y que se requiere una gobernanza global para abordar los riesgos de la IA generativa . [51]

El desarrollo de una junta de gobernanza global para regular el desarrollo de la IA se sugirió al menos ya en 2017. [52] En diciembre de 2018, Canadá y Francia anunciaron planes para un Panel Internacional sobre Inteligencia Artificial respaldado por el G7, inspirado en el Panel Internacional sobre el Clima. Change , para estudiar los efectos globales de la IA en las personas y las economías y dirigir el desarrollo de la IA. [53] En 2019, el Panel pasó a llamarse Alianza Global sobre IA. [54] [55]

La Asociación Global sobre Inteligencia Artificial (GPAI) se lanzó en junio de 2020, planteando la necesidad de que la IA se desarrolle de acuerdo con los derechos humanos y los valores democráticos, para garantizar la confianza del público en la tecnología, como se describe en los Principios de la OCDE sobre Inteligencia Artificial. Inteligencia (2019). [56] Los 15 miembros fundadores de la Asociación Global sobre Inteligencia Artificial son Australia, Canadá, la Unión Europea, Francia, Alemania, India, Italia, Japón, la República de Corea, México, Nueva Zelanda, Singapur, Eslovenia y los Estados Unidos. y el Reino Unido. En 2023, la GPAI tendrá 29 miembros. [57] La ​​Secretaría de la GPAI está alojada en la OCDE en París, Francia. El mandato de la GPAI cubre cuatro temas, dos de los cuales cuentan con el apoyo del Centro Internacional de Experiencia en Montreal para el Avance de la Inteligencia Artificial, a saber, la IA responsable y la gobernanza de datos. Un centro de excelencia correspondiente en París apoyará los otros dos temas sobre el futuro del trabajo y sobre la innovación y la comercialización. GPAI también investigó cómo se puede aprovechar la IA para responder a la pandemia de COVID-19. [56]

Los Principios de IA de la OCDE [58] se adoptaron en mayo de 2019 y los Principios de IA del G20 en junio de 2019. [55] [59] [60] En septiembre de 2019, el Foro Económico Mundial emitió diez 'Directrices de IA para las adquisiciones gubernamentales'. [61] En febrero de 2020, la Unión Europea publicó su borrador de documento de estrategia para promover y regular la IA. [34]

En las Naciones Unidas (ONU), varias entidades han comenzado a promover y discutir aspectos de la regulación y la política de IA, incluido el Centro UNICRI de IA y Robótica . [46] En asociación con INTERPOL, el Centro UNICRI publicó el informe AI and Robotics for Law Enforcement en abril de 2019 [62] y el informe de seguimiento Hacia una innovación responsable en IA en mayo de 2020. [37] En la 40.ª sesión científica de la UNESCO en En noviembre de 2019, la organización inició un proceso de dos años para lograr un "instrumento de establecimiento de estándares globales sobre la ética de la inteligencia artificial". Para lograr este objetivo, se celebraron foros y conferencias de la UNESCO sobre IA para recabar las opiniones de las partes interesadas. En septiembre de 2020 se publicó un borrador de texto de una Recomendación sobre la Ética de la IA del Grupo Ad Hoc de Expertos de la UNESCO que incluía un llamado a llenar los vacíos legislativos. [63] La UNESCO presentó el instrumento internacional sobre la ética de la IA para su adopción en su Conferencia General en noviembre de 2021; [56] esto fue adoptado posteriormente. [64] Si bien la ONU está avanzando en la gestión global de la IA, su capacidad institucional y legal para gestionar el riesgo existencial de la AGI es más limitada. [sesenta y cinco]

AI for Good, una iniciativa de la Unión Internacional de Telecomunicaciones (UIT) en asociación con 40 agencias hermanas de las Naciones Unidas, es una plataforma global que tiene como objetivo identificar aplicaciones prácticas de la IA para promover los Objetivos de Desarrollo Sostenible de las Naciones Unidas y escalar esas soluciones para lograr un impacto global. Es una plataforma de las Naciones Unidas global e inclusiva orientada a la acción que fomenta el desarrollo de la IA para impactar positivamente la salud, el clima, el género, la prosperidad inclusiva, la infraestructura sostenible y otras prioridades de desarrollo global. [66]

Investigaciones recientes han indicado que los países también comenzarán a utilizar la inteligencia artificial como herramienta para la ciberdefensa nacional. La IA es un factor nuevo en la industria de las armas cibernéticas, ya que puede utilizarse con fines de defensa. Por lo tanto, los académicos instan a que las naciones establezcan regulaciones para el uso de la IA, de manera similar a como existen regulaciones para otras industrias militares. [67]

Regulación regional y nacional

Cronología de estrategias, planes de acción y documentos de políticas que definen enfoques nacionales, regionales e internacionales para la IA [68]

El panorama normativo y político para la IA es una cuestión emergente en las jurisdicciones regionales y nacionales de todo el mundo, por ejemplo en la Unión Europea [69] y Rusia. [70] Desde principios de 2016, muchas autoridades nacionales, regionales e internacionales han comenzado a adoptar estrategias, planes de acción y documentos de políticas sobre IA. [71] [72] Estos documentos cubren una amplia gama de temas como la regulación y la gobernanza, así como la estrategia industrial, la investigación, el talento y la infraestructura. [22] [73]

Los diferentes países han abordado el problema de diferentes maneras. Con respecto a las tres economías más grandes, se ha dicho que "Estados Unidos está siguiendo un enfoque impulsado por el mercado, China está impulsando un enfoque impulsado por el Estado y la UE está siguiendo un enfoque impulsado por los derechos". [74]

Australia

En octubre de 2023, la Sociedad Australiana de Informática , el Consejo Empresarial de Australia , la Cámara de Comercio e Industria de Australia , el Grupo Ai (también conocido como Grupo Industrial Australiano) , el Consejo de Organizaciones de Pequeñas Empresas de Australia y el Consejo Tecnológico de Australia publicaron conjuntamente una carta abierta pidiendo una enfoque nacional de la estrategia de IA. [75] La carta respalda que el gobierno federal establezca un grupo de trabajo sobre IA integrado por todo el gobierno. [75]

Brasil

El 30 de septiembre de 2021, la Cámara de Diputados de Brasil aprobó el Marco Legal Brasileño para la Inteligencia Artificial, Marco Legal da Inteligência Artificial, en esfuerzos regulatorios para el desarrollo y uso de tecnologías de IA y para estimular aún más la investigación y la innovación en soluciones de IA orientadas a la ética. , cultura, justicia, equidad y rendición de cuentas. Este proyecto de ley de 10 artículos describe objetivos que incluyen misiones para contribuir a la elaboración de principios éticos, promover inversiones sostenidas en investigación y eliminar barreras a la innovación. En concreto, en su artículo 4, el proyecto de ley hace hincapié en evitar soluciones discriminatorias de IA, la pluralidad y el respeto de los derechos humanos. Además, esta ley enfatiza la importancia del principio de igualdad en los algoritmos deliberados de toma de decisiones, especialmente para sociedades altamente diversas y multiétnicas como la de Brasil.

Cuando el proyecto de ley se hizo público por primera vez, enfrentó críticas sustanciales, alarmando al gobierno por sus disposiciones críticas. El problema subyacente es que este proyecto de ley no aborda de manera exhaustiva y cuidadosa los principios de rendición de cuentas, transparencia e inclusión. El artículo VI establece la responsabilidad subjetiva, lo que significa que cualquier individuo que resulte dañado por un sistema de IA y desee recibir una compensación debe especificar la parte interesada y demostrar que hubo un error en el ciclo de vida de la máquina. Los académicos enfatizan que está fuera de orden legal asignar a una persona responsable de probar errores algorítmicos dado el alto grado de autonomía, imprevisibilidad y complejidad de los sistemas de IA. Esto también llamó la atención sobre los problemas que ocurren actualmente con los sistemas de reconocimiento facial en Brasil, lo que lleva a arrestos injustos por parte de la policía, lo que implicaría que cuando se apruebe este proyecto de ley, los individuos tendrían que probar y justificar estos errores de las máquinas.

La principal controversia de este proyecto de ley se dirigió a tres principios propuestos. En primer lugar, el principio de no discriminación sugiere que la IA debe desarrollarse y utilizarse de una manera que simplemente mitigue la posibilidad de prácticas abusivas y discriminatorias. En segundo lugar, la búsqueda del principio de neutralidad enumera recomendaciones para que las partes interesadas mitiguen los sesgos; sin embargo, sin obligación de lograr este objetivo. Por último, el principio de transparencia establece que la transparencia de un sistema sólo es necesaria cuando existe un alto riesgo de vulneración de derechos fundamentales. Como se observa fácilmente, el Marco Legal brasileño para la Inteligencia Artificial carece de cláusulas vinculantes y obligatorias y está más bien lleno de directrices laxas. De hecho, los expertos enfatizan que este proyecto de ley puede incluso hacer que la rendición de cuentas por los sesgos discriminatorios de la IA sea aún más difícil de lograr. En comparación con la propuesta de la UE de regulaciones extensas basadas en el riesgo, el proyecto de ley brasileño tiene 10 artículos que proponen recomendaciones vagas y genéricas.

En comparación con el enfoque de participación de múltiples partes interesadas adoptado anteriormente en la década de 2000 cuando se redactó la Declaración de Derechos de Internet de Brasil, Marco Civil da Internet, se considera que el proyecto de ley brasileño carece significativamente de perspectiva. El multistakeholderismo, más comúnmente conocido como Gobernanza Multistakeholder, se define como la práctica de hacer que múltiples actores participen en el diálogo, la toma de decisiones y la implementación de respuestas a problemas percibidos conjuntamente. En el contexto de la IA regulatoria, esta perspectiva de múltiples partes interesadas captura las compensaciones y las diferentes perspectivas de diferentes partes interesadas con intereses específicos, lo que ayuda a mantener la transparencia y una eficacia más amplia. Por el contrario, la propuesta legislativa para regular la IA no siguió un enfoque similar de múltiples partes interesadas.

Los pasos futuros pueden incluir ampliar la perspectiva de múltiples partes interesadas. Ha habido una creciente preocupación por la inaplicabilidad del marco del proyecto de ley, que destaca que la solución única puede no ser adecuada para la regulación de la IA y exige disposiciones subjetivas y adaptativas.

Canadá

La Estrategia Pancanadiense de Inteligencia Artificial (2017) cuenta con el apoyo de una financiación federal de 125 millones de dólares canadienses con el objetivo de aumentar el número de investigadores destacados de IA y graduados capacitados en Canadá, establecer nodos de excelencia científica en los tres principales centros de IA y desarrollar ' liderazgo de pensamiento global' sobre las implicaciones económicas, éticas, políticas y legales de los avances de la IA y el apoyo a una comunidad de investigación nacional que trabaje en IA. [56] El Programa de Cátedras CIFAR de IA de Canadá es la piedra angular de la estrategia. Se beneficia de una financiación de 86,5 millones de dólares canadienses durante cinco años para atraer y retener investigadores de IA de renombre mundial. [56] El gobierno federal nombró un Consejo Asesor sobre IA en mayo de 2019 con el objetivo de examinar cómo aprovechar las fortalezas de Canadá para garantizar que los avances en IA reflejen los valores canadienses, como los derechos humanos, la transparencia y la apertura. El Consejo Asesor sobre IA ha establecido un grupo de trabajo para extraer valor comercial de la IA y el análisis de datos de propiedad canadiense. [56] En 2020, el gobierno federal y el gobierno de Quebec anunciaron la apertura del Centro Internacional de Experiencia en Montreal para el Avance de la Inteligencia Artificial, que promoverá la causa del desarrollo responsable de la IA. [56] En junio de 2022, el gobierno de Canadá inició una segunda fase de la Estrategia Pancanadiense de Inteligencia Artificial. [76] En noviembre de 2022, Canadá introdujo la Ley de Implementación de la Carta Digital (Proyecto de Ley C-27), que propone tres leyes que se han descrito como un paquete holístico de legislación para la confianza y la privacidad: la Ley de Protección de la Privacidad del Consumidor, la Ley de Información Personal y la Ley del Tribunal de Protección de Datos, y la Ley de Datos e Inteligencia Artificial (AIDA). [77] [78]

Marruecos

En Marruecos, una coalición de partidos políticos en el Parlamento ha presentado una nueva propuesta legislativa para establecer la Agencia Nacional de Inteligencia Artificial (IA). Esta agencia tiene como objetivo regular las tecnologías de IA, mejorar la colaboración con entidades internacionales en el campo y aumentar la conciencia pública sobre las posibilidades y los riesgos asociados con la IA. [79]

Porcelana

La regulación de la IA en China se rige principalmente por el "Plan de desarrollo de la inteligencia artificial de próxima generación" del Consejo de Estado de la República Popular China del 8 de julio de 2017 (Documento del Consejo de Estado No. 35), en el que el Comité Central de la El Partido Comunista Chino y el Consejo de Estado de la República Popular China instaron a los órganos de gobierno de China a promover el desarrollo de la IA hasta 2030. La regulación de las cuestiones de apoyo ético y legal al desarrollo de la IA se está acelerando, y la política garantiza el control estatal de los chinos. empresas y datos valiosos, incluido el almacenamiento de datos sobre usuarios chinos dentro del país y el uso obligatorio de los estándares nacionales de inteligencia artificial de la República Popular China, incluidos big data, computación en la nube y software industrial. [80] [81] [82] En 2021, China publicó directrices éticas para el uso de la IA en China que establecen que los investigadores deben garantizar que la IA respete los valores humanos compartidos, esté siempre bajo control humano y no ponga en peligro la seguridad pública. [83] En 2023, China introdujo Medidas Provisionales para la Gestión de Servicios de IA Generativa . [84]

Consejo Europeo

El Consejo de Europa (CoE) es una organización internacional que promueve los derechos humanos, la democracia y el Estado de derecho. Está compuesto por 47 estados miembros, incluidos los 29 signatarios de la Declaración de Cooperación sobre Inteligencia Artificial de 2018 de la Unión Europea. El CoE ha creado un espacio jurídico común en el que sus miembros tienen la obligación legal de garantizar los derechos establecidos en el Convenio Europeo de Derechos Humanos . Específicamente en relación con la IA, "el objetivo del Consejo de Europa es identificar áreas de intersección entre la IA y nuestros estándares sobre derechos humanos, democracia y estado de derecho, y desarrollar estándares relevantes o soluciones de desarrollo de capacidades". La gran cantidad de documentos relevantes identificados por el CoE incluyen directrices, estatutos, artículos, informes y estrategias. [85] Los organismos autores de estos documentos de regulación de la IA no se limitan a un sector de la sociedad e incluyen organizaciones, empresas, organismos y estados-nación. [63]

unión Europea

La UE es una de las jurisdicciones más grandes del mundo y desempeña un papel activo en la regulación global de la tecnología digital a través del GDPR , [86] Digital Services Act , la Digital Markets Act . [87] [88] Para la IA en particular, la Ley de Inteligencia Artificial se considera en 2023 como la regulación de mayor alcance de la IA en todo el mundo. [89] [90]

La mayoría de los países de la Unión Europea (UE) tienen sus propias estrategias nacionales para regular la IA, pero son en gran medida convergentes. [63] La Unión Europea se guía por una Estrategia Europea sobre Inteligencia Artificial, [91] respaldada por un Grupo de Expertos de Alto Nivel en Inteligencia Artificial. [92] [93] En abril de 2019, la Comisión Europea publicó sus Directrices éticas para una inteligencia artificial (IA) confiable , [94] seguidas de sus Recomendaciones de política e inversión para una inteligencia artificial confiable en junio de 2019. [95] La Comisión de la UE El Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial lleva a cabo trabajos sobre IA confiable, y la Comisión ha publicado informes sobre los aspectos de seguridad y responsabilidad de la IA y sobre la ética de los vehículos automatizados. En 2020, la Comisión de la UE buscó opiniones sobre una propuesta de legislación específica sobre IA, y ese proceso está en curso. [63]

El 2 de febrero de 2020, la Comisión Europea publicó su Libro Blanco sobre la Inteligencia Artificial: Un enfoque europeo hacia la excelencia y la confianza . [96] [97] El Libro Blanco consta de dos pilares principales: un "ecosistema de excelencia" y un "ecosistema de confianza". El "ecosistema de confianza" describe el enfoque de la UE para un marco regulatorio para la IA. En su enfoque propuesto, la Comisión distingue las aplicaciones de IA en función de si son de "alto riesgo" o no. Sólo las aplicaciones de IA de alto riesgo deberían estar dentro del alcance de un futuro marco regulatorio de la UE. Una aplicación de IA se considera de alto riesgo si opera en un sector de riesgo (como la atención médica, el transporte o la energía) y "se utiliza de tal manera que es probable que surjan riesgos importantes". Para las aplicaciones de IA de alto riesgo, los requisitos se refieren principalmente a: "datos de entrenamiento", "mantenimiento de datos y registros", "información que se debe proporcionar", "robustez y precisión" y "supervisión humana". También existen requisitos específicos para determinados usos, como la identificación biométrica remota. Las aplicaciones de IA que no se consideren de "alto riesgo" podrían regirse por un sistema de etiquetado voluntario. En lo que respecta al cumplimiento y la aplicación, la Comisión considera evaluaciones de conformidad previas que podrían incluir "procedimientos de prueba, inspección o certificación" y/o "verificaciones de los algoritmos y de los conjuntos de datos utilizados en la fase de desarrollo". Una estructura de gobernanza europea sobre la IA en forma de un marco para la cooperación de las autoridades nacionales competentes podría facilitar la implementación del marco regulatorio. [98] [99]

Un borrador de enero de 2021 se filtró en línea el 14 de abril de 2021, [100] antes de que la Comisión presentara su "Propuesta de Reglamento por el que se establecen normas armonizadas sobre inteligencia artificial" oficial una semana después. [101] Poco después, se propuso formalmente la Ley de Inteligencia Artificial (también conocida como Ley de IA) sobre esta base. [102] Esta propuesta incluye un perfeccionamiento del enfoque basado en el riesgo de 2020 con, esta vez, cuatro categorías de riesgo: "mínimo", "limitado", "alto" e "inaceptable". [103] La propuesta ha sido duramente criticada en el debate público. Los académicos han expresado su preocupación por varios elementos poco claros de la propuesta –como la definición amplia de lo que constituye IA– y temieron implicaciones legales no deseadas, especialmente para grupos vulnerables como pacientes y migrantes. [104] [105] La categoría de riesgo "IA de propósito general" se agregó a la Ley de IA para tener en cuenta modelos versátiles como ChatGPT , que no se ajustaban al marco regulatorio basado en aplicaciones. [106] A diferencia de otras categorías de riesgo, los modelos de IA de propósito general pueden regularse en función de sus capacidades, no solo de sus usos. Los modelos de IA de propósito general más débiles están sujetos a requisitos de transparencia, mientras que aquellos que se considera que plantean "riesgos sistémicos" (en particular aquellos entrenados utilizando capacidades computacionales superiores a 10 25 FLOPS ) también deben someterse a un proceso de evaluación exhaustivo. [107] Finalmente se adoptó una versión posterior de la Ley de IA en mayo de 2024. [108] La Ley de IA se aplicará progresivamente. [109] Se prohibirá el reconocimiento de emociones y la identificación biométrica remota en tiempo real , con algunas excepciones, por ejemplo para las fuerzas del orden. [110]

Los observadores han expresado su preocupación por la multiplicación de propuestas legislativas en el marco de la Comisión von der Leyen . La velocidad de las iniciativas legislativas está impulsada en parte por las ambiciones políticas de la UE y podría poner en riesgo los derechos digitales de los ciudadanos europeos, incluido el derecho a la privacidad, [111] especialmente frente a garantías inciertas de protección de datos a través de la ciberseguridad. [93] Entre los principios rectores declarados en la variedad de propuestas legislativas en el área de la IA bajo la Comisión von der Leyen se encuentran los objetivos de autonomía estratégica [112] y el concepto de soberanía digital. [113] El 29 de mayo de 2024, el Tribunal de Cuentas Europeo publicó un informe en el que afirmaba que las medidas de la UE no estaban bien coordinadas con las de los países de la UE; que el seguimiento de las inversiones no era sistemático; y que se necesitaba una gobernanza más sólida. [114]

Alemania

En noviembre de 2020, [115] DIN , DKE y el Ministerio Federal de Economía y Energía de Alemania publicaron la primera edición de la "Hoja de ruta alemana de normalización para la inteligencia artificial" (NRM KI) y la presentaron al público en la Cumbre Digital de la Gobierno Federal de Alemania. [116] NRM KI describe los requisitos para futuras regulaciones y estándares en el contexto de la IA. La implementación de las recomendaciones de acción tiene como objetivo ayudar a fortalecer la economía y la ciencia alemanas en la competencia internacional en el campo de la inteligencia artificial y crear condiciones favorables a la innovación para esta tecnología emergente . La primera edición es un documento de 200 páginas escrito por 300 expertos. La segunda edición del NRM KI se publicó coincidiendo con la Cumbre Digital del gobierno alemán el 9 de diciembre de 2022. [117] DIN coordinó a más de 570 expertos participantes de una amplia gama de campos de la ciencia, la industria, la sociedad civil y el sector público. . La segunda edición es un documento de 450 páginas.

Por un lado, NRM KI cubre los temas centrales en términos de aplicaciones (por ejemplo, medicina, movilidad, energía y medio ambiente, servicios financieros, automatización industrial) y cuestiones fundamentales (por ejemplo, clasificación de IA, seguridad, certificabilidad, sistemas sociotécnicos, ética). . [117] Por otro lado, proporciona una visión general de los términos centrales en el campo de la IA y su entorno en una amplia gama de grupos de interés y fuentes de información. En total, el documento cubre 116 necesidades de estandarización y proporciona seis recomendaciones centrales para la acción. [118]

G7

El 30 de octubre de 2023, los miembros del G7 suscriben once principios rectores para el diseño, producción e implementación de sistemas avanzados de inteligencia artificial, así como un Código de Conducta voluntario para desarrolladores de inteligencia artificial en el contexto del Proceso de Hiroshima. [119]

El acuerdo recibe el aplauso de Ursula von der Leyen, que encuentra en él los principios de la Directiva sobre IA, actualmente en fase de finalización.

Italia

En octubre de 2023, la autoridad de privacidad italiana aprobó un reglamento que establece tres principios para las decisiones terapéuticas tomadas por sistemas automatizados: transparencia de los procesos de toma de decisiones, supervisión humana de las decisiones automatizadas y no discriminación algorítmica. [120]

Filipinas

En 2023, se presentó un proyecto de ley en la Cámara de Representantes de Filipinas que proponía el establecimiento de la Autoridad de Desarrollo de la Inteligencia Artificial (AIDA), que supervisaría el desarrollo y la investigación de la inteligencia artificial. También se propuso que AIDA actuara como organismo de control contra los delitos que utilizan IA. [121]

La Comisión Electoral también ha considerado en 2024 la prohibición del uso de IA y deepfake para hacer campaña. Buscan implementar regulaciones que se aplicarían ya en las elecciones generales de 2025. [122]

España

En 2018, el Ministerio de Ciencia, Innovación y Universidades de España aprobó una Estrategia de I+D en Inteligencia Artificial. [123]

Con la formación del segundo gobierno de Pedro Sánchez en enero de 2020 se fortalecieron las áreas relacionadas con las nuevas tecnologías que, desde 2018, estaban en el Ministerio de Economía . Así, en 2020 se creó la Secretaría de Estado de Digitalización e Inteligencia Artificial (SEDIA). [124] Desde este órgano superior, siguiendo las recomendaciones realizadas por la Estrategia de I+D en Inteligencia Artificial de 2018, [125] se desarrolló la Estrategia Nacional de Inteligencia Artificial (2020), que ya preveía acciones relativas a la gobernanza de la inteligencia artificial y a la ética. normas que deben regir su uso. Este proyecto también se incluyó dentro del Plan de Recuperación, Transformación y Resiliencia (2021).

Durante 2021, [124] el Gobierno reveló que estas ideas se desarrollarían a través de una nueva agencia gubernamental, y los Presupuestos Generales del Estado para 2022 autorizaron su creación y destinaron cinco millones de euros para su desarrollo. [126]

El Consejo de Ministros , en su reunión del día 13 de septiembre de 2022, inició el proceso para la elección de la sede de AESIA. [127] [128] 16 provincias españolas presentaron candidaturas, decantándose el Gobierno por La Coruña , que propuso el edificio de La Terraza. [129]

El 22 de agosto de 2023, el Gobierno aprobó el reglamento interno de la Agencia. [130] Con ello, España se convirtió en el primer país europeo con una agencia dedicada a la supervisión de la IA, anticipándose a la entrada en vigor del futuro Reglamento Europeo sobre Inteligencia Artificial, [131] que establece la necesidad de que los Estados miembros cuenten con un autoridad supervisora ​​en esta materia.

Reino Unido

El Reino Unido apoyó la aplicación y el desarrollo de la IA en las empresas a través de la Estrategia de Economía Digital 2015-2018 [132] introducida a principios de 2015 por Innovate UK como parte de la Estrategia Digital del Reino Unido. [132] En el sector público, el Departamento de Digital, Cultura, Medios y Deportes asesoró sobre ética de los datos y el Instituto Alan Turing brindó orientación sobre el diseño responsable y la implementación de sistemas de IA. [133] [134] En términos de seguridad cibernética, en 2020 el Centro Nacional de Seguridad Cibernética emitió una guía sobre 'Herramientas de seguridad inteligentes'. [46] [135] Al año siguiente, el Reino Unido publicó su Estrategia Nacional de IA de 10 años, [136] que describe acciones para evaluar los riesgos de IA a largo plazo, incluidos los riesgos catastróficos relacionados con AGI. [137]

En marzo de 2023, el Reino Unido publicó el libro blanco Un enfoque pro-innovación para la regulación de la IA . [138] Este documento técnico presenta principios generales de IA, pero deja una flexibilidad significativa a los reguladores existentes en cómo adaptan estos principios a áreas específicas como el transporte o los mercados financieros. [139] En noviembre de 2023, el Reino Unido organizó la primera cumbre sobre seguridad de la IA , y el primer ministro Rishi Sunak tenía como objetivo posicionar al Reino Unido como líder en la regulación de la seguridad de la IA . [140] [141] Durante la cumbre, el Reino Unido creó un Instituto de Seguridad de IA , como una evolución del Frontier AI Taskforce dirigido por Ian Hogarth . En particular, se asignó al instituto la responsabilidad de avanzar en las evaluaciones de seguridad de los modelos de IA más avanzados del mundo, también llamados modelos de IA de frontera . [142]

El gobierno del Reino Unido indicó su renuencia a legislar temprano, argumentando que podría reducir el crecimiento del sector y que las leyes podrían volverse obsoletas debido a mayores avances tecnológicos. [143]

Estados Unidos

Las discusiones sobre la regulación de la IA en los Estados Unidos han incluido temas como la oportunidad de regular la IA, la naturaleza del marco regulatorio federal para gobernar y promover la IA, incluido qué agencia debería liderar, los poderes regulatorios y de gobierno de esa agencia, y cómo actualizar las regulaciones frente a la tecnología que cambia rápidamente, así como las funciones de los gobiernos y tribunales estatales. [144]

Ya en 2016, la administración Obama había comenzado a centrarse en los riesgos y las regulaciones de la inteligencia artificial. En un informe titulado Preparándose para el futuro de la inteligencia artificial, [145] el Consejo Nacional de Ciencia y Tecnología sentó un precedente al permitir a los investigadores continuar desarrollando nuevas tecnologías de IA con pocas restricciones. En el informe se afirma que "el enfoque de la regulación de productos compatibles con IA para proteger la seguridad pública debe basarse en la evaluación de los aspectos de riesgo...". [146] Estos riesgos serían la razón principal para crear cualquier forma de regulación, dado que cualquier regulación existente no se aplicaría a la tecnología de IA.

El primer informe principal fue el Plan Estratégico Nacional de Investigación y Desarrollo de la Inteligencia Artificial. [147] El 13 de agosto de 2018, la Sección 1051 de la Ley de Autorización de Defensa Nacional John S. McCain del año fiscal 2019 (PL 115-232) estableció la Comisión de Seguridad Nacional sobre Inteligencia Artificial "para considerar los métodos y medios necesarios para avanzar en el desarrollo de inteligencia artificial, aprendizaje automático y tecnologías asociadas para abordar de manera integral las necesidades de seguridad y defensa nacional de los Estados Unidos". [148] La Comisión Nacional de Seguridad sobre Inteligencia Artificial proporciona orientación sobre la regulación de la IA relacionada con la seguridad. [149] La Ley de Iniciativa de Inteligencia Artificial (S.1558) es un proyecto de ley que establecería una iniciativa federal diseñada para acelerar la investigación y el desarrollo de la IA para, entre otras cosas , la seguridad económica y nacional de los Estados Unidos. [150] [151]

El 7 de enero de 2019, tras una Orden Ejecutiva sobre el mantenimiento del liderazgo estadounidense en inteligencia artificial, [152] la Oficina de Política Científica y Tecnológica de la Casa Blanca publicó un borrador de Guía para la regulación de las aplicaciones de inteligencia artificial , [153] que incluye diez principios para Estados Unidos. Agencias estatales a la hora de decidir si regular la IA y cómo hacerlo. [154] En respuesta, el Instituto Nacional de Estándares y Tecnología ha publicado un documento de posición, [155] y la Junta de Innovación de Defensa ha emitido recomendaciones sobre el uso ético de la IA. [45] Un año después, la administración pidió comentarios sobre la regulación en otro borrador de su Guía para la regulación de aplicaciones de inteligencia artificial. [156]

Otras agencias específicas que trabajan en la regulación de la IA incluyen la Administración de Alimentos y Medicamentos, [39] que ha creado vías para regular la incorporación de la IA en las imágenes médicas. [38] El Consejo Nacional de Ciencia y Tecnología también publicó el Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial, [157] que recibió escrutinio público y recomendaciones para mejorarlo aún más y permitir una IA confiable. [158]

En marzo de 2021, la Comisión Nacional de Seguridad sobre Inteligencia Artificial publicó su informe final. [159] En el informe, afirmaron que "los avances en la IA, incluido el dominio de capacidades de IA más generales a lo largo de una o más dimensiones, probablemente proporcionarán nuevas capacidades y aplicaciones. Algunos de estos avances podrían conducir a puntos de inflexión o saltos en las capacidades". Dichos avances también pueden introducir nuevas preocupaciones y riesgos y la necesidad de nuevas políticas, recomendaciones y avances técnicos para garantizar que los sistemas estén alineados con los objetivos y valores, incluida la seguridad, la solidez y la confiabilidad. Estados Unidos debe monitorear los avances en IA y hacer que sean necesarios. inversiones en tecnología y prestar atención a las políticas para garantizar que los sistemas de IA y sus usos se alineen con nuestros objetivos y valores".

En junio de 2022, los senadores Rob Portman y Gary Peters presentaron la Ley Global de Mitigación de Riesgos Catastróficos. El proyecto de ley bipartidista "también ayudaría a contrarrestar el riesgo de que la inteligencia artificial... sea objeto de abusos que puedan suponer un riesgo catastrófico". [160] [161] El 4 de octubre de 2022, el presidente Joe Biden dio a conocer una nueva Declaración de Derechos de la IA, [162] que describe cinco protecciones que los estadounidenses deberían tener en la era de la IA: 1. Sistemas seguros y eficaces, 2. Protección contra la discriminación algorítmica , 3. Privacidad de datos, 4. Aviso y explicación, y 5. Alternativas humanas, consideración y respaldo. El proyecto de ley fue presentado en octubre de 2021 por la Oficina de Política Científica y Tecnológica (OSTP), un departamento del gobierno estadounidense que asesora al presidente en materia de ciencia y tecnología. [163]

En enero de 2023, el Consejo de la Ciudad de Nueva York promulgó la Ley de Auditoría Prejudicial de la Ciudad de Nueva York (Ley Local 144 [164] ) en noviembre de 2021. Originalmente debía entrar en vigor el 1 de enero de 2023, pero la fecha de aplicación de la Ley Local 144 se retrasó. debido al gran volumen de comentarios recibidos durante la audiencia pública sobre las reglas propuestas por el Departamento de Protección al Consumidor y al Trabajador (DCWP) para aclarar los requisitos de la legislación. Finalmente entró en vigor el 5 de julio de 2023. [165] A partir de esta fecha, las empresas que operan y contratan en la ciudad de Nueva York tienen prohibido utilizar herramientas automatizadas para contratar candidatos o promover empleados, a menos que las herramientas hayan sido auditadas de forma independiente para detectar sesgos. .

En julio de 2023, la Administración Biden-Harris obtuvo compromisos voluntarios de siete empresas ( Amazon , Anthropic , Google , Inflection , Meta , Microsoft y OpenAI ) para gestionar los riesgos asociados con la IA. Las empresas se comprometieron a garantizar que los productos de IA se sometan a pruebas de seguridad tanto internas como externas antes de su lanzamiento público; compartir información sobre la gestión de los riesgos de la IA con la industria, los gobiernos, la sociedad civil y el mundo académico; priorizar la ciberseguridad y proteger los componentes propietarios del sistema de IA; desarrollar mecanismos para informar a los usuarios cuando el contenido es generado por IA, como marcas de agua; informar públicamente sobre las capacidades, limitaciones y áreas de uso de sus sistemas de IA; priorizar la investigación sobre los riesgos sociales que plantea la IA, incluidos los prejuicios, la discriminación y las preocupaciones sobre la privacidad; y desarrollar sistemas de inteligencia artificial para abordar desafíos sociales, que van desde la prevención del cáncer hasta la mitigación del cambio climático . En septiembre de 2023, ocho empresas adicionales ( Adobe , Cohere , IBM , Nvidia , Palantir , Salesforce , Scale AI y Stability AI ) suscribieron estos compromisos voluntarios. [166] [167]

En octubre de 2023, la administración Biden señaló que publicaría una orden ejecutiva que aprovecharía el poder adquisitivo del gobierno federal para dar forma a las regulaciones de IA, insinuando una postura gubernamental proactiva en la regulación de las tecnologías de IA. [168] El 30 de octubre de 2023, el presidente Biden publicó esta Orden Ejecutiva sobre Inteligencia Artificial Segura, Protegida y Confiable . La Orden Ejecutiva aborda una variedad de cuestiones, como centrarse en estándares para infraestructura crítica, ciberseguridad mejorada por IA y proyectos de síntesis biológica financiados con fondos federales. [169]

La Orden Ejecutiva otorga autoridad a varias agencias y departamentos del gobierno de EE. UU., incluidos los departamentos de Energía y Defensa, para aplicar las leyes existentes de protección al consumidor al desarrollo de la IA. [170]

La Orden Ejecutiva se basa en acuerdos anteriores de la Administración con empresas de IA para implementar nuevas iniciativas para formar un "equipo rojo" o probar modelos básicos de IA de doble uso, especialmente aquellos que tienen el potencial de plantear riesgos de seguridad, con datos y resultados compartidos con el Gobierno federal.

La Orden Ejecutiva también reconoce los desafíos sociales de la IA y pide a las empresas que construyen modelos básicos de IA de doble uso que tengan cuidado con estos problemas sociales. Por ejemplo, la Orden Ejecutiva establece que la IA no debería "empeorar la calidad del empleo" y no debería "causar perturbaciones en la fuerza laboral". Además, la Orden Ejecutiva de Biden exige que AI debe "promover la equidad y los derechos civiles" y no puede perjudicar a los grupos marginados. [171] También pidió que los modelos de base incluyan "marcas de agua" para ayudar al público a discernir entre contenido humano y generado por IA, lo que ha generado controversia y críticas por parte de los investigadores de detección de deepfake. [172]

En febrero de 2024, el senador Scott Wiener presentó a la legislatura de California la Ley de Innovación Segura para Modelos Fronterizos de Inteligencia Artificial . El proyecto de ley se basa en gran medida en la orden ejecutiva de Biden . [173] Su objetivo es reducir los riesgos catastróficos exigiendo pruebas de seguridad para los modelos de IA más potentes. Si se aprueba, el proyecto de ley también establecerá un grupo de computación en la nube financiado con fondos públicos en California. [174]

El 21 de marzo de 2024, el estado de Tennessee promulgó una legislación llamada Ley ELVIS , dirigida específicamente a los deepfakes de audio y la clonación de voz. [175] Esta legislación fue la primera legislación promulgada en el país destinada a regular la simulación de imagen, voz y semejanza con IA. [176] El proyecto de ley fue aprobado por unanimidad en la Cámara de Representantes y el Senado de Tennessee . [177] Sus partidarios esperaban que el éxito de esta legislación inspirara acciones similares en otros estados, contribuyendo a un enfoque unificado del derecho de autor y la privacidad en la era digital y reforzando la importancia de salvaguardar los derechos de los artistas contra el uso no autorizado de sus voces y semejanzas. [178] [179]

El 13 de marzo de 2024, el gobernador de Utah, Spencer Cox, firmó la SB 149 "Ley de Política de Inteligencia Artificial". Esta legislación entrará en vigor el 1 de mayo de 2024. Establece responsabilidad, en particular para las empresas que no divulgan su uso de IA generativa cuando lo exigen las leyes estatales de protección del consumidor, o cuando los usuarios cometen delitos penales utilizando IA generativa. También crea la Oficina de Política de Inteligencia Artificial y el Programa Laboratorio de Aprendizaje de Inteligencia Artificial . [180] [181]

Regulación de armas totalmente autónomas.

Las cuestiones jurídicas relacionadas con los sistemas de armas letales autónomas (LAWS), en particular el cumplimiento de las leyes de los conflictos armados , se han estado debatiendo en las Naciones Unidas desde 2013, en el contexto de la Convención sobre Ciertas Armas Convencionales . [182] En particular, se celebraron reuniones informales de expertos en 2014, 2015 y 2016 y se nombró un Grupo de Expertos Gubernamentales (GGE) para seguir deliberando sobre la cuestión en 2016. Un conjunto de principios rectores sobre los LAWS afirmados por el GGE sobre los LAWS fueron adoptados en 2018. [183]

En 2016, China publicó un documento de posición en el que cuestionaba la idoneidad del derecho internacional existente para abordar la eventualidad de armas totalmente autónomas, convirtiéndose en el primer miembro permanente del Consejo de Seguridad de la ONU en abordar la cuestión [47] y dando lugar a propuestas de regulación global. [184] La posibilidad de una moratoria o prohibición preventiva del desarrollo y uso de LAWS también ha sido planteada en varias ocasiones por otras delegaciones nacionales ante la Convención sobre Ciertas Armas Convencionales y es fuertemente defendida por la Campaña para Detener los Robots Asesinos –una coalición de organizaciones no gubernamentales. [185] El gobierno de Estados Unidos sostiene que el derecho internacional humanitario vigente es capaz de regular el desarrollo o uso de LAWS. [186] El Servicio de Investigación del Congreso indicó en 2023 que Estados Unidos no tiene LAWS en su inventario, pero que su política no prohíbe el desarrollo y empleo de las mismas. [187]

Ver también

Referencias

  1. ^ Cath, Corinne (2018). "Gobernar la inteligencia artificial: oportunidades y desafíos éticos, legales y técnicos". Transacciones filosóficas de la Royal Society A: Ciencias matemáticas, físicas y de ingeniería . 376 (2133): 20180080. Código bibliográfico : 2018RSPTA.37680080C. doi : 10.1098/rsta.2018.0080 . PMC  6191666 . PMID  30322996.
  2. ^ Erdélyi, Olivia J.; Orfebre, Judy (2020). "Regulación de la inteligencia artificial: propuesta de solución global". arXiv : 2005.11072 [cs.CY].
  3. ^ Tallberg, Jonás; Erman, Eva; Furendal, Markus; Geith, Johannes; Klamberg, Mark; Lundgren, Magnus (2023). "Gobernanza global de la inteligencia artificial: próximos pasos para la investigación empírica y normativa". Revista de estudios internacionales . 25 (3). arXiv : 2305.11528 . doi : 10.1093/isr/viad040 .
  4. ^ Heder, M (2020). "Una crítica a las directrices éticas de la IA". Información Társadalom . 20 (4): 57–73. doi : 10.22503/inftars.XX.2020.4.5 . S2CID  233252939.
  5. ^ Curtis, Caitlin; Gillespie, Nicole; Lockey, Steven (24 de mayo de 2022). "Las organizaciones que implementan IA son clave para abordar la 'tormenta perfecta' de riesgos de IA". IA y ética . 3 (1): 145-153. doi :10.1007/s43681-022-00163-7. ISSN  2730-5961. PMC 9127285 . PMID  35634256. 
  6. ^ "Un enfoque ético de la IA es un imperativo absoluto, Andreas Kaplan" . Consultado el 26 de abril de 2021 .
  7. ^ abcde Sotala, Kaj; Yampolskiy, Romano V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. Código bibliográfico : 2015PhyS...90a8001S. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  8. ^ ab Vincent, James (3 de abril de 2023). "La IA está entrando en una era de control corporativo". El borde . Consultado el 19 de junio de 2023 .
  9. ^ "Informe del índice de inteligencia artificial 2023/Capítulo 6: Política y gobernanza" (PDF) . Índice de IA. 2023 . Consultado el 19 de junio de 2023 .
  10. ^ ab "Elon Musk advierte a los gobernadores: la inteligencia artificial plantea un riesgo existencial'". NPR.org . Consultado el 27 de noviembre de 2017 .
  11. ^ Gibbs, Samuel (17 de julio de 2017). "Elon Musk: regule la IA para combatir la 'amenaza existencial' antes de que sea demasiado tarde". El guardián . Consultado el 27 de noviembre de 2017 .
  12. ^ Kharpal, Arjun (7 de noviembre de 2017). "La IA está en su 'infancia' y es demasiado pronto para regularla, dice el director ejecutivo de Intel, Brian Krzanich". CNBC . Consultado el 27 de noviembre de 2017 .
  13. ^ Chamberlain, Johanna (marzo de 2023). "El enfoque basado en el riesgo de la regulación de inteligencia artificial propuesta por la Unión Europea: algunos comentarios desde una perspectiva del derecho de daños". Revista Europea de Regulación de Riesgos . 14 (1): 1–13. doi :10.1017/err.2022.38. ISSN  1867-299X.
  14. ^ Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes empresariales . 62 : 15-25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  15. ^ Edwards, Benj (17 de mayo de 2023). "Encuesta: la IA representa un riesgo para la humanidad, según la mayoría de los estadounidenses". Ars Técnica . Consultado el 19 de junio de 2023 .
  16. ^ Kasperowicz, Peter (1 de mayo de 2023). "¿Regular la IA? El Partido Republicano es mucho más escéptico que los demócratas de que el gobierno pueda hacerlo bien: encuesta". Fox News . Consultado el 19 de junio de 2023 .
  17. ^ "Encuesta de Fox News" (PDF) . Fox News. 2023 . Consultado el 19 de junio de 2023 .
  18. ^ Barfield, Woodrow; Pagallo, Ugo (2018). Manual de investigación sobre la ley de la inteligencia artificial . Cheltenham, Reino Unido: Edward Elgar Publishing. ISBN 978-1-78643-904-8. OCLC  1039480085.
  19. ^ ab Wirtz, Bernd W.; Weyerer, enero C.; Geyer, Carolin (24 de julio de 2018). "La inteligencia artificial y el sector público: aplicaciones y desafíos". Revista Internacional de Administración Pública . 42 (7): 596–615. doi :10.1080/01900692.2018.1498103. ISSN  0190-0692. S2CID  158829602.
  20. ^ ab Buiten, Miriam C. (2019). "Hacia una regulación inteligente de la inteligencia artificial". Revista Europea de Regulación de Riesgos . 10 (1): 41–59. doi : 10.1017/err.2019.8 .
  21. ^ Mantelero, Alejandro; Espósito, María Samantha (2021). "Una metodología basada en evidencia para la evaluación del impacto en los derechos humanos (HRIA) en el desarrollo de sistemas de inteligencia artificial con uso intensivo de datos". Revisión de seguridad y derecho informático . 41 : 105561. doi : 10.1016/j.clsr.2021.105561 . ISSN  0267-3649. S2CID  237588123.
  22. ^ ab Inteligencia artificial en la sociedad . París: Organización para la Cooperación y el Desarrollo Económicos. 11 de junio de 2019. ISBN 978-92-64-54519-9. OCLC  1105926611.
  23. ^ Kamyshansky, Vladimir P.; Rudenko, Evgenia Y.; Kolomiets, Evgeniy A.; Kripakova, Dina R. (2020), "Revisitando el lugar de la inteligencia artificial en la sociedad y el Estado", Inteligencia artificial: naturaleza antropogénica versus origen social , Avances en sistemas inteligentes y computación, vol. 1100, Cham: Springer International Publishing, págs. 359–364, doi :10.1007/978-3-030-39319-9_41, ISBN 978-3-030-39318-2, S2CID  213070224
  24. ^ "Número especial sobre la gobernanza de la inteligencia artificial mediante leyes indicativas: información de publicación de la revista IEEE Technology and Society". Revista IEEE Tecnología y Sociedad . 40 (4): C2. Diciembre de 2021. doi : 10.1109/MTS.2021.3126194 .
  25. ^ ABCDE Marchant, Gary. ""Ley blanda "Gobernanza de la IA" (PDF) . Pulso de IA . Documentos AI PULSE . Consultado el 28 de febrero de 2023 .
  26. ^ abc Johnson, Walter G.; Bowman, Diana M. (diciembre de 2021). "Una encuesta de instrumentos e instituciones disponibles para la gobernanza global de la inteligencia artificial". Revista IEEE Tecnología y Sociedad . 40 (4): 68–76. doi :10.1109/MTS.2021.3123745. S2CID  245053179.
  27. ^ Sutcliffe, Hillary R.; Brown, Samantha (diciembre de 2021). "Confianza y derecho indicativo para la IA". Revista IEEE Tecnología y Sociedad . 40 (4): 14-24. doi :10.1109/MTS.2021.3123741. S2CID  244955938.
  28. ^ ab Schmit, CD; Doerr, MJ; Wagner, JK (17 de febrero de 2023). "Aprovechando la propiedad intelectual para la gobernanza de la IA". Ciencia . 379 (6633): 646–648. Código Bib : 2023 Ciencia... 379..646S. doi : 10.1126/ciencia.add2202. PMID  36795826. S2CID  256901479.
  29. ^ Lima-Strong, Cristiano (16 de mayo de 2024). "Los jóvenes activistas piden a los líderes mundiales que establezcan salvaguardias para la IA para 2030". El Correo de Washington . Consultado el 24 de junio de 2024 .
  30. ^ Haldane, Matt (21 de mayo de 2024). "Los estudiantes activistas de IA en Encode Justice publican 22 objetivos para 2030 antes de la cumbre mundial en Seúl" . Consultado el 24 de junio de 2024 .
  31. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adán; Srikumar, Madhu (15 de enero de 2020). Inteligencia artificial basada en principios: mapeo del consenso en enfoques éticos y basados ​​​​en derechos sobre los principios de la IA (Informe). Centro Berkman Klein para Internet y la Sociedad.
  32. ^ Wirtz, Bernd W.; Weyerer, enero C.; Sturm, Benjamín J. (15 de abril de 2020). "Los lados oscuros de la inteligencia artificial: un marco integrado de gobernanza de la IA para la administración pública". Revista Internacional de Administración Pública . 43 (9): 818–829. doi :10.1080/01900692.2020.1749851. ISSN  0190-0692. S2CID  218807452.
  33. ^ ab Bredt, Stephan (4 de octubre de 2019). "Inteligencia artificial (IA) en el sector financiero: estrategias públicas y potenciales". Fronteras en Inteligencia Artificial . 2 : 16. doi : 10.3389/frai.2019.00016 . ISSN  2624-8212. PMC 7861258 . PMID  33733105. 
  34. ^ Libro blanco de abc: Sobre la inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza (PDF) . Bruselas: Comisión Europea. 2020. pág. 1.
  35. ^ Wirtz, Bernd W.; Müller, Wilhelm M. (3 de diciembre de 2018). "Un marco integrado de inteligencia artificial para la gestión pública". Revisión de la Gestión Pública . 21 (7): 1076-1100. doi :10.1080/14719037.2018.1549268. ISSN  1471-9037. S2CID  158267709.
  36. ^ Reisman, Dillon; Schultz, Jason; Crawford, Kate; Whittaker, Meredith (2018). Evaluaciones de impacto algorítmicas: un marco práctico para la rendición de cuentas de las agencias públicas (PDF) . Nueva York: Instituto AI Now. Archivado desde el original (PDF) el 14 de junio de 2020 . Consultado el 28 de abril de 2020 .
  37. ^ ab "Hacia una innovación responsable en inteligencia artificial". UNICRI . julio de 2020 . Consultado el 18 de julio de 2022 .
  38. ^ ab Kohli, Ajay; Mahajan, Vidur; Sellos, Kevin; Kohli, Ajit; Jha, Saurabh (2019). "Conceptos en la regulación de la inteligencia artificial para imágenes médicas de la Administración de Alimentos y Medicamentos de EE. UU.". Revista Estadounidense de Roentgenología . 213 (4): 886–888. doi :10.2214/ajr.18.20410. ISSN  0361-803X. PMID  31166758. S2CID  174813195.
  39. ^ ab Hwang, Thomas J.; Kesselheim, Aaron S.; Vokinger, Kerstin N. (17 de diciembre de 2019). "Regulación del ciclo de vida de dispositivos de software basados ​​en inteligencia artificial y aprendizaje automático en medicina". JAMA . 322 (23): 2285–2286. doi :10.1001/jama.2019.16842. ISSN  0098-7484. PMID  31755907. S2CID  208230202.
  40. ^ Sharma, Kavita; Manchikanti, Padmavati (1 de octubre de 2020). "Regulación de la inteligencia artificial en el descubrimiento de fármacos y la atención sanitaria". Informe Ley de Biotecnología . 39 (5): 371–380. doi : 10.1089/blr.2020.29183.ks. ISSN  0730-031X. S2CID  225540889.
  41. ^ Petkus, Haroldas; Hoogewerf, enero; Wyatt, Jeremy C (2020). "¿Qué piensan los médicos de alto nivel sobre la IA y los sistemas de apoyo a las decisiones clínicas: análisis cuantitativo y cualitativo de datos de sociedades especializadas?". Medicina CLINICA . 20 (3): 324–328. doi :10.7861/clinmed.2019-0317. ISSN  1470-2118. PMC 7354034 . PMID  32414724. 
  42. ^ Cheng, Jerome Y.; Abel, Jacob T.; Balis, Ulises GJ; McClintock, David S.; Pantanowitz, Lirón (2021). "Desafíos en el desarrollo, despliegue y regulación de la inteligencia artificial en patología anatómica". La Revista Estadounidense de Patología . 191 (10): 1684-1692. doi : 10.1016/j.ajpath.2020.10.018 . ISSN  0002-9440. PMID  33245914. S2CID  227191875.
  43. ^ abc Gurkaynak, Gonenc; Yilmaz, Ilay; Haksever, Gunes (2016). "Ahogando la inteligencia artificial: peligros humanos". Revisión de seguridad y derecho informático . 32 (5): 749–758. doi :10.1016/j.clsr.2016.05.003. ISSN  0267-3649.
  44. ^ Iphofen, Ron; Kritikos, Mihalis (3 de enero de 2019). "Regulación de la inteligencia artificial y la robótica: ética por diseño en una sociedad digital". Ciencias Sociales Contemporáneas . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN  2158-2041. S2CID  59298502.
  45. ^ ab Principios de la IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa (PDF) . Washington, DC: Junta de Innovación en Defensa de los Estados Unidos. 2019. OCLC  1126650738.
  46. ^ a b C Babuta, Alejandro; Oswald, Marion; Janjeva, Ardi (2020). Inteligencia artificial y seguridad nacional del Reino Unido: consideraciones políticas (PDF) . Londres: Royal United Services Institute. Archivado desde el original (PDF) el 2 de mayo de 2020 . Consultado el 28 de abril de 2020 .
  47. ^ ab "Robots con armas: el auge de los sistemas de armas autónomos". Snopes.com . 21 de abril de 2017 . Consultado el 24 de diciembre de 2017 .
  48. ^ Bento, Lucas (2017). "No Mere Deodands: Responsabilidades humanas en el uso de sistemas inteligentes violentos según el derecho internacional público". Depósito de becas de Harvard . Consultado el 14 de septiembre de 2019 .
  49. ^ Kissinger, Henry (1 de noviembre de 2021). "El desafío de ser humano en la era de la IA". El periodico de Wall Street .
  50. ^ ab Barrett, Anthony M.; Baum, Seth D. (23 de mayo de 2016). "Un modelo de vías hacia la catástrofe de la superinteligencia artificial para el análisis de riesgos y decisiones". Revista de inteligencia artificial teórica y experimental . 29 (2): 397–414. arXiv : 1607.07730 . doi :10.1080/0952813x.2016.1186228. ISSN  0952-813X. S2CID  928824.
  51. ^ "Informe del índice de IA 2024 - capítulo 3: IA responsable" (PDF) . aiindex.stanford.edu . Abril de 2024.
  52. ^ Boyd, Mateo; Wilson, Nick (1 de noviembre de 2017). "Rápidos avances en inteligencia artificial: ¿cómo podría responder el gobierno de Nueva Zelanda?". Política trimestral . 13 (4). doi : 10.26686/pq.v13i4.4619 . ISSN  2324-1101.
  53. ^ Innovación, ciencia y desarrollo económico de Canadá (16 de mayo de 2019). "Declaración del Panel Internacional sobre Inteligencia Artificial". gcnws . Consultado el 29 de marzo de 2020 .
  54. ^ Simonita, Tom (8 de enero de 2020). "El mundo tiene un plan para frenar la IA, pero a Estados Unidos no le gusta". Cableado . Consultado el 29 de marzo de 2020 .
  55. ^ ab "Regulación de la IA: ¿Ha llegado el momento?". Semana de la Información . 24 de febrero de 2020 . Consultado el 29 de marzo de 2020 .
  56. ^ abcdefg Informe científico de la UNESCO: la carrera contra el tiempo para un desarrollo más inteligente. París: UNESCO. 11 de junio de 2021. ISBN 978-92-3-100450-6.
  57. ^ "Comunidad". GPAI . Archivado desde el original el 30 de marzo de 2023.
  58. ^ "Descripción general de los principios de la IA". OCDE.AI. ​Consultado el 20 de octubre de 2023 .
  59. ^ Declaración ministerial del G20 sobre comercio y economía digital (PDF) . Ciudad de Tsukuba, Japón: G20. 2019.
  60. ^ "El panel internacional de ética de la IA debe ser independiente". Naturaleza . 572 (7770): 415. 2019-08-21. Código bibliográfico : 2019Natur.572R.415.. doi : 10.1038/d41586-019-02491-x . PMID  31435065.
  61. ^ Directrices para la adquisición de IA (PDF) . Colonia/Ginebra: Foro Económico Mundial. 2019.
  62. ^ "Evento de alto nivel: Inteligencia artificial y robótica: remodelando el futuro del crimen, el terrorismo y la seguridad". UNICRI . Consultado el 18 de julio de 2022 .
  63. ^ abcd NíFhaoláin, Labhaoise; Hines, Andrés; Nallur, Vivek (2020). Evaluación del apetito por la confiabilidad y la regulación de la inteligencia artificial en Europa (PDF) . Dublín: Universidad Tecnológica de Dublín, Facultad de Ciencias de la Computación, Dublín. págs. 1–12. Este artículo incorpora texto disponible bajo la licencia CC BY 4.0. (La licencia CC BY 4.0 significa que todos tienen derecho a reutilizar el texto que se cita aquí, u otras partes del artículo original, si dan crédito a los autores. Más información: licencia Creative Commons ) Los cambios se realizaron de la siguiente manera: citas Eliminaciones y modificaciones gramaticales menores.
  64. ^ "Recomendación sobre la ética de la inteligencia artificial". UNESCO . 2020-02-27 . Consultado el 18 de julio de 2022 .
  65. ^ Nindler, Reinmar (11 de marzo de 2019). "La capacidad de las Naciones Unidas para gestionar riesgos existenciales con especial atención a la inteligencia artificial". Revista de derecho comunitario internacional . 21 (1): 5–34. doi :10.1163/18719732-12341388. ISSN  1871-9740. S2CID  150911357.
  66. ^ "Acerca de". IA para siempre . Consultado el 6 de abril de 2023 .
  67. ^ Taddeo, Mariarosaria; Floridi, Luciano (abril de 2018). "Regular la inteligencia artificial para evitar la carrera armamentista cibernética". Naturaleza . 556 (7701): 296–298. Código Bib :2018Natur.556..296T. doi : 10.1038/d41586-018-04602-6 . PMID  29662138.
  68. ^ "Inteligencia artificial y robótica". UNICRI . Consultado el 8 de agosto de 2020 .
  69. ^ Biblioteca de Derecho del Congreso (EE. UU.). Dirección Global de Investigaciones Jurídicas, organismo emisor. Regulación de la inteligencia artificial en jurisdicciones seleccionadas . LCCN  2019668143. OCLC  1110727808.
  70. ^ Popova, Anna V.; Gorokhova, Svetlana S.; Abramova, Marianna G.; Balashkina, Irina V. (2021), El sistema de derecho y la inteligencia artificial en la Rusia moderna: objetivos e instrumentos de la modernización digital, Estudios sobre sistemas, decisión y control, vol. 314, Cham: Springer International Publishing, págs. 89–96, doi :10.1007/978-3-030-56433-9_11, ISBN 978-3-030-56432-2, S2CID  234309883 , consultado el 27 de marzo de 2021
  71. ^ "Observatorio de Innovación del Sector Público de la OCDE: Estrategias de IA y componentes del sector público" . Consultado el 4 de mayo de 2020 .
  72. ^ Berryhill, Jamie; Heang, Kevin Kok; Clogher, Rob; McBride, Keegan (2019). Hola Mundo: La Inteligencia Artificial y su Uso en el Sector Público (PDF) . París: Observatorio de Innovación del Sector Público de la OCDE.
  73. ^ Campbell, Thomas A. (2019). Inteligencia artificial: una descripción general de las iniciativas estatales (PDF) . Evergreen, CO: FutureGrasp, LLC. Archivado desde el original (PDF) el 31 de marzo de 2020.
  74. ^ Bradford, Anu (27 de junio de 2023). "La carrera para regular la inteligencia artificial". Relaciones Exteriores . ISSN  0015-7120 . Consultado el 11 de agosto de 2023 .
  75. ^ ab "Australia necesita un enfoque nacional para la estrategia de IA". Edad de información . Consultado el 8 de noviembre de 2023 .
  76. ^ Innovación, ciencia y desarrollo económico de Canadá (22 de junio de 2022). "El gobierno de Canadá lanza la segunda fase de la estrategia pancanadiense de inteligencia artificial". www.canada.ca . Consultado el 24 de octubre de 2023 .
  77. ^ Canadá, Gobierno de (18 de agosto de 2022). "Resumen del proyecto de ley C-27: Ley de implementación de la Carta Digital, 2022". ised-isde.canada.ca . Consultado el 24 de octubre de 2023 .
  78. ^ "Proyecto de ley del gobierno (Cámara de los Comunes) C-27 (44-1) - Primera lectura - Ley de implementación de la Carta Digital, 2022 - Parlamento de Canadá". www.parl.ca. ​Consultado el 12 de julio de 2022 .
  79. ^ The Marruecos Times (24 de abril de 2024). "Marruecos propone legislación para la agencia nacional de IA". Los tiempos marroquíes . Consultado el 25 de abril de 2024 .
  80. ^ Consejo de Estado de China. "Plan de Desarrollo de Inteligencia Artificial de Nueva Generación". www.unodc.org . Archivado desde el original el 7 de junio de 2023 . Consultado el 18 de julio de 2022 .
  81. ^ Departamento de Cooperación Internacional Ministerio de Ciencia y Tecnología (septiembre de 2017). "Plan de desarrollo de inteligencia artificial de próxima generación emitido por el Consejo de Estado" (PDF) . Boletín de ciencia y tecnología de China (17): 2–12. Archivado desde el original (PDF) el 21 de enero de 2022, vía Ministerio de Relaciones Exteriores de China .
  82. ^ Wu, Fei; Lu, Cewu; Zhu, Mingjie; Chen, Hao; Zhu, junio; Yu, Kai; Li, Lei; Li, Ming; Chen, Qianfeng; Li, Xi; Cao, Xudong (2020). "Hacia una nueva generación de inteligencia artificial en China". Inteligencia de la máquina de la naturaleza . 2 (6): 312–316. doi :10.1038/s42256-020-0183-4. ISSN  2522-5839. S2CID  220507829.
  83. ^ "Se publican normas éticas para la inteligencia artificial de nueva generación". Centro de Seguridad y Tecnología Emergente . Consultado el 18 de julio de 2022 .
  84. ^ "China acaba de darle al mundo un modelo para reinar en la IA generativa" Fortune . Consultado el 24 de julio de 2023 .
  85. ^ "Consejo de Europa y la Inteligencia Artificial". Inteligencia artificial . Consultado el 29 de julio de 2021 .
  86. ^ Peukert, cristiano; Bechtold, Stefan; Kretschmer, Tobías; Batikas, Michail (30 de septiembre de 2020). "Exportaciones regulatorias y efectos indirectos: cómo el RGPD afecta los mercados globales de datos". CEPR . Consultado el 26 de octubre de 2023 .
  87. ^ Coulter, Martín (24 de agosto de 2023). "Las grandes tecnologías se preparan para las regulaciones de la Ley de Servicios Digitales de la UE". Reuters . Consultado el 26 de octubre de 2023 .
  88. ^ "El nuevo papel de Europa en la regulación digital". Le Monde.fr . 2023-08-28 . Consultado el 26 de octubre de 2023 .
  89. ^ Satariano, Adán (14 de junio de 2023). "Los europeos dan un paso importante hacia la regulación de la IA" The New York Times . ISSN  0362-4331 . Consultado el 25 de octubre de 2023 .
  90. ^ Browne, Ryan (14 de junio de 2023). "Los legisladores de la UE aprueban una regulación histórica sobre inteligencia artificial". CNBC . Consultado el 25 de octubre de 2023 .
  91. ^ Anónimo (25 de abril de 2018). "Inteligencia artificial de la comunicación para Europa". Dar forma al futuro digital de Europa – Comisión Europea . Consultado el 5 de mayo de 2020 .
  92. ^ smuhana (14 de junio de 2018). "Grupo de Expertos de Alto Nivel en Inteligencia Artificial". Dar forma al futuro digital de Europa – Comisión Europea . Consultado el 5 de mayo de 2020 .
  93. ^ ab Andraško, Jozef; Mesarčík, Matúš; Hamuľák, Ondrej (2 de enero de 2021). "Las intersecciones regulatorias entre inteligencia artificial, protección de datos y ciberseguridad: desafíos y oportunidades para el marco legal de la UE". IA y sociedad . 36 (2): 623–636. doi :10.1007/s00146-020-01125-5. ISSN  0951-5666. S2CID  230109912.
  94. ^ "Pautas éticas para una IA confiable". Comisión Europea . 2019.
  95. ^ "Recomendaciones de políticas e inversión para una inteligencia artificial confiable". Dar forma al futuro digital de Europa – Comisión Europea . 2019-06-26 . Consultado el 5 de mayo de 2020 .
  96. ^ "Libro Blanco sobre la inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza". Comisión Europea . 19 de febrero de 2020 . Consultado el 7 de junio de 2021 .
  97. ^ Broadbent, Meredith (17 de marzo de 2021). "¿Qué nos depara el futuro para una agenda regulatoria cooperativa sobre inteligencia artificial?". www.csis.org . Archivado desde el original el 7 de junio de 2021 . Consultado el 7 de junio de 2021 .
  98. ^ Comisión Europea. (2020). Libro blanco sobre inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza . OCLC  1141850140.
  99. ^ "Regulación de la IA en la UE". Mason Hayes y Curran . Consultado el 30 de marzo de 2023 .
  100. ^ Heikkilä, Melissa (14 de abril de 2021). "POLITICO AI: Decodificado: Las reglas de la IA de la UE - Finlandia habla con las máquinas - El proyecto de equidad de Facebook" (boletín). POLITICO . Consultado el 14 de mayo de 2021.
  101. ^ Comisión Europea (21 de abril de 2021). Europa preparada para la era digital: la Comisión propone nuevas normas y acciones para la excelencia y la confianza en la inteligencia artificial (nota de prensa). Consultado el 14 de mayo de 2021.
  102. ^ Pery, Andrew (6 de octubre de 2021). "Inteligencia artificial confiable y minería de procesos: desafíos y oportunidades". IA profunda . Consultado el 27 de febrero de 2022 .
  103. ^ Browne, Ryan (15 de mayo de 2023). "Europa apunta a ChatGPT con lo que pronto podría ser la primera ley de inteligencia artificial de Occidente. Esto es lo que significa". CNBC . Consultado el 25 de octubre de 2023 .
  104. ^ Veale, Michael; Borgesius, Frederik Zuiderveen (1 de agosto de 2021). "Desmitificar el proyecto de ley de inteligencia artificial de la UE: analizar los elementos buenos, malos y poco claros del enfoque propuesto". Revista Internacional de Derecho Informático . 22 (4): 97-112. arXiv : 2107.03721 . doi :10.9785/cri-2021-220402. ISSN  2194-4164. S2CID  235765823.
  105. ^ van Kolfschooten, Hannah (enero de 2022). "Reglamento de la UE sobre inteligencia artificial: desafíos para los derechos de los pacientes". Revisión del Derecho del Mercado Común . 59 (1): 81-112. doi : 10.54648/COLA2022005. S2CID  248591427.
  106. ^ Coulter, Martin (7 de diciembre de 2023). "¿Qué es la Ley de IA de la UE y cuándo entrará en vigor su regulación?". Reuters .
  107. ^ Bertuzzi, Luca (7 de diciembre de 2023). "Ley de IA: los responsables políticos de la UE fijan normas sobre los modelos de IA, pero se enfrentan en materia de aplicación de la ley". euroactiv .
  108. ^ Browne, Ryan (21 de mayo de 2024). "La primera gran ley del mundo sobre inteligencia artificial obtiene luz verde final de la UE". CNBC . Consultado el 1 de junio de 2024 .
  109. ^ "Ley de Inteligencia Artificial: los eurodiputados adoptan una ley histórica". Parlamento Europeo . 2024-03-13 . Consultado el 1 de junio de 2024 .
  110. ^ "Los expertos reaccionan: la UE llegó a un acuerdo sobre las normas de IA. Pero, ¿pueden los reguladores moverse a la velocidad de la tecnología?". Consejo Atlántico . 11 de diciembre de 2023.
  111. ^ Natale, Lara (febrero de 2022). "Las ambiciones digitales de la UE plagadas de disonancia estratégica". Abarcar . Consultado el 25 de febrero de 2022 .
  112. ^ Bertuzzi, Luca; Killeen, Molly (17 de septiembre de 2021). "Digital Brief impulsado por Google: hazlo o deshazlo, Chips Act, que muestra el camino". Euroactiv . Consultado el 25 de febrero de 2022 .
  113. ^ Propp, Kenneth (7 de febrero de 2022). "El nuevo mantra de Francia: libertad, igualdad, soberanía digital". Consejo Atlántico . Consultado el 25 de febrero de 2022 .
  114. ^ "Inteligencia artificial: la UE debe acelerar el ritmo". Tribunal de Cuentas Europeo . 29 de mayo de 2024 . Consultado el 29 de mayo de 2024 .
  115. ^ Klimaschutz, BMWK-Bundesministerium für Wirtschaft und. ""KI - Fabricado en Alemania "etablieren". www.bmwk.de (en alemán) . Consultado el 12 de junio de 2023 .
  116. ^ "DIN, DKE y BMWi veröffentlichen Normungsroadmap für Künstliche Intelligenz". totalmente electrónica (en alemán) . Consultado el 12 de junio de 2023 .
  117. ^ ab Runze, Gerhard; Haimerl, Martín; Hauer, Marc; Holoyad, Taras; Obert, Otto; Pöhls, Henrich; Tagiew, Rustam; Ziehn, Jens (2023). "Ein Werkzeug für eine gemeinsame KI-Terminologie - Das AI-Glossary als Weg aus Babylon". Java Spektrum (en alemán) (3): 42–46.
  118. ^ "Hoja de ruta normativa Künstliche Intelligenz". www.dke.de (en alemán) . Consultado el 12 de junio de 2023 .
  119. ^ "Principios rectores internacionales del Proceso de Hiroshima para sistemas avanzados de IA | Dar forma al futuro digital de Europa". estrategia-digital.ec.europa.eu . 2023-10-30 . Consultado el 1 de noviembre de 2023 .
  120. ^ Marzio Bartoloni (11 de octubre de 2023). "Curas e inteligencia artificial: la privacidad y el riesgo del algoritmo que discrimina".
  121. ^ Arasa, Dale (13 de marzo de 2023). "Proyecto de ley filipino sobre IA propone una agencia para la inteligencia artificial". Investigador diario filipino . Consultado el 29 de mayo de 2024 .
  122. ^ Abarca, Charie (29 de mayo de 2024). "Comelec quiere que la IA prohíba los materiales de campaña antes de las elecciones de 2025". Investigador diario filipino . Consultado el 29 de mayo de 2024 .
  123. Ministerio de Ciencia de España (2018). «Estrategia Española de I+D+i en Inteligencia Artificial» (PDF) . www.knowledge4policy.ec.europa.eu . Consultado el 9 de diciembre de 2023 .
  124. ^ ab "Encadenando los chatbots: España se acerca a la Ley de IA". POLITICO . 2023-06-22 . Consultado el 3 de septiembre de 2023 .
  125. Ministerio de Ciencia de España (2018). «Estrategia Española de I+D+i en Inteligencia Artificial» (PDF) . www.knowledge4policy.ec.europa.eu . Consultado el 9 de diciembre de 2023 .
  126. ^ Castillo, Carlos del (28 de diciembre de 2021). "España vigilará la Inteligencia Artificial como a los fármacos o los alimentos". elDiario.es (en español) . Consultado el 3 de septiembre de 2023 .
  127. ^ "España comienza el proceso para elegir la sede de la futura Agencia Española de Supervisión de la IA". El Español (en español). 2022-09-13 . Consultado el 3 de septiembre de 2023 .
  128. ^ Marcos, José (12 de septiembre de 2022). "El Gobierno inicia con la Agencia de Inteligencia Artificial el traslado de sedes fuera de Madrid". El País (en español) . Consultado el 3 de septiembre de 2023 .
  129. ^ "A Coruña acogerá la Agencia Española de Inteligencia Artificial". Prensa Europa. 2022-12-05 . Consultado el 3 de septiembre de 2023 .
  130. ^ "El Gobierno aprueba el estatuto de la Agencia Española de Supervisión de la Inteligencia Artificial". Prensa Europa. 2023-08-22 . Consultado el 3 de septiembre de 2023 .
  131. ^ Guerrini, Federico. "Los países europeos compiten para marcar el ritmo regulatorio de la IA". Forbes . Consultado el 4 de septiembre de 2023 .
  132. ^ ab "Estrategia de economía digital 2015 a 2018". www.ukri.org . 16 de febrero de 2015 . Consultado el 18 de julio de 2022 .
  133. ^ "Panorama de orientación de la IA y la ética de los datos". GOBIERNO DEL REINO UNIDO . Consultado el 26 de octubre de 2023 .
  134. ^ Leslie, David (11 de junio de 2019). "Comprensión de la ética y la seguridad de la inteligencia artificial: una guía para el diseño e implementación responsables de sistemas de IA en el sector público". Zenodo . arXiv : 1906.05684 . doi :10.5281/zenodo.3240529. S2CID  189762499.
  135. ^ "Herramientas de seguridad inteligentes". www.ncsc.gov.uk. ​Consultado el 28 de abril de 2020 .
  136. ^ Richardson, Tim. "El Reino Unido publica la estrategia nacional de inteligencia artificial". www.theregister.com .
  137. ^ La estrategia nacional de IA del Reino Unido, 2021 (acciones 9 y 10 de la sección "Pilar 3: Gobernar la IA de forma eficaz")
  138. ^ "Un enfoque pro-innovación para la regulación de la IA". GOBIERNO DEL REINO UNIDO . Consultado el 27 de octubre de 2023 .
  139. ^ Gikay, Asress Adimi (8 de junio de 2023). "Cómo el Reino Unido está acertando con la regulación de la IA". La conversación . Consultado el 27 de octubre de 2023 .
  140. ^ Browne, Ryan (12 de junio de 2023). "El primer ministro británico, Rishi Sunak, presenta al Reino Unido como el hogar de la regulación de seguridad de la IA mientras Londres aspira a ser el próximo Silicon Valley". CNBC . Consultado el 27 de octubre de 2023 .
  141. ^ "Cumbre de seguridad de la IA: introducción (HTML)". GOBIERNO DEL REINO UNIDO . Consultado el 27 de octubre de 2023 .
  142. ^ "Presentación del Instituto de seguridad de IA". GOBIERNO DEL REINO UNIDO . Consultado el 8 de julio de 2024 .
  143. ^ Henshall, Will (1 de abril de 2024). "Estados Unidos y el Reino Unido se asociarán para probar la seguridad de la IA". TIEMPO . Consultado el 8 de julio de 2024 .
  144. ^ Tejedor, John Frank (28 de diciembre de 2018). "Regulación de la inteligencia artificial en Estados Unidos". Manual de investigación sobre la ley de la inteligencia artificial : 155–212. doi :10.4337/9781786439055.00018. ISBN 9781786439055.
  145. ^ "Informe de la administración sobre el futuro de la inteligencia artificial". casablanca.gov . 2016-10-12 . Consultado el 1 de noviembre de 2023 .
  146. ^ Comité de Tecnología del Consejo Nacional de Ciencia y Tecnología (octubre de 2016). "Preparándose para el futuro de la inteligencia artificial". whitehouse.gov - a través de Archivos Nacionales .
  147. «Plan Estratégico Nacional de Investigación y Desarrollo en Inteligencia Artificial» (PDF) . Consejo Nacional de Ciencia y Tecnología . Octubre de 2016.
  148. ^ "Acerca de". Comisión Nacional de Seguridad en Inteligencia Artificial . Consultado el 29 de junio de 2020 .
  149. ^ Stefanik, Elise M. (22 de mayo de 2018). "HR5356 - 115º Congreso (2017-2018): Ley de Inteligencia Artificial de la Comisión Nacional de Seguridad de 2018". www.congreso.gov . Consultado el 13 de marzo de 2020 .
  150. ^ Heinrich, Martín (21 de mayo de 2019). "Texto - S.1558 - 116º Congreso (2019-2020): Ley de Iniciativa de Inteligencia Artificial". www.congreso.gov . Consultado el 29 de marzo de 2020 .
  151. ^ Scherer, Matthew U. (2015). "Regulación de los sistemas de inteligencia artificial: riesgos, desafíos, competencias y estrategias". Serie de documentos de trabajo de la SSRN . doi :10.2139/ssrn.2609777. ISSN  1556-5068.
  152. ^ "Orden ejecutiva sobre el mantenimiento del liderazgo estadounidense en inteligencia artificial: la Casa Blanca". trumpwhitehouse.archives.gov . Consultado el 1 de noviembre de 2023 .
  153. ^ Vought, Russell T. "MEMORANDO PARA LOS JEFES DE DEPARTAMENTOS EJECUTIVOS Y AGENCIAS - Orientación para la regulación de las aplicaciones de inteligencia artificial" (PDF) . La casa Blanca .
  154. ^ "Actualización de IA: la Casa Blanca emite diez principios para la regulación de la inteligencia artificial". Dentro de los medios tecnológicos . 2020-01-14 . Consultado el 25 de marzo de 2020 .
  155. ^ Liderazgo estadounidense en inteligencia artificial: un plan para la participación federal en el desarrollo de estándares técnicos y herramientas relacionadas (PDF) . Instituto Nacional de Ciencia y Tecnología. 2019.
  156. ^ "Solicitud de comentarios sobre un borrador de memorando a los jefes de departamentos y agencias ejecutivas", Orientación para la regulación de las aplicaciones de inteligencia artificial"". Registro Federal . 2020-01-13 . Consultado el 28 de noviembre de 2020 .
  157. Consejo Nacional de Ciencia y Tecnología (21 de junio de 2019). "El Plan Estratégico Nacional de Investigación y Desarrollo de Inteligencia Artificial: Actualización 2019" (PDF) .
  158. ^ Gursoy, Furkán; Kakadiaris, Ioannis A. (2023). "Estrategia de investigación de inteligencia artificial de los Estados Unidos: evaluación crítica y recomendaciones de políticas". Fronteras en Big Data . 6 . doi : 10.3389/fdata.2023.1206139 . ISSN  2624-909X. PMC 10440374 . PMID  37609602. 
  159. ^ Informe final de la NSCAI (PDF) . Washington, DC: Comisión de Seguridad Nacional sobre Inteligencia Artificial. 2021.
  160. ^ Homeland Newswire (25 de junio de 2022). "Portman y Peters presentan un proyecto de ley bipartidista para garantizar que el gobierno federal esté preparado para riesgos catastróficos para la seguridad nacional". PatriaNewswire. Archivado desde el original el 25 de junio de 2022 . Consultado el 4 de julio de 2022 .
  161. ^ "Texto - S.4488 - 117º Congreso (2021-2022): Un proyecto de ley para establecer un comité interinstitucional sobre riesgo catastrófico global y para otros fines". Congreso.gov . Biblioteca del Congreso. 2022-06-23 . Consultado el 4 de julio de 2022 .
  162. ^ "Plan para una Declaración de derechos de la IA | OSTP". La casa Blanca . Consultado el 1 de noviembre de 2023 .
  163. ^ "La Casa Blanca acaba de presentar una nueva Declaración de Derechos de la IA". Revisión de tecnología del MIT . Consultado el 24 de octubre de 2023 .
  164. ^ "Una Ley Local para modificar el código administrativo de la ciudad de Nueva York, en relación con las herramientas automatizadas de decisión laboral". El Ayuntamiento de Nueva York . Consultado el 1 de noviembre de 2023 .
  165. ^ Kestenbaum, Jonathan (5 de julio de 2023). "La nueva ley sobre el sesgo de la IA de la ciudad de Nueva York afecta ampliamente la contratación y requiere auditorías". Ley Bloomberg . Consultado el 24 de octubre de 2023 .
  166. ^ Casa, La Blanca (21 de julio de 2023). "HOJA INFORMATIVA: La administración Biden-Harris obtiene compromisos voluntarios de las principales empresas de inteligencia artificial para gestionar los riesgos que plantea la IA". La casa Blanca . Consultado el 25 de septiembre de 2023 .
  167. ^ Casa, La Blanca (12 de septiembre de 2023). "HOJA INFORMATIVA: La administración Biden-Harris obtiene compromisos voluntarios de ocho empresas adicionales de inteligencia artificial para gestionar los riesgos que plantea la IA". La casa Blanca . Consultado el 25 de septiembre de 2023 .
  168. ^ Chatterjee, Mohar (12 de octubre de 2023). "Orden de IA de la Casa Blanca para flexibilizar el poder adquisitivo federal". POLITICO . Consultado el 27 de octubre de 2023 .
  169. ^ Casa, La Blanca (30 de octubre de 2023). "HOJA INFORMATIVA: El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura y confiable". La casa Blanca . Consultado el 5 de diciembre de 2023 .
  170. ^ Lewis, James Andrés; Benson, Emily; Frank, Michael (31 de octubre de 2023). "Orden ejecutiva de la administración Biden sobre inteligencia artificial".
  171. ^ Casa, La Blanca (30 de octubre de 2023). "Orden ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial". La casa Blanca . Consultado el 5 de diciembre de 2023 .
  172. ^ Lanum, Nikolas (7 de noviembre de 2023). "La orden ejecutiva de IA del presidente Biden tiene 'limitaciones peligrosas', dice el director ejecutivo de la empresa de detección de deepfake". FOXBusiness . Consultado el 5 de diciembre de 2023 .
  173. ^ Myrow, Rachael (16 de febrero de 2024). "Los legisladores de California abordan la regulación de la IA con una serie de proyectos de ley". KQED .
  174. ^ De Vynck, Gerrit (8 de febrero de 2024). "En el patio trasero de las grandes tecnologías, un legislador de California presenta un proyecto de ley histórico sobre IA". El Washington Post .
  175. ^ Kristin Robinson (2024). "Tennessee adopta la ley ELVIS, protegiendo las voces de los artistas de la suplantación de identidad por IA". Los New York Times . Consultado el 26 de marzo de 2024 .
  176. ^ Ashley King (2024). "La Ley ELVIS se ha convertido oficialmente en ley: primera legislación sobre IA a nivel estatal en los EE. UU.". Noticias de Música Digital . Consultado el 26 de marzo de 2024 .
  177. ^ Casa de Tennessee (2024). "Sesión plenaria de la Cámara - 44º día legislativo" (vídeo) . Casa Tennessee . Consultado el 26 de marzo de 2024 .
  178. ^ Audrey Gibbs (2024). "El gobernador de Tennessee, Lee, promulga la Ley ELVIS en honky-tonk y protege a los músicos de los abusos de la IA". El Tennessee . Consultado el 26 de marzo de 2024 .
  179. ^ Alex Greene (2024). "La Ley ELVIS". Folleto de Memphis . Consultado el 26 de marzo de 2024 .
  180. ^ Wodecki, Ben (27 de marzo de 2024). "Utah aprueba una legislación que regula el uso de la inteligencia artificial". Negocio de IA .
  181. ^ "SB0149". le.utah.gov . Consultado el 25 de abril de 2024 .
  182. ^ "Antecedentes de los sistemas de armas letales autónomas en la CCW". Naciones Unidas Ginebra.
  183. ^ "Principios rectores afirmados por el Grupo de expertos gubernamentales sobre tecnologías emergentes en el área del sistema de armas letales autónomas" (PDF) . Naciones Unidas Ginebra. Archivado desde el original (PDF) el 1 de diciembre de 2020 . Consultado el 5 de mayo de 2020 .
  184. ^ Baum, Seth (30 de septiembre de 2018). "Contrarrestar la desinformación de la superinteligencia". Información . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489.
  185. ^ "Puntos de vista de los países sobre los robots asesinos" (PDF) . La campaña para detener a los robots asesinos.
  186. ^ Sayler, Kelley (2020). Inteligencia artificial y seguridad nacional: actualizado el 10 de noviembre de 2020 (PDF) . Washington, DC: Servicio de Investigación del Congreso.
  187. ^ "Manual de defensa: política estadounidense sobre sistemas de armas autónomas letales". Servicio de Investigación del Congreso . 15 de mayo de 2023.