Proyecto de ley de California
La Ley de Innovación Segura para Modelos de Inteligencia Artificial de Frontera , o SB 1047 , es un proyecto de ley de California de 2024 destinado a "mitigar el riesgo de daños catastróficos de modelos de IA tan avanzados que aún no se sabe que existen". [1] Específicamente, el proyecto de ley se aplicaría a modelos cuyo entrenamiento cueste más de 100 millones de dólares y que se hayan entrenado utilizando una cantidad de potencia informática superior a 10 26 operaciones de números enteros o de punto flotante. [2] SB 1047 se aplicaría a todas las empresas de IA que hagan negocios en California, sin importar la ubicación de la empresa. [3] El proyecto de ley crea protecciones para los denunciantes [4] y requiere que los desarrolladores realicen evaluaciones de riesgos de sus modelos antes de su lanzamiento, bajo la supervisión de la Agencia de Operaciones del Gobierno . También establecería CalCompute, un clúster de computación en la nube pública de la Universidad de California para empresas emergentes, investigadores y grupos comunitarios.
Fondo
El rápido aumento de las capacidades de los sistemas de IA en la década de 2020, incluido el lanzamiento de ChatGPT en noviembre de 2022, provocó que algunos investigadores y miembros del público expresaran su preocupación por los riesgos existenciales asociados con sistemas de IA cada vez más potentes . [5] [6] La plausibilidad de esta amenaza es ampliamente debatida. [7] A veces también se aboga por la regulación de la IA para evitar sesgos y violaciones de la privacidad. [6] Sin embargo, ha sido criticada por posiblemente conducir a la captura regulatoria por parte de grandes empresas de IA como OpenAI , en la que la regulación promueve el interés de las empresas más grandes a expensas de la competencia más pequeña y del público en general. [6]
En mayo de 2023, cientos de ejecutivos tecnológicos e investigadores de IA [8] firmaron una declaración sobre el riesgo de extinción de la IA , que decía "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". Recibió las firmas de los dos investigadores de IA más citados, [9] [10] [11] Geoffrey Hinton y Yoshua Bengio , junto con figuras de la industria como el director ejecutivo de OpenAI , Sam Altman , el director ejecutivo de Google DeepMind , Demis Hassabis , y el director ejecutivo de Anthropic, Dario Amodei . [12] [13] Muchos otros expertos pensaron que las preocupaciones existenciales eran exageradas y poco realistas, además de una distracción de los daños a corto plazo de la IA, por ejemplo, la toma de decisiones automatizada discriminatoria. [14] Es famoso que Sam Altman solicitara enérgicamente la regulación de la IA por parte del Congreso en una audiencia el mismo mes. [6] [15] Varias empresas de tecnología han asumido compromisos voluntarios para realizar pruebas de seguridad, por ejemplo en la Cumbre de Seguridad de IA y la Cumbre de IA de Seúl . [16] [17]
El gobernador Newsom de California y el presidente Biden emitieron órdenes ejecutivas sobre inteligencia artificial en 2023. [18] [19] [20] El senador estatal Wiener dijo que la SB 1047 se basa en gran medida en la orden ejecutiva de Biden y está motivada por la ausencia de una legislación federal unificada sobre la seguridad de la IA . [21] California ha legislado anteriormente sobre cuestiones tecnológicas, incluida la privacidad del consumidor y la neutralidad de la red , en ausencia de acción del Congreso. [22] [23]
Historia
El proyecto de ley fue redactado originalmente por Dan Hendrycks , cofundador del Centro para la Seguridad de la IA , quien anteriormente argumentó que las presiones evolutivas sobre la IA podrían conducir a "un camino hacia ser suplantada como especie dominante de la Tierra". [24] [25] El centro emitió una declaración en mayo de 2023 co-firmada por Elon Musk y cientos de otros líderes empresariales afirmando que "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear". [26]
El senador estatal Wiener propuso por primera vez una legislación sobre IA para California a través de un proyecto de ley de intención llamado SB 294, la Ley de Seguridad en Inteligencia Artificial, en septiembre de 2023. [27] [28] [29] El SB 1047 fue presentado por Wiener el 7 de febrero de 2024. [30] [31]
El 21 de mayo, el Senado aprobó la SB 1047 por 32 votos a 1. [32] [33] El proyecto de ley fue modificado significativamente por Wiener el 15 de agosto de 2024 en respuesta al asesoramiento de la industria. [34] Las enmiendas incluyeron la adición de aclaraciones y la eliminación de la creación de una "División Modelo Fronteriza" y la pena de perjurio . [35] [36]
El 28 de agosto, el proyecto de ley fue aprobado por la Asamblea Estatal con 48 votos a favor y 16 en contra. Luego, debido a las enmiendas, el proyecto de ley fue sometido a votación nuevamente en el Senado, con 30 votos a favor y 9 en contra. [37] [38]
El 29 de septiembre, el gobernador Gavin Newsom vetó el proyecto de ley. Se considera poco probable que la legislatura anule el veto del gobernador con un voto de dos tercios de ambas cámaras. [39]
Provisiones
Antes de la capacitación del modelo, los desarrolladores de modelos cubiertos y derivados deben presentar una certificación, sujeta a auditoría, de mitigación del riesgo "razonable" de "daños críticos" del modelo cubierto y sus derivados, incluidas las modificaciones posteriores a la capacitación. Las salvaguardas para reducir el riesgo incluyen la capacidad de apagar el modelo [4] , lo que se ha descrito de diversas formas como un " interruptor de apagado " [40] y un " cortacircuitos ". [41] Las disposiciones de denuncia de irregularidades protegen a los empleados que informan sobre problemas e incidentes de seguridad. [4]
La SB 1047 también crearía un clúster de computación en la nube pública llamado CalCompute, asociado con la Universidad de California , para apoyar a empresas emergentes, investigadores y grupos comunitarios que carecen de recursos informáticos a gran escala. [35]
Modelos cubiertos
La SB 1047 cubre los modelos de IA con un cálculo de entrenamiento de más de 10 26 operaciones de números enteros o de punto flotante y un costo de más de 100 millones de dólares. [2] [42] Si un modelo cubierto se ajusta utilizando más de 10 millones de dólares, el modelo resultante también está cubierto. [36]
Daños críticos
Los daños críticos se definen con respecto a cuatro categorías: [1] [43]
- Creación o utilización de un arma química , biológica , radiológica o nuclear [44]
- Ciberataques a infraestructuras críticas que causan víctimas masivas o daños por al menos 500 millones de dólares
- Delitos autónomos que causan víctimas masivas o daños por al menos 500 millones de dólares
- Otros daños de gravedad comparable
Cumplimiento y supervisión
El SB 1047 exigiría a los desarrolladores, a partir del 1 de enero de 2026, que contraten anualmente a un auditor externo para que realice una auditoría independiente del cumplimiento de los requisitos del proyecto de ley, según lo previsto. [35] La Agencia de Operaciones del Gobierno revisaría los resultados de las pruebas de seguridad y los incidentes, y emitiría orientación, estándares y mejores prácticas. [35] El proyecto de ley crea una Junta de Modelos Fronterizos para supervisar la aplicación del proyecto de ley por parte de la Agencia de Operaciones del Gobierno. Está compuesta por 9 miembros. [42] [ necesita actualización ]
Recepción
Debate
Los defensores del proyecto de ley describen sus disposiciones como simples y de enfoque limitado, y el senador Scott Weiner lo describe como un "proyecto de ley de seguridad básica y de toque ligero". [45] Esto ha sido cuestionado por los críticos del proyecto de ley, que describen el lenguaje del proyecto de ley como vago y lo critican por consolidar el poder en las empresas de inteligencia artificial más grandes a expensas de las más pequeñas. [45] Los defensores respondieron que el proyecto de ley solo se aplica a los modelos entrenados utilizando más de 10 26 FLOPS y con más de $100 millones, o ajustados con más de $10 millones, y que el umbral podría aumentarse si fuera necesario. [46]
La pena de perjurio ha sido objeto de debate y finalmente se eliminó mediante una enmienda. El alcance del requisito del "interruptor de apagado" también se había reducido, a raíz de las preocupaciones de los desarrolladores de código abierto. También hubo controversia sobre el uso del término "garantía razonable", que finalmente se reemplazó después de la enmienda por "cuidado razonable". Los críticos argumentaron que el estándar de "cuidado razonable" impone una carga excesiva al requerir la confianza de que los modelos no podrían usarse para causar daños catastróficos, mientras que los defensores argumentaron que el estándar de "cuidado razonable" no implica certeza y es un estándar legal bien establecido que ya se aplica a los desarrolladores de IA según la ley vigente. [46]
Apoyo y oposición
Entre los partidarios del proyecto de ley se incluyen los ganadores del Premio Turing Yoshua Bengio [47] y Geoffrey Hinton , [48] Elon Musk , [49] Bill de Blasio , [50] Kevin Esvelt , [51] Dan Hendrycks , [52] Vitalik Buterin , [53] los denunciantes de OpenAI Daniel Kokotajlo [44] y William Saunders, [54] Lawrence Lessig , [55] Sneha Revanur , [56] Stuart Russell , [55] Jan Leike , [57] los actores Mark Ruffalo , Sean Astin y Rosie Perez , [58] Scott Aaronson , [59] y Max Tegmark . [60] El Centro para la Seguridad de la IA , Economic Security California [61] y Encode Justice [62] son patrocinadores. Yoshua Bengio escribe que el proyecto de ley es un paso importante hacia la prueba y las medidas de seguridad para "sistemas de IA más allá de un cierto nivel de capacidad [que] pueden plantear riesgos significativos para las democracias y la seguridad pública". [63] Max Tegmark comparó el enfoque del proyecto de ley en responsabilizar a las empresas por los daños causados por sus modelos con la exigencia de ensayos clínicos por parte de la FDA antes de que una empresa pueda lanzar un medicamento al mercado. También argumentó que la oposición al proyecto de ley por parte de algunas empresas es "directamente del manual de las grandes tecnológicas ". [60] El consejo editorial de Los Angeles Times también ha escrito en apoyo del proyecto de ley. [64] El sindicato SAG-AFTRA y dos grupos de mujeres, la Organización Nacional de Mujeres y Fund Her, han enviado cartas de apoyo al gobernador Newsom. [65] Más de 120 celebridades de Hollywood, entre ellas Mark Hamill , Jane Fonda y JJ Abrams , firmaron una declaración en apoyo del proyecto de ley. [66]
Andrew Ng , Fei-Fei Li , [67] Russell Wald, [68] Ion Stoica , Jeremy Howard , el ganador del premio Turing Yann LeCun , junto con los congresistas estadounidenses Nancy Pelosi , Zoe Lofgren , Anna Eshoo , Ro Khanna , Scott Peters , Tony Cárdenas , Ami Bera , Nanette Barragán y Lou Correa se han manifestado en contra de la legislación. [6] [69] [70] Andrew Ng argumenta específicamente que existen enfoques regulatorios mejores y más específicos, como apuntar a la pornografía deepfake , marcar con marcas de agua los materiales generados e invertir en equipos rojos y otras medidas de seguridad. [63] Los investigadores de la Universidad de California y Caltech también han escrito cartas abiertas en oposición. [69]
Industria
El proyecto de ley cuenta con la oposición de asociaciones comerciales de la industria, entre ellas la Cámara de Comercio de California , la Cámara del Progreso , [a] la Asociación de la Industria de Computación y Comunicaciones [b] y TechNet. [c] [2] Empresas como Meta [74] y OpenAI [75] se oponen al proyecto de ley o han expresado su preocupación por él, mientras que Google [74] , Microsoft y Anthropic [60] han propuesto modificaciones sustanciales. [3] Sin embargo, Anthropic ha anunciado su apoyo a una versión enmendada del Proyecto de Ley 1047 del Senado de California, al tiempo que menciona algunos aspectos del proyecto de ley que les parecen preocupantes o ambiguos. [76] Varias organizaciones fundadoras de empresas emergentes y de capital de riesgo se oponen al proyecto de ley, por ejemplo, Y Combinator [77] [78] Andreessen Horowitz [ 79 ] [80] [81] Context Fund [82] [83] y Alliance for the Future. [84]
Después de que se enmendó el proyecto de ley, el director ejecutivo de Anthropic, Dario Amodei, escribió que "la nueva SB 1047 ha mejorado sustancialmente, hasta el punto en que creemos que sus beneficios probablemente superen sus costos. Sin embargo, no estamos seguros de esto, y todavía hay algunos aspectos del proyecto de ley que nos parecen preocupantes o ambiguos". [85] Amodei también comentó: "Había algunas empresas hablando de trasladar sus operaciones fuera de California. De hecho, el proyecto de ley se aplica a hacer negocios en California o implementar modelos en California... Cualquier cosa sobre 'Oh, estamos trasladando nuestra sede fuera de California...' Eso es solo teatro. Eso es solo una negociación de influencia. No tiene relación con el contenido real del proyecto de ley". [86] Elon Musk, director ejecutivo de xAI , escribió: "Creo que California probablemente debería aprobar el proyecto de ley de seguridad de IA SB 1047. Durante más de 20 años, he sido un defensor de la regulación de la IA, al igual que regulamos cualquier producto/tecnología que sea un riesgo potencial para el público". [87]
El 9 de septiembre de 2024, al menos 113 empleados actuales y anteriores de las empresas de inteligencia artificial OpenAI, Google DeepMind, Anthropic, Meta y xAI firmaron una carta al gobernador Newsom en apoyo de la SB 1047. [88] [89]
Desarrolladores de código abierto
Los críticos expresaron su preocupación por la responsabilidad sobre el software de código abierto impuesta por el proyecto de ley si utilizan o mejoran los modelos existentes de libre acceso. Yann LeCun , el director de IA de Meta , ha sugerido que el proyecto de ley acabaría con los modelos de IA de código abierto. [63] Actualmente (a julio de 2024), existen preocupaciones en la comunidad de código abierto de que, debido a la amenaza de responsabilidad legal, empresas como Meta puedan optar por no hacer que los modelos (por ejemplo, Llama ) estén libremente disponibles. [90] [91] La AI Alliance ha escrito en contra del proyecto de ley, entre otras organizaciones de código abierto. [69] Por el contrario, el cofundador de Creative Commons, Lawrence Lessig, ha escrito que la SB 1047 haría que los modelos de IA de código abierto sean más seguros y más populares entre los desarrolladores, ya que tanto el daño como la responsabilidad por ese daño son menos probables. [41]
Encuestas de opinión pública
El Instituto de Política de Inteligencia Artificial, un grupo de expertos en inteligencia artificial a favor de la regulación, [92] [93] realizó tres encuestas a encuestados de California sobre si apoyaban o se oponían a la SB 1047.
Una encuesta de YouGov encargada por el Proyecto de Seguridad Económica encontró que el 78% de los votantes registrados en los Estados Unidos apoyaban la SB 1047, y el 80% pensaba que el gobernador Newsom debería firmar el proyecto de ley. [100]
Una encuesta de David Binder Research encargada por el Centro para la Seguridad de la IA , un grupo centrado en mitigar el riesgo a escala social y patrocinador del proyecto de ley, encontró que el 77% de los californianos apoyan una propuesta para exigir a las empresas que prueben los modelos de IA para detectar riesgos de seguridad, y el 86% considera que es una prioridad importante para California desarrollar regulaciones de seguridad de la IA. [101] [102] [103] [104]
Por otra parte, la Cámara de Comercio de California ha llevado a cabo su propia encuesta, que muestra que el 28 % de los encuestados apoya el proyecto de ley, el 46 % se opone y el 26 % es neutral. Sin embargo, la formulación de la pregunta ha sido calificada de "muy sesgada". [e] [93]
SB 1047 Veto del Gobernador
El gobernador Gavin Newsom vetó la SB 1047 el 29 de septiembre de 2024, citando preocupaciones sobre el marco regulatorio del proyecto de ley que apunta solo a modelos de IA grandes en función de su tamaño computacional, sin tener en cuenta si los modelos se implementan en entornos de alto riesgo. [105] [106] Newsom enfatizó que este enfoque podría crear una falsa sensación de seguridad, pasando por alto modelos más pequeños que podrían presentar riesgos igualmente significativos. [105] [107] Reconoció la necesidad de protocolos de seguridad de IA [105] [108] pero enfatizó la importancia de la adaptabilidad en la regulación a medida que la tecnología de IA continúa evolucionando rápidamente. [105] [109]
El gobernador Newsom también se comprometió a trabajar con expertos en tecnología, socios federales e instituciones académicas, incluido el Instituto de IA centrada en el ser humano (HAI) de la Universidad de Stanford , dirigido por el Dr. Fei-Fei Li . Anunció planes para colaborar con estas entidades para promover el desarrollo responsable de la IA, con el objetivo de proteger al público y fomentar la innovación. [105] [110]
Véase también
Notas
- ^ cuyos socios corporativos incluyen a Amazon , Apple , Google y Meta [71]
- ^ cuyos miembros incluyen a Amazon , Apple , Google y Meta [72]
- ^ cuyos miembros incluyen a Amazon , Anthropic , Apple , Google , Meta y OpenAI [73]
- ^ Pregunta formulada en la encuesta del Artificial Intelligence Policy Institute de agosto de 2024: "Algunos responsables de las políticas están proponiendo una ley en California, el Proyecto de Ley Senatorial 1047, que exigiría que las empresas que desarrollen IA avanzada realicen pruebas de seguridad y creen responsabilidad para los desarrolladores de modelos de IA si sus modelos causan daños catastróficos y no tomaron las precauciones adecuadas". [93]
- ^ Pregunta formulada en la encuesta de la Cámara de Comercio de California: "Los legisladores de Sacramento han propuesto una nueva ley estatal (SB 1047) que crearía una nueva agencia reguladora estatal en California para determinar cómo se pueden desarrollar los modelos de IA. Esta nueva ley exigiría a las pequeñas empresas emergentes que paguen potencialmente decenas de millones de dólares en multas si no implementan las órdenes de los burócratas estatales. Algunos dicen que las regulaciones onerosas como la SB 1047 podrían llevar a las empresas a mudarse fuera del estado o del país, lo que quitaría inversiones y empleos a California. Teniendo en cuenta todo lo que acaba de leer, ¿apoya o se opone a una propuesta como la SB 1047?" [93]
Referencias
- ^ ab Bauer-Kahan, Rebecca. "COMITÉ DE LA ASAMBLEA SOBRE PRIVACIDAD Y PROTECCIÓN DEL CONSUMIDOR" (PDF) . Asamblea de California . Estado de California . Consultado el 1 de agosto de 2024 .
- ^ abc Daniels, Owen J. (17 de junio de 2024). "El proyecto de ley de inteligencia artificial de California se convierte en un pararrayos, tanto para los defensores de la seguridad como para los desarrolladores". Boletín de los científicos atómicos .
- ^ ab Rana, Preetika (7 de agosto de 2024). "Las empresas de inteligencia artificial luchan para detener las normas de seguridad de California". The Wall Street Journal . Consultado el 8 de agosto de 2024 .
- ^ abc Thibodeau, Patrick (6 de junio de 2024). "Los riesgos catastróficos de la IA resaltan la necesidad de leyes para denunciar irregularidades". TechTarget . Consultado el 6 de agosto de 2024 .
- ^ Henshall, Will (7 de septiembre de 2023). "Yoshua Bengio". TIEMPO .
- ^ abcde Goldman, Sharon. "Es la lucha entre "tiburones y aviones" de la IA: bienvenidos a la lucha por el proyecto de ley de seguridad de la IA de California". Fortune . Consultado el 29 de julio de 2024 .
- ^ De Vynck, Gerrit (20 de mayo de 2023). "El debate sobre si la IA nos destruirá está dividiendo a Silicon Valley". The Washington Post .
- ^ Gregg, Aaron; Lima-Strong, Cristiano; Vynck, Gerrit De (31 de mayo de 2023). "La IA plantea un 'riesgo de extinción' similar al de las armas nucleares, dicen los líderes tecnológicos". Washington Post . ISSN 0190-8286 . Consultado el 3 de julio de 2024 .
- ^ Hinton, Geoffrey (17 de abril de 2024). "Yoshua Bengio". TIME . Consultado el 3 de septiembre de 2024 .
- ^ "Ranking de citas de científicos mundiales 2024". AD Scientific Index . Consultado el 3 de septiembre de 2024 .
- ^ "Perfiles". Google Académico . Consultado el 2 de septiembre de 2024 .
- ^ Abdul, Ginebra (30 de mayo de 2023). "El riesgo de extinción por IA debería ser una prioridad mundial, dicen los expertos". The Guardian . ISSN 0261-3077 . Consultado el 30 de agosto de 2024 .
- ^ "Declaración sobre los riesgos de la IA | CAIS" www.safe.ai . Consultado el 30 de agosto de 2024 .
- ^ "La inteligencia artificial podría conducir a la extinción, advierten los expertos". BBC News . 2023-05-30 . Consultado el 2024-08-30 .
- ^ Zorthian, Julia (16 de mayo de 2023). "El director ejecutivo de OpenAI, Sam Altman, está de acuerdo en que la IA debe estar regulada". TIME . Consultado el 30 de agosto de 2024 .
- ^ Milmo, Dan (3 de noviembre de 2023). "Las empresas tecnológicas permitirán la revisión de las herramientas de inteligencia artificial, mientras Musk advierte que todos los empleos humanos están amenazados". The Guardian . Consultado el 12 de agosto de 2024 .
- ^ Browne, Ryan (21 de mayo de 2024). "Los gigantes tecnológicos se comprometen a garantizar la seguridad de la IA, incluido un 'interruptor de apagado' si no pueden mitigar los riesgos". CNBC . Consultado el 12 de agosto de 2024 .
- ^ "El gobernador Newsom firma una orden ejecutiva para preparar a California para el progreso de la inteligencia artificial". Gobernador Gavin Newsom . 2023-09-06.
- ^ "El presidente Biden emite una orden ejecutiva sobre inteligencia artificial segura, protegida y confiable". Casa Blanca . 2023-10-30.
- ^ Riquelmy, Alan (8 de febrero de 2024). "Legislador de California pretende poner barreras para el desarrollo de la IA". Courthouse News Service . Consultado el 4 de agosto de 2024 .
- ^ Myrow, Rachael (16 de febrero de 2024). "Los legisladores de California abordan la regulación de la inteligencia artificial con una serie de proyectos de ley". KQED .
- ^ Piper, Kelsey (29 de agosto de 2024). "Hablamos con el arquitecto detrás del famoso proyecto de ley sobre seguridad de la IA". Vox . Consultado el 4 de septiembre de 2024 .
- ^ Lovely, Garrison (15 de agosto de 2024). "El proyecto de ley de seguridad de la IA de California es un momento de quitarse la máscara para la industria". The Nation . Consultado el 4 de septiembre de 2024 .
- ^ Edwards, Benj (29 de julio de 2024). "De la ciencia ficción a la ley estatal: el plan de California para prevenir la catástrofe de la IA". Ars Technica . Consultado el 30 de agosto de 2024 .
- ^ Hendrycks, Dan (31 de mayo de 2023). "El argumento darwiniano para preocuparse por la IA". Time . Consultado el 1 de octubre de 2024 .
- ^ "Los líderes destacados de la IA advierten del 'riesgo de extinción' de las nuevas tecnologías". Los Angeles Times . 2023-05-31 . Consultado el 2024-08-30 .
- ^ Perrigo, Billy (13 de septiembre de 2023). "Proyecto de ley de California propone regular la IA a nivel estatal". TIME . Consultado el 12 de agosto de 2024 .
- ^ David, Emilia (14 de septiembre de 2023). «Legislador de California propone regular modelos de IA». The Verge . Consultado el 12 de agosto de 2024 .
- ^ "El senador Wiener presenta un marco de seguridad en la legislación sobre inteligencia artificial". Senador Scott Wiener . 2023-09-13 . Consultado el 2024-08-12 .
- ^ "SB-1047 de California: Entendiendo la Ley de Innovación Segura para la Inteligencia Artificial de Fronteras". DLA Piper . Consultado el 30 de agosto de 2024 .
- ^ Edwards, Benj (29 de julio de 2024). "De la ciencia ficción a la ley estatal: el plan de California para prevenir la catástrofe de la IA". Ars Technica . Consultado el 30 de agosto de 2024 .
- ^ Hendrycks, Dan (27 de agosto de 2024). "El proyecto de ley de inteligencia artificial de California protegería a más personas que a los ciudadanos". TIME . Consultado el 30 de agosto de 2024 .
- ^ "California SB1047 | 2023-2024 | Sesión regular". LegiScan . Consultado el 30 de agosto de 2024 .
- ^ Zeff, Maxwell (15 de agosto de 2024). "California debilita el proyecto de ley para prevenir desastres de IA antes de la votación final, siguiendo el consejo de Anthropic". TechCrunch . Consultado el 23 de agosto de 2024 .
- ^ abcd Calvin, Nathan (15 de agosto de 2024). "SB 1047 August 15 Author Amendments Overview" (Descripción general de las enmiendas del autor del 15 de agosto de SB 1047). safesecureai.org . Consultado el 16 de agosto de 2024 .
- ^ ab "El proyecto de ley innovador sobre inteligencia artificial del senador Wiener avanza en la Asamblea con enmiendas que responden a la participación de la industria". Senador Scott Wiener . 2024-08-16 . Consultado el 2024-08-17 .
- ^ escritor, Troy Wolverton | Personal del Examiner (29 de agosto de 2024). "La legislatura aprueba el controvertido proyecto de ley de seguridad de la IA de Wiener". San Francisco Examiner . Consultado el 30 de agosto de 2024 .
- ^ "Votos del proyecto de ley - SB-1047 Ley de innovación segura para modelos de inteligencia artificial de vanguardia". leginfo.legislature.ca.gov . Consultado el 4 de septiembre de 2024 .
- ^ Lee, Wendy (29 de septiembre de 2024). "El gobernador Gavin Newsom veta el proyecto de ley de seguridad de la IA al que se opone Silicon Valley". Los Angeles Times . Consultado el 29 de septiembre de 2024 .
- ^ Times, Financial (7 de junio de 2024). "Protestas de las grandes empresas de inteligencia artificial por el proyecto de ley de "interruptor de apagado" de la inteligencia artificial en California". Ars Technica . Consultado el 30 de agosto de 2024 .
- ^ ab Lessig, Lawrence (30 de agosto de 2024). "Las grandes tecnológicas tienen mucho miedo de un proyecto de ley de seguridad de la IA muy modesto". The Nation . Consultado el 3 de septiembre de 2024 .
- ^ ab "01/07/24 - Análisis del proyecto de ley sobre el poder judicial de la Asamblea". Información legislativa de California .
- ^ "Análisis de la revisión del 3 de julio de la ley SB 1047". Contexto Fondo .
- ^ ab Johnson, Khari (12 de agosto de 2024). "Por qué Silicon Valley se esfuerza tanto por acabar con este proyecto de ley de inteligencia artificial en California". CalMatters . Consultado el 12 de agosto de 2024 .
- ^ ab Goldman, Sharon. "Es la lucha entre "tiburones y aviones" de la IA: bienvenidos a la lucha por el proyecto de ley de seguridad de la IA de California". Fortune . Consultado el 29 de julio de 2024 .
- ^ ab "Interpretaciones erróneas del proyecto de ley de seguridad de la IA de California". Brookings . Consultado el 2 de octubre de 2024 .
- ^ Bengio, Yoshua. "Yoshua Bengio: el proyecto de ley de seguridad de la IA de California protegerá a los consumidores y la innovación". Fortune . Consultado el 17 de agosto de 2024 .
- ^ Kokalitcheva, Kia (26 de junio de 2024). "La presión de seguridad de la IA en California". Axios .
- ^ Coldewey, Devin (26 de agosto de 2024). "Elon Musk ofrece inesperadamente su apoyo al proyecto de ley de inteligencia artificial de California". TechCrunch . Consultado el 27 de agosto de 2024 .
- ^ de Blasio, Bill (24 de agosto de 2024). "Publicación X". X .
- ^ Riquelmy, Alan (14 de agosto de 2024). "El proyecto de ley de regulación de la inteligencia artificial en California se dirige a una audiencia de aprobación obligatoria". Courthouse News Service . Consultado el 15 de agosto de 2024 .
- ^ Metz, Cade (14 de agosto de 2024). "El proyecto de ley sobre inteligencia artificial de California genera alarma en Silicon Valley". New York Times . Consultado el 22 de agosto de 2024 .
- ^ Jamal, Nynu V. (27 de agosto de 2024). "El audaz proyecto de ley de seguridad de la IA de California: Buterin, Musk respaldan, OpenAI cautelosos". Edición de monedas . Consultado el 27 de agosto de 2024 .
- ^ Zeff, Maxwell (23 de agosto de 2024). "'Decepcionados pero no sorprendidos': ex empleados hablan sobre la oposición de OpenAI a la SB 1047". TechCrunch . Consultado el 23 de agosto de 2024 .
- ^ ab Pillay, Tharin (7 de agosto de 2024). "Reconocidos expertos apoyan el proyecto de ley de seguridad de la IA de California". TIME . Consultado el 8 de agosto de 2024 .
- ^ "Comité Permanente de la Asamblea sobre Privacidad y Protección del Consumidor". CalMatters . Consultado el 8 de agosto de 2024 .
- ^ "Docenas de trabajadores de inteligencia artificial se oponen a sus empleadores y firman una carta en apoyo del proyecto de ley de inteligencia artificial de Wiener". The San Francisco Standard . 2024-09-09 . Consultado el 2024-09-10 .
- ^ Korte, Lara; Gardiner, Dustin (17 de septiembre de 2024). "Actúa con naturalidad". Político .
- ^ "Llamado al liderazgo". Llamado al liderazgo . Consultado el 10 de septiembre de 2024 .
- ^ abc Samuel, Sigal (5 de agosto de 2024). "Es prácticamente imposible gestionar una gran empresa de inteligencia artificial de forma ética". Vox . Consultado el 6 de agosto de 2024 .
- ^ DiFeliciantonio, Chase (28 de junio de 2024). "Las empresas de inteligencia artificial pidieron una regulación. Ahora que está llegando, algunas están furiosas". San Francisco Chronicle .
- ^ Korte, Lara (12 de febrero de 2024). "Una batalla inminente sobre la IA". Político .
- ^ abc Edwards, Benj (29 de julio de 2024). "De la ciencia ficción a la ley estatal: el plan de California para prevenir la catástrofe de la IA". Ars Technica . Consultado el 30 de julio de 2024 .
- ^ El consejo editorial de The Times (22 de agosto de 2024). «Editorial: Por qué California debería liderar la regulación de la IA». Los Angeles Times . Consultado el 23 de agosto de 2024 .
- ^ Lovely, Garrison (12 de septiembre de 2024). "El sindicato de actores y los grupos de mujeres presionan a Gavin Newsom para que firme el proyecto de ley de seguridad de la IA". The Verge . Consultado el 12 de septiembre de 2024 .
- ^ Lee, Wendy (24 de septiembre de 2024). "Mark Hamill, Jane Fonda y JJ Abrams instan al gobernador Newsom a firmar el proyecto de ley de seguridad de la IA". LA Times . Consultado el 24 de septiembre de 2024 .
- ^ Li, Fei-Fei. "'La madrina de la IA' dice que el proyecto de ley de IA bien intencionado de California dañará el ecosistema estadounidense". Fortune . Consultado el 8 de agosto de 2024 .
- ^ "Oleada de oposición al proyecto de ley de inteligencia artificial de California a medida que se acerca la votación". Pirate Wires . 13 de agosto de 2024 . Consultado el 12 de noviembre de 2024 .
- ^ abc "Análisis de impacto de la SB 1047". Contexto Fondo .
- ^ "Comité Judicial de la Asamblea 2024-07-02". Asamblea del Estado de California .
- ^ "Socios Corporativos". Cámara del Progreso .
- ^ "Miembros". Asociación de la Industria de Computación y Comunicaciones .
- ^ "Miembros". TechNet .
- ^ ab Korte, Lara (26 de junio de 2024). "Las grandes tecnológicas y el ciudadano común". Politico .
- ^ Zeff, Maxwell (21 de agosto de 2024). "La oposición de OpenAI al proyecto de ley de inteligencia artificial de California 'no tiene sentido', dice un senador estatal". TechCrunch . Consultado el 23 de agosto de 2024 .
- ^ Waters, John K. (26 de agosto de 2024). "Anthropic anuncia un apoyo cauteloso a la nueva legislación de regulación de la IA en California -". Campus Technology . Consultado el 12 de noviembre de 2024 .
- ^ "La pequeña tecnología trae una gran flexibilidad a Sacramento". Politico .
- ^ "Propuesta de ley en California busca proteger al público de catástrofes de inteligencia artificial". The Mercury News . 25 de julio de 2024.
- ^ "Proyecto de ley 1047 del Senado de California: lo que necesita saber". Andreessen Horowitz .
- ^ "El proyecto de ley de inteligencia artificial de California socava los logros del sector". Financial Times .
- ^ "El proyecto de ley 1047 del Senado aplastará la innovación en inteligencia artificial en California". Orange County Register . 10 de julio de 2024.
- ^ "Empresas emergentes de inteligencia artificial presionan para limitar o eliminar el proyecto de ley de seguridad pública de California". Bloomberg Law .
- ^ "The Batch: número 257". Deeplearning.ai . 10 de julio de 2024.
- ^ "La niebla de seguridad de la IA en la guerra". Politico . 2024-05-02.
- ^ "Anthropic dice que los beneficios del proyecto de ley de inteligencia artificial de California probablemente superen los costos". Reuters . 2024-08-23 . Consultado el 2024-08-23 .
- ^ Smith, Noah (29 de agosto de 2024). "El director ejecutivo de Anthropic, Dario Amodei, habla sobre la foso de la IA, el riesgo y la SB 1047". "ECON 102" con Noah Smith y Erik Torenberg (podcast). El evento ocurre a las 55:13 . Consultado el 3 de septiembre de 2024 .
- ^ Coldewey, Devin (26 de agosto de 2024). "Elon Musk ofrece inesperadamente su apoyo al proyecto de ley de inteligencia artificial de California". TechCrunch . Consultado el 27 de agosto de 2024 .
- ^ "Docenas de trabajadores de inteligencia artificial se oponen a sus empleadores y firman una carta en apoyo del proyecto de ley de inteligencia artificial de Wiener". The San Francisco Standard . 2024-09-09 . Consultado el 2024-09-10 .
- ^ "Llamado al liderazgo". Llamado al liderazgo . Consultado el 10 de septiembre de 2024 .
- ^ Piper, Kelsey (19 de julio de 2024). "Dentro de la lucha por el nuevo proyecto de ley de inteligencia artificial de California". Vox . Consultado el 29 de julio de 2024 .
- ^ Piper, Kelsey (14 de junio de 2024). "El proyecto de ley sobre inteligencia artificial que ha hecho entrar en pánico a las grandes tecnológicas". Vox . Consultado el 29 de julio de 2024 .
- ^ Robertson, Derek (6 de mayo de 2024). "Encuesta exclusiva: los estadounidenses están a favor de la regulación de los datos de inteligencia artificial". Politico . Consultado el 18 de agosto de 2024 .
- ^ abcd Lovely, Garrison (28 de agosto de 2024). "La industria tecnológica utiliza encuestas para detener el proyecto de ley de inteligencia artificial de California". The American Prospect . Consultado el 12 de noviembre de 2024 .
- ^ Bordelon, Brendan. "Lo que Kamala Harris significa para la tecnología". POLITICO Pro . (se requiere suscripción)
- ^ "Nueva encuesta: los votantes de California, incluidos los trabajadores del sector tecnológico, apoyan firmemente el proyecto de ley SB1047 sobre regulación de la inteligencia artificial". Instituto de Política de Inteligencia Artificial . 22 de julio de 2024.
- ^ Sullivan, Mark (8 de agosto de 2024). "El chatbot Grok de Elon Musk difundió desinformación electoral". Fast Company . Consultado el 13 de agosto de 2024 .
- ^ "Encuesta: los californianos apoyan una versión fuerte de la SB1047, pero no están de acuerdo con los cambios propuestos por Anthropic". Instituto de Política de Inteligencia Artificial . 7 de agosto de 2024 . Consultado el 13 de agosto de 2024 .
- ^ Gardiner, Dustin (28 de agosto de 2024). "El papel suplente reducido de Newsom". Politico .
- ^ "Encuesta: 7 de cada 10 californianos apoyan la SB1047 y culparán al gobernador Newsom por la catástrofe provocada por la IA si la veta". Instituto de Política de Inteligencia Artificial . 16 de agosto de 2024 . Consultado el 28 de agosto de 2024 .
- ^ "Una nueva encuesta nacional de YouGov muestra un 80 % de apoyo a la SB 1047 y la seguridad de la IA". Proyecto de seguridad económica Acción . Consultado el 19 de septiembre de 2024 .
- ^ "Encuesta de votantes probables de California: Resumen de la investigación de opinión pública". Investigación de David Binder.
- ^ Lee, Wendy (19 de junio de 2024). "Los legisladores de California están intentando regular la IA antes de que sea demasiado tarde. Aquí te contamos cómo". Los Angeles Times .
- ^ Piper, Kelsey (19 de julio de 2024). "Dentro de la lucha por el nuevo proyecto de ley de inteligencia artificial de California". Vox . Consultado el 22 de julio de 2024 .
- ^ "El proyecto de ley de inteligencia artificial del senador Wiener se aprueba en la Asamblea". Oficina del senador Wiener. 29 de agosto de 2024.
- ^ abcde "Carta de veto de Gavin Newsome sobre la ley SB 1047" (PDF) . Oficina del Gobernador.
- ^ "La adaptabilidad es fundamental en nuestra carrera por regular una tecnología que aún está en sus inicios. Esto requerirá un delicado equilibrio. Si bien tiene buenas intenciones, la SB 1047 no tiene en cuenta si un sistema de inteligencia artificial se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales. En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que un sistema de gran tamaño lo implemente. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología".
- ^ "Al centrarse únicamente en los modelos más caros y de mayor escala, la SB 1047 establece un marco regulatorio que podría dar al público una falsa sensación de seguridad sobre el control de esta tecnología de rápido avance. Los modelos más pequeños y especializados pueden resultar igual o incluso más peligrosos que los modelos a los que se dirige la SB 1047, a costa de limitar la innovación misma que impulsa el avance en favor del bien público".
- ^ "Quiero ser claro: estoy de acuerdo con el autor: no podemos permitirnos el lujo de esperar a que ocurra una catástrofe importante antes de tomar medidas para proteger al público. California no abandonará su responsabilidad. Se deben adoptar protocolos de seguridad. Se deben implementar medidas de seguridad proactivas y las consecuencias severas para los malos actores deben ser claras y ejecutables".
- ^ "La adaptabilidad es fundamental en nuestra carrera por regular una tecnología que aún está en sus inicios. Esto requerirá un delicado equilibrio. Si bien tiene buenas intenciones, la SB 1047 no tiene en cuenta si un sistema de inteligencia artificial se implementa en entornos de alto riesgo, implica la toma de decisiones críticas o el uso de datos confidenciales. En cambio, el proyecto de ley aplica estándares estrictos incluso a las funciones más básicas, siempre que un sistema de gran tamaño lo implemente. No creo que este sea el mejor enfoque para proteger al público de las amenazas reales que plantea la tecnología".
- ^ Newsom, Gavin (29 de septiembre de 2024). "El gobernador Newsom anuncia nuevas iniciativas para promover una inteligencia artificial segura y responsable y proteger a los californianos". Gobernador Gavin Newsom . Consultado el 29 de septiembre de 2024 .
Enlaces externos
- Seguimiento de facturas CalMatters
- Sitio web de apoyo a Economic Security California Action, Center for AI Safety Action Fund y Encode Justice
- Sitio web de la oposición Andreessen Horowitz