stringtranslate.com

Declaración sobre el riesgo de extinción de la IA

El 30 de mayo de 2023, cientos de expertos en inteligencia artificial y otras figuras notables firmaron la siguiente breve Declaración sobre el riesgo de la IA : [1] [2] [3]

Mitigar el riesgo de extinción debido a la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

En el momento de la publicación, entre los firmantes se encontraban más de 100 profesores de IA , incluidos los dos científicos informáticos más citados y premios Turing, Geoffrey Hinton y Yoshua Bengio , así como líderes científicos y ejecutivos de varias empresas importantes de IA, y expertos en pandemias, clima, desarme nuclear, filosofía, ciencias sociales y otros campos. [1] [2] [4] La cobertura de los medios ha enfatizado las firmas de varios líderes tecnológicos; [2] A esto le siguieron preocupaciones en otros periódicos de que la declaración podría estar motivada por relaciones públicas o captura regulatoria. [5] La declaración se publicó poco después de una carta abierta que pedía una pausa en los experimentos de IA .

La declaración está alojada en el sitio web del Centro para la Seguridad de la IA, una organización sin fines de lucro de investigación y defensa de la IA . Se publicó con un texto adjunto que afirma que todavía es difícil hablar sobre los riesgos extremos de la IA y que la declaración tiene como objetivo superar este obstáculo. [1] El director ejecutivo del centro, Dan Hendrycks, afirmó que "el sesgo sistémico, la desinformación, el uso malicioso, los ciberataques y el uso de armas" son todos ejemplos de "riesgos importantes y urgentes de la IA... no sólo el riesgo de extinción" y añadió: "[ Las sociedades pueden gestionar múltiples riesgos a la vez; no es 'esto o lo otro' sino 'sí/y ' " [6] [4]

El primer ministro del Reino Unido , Rishi Sunak , retuiteó la declaración y escribió: "El gobierno está analizando esto con mucha atención". [7] Cuando se le preguntó sobre la declaración, la Secretaria de Prensa de la Casa Blanca , Karine Jean-Pierre , comentó que la IA "es una de las tecnologías más poderosas que vemos actualmente en nuestro tiempo. Pero para aprovechar las oportunidades que presenta, debemos "Primero debemos mitigar sus riesgos". [8]

Entre los firmantes conocidos se encuentran: Sam Altman , Bill Gates , Peter Singer , Daniel Dennett , Sam Harris , Grimes , Stuart J. Russell , Jaan Tallinn , Vitalik Buterin , David Chalmers , Ray Kurzweil , Max Tegmark , Lex Fridman , Martin Rees , Demis Hassabis , Dawn Song , Ted Lieu , Ilya Sutskever , Martin Hellman , Bill McKibben , Angela Kane , Audrey Tang , David Silver , Andrew Barto , Mira Murati , Pattie Maes , Eric Horvitz , Peter Norvig , Joseph Sifakis , Erik Brynjolfsson , Ian Goodfellow , Baburam Bhattarai , Kersti Kaljulaid , Rusty Schweickart , Nicholas Fairfax , David Haussler , Peter Railton , Bart Selman , Dustin Moskovitz , Scott Aaronson , Bruce Schneier , Martha Minow , Andrew Revkin , Rob Pike , Jacob Tsimerman , Ramy Youssef , James Pennebaker y Ronald C. Arkin . [9]

Los escépticos de la carta señalan que la IA no ha logrado alcanzar ciertos hitos, como las predicciones sobre los vehículos autónomos . [4] Los escépticos también argumentan que los firmantes de la carta continuaban financiando la investigación de la IA. [3] Las empresas se beneficiarían de la percepción pública de que los algoritmos de IA son mucho más avanzados de lo que es posible actualmente. [3] Los escépticos, incluidos los de Human Rights Watch , han argumentado que los científicos deberían centrarse en los riesgos conocidos de la IA en lugar de distraerse con riesgos futuros especulativos. [10] [3] Timnit Gebru ha criticado la elevación del riesgo de la agencia de IA, especialmente por parte de las "mismas personas que han invertido miles de millones de dólares en estas empresas". [10] Émile P. Torres y Gebru argumentan en contra de la declaración, sugiriendo que puede estar motivada por ideologías TESCREAL [11] .

Ver también

Referencias

  1. ^ abc "Declaración sobre el riesgo de la IA". Centro para la seguridad de la IA . 30 de mayo de 2023.
  2. ^ abc Roose, Kevin (30 de mayo de 2023). "La IA plantea 'riesgo de extinción', advierten los líderes de la industria". Los New York Times . ISSN  0362-4331 . Consultado el 30 de mayo de 2023 .
  3. ^ abcd Gregg, Aaron; Lima-Fuerte, Cristiano; Vynck, Gerrit De (31 de mayo de 2023). "La IA plantea un 'riesgo de extinción' similar al de las armas nucleares, dicen los líderes tecnológicos". Correo de Washington . ISSN  0190-8286 . Consultado el 3 de julio de 2024 .
  4. ^ abc Vincent, James (30 de mayo de 2023). "Los principales investigadores y directores ejecutivos de IA advierten contra el 'riesgo de extinción' en una declaración de 22 palabras". El borde . Consultado el 3 de julio de 2024 .
  5. ^ Wong, Matteo (2 de junio de 2023). "El doomerismo de la IA es un señuelo". El Atlántico . Consultado el 26 de diciembre de 2023 .
  6. ^ Lomas, Natasha (30 de mayo de 2023). "Altman de OpenAI y otros gigantes de la IA respaldan la advertencia sobre la IA avanzada como riesgo de 'extinción'". TechCrunch . Consultado el 30 de mayo de 2023 .
  7. ^ "La inteligencia artificial advierte sobre la extinción humana: todo lo que necesitas saber". El Independiente . 2023-05-31 . Consultado el 3 de junio de 2023 .
  8. ^ "El presidente Biden advierte que la inteligencia artificial podría 'superar el pensamiento humano'". EE.UU. HOY . Consultado el 3 de junio de 2023 .
  9. ^ "Declaración sobre el riesgo de la IA | CAIS". www.safe.ai. ​Consultado el 18 de marzo de 2024 .
  10. ^ ab Ryan-Mosley, Tate (12 de junio de 2023). "Es hora de hablar de los riesgos reales de la IA". Revisión de tecnología del MIT . Consultado el 3 de julio de 2024 .
  11. ^ Torres, Émile P. (11 de junio de 2023). "La IA y la amenaza de la" extinción humana ": ¿Qué les preocupa a los técnicos? No somos tú y yo". Salón . Consultado el 3 de julio de 2024 .