stringtranslate.com

Declaración sobre el riesgo de extinción de la IA

El 30 de mayo de 2023, cientos de expertos en inteligencia artificial y otras figuras notables firmaron la siguiente breve Declaración sobre el riesgo de la IA : [1] [2] [3]

Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

En el momento de su publicación, los firmantes incluían a más de 100 profesores de IA , incluidos los dos científicos informáticos más citados y premios Turing Geoffrey Hinton y Yoshua Bengio , así como los líderes científicos y ejecutivos de varias empresas importantes de IA y expertos en pandemias, clima, desarme nuclear, filosofía, ciencias sociales y otros campos. [1] [2] [4] La cobertura de los medios ha enfatizado las firmas de varios líderes tecnológicos; [2] esto fue seguido por preocupaciones en otros periódicos de que la declaración podría estar motivada por las relaciones públicas o la captura regulatoria. [5] La declaración se publicó poco después de una carta abierta que pedía una pausa en los experimentos de IA .

La declaración está alojada en el sitio web de la organización sin fines de lucro Center for AI Safety, dedicada a la investigación y la defensa de la IA . Se publicó con un texto adjunto que afirma que todavía es difícil hablar abiertamente sobre los riesgos extremos de la IA y que la declaración tiene como objetivo superar este obstáculo. [1] El director ejecutivo del centro, Dan Hendrycks, afirmó que "el sesgo sistémico, la desinformación, el uso malintencionado, los ciberataques y la utilización de armas" son todos ejemplos de "riesgos importantes y urgentes de la IA... no solo el riesgo de extinción" y agregó: "[L]as sociedades pueden gestionar múltiples riesgos a la vez; no se trata de 'o esto o aquello' sino de 'sí/y ' " . [6] [4]

Entre los firmantes más conocidos se encuentran: Sam Altman , Bill Gates , Peter Singer , Daniel Dennett , Sam Harris , Grimes , Stuart J. Russell , Jaan Tallinn , Vitalik Buterin , David Chalmers , Ray Kurzweil , Max Tegmark , Lex Fridman , Martin Rees , Demis Hassabis , Dawn Song , Ted Lieu , Ilya Sutskever , Martin Hellman , Bill McKibben , Angela Kane , Audrey Tang , David Silver , Andrew Barto , Mira Murati , Pattie Maes , Eric Horvitz , Peter Norvig , Joseph Sifakis , Erik Brynjolfsson , Ian Goodfellow , Baburam Bhattarai , Kersti Kaljulaid , Rusty Schweickart , Nicholas Fairfax , David Haussler , Peter Railton , Bart Selman. , Dustin Moskovitz , Scott Aaronson , Bruce Schneier , Martha Minow , Andrew Revkin , Rob Pike , Jacob Tsimerman , Ramy Youssef , James Pennebaker y Ronald C. Arkin . [7]

Recepción

El primer ministro del Reino Unido , Rishi Sunak , retuiteó la declaración y escribió: "El gobierno está analizando esto con mucha atención". [8] Cuando se le preguntó sobre la declaración, la secretaria de prensa de la Casa Blanca , Karine Jean-Pierre , comentó que la IA "es una de las tecnologías más poderosas que vemos actualmente en nuestro tiempo. Pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos". [9]

Los escépticos de la carta señalan que la IA no ha logrado alcanzar ciertos hitos, como las predicciones sobre los coches autónomos . [4] Los escépticos también argumentan que los firmantes de la carta seguían financiando la investigación de la IA. [3] Las empresas se beneficiarían de la percepción pública de que los algoritmos de IA eran mucho más avanzados de lo que es posible actualmente. [3] Los escépticos, incluidos los de Human Rights Watch , han argumentado que los científicos deberían centrarse en los riesgos conocidos de la IA en lugar de distraerse con riesgos futuros especulativos. [10] [3] Timnit Gebru ha criticado la elevación del riesgo de la agencia de la IA, especialmente por parte de las "mismas personas que han invertido miles de millones de dólares en estas empresas". [10] Émile P. Torres y Gebru argumentan en contra de la declaración, sugiriendo que puede estar motivada por ideologías TESCREAL . [11]

Véase también

Referencias

  1. ^ abc "Declaración sobre los riesgos de la IA". Centro para la seguridad de la IA . 30 de mayo de 2023.
  2. ^ abc Roose, Kevin (30 de mayo de 2023). «La IA plantea un «riesgo de extinción», advierten los líderes de la industria». The New York Times . ISSN  0362-4331 . Consultado el 30 de mayo de 2023 .
  3. ^ abcd Gregg, Aaron; Lima-Strong, Cristiano; Vynck, Gerrit De (31 de mayo de 2023). "La IA plantea un 'riesgo de extinción' similar al de las armas nucleares, dicen los líderes tecnológicos". Washington Post . ISSN  0190-8286 . Consultado el 3 de julio de 2024 .
  4. ^ abc Vincent, James (30 de mayo de 2023). "Los principales investigadores y directores ejecutivos de IA advierten sobre el 'riesgo de extinción' en una declaración de 22 palabras". The Verge . Consultado el 3 de julio de 2024 .
  5. ^ Wong, Matteo (2 de junio de 2023). "El catastrofismo de la IA es un señuelo". The Atlantic . Consultado el 26 de diciembre de 2023 .
  6. ^ Lomas, Natasha (30 de mayo de 2023). «Altman de OpenAI y otros gigantes de la IA respaldan la advertencia de que la IA avanzada representa un riesgo de 'extinción'». TechCrunch . Consultado el 30 de mayo de 2023 .
  7. ^ "Declaración sobre los riesgos de la IA | CAIS" www.safe.ai . Consultado el 18 de marzo de 2024 .
  8. ^ "Advertencia de inteligencia artificial sobre la extinción humana: todo lo que necesita saber". The Independent . 2023-05-31 . Consultado el 2023-06-03 .
  9. ^ "El presidente Biden advierte que la inteligencia artificial podría 'superar el pensamiento humano'". USA TODAY . Consultado el 3 de junio de 2023 .
  10. ^ de Ryan-Mosley, Tate (12 de junio de 2023). «Es hora de hablar de los riesgos reales de la IA». MIT Technology Review . Consultado el 3 de julio de 2024 .
  11. ^ Torres, Émile P. (11 de junio de 2023). «La IA y la amenaza de la «extinción humana»: ¿de qué se preocupan los tech-bros? No somos tú y yo». Salon . Consultado el 3 de julio de 2024 .