stringtranslate.com

Declaración sobre el riesgo de extinción de la IA

El 30 de mayo de 2023, cientos de expertos en inteligencia artificial y otras figuras notables firmaron la siguiente breve Declaración sobre el riesgo de la IA : [1] [2]

Mitigar el riesgo de extinción debido a la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

En el momento de la publicación, entre los firmantes se encontraban más de 100 profesores de IA , incluidos los dos científicos informáticos más citados y premios Turing, Geoffrey Hinton y Yoshua Bengio , así como líderes científicos y ejecutivos de varias empresas importantes de IA, y expertos en pandemias, clima, desarme nuclear, filosofía, ciencias sociales y otros campos. [1] [2] La cobertura de los medios ha enfatizado las firmas de varios líderes tecnológicos; [2] A esto le siguieron preocupaciones en otros periódicos de que la declaración podría estar motivada por relaciones públicas o captura regulatoria. [3] La declaración se publicó poco después de una carta abierta que pedía una pausa en los experimentos de IA .

La declaración está alojada en el sitio web del Centro para la Seguridad de la IA, una organización sin fines de lucro de investigación y defensa de la IA . Se publicó con un texto adjunto que afirma que todavía es difícil hablar sobre los riesgos extremos de la IA y que la declaración tiene como objetivo superar este obstáculo. [1] El director ejecutivo del centro, Dan Hendrycks, afirmó que “el sesgo sistémico, la desinformación, el uso malicioso, los ciberataques y el uso de armas” son todos ejemplos de “riesgos importantes y urgentes de la IA… no solo el riesgo de extinción” y agregó: “[s] Las sociedades pueden gestionar múltiples riesgos a la vez; no es 'esto o lo otro' sino 'sí/y'”. [4]

El primer ministro del Reino Unido , Rishi Sunak , retuiteó la declaración y escribió: "El gobierno está analizando esto con mucha atención". [5] Cuando se le preguntó sobre la declaración, la Secretaria de Prensa de la Casa Blanca , Karine Jean-Pierre , comentó que la IA "es una de las tecnologías más poderosas que vemos actualmente en nuestro tiempo. Pero para aprovechar las oportunidades que presenta, debemos "Primero debemos mitigar sus riesgos". [6]

Entre los firmantes conocidos se encuentran: Sam Altman , Bill Gates , Peter Singer , Daniel Dennett , Sam Harris , Grimes , Stuart Russell , Jaan Tallinn , Vitalik Buterin , David Chalmers , Ray Kurzweil , Max Tegmark , Lex Fridman , Martin Rees , Demis. Hassabis , Dawn Song , Ted Lieu , Ilya Sutskever , Martin Hellman , Bill McKibben , Angela Kane , Audrey Tang , David Silver , Andrew Barto , Mira Murati , Pattie Maes , Eric Horvitz , Peter Norvig , Joseph Sifakis , Erik Brynjolfsson , Ian Goodfellow , Baburam Bhattarai , Kersti Kaljulaid , Rusty Schweickart , Nicholas Fairfax, David Haussler , Peter Railton , Bart Selman , Dustin Moskovitz , Scott Aaronson , Bruce Schneier , Martha Minow , Andrew Revkin , Rob Pike , Jacob Tsimerman , Ramy Youssef , James Pennebaker y Ronald C. Arkin . [7]

Ver también

Referencias

  1. ^ abc "Declaración sobre el riesgo de la IA | CAIS". www.safe.ai. ​Consultado el 30 de mayo de 2023 .
  2. ^ abc Roose, Kevin (30 de mayo de 2023). "La IA plantea 'riesgo de extinción', advierten los líderes de la industria". Los New York Times . ISSN  0362-4331 . Consultado el 30 de mayo de 2023 .
  3. ^ Wong, Matteo (2 de junio de 2023). "El doomerismo de la IA es un señuelo". El Atlántico . Consultado el 26 de diciembre de 2023 .
  4. ^ Lomas, Natasha (30 de mayo de 2023). "Altman de OpenAI y otros gigantes de la IA respaldan la advertencia sobre la IA avanzada como riesgo de 'extinción'". TechCrunch . Consultado el 30 de mayo de 2023 .
  5. ^ "La inteligencia artificial advierte sobre la extinción humana: todo lo que necesitas saber". El independiente . 2023-05-31 . Consultado el 3 de junio de 2023 .
  6. ^ "El presidente Biden advierte que la inteligencia artificial podría 'superar el pensamiento humano'". EE.UU. HOY EN DÍA . Consultado el 3 de junio de 2023 .
  7. ^ "Declaración sobre el riesgo de la IA | CAIS". www.safe.ai. ​Consultado el 18 de marzo de 2024 .