El 30 de mayo de 2023, cientos de expertos en inteligencia artificial y otras figuras notables firmaron la siguiente breve Declaración sobre el riesgo de la IA : [1] [2] [3]
Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.
En el momento de su publicación, los firmantes incluían a más de 100 profesores de IA , incluidos los dos científicos informáticos más citados y premios Turing Geoffrey Hinton y Yoshua Bengio , así como los líderes científicos y ejecutivos de varias empresas importantes de IA y expertos en pandemias, clima, desarme nuclear, filosofía, ciencias sociales y otros campos. [1] [2] [4] La cobertura de los medios ha enfatizado las firmas de varios líderes tecnológicos; [2] esto fue seguido por preocupaciones en otros periódicos de que la declaración podría estar motivada por las relaciones públicas o la captura regulatoria. [5] La declaración se publicó poco después de una carta abierta que pedía una pausa en los experimentos de IA .
La declaración está alojada en el sitio web de la organización sin fines de lucro Center for AI Safety, dedicada a la investigación y la defensa de la IA . Se publicó con un texto adjunto que afirma que todavía es difícil hablar abiertamente sobre los riesgos extremos de la IA y que la declaración tiene como objetivo superar este obstáculo. [1] El director ejecutivo del centro, Dan Hendrycks, afirmó que "el sesgo sistémico, la desinformación, el uso malintencionado, los ciberataques y la utilización de armas" son todos ejemplos de "riesgos importantes y urgentes de la IA... no solo el riesgo de extinción" y agregó: "[L]as sociedades pueden gestionar múltiples riesgos a la vez; no se trata de 'o esto o aquello' sino de 'sí/y ' " . [6] [4]
Entre los firmantes más conocidos se encuentran: Sam Altman , Bill Gates , Peter Singer , Daniel Dennett , Sam Harris , Grimes , Stuart J. Russell , Jaan Tallinn , Vitalik Buterin , David Chalmers , Ray Kurzweil , Max Tegmark , Lex Fridman , Martin Rees , Demis Hassabis , Dawn Song , Ted Lieu , Ilya Sutskever , Martin Hellman , Bill McKibben , Angela Kane , Audrey Tang , David Silver , Andrew Barto , Mira Murati , Pattie Maes , Eric Horvitz , Peter Norvig , Joseph Sifakis , Erik Brynjolfsson , Ian Goodfellow , Baburam Bhattarai , Kersti Kaljulaid , Rusty Schweickart , Nicholas Fairfax , David Haussler , Peter Railton , Bart Selman. , Dustin Moskovitz , Scott Aaronson , Bruce Schneier , Martha Minow , Andrew Revkin , Rob Pike , Jacob Tsimerman , Ramy Youssef , James Pennebaker y Ronald C. Arkin . [7]
El primer ministro del Reino Unido , Rishi Sunak , retuiteó la declaración y escribió: "El gobierno está analizando esto con mucha atención". [8] Cuando se le preguntó sobre la declaración, la secretaria de prensa de la Casa Blanca , Karine Jean-Pierre , comentó que la IA "es una de las tecnologías más poderosas que vemos actualmente en nuestro tiempo. Pero para aprovechar las oportunidades que presenta, primero debemos mitigar sus riesgos". [9]
Los escépticos de la carta señalan que la IA no ha logrado alcanzar ciertos hitos, como las predicciones sobre los coches autónomos . [4] Los escépticos también argumentan que los firmantes de la carta seguían financiando la investigación de la IA. [3] Las empresas se beneficiarían de la percepción pública de que los algoritmos de IA eran mucho más avanzados de lo que es posible actualmente. [3] Los escépticos, incluidos los de Human Rights Watch , han argumentado que los científicos deberían centrarse en los riesgos conocidos de la IA en lugar de distraerse con riesgos futuros especulativos. [10] [3] Timnit Gebru ha criticado la elevación del riesgo de la agencia de la IA, especialmente por parte de las "mismas personas que han invertido miles de millones de dólares en estas empresas". [10] Émile P. Torres y Gebru argumentan en contra de la declaración, sugiriendo que puede estar motivada por ideologías TESCREAL . [11]