stringtranslate.com

Carta abierta sobre la inteligencia artificial (2015)

En enero de 2015, Stephen Hawking , Elon Musk y docenas de expertos en inteligencia artificial [1] firmaron una carta abierta sobre inteligencia artificial [2] en la que pedían que se investigara el impacto social de la IA. La carta afirmaba que la sociedad puede obtener grandes beneficios potenciales de la inteligencia artificial, pero pedía una investigación concreta sobre cómo prevenir ciertos posibles "escollos": la inteligencia artificial tiene el potencial de erradicar enfermedades y pobreza, pero los investigadores no deben crear algo que sea inseguro o incontrolable . [1] La carta de cuatro párrafos, titulada " Prioridades de investigación para una inteligencia artificial robusta y beneficiosa: una carta abierta ", establece prioridades de investigación detalladas en un documento adjunto de doce páginas. [3]

Fondo

En 2014, tanto el físico Stephen Hawking como el magnate de los negocios Elon Musk habían expresado públicamente su opinión de que la inteligencia artificial sobrehumana podría proporcionar beneficios incalculables, pero también podría acabar con la raza humana si se utilizaba sin cautela. En ese momento, Hawking y Musk formaban parte del consejo asesor científico del Future of Life Institute , una organización que trabaja para "mitigar los riesgos existenciales que enfrenta la humanidad". El instituto redactó una carta abierta dirigida a la comunidad de investigación de IA en general [4] y la distribuyó entre los asistentes a su primera conferencia en Puerto Rico durante el primer fin de semana de 2015 [5]. La carta se hizo pública el 12 de enero [6].

Objetivo

La carta destaca tanto los efectos positivos como negativos de la inteligencia artificial. [7] Según Bloomberg Business , el profesor Max Tegmark del MIT hizo circular la carta con el fin de encontrar puntos en común entre los firmantes que consideran que la IA superinteligente es un riesgo existencial significativo , y firmantes como el profesor Oren Etzioni , que creen que el campo de la IA estaba siendo "impugnado" por un enfoque mediático unilateral sobre los supuestos riesgos. [6] La carta sostiene que:

Los beneficios potenciales (de la IA) son enormes, ya que todo lo que la civilización tiene para ofrecer es producto de la inteligencia humana; no podemos predecir lo que podríamos lograr cuando esta inteligencia se magnifique con las herramientas que la IA pueda proporcionar, pero la erradicación de las enfermedades y la pobreza no es inimaginable. Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios evitando posibles obstáculos. [8]

Uno de los firmantes, el profesor Bart Selman de la Universidad de Cornell , dijo que el objetivo es lograr que los investigadores y desarrolladores de IA presten más atención a la seguridad de la IA. Además, para los responsables de las políticas y el público en general, la carta pretende ser informativa, pero no alarmista. [4] Otra firmante, la profesora Francesca Rossi , afirmó que "creo que es muy importante que todo el mundo sepa que los investigadores de IA están pensando seriamente en estas preocupaciones y cuestiones éticas". [9]

Preocupaciones que suscita la carta

Los firmantes preguntan: ¿Cómo pueden los ingenieros crear sistemas de IA que sean beneficiosos para la sociedad y que sean robustos? Los humanos deben seguir teniendo el control de la IA ; nuestros sistemas de IA deben "hacer lo que queremos que hagan". [1] La investigación requerida es interdisciplinaria y se basa en áreas que van desde la economía y el derecho hasta varias ramas de la informática , como la seguridad informática y la verificación formal . Los desafíos que surgen se dividen en verificación ("¿Construí el sistema correctamente?"), validez ("¿Construí el sistema correcto?"), seguridad y control ("Está bien, construí el sistema mal, ¿puedo arreglarlo?"). [10]

Preocupaciones a corto plazo

Algunas preocupaciones a corto plazo se refieren a los vehículos autónomos, desde los drones civiles hasta los coches autónomos . Por ejemplo, un coche autónomo puede tener que decidir, en caso de emergencia, entre un pequeño riesgo de accidente grave y una gran probabilidad de que se produzca un accidente menor. Otras preocupaciones se refieren a las armas autónomas inteligentes y letales: ¿deberían prohibirse? Si es así, ¿cómo debería definirse con precisión la "autonomía"? Si no, ¿cómo debería distribuirse la culpabilidad por cualquier mal uso o mal funcionamiento?

Otras cuestiones incluyen preocupaciones sobre la privacidad a medida que la IA se vuelve cada vez más capaz de interpretar grandes conjuntos de datos de vigilancia, y cómo gestionar mejor el impacto económico de los empleos reemplazados por la IA. [4]

Preocupaciones a largo plazo

El documento concluye haciéndose eco de las preocupaciones del director de investigación de Microsoft, Eric Horvitz , de que:

Un día podríamos perder el control de los sistemas de IA debido al surgimiento de superinteligencias que no actúen de acuerdo con los deseos humanos, y esos sistemas poderosos amenazarían a la humanidad. ¿Son posibles esos resultados distópicos? Si es así, ¿cómo podrían surgir esas situaciones? ... ¿Qué tipo de inversiones en investigación deberían realizarse para comprender mejor y abordar la posibilidad del surgimiento de una superinteligencia peligrosa o la ocurrencia de una "explosión de inteligencia"?

Las herramientas existentes para aprovechar la IA, como el aprendizaje de refuerzo y las funciones de utilidad simples, son inadecuadas para resolver este problema; por lo tanto, se necesita más investigación para encontrar y validar una solución sólida al "problema de control". [10]

Firmantes

Entre los firmantes se incluyen el físico Stephen Hawking , el magnate de negocios Elon Musk , los empresarios detrás de DeepMind y Vicarious , el director de investigación de Google , Peter Norvig , [1] el profesor Stuart J. Russell de la Universidad de California, Berkeley , [11] y otros expertos en IA, fabricantes de robots, programadores y especialistas en ética. [12] El recuento original de firmantes fue de más de 150 personas, [13] incluidos académicos de Cambridge, Oxford, Stanford, Harvard y MIT. [14]

Notas

  1. ^ abcd Sparkes, Matthew (13 de enero de 2015). «Los principales científicos piden cautela con respecto a la inteligencia artificial». The Telegraph (Reino Unido) . Consultado el 24 de abril de 2015 .
  2. ^ "FLI - Future of Life Institute | Carta abierta sobre IA". 2 de noviembre de 2015. Archivado desde el original el 2 de noviembre de 2015. Consultado el 9 de julio de 2024 .
  3. ^ Russell, Stuart; Dewey, Daniel; Tegmar, Max (23 de enero de 2015). "Prioridades de investigación para una inteligencia artificial robusta y beneficiosa" (PDF) . Archivado (PDF) desde el original el 1 de diciembre de 2015.
  4. ^ abc Chung, Emily (13 de enero de 2015). «La IA debe centrarse en la seguridad, dicen Stephen Hawking y otros investigadores». Canadian Broadcasting Corporation . Consultado el 24 de abril de 2015 .
  5. ^ McMillan, Robert (16 de enero de 2015). "La IA ha llegado y eso preocupa a las mentes más brillantes del mundo". Wired . Consultado el 24 de abril de 2015 .
  6. ^ de Dina Bass; Jack Clark (4 de febrero de 2015). "¿Tiene razón Elon Musk sobre la IA? Los investigadores no lo creen". Bloomberg Business . Consultado el 24 de abril de 2015 .
  7. ^ Bradshaw, Tim (12 de enero de 2015). "Científicos e inversores advierten sobre la IA". The Financial Times . Consultado el 24 de abril de 2015. En lugar de generar miedo, la carta se preocupa por destacar tanto los efectos positivos como los negativos de la inteligencia artificial.
  8. ^ "Prioridades de investigación para una inteligencia artificial robusta y beneficiosa: una carta abierta". Future of Life Institute . Consultado el 24 de abril de 2015 .
  9. ^ "Grandes científicos firman una carta abierta detallando los peligros de la IA". New Scientist . 14 de enero de 2015 . Consultado el 24 de abril de 2015 .
  10. ^ ab "Prioridades de investigación para una inteligencia artificial robusta y beneficiosa" (PDF) . Future of Life Institute . 23 de enero de 2015. Consultado el 24 de abril de 2015 .
  11. ^ Wolchover, Natalie (21 de abril de 2015). "Preocupaciones de un pionero de la inteligencia artificial". Revista Quanta . Consultado el 24 de abril de 2015 .
  12. ^ "Los expertos se comprometen a frenar la investigación en IA". BBC News . 12 de enero de 2015 . Consultado el 24 de abril de 2015 .
  13. ^ Hern, Alex (12 de enero de 2015). "Expertos como Elon Musk piden que se realicen investigaciones para evitar los 'escollos' de la IA". The Guardian . Consultado el 24 de abril de 2015 .
  14. ^ Griffin, Andrew (12 de enero de 2015). «Stephen Hawking, Elon Musk y otros piden que se investigue para evitar los peligros de la inteligencia artificial» . The Independent . Archivado desde el original el 24 de mayo de 2022. Consultado el 24 de abril de 2015 .

Enlaces externos