En enero de 2015, Stephen Hawking , Elon Musk y docenas de expertos en inteligencia artificial [1] firmaron una carta abierta sobre inteligencia artificial [2] en la que pedían que se investigara el impacto social de la IA. La carta afirmaba que la sociedad puede obtener grandes beneficios potenciales de la inteligencia artificial, pero pedía una investigación concreta sobre cómo prevenir ciertos posibles "escollos": la inteligencia artificial tiene el potencial de erradicar enfermedades y pobreza, pero los investigadores no deben crear algo que sea inseguro o incontrolable . [1] La carta de cuatro párrafos, titulada " Prioridades de investigación para una inteligencia artificial robusta y beneficiosa: una carta abierta ", establece prioridades de investigación detalladas en un documento adjunto de doce páginas. [3]
En 2014, tanto el físico Stephen Hawking como el magnate de los negocios Elon Musk habían expresado públicamente su opinión de que la inteligencia artificial sobrehumana podría proporcionar beneficios incalculables, pero también podría acabar con la raza humana si se utilizaba sin cautela. En ese momento, Hawking y Musk formaban parte del consejo asesor científico del Future of Life Institute , una organización que trabaja para "mitigar los riesgos existenciales que enfrenta la humanidad". El instituto redactó una carta abierta dirigida a la comunidad de investigación de IA en general [4] y la distribuyó entre los asistentes a su primera conferencia en Puerto Rico durante el primer fin de semana de 2015 [5]. La carta se hizo pública el 12 de enero [6].
La carta destaca tanto los efectos positivos como negativos de la inteligencia artificial. [7] Según Bloomberg Business , el profesor Max Tegmark del MIT hizo circular la carta con el fin de encontrar puntos en común entre los firmantes que consideran que la IA superinteligente es un riesgo existencial significativo , y firmantes como el profesor Oren Etzioni , que creen que el campo de la IA estaba siendo "impugnado" por un enfoque mediático unilateral sobre los supuestos riesgos. [6] La carta sostiene que:
Los beneficios potenciales (de la IA) son enormes, ya que todo lo que la civilización tiene para ofrecer es producto de la inteligencia humana; no podemos predecir lo que podríamos lograr cuando esta inteligencia se magnifique con las herramientas que la IA pueda proporcionar, pero la erradicación de las enfermedades y la pobreza no es inimaginable. Debido al gran potencial de la IA, es importante investigar cómo aprovechar sus beneficios evitando posibles obstáculos. [8]
Uno de los firmantes, el profesor Bart Selman de la Universidad de Cornell , dijo que el objetivo es lograr que los investigadores y desarrolladores de IA presten más atención a la seguridad de la IA. Además, para los responsables de las políticas y el público en general, la carta pretende ser informativa, pero no alarmista. [4] Otra firmante, la profesora Francesca Rossi , afirmó que "creo que es muy importante que todo el mundo sepa que los investigadores de IA están pensando seriamente en estas preocupaciones y cuestiones éticas". [9]
Los firmantes preguntan: ¿Cómo pueden los ingenieros crear sistemas de IA que sean beneficiosos para la sociedad y que sean robustos? Los humanos deben seguir teniendo el control de la IA ; nuestros sistemas de IA deben "hacer lo que queremos que hagan". [1] La investigación requerida es interdisciplinaria y se basa en áreas que van desde la economía y el derecho hasta varias ramas de la informática , como la seguridad informática y la verificación formal . Los desafíos que surgen se dividen en verificación ("¿Construí el sistema correctamente?"), validez ("¿Construí el sistema correcto?"), seguridad y control ("Está bien, construí el sistema mal, ¿puedo arreglarlo?"). [10]
Algunas preocupaciones a corto plazo se refieren a los vehículos autónomos, desde los drones civiles hasta los coches autónomos . Por ejemplo, un coche autónomo puede tener que decidir, en caso de emergencia, entre un pequeño riesgo de accidente grave y una gran probabilidad de que se produzca un accidente menor. Otras preocupaciones se refieren a las armas autónomas inteligentes y letales: ¿deberían prohibirse? Si es así, ¿cómo debería definirse con precisión la "autonomía"? Si no, ¿cómo debería distribuirse la culpabilidad por cualquier mal uso o mal funcionamiento?
Otras cuestiones incluyen preocupaciones sobre la privacidad a medida que la IA se vuelve cada vez más capaz de interpretar grandes conjuntos de datos de vigilancia, y cómo gestionar mejor el impacto económico de los empleos reemplazados por la IA. [4]
El documento concluye haciéndose eco de las preocupaciones del director de investigación de Microsoft, Eric Horvitz , de que:
Un día podríamos perder el control de los sistemas de IA debido al surgimiento de superinteligencias que no actúen de acuerdo con los deseos humanos, y esos sistemas poderosos amenazarían a la humanidad. ¿Son posibles esos resultados distópicos? Si es así, ¿cómo podrían surgir esas situaciones? ... ¿Qué tipo de inversiones en investigación deberían realizarse para comprender mejor y abordar la posibilidad del surgimiento de una superinteligencia peligrosa o la ocurrencia de una "explosión de inteligencia"?
Las herramientas existentes para aprovechar la IA, como el aprendizaje de refuerzo y las funciones de utilidad simples, son inadecuadas para resolver este problema; por lo tanto, se necesita más investigación para encontrar y validar una solución sólida al "problema de control". [10]
Entre los firmantes se incluyen el físico Stephen Hawking , el magnate de negocios Elon Musk , los empresarios detrás de DeepMind y Vicarious , el director de investigación de Google , Peter Norvig , [1] el profesor Stuart J. Russell de la Universidad de California, Berkeley , [11] y otros expertos en IA, fabricantes de robots, programadores y especialistas en ética. [12] El recuento original de firmantes fue de más de 150 personas, [13] incluidos académicos de Cambridge, Oxford, Stanford, Harvard y MIT. [14]
En lugar de generar miedo, la carta se preocupa por destacar tanto los efectos positivos como los negativos de la inteligencia artificial.