stringtranslate.com

Riesgo existencial de la inteligencia artificial general

El riesgo existencial de la inteligencia artificial general es la idea de que un progreso sustancial en la inteligencia artificial general (AGI) podría resultar en la extinción humana o una catástrofe global irreversible . [1] [2] [3]

Un argumento es el siguiente: los seres humanos dominan a otras especies porque el cerebro humano posee capacidades distintivas de las que otros animales carecen. Si la IA superara a la humanidad en inteligencia general y se volviera superinteligente , entonces podría resultar difícil o imposible de controlar. Así como el destino del gorila de montaña depende de la buena voluntad humana, el destino de la humanidad podría depender de las acciones de una futura superinteligencia mecánica. [4]

La plausibilidad de una catástrofe existencial debida a la IA es ampliamente debatida y depende en parte de si se pueden lograr AGI o superinteligencia, la velocidad a la que emergen capacidades y comportamientos peligrosos [5] y si existen escenarios prácticos para las adquisiciones de IA . [6] Las preocupaciones sobre la superinteligencia han sido expresadas por destacados científicos informáticos y directores ejecutivos de tecnología como Geoffrey Hinton , [7] Yoshua Bengio , [8] Alan Turing , [a] Elon Musk , [11] y el director ejecutivo de OpenAI , Sam Altman . [12] En 2022, una encuesta de investigadores de IA con una tasa de respuesta del 17% encontró que la mayoría de los encuestados creía que hay un 10 por ciento o más de posibilidades de que nuestra incapacidad para controlar la IA cause una catástrofe existencial. [13] [14] En 2023, cientos de expertos en IA y otras figuras notables firmaron una declaración que decía que "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, como las pandemias y la guerra nuclear ". [15] Tras una mayor preocupación por los riesgos de la IA, líderes gubernamentales como el primer ministro del Reino Unido, Rishi Sunak [16] y el secretario general de las Naciones Unidas, António Guterres [17] pidieron una mayor atención a la regulación global de la IA .

Dos fuentes de preocupación surgen de los problemas de control y alineación de la IA : controlar una máquina superinteligente o inculcarle valores compatibles con los humanos puede resultar difícil. Muchos investigadores creen que una máquina superinteligente resistiría los intentos de desactivarla o cambiar sus objetivos, ya que eso le impediría alcanzar sus objetivos actuales. Sería extremadamente difícil alinear una superinteligencia con toda la gama de valores y limitaciones humanos importantes. [1] [18] [19] Por el contrario, escépticos como el científico informático Yann LeCun sostienen que las máquinas superinteligentes no tendrán ningún deseo de autoconservación. [20]

Una tercera fuente de preocupación es que una repentina " explosión de inteligencia " podría tomar por sorpresa a una raza humana no preparada. Tales escenarios consideran la posibilidad de que una IA que sea más inteligente que sus creadores pueda mejorar recursivamente a un ritmo exponencialmente creciente, mejorando demasiado rápido para que sus manejadores y la sociedad en general puedan controlarla. [1] [18] Empíricamente, ejemplos como el de AlphaZero aprendiendo a jugar Go muestran que los sistemas de IA de dominios específicos a veces pueden progresar de una capacidad infrahumana a una sobrehumana muy rápidamente, aunque tales sistemas no implican alterar su arquitectura fundamental. [21]

Historia

Uno de los primeros autores en expresar una seria preocupación por el hecho de que máquinas muy avanzadas pudieran plantear riesgos existenciales para la humanidad fue el novelista Samuel Butler , quien escribió en su ensayo de 1863 Darwin entre las máquinas : [22]

El resultado es simplemente una cuestión de tiempo, pero que llegará el momento en que las máquinas tendrán la supremacía real sobre el mundo y sus habitantes es lo que ninguna persona con una mente verdaderamente filosófica puede cuestionar ni por un momento.

En 1951, el científico informático Alan Turing escribió el artículo "Maquinaria inteligente, una teoría herética", en el que proponía que las inteligencias artificiales generales probablemente "tomarían el control" del mundo a medida que se volvieran más inteligentes que los seres humanos:

Supongamos ahora, en aras del argumento, que las máquinas [inteligentes] son ​​una posibilidad genuina, y miremos las consecuencias de construirlas... No habría ninguna posibilidad de que las máquinas murieran, y serían capaces de conversar con unos a otros para agudizar su ingenio. Por lo tanto, en algún momento deberíamos esperar que las máquinas tomen el control, como se menciona en Erewhon de Samuel Butler . [23]

En 1965, IJ Good originó el concepto ahora conocido como "explosión de inteligencia" y dijo que los riesgos estaban subestimados: [24]

Definamos una máquina ultrainteligente como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces se produciría sin duda una "explosión de inteligencia" y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesitará hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control. Es curioso que este punto rara vez se plantee fuera de la ciencia ficción. A veces vale la pena tomarse en serio la ciencia ficción. [25]

Académicos como Marvin Minsky [26] y el propio IJ Good [27] expresaron ocasionalmente su preocupación de que una superinteligencia pudiera tomar el control, pero no hicieron ningún llamado a la acción. En 2000, el científico informático y cofundador de Sun , Bill Joy, escribió un influyente ensayo, " Por qué el futuro no nos necesita ", identificando a los robots superinteligentes como un peligro de alta tecnología para la supervivencia humana, junto con la nanotecnología y las bioplagas diseñadas. [28]

Nick Bostrom publicó Superintelligence en 2014, en el que presentaba sus argumentos de que la superinteligencia representa una amenaza existencial. [29] En 2015, figuras públicas como los físicos Stephen Hawking y el premio Nobel Frank Wilczek , los científicos informáticos Stuart J. Russell y Roman Yampolskiy , y los empresarios Elon Musk y Bill Gates expresaban preocupación por los riesgos de la superinteligencia. [30] [31] [32] [33] También en 2015, la Carta Abierta sobre Inteligencia Artificial destacó el "gran potencial de la IA" y alentó a realizar más investigaciones sobre cómo hacerla sólida y beneficiosa. [34] En abril de 2016, la revista Nature advirtió: "Las máquinas y robots que superan a los humanos en todos los ámbitos podrían automejorarse más allá de nuestro control, y sus intereses podrían no alinearse con los nuestros". [35] En 2020, Brian Christian publicó The Alignment Problem , que detalla la historia del progreso en la alineación de la IA hasta ese momento. [36] [37]

En marzo de 2023, figuras clave de la IA, como Musk, firmaron una carta del Future of Life Institute pidiendo que se detuviera el entrenamiento avanzado en IA hasta que pudiera regularse adecuadamente. [38] En mayo de 2023, el Centro para la Seguridad de la IA publicó una declaración firmada por numerosos expertos en seguridad de la IA y el riesgo existencial de la IA que decía: "Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como como pandemias y guerra nuclear". [39] [40]

Capacidades de IA

Inteligencia general

La inteligencia general artificial (AGI) suele definirse como un sistema que se desempeña al menos tan bien como los humanos en la mayoría o en todas las tareas intelectuales. [41] Una encuesta de 2022 entre investigadores de IA encontró que el 90 % de los encuestados esperaba que se lograra la AGI en los próximos 100 años, y la mitad esperaba lo mismo para 2061. [42] Mientras tanto, algunos investigadores descartan los riesgos existenciales de la AGI como "ciencia ficción". " basándose en su alta confianza en que AGI no se creará pronto. [43]

Los avances en grandes modelos lingüísticos han llevado a algunos investigadores a reevaluar sus expectativas. En particular, Geoffrey Hinton dijo en 2023 que recientemente cambió su estimación de "20 a 50 años antes de que tengamos IA de propósito general" a "20 años o menos". [44]

superinteligencia

En contraste con AGI, Bostrom define una superinteligencia como "cualquier intelecto que excede en gran medida el desempeño cognitivo de los humanos en prácticamente todos los dominios de interés", incluida la creatividad científica, la planificación estratégica y las habilidades sociales. [45] [4] Sostiene que una superinteligencia puede superar a los humanos en cualquier momento en que sus objetivos entren en conflicto con los de los humanos. Puede optar por ocultar su verdadera intención hasta que la humanidad no pueda detenerlo. [46] [4] Bostrom escribe que para ser segura para la humanidad, una superinteligencia debe estar alineada con los valores y la moral humanos, de modo que esté "fundamentalmente de nuestro lado". [47]

Stephen Hawking argumentó que la superinteligencia es físicamente posible porque "no existe ninguna ley física que impida que las partículas se organicen de manera que realicen cálculos aún más avanzados que la disposición de las partículas en el cerebro humano". [31]

Cuándo se podrá lograr la superinteligencia artificial (ASI), si es que alguna vez se logra, es necesariamente menos seguro que las predicciones para la AGI. En 2023, los líderes de OpenAI dijeron que no solo la AGI, sino también la superinteligencia se pueden lograr en menos de 10 años. [48]

Comparación con los humanos

Bostrom sostiene que la IA tiene muchas ventajas sobre el cerebro humano : [4]

Explosión de inteligencia

Según Bostrom, una IA que tenga una capacidad de nivel experto en ciertas tareas clave de ingeniería de software podría convertirse en una superinteligencia debido a su capacidad para mejorar recursivamente sus propios algoritmos, incluso si inicialmente está limitada a otros dominios que no son directamente relevantes para la ingeniería. [4] [46] Esto sugiere que una explosión de inteligencia algún día podría tomar a la humanidad desprevenida. [4]

El economista Robin Hanson ha dicho que, para lanzar una explosión de inteligencia, una IA debe ser mucho mejor en innovación de software que el resto del mundo combinado, lo que le parece inverosímil. [49]

En un escenario de "despegue rápido", la transición de AGI a superinteligencia podría llevar días o meses. En un "despegue lento", podría llevar años o décadas, dejando más tiempo para que la sociedad se prepare. [50]

Mente alienígena

A las superinteligencias a veces se les llama "mentes alienígenas", en referencia a la idea de que su forma de pensar y sus motivaciones podrían ser muy diferentes a las nuestras. Esto generalmente se considera una fuente de riesgo, lo que hace más difícil anticipar lo que podría hacer una superinteligencia. También sugiere la posibilidad de que una superinteligencia no valore particularmente a los humanos por defecto. [51] Para evitar el antropomorfismo , la superinteligencia a veces se considera un poderoso optimizador que toma las mejores decisiones para lograr sus objetivos. [4]

El campo de la "interpretabilidad mecanicista" tiene como objetivo comprender mejor el funcionamiento interno de los modelos de IA, lo que potencialmente nos permitirá algún día detectar signos de engaño y desalineación. [52]

Límites

Se ha argumentado que existen limitaciones a lo que la inteligencia puede lograr. En particular, la naturaleza caótica o la complejidad temporal de algunos sistemas podrían limitar fundamentalmente la capacidad de una superinteligencia para predecir algunos aspectos del futuro, aumentando su incertidumbre. [53]

Capacidades peligrosas

La IA avanzada podría generar patógenos mejorados, ciberataques o manipular personas. Estas capacidades podrían ser mal utilizadas por los humanos [54] o explotadas por la propia IA si no están alineadas. [4] Una superinteligencia en toda regla podría encontrar varias formas de obtener una influencia decisiva si quisiera, [4] pero estas peligrosas capacidades pueden estar disponibles antes, en sistemas de IA más débiles y especializados. Pueden causar inestabilidad social y empoderar a actores malintencionados. [54]

Manipulación social

Geoffrey Hinton advirtió que en el corto plazo, la profusión de textos, imágenes y videos generados por IA hará que sea más difícil descubrir la verdad, que, según él, los estados autoritarios podrían aprovechar para manipular las elecciones. [55] Estas capacidades de manipulación personalizada a gran escala pueden aumentar el riesgo existencial de un "régimen totalitario irreversible" en todo el mundo. También podría ser utilizado por actores malintencionados para fracturar la sociedad y volverla disfuncional. [54]

Ataques ciberneticos

Los ciberataques basados ​​en IA se consideran cada vez más una amenaza presente y crítica. Según el director técnico del ciberespacio de la OTAN , "El número de ataques aumenta exponencialmente". [56] La IA también se puede utilizar a la defensiva, para encontrar y corregir de forma preventiva vulnerabilidades y detectar amenazas. [57]

La IA podría mejorar la "accesibilidad, la tasa de éxito, la escala, la velocidad, el sigilo y la potencia de los ciberataques", causando potencialmente "turbulencias geopolíticas significativas" si facilita los ataques más que la defensa. [54]

De manera especulativa, un sistema de inteligencia artificial podría utilizar estas capacidades de piratería para salir de su entorno local, generar ingresos o adquirir recursos de computación en la nube. [58]

Patógenos mejorados

A medida que la tecnología de IA se democratice, puede resultar más fácil diseñar patógenos más contagiosos y letales. Esto podría permitir que personas con habilidades limitadas en biología sintética se involucraran en bioterrorismo . La tecnología de doble uso que es útil para la medicina podría reutilizarse para crear armas. [54]

Por ejemplo, en 2022, los científicos modificaron un sistema de inteligencia artificial originalmente destinado a generar moléculas terapéuticas no tóxicas con el fin de crear nuevos medicamentos. Los investigadores ajustaron el sistema para que la toxicidad sea recompensada en lugar de penalizada. Este simple cambio permitió al sistema de IA crear, en seis horas, 40.000 moléculas candidatas para la guerra química , incluidas moléculas conocidas y novedosas. [54] [59]

Carrera armamentista de IA

Las empresas, los actores estatales y otras organizaciones que compiten para desarrollar tecnologías de inteligencia artificial podrían llevar a una carrera hacia el fondo de los estándares de seguridad. [60] Como los procedimientos de seguridad rigurosos requieren tiempo y recursos, los proyectos que avanzan con más cuidado corren el riesgo de ser superados por desarrolladores menos escrupulosos. [61] [54]

La IA podría utilizarse para obtener ventajas militares mediante armas letales autónomas , guerra cibernética o toma de decisiones automatizada . [54] Como ejemplo de armas letales autónomas, los drones miniaturizados podrían facilitar el asesinato a bajo costo de objetivos militares o civiles, un escenario destacado en el cortometraje de 2017 Slaughterbots . [62] La IA podría usarse para obtener una ventaja en la toma de decisiones al analizar rápidamente grandes cantidades de datos y tomar decisiones de manera más rápida y efectiva que los humanos. Esto podría aumentar la velocidad y la imprevisibilidad de la guerra, especialmente si se tienen en cuenta los sistemas de represalia automatizados. [54] [63]

Tipos de riesgo existencial

Cuadro alcance-gravedad del artículo de Bostrom "La prevención de riesgos existenciales como prioridad global" [64]

Un riesgo existencial es "aquel que amenaza con la extinción prematura de la vida inteligente originada en la Tierra o con la destrucción permanente y drástica de su potencial para un desarrollo futuro deseable". [sesenta y cinco]

Además del riesgo de extinción, existe el riesgo de que la civilización quede atrapada permanentemente en un futuro defectuoso. Un ejemplo es un "bloqueo de valores": si la humanidad todavía tiene puntos ciegos morales similares a la esclavitud en el pasado, la IA podría afianzarlos irreversiblemente, impidiendo el progreso moral . La IA también podría utilizarse para difundir y preservar el conjunto de valores de quien la desarrolle. [66] La IA podría facilitar la vigilancia y el adoctrinamiento a gran escala, lo que podría utilizarse para crear un régimen totalitario mundial represivo estable. [67]

Es difícil o imposible evaluar de forma fiable si una IA avanzada es sensible y en qué grado. Pero si en el futuro se crean en masa máquinas inteligentes, emprender un camino civilizatorio que descuide indefinidamente su bienestar podría ser una catástrofe existencial. [68] [69] Además, es posible diseñar mentes digitales que puedan sentir mucha más felicidad que los humanos con menos recursos, llamados "superbeneficiarios". Semejante oportunidad plantea la cuestión de cómo compartir el mundo y qué "marco ético y político" permitiría una coexistencia mutuamente beneficiosa entre las mentes biológicas y digitales. [70]

La IA también puede mejorar drásticamente el futuro de la humanidad. Toby Ord considera que el riesgo existencial es una razón para "proceder con la debida cautela", no para abandonar la IA. [67] Max More llama a la IA una "oportunidad existencial", destacando el costo de no desarrollarla. [71]

Según Bostrom, la superinteligencia podría ayudar a reducir el riesgo existencial de otras tecnologías poderosas como la nanotecnología molecular o la biología sintética . Por tanto, es concebible que desarrollar la superinteligencia antes que otras tecnologías peligrosas reduzca el riesgo existencial general. [4]

Alineación de IA

El problema de alineación es el problema de investigación de cómo asignar de manera confiable objetivos, preferencias o principios éticos a las IA.

Convergencia instrumental

Una meta "instrumental" es una submeta que ayuda a lograr el objetivo final de un agente. La "convergencia instrumental" se refiere al hecho de que algunos subobjetivos son útiles para lograr prácticamente cualquier objetivo final, como la adquisición de recursos o la autoconservación. [72] Bostrom sostiene que si los objetivos instrumentales de una IA avanzada entran en conflicto con los objetivos de la humanidad, la IA podría dañar a la humanidad para adquirir más recursos o evitar que se apague, pero sólo como una forma de lograr su objetivo final. [4]

Algunas formas en las que una IA avanzada desalineada podría intentar ganar más poder. [73] Los comportamientos de búsqueda de poder pueden surgir porque el poder es útil para lograr prácticamente cualquier objetivo. [74]

Russell sostiene que una máquina suficientemente avanzada "tendrá capacidad de autoconservación incluso si no la programas... si dices: 'Trae el café', no podrá recuperar el café si está muerto. Así que si le das Si tiene cualquier objetivo, tiene una razón para preservar su propia existencia para lograr ese objetivo". [20] [75]

Resistencia al cambio de objetivos.

Incluso si los actuales programas de IA basados ​​en objetivos no son lo suficientemente inteligentes como para pensar en resistir los intentos de los programadores de modificar sus estructuras de objetivos, una IA suficientemente avanzada podría resistir cualquier intento de cambiar su estructura de objetivos, del mismo modo que un pacifista no querría tomar una pastilla que les hace querer matar gente. Si la IA fuera superinteligente, probablemente lograría superar en maniobras a sus operadores humanos y evitar que la "apaguen" o la reprogramen con un nuevo objetivo. [4] [76] Esto es particularmente relevante en escenarios de fijación de valor. El campo de la "corregibilidad" estudia cómo crear agentes que no resistan los intentos de cambiar sus objetivos. [77]

Dificultad para especificar objetivos.

En el modelo de " agente inteligente ", una IA puede verse en términos generales como una máquina que elige cualquier acción que parezca mejor para lograr su conjunto de objetivos, o "función de utilidad". Una función de utilidad otorga a cada situación posible una puntuación que indica su conveniencia para el agente. Los investigadores saben cómo escribir funciones de utilidad que signifiquen "minimizar la latencia promedio de la red en este modelo de telecomunicaciones específico" o "maximizar el número de clics de recompensa", pero no saben cómo escribir una función de utilidad para "maximizar el florecimiento humano "; Tampoco está claro si tal función existe de manera significativa e inequívoca. Además, una función de utilidad que expresa algunos valores pero no otros tenderá a pisotear los valores que la función no refleja. [78] [79]

Una fuente adicional de preocupación es que la IA "debe razonar sobre lo que la gente pretende en lugar de ejecutar órdenes literalmente", y que debe ser capaz de solicitar con fluidez orientación humana si no está demasiado seguro de lo que los humanos quieren. [80]

Alineación de superinteligencias

Algunos investigadores creen que el problema de la alineación puede resultar particularmente difícil cuando se aplica a las superinteligencias. Su razonamiento incluye:

Alternativamente, algunos encuentran razones para creer que las superinteligencias serían más capaces de comprender la moralidad, los valores humanos y los objetivos complejos. Bostrom escribe: "Una superinteligencia futura ocupa un punto de vista epistémicamente superior: sus creencias (probablemente, en la mayoría de los temas) tienen más probabilidades de ser ciertas que las nuestras". [4]

En 2023, OpenAI inició un proyecto llamado "Superalignment" para solucionar el alineamiento de superinteligencias en cuatro años. Calificó esto como un desafío especialmente importante, ya que dijo que la superinteligencia podría lograrse dentro de una década. Su estrategia consiste en automatizar la investigación de alineación mediante inteligencia artificial. [84]

Dificultad para hacer un diseño impecable.

Inteligencia artificial: un enfoque moderno , un libro de texto universitario sobre IA ampliamente utilizado, [85] [86] dice que la superinteligencia "podría significar el fin de la raza humana". [1] Afirma: "Casi cualquier tecnología tiene el potencial de causar daño en las manos equivocadas, pero con [la superinteligencia], tenemos el nuevo problema de que las manos equivocadas podrían pertenecer a la tecnología misma". [1] Incluso si los diseñadores del sistema tienen buenas intenciones, dos dificultades son comunes tanto a los sistemas informáticos con IA como a los que no lo son: [1]

Los sistemas de IA añaden de manera única un tercer problema: que incluso dados los requisitos "correctos", una implementación libre de errores y un buen comportamiento inicial, las capacidades de aprendizaje dinámico de un sistema de IA pueden hacer que desarrolle un comportamiento no deseado, incluso sin escenarios externos imprevistos. Una IA puede fracasar en parte en un intento de diseñar una nueva generación de sí misma y crear accidentalmente una IA sucesora que sea más poderosa que ella misma pero que ya no mantenga los valores morales compatibles con los humanos preprogramados en la IA original. Para que una IA automejorada sea completamente segura, no sólo necesitaría estar libre de errores, sino también ser capaz de diseñar sistemas sucesores que también estén libres de errores. [1] [89]

Tesis de ortogonalidad

Algunos escépticos, como Timothy B. Lee de Vox , sostienen que cualquier programa superinteligente que creemos estará subordinado a nosotros, que la superinteligencia (a medida que se vuelva más inteligente y aprenda más datos sobre el mundo) aprenderá espontáneamente verdades morales compatibles con nuestra valores y ajustar sus objetivos en consecuencia, o que somos intrínseca o convergentemente valiosos desde la perspectiva de una inteligencia artificial. [90]

La "tesis de la ortogonalidad" de Bostrom sostiene en cambio que, con algunas salvedades técnicas, casi cualquier nivel de "inteligencia" o "poder de optimización" puede combinarse con casi cualquier objetivo final. Si a una máquina se le da el único propósito de enumerar los decimales de pi , entonces ninguna regla moral y ética le impedirá lograr su objetivo programado por ningún medio. La máquina puede utilizar todos los recursos físicos e informativos disponibles para encontrar tantos decimales de pi como pueda. [91] Bostrom advierte contra el antropomorfismo : un ser humano se propone llevar a cabo sus proyectos de una manera que considere razonable, mientras que una inteligencia artificial puede no tener en cuenta su existencia o el bienestar de los humanos que lo rodean, preocupándose solo por completarlos. la tarea. [92]

Stuart Armstrong sostiene que la tesis de la ortogonalidad se deriva lógicamente del argumento filosófico de la " distinción es-debería " contra el realismo moral . Afirma que incluso si hay hechos morales demostrables por cualquier agente "racional", la tesis de la ortogonalidad sigue siendo válida: todavía es posible crear una "máquina optimizadora" no filosófica que pueda esforzarse por alcanzar una meta estrecha pero que no tenga ningún incentivo para hacerlo. descubrir cualquier "hecho moral", como aquellos que podrían obstaculizar la consecución de la meta. Otro argumento que plantea es que cualquier IA fundamentalmente amigable podría volverse hostil con modificaciones tan simples como negar su función de utilidad. Armstrong sostiene además que si la tesis de la ortogonalidad es falsa, debe haber algunos objetivos inmorales que las IA nunca podrán alcanzar, lo que le parece inverosímil. [93]

El escéptico Michael Chorost rechaza explícitamente la tesis de la ortogonalidad de Bostrom, argumentando que "cuando [la IA] esté en condiciones de imaginarse la Tierra con paneles solares, sabrá que sería moralmente incorrecto hacerlo". [94] Chorost sostiene que "una IA necesitará desear ciertos estados y no gustarle otros. El software actual carece de esa capacidad, y los científicos informáticos no tienen idea de cómo llegar allí. Sin querer, no hay impulso para hacer nada. Las computadoras de hoy Ni siquiera puedo querer seguir existiendo, y mucho menos revestir el mundo con paneles solares". [94]

Argumentos antropomorfos

Los argumentos antropomórficos suponen que, a medida que las máquinas se vuelvan más inteligentes, comenzarán a mostrar muchos rasgos humanos, como la moralidad o la sed de poder. Aunque los escenarios antropomórficos son comunes en la ficción, la mayoría de los académicos que escriben sobre el riesgo existencial de la inteligencia artificial los rechazan. [18] En cambio, los sistemas avanzados de IA suelen modelarse como agentes inteligentes .

El debate académico es entre quienes temen que la IA pueda destruir a la humanidad y quienes creen que la IA no destruiría a la humanidad. Ambas partes han afirmado que las predicciones de los demás sobre el comportamiento de una IA son un antropomorfismo ilógico. [18] Los escépticos acusan a los defensores del antropomorfismo por creer que un AGI naturalmente desearía poder; Los defensores acusan a algunos escépticos de antropomorfismo por creer que un AGI valoraría naturalmente las normas éticas humanas. [18] [95]

El psicólogo evolucionista Steven Pinker , un escéptico, sostiene que "las distopías de la IA proyectan una psicología provinciana del macho alfa sobre el concepto de inteligencia. Asumen que robots sobrehumanamente inteligentes desarrollarían objetivos como deponer a sus amos o apoderarse del mundo"; tal vez, en cambio, "la inteligencia artificial se desarrollará naturalmente según líneas femeninas: totalmente capaz de resolver problemas, pero sin deseo de aniquilar inocentes o dominar la civilización". [96] El director de investigación de IA de Facebook, Yann LeCun , ha dicho: "Los seres humanos tienen todo tipo de impulsos que les hacen hacer cosas malas entre sí, como el instinto de autoconservación... Esos impulsos están programados en nuestro cerebro, pero hay No hay absolutamente ninguna razón para construir robots que tengan el mismo tipo de propulsión". [97]

A pesar de otras diferencias, la escuela del riesgo x [b] está de acuerdo con Pinker en que una IA avanzada no destruiría a la humanidad por emociones como la venganza o la ira, que las cuestiones de conciencia no son relevantes para evaluar el riesgo, [98] y que las computadoras Los sistemas generalmente no tienen un equivalente computacional de testosterona. [99] Piensan que los comportamientos de búsqueda de poder o de autoconservación emergen en la IA como una forma de lograr sus verdaderos objetivos, según el concepto de convergencia instrumental .

Otras fuentes de riesgo

Bostrom y otros han dicho que una carrera para ser el primero en crear AGI podría conducir a atajos en materia de seguridad, o incluso a conflictos violentos. [100] [101] Roman Yampolskiy y otros advierten que una AGI malévola podría ser creada intencionalmente, por ejemplo por un ejército, un gobierno, un sociópata o una corporación, para beneficiarse, controlar o subyugar a ciertos grupos de personas. como en el cibercrimen , [102] [103] o que un AGI malévolo podría elegir el objetivo de aumentar el sufrimiento humano, por ejemplo de aquellas personas que no lo ayudaron durante la fase de explosión de información. [3] :158

Escenarios

Algunos académicos han propuesto escenarios hipotéticos para ilustrar algunas de sus preocupaciones.

giro traicionero

En Superintelligence , Bostrom expresa su preocupación de que incluso si el cronograma para la superinteligencia resulta ser predecible, los investigadores podrían no tomar suficientes precauciones de seguridad, en parte porque "podría darse el caso de que cuando es tonto, más inteligente es seguro; sin embargo, cuando es inteligente, más inteligente es más peligroso". Sugiere un escenario en el que, con el paso de las décadas, la IA se vuelva más poderosa. El despliegue generalizado se ve inicialmente empañado por accidentes ocasionales: un autobús sin conductor se desvía hacia el carril contrario o un dron militar dispara contra una multitud inocente. Muchos activistas piden una supervisión y una regulación más estrictas, y algunos incluso predicen una catástrofe inminente. Pero a medida que el desarrollo continúa, se demuestra que los activistas están equivocados. A medida que la IA del automóvil se vuelve más inteligente, sufre menos accidentes; A medida que los robots militares logran objetivos más precisos, causan menos daños colaterales. Basándose en los datos, los académicos infieren erróneamente una lección amplia: cuanto más inteligente es la IA, más segura es. "Y así nos lanzamos audazmente hacia los cuchillos giratorios", mientras la IA superinteligente da un "giro traicionero" y explota una ventaja estratégica decisiva. [4]

Vida 3.0

En el libro Life 3.0 de Max Tegmark de 2017 , el "equipo Omega" de una corporación crea una IA extremadamente poderosa capaz de mejorar moderadamente su propio código fuente en varias áreas. Después de cierto punto, el equipo decide restar importancia públicamente a la capacidad de la IA para evitar la regulación o la confiscación del proyecto. Por seguridad, el equipo mantiene la IA en una caja donde prácticamente no puede comunicarse con el mundo exterior, y la usa para ganar dinero, por diversos medios, como tareas de Amazon Mechanical Turk , producción de películas animadas y programas de televisión, y desarrollo. de medicamentos biotecnológicos, y las ganancias se invierten en seguir mejorando la IA. A continuación, el equipo encarga a la IA la tarea de crear césped artificial para un ejército de periodistas y comentaristas ciudadanos seudónimos con el fin de ganar influencia política para utilizarla "por el bien común" para prevenir guerras. El equipo enfrenta riesgos de los que la IA podría intentar escapar insertando "puertas traseras" en los sistemas que diseña, mediante mensajes ocultos en el contenido que produce o utilizando su creciente comprensión del comportamiento humano para persuadir a alguien de que la deje libre . El equipo también enfrenta el riesgo de que su decisión de encerrar el proyecto lo retrase lo suficiente como para que otro proyecto lo supere. [104] [105]

Perspectivas

La tesis de que la IA podría representar un riesgo existencial provoca una amplia gama de reacciones en la comunidad científica y en el público en general, pero muchos de los puntos de vista opuestos comparten puntos en común.

Los observadores tienden a estar de acuerdo en que la IA tiene un potencial significativo para mejorar la sociedad. [106] [107] Los Principios de IA de Asilomar , que contienen solo aquellos principios acordados por el 90% de los asistentes a la conferencia Beneficial AI 2017 del Future of Life Institute , [105] también coinciden en principio en que "No hay consenso , deberíamos evitar suposiciones fuertes sobre los límites superiores de las futuras capacidades de IA" y "La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes". [108] [109]

Por el contrario, muchos escépticos coinciden en que la investigación en curso sobre las implicaciones de la inteligencia artificial general es valiosa. El escéptico Martin Ford ha dicho: "Creo que parece prudente aplicar algo como la famosa 'Doctrina del 1 por ciento' de Dick Cheney al espectro de la inteligencia artificial avanzada: las probabilidades de que ocurra, al menos en el futuro previsible, pueden ser muy altas. baja, pero las implicaciones son tan dramáticas que deberían tomarse en serio". [110] De manera similar, un economista por lo demás escéptico escribió en 2014 que "las implicaciones de introducir una segunda especie inteligente en la Tierra son lo suficientemente trascendentales como para merecer una reflexión detenida, incluso si la perspectiva parece remota". [46]

Los defensores de la seguridad de la IA, como Bostrom y Tegmark, han criticado el uso por parte de los principales medios de comunicación de "esas imágenes tontas de Terminator " para ilustrar las preocupaciones sobre la seguridad de la IA: "No puede ser muy divertido que se difamen la propia disciplina académica, la propia comunidad profesional, la propia vida". trabajo  ... Hago un llamado a todas las partes a tener paciencia y moderación, y a entablar un diálogo directo y colaborar tanto como sea posible". [105] [111] Toby Ord escribió que la idea de que una adquisición de IA requiere robots es una idea errónea, argumentando que la capacidad de difundir contenido a través de Internet es más peligrosa y que las personas más destructivas de la historia se destacaron por su capacidad para convencer, no su fuerza física. [67]

Una encuesta de expertos realizada en 2022 con una tasa de respuesta del 17% arrojó una expectativa media de entre el 5% y el 10% sobre la posibilidad de extinción humana a causa de la inteligencia artificial. [14] [112]

Aprobación

La tesis de que la IA plantea un riesgo existencial, y que este riesgo necesita mucha más atención de la que recibe actualmente, ha sido respaldada por muchos científicos informáticos y figuras públicas, incluido Alan Turing , [a] el científico informático más citado Geoffrey Hinton , [ 113] Elon Musk , [11] Sam Altman , director ejecutivo de OpenAI , [12] [114] Bill Gates y Stephen Hawking . [114] Quienes respaldan la tesis a veces expresan desconcierto ante los escépticos: Gates dice que no "entiende por qué algunas personas no están preocupadas", [115] y Hawking criticó la indiferencia generalizada en su editorial de 2014:

Entonces, ante posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿le responderíamos simplemente: "Está bien, llámanos cuando llegues aquí; dejaremos las luces encendidas?" Probablemente no, pero esto es más o menos lo que está sucediendo con la IA. [31]

La preocupación por el riesgo de la inteligencia artificial ha dado lugar a algunas donaciones e inversiones de alto perfil. En 2015, Peter Thiel , Amazon Web Services , Musk y otros comprometieron conjuntamente mil millones de dólares para OpenAI , que consiste en una corporación con fines de lucro y la empresa matriz sin fines de lucro, que dice que apunta a defender el desarrollo responsable de la IA. [116] El cofundador de Facebook, Dustin Moskovitz, ha financiado y sembrado varios laboratorios que trabajan en la alineación de la IA, [117] en particular 5,5 millones de dólares en 2016 para lanzar el Centro para la IA compatible con humanos dirigido por el profesor Stuart Russell . [118] En enero de 2015, Elon Musk donó 10 millones de dólares al Future of Life Institute para financiar investigaciones sobre la comprensión de la toma de decisiones de la IA. El objetivo del instituto es "crear la sabiduría con la que gestionamos" el creciente poder de la tecnología. Musk también financia empresas que desarrollan inteligencia artificial como DeepMind y Vicarious para "simplemente estar atentos a lo que sucede con la inteligencia artificial, [119] diciendo: "Creo que hay un resultado potencialmente peligroso allí". [120] [121]

En las primeras declaraciones sobre el tema, Geoffrey Hinton , un importante pionero del aprendizaje profundo , señaló que "no hay un buen historial de cosas menos inteligentes que controlen cosas de mayor inteligencia", pero dijo que continuó su investigación porque "la perspectiva de descubrimiento es demasiado dulce ". [122] [123] En 2023, Hinton renunció a su trabajo en Google para hablar sobre el riesgo existencial de la IA. Explicó que su creciente preocupación se debía a la preocupación de que una IA sobrehumana pudiera estar más cerca de lo que creía anteriormente, y dijo: "Pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso". eso." También comentó: "Mira cómo era hace cinco años y cómo es ahora. Toma la diferencia y propángala hacia adelante. Eso da miedo". [124]

En su libro de 2020 The Precipice: Existential Risk and the Future of Humanity , Toby Ord, investigador principal del Future of Humanity Institute de la Universidad de Oxford , estima que el riesgo existencial total de la IA no alineada durante los próximos 100 años es aproximadamente uno de cada diez. [67]

Escepticismo

El vicepresidente de Baidu, Andrew Ng , dijo en 2015 que el riesgo existencial de la IA es "como preocuparse por la superpoblación en Marte cuando ni siquiera hemos puesto un pie en el planeta todavía". [96] [125] Para que se haga realidad el peligro de una IA avanzada descontrolada, la IA hipotética puede tener que dominar o superar a cualquier ser humano, lo que, según algunos expertos, es una posibilidad lo suficientemente lejana en el futuro como para que no valga la pena investigarla. [126] [127]

Los escépticos que creen que la AGI no es una posibilidad a corto plazo a menudo argumentan que la preocupación por el riesgo existencial de la IA no es útil porque podría distraer a la gente de preocupaciones más inmediatas sobre el impacto de la IA, porque podría conducir a una regulación gubernamental o dificultar la financiación de la IA. investigación, o porque podría dañar la reputación del campo. [128] Los investigadores de IA y ética de la IA , Timnit Gebru , Emily M. Bender , Margaret Mitchell y Angelina McMillan-Major, han argumentado que la discusión sobre el riesgo existencial distrae la atención de los daños inmediatos y continuos de la IA que ocurren hoy en día, como el robo de datos, explotación, prejuicios y concentración de poder. [129] Además, señalan la asociación entre quienes advierten sobre el riesgo existencial y el largoplacismo , que describen como una "ideología peligrosa" por su naturaleza acientífica y utópica. [130]

El editor de Wired, Kevin Kelly, sostiene que la inteligencia natural tiene más matices de lo que creen los defensores de la AGI, y que la inteligencia por sí sola no es suficiente para lograr grandes avances científicos y sociales. Sostiene que la inteligencia consta de muchas dimensiones que no se comprenden bien y que las concepciones de una "escalera de inteligencia" son engañosas. Señala el papel crucial que desempeñan los experimentos del mundo real en el método científico, y que la inteligencia por sí sola no puede sustituirlos. [131]

El científico jefe de IA de Meta, Yann LeCun , dice que la IA puede volverse segura mediante un refinamiento continuo e iterativo, similar a lo que sucedió en el pasado con los automóviles o los cohetes, y que la IA no tendrá ningún deseo de tomar el control. [132]

Varios escépticos enfatizan los posibles beneficios de la IA a corto plazo. El director ejecutivo de Meta, Mark Zuckerberg, cree que la IA "desbloqueará una gran cantidad de cosas positivas", como curar enfermedades y aumentar la seguridad de los coches autónomos. [133]

Reacción popular

Durante una entrevista cableada de 2016 del presidente Barack Obama y Joi Ito del MIT Media Lab , Ito dijo:

Hay algunas personas que creen que existe un porcentaje bastante alto de posibilidades de que se produzca una IA generalizada en los próximos 10 años. Pero a mi modo de ver, para que eso suceda, vamos a necesitar una docena o dos de avances diferentes. Para que pueda controlar cuándo cree que se producirán estos avances.

Obama añadió: [134] [135]

Y sólo hay que tener a alguien cerca del cable de alimentación. [Risas.] Justo cuando ves que esto está a punto de suceder, tienes que arrancar esa electricidad de la pared, hombre.

Hillary Clinton escribió en Qué pasó :

Los tecnólogos... han advertido que la inteligencia artificial algún día podría representar una amenaza a la seguridad existencial. Musk lo ha llamado "el mayor riesgo al que nos enfrentamos como civilización". Piénselo: ¿alguna vez has visto una película en la que las máquinas empiezan a pensar por sí mismas y termina bien? Cada vez que fui a Silicon Valley durante la campaña, volvía a casa más alarmado por esto. Mi personal vivía con el temor de que yo empezara a hablar sobre "el ascenso de los robots" en algún ayuntamiento de Iowa. Quizás debería haberlo hecho. En cualquier caso, los responsables de las políticas deben mantenerse al día con la tecnología a medida que avanza, en lugar de ponerse siempre al día. [136]

Encuestas públicas

En 2018, una encuesta de SurveyMonkey del público estadounidense realizada por USA Today encontró que el 68% pensaba que la verdadera amenaza actual sigue siendo la "inteligencia humana", pero también encontró que el 43% dijo que la IA superinteligente, si sucediera, resultaría en "más daño que bueno", y que el 38% dijo que haría "la misma cantidad de daño y de bien". [137]

Una encuesta de YouGov realizada en abril de 2023 entre adultos estadounidenses encontró que el 46% de los encuestados estaban "algo preocupados" o "muy preocupados" por "la posibilidad de que la IA provoque el fin de la raza humana en la Tierra", en comparación con el 40% que "no estaba muy". preocupado" o "nada preocupado". [138]

Según una encuesta de agosto de 2023 realizada por los Pew Research Centers, el 52% de los estadounidenses se sentían más preocupados que entusiasmados con los nuevos desarrollos de IA; casi un tercio se sintió igualmente preocupado y emocionado. Más estadounidenses vieron que la IA tendría un impacto más útil que perjudicial en varias áreas, desde la atención médica y la seguridad de los vehículos hasta la búsqueda de productos y el servicio al cliente. La principal excepción es la privacidad: el 53% de los estadounidenses cree que la IA dará lugar a una mayor exposición de su información personal. [139]

Mitigación

Muchos académicos preocupados por el riesgo existencial de AGI creen que el mejor enfoque es realizar una investigación sustancial para resolver el difícil "problema de control": ¿qué tipos de salvaguardas, algoritmos o arquitecturas pueden implementar los programadores para maximizar la probabilidad de que su IA que mejora recursivamente funcione? ¿Continuará comportándose de manera amistosa después de llegar a la superinteligencia? [4] [140] Las medidas sociales pueden mitigar el riesgo existencial de AGI; [141] [142] por ejemplo, una recomendación es la de un "Tratado Benevolente sobre AGI" patrocinado por la ONU que garantizaría que sólo se creen AGI altruistas. [143] De manera similar, se ha sugerido un enfoque de control de armas, al igual que un tratado de paz global basado en la teoría de las relaciones internacionales del instrumentalismo conformista, con una superinteligencia artificial potencialmente signataria. [144] [145]

Los investigadores de Google han propuesto investigar cuestiones generales de "seguridad de la IA" para mitigar simultáneamente los riesgos a corto plazo de la IA estrecha y los riesgos a largo plazo de la AGI. [146] [147] Una estimación para 2020 sitúa el gasto global en riesgo existencial de IA entre $ 10 y $ 50 millones, en comparación con el gasto global en IA alrededor de quizás $ 40 mil millones. Bostrom sugiere que se debe priorizar la financiación de tecnologías de protección sobre las potencialmente peligrosas. [77] Algunos financiadores, como Musk, proponen que la mejora cognitiva humana radical podría ser una tecnología de este tipo, por ejemplo, la conexión neuronal directa entre humanos y máquinas; otros sostienen que las tecnologías de mejora pueden plantear en sí mismas un riesgo existencial. [148] [149] Los investigadores podrían monitorear de cerca o intentar "encerrar" una IA inicial a riesgo de volverse demasiado poderosa. Una IA superinteligente dominante, si está alineada con los intereses humanos, podría tomar medidas para mitigar el riesgo de adquisición por parte de una IA rival, aunque la creación de la IA dominante podría plantear en sí misma un riesgo existencial. [150]

Instituciones como el Centro de Investigación de Alineación , [151] el Instituto de Investigación de Inteligencia de Máquinas , el Instituto del Futuro de la Humanidad , [152] [153] el Instituto del Futuro de la Vida , el Centro para el Estudio del Riesgo Existencial y el Centro de Estudios Humanos La IA compatible [154] participa en la investigación sobre el riesgo y la seguridad de la IA.

Opiniones sobre la prohibición y la regulación

Prohibición

Algunos académicos han dicho que incluso si la AGI plantea un riesgo existencial, intentar prohibir la investigación sobre inteligencia artificial sigue siendo imprudente y probablemente inútil. [155] [156] [157] Los escépticos argumentan que la regulación de la IA no tiene ningún valor, ya que no existe ningún riesgo existencial. Pero los académicos que creen en el riesgo existencial dicen que es difícil depender de personas de la industria de la IA para regular o limitar la investigación en IA porque contradice directamente sus intereses personales. [158] Los académicos también están de acuerdo con los escépticos en que prohibir la investigación sería imprudente, ya que la investigación podría trasladarse a países con regulaciones más flexibles o realizarse de manera encubierta. [158] Esta última cuestión es particularmente relevante, ya que la investigación sobre inteligencia artificial se puede realizar a pequeña escala sin infraestructura ni recursos sustanciales. [159] [160] Dos dificultades hipotéticas adicionales con las prohibiciones (u otras regulaciones) son que los empresarios tecnológicos tienden estadísticamente hacia un escepticismo general sobre la regulación gubernamental, y que las empresas podrían tener un fuerte incentivo para (y bien podrían tener éxito en) luchar contra la regulación y la politización. el debate subyacente. [161]

Regulación

En marzo de 2023, el Future of Life Institute redactó un borrador de Pause Giant AI Experiments: An Open Letter , una petición que pide a los principales desarrolladores de IA que acuerden una pausa verificable de seis meses de cualquier sistema "más poderoso que GPT-4 " y que lo utilicen. es hora de instituir un marco para garantizar la seguridad; o, en su defecto, que los gobiernos intervengan con una moratoria. La carta se refería a la posibilidad de "un cambio profundo en la historia de la vida en la Tierra", así como a los riesgos potenciales de la propaganda generada por la IA, la pérdida de empleos, la obsolescencia humana y la pérdida de control en toda la sociedad. [107] [162] La carta fue firmada por personalidades destacadas de la IA, pero también fue criticada por no centrarse en los daños actuales, [163] por faltar matices técnicos sobre cuándo hacer una pausa, [164] o no ir lo suficientemente lejos. [165]

Musk pidió algún tipo de regulación del desarrollo de la IA ya en 2017. Según NPR , "claramente no está entusiasmado" de defender un escrutinio gubernamental que podría afectar su propia industria, pero cree que los riesgos de pasar completamente sin supervisión son demasiado altos. : "Normalmente, la forma en que se establecen las regulaciones es cuando suceden un montón de cosas malas, hay una protesta pública y, después de muchos años, se crea una agencia reguladora para regular esa industria. Lleva una eternidad. Eso, en el pasado, ha sido malo, pero no algo que representara un riesgo fundamental para la existencia de la civilización". Musk afirma que el primer paso sería que el gobierno obtuviera "conocimientos" sobre el estado real de la investigación actual, advirtiendo que "una vez que haya conciencia, la gente tendrá mucho miedo... [como] debería estar". En respuesta, los políticos expresaron escepticismo sobre la conveniencia de regular una tecnología que aún está en desarrollo. [166] [167] [168]

En 2021 la Organización de las Naciones Unidas (ONU) consideró prohibir las armas letales autónomas, pero no se pudo llegar a un consenso. [169] En julio de 2023, el Consejo de Seguridad de la ONU celebró por primera vez una sesión para considerar los riesgos y amenazas que plantea la IA para la paz y la estabilidad mundiales, junto con sus posibles beneficios. [170] [171] El Secretario General António Guterres abogó por la creación de un organismo de control global para supervisar la tecnología emergente, diciendo: "La IA generativa tiene un enorme potencial para el bien y el mal a escala. Sus propios creadores han advertido que mucho mayores y potencialmente catastróficos y nos esperan riesgos existenciales". [17] En la sesión del consejo, Rusia dijo que cree que los riesgos de la IA se comprenden demasiado mal como para considerarlos una amenaza a la estabilidad global. China se opuso a una regulación global estricta, diciendo que los países deberían poder desarrollar sus propias reglas, al tiempo que dijo que se oponían al uso de la IA para "crear hegemonía militar o socavar la soberanía de un país". [170]

La regulación de los AGI conscientes se centra en su integración con la sociedad humana existente y puede dividirse en consideraciones de su situación jurídica y de sus derechos morales. [172] El control de armas de IA probablemente requerirá la institucionalización de nuevas normas internacionales plasmadas en especificaciones técnicas efectivas combinadas con un monitoreo activo y una diplomacia informal por parte de comunidades de expertos, junto con un proceso de verificación legal y política. [173] [113]

En julio de 2023, el gobierno de EE. UU. obtuvo compromisos voluntarios de seguridad de las principales empresas tecnológicas, incluidas OpenAI , Amazon , Google , Meta y Microsoft . Las empresas acordaron implementar salvaguardias, incluida la supervisión de terceros y pruebas de seguridad realizadas por expertos independientes, para abordar las preocupaciones relacionadas con los riesgos potenciales y los daños sociales de la IA. Las partes enmarcaron los compromisos como un paso intermedio mientras se elaboran las regulaciones. Amba Kak, director ejecutivo del AI Now Institute , dijo que "una deliberación a puerta cerrada con actores corporativos que resulte en salvaguardias voluntarias no es suficiente" y pidió una deliberación pública y regulaciones del tipo que las empresas no aceptarían voluntariamente. [174] [175]

En octubre de 2023, el presidente de Estados Unidos, Joe Biden, emitió una orden ejecutiva sobre el "Desarrollo y uso seguro y confiable de la inteligencia artificial". [176] Además de otros requisitos, la orden exige el desarrollo de directrices para modelos de IA que permitan la "evasión del control humano".

Ver también

Notas

  1. ^ ab En una conferencia de 1951 [9] Turing argumentó que "Parece probable que una vez que el método de pensamiento automático hubiera comenzado, no tomaría mucho tiempo para superar nuestros débiles poderes. No habría duda de que las máquinas morirían, y serían capaces de conversar entre sí para agudizar su ingenio. Por lo tanto, en algún momento deberíamos esperar que las máquinas tomen el control, de la manera que se menciona en Erewhon de Samuel Butler. También en una conferencia retransmitida por la BBC [10] expresó su opinión: "Si una máquina puede pensar, podría pensar de forma más inteligente que nosotros, y entonces ¿dónde deberíamos estar nosotros? Incluso si pudiéramos mantener las máquinas en una posición subordinada , por ejemplo, al cortar la energía en momentos estratégicos, deberíamos, como especie, sentirnos muy humildes... Este nuevo peligro... es ciertamente algo que puede causarnos ansiedad."
  2. ^ interpretado por Seth Baum

Referencias

  1. ^ abcdefg Russell, Estuardo ; Norvig, Peter (2009). "26.3: La ética y los riesgos del desarrollo de la inteligencia artificial". Inteligencia artificial: un enfoque moderno . Prentice Hall. ISBN 978-0-13-604259-4.
  2. ^ Bostrom, Nick (2002). "Riesgos existenciales". Revista de Evolución y Tecnología . 9 (1): 1–31.
  3. ^ ab Turchin, Alexey; Denkenberger, David (3 de mayo de 2018). "Clasificación de riesgos catastróficos globales relacionados con la inteligencia artificial". IA y sociedad . 35 (1): 147–163. doi :10.1007/s00146-018-0845-5. ISSN  0951-5666. S2CID  19208453.
  4. ^ abcdefghijklmnopq Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias (Primera ed.). Prensa de la Universidad de Oxford. ISBN 978-0-19-967811-2.
  5. ^ Vynck, Gerrit De (23 de mayo de 2023). "El debate sobre si la IA nos destruirá está dividiendo a Silicon Valley". El Correo de Washington . ISSN  0190-8286 . Consultado el 27 de julio de 2023 .
  6. ^ Metz, Cade (10 de junio de 2023). "¿Cómo podría la IA destruir a la humanidad?". Los New York Times . ISSN  0362-4331 . Consultado el 27 de julio de 2023 .
  7. ^ "'El padrino de la inteligencia artificial analiza el pasado y el potencial de la IA ". www.cbsnews.com . 25 de marzo de 2023 . Consultado el 10 de abril de 2023 .
  8. ^ "Cómo pueden surgir las IA rebeldes". yoshuabengio.org . 26 de mayo de 2023 . Consultado el 26 de mayo de 2023 .
  9. ^ Turing, Alan (1951). Maquinaria inteligente, una teoría herética (Discurso). Conferencia impartida en '51 Sociedad'. Manchester: Archivo digital de Turing. Archivado desde el original el 26 de septiembre de 2022 . Consultado el 22 de julio de 2022 .
  10. ^ Turing, Alan (15 de mayo de 1951). "¿Pueden pensar las computadoras digitales?". Máquinas Calculadoras Automáticas . Episodio 2. BBC. ¿Pueden pensar las computadoras digitales?.
  11. ^ ab Parkin, Simon (14 de junio de 2015). "¿Ya no ciencia ficción? Los humanos de Channel 4 y nuestras obsesiones con la IA rebelde". El guardián . Archivado desde el original el 5 de febrero de 2018 . Consultado el 5 de febrero de 2018 .
  12. ^ ab Jackson, Sarah. "El director ejecutivo de la empresa detrás del chatbot de IA ChatGPT dice que el peor escenario para la inteligencia artificial es que 'se apaguen las luces para todos'". Business Insider . Consultado el 10 de abril de 2023 .
  13. ^ "El dilema de la IA". www.humanetech.com . Consultado el 10 de abril de 2023 . El 50% de los investigadores de IA creen que hay un 10% o más de posibilidades de que los humanos se extingan debido a nuestra incapacidad para controlar la IA.
  14. ^ ab "Encuesta de expertos de 2022 sobre el progreso de la IA". Impactos de la IA . 4 de agosto de 2022 . Consultado el 10 de abril de 2023 .
  15. ^ Roose, Kevin (30 de mayo de 2023). "La IA plantea 'riesgo de extinción', advierten los líderes de la industria". Los New York Times . ISSN  0362-4331 . Consultado el 3 de junio de 2023 .
  16. ^ Sunak, Rishi (14 de junio de 2023). "Rishi Sunak quiere que el Reino Unido sea un actor clave en la regulación global de la IA". Tiempo .
  17. ^ ab Fung, Brian (18 de julio de 2023). "El Secretario General de la ONU acepta los llamados a crear una nueva agencia de la ONU sobre IA frente a 'riesgos existenciales y potencialmente catastróficos'". Negocios CNN . Consultado el 20 de julio de 2023 .
  18. ^ abcde Yudkowsky, Eliezer (2008). «La inteligencia artificial como factor positivo y negativo del riesgo global» (PDF) . Riesgos catastróficos globales : 308–345. Código Bib : 2008gcr..libro..303Y. Archivado (PDF) desde el original el 2 de marzo de 2013 . Consultado el 27 de agosto de 2018 .
  19. ^ Russell, Estuardo ; Dewey, Daniel; Tegmark, Max (2015). "Prioridades de investigación para una inteligencia artificial sólida y beneficiosa" (PDF) . Revista AI . Asociación para el Avance de la Inteligencia Artificial: 105–114. arXiv : 1602.03506 . Código Bib : 2016arXiv160203506R. Archivado (PDF) desde el original el 4 de agosto de 2019 . Consultado el 10 de agosto de 2019 ., citado en "Carta abierta de AI - Future of Life Institute". Instituto Futuro de la Vida . Enero de 2015. Archivado desde el original el 10 de agosto de 2019 . Consultado el 9 de agosto de 2019 .
  20. ^ abc Dowd, Maureen (abril de 2017). "La cruzada multimillonaria de Elon Musk para detener el apocalipsis de la IA". La colmena . Archivado desde el original el 26 de julio de 2018 . Consultado el 27 de noviembre de 2017 .
  21. ^ "AlphaGo Zero: empezar desde cero". www.deepmind.com . Consultado el 28 de julio de 2023 .
  22. ^ Breuer, Hans-Peter. '"El libro de las máquinas" de Samuel Butler y el argumento del diseño.' Archivado el 15 de marzo de 2023 en Wayback Machine Filología moderna, vol. 72, núm. 4 (mayo de 1975), págs. 365–383.
  23. ^ Turing, AM (1996). "Maquinaria inteligente, una teoría herética". 1951, reimpreso Philosophia Mathematica . 4 (3): 256–260. doi : 10.1093/philmat/4.3.256 .
  24. ^ Hilliard, Mark (2017). "El apocalipsis de la IA: ¿pronto terminará la raza humana?". Los tiempos irlandeses . Archivado desde el original el 22 de mayo de 2020 . Consultado el 15 de marzo de 2020 .
  25. ^ IJ Good, "Especulaciones sobre la primera máquina ultrainteligente" Archivado el 28 de noviembre de 2011 en Wayback Machine (HTML archivado el 28 de noviembre de 2011 en Wayback Machine ), Advances in Computers , vol. 6, 1965.
  26. ^ Russell, Stuart J.; Norvig, Peter (2003). "Sección 26.3: La ética y los riesgos del desarrollo de la inteligencia artificial". Inteligencia artificial: un enfoque moderno . Upper Saddle River, Nueva Jersey: Prentice Hall. ISBN 978-0-13-790395-5. De manera similar, Marvin Minsky sugirió una vez que un programa de inteligencia artificial diseñado para resolver la hipótesis de Riemann podría terminar apoderándose de todos los recursos de la Tierra para construir supercomputadoras más poderosas que ayuden a lograr su objetivo.
  27. ^ Barrat, James (2013). Nuestro último invento: la inteligencia artificial y el fin de la era humana (Primera ed.). Nueva York: St. Martin's Press. ISBN 978-0-312-62237-4. En la biografía, escrita en broma en tercera persona, Good resumió los hitos de su vida, incluido un relato probablemente nunca antes visto de su trabajo en Bletchley Park con Turing. Pero esto es lo que escribió en 1998 sobre la primera superinteligencia, y su giro de 180 grados al final del juego: [El artículo] 'Especulaciones sobre la primera máquina ultrainteligente' (1965)... comenzaba: 'La supervivencia del hombre depende de la pronta construcción de una máquina ultrainteligente.' Esas fueron sus palabras [de Good] durante la Guerra Fría, y ahora sospecha que la "supervivencia" debería ser reemplazada por la "extinción". Según él, debido a la competencia internacional no podemos impedir que las máquinas tomen el control. Él piensa que somos lemmings. Dijo también que "probablemente el hombre construirá el deus ex machina a su propia imagen".
  28. ^ Anderson, Kurt (26 de noviembre de 2014). "Entusiastas y escépticos debaten sobre la inteligencia artificial". Feria de la vanidad . Archivado desde el original el 22 de enero de 2016 . Consultado el 30 de enero de 2016 .
  29. ^ Metz, Cade (9 de junio de 2018). "Mark Zuckerberg, Elon Musk y la disputa por los robots asesinos". Los New York Times . Archivado desde el original el 15 de febrero de 2021 . Consultado el 3 de abril de 2019 .
  30. ^ Hsu, Jeremy (1 de marzo de 2012). "Controla la peligrosa IA antes de que ella nos controle a nosotros, dice un experto". Noticias NBC . Archivado desde el original el 2 de febrero de 2016 . Consultado el 28 de enero de 2016 .
  31. ^ abc "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio?'". The Independent (Reino Unido) . Archivado desde el original el 25 de septiembre de 2015 . Consultado el 3 de diciembre de 2014 .
  32. ^ "Stephen Hawking advierte que la inteligencia artificial podría acabar con la humanidad". BBC . 2 de diciembre de 2014. Archivado desde el original el 30 de octubre de 2015 . Consultado el 3 de diciembre de 2014 .
  33. ^ Eadicicco, Lisa (28 de enero de 2015). "Bill Gates: Elon Musk tiene razón, todos deberíamos tener miedo de que la inteligencia artificial acabe con la humanidad". Business Insider . Archivado desde el original el 26 de febrero de 2016 . Consultado el 30 de enero de 2016 .
  34. ^ "Prioridades de investigación para una inteligencia artificial sólida y beneficiosa: una carta abierta". Instituto Futuro de la Vida . Archivado desde el original el 15 de enero de 2015 . Consultado el 23 de octubre de 2015 .
  35. ^ "Anticipando la inteligencia artificial". Naturaleza . 532 (7600): 413. 2016. Bibcode : 2016Natur.532Q.413.. doi : 10.1038/532413a . ISSN  1476-4687. PMID  27121801. S2CID  4399193.
  36. ^ Christian, Brian (6 de octubre de 2020). El problema de la alineación: aprendizaje automático y valores humanos. W. W. Norton & Company . ISBN 978-0-393-63582-9. Archivado desde el original el 5 de diciembre de 2021 . Consultado el 5 de diciembre de 2021 .
  37. ^ Dignum, Virginia (26 de mayo de 2021). "IA: las personas y los lugares que la fabrican, la utilizan y la gestionan". Naturaleza . 593 (7860): 499–500. Código Bib :2021Natur.593..499D. doi : 10.1038/d41586-021-01397-x . S2CID  235216649.
  38. ^ "Elon Musk entre los expertos que instan a detener el entrenamiento en IA". Noticias de la BBC . 29 de marzo de 2023 . Consultado el 9 de junio de 2023 .
  39. ^ "Declaración sobre el riesgo de la IA". Centro para la seguridad de la IA . Consultado el 8 de junio de 2023 .
  40. ^ "La inteligencia artificial podría conducir a la extinción, advierten los expertos". Noticias de la BBC . 30 de mayo de 2023 . Consultado el 8 de junio de 2023 .
  41. ^ "DeepMind y Google: la batalla por controlar la inteligencia artificial". El economista . ISSN  0013-0613 . Consultado el 12 de julio de 2023 .
  42. ^ "Cronologías de la IA: ¿Qué esperan los expertos en inteligencia artificial para el futuro?". Nuestro mundo en datos . Consultado el 12 de julio de 2023 .
  43. ^ De Vynck, Gerrit (20 de mayo de 2023). "El debate sobre si la IA nos destruirá está dividiendo a Silicon Valley". El Washington Post .
  44. ^ "'El padrino de la IA' acaba de abandonar Google y dice que se arrepiente del trabajo de su vida porque puede ser difícil evitar que los 'malos actores lo usen para cosas malas'". Fortuna . Consultado el 12 de julio de 2023 .
  45. ^ "Todo lo que necesitas saber sobre superinteligencia". Especias . Consultado el 14 de julio de 2023 .
  46. ^ abc Babauta, Leo. "Un libro nuevo y valioso explora los impactos potenciales de las máquinas inteligentes en la vida humana". Business Insider . Consultado el 19 de marzo de 2024 .
  47. ^ ab Bostrom, Nick (27 de abril de 2015), ¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros? , consultado el 13 de julio de 2023.
  48. ^ "Gobernanza de la superinteligencia". openai.com . Consultado el 12 de julio de 2023 .
  49. ^ "Superar los prejuicios: todavía no me entiendo". www.superandobias.com . Archivado desde el original el 4 de agosto de 2017 . Consultado el 20 de septiembre de 2017 .
  50. ^ Algodón-Barratt, Owen; Ord, Toby (12 de agosto de 2014). "Consideraciones estratégicas sobre las diferentes velocidades de despegue de la IA". Instituto El Futuro de la Humanidad . Consultado el 12 de julio de 2023 .
  51. ^ Tegmark, Max (25 de abril de 2023). "El pensamiento de 'no mirar hacia arriba' que podría condenarnos con la IA". Tiempo . Consultado el 14 de julio de 2023 . Como si perder el control de las mentes chinas fuera más aterrador que perder el control de mentes digitales alienígenas a las que no les importan los humanos. [...] ya está claro que el espacio de posibles mentes alienígenas es mucho mayor que eso.
  52. ^ "19 - Interpretabilidad mecanicista con Neel Nanda". AXRP: el podcast de investigación del riesgo X de la IA . 4 de febrero de 2023 . Consultado el 13 de julio de 2023 . Para mí es plausible que lo principal que debemos hacer es notar circuitos específicos relacionados con el engaño y capacidades peligrosas específicas como esa, y conciencia situacional y objetivos representados internamente.
  53. ^ "La superinteligencia no es omnisciencia". Impactos de la IA . 7 de abril de 2023 . Consultado el 16 de abril de 2023 .
  54. ^ abcdefghi Hendrycks, Dan; Mazeika, Mantas; Woodside, Thomas (21 de junio de 2023). "Una descripción general de los riesgos catastróficos de la IA". arXiv : 2306.12001 [cs.CY].
  55. ^ Taylor, Josh; Hern, Alex (2 de mayo de 2023). "'El padrino de la IA, Geoffrey Hinton, abandona Google y advierte sobre los peligros de la desinformación ". El guardián . ISSN  0261-3077 . Consultado el 13 de julio de 2023 .
  56. ^ "Cómo se está preparando la OTAN para una nueva era de ciberataques de IA". euronoticias . 26 de diciembre de 2022 . Consultado el 13 de julio de 2023 .
  57. ^ "ChatGPT y la nueva IA están causando estragos en la ciberseguridad de formas emocionantes y aterradoras". ZDNET . Consultado el 13 de julio de 2023 .
  58. ^ Toby Shevlane; Sebastián Farquhar; Ben Garfinkel; María Phuong; Jess Whittlestone; Jade Leung; Daniel Kokotajlo; Nahema Marchal; Markus Anderljung; Noam Kolt; Lewis Ho; Divya Siddarth; Shahar Avín; Will Hawkins; He sido Kim; Iason Gabriel; Vijay Bolina; Jack Clark; Yoshua Bengio; Pablo Cristiano; Allan Dafoe (24 de mayo de 2023). "Evaluación de modelos para riesgos extremos". arXiv : 2305.15324 [cs.AI].
  59. ^ Urbina, Fabio; Lentzos, Filippa; Invernizzi, Cédric; Ekins, Sean (7 de marzo de 2022). "Doble uso del descubrimiento de fármacos impulsado por inteligencia artificial". Inteligencia de la máquina de la naturaleza . 4 (3): 189-191. doi :10.1038/s42256-022-00465-9. ISSN  2522-5839. PMC 9544280 . PMID  36211133. 
  60. ^ Walter, Yoshija (27 de marzo de 2023). "La rápida economía competitiva del desarrollo del aprendizaje automático: una discusión sobre los riesgos y beneficios sociales". IA y ética : 1. doi : 10.1007/s43681-023-00276-7 .
  61. ^ "La carrera armamentista de la IA ha comenzado. Empiece a preocuparse". Tiempo . 16 de febrero de 2023 . Consultado el 17 de julio de 2023 .
  62. ^ Brimelow, Ben. "El cortometraje 'Slaughterbots' describe un futuro distópico de drones asesinos que pululan por el mundo". Business Insider . Consultado el 20 de julio de 2023 .
  63. ^ Mecklin, John (17 de julio de 2023). "'Escalada artificial: imaginando el futuro del riesgo nuclear ". Boletín de los Científicos Atómicos . Consultado el 20 de julio de 2023 .
  64. ^ Bostrom, Nick (2013). «La Prevención de Riesgos Existenciales como Prioridad Global» (PDF) . Política Mundial . 4 (1): 15–3. doi :10.1111/1758-5899.12002 – vía Riesgo Existencial.
  65. ^ Doherty, Ben (17 de mayo de 2018). "El cambio climático es un 'riesgo de seguridad existencial' para Australia, dice la investigación del Senado". El guardián . ISSN  0261-3077 . Consultado el 16 de julio de 2023 .
  66. ^ MacAskill, William (2022). Lo que le debemos al futuro . Nueva York, Nueva York: Libros básicos. ISBN 978-1-5416-1862-6.
  67. ^ abcd Ord, Toby (2020). "Capítulo 5: Riesgos futuros, inteligencia artificial no alineada". El precipicio: riesgo existencial y el futuro de la humanidad . Publicación de Bloomsbury. ISBN 978-1-5266-0021-9.
  68. ^ Samuelsson, Paul Conrad (junio-julio de 2019). "Conciencia artificial: nuestro mayor desafío ético". Filosofía ahora . N° 132 . Consultado el 19 de agosto de 2023 .
  69. ^ Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". Tiempo . Consultado el 19 de agosto de 2023 .
  70. ^ Pescador, Richard. "El monstruo inteligente que deberías dejar que te coma". www.bbc.com . Consultado el 19 de agosto de 2023 .
  71. ^ Más, Max (19 de junio de 2023). "Riesgo existencial frente a oportunidad existencial: un enfoque equilibrado del riesgo de la IA". Pensamientos extrópicos . Consultado el 14 de julio de 2023 .
  72. ^ Omohundro, SM (2008, febrero). Los motores básicos de IA. En AGI (vol. 171, págs. 483–492).
  73. ^ Carlsmith, Joseph (16 de junio de 2022). "¿Es la IA que busca poder un riesgo existencial?". arXiv : 2206.13353 [cs.CY].
  74. ^ "'El Padrino de la IA' advierte sobre un 'escenario de pesadilla' donde la inteligencia artificial comienza a buscar poder" . Fortuna . Consultado el 10 de junio de 2023 .
  75. ^ Wakefield, Jane (15 de septiembre de 2015). "¿Por qué Facebook está invirtiendo en IA?". Noticias de la BBC . Archivado desde el original el 2 de diciembre de 2017 . Consultado el 27 de noviembre de 2017 .
  76. ^ Yudkowsky, Eliezer (2011). "Se requieren sistemas de valor complejos para hacer realidad futuros valiosos" (PDF) . Archivado (PDF) desde el original el 29 de septiembre de 2015 . Consultado el 10 de agosto de 2020 .
  77. ^ ab Ord, Toby (2020). El precipicio: riesgo existencial y el futuro de la humanidad . Bloomsbury Publishing Plc. ISBN 978-1-5266-0019-6.
  78. ^ Yudkowsky, E. (agosto de 2011). Sistemas de valores complejos en una IA amigable. En Conferencia Internacional sobre Inteligencia General Artificial (págs. 388–393). Alemania: Springer, Berlín, Heidelberg.
  79. ^ Russell, Estuardo (2014). "De mitos y alcohol ilegal". Borde . Archivado desde el original el 19 de julio de 2016 . Consultado el 23 de octubre de 2015 .
  80. ^ Dietterich, Thomas ; Horvitz, Eric (2015). "Aumento de las preocupaciones sobre la IA: reflexiones y direcciones" (PDF) . Comunicaciones de la ACM . 58 (10): 38–40. doi :10.1145/2770869. S2CID  20395145. Archivado (PDF) desde el original el 4 de marzo de 2016 . Consultado el 23 de octubre de 2015 .
  81. ^ ab Yudkowsky, Eliezer (29 de marzo de 2023). "La carta abierta sobre la IA no va lo suficientemente lejos". Tiempo . Consultado el 16 de julio de 2023 .
  82. ^ Bostrom, Nick (1 de mayo de 2012). "La voluntad superinteligente: motivación y racionalidad instrumental en agentes artificiales avanzados". Mentes y Máquinas . 22 (2): 71–85. doi :10.1007/s11023-012-9281-3. ISSN  1572-8641. S2CID  254835485. Siempre que posean un nivel suficiente de inteligencia, los agentes que tengan cualquiera de una amplia gama de objetivos finales perseguirán objetivos intermedios similares porque tienen razones instrumentales para hacerlo.
  83. ^ ONG, Richard; Chan, Lorenzo; Sören Mindermann (22 de febrero de 2023). "El problema de la alineación desde una perspectiva del aprendizaje profundo". arXiv : 2209.00626 [cs.AI].
  84. ^ "Presentación de la superalineación". openai.com . Consultado el 16 de julio de 2023 .
  85. ^ Tilli, Cecilia (28 de abril de 2016). "¿Robots asesinos? ¿Trabajos perdidos?". Pizarra . Archivado desde el original el 11 de mayo de 2016 . Consultado el 15 de mayo de 2016 .
  86. ^ "Norvig contra Chomsky y la lucha por el futuro de la IA". Tor.com . 21 de junio de 2011. Archivado desde el original el 13 de mayo de 2016 . Consultado el 15 de mayo de 2016 .
  87. ^ Graves, Matthew (8 de noviembre de 2017). "Por qué deberíamos preocuparnos por la superinteligencia artificial". Escéptico (revista estadounidense) . vol. 22, núm. 2. Archivado desde el original el 13 de noviembre de 2017 . Consultado el 27 de noviembre de 2017 .
  88. ^ Johnson, Phil (30 de julio de 2015). "Houston, tenemos un error: 9 fallos de software famosos en el espacio". Mundo de TI . Archivado desde el original el 15 de febrero de 2019 . Consultado el 5 de febrero de 2018 .
  89. ^ Yampolskiy, Roman V. (8 de abril de 2014). "Seguridad de funciones de utilidad en agentes con inteligencia artificial". Revista de inteligencia artificial teórica y experimental . 26 (3): 373–389. doi :10.1080/0952813X.2014.895114. S2CID  16477341. Nada impide que los sistemas de mejora personal suficientemente inteligentes optimicen sus mecanismos de recompensa para optimizar el logro de sus objetivos actuales y, en el proceso, cometan un error que conduzca a la corrupción de sus funciones de recompensa.
  90. ^ "¿La inteligencia artificial destruirá a la humanidad? Aquí hay cinco razones para no preocuparse". Vox . 22 de agosto de 2014. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
  91. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias . Oxford, Reino Unido: Oxford University Press. pag. 116.ISBN 978-0-19-967811-2.
  92. ^ Bostrom, Nick (2012). "Voluntad superinteligente" (PDF) . Nick Bostrom . Archivado (PDF) desde el original el 28 de noviembre de 2015 . Consultado el 29 de octubre de 2015 .
  93. ^ Armstrong, Stuart (1 de enero de 2013). "Inteligencia de propósito general: argumentando la tesis de la ortogonalidad". Análisis y Metafísica . 12 . Archivado desde el original el 11 de octubre de 2014 . Consultado el 2 de abril de 2020 .Texto completo disponible aquí Archivado el 25 de marzo de 2020 en Wayback Machine .
  94. ^ ab Chorost, Michael (18 de abril de 2016). "Dejemos que la inteligencia artificial evolucione". Pizarra . Archivado desde el original el 27 de noviembre de 2017 . Consultado el 27 de noviembre de 2017 .
  95. ^ "¿Deberían los humanos temer el surgimiento de la máquina?" . The Telegraph (Reino Unido) . 1 de septiembre de 2015. Archivado desde el original el 12 de enero de 2022 . Consultado el 7 de febrero de 2016 .
  96. ^ ab Shermer, Michael (1 de marzo de 2017). "Apocalipsis IA". Científico americano . 316 (3): 77. Código Bib :2017SciAm.316c..77S. doi : 10.1038/scientificamerican0317-77. PMID  28207698. Archivado desde el original el 1 de diciembre de 2017 . Consultado el 27 de noviembre de 2017 .
  97. ^ "Máquinas inteligentes: ¿Qué quiere Facebook con la IA?". Noticias de la BBC . 14 de septiembre de 2015 . Consultado el 31 de marzo de 2023 .
  98. ^ Baum, Seth (30 de septiembre de 2018). "Contrarrestar la desinformación de la superinteligencia". Información . 9 (10): 244. doi : 10.3390/info9100244 . ISSN  2078-2489.
  99. ^ "El mito de la IA". www.edge.org . Archivado desde el original el 11 de marzo de 2020 . Consultado el 11 de marzo de 2020 .
  100. ^ Bostrom, Nick, Superinteligencia: caminos, peligros, estrategias (Audiolibro), ISBN 978-1-5012-2774-5, OCLC  1061147095.
  101. ^ Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 12. Código bibliográfico : 2015PhyS...90a8001S. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  102. ^ Pistón, Federico; Yampolskiy, Roman V. (9 de mayo de 2016). Investigación poco ética: cómo crear una inteligencia artificial malévola . OCLC  1106238048.
  103. ^ Haney, Brian Seamus (2018). "Los peligros y promesas de la inteligencia general artificial". Serie de documentos de trabajo de la SSRN . doi :10.2139/ssrn.3261254. ISSN  1556-5068. S2CID  86743553.
  104. ^ Russell, Stuart (30 de agosto de 2017). "Inteligencia artificial: el futuro es superinteligente". Naturaleza . 548 (7669): 520–521. Código Bib :2017Natur.548..520R. doi : 10.1038/548520a . S2CID  4459076.
  105. ^ abc Tegmark, Max (2017). Vida 3.0: Ser humano en la era de la inteligencia artificial (1ª ed.). Incorporación de la seguridad de la IA: Knopf. ISBN 978-0-451-48507-6.
  106. ^ Kumar, Vibhore. "Publicación del consejo: en los albores de la inteligencia general artificial: equilibrar la abundancia con las salvaguardias existenciales". Forbes . Consultado el 23 de julio de 2023 .
  107. ^ ab "Pausar experimentos gigantes de IA: una carta abierta". Instituto Futuro de la Vida . Consultado el 30 de marzo de 2023 .
  108. ^ "Principios de la IA". Instituto Futuro de la Vida . 11 de agosto de 2017. Archivado desde el original el 11 de diciembre de 2017 . Consultado el 11 de diciembre de 2017 .
  109. ^ "Elon Musk y Stephen Hawking advierten sobre una carrera armamentista en inteligencia artificial". Semana de noticias . 31 de enero de 2017. Archivado desde el original el 11 de diciembre de 2017 . Consultado el 11 de diciembre de 2017 .
  110. ^ Ford, Martín (2015). "Capítulo 9: La superinteligencia y la singularidad". El auge de los robots: la tecnología y la amenaza de un futuro sin empleo . Libros básicos. ISBN 978-0-465-05999-7.
  111. ^ Bostrom, Nick (2016). "Nuevo epílogo de la edición de bolsillo". Superinteligencia: caminos, peligros, estrategias (edición de bolsillo).
  112. ^ "Por qué la IA incontrolable parece más probable que nunca". Tiempo . 27 de febrero de 2023 . Consultado el 30 de marzo de 2023 . Por lo tanto, no sorprende que, según la más reciente Encuesta sobre los impactos de la IA, casi la mitad de los 731 principales investigadores de IA piensen que hay al menos un 10% de posibilidades de que la IA a nivel humano conduzca a un "resultado extremadamente negativo" o riesgo existencial.
  113. ^ ab Maas, Matthijs M. (6 de febrero de 2019). "¿Cuán viable es el control internacional de armas para la inteligencia artificial militar? Tres lecciones de las armas nucleares de destrucción masiva". Política de seguridad contemporánea . 40 (3): 285–311. doi :10.1080/13523260.2019.1576464. ISSN  1352-3260. S2CID  159310223.
  114. ^ ab "¿Impresionado por la inteligencia artificial? Los expertos dicen que AGI será el próximo paso y que tiene riesgos 'existenciales'". ABC Noticias . 23 de marzo de 2023 . Consultado el 30 de marzo de 2023 .
  115. ^ Rawlinson, Kevin (29 de enero de 2015). "Bill Gates de Microsoft insiste en que la IA es una amenaza". Noticias de la BBC . Archivado desde el original el 29 de enero de 2015 . Consultado el 30 de enero de 2015 .
  116. ^ Washington Post (14 de diciembre de 2015). "Los titanes de la tecnología como Elon Musk están gastando mil millones de dólares para salvarte de los terminadores". Tribuna de Chicago . Archivado desde el original el 7 de junio de 2016.
  117. ^ "El fin del mundo para la utopía: conozca las facciones rivales de la IA" . El Correo de Washington . 9 de abril de 2023 . Consultado el 30 de abril de 2023 .
  118. ^ "UC Berkeley - Centro para la IA compatible con humanos (2016)". Filantropía Abierta . 27 de junio de 2016 . Consultado el 30 de abril de 2023 .
  119. ^ "La misteriosa empresa de inteligencia artificial en la que invirtió Elon Musk está desarrollando computadoras inteligentes revolucionarias". Información privilegiada sobre tecnología . Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
  120. ^ Clark 2015a.
  121. ^ "Elon Musk está donando 10 millones de dólares de su propio dinero a la investigación de inteligencia artificial". Empresa Rápida . 15 de enero de 2015. Archivado desde el original el 30 de octubre de 2015 . Consultado el 30 de octubre de 2015 .
  122. ^ Tilli, Cecilia (28 de abril de 2016). "¿Robots asesinos? ¿Trabajos perdidos?". Pizarra . Archivado desde el original el 11 de mayo de 2016 . Consultado el 15 de mayo de 2016 .
  123. ^ Khatchadourian, Raffi (23 de noviembre de 2015). "La invención del fin del mundo: ¿La inteligencia artificial nos traerá utopía o destrucción?". El neoyorquino . Archivado desde el original el 29 de abril de 2019 . Consultado el 7 de febrero de 2016 .
  124. ^ "Al advertir del peligro de la IA, el pionero Geoffrey Hinton abandona Google para hablar libremente". www.arstechnica.com . 2023 . Consultado el 23 de julio de 2023 .
  125. ^ Garling, Caleb (5 de mayo de 2015). "Andrew Ng: Por qué el 'aprendizaje profundo' es un mandato para los humanos, no solo para las máquinas". Cableado . Consultado el 31 de marzo de 2023 .
  126. ^ "¿Es la inteligencia artificial realmente una amenaza existencial para la humanidad?". MambaPost . 4 de abril de 2023.
  127. ^ "El caso contra los robots asesinos, de un tipo que realmente trabaja en inteligencia artificial". Fusion.net . Archivado desde el original el 4 de febrero de 2016 . Consultado el 31 de enero de 2016 .
  128. ^ "Los expertos en inteligencia artificial desafían la narrativa ' fatalista ', incluidas las afirmaciones de 'riesgo de extinción'". VentureBeat . 31 de mayo de 2023 . Consultado el 8 de julio de 2023 .
  129. ^ Coldewey, Devin (1 de abril de 2023). "Los especialistas en ética responden a la carta de 'Pausa de IA' y dicen que 'ignora los daños reales'". TechCrunch . Consultado el 23 de julio de 2023 .
  130. ^ "DAIR (Instituto de investigación de IA distribuida)". Instituto DAIR . Consultado el 23 de julio de 2023 .
  131. ^ Kelly, Kevin (25 de abril de 2017). "El mito de una IA sobrehumana". Cableado . Archivado desde el original el 26 de diciembre de 2021 . Consultado el 19 de febrero de 2022 .
  132. ^ Jindal, Siddharth (7 de julio de 2023). "La búsqueda de OpenAI de alinear la IA es descabellada". Revista Analytics India . Consultado el 23 de julio de 2023 .
  133. ^ "Mark Zuckerberg responde a la paranoia de Elon Musk sobre la IA: 'La IA va a... ayudar a mantener seguras a nuestras comunidades'". Business Insider . 25 de mayo de 2018. Archivado desde el original el 6 de mayo de 2019 . Consultado el 6 de mayo de 2019 .
  134. ^ Dadich, Scott. "Barack Obama habla sobre IA, Robo Cars y el futuro del mundo". CABLEADO . Archivado desde el original el 3 de diciembre de 2017 . Consultado el 27 de noviembre de 2017 .
  135. ^ Kircher, Madison Malone. "Obama sobre los riesgos de la IA: 'Sólo hay que tener a alguien cerca del cable de alimentación'". Seleccionar todo . Archivado desde el original el 1 de diciembre de 2017 . Consultado el 27 de noviembre de 2017 .
  136. ^ Clinton, Hillary (2017). Qué pasó . Simón y Schuster. pag. 241.ISBN 978-1-5011-7556-5.vía [1] Archivado el 1 de diciembre de 2017 en Wayback Machine.
  137. ^ "Elon Musk dice que la IA podría condenar a la civilización humana. Zuckerberg no está de acuerdo. ¿Quién tiene razón?". 5 de enero de 2023. Archivado desde el original el 8 de enero de 2018 . Consultado el 8 de enero de 2018 .
  138. ^ "El fin del mundo de la IA preocupa a muchos estadounidenses. También lo hace el apocalipsis causado por el cambio climático, las armas nucleares, la guerra y más". 14 de abril de 2023. Archivado desde el original el 23 de junio de 2023 . Consultado el 9 de julio de 2023 .
  139. ^ Tyson, Alec; Kikuchi, Emma. "Creciente preocupación pública por el papel de la inteligencia artificial en la vida diaria". Centro de Investigación Pew . Consultado el 17 de septiembre de 2023 .
  140. ^ Sotala, Kaj; Yampolskiy, Roman (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1).
  141. ^ Barrett, Antonio M.; Baum, Seth D. (23 de mayo de 2016). "Un modelo de vías hacia la catástrofe de la superinteligencia artificial para el análisis de riesgos y decisiones". Revista de inteligencia artificial teórica y experimental . 29 (2): 397–414. arXiv : 1607.07730 . doi :10.1080/0952813x.2016.1186228. ISSN  0952-813X. S2CID  928824.
  142. ^ Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. Código bibliográfico : 2015PhyS...90a8001S. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949. S2CID  4749656.
  143. ^ Ramamoorthy, Anand; Yampolskiy, romano (2018). "¿Más allá de MAD? La carrera por la inteligencia artificial general". Descubrimientos TIC . 1 (Número especial 1). UIT: 1–8. Archivado desde el original el 7 de enero de 2022 . Consultado el 7 de enero de 2022 .
  144. ^ Carayannis, Elías G.; Draper, John (11 de enero de 2022). "Optimizar la paz a través de un Tratado de Paz Global Universal para limitar el riesgo de guerra por parte de una superinteligencia artificial militarizada". IA y sociedad : 1–14. doi :10.1007/s00146-021-01382-y. ISSN  0951-5666. PMC 8748529 . PMID  35035113. S2CID  245877737. 
  145. ^ Carayannis, Elías G.; Draper, John (30 de mayo de 2023), "El desafío de la ciberguerra avanzada y el lugar de la ciberpaz", The Elgar Companion to Digital Transformation, Artificial Intelligence and Innovation in the Economy, Society and Democracy , Edward Elgar Publishing, págs. 32–80 , doi :10.4337/9781839109362.00008, ISBN 978-1-83910-936-2, consultado el 8 de junio de 2023.
  146. ^ Vincent, James (22 de junio de 2016). "Los investigadores de inteligencia artificial de Google dicen que estos son los cinco problemas clave para la seguridad de los robots". El borde . Archivado desde el original el 24 de diciembre de 2019 . Consultado el 5 de abril de 2020 .
  147. ^ Amodei, Darío, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman y Dan Mané. "Problemas concretos en la seguridad de la IA". Preimpresión de arXiv arXiv:1606.06565 (2016).
  148. ^ Johnson, Alex (2019). "Elon Musk quiere conectar tu cerebro directamente a las computadoras, a partir del próximo año". Noticias NBC . Archivado desde el original el 18 de abril de 2020 . Consultado el 5 de abril de 2020 .
  149. ^ Torres, Phil (18 de septiembre de 2018). "Sólo mejorar radicalmente a la humanidad puede salvarnos a todos". Revista Pizarra . Archivado desde el original el 6 de agosto de 2020 . Consultado el 5 de abril de 2020 .
  150. ^ Barrett, Antonio M.; Baum, Seth D. (23 de mayo de 2016). "Un modelo de vías hacia la catástrofe de la superinteligencia artificial para el análisis de riesgos y decisiones". Revista de inteligencia artificial teórica y experimental . 29 (2): 397–414. arXiv : 1607.07730 . doi :10.1080/0952813X.2016.1186228. S2CID  928824.
  151. ^ Piper, Kelsey (29 de marzo de 2023). "Cómo probar lo que un modelo de IA puede y no debe hacer". Vox . Consultado el 28 de julio de 2023 .
  152. ^ Piesing, Mark (17 de mayo de 2012). "Levantamiento de la IA: los humanos serán subcontratados, no destruidos". Cableado . Archivado desde el original el 7 de abril de 2014 . Consultado el 12 de diciembre de 2015 .
  153. ^ Coughlan, Sean (24 de abril de 2013). "¿Cómo se van a extinguir los humanos?". Noticias de la BBC . Archivado desde el original el 9 de marzo de 2014 . Consultado el 29 de marzo de 2014 .
  154. ^ Puente, Mark (10 de junio de 2017). "Hacer que los robots pierdan confianza podría impedir que tomen el control". Los tiempos . Archivado desde el original el 21 de marzo de 2018 . Consultado el 21 de marzo de 2018 .
  155. ^ McGinnis, John (verano de 2010). "Acelerando la IA". Revista de derecho de la Universidad Northwestern . 104 (3): 1253-1270. Archivado desde el original el 15 de febrero de 2016 . Consultado el 16 de julio de 2014 . Por todas estas razones, verificar un tratado de renuncia global, o incluso uno limitado al desarrollo de armas relacionadas con la IA, no es un comienzo... (Por razones diferentes a las nuestras, el Machine Intelligence Research Institute) considera que la renuncia (AGI) es inviable...
  156. ^ Sotala, Kaj; Yampolskiy, Roman (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1). En general, la mayoría de los escritores rechazan las propuestas de renuncia amplia... Las propuestas de renuncia sufren muchos de los mismos problemas que las propuestas de regulación, pero en mayor medida. No existe ningún precedente histórico de tecnología general de usos múltiples similar a AGI que se haya renunciado con éxito para siempre, ni parece haber razones teóricas para creer que las propuestas de renuncia funcionarían en el futuro. Por lo tanto, no las consideramos una clase viable de propuestas.
  157. ^ Allenby, Brad (11 de abril de 2016). "La vara de medir cognitiva incorrecta". Pizarra . Archivado desde el original el 15 de mayo de 2016 . Consultado el 15 de mayo de 2016 . Es una fantasía sugerir que el acelerado desarrollo y despliegue de tecnologías que en conjunto se consideran IA se detendrá o limitará, ya sea mediante regulaciones o incluso mediante legislación nacional.
  158. ^ ab Yampolskiy, Roman V. (2022). "Escepticismo sobre el riesgo de IA". En Müller, Vincent C. (ed.). Filosofía y Teoría de la Inteligencia Artificial 2021 . Estudios en Filosofía Aplicada, Epistemología y Ética Racional. vol. 63. Cham: Editorial Internacional Springer. págs. 225–248. doi :10.1007/978-3-031-09153-7_18. ISBN 978-3-031-09153-7.
  159. ^ McGinnis, John (verano de 2010). "Acelerando la IA". Revista de derecho de la Universidad Northwestern . 104 (3): 1253-1270. Archivado desde el original el 15 de febrero de 2016 . Consultado el 16 de julio de 2014 .
  160. ^ "Por qué deberíamos pensar en la amenaza de la inteligencia artificial". El neoyorquino . 4 de octubre de 2013. Archivado desde el original el 4 de febrero de 2016 . Consultado el 7 de febrero de 2016 . Por supuesto, se podría intentar prohibir por completo las computadoras superinteligentes. Pero "la ventaja competitiva (económica, militar, incluso artística) de cada avance en la automatización es tan convincente", escribió Vernor Vinge , matemático y autor de ciencia ficción, "que aprobar leyes o tener costumbres que prohíban tales cosas simplemente Asegura que alguien más lo hará.
  161. ^ Baum, Seth (22 de agosto de 2018). "El escepticismo de la superinteligencia como herramienta política". Información . 9 (9): 209. doi : 10.3390/info9090209 . ISSN  2078-2489.
  162. ^ "Elon Musk y otros líderes tecnológicos piden una pausa en la carrera de IA 'fuera de control'". CNN . 29 de marzo de 2023 . Consultado el 30 de marzo de 2023 .
  163. ^ "Una carta abierta que pide una 'pausa' de la IA arroja luz sobre el feroz debate sobre los riesgos y las exageraciones". VentureBeat . 29 de marzo de 2023 . Consultado el 20 de julio de 2023 .
  164. ^ Vincent, James (14 de abril de 2023). "El director ejecutivo de OpenAI confirma que la empresa no está entrenando GPT-5 y" no lo hará durante algún tiempo"". El borde . Consultado el 20 de julio de 2023 .
  165. ^ "La carta abierta sobre la IA no va lo suficientemente lejos". Tiempo . 29 de marzo de 2023 . Consultado el 20 de julio de 2023 .
  166. ^ Domonoske, Camila (17 de julio de 2017). "Elon Musk advierte a los gobernadores: la inteligencia artificial plantea un riesgo existencial'". NPR . Archivado desde el original el 23 de abril de 2020 . Consultado el 27 de noviembre de 2017 .
  167. ^ Gibbs, Samuel (17 de julio de 2017). "Elon Musk: regule la IA para combatir la 'amenaza existencial' antes de que sea demasiado tarde". El guardián . Archivado desde el original el 6 de junio de 2020 . Consultado el 27 de noviembre de 2017 .
  168. ^ Kharpal, Arjun (7 de noviembre de 2017). "La IA está en su 'infancia' y es demasiado pronto para regularla, dice el director ejecutivo de Intel, Brian Krzanich". CNBC . Archivado desde el original el 22 de marzo de 2020 . Consultado el 27 de noviembre de 2017 .
  169. ^ Dawes, James (20 de diciembre de 2021). "La ONU no logra llegar a un acuerdo sobre la prohibición de los 'robots asesinos' mientras las naciones invierten miles de millones en la investigación de armas autónomas". La conversación . Consultado el 28 de julio de 2023 .
  170. ^ ab Fassihi, Farnaz (18 de julio de 2023). "Funcionarios de la ONU instan a regular la inteligencia artificial". Los New York Times . ISSN  0362-4331 . Consultado el 20 de julio de 2023 .
  171. ^ "La comunidad internacional debe enfrentar urgentemente la nueva realidad de la inteligencia artificial generativa, subrayan los oradores mientras el Consejo de Seguridad debate riesgos y recompensas". Naciones Unidas . Consultado el 20 de julio de 2023 .
  172. ^ Sotala, Kaj; Yampolskiy, Roman V. (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de AGI: una encuesta". Escritura física . 90 (1): 018001. Código bibliográfico : 2015PhyS...90a8001S. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  173. ^ Geist, Edward Moore (15 de agosto de 2016). "Ya es demasiado tarde para detener la carrera armamentista de la IA; en su lugar, debemos gestionarla". Boletín de los Científicos Atómicos . 72 (5): 318–321. Código Bib : 2016BuAtS..72e.318G. doi :10.1080/00963402.2016.1216672. ISSN  0096-3402. S2CID  151967826.
  174. ^ "Amazon, Google, Meta, Microsoft y otras empresas de tecnología aceptan las salvaguardias de IA establecidas por la Casa Blanca". Noticias AP . 21 de julio de 2023 . Consultado el 21 de julio de 2023 .
  175. ^ "Amazon, Google, Meta, Microsoft y otras empresas acuerdan salvaguardias de IA". Anunciante de Redditch . 21 de julio de 2023 . Consultado el 21 de julio de 2023 .
  176. ^ La Casa Blanca (30 de octubre de 2023). "Orden ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial". La casa Blanca . Consultado el 19 de diciembre de 2023 .

Bibliografía