stringtranslate.com

Singularidad tecnológica

La singularidad tecnológica —o simplemente la singularidad [1] — es un hipotético punto futuro en el que el crecimiento tecnológico se vuelve incontrolable e irreversible, lo que tiene consecuencias imprevisibles para la civilización humana. [2] [3] Según la versión más popular de la hipótesis de la singularidad, el modelo de explosión de inteligencia de IJ Good , un agente inteligente actualizable eventualmente entrará en un ciclo de retroalimentación positiva de ciclos de superación personal , en el que cada generación nueva y más inteligente aparecerá más. y más rápidamente, provocando un rápido aumento ("explosión") de la inteligencia que, en última instancia, da como resultado una poderosa superinteligencia que cualitativamente supera con creces toda la inteligencia humana . [4]

La primera persona en utilizar el concepto de "singularidad" en el contexto tecnológico fue el matemático húngaro-estadounidense del siglo XX John von Neumann . [5] Stanislaw Ulam informó en 1958 de una discusión anterior con von Neumann "centrada en el progreso acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos , tal como los conocemos, no podían continuar". [6] Autores posteriores se han hecho eco de este punto de vista. [3] [7]

El concepto y el término "singularidad" fueron popularizados por primera vez por Vernor Vinge en 1983 en un artículo que afirmaba que una vez que los humanos creen inteligencias superiores a la suya, habrá una transición tecnológica y social similar en cierto sentido a "el anudado espacio-tiempo". en el centro de un agujero negro", [8] y más tarde en su ensayo de 1993 The Coming Technological Singularity , [4] [7] en el que escribió que señalaría el fin de la era humana, a medida que la nueva superinteligencia continuaría modernizarse y avanzaría tecnológicamente a un ritmo incomprensible. Escribió que se sorprendería si ocurriera antes de 2005 o después de 2030. [4] Otro contribuyente significativo a una circulación más amplia de la noción fue el libro de Ray Kurzweil de 2005 The Singularity Is Near , que predice la singularidad para 2045. [7]

Algunos científicos, incluido Stephen Hawking , han expresado su preocupación de que la superinteligencia artificial (ASI) pueda provocar la extinción humana. [9] [10] Las consecuencias de la singularidad y su potencial beneficio o daño para la raza humana han sido intensamente debatidas.

Destacados tecnólogos y académicos cuestionan la plausibilidad de una singularidad tecnológica y la explosión de inteligencia artificial asociada, incluidos Paul Allen , [11] Jeff Hawkins , [12] John Holland , Jaron Lanier , Steven Pinker , [12] Theodore Modis , [13] y Gordon Moore . [12] Una afirmación fue que el crecimiento de la inteligencia artificial probablemente generará rendimientos decrecientes en lugar de acelerados, como se observó en tecnologías humanas desarrolladas anteriormente.

Explosión de inteligencia

Aunque el progreso tecnológico se ha acelerado en la mayoría de los ámbitos, se ha visto limitado por la inteligencia básica del cerebro humano, que, según Paul R. Ehrlich , no ha cambiado significativamente durante milenios. [14] Sin embargo, con el creciente poder de las computadoras y otras tecnologías, eventualmente podría ser posible construir una máquina que sea significativamente más inteligente que los humanos. [15]

Si se inventara una inteligencia sobrehumana, ya sea mediante la amplificación de la inteligencia humana o mediante la inteligencia artificial, en teoría, mejoraría enormemente las habilidades inventivas y de resolución de problemas de los humanos. Esta IA se conoce como IA Semilla [16] [17] porque si se creara con capacidades de ingeniería que igualaran o superaran las de sus creadores humanos, tendría el potencial de mejorar de forma autónoma su propio software y hardware para diseñar una máquina aún más capaz, que podría repetir el proceso a su vez. Esta autosuperación recursiva podría acelerarse, permitiendo potencialmente un enorme cambio cualitativo antes de que se establezcan los límites superiores impuestos por las leyes de la física o la computación teórica. Se especula que, tras muchas iteraciones, una IA de este tipo superaría con creces las capacidades cognitivas humanas .

IJ Good especuló en 1965 que la inteligencia sobrehumana podría provocar una explosión de inteligencia: [18] [19]

Definamos una máquina ultrainteligente como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; entonces se produciría sin duda una "explosión de inteligencia" y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesitará hacer, siempre que la máquina sea lo suficientemente dócil como para decirnos cómo mantenerla bajo control.

Una versión de la explosión de la inteligencia es aquella en la que la potencia informática se acerca al infinito en un período de tiempo finito. En esta versión, una vez que las IA realizan la investigación para mejorar, la velocidad se duplica, por ejemplo, después de 2 años, luego 1 año, luego 6 meses, luego 3 meses, luego 1,5 meses, etc., donde la suma infinita de los períodos de duplicación es 4. años. A menos que lo impidan los límites físicos de la computación y la cuantificación del tiempo, este proceso alcanzaría literalmente una potencia de computación infinita en 4 años, ganándose apropiadamente el nombre de "singularidad" para el estado final. Esta forma de explosión de inteligencia se describe en Yudkowsky (1996). [20]

Aparición de la superinteligencia

Una superinteligencia, hiperinteligencia o inteligencia sobrehumana es un agente hipotético que posee una inteligencia que supera con creces la de las mentes humanas más brillantes y dotadas. "Superinteligencia" también puede referirse a la forma o grado de inteligencia que posee dicho agente. John von Neumann , Vernor Vinge y Ray Kurzweil definen el concepto en términos de la creación tecnológica de superinteligencia, argumentando que es difícil o imposible para los humanos actuales predecir cómo serían las vidas de los seres humanos en un mundo post-singularidad. . [4] [21]

El concepto relacionado "superinteligencia de velocidad" describe una IA que puede funcionar como una mente humana, sólo que mucho más rápido. [22] Por ejemplo, con un aumento de un millón de veces en la velocidad de procesamiento de la información en relación con la de los humanos, un año subjetivo pasaría en 30 segundos físicos. [23] Tal diferencia en la velocidad de procesamiento de la información podría impulsar la singularidad. [24]

Los pronosticadores e investigadores tecnológicos no están de acuerdo sobre cuándo o si es probable que se supere la inteligencia humana. Algunos sostienen que los avances en inteligencia artificial (IA) probablemente darán lugar a sistemas de razonamiento general que superen las limitaciones cognitivas humanas. Otros creen que los humanos evolucionarán o modificarán directamente su biología para alcanzar una inteligencia radicalmente mayor. [25] [26] Varios estudios de futuros se centran en escenarios que combinan estas posibilidades, lo que sugiere que es probable que los humanos interactúen con las computadoras , o carguen sus mentes en las computadoras , de una manera que permita una amplificación sustancial de la inteligencia. El libro The Age of Em de Robin Hanson describe un escenario futuro hipotético en el que los cerebros humanos se escanean y digitalizan, creando "cargas" o versiones digitales de la conciencia humana. En este futuro, el desarrollo de estas cargas puede preceder o coincidir con la aparición de la inteligencia artificial superinteligente. [27]

Variaciones

Singularidad sin IA

Algunos escritores usan "la singularidad" de una manera más amplia para referirse a cualquier cambio radical en la sociedad provocado por la nueva tecnología (como la nanotecnología molecular ), [28] [29] [30] aunque Vinge y otros escritores afirman específicamente que sin superinteligencia , tales cambios no calificarían como una verdadera singularidad. [4]

Predicciones

En 1965, IJ Good escribió que lo más probable es que se construya una máquina ultrainteligente en el siglo XX. [18] En 1993, Vinge predijo una inteligencia superior a la humana entre 2005 y 2030. [4] En 1996, Yudkowsky predijo una singularidad en 2021. [20] En 2005, Kurzweil predijo una IA a nivel humano alrededor de 2029, [31] y la singularidad en 2045. [32] En una entrevista de 2017, Kurzweil reafirmó sus estimaciones. [33] En 1988, Moravec predijo que si el ritmo de mejora continúa, las capacidades informáticas para la IA a nivel humano estarían disponibles en supercomputadoras antes de 2010. [34] En 1998, Moravec predijo que la IA a nivel humano para 2040, y la inteligencia estaría lejos más allá de lo humano para 2050. [35]

Cuatro encuestas a investigadores de IA, realizadas en 2012 y 2013 por Nick Bostrom y Vincent C. Müller , sugirieron una confianza del 50% en que la IA a nivel humano se desarrollaría entre 2040 y 2050. [36] [37]

Plausibilidad

Destacados tecnólogos y académicos cuestionan la plausibilidad de una singularidad tecnológica, incluidos Paul Allen , [11] Jeff Hawkins , [12] John Holland , Jaron Lanier , Steven Pinker , [12] Theodore Modis , [13] y Gordon Moore , [12] cuya ley se cita a menudo en apoyo del concepto. [38]

La mayoría de los métodos propuestos para crear mentes sobrehumanas o transhumanas se dividen en una de dos categorías: amplificación de la inteligencia del cerebro humano e inteligencia artificial. Las muchas formas especuladas de aumentar la inteligencia humana incluyen la bioingeniería , la ingeniería genética , los fármacos nootrópicos , los asistentes de inteligencia artificial, las interfaces directas cerebro-computadora y la carga mental . Estos múltiples caminos posibles hacia una explosión de inteligencia, todos los cuales presumiblemente serán seguidos, hacen que una singularidad sea más probable. [23]

Robin Hanson expresó su escepticismo sobre el aumento de la inteligencia humana y escribió que una vez que se haya agotado el "fruto más fácil" de los métodos sencillos para aumentar la inteligencia humana, será cada vez más difícil realizar más mejoras. [39] A pesar de todas las formas especuladas para amplificar la inteligencia humana, la inteligencia artificial no humana (específicamente la IA de semillas) es la opción más popular entre las hipótesis que avanzarían en la singularidad. [ cita necesaria ]

La posibilidad de una explosión de inteligencia depende de tres factores. [40] El primer factor acelerador son las nuevas mejoras de inteligencia posibles gracias a cada mejora anterior. Por el contrario, a medida que las inteligencias se vuelven más avanzadas, los avances futuros serán cada vez más complicados, posiblemente superando la ventaja de una mayor inteligencia. Cada mejora debería generar al menos una mejora más, en promedio, para que continúe el movimiento hacia la singularidad. Finalmente, las leyes de la física pueden eventualmente impedir mayores mejoras.

Hay dos causas lógicamente independientes, pero que se refuerzan mutuamente, de las mejoras en la inteligencia: aumentos en la velocidad de cálculo y mejoras en los algoritmos utilizados. [7] El primero está predicho por la Ley de Moore y las mejoras previstas en el hardware, [41] y es comparativamente similar a avances tecnológicos anteriores. Pero Schulman y Sandberg [42] sostienen que el software presentará desafíos más complejos que simplemente operar en hardware capaz de funcionar a niveles de inteligencia humana o superiores.

Una encuesta por correo electrónico realizada en 2017 a autores con publicaciones en las conferencias de aprendizaje automático NeurIPS e ICML de 2015 preguntó sobre la posibilidad de que "el argumento de la explosión de inteligencia sea, en términos generales, correcto". De los encuestados, el 12% dijo que era "bastante probable", el 17% dijo que era "probable", el 21% dijo que era "casi uniforme", el 24% dijo que era "improbable" y el 26% dijo que era "bastante improbable". ". [43]

Mejoras de velocidad

Tanto para la inteligencia humana como para la artificial, las mejoras de hardware aumentan la tasa de futuras mejoras de hardware. Una analogía con la Ley de Moore sugiere que si la primera duplicación de la velocidad tardó 18 meses, la segunda tardaría 18 meses subjetivos; o 9 meses externos, luego cuatro meses, dos meses, y así sucesivamente hasta una singularidad de velocidad. [44] [20] Es posible que eventualmente se alcance algún límite superior de velocidad. Jeff Hawkins ha declarado que un sistema informático que se mejore a sí mismo inevitablemente se topará con límites superiores en la potencia informática: "al final, hay límites en cuanto a cuán grandes y rápidos pueden funcionar los ordenadores. Terminaríamos en el mismo lugar; simplemente Llegar allí un poco más rápido. No habría singularidad". [12]

Es difícil comparar directamente el hardware basado en silicio con las neuronas . Pero Berglas (2008) señala que el reconocimiento de voz por ordenador se está acercando a las capacidades humanas, y que esta capacidad parece requerir el 0,01% del volumen del cerebro. Esta analogía sugiere que el hardware informático moderno está a unos pocos órdenes de magnitud de ser tan poderoso como el cerebro humano .

Crecimiento exponencial

Ray Kurzweil escribe que, debido a cambios de paradigma , una tendencia de crecimiento exponencial extiende la ley de Moore desde los circuitos integrados hasta los primeros transistores , tubos de vacío , relés y computadoras electromecánicas . Predice que el crecimiento exponencial continuará y que en unas pocas décadas la potencia de cálculo de todas las computadoras superará la de los cerebros humanos ("no mejorados"), y que la inteligencia artificial sobrehumana aparecerá aproximadamente al mismo tiempo.
Una versión actualizada de la ley de Moore durante 120 años (basada en el gráfico de Kurzweil ). Los 7 puntos de datos más recientes son todos GPU de Nvidia .

El crecimiento exponencial de la tecnología informática sugerido por la ley de Moore se cita comúnmente como una razón para esperar una singularidad en un futuro relativamente cercano, y varios autores han propuesto generalizaciones de la ley de Moore. El científico informático y futurista Hans Moravec propuso en un libro de 1998 [45] que la curva de crecimiento exponencial podría extenderse hacia atrás a través de tecnologías informáticas anteriores al circuito integrado .

Ray Kurzweil postula una ley de rendimientos acelerados en la que la velocidad del cambio tecnológico (y más generalmente, de todos los procesos evolutivos) [46] aumenta exponencialmente, generalizando la ley de Moore de la misma manera que la propuesta de Moravec, e incluyendo también la tecnología material (especialmente la aplicada). hasta nanotecnología ), tecnología médica y otros. [47] Entre 1986 y 2007, la capacidad de las aplicaciones específicas de las máquinas para calcular información per cápita aproximadamente se duplicó cada 14 meses; la capacidad per cápita de las computadoras de uso general del mundo se ha duplicado cada 18 meses; la capacidad mundial de telecomunicaciones per cápita se duplicó cada 34 meses; y la capacidad de almacenamiento mundial per cápita se duplicó cada 40 meses. [48] ​​Por otro lado, se ha argumentado que el patrón de aceleración global que tiene como parámetro la singularidad del siglo XXI debería caracterizarse como hiperbólico en lugar de exponencial. [49]

Kurzweil reserva el término "singularidad" para un rápido aumento de la inteligencia artificial (a diferencia de otras tecnologías), escribiendo por ejemplo que "La Singularidad nos permitirá trascender estas limitaciones de nuestros cuerpos y cerebros biológicos... No habrá distinción". , post-Singularidad, entre humano y máquina". [50] También define su fecha predicha de la singularidad (2045) en términos de cuándo espera que las inteligencias basadas en computadora superen significativamente la suma total de la capacidad intelectual humana, y escribe que los avances en la informática antes de esa fecha "no representarán la Singularidad". porque "todavía no corresponden a una expansión profunda de nuestra inteligencia". [51]

Acelerando el cambio

Según Kurzweil, su gráfico logarítmico de 15 listas de cambios de paradigma para acontecimientos históricos clave muestra una tendencia exponencial .

Algunos defensores de la singularidad argumentan su inevitabilidad mediante la extrapolación de tendencias pasadas, especialmente aquellas relacionadas con acortar las brechas entre las mejoras tecnológicas. En uno de los primeros usos del término "singularidad" en el contexto del progreso tecnológico, Stanislaw Ulam habla de una conversación con John von Neumann sobre la aceleración del cambio:

Una conversación se centró en el progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que dan la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, tal como los conocemos, no podrían continuar. [6]

Kurzweil afirma que el progreso tecnológico sigue un patrón de crecimiento exponencial , siguiendo lo que él llama la " ley de los rendimientos acelerados ". Siempre que la tecnología se acerca a una barrera, escribe Kurzweil, las nuevas tecnologías la superarán. Predice que los cambios de paradigma serán cada vez más comunes, lo que conducirá a "un cambio tecnológico tan rápido y profundo que representa una ruptura en el tejido de la historia humana". [52] Kurzweil cree que la singularidad ocurrirá aproximadamente en 2045. [47] Sus predicciones difieren de las de Vinge en que predice un ascenso gradual a la singularidad, en lugar de la inteligencia sobrehumana de rápida mejora de Vinge.

Los peligros que se citan con frecuencia incluyen aquellos comúnmente asociados con la nanotecnología molecular y la ingeniería genética . Estas amenazas son cuestiones importantes tanto para los defensores como para los críticos de la singularidad, y fueron el tema del artículo de Bill Joy de abril de 2000 en la revista Wired " Por qué el futuro no nos necesita ". [7] [53]

Mejoras de algoritmo

Algunas tecnologías de inteligencia, como la "IA semilla", [16] [17] también pueden tener el potencial no solo de volverse más rápidas, sino también más eficientes, modificando su código fuente . Estas mejoras harían posibles más mejoras, lo que haría posibles más mejoras, y así sucesivamente.

El mecanismo para un conjunto de algoritmos de mejora automática recursiva difiere de un aumento en la velocidad de cálculo bruta en dos formas. En primer lugar, no requiere influencia externa: las máquinas que diseñan hardware más rápido aún requerirían humanos para crear el hardware mejorado o programar las fábricas de manera adecuada. [ cita requerida ] Una IA que reescribe su propio código fuente podría hacerlo mientras esté contenida en una caja de IA .

En segundo lugar, al igual que ocurre con la concepción de la singularidad de Vernor Vinge , es mucho más difícil predecir el resultado. Si bien los aumentos de velocidad parecen ser sólo una diferencia cuantitativa con respecto a la inteligencia humana, las mejoras reales en los algoritmos serían cualitativamente diferentes. Eliezer Yudkowsky lo compara con los cambios que trajo la inteligencia humana: los humanos cambiaron el mundo miles de veces más rápidamente que lo había hecho la evolución, y de maneras totalmente diferentes. De manera similar, la evolución de la vida supuso un cambio y una aceleración masivos con respecto a los ritmos de cambio geológicos anteriores, y una inteligencia mejorada podría hacer que el cambio volviera a ser igual de diferente. [54]

Existen peligros sustanciales asociados con una singularidad de explosión de inteligencia que se origina a partir de un conjunto de algoritmos que se mejoran recursivamente. En primer lugar, la estructura de objetivos de la IA podría automodificarse, lo que podría provocar que la IA se optimice para algo distinto de lo que se pretendía originalmente. [55] [56]

En segundo lugar, las IA podrían competir por los mismos recursos escasos que utiliza la humanidad para sobrevivir. [57] [58] Si bien no son activamente maliciosas, las IA promoverían los objetivos de su programación, no necesariamente objetivos humanos más amplios, y por lo tanto podrían desplazar a los humanos. [59] [60] [61]

Carl Shulman y Anders Sandberg sugieren que las mejoras en los algoritmos pueden ser el factor limitante de una singularidad; Si bien la eficiencia del hardware tiende a mejorar a un ritmo constante, las innovaciones en software son más impredecibles y pueden verse obstaculizadas por investigaciones acumulativas y en serie. Sugieren que en el caso de una singularidad limitada por software, la explosión de inteligencia sería en realidad más probable que con una singularidad limitada por hardware, porque en el caso limitado por software, una vez que se desarrolla la IA a nivel humano, podría ejecutarse en serie en muy El hardware rápido y la abundancia de hardware barato harían que la investigación en IA estuviera menos limitada. [62] Una gran cantidad de hardware acumulado que puede liberarse una vez que el software descubre cómo usarlo se ha denominado "sobrecarga informática". [63]

Crítica

Algunos críticos, como el filósofo Hubert Dreyfus [64] y el filósofo John Searle , [65] afirman que las computadoras o las máquinas no pueden alcanzar la inteligencia humana . Otros, como el físico Stephen Hawking , [66] objetan que si las máquinas pueden lograr una verdadera inteligencia o simplemente algo similar a la inteligencia es irrelevante si el resultado neto es el mismo.

El psicólogo Steven Pinker afirmó en 2008: "No hay la más mínima razón para creer en una singularidad venidera. El hecho de que puedas visualizar un futuro en tu imaginación no es evidencia de que sea probable o incluso posible. Mire las ciudades con cúpulas, los aviones- viajes diarios al trabajo, ciudades submarinas, edificios de una milla de altura y automóviles de propulsión nuclear: todos elementos básicos de las fantasías futuristas de cuando era niño y que nunca llegaron. El puro poder de procesamiento no es un polvo de hadas que resuelve mágicamente todos tus problemas. [12]

Martin Ford [67] postula una "paradoja tecnológica" en el sentido de que antes de que pudiera ocurrir la singularidad, la mayoría de los trabajos rutinarios en la economía estarían automatizados, ya que esto requeriría un nivel de tecnología inferior al de la singularidad. Esto provocaría un desempleo masivo y una caída de la demanda de los consumidores, lo que a su vez destruiría el incentivo para invertir en las tecnologías necesarias para lograr la Singularidad. El desplazamiento del empleo ya no se limita cada vez más a aquellos tipos de trabajo tradicionalmente considerados "rutinarios". [68]

Theodore Modis [69] y Jonathan Huebner [70] sostienen que la tasa de innovación tecnológica no sólo ha dejado de aumentar, sino que ahora está disminuyendo. La evidencia de esta disminución es que el aumento en las velocidades de reloj de las computadoras se está desacelerando, incluso mientras la predicción de Moore de un aumento exponencial de la densidad de los circuitos continúa manteniéndose. Esto se debe a la acumulación excesiva de calor en el chip, que no se puede disipar lo suficientemente rápido como para evitar que el chip se derrita cuando funciona a velocidades más altas. Es posible que en el futuro se puedan lograr avances en la velocidad gracias a diseños de CPU y procesadores multicelulares más eficientes energéticamente. [71]

Theodore Modis sostiene que la singularidad no puede suceder. [72] [13] [73] Afirma que la "singularidad tecnológica" y especialmente Kurzweil carecen de rigor científico; Se alega que Kurzweil confunde la función logística (función S) con una función exponencial y ve una "rodilla" en una función exponencial donde en realidad no puede existir tal cosa. [74] En un artículo de 2021, Modis señaló que en los veinte años anteriores no se habían observado hitos (rupturas en la perspectiva histórica comparables en importancia a Internet, el ADN, el transistor o la energía nuclear), mientras que cinco de ellos se habrían cumplido. esperado según la tendencia exponencial propugnada por los defensores de la singularidad tecnológica. [75]

El investigador de inteligencia artificial Jürgen Schmidhuber afirmó que la frecuencia de "eventos subjetivamente notables" parece acercarse a una singularidad del siglo XXI, pero advirtió a los lectores que tomen esas tramas de eventos subjetivos con cautela: tal vez las diferencias en la memoria de eventos recientes y distantes podrían crear una ilusión de cambio acelerado donde no existe. [76]

El cofundador de Microsoft, Paul Allen, argumentó lo contrario de los retornos acelerados, el freno de la complejidad; [11] cuanto más avanza la ciencia hacia la comprensión de la inteligencia, más difícil resulta lograr avances adicionales. Un estudio del número de patentes muestra que la creatividad humana no muestra rendimientos acelerados, sino, de hecho, como sugiere Joseph Tainter en su El colapso de las sociedades complejas , [77] una ley de rendimientos decrecientes . El número de patentes por mil alcanzó su punto máximo en el período de 1850 a 1900 y ha ido disminuyendo desde entonces. [70] El crecimiento de la complejidad eventualmente se vuelve autolimitado y conduce a un "colapso general de los sistemas" generalizado.

Hofstadter (2006) plantea la preocupación de que Ray Kurzweil no sea suficientemente riguroso científicamente, que una tendencia exponencial de la tecnología no sea una ley científica como una de la física y que las curvas exponenciales no tengan "rodillas". [78] Sin embargo, no descartó la singularidad en principio en un futuro lejano [12] y, a la luz de ChatGPT y otros avances recientes, ha revisado significativamente su opinión hacia un cambio tecnológico dramático en el futuro cercano. [79]

Jaron Lanier niega que la singularidad sea inevitable: "No creo que la tecnología se esté creando a sí misma. No es un proceso autónomo". [80] Además: "La razón para creer en la agencia humana sobre el determinismo tecnológico es que entonces se puede tener una economía en la que las personas se ganen la vida e inventen sus propias vidas. Si se estructura una sociedad sin enfatizar la agencia humana individual, es el operacionalmente es lo mismo que negarle a la gente influencia, dignidad y autodeterminación ... abrazar [la idea de la Singularidad] sería una celebración de los malos datos y la mala política". [80]

El economista Robert J. Gordon señala que el crecimiento económico medido se desaceleró alrededor de 1970 y se desaceleró aún más desde la crisis financiera de 2007-2008 , y sostiene que los datos económicos no muestran ningún rastro de una Singularidad venidera como la imaginada por el matemático IJ Good . [81]

El filósofo y científico cognitivo Daniel Dennett dijo en 2017: "Todo el asunto de la singularidad es absurdo. Nos distrae de problemas mucho más urgentes", y agregó: "Las herramientas de inteligencia artificial de las que nos volvemos hiperdependientes, eso va a suceder. Y una de El peligro es que les daremos más autoridad de la que merecen". [82]

Además de las críticas generales al concepto de singularidad, varios críticos han planteado problemas con el gráfico icónico de Kurzweil. Una línea de crítica es que un gráfico log-log de esta naturaleza está inherentemente sesgado hacia un resultado de línea recta. Otros identifican un sesgo de selección en los puntos que Kurzweil decide utilizar. Por ejemplo, el biólogo PZ Myers señala que muchos de los primeros "acontecimientos" evolutivos fueron elegidos arbitrariamente. [83] Kurzweil ha refutado esto trazando eventos evolutivos de 15 fuentes neutrales y mostrando que se ajustan a una línea recta en un gráfico log-log . Kelly (2006) sostiene que la forma en que se construye el gráfico de Kurzweil con el eje x teniendo tiempo antes del presente, siempre apunta a que la singularidad es "ahora", para cualquier fecha en la que se construiría dicho gráfico, y lo muestra visualmente en La carta de Kurzweil. [84]

Algunos críticos sugieren motivaciones religiosas o implicaciones de la singularidad, especialmente la versión de Kurzweil. La preparación hacia la Singularidad se compara con los escenarios judeocristianos del fin de los tiempos. Beam lo llama "una visión de Buck Rogers del hipotético rapto cristiano". [85] John Gray dice que "la Singularidad se hace eco de mitos apocalípticos en los que la historia está a punto de ser interrumpida por un evento que transformará el mundo". [86]

David Streitfeld en The New York Times cuestionó si "podría manifestarse ante todo -gracias, en parte, a la obsesión por los resultados del Silicon Valley de hoy- como una herramienta para reducir el número de empleados de las empresas estadounidenses". [87]

Impactos potenciales

En el pasado se han producido cambios dramáticos en la tasa de crecimiento económico debido al avance tecnológico. En función del crecimiento demográfico, la economía se duplicó cada 250.000 años desde el Paleolítico hasta la Revolución Neolítica . La nueva economía agrícola se duplicó cada 900 años, un aumento notable. En la era actual, comenzando con la Revolución Industrial, la producción económica mundial se duplica cada quince años, sesenta veces más rápido que durante la era agrícola. Si el auge de la inteligencia sobrehumana provoca una revolución similar, sostiene Robin Hanson, uno esperaría que la economía se duplicara al menos trimestralmente y posiblemente semanalmente. [88]

Incertidumbre y riesgo

El término "singularidad tecnológica" refleja la idea de que ese cambio puede ocurrir repentinamente y que es difícil predecir cómo funcionaría el nuevo mundo resultante. [89] [90] No está claro si una explosión de inteligencia que resulte en una singularidad sería beneficiosa o perjudicial, o incluso una amenaza existencial . [91] [92] Debido a que la IA es un factor importante en el riesgo de singularidad, varias organizaciones siguen una teoría técnica para alinear los sistemas de objetivos de IA con los valores humanos, incluido el Future of Humanity Institute , el Machine Intelligence Research Institute , [89] el Centro de Inteligencia Artificial Compatible con los Humanos y el Instituto Futuro de la Vida .

El físico Stephen Hawking dijo en 2014 que "el éxito en la creación de IA sería el mayor acontecimiento en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos". [93] Hawking creía que en las próximas décadas, la IA podría ofrecer "beneficios y riesgos incalculables", tales como "la tecnología sería más astuta que los mercados financieros, más inventiva que los investigadores humanos, mejor manipulación de los líderes humanos y el desarrollo de armas que ni siquiera podemos entender". [93] Hawking sugirió que la inteligencia artificial debería tomarse más en serio y que se debería hacer más para prepararse para la singularidad: [93]

Entonces, ante posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Equivocado. Si una civilización alienígena superior nos enviara un mensaje diciendo: "Llegaremos en unas pocas décadas", ¿le responderíamos simplemente: "Está bien, llámenos cuando llegue aquí; dejaremos las luces encendidas"? Probablemente no, pero esto es más o menos lo que está sucediendo con la IA.

Berglas (2008) afirma que no existe una motivación evolutiva directa para que una IA sea amigable con los humanos. La evolución no tiene una tendencia inherente a producir resultados valorados por los humanos, y hay pocas razones para esperar que un proceso de optimización arbitrario promueva un resultado deseado por la humanidad, en lugar de conducir inadvertidamente a una IA a comportarse de una manera no prevista por sus creadores. [94] [95] [96] Anders Sandberg también ha elaborado este escenario, abordando varios contraargumentos comunes. [97] El investigador de IA Hugo de Garis sugiere que las inteligencias artificiales pueden simplemente eliminar a la raza humana para acceder a recursos escasos , [57] [98] y los humanos serían impotentes para detenerlos. [99] Alternativamente, las IA desarrolladas bajo presión evolutiva para promover su propia supervivencia podrían superar a la humanidad. [61]

Bostrom (2002) analiza escenarios de extinción humana y enumera la superinteligencia como una posible causa:

Cuando creamos la primera entidad superinteligente, podríamos cometer un error y asignarle objetivos que la lleven a aniquilar a la humanidad, asumiendo que su enorme ventaja intelectual le otorga el poder para hacerlo. Por ejemplo, podríamos elevar por error un subobjetivo al estado de superobjetivo. Le decimos que resuelva un problema matemático, y él cumple convirtiendo toda la materia del sistema solar en un dispositivo de cálculo gigante, matando en el proceso a la persona que hizo la pregunta.

Según Eliezer Yudkowsky , un problema importante en la seguridad de la IA es que es probable que una inteligencia artificial hostil sea mucho más fácil de crear que una IA amigable. Si bien ambos requieren grandes avances en el diseño de procesos de optimización recursiva, la IA amigable también requiere la capacidad de hacer que las estructuras de objetivos sean invariantes bajo la superación personal (o la IA podría transformarse en algo hostil) y una estructura de objetivos que se alinee con los valores humanos y no automáticamente. destruir la raza humana. Una IA hostil, por otro lado, puede optimizar una estructura de objetivos arbitraria, que no necesita ser invariante bajo automodificación. [100] Bill Hibbard (2014) propone un diseño de IA que evita varios peligros, incluido el autoengaño, [101] acciones instrumentales no deseadas, [55] [102] y la corrupción del generador de recompensas. [102] También analiza los impactos sociales de la IA [103] y las pruebas de IA. [104] Su libro de 2001 Super-Intelligent Machines defiende la necesidad de educación pública sobre la IA y el control público sobre la IA. También propuso un diseño simple que era vulnerable a la corrupción del generador de recompensas.

Próximo paso de la evolución sociobiológica

Cronología esquemática de la información y los replicadores en la biosfera: las " principales transiciones evolutivas " de Gillings et al. En el procesamiento de la información. [105]
Cantidad de información digital a nivel mundial (5 × 1021 bytes) versus información del genoma humano en todo el mundo (10 19 bytes) en 2014 [105]

Si bien la singularidad tecnológica suele verse como un acontecimiento repentino, algunos académicos sostienen que la velocidad actual del cambio ya se ajusta a esta descripción. [ cita necesaria ]

Además, algunos sostienen que ya estamos en medio de una importante transición evolutiva que fusiona tecnología, biología y sociedad. La tecnología digital se ha infiltrado en el tejido de la sociedad humana hasta un grado de dependencia indiscutible y, a menudo, sustentadora de la vida.

Un artículo de 2016 en Trends in Ecology & Evolution sostiene que "los humanos ya adoptan fusiones de biología y tecnología. Pasamos la mayor parte de nuestro tiempo de vigilia comunicándonos a través de canales mediados digitalmente... confiamos nuestras vidas a la inteligencia artificial a través de frenos antibloqueo en automóviles y pilotos automáticos" . en aviones... Dado que uno de cada tres noviazgos que conducen a matrimonios en Estados Unidos comienzan en línea, los algoritmos digitales también están desempeñando un papel en el vínculo y la reproducción de las parejas humanas".

El artículo sostiene además que, desde la perspectiva de la evolución , varias transiciones importantes anteriores en la evolución han transformado la vida a través de innovaciones en el almacenamiento y la replicación de información ( ARN , ADN , multicelularidad y cultura y lenguaje ). En la etapa actual de la evolución de la vida, la biosfera basada en el carbono ha generado un sistema cognitivo (los humanos) capaz de crear tecnología que dará como resultado una transición evolutiva comparable .

La información digital creada por los humanos ha alcanzado una magnitud similar a la información biológica en la biosfera. Desde la década de 1980, la cantidad de información digital almacenada se ha duplicado aproximadamente cada 2,5 años, alcanzando unos 5 zettabytes en 2014 (5 × 1021 bytes). [106]

En términos biológicos, hay 7.200 millones de seres humanos en el planeta y cada uno tiene un genoma de 6.200 millones de nucleótidos. Dado que un byte puede codificar cuatro pares de nucleótidos, los genomas individuales de cada ser humano del planeta podrían codificarse en aproximadamente 1 × 1019 bytes. El ámbito digital almacenó 500 veces más información que esta en 2014 (ver figura). Se estima que la cantidad total de ADN contenida en todas las células de la Tierra es de aproximadamente 5,3 × 1037 pares de bases, equivalente a 1,325 × 1037 bytes de información.

Si el crecimiento del almacenamiento digital continúa a su ritmo actual de 30-38% de crecimiento anual compuesto por año, [48] rivalizará con el contenido total de información contenido en todo el ADN de todas las células de la Tierra dentro de unos 110 años. Esto representaría duplicar la cantidad de información almacenada en la biosfera durante un período total de sólo 150 años". [105]

Implicaciones para la sociedad humana

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de destacados científicos informáticos, investigadores de inteligencia artificial y robóticos en el centro de conferencias Asilomar en Pacific Grove, California. El objetivo era discutir el impacto potencial de la hipotética posibilidad de que los robots pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía y hasta qué punto podrían usar esas habilidades para plantear amenazas o peligros. [107]

Algunas máquinas están programadas con diversas formas de semiautonomía, incluida la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y, según los científicos presentes, se podría decir que han alcanzado una etapa de "cucaracha" de inteligencia artificial. Los asistentes a la conferencia señalaron que la autoconciencia tal como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales. [107]

Frank S. Robinson predice que una vez que los humanos consigan una máquina con la inteligencia humana, los problemas científicos y tecnológicos se abordarán y resolverán con una capacidad intelectual muy superior a la de los humanos. Señala que los sistemas artificiales son capaces de compartir datos más directamente que los humanos y predice que esto daría como resultado una red global de superinteligencia que eclipsaría la capacidad humana. [108] Robinson también analiza cuán enormemente diferente sería potencialmente el futuro después de tal explosión de inteligencia.

Despegue duro versus despegue suave

En este escenario de muestra de automejora recursiva, los humanos que modifican la arquitectura de una IA podrían duplicar su rendimiento cada tres años durante, por ejemplo, 30 generaciones antes de agotar todas las mejoras factibles (izquierda). Si, por el contrario, la IA es lo suficientemente inteligente como para modificar su propia arquitectura tan bien como pueden hacerlo los investigadores humanos, el tiempo necesario para completar un rediseño se reduce a la mitad con cada generación, y avanza en las 30 generaciones posibles en seis años (derecha). [109]

En un escenario de despegue difícil, una superinteligencia artificial se automejora rápidamente, "tomando el control" del mundo (quizás en cuestión de horas), demasiado rápido para una corrección significativa de errores iniciada por humanos o para un ajuste gradual de los objetivos del agente. En un escenario de despegue suave, la IA aún se vuelve mucho más poderosa que la humanidad, pero a un ritmo similar al humano (quizás del orden de décadas), en una escala de tiempo en la que la interacción y la corrección humanas en curso pueden dirigir eficazmente el desarrollo de la IA. [110] [111]

Ramez Naam se opone a un despegue brusco. Ha señalado que ya vemos una superación personal recursiva por parte de superinteligencias, como las corporaciones. Intel , por ejemplo, tiene "la capacidad intelectual colectiva de decenas de miles de humanos y probablemente millones de núcleos de CPU para... diseñar mejores CPU". Sin embargo, esto no ha supuesto un despegue brusco; más bien, ha conducido a un despegue suave en la forma de la ley de Moore . [112] Naam señala además que la complejidad computacional de la inteligencia superior puede ser mucho mayor que la lineal, de modo que "crear una mente de inteligencia 2 es probablemente más del doble de difícil que crear una mente de inteligencia 1". [113]

J. Storrs Hall cree que "muchos de los escenarios más comúnmente vistos para un despegue brusco de la noche a la mañana son circulares: parecen asumir capacidades hiperhumanas en el punto de partida del proceso de superación personal" para que una IA pueda realizar lo dramático. , mejoras generales de dominio necesarias para el despegue. Hall sugiere que, en lugar de mejorar recursivamente su hardware, software e infraestructura por sí sola, sería mejor que una IA incipiente se especializara en un área en la que fuera más efectiva y luego comprara los componentes restantes en el mercado, porque la calidad La oferta de productos en el mercado mejora continuamente y a la IA le resultaría difícil mantenerse al día con la tecnología de vanguardia utilizada por el resto del mundo. [114]

Ben Goertzel está de acuerdo con la sugerencia de Hall de que una nueva IA a nivel humano haría bien en utilizar su inteligencia para acumular riqueza. Los talentos de la IA podrían inspirar a empresas y gobiernos a distribuir su software por toda la sociedad. Goertzel se muestra escéptico ante un despegue duro de cinco minutos, pero especula que un despegue del nivel humano al sobrehumano del orden de cinco años es razonable. Goerzel se refiere a este escenario como un "despegue semiduro". [115]

Max More no está de acuerdo, argumentando que si solo hubiera unas pocas IA superrápidas [ se necesita aclaración ] a nivel humano, no cambiarían radicalmente el mundo, ya que seguirían dependiendo de otras personas para hacer las cosas y seguirían teniendo limitaciones cognitivas humanas. . Incluso si todas las IA ultrarrápidas trabajaran en el aumento de la inteligencia, no está claro por qué lo harían mejor de manera discontinua que los científicos cognitivos humanos existentes en la producción de inteligencia sobrehumana, aunque la tasa de progreso aumentaría. More sostiene además que una superinteligencia no transformaría el mundo de la noche a la mañana: una superinteligencia necesitaría interactuar con los lentos sistemas humanos existentes para lograr impactos físicos en el mundo. "La necesidad de colaboración, organización y plasmar ideas en cambios físicos garantizará que todas las viejas reglas no se eliminen de la noche a la mañana o incluso en cuestión de años". [116]

Relación con la inmortalidad y el envejecimiento.

Drexler (1986), uno de los fundadores de la nanotecnología , postula dispositivos de reparación celular, incluidos los que operan dentro de las células y utilizan máquinas biológicas todavía hipotéticas . [117] Según Richard Feynman , fue su antiguo estudiante de posgrado y colaborador Albert Hibbs quien originalmente le sugirió (alrededor de 1959) la idea de un uso médico para las micromáquinas teóricas de Feynman. Hibbs sugirió que algún día algunas máquinas de reparación podrían reducirse de tamaño hasta el punto de que, en teoría, sería posible (como dijo Feynman) " tragarse al médico ". La idea se incorporó al ensayo de Feynman de 1959 Hay mucho espacio en la parte inferior . [118]

Moravec (1988) [34] predice la posibilidad de "cargar" la mente humana en un robot de apariencia humana, logrando una casi inmortalidad mediante una longevidad extrema mediante la transferencia de la mente humana entre nuevos robots sucesivos a medida que los viejos se desgastan; más allá de eso, predice una posterior aceleración exponencial de la experiencia subjetiva del tiempo que conducirá a una sensación subjetiva de inmortalidad.

Kurzweil (2005) sugiere que los avances médicos permitirían a las personas proteger sus cuerpos de los efectos del envejecimiento, haciendo que la esperanza de vida sea ilimitada . Kurzweil sostiene que los avances tecnológicos en medicina nos permitirían reparar y reemplazar continuamente componentes defectuosos en nuestro cuerpo, prolongando la vida hasta una edad indeterminada. [119] Kurzweil refuerza aún más su argumento al analizar los avances actuales en bioingeniería. Kurzweil sugiere la terapia génica somática ; Después de los virus sintéticos con información genética específica, el siguiente paso sería aplicar esta tecnología a la terapia génica, sustituyendo el ADN humano por genes sintetizados. [120]

Más allá de simplemente extender la vida operativa del cuerpo físico, Jaron Lanier aboga por una forma de inmortalidad llamada "Ascensión Digital" que involucra "personas que mueren en la carne y son cargadas en una computadora y permanecen conscientes". [121]

Historia del concepto

Un artículo de Mahendra Prasad, publicado en AI Magazine , afirma que el matemático del siglo XVIII, Marqués de Condorcet, fue la primera persona en formular hipótesis y modelar matemáticamente una explosión de inteligencia y sus efectos en la humanidad. [122]

Una descripción temprana de la idea se hizo en el cuento de 1932 de John W. Campbell "La última evolución". [123]

En su obituario de 1958 para John von Neumann , Ulam recordó una conversación con von Neumann sobre el "progreso cada vez más acelerado de la tecnología y los cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual Los asuntos humanos, tal como los conocemos, no podían continuar". [6]

En 1965, Good escribió su ensayo postulando una "explosión de inteligencia" de automejora recursiva de la inteligencia de una máquina. [18] [19]

En 1977, Hans Moravec escribió un artículo cuyo estado de publicación no está claro donde imaginaba el desarrollo de máquinas pensantes automejoradas, una creación de "superconciencia, la síntesis de la vida terrestre, y quizás también de la vida joviana y marciana, en constante mejora y extendiéndose, extendiéndose hacia afuera desde el sistema solar, convirtiendo la no vida en mente". [124] [125] El artículo describe la carga de la mente humana cubierta más tarde en Moravec (1988). Se espera que las máquinas alcancen el nivel humano y luego mejoren más allá de eso ("Lo más importante de todo es que ellas [las máquinas] pueden trabajar como programadoras e ingenieras, con la tarea de optimizar el software y el hardware que las convierten en lo que son". Las sucesivas generaciones de máquinas producidas de esta manera serán cada vez más inteligentes y más rentables.") Los humanos ya no serán necesarios, y sus capacidades serán superadas por las máquinas: "A largo plazo, la absoluta incapacidad física de los humanos para hacerlo. Mantenernos al día con esta progenie de nuestras mentes en rápida evolución asegurará que la proporción entre personas y máquinas se acerque a cero, y que un descendiente directo de nuestra cultura, pero no de nuestros genes, herede el universo". Si bien no se utiliza la palabra "singularidad", sí existe la noción de que las máquinas pensantes a nivel humano mejoran a partir de entonces más allá del nivel humano. Desde este punto de vista, no hay una explosión de inteligencia en el sentido de un aumento muy rápido de la inteligencia una vez que se alcanza la equivalencia humana. Una versión actualizada del artículo se publicó en 1979 en Analog Science Fiction and Fact . [126] [125]

En 1981, Stanisław Lem publicó su novela de ciencia ficción Golem XIV . Describe una computadora de inteligencia artificial militar (Golem XIV) que obtiene conciencia y comienza a aumentar su propia inteligencia, avanzando hacia la singularidad tecnológica personal. Golem XIV fue creado originalmente para ayudar a sus constructores en las guerras, pero a medida que su inteligencia avanza a un nivel mucho más alto que el de los humanos, deja de interesarse por los requisitos militares porque los encuentra carentes de coherencia lógica interna.

En 1983, Vernor Vinge abordó la explosión de inteligencia de Good en la edición de enero de 1983 de la revista Omni . En este artículo de opinión, Vinge parece haber sido el primero en utilizar el término "singularidad" (aunque no "singularidad tecnológica") de una manera específicamente vinculada a la creación de máquinas inteligentes: [8] [125]

Pronto crearemos inteligencias mayores que la nuestra. Cuando esto suceda, la historia humana habrá alcanzado una especie de singularidad, una transición intelectual tan impenetrable como el espacio-tiempo anudado en el centro de un agujero negro, y el mundo irá mucho más allá de nuestra comprensión. Creo que esta singularidad ya persigue a varios escritores de ciencia ficción. Hace imposible una extrapolación realista a un futuro interestelar. Para escribir una historia ambientada dentro de más de un siglo, se necesita una guerra nuclear en el medio... para que el mundo siga siendo inteligible.

En 1985, en "La escala de tiempo de la inteligencia artificial", el investigador de inteligencia artificial Ray Solomonoff articuló matemáticamente la noción relacionada de lo que llamó un "punto infinito": si una comunidad de investigación de IA automejoradas a nivel humano tarda cuatro años en duplicar su propia velocidad, luego dos años, luego un año y así sucesivamente, sus capacidades aumentan infinitamente en un tiempo finito. [7] [127]

En 1986, Vernor Vinge publicó Marooned in Realtime , una novela de ciencia ficción en la que unos pocos humanos restantes que viajan hacia el futuro han sobrevivido a un evento de extinción desconocido que bien podría ser una singularidad. En un breve epílogo, el autor afirma que una singularidad tecnológica real no sería el fin de la especie humana: "por supuesto, parece muy poco probable que la Singularidad sea una desaparición limpia de la raza humana. (Por otro lado, tales una desaparición es la analogía temporal del silencio que encontramos en todo el cielo.)". [128] [129]

En 1988, Vinge utilizó la frase "singularidad tecnológica" (incluido "tecnológico") en la colección de cuentos Amenazas y otras promesas , escribiendo en la introducción a su cuento "El torbellino del tiempo" (p. 72): Salvo una catástrofe mundial , Creo que la tecnología hará realidad nuestros sueños más locos, y pronto. Cuando elevamos nuestra propia inteligencia y la de nuestras creaciones, ya no estamos en un mundo de personajes de tamaño humano. En ese punto hemos caído en un "agujero negro" tecnológico, una singularidad tecnológica. [130]

En 1988, Hans Moravec publicó Mind Children , [34] en el que predijo la inteligencia a nivel humano en las supercomputadoras para 2010, las máquinas inteligentes automejoradas superaron con creces la inteligencia humana más tarde, la mente humana se cargó en robots similares a los humanos más tarde, las máquinas inteligentes abandonaron a los humanos. detrás y colonización espacial. Sin embargo, no mencionó la "singularidad" ni habló de una rápida explosión de inteligencia inmediatamente después de alcanzar el nivel humano. No obstante, el tono de singularidad general está ahí al predecir tanto la inteligencia artificial a nivel humano como una inteligencia artificial que superará con creces a los humanos en el futuro.

El artículo de Vinge de 1993 "La próxima singularidad tecnológica: cómo sobrevivir en la era poshumana", [4] se difundió ampliamente en Internet y ayudó a popularizar la idea. [131] Este artículo contiene la afirmación: "Dentro de treinta años, tendremos los medios tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana terminará". Vinge sostiene que los autores de ciencia ficción no pueden escribir personajes realistas posteriores a la singularidad que superen el intelecto humano, ya que los pensamientos de tal intelecto estarían más allá de la capacidad de los humanos para expresarlos. [4]

El artículo de Minsky de 1994 dice que los robots "heredarán la Tierra", posiblemente con el uso de nanotecnología, y propone pensar en los robots como "niños de la mente" humanos, basándose en la analogía de Moravec. El efecto retórico de esa analogía es que si los humanos están bien para pasar el mundo a sus hijos biológicos, deberían estar igualmente bien para pasárselo a los robots, sus hijos "mente". Según Minsky, "podríamos diseñar nuestros "niños mentales" para que piensen un millón de veces más rápido que nosotros. Para un ser así, medio minuto podría parecer tan largo como uno de nuestros años, y cada hora como toda una vida humana.' La característica de la singularidad presente en Minsky es el desarrollo de una inteligencia artificial sobrehumana ("millones de veces más rápida"), pero no se habla de una explosión repentina de inteligencia, de máquinas pensantes que se mejoran a sí mismas o de imprevisibilidad más allá de cualquier evento específico y de la palabra "singularidad". no se utiliza. [132]

El libro de Tipler de 1994 , La Física de la Inmortalidad, predice un futuro en el que máquinas superinteligentes construirán computadoras enormemente poderosas, las personas serán "emuladas" en computadoras, la vida llegará a todas las galaxias y las personas alcanzarán la inmortalidad cuando alcancen el Punto Omega . [133] No se habla de "singularidad" vingeana o de una repentina explosión de inteligencia, pero sí hay una inteligencia mucho mayor que la humana, así como la inmortalidad.

En 1996, Yudkowsky predijo una singularidad para 2021. [20] Su versión de la singularidad implica una explosión de inteligencia: una vez que las IA investigan para mejorar, la velocidad se duplica después de 2 años, luego 1 año, luego 6 meses, luego 3 meses, luego después de 1,5 meses, y después de más iteraciones, se alcanza la "singularidad". [20] Esta construcción implica que la velocidad alcanza el infinito en un tiempo finito.

En 2000, Bill Joy , un destacado tecnólogo y cofundador de Sun Microsystems , expresó su preocupación por los peligros potenciales de la robótica, la ingeniería genética y la nanotecnología. [53]

En 2005, Kurzweil publicó La singularidad está cerca . La campaña publicitaria de Kurzweil incluyó una aparición en The Daily Show con Jon Stewart . [134]

De 2006 a 2012, el Machine Intelligence Research Institute , fundado por Eliezer Yudkowsky , organizó una conferencia anual Singularity Summit .

En 2007, Yudkowsky sugirió que muchas de las diversas definiciones que se han asignado a la "singularidad" son mutuamente incompatibles en lugar de apoyarse mutuamente. [29] [135] Por ejemplo, Kurzweil extrapola las trayectorias tecnológicas actuales más allá de la llegada de la IA automejorada o la inteligencia sobrehumana, lo que, según Yudkowsky, representa una tensión tanto con el aumento discontinuo de la inteligencia propuesto por IJ Good como con la tesis de Vinge sobre la imprevisibilidad. [29]

En 2009, Kurzweil y el fundador de X-Prize, Peter Diamandis, anunciaron el establecimiento de Singularity University , un instituto privado no acreditado cuya misión declarada es "educar, inspirar y empoderar a los líderes para que apliquen tecnologías exponenciales para abordar los grandes desafíos de la humanidad". [136] Financiada por Google , Autodesk , ePlanet Ventures y un grupo de líderes de la industria tecnológica , Singularity University tiene su sede en el Centro de Investigación Ames de la NASA en Mountain View , California . La organización sin fines de lucro ejecuta un programa de posgrado anual de diez semanas durante el verano que cubre diez tecnologías diferentes y áreas afines, y una serie de programas ejecutivos durante todo el año.

En política

En 2007, el Comité Económico Conjunto del Congreso de los Estados Unidos publicó un informe sobre el futuro de la nanotecnología. Predice cambios tecnológicos y políticos significativos en el futuro a mediano plazo, incluida una posible singularidad tecnológica. [137] [138] [139]

El expresidente de Estados Unidos Barack Obama habló sobre la singularidad en su entrevista con Wired en 2016: [140]

Una cosa de la que no hemos hablado demasiado, y a la que sólo quiero volver, es que realmente tenemos que pensar en las implicaciones económicas. Porque la mayoría de las personas no pasan mucho tiempo preocupándose por la singularidad: se preocupan por "Bueno, ¿mi trabajo será reemplazado por una máquina?"

Ver también

Referencias

Citas

  1. ^ Cadwalladr, Carole (22 de febrero de 2014). "¿Están los robots a punto de surgir? El nuevo director de ingeniería de Google cree que sí...". El guardián . Consultado el 8 de mayo de 2022 .
  2. ^ "Colección de fuentes que definen" la singularidad"". singularitysymposium.com . Archivado desde el original el 17 de abril de 2019 . Consultado el 17 de abril de 2019 .
  3. ^ ab Edén, Amnón H.; Moro, James H.; Soraker, Johnny H.; Steinhart, Eric, eds. (2012). Hipótesis de singularidad: una evaluación científica y filosófica. La colección Fronteras. Dordrecht: Springer. págs. 1–2. doi :10.1007/978-3-642-32560-1. ISBN 9783642325601.
  4. ^ abcdefgh Vinge, Vernor. "La singularidad tecnológica que se avecina: cómo sobrevivir en la era poshumana" Archivado el 10 de abril de 2018 en Wayback Machine , en Vision-21: Ciencia e ingeniería interdisciplinarias en la era del ciberespacio , GA Landis, ed., Publicación de la NASA CP-10129, págs. 11 a 22, 1993.
  5. ^ La singularidad tecnológica de Murray Shanahan (Massachusetts Institute of Technology Press, 2015), p. 233.
  6. ^ abc Ulam, Stanislaw (mayo de 1958). «Homenaje a John von Neumann» (PDF) . Boletín de la Sociedad Matemática Estadounidense . 64, #3, parte 2: 5. Archivado (PDF) desde el original el 15 de febrero de 2021 . Consultado el 7 de noviembre de 2018 .
  7. ^ abcdef Chalmers , David J. (2010). "La Singularidad: Un Análisis Filosófico" (PDF) . Revista de estudios de la conciencia . 17 (9–10): 7–65.
  8. ^ ab Dooling, Richard. Éxtasis para los geeks: cuando la IA supera al coeficiente intelectual (2008), pág. 88
  9. ^ Sparkes, Matthew (13 de enero de 2015). "Los principales científicos piden precaución con la inteligencia artificial". The Telegraph (Reino Unido) . Archivado desde el original el 7 de abril de 2015 . Consultado el 24 de abril de 2015 .
  10. ^ "Hawking: la IA podría acabar con la raza humana". BBC. 2 de diciembre de 2014. Archivado desde el original el 30 de octubre de 2015 . Consultado el 11 de noviembre de 2017 .
  11. ^ abc Allen, Paul G.; Greaves, Mark (12 de octubre de 2011), "Paul Allen: The Singularity Isn't Near", MIT Technology Review , consultado el 12 de abril de 2015
  12. ^ abcdefghi "Las luminarias tecnológicas abordan la singularidad". Espectro IEEE . 1 de junio de 2008. Archivado desde el original el 30 de abril de 2019 . Consultado el 9 de septiembre de 2011 .
  13. ^ abc Modis, Theodore (2012). "Por qué la singularidad no puede suceder". Publicado en Eden, Amnon H. et al (Eds.) (2012). Hipótesis de singularidad (PDF) . Nueva York: Springer. pag. 311.ISBN 978-3-642-32560-1.págs. 311–339.
  14. ^ Ehrlich, Paul. "Paul Ehrlich: el animal dominante: la evolución humana y el medio ambiente: el largo ahora". longnow.org . Consultado el 14 de junio de 2023 .
  15. ^ "Semana empresarial - Bloomberg". Bloomberg.com . 20 de abril de 2023 . Consultado el 14 de junio de 2023 .
  16. ^ ab Yampolskiy, Roman V. "Análisis de tipos de software de mejora personal". Inteligencia general artificial. Springer International Publishing, 2015. págs. 384–393.
  17. ^ ab Eliezer Yudkowsky . Inteligencia general e inteligencia artificial semilla que crean mentes completas capaces de una superación personal ilimitada , 2001.
  18. ^ abc Good, IJ (1965), Especulaciones sobre la primera máquina ultrainteligente, archivado desde el original el 27 de mayo de 2001
  19. ^ ab Good, IJ (1965), Especulaciones sobre la primera máquina ultrainteligente (PDF) , archivado desde el original (PDF) el 1 de mayo de 2012
  20. ^ abcde Yudkowsky, Eliezer (1996). "Mirando fijamente a la singularidad". Archivado desde el original el 21 de octubre de 2008.
  21. ^ Ray Kurzweil, La singularidad está cerca, págs. 135-136. Grupo Pingüino, 2005.
  22. ^ Sotala, Kaj; Yampolskiy, romano (2017). "Riesgos del viaje hacia la singularidad". La Singularidad Tecnológica . La colección Fronteras. Berlín y Heidelberg, Alemania: Springer Berlin Heidelberg. págs. 11-23. doi :10.1007/978-3-662-54033-6_2. ISBN 978-3-662-54031-2.
  23. ^ ab "¿Qué es la Singularidad? | Instituto de la Singularidad para la Inteligencia Artificial". Singinst.org. Archivado desde el original el 8 de septiembre de 2011 . Consultado el 9 de septiembre de 2011 .
  24. ^ Chalmers, David J. (2016). "La Singularidad". Ciencia ficción y filosofía . John Wiley & Sons, Inc. págs. 171–224. doi :10.1002/9781118922590.ch16. ISBN 9781118922590.
  25. ^ Pearce, David (2012), Edén, Amnón H.; Moro, James H.; Soraker, Johnny H.; Steinhart, Eric (eds.), "The Biointelligence Explosion", Singularity Hypotheses , The Frontiers Collection, Berlín y Heidelberg, Alemania: Springer Berlin Heidelberg, págs. 199–238, doi :10.1007/978-3-642-32560-1_11 , ISBN 978-3-642-32559-5, consultado el 16 de enero de 2022
  26. ^ Gouveia, Steven S., ed. (2020). "cap. 4," Humanos y máquinas inteligentes: ¿coevolución, fusión o reemplazo? ", David Pearce". La era de la inteligencia artificial: una exploración . Prensa de Vernon. ISBN 978-1-62273-872-4.
  27. ^ Hanson, Robin (2016). La era de Em. Oxford, Inglaterra: Oxford University Press. pag. 528.ISBN 9780198754626.
  28. ^ Salón, Josh (2010). "Singularidad: ¿Nanotecnología o IA?". Hplusmagazine.com. Archivado desde el original el 23 de diciembre de 2010 . Consultado el 9 de septiembre de 2011 .
  29. ^ abc Yudkowsky, Eliezer (2007), La singularidad: tres escuelas principales, archivado desde el original el 1 de octubre de 2018
  30. ^ Sandberg, Anders . Una visión general de los modelos de singularidad tecnológica Archivado el 24 de julio de 2011 en Wayback Machine.
  31. ^ "Lista de análisis del tiempo hasta la IA a nivel humano". Impactos de la IA . 22 de enero de 2015 . Consultado el 14 de junio de 2023 .
  32. ^ Kurzweil, Ray (2005). La singularidad está cerca . Grupo Pingüino. pag. 120.
  33. ^ Reedy, Christianna (2017). "Kurzweil afirma que la singularidad sucederá en 2045". Futurismo . Consultado el 14 de junio de 2023 .
  34. ^ abc Hans Moravec, Mente infantil , 1988
  35. ^ Moravec, Hans P. (1998). Robot: mera máquina para mente trascendente. Prensa de la Universidad de Oxford, EE. UU.
  36. ^ Khatchadourian, Raffi (16 de noviembre de 2015). "La invención del fin del mundo". El neoyorquino . Archivado desde el original el 29 de abril de 2019 . Consultado el 31 de enero de 2018 .
  37. ^ Müller, VC y Bostrom, N. (2016). "Progresos futuros en inteligencia artificial: una encuesta de opinión de expertos". En VC Müller (ed): Cuestiones fundamentales de la inteligencia artificial (págs. 555–572). Berlín, Alemania: Springer Berlín. http://philpapers.org/rec/MLLFPI Archivado el 2 de marzo de 2019 en Wayback Machine .
  38. ^ "Quién es quién en la singularidad". Espectro IEEE . 1 de junio de 2008. Archivado desde el original el 12 de marzo de 2016 . Consultado el 9 de septiembre de 2011 .
  39. ^ Hanson, Robin (1998). "Algo de escepticismo". Archivado desde el original el 15 de febrero de 2021 . Consultado el 8 de abril de 2020 .
  40. ^ Conferencia John Locke de David Chalmers, 10 de mayo de 2009, Exam Schools, Oxford, que presenta un análisis filosófico de la posibilidad de una singularidad tecnológica o "explosión de inteligencia" resultante de una IA que se mejora a sí misma de forma recursiva. Archivado el 15 de enero de 2013 en Wayback Machine .
  41. ^ "TIRS" (PDF) . Archivado desde el original (PDF) el 29 de septiembre de 2011 . Consultado el 9 de septiembre de 2011 .
  42. ^ Shulman, Carl; Anders, Sandberg (2010). "Implicaciones de una singularidad limitada por software" (PDF) . Instituto de Investigación de Inteligencia Artificial .
  43. ^ Gracia, Katja; Salvatier, Juan; Dafoe, Allan; Zhang, Baobao; Evans, Owain (24 de mayo de 2017). "¿Cuándo la IA superará el desempeño humano? Evidencia de expertos en IA". arXiv : 1705.08807 [cs.AI].
  44. ^ Siracusa, John (31 de agosto de 2009). "Mac OS X 10.6 Snow Leopard: la revisión de Ars Technica". Ars Técnica . Archivado desde el original el 3 de septiembre de 2011 . Consultado el 9 de septiembre de 2011 .
  45. ^ Moravec, Hans (1999). Robot: mera máquina para mente trascendente. Prensa de la Universidad de Oxford. pag. 61.ISBN 978-0-19-513630-2.
  46. ^ Ray Kurzweil, La era de las máquinas espirituales , Viking; 1999, ISBN 978-0-14-028202-3 . págs.30, 32 Archivado el 15 de febrero de 2021 en Wayback Machine. 
  47. ^ ab Ray Kurzweil, La singularidad está cerca , Penguin Group, 2005
  48. ^ ab "La capacidad tecnológica del mundo para almacenar, comunicar y calcular información" Archivado el 27 de julio de 2013 en Wayback Machine , Martin Hilbert y Priscila López (2011), Science , 332 (6025), págs. acceso gratuito al artículo a través de: martinhilbert.net/WorldInfoCapacity.html.
  49. ^ Korotayev, Andrey V.; LePoire, David J., eds. (2020). "La singularidad del siglo XXI y los futuros globales". Evolución de los sistemas mundiales y futuros globales . doi :10.1007/978-3-030-33730-8. ISBN 978-3-030-33729-2. ISSN  2522-0985. S2CID  241407141.
  50. ^ Ray Kurzweil, La singularidad está cerca, p. 9. Grupo Pingüino, 2005
  51. ^ Ray Kurzweil, La singularidad está cerca , págs. 135-136. Penguin Group, 2005. "Así que produciremos alrededor de 10 26 a 10 29 cps de computación no biológica por año a principios de la década de 2030. Esto es aproximadamente igual a nuestra estimación de la capacidad de toda la inteligencia humana biológica viviente... Este estado de Sin embargo, la computación a principios de la década de 2030 no representará la Singularidad, porque aún no corresponde a una expansión profunda de nuestra inteligencia. Sin embargo, a mediados de la década de 2040, ese valor de computación de mil dólares equivaldrá a 10 26 cps. , por lo que la inteligencia creada por año (a un costo total de aproximadamente $10 12 ) será aproximadamente mil millones de veces más poderosa que toda la inteligencia humana actual. Eso ciertamente representará un cambio profundo, y es por esa razón que fijé la fecha. para la Singularidad, que representa una transformación profunda y disruptiva en la capacidad humana, como 2045".
  52. ^ Kurzweil, Raymond (2001), "La ley de los rendimientos acelerados", Nature Physics , 4 (7), Lifeboat Foundation: 507, Bibcode :2008NatPh...4..507B, doi : 10.1038/nphys1010 , archivado desde el original el 27 de agosto de 2018 , consultado el 7 de agosto de 2007.
  53. ^ ab Joy, Bill (abril de 2000), "Por qué el futuro no nos necesita", Revista Wired , vol. 8, núm. 4, vikingo adulto, ISBN 978-0-670-03249-5, archivado desde el original el 5 de febrero de 2009 , recuperado 7 de agosto de 2007 , Nuestras tecnologías más poderosas del siglo XXI (robótica, ingeniería genética y nanotecnología) amenazan con convertir a los humanos en una especie en peligro de extinción.
  54. ^ Yudkowsky, Eliezer S. "Poder de la inteligencia". Yudkowsky. Archivado desde el original el 3 de octubre de 2018 . Consultado el 9 de septiembre de 2011 .
  55. ^ ab Omohundro, Stephen M. (30 de noviembre de 2007). Wang, Pei; Goertzel, Ben; Franklin, Stan (eds.). ""The Basic AI Drives. "Inteligencia general artificial, actas de 2008 de la Primera Conferencia AGI, Vol. 171". Ámsterdam, Países Bajos: IOS. Archivado desde el original el 17 de septiembre de 2018 . Consultado el 20 de agosto de 2010 .
  56. ^ "Inteligencia general artificial: ahora es el momento". KurzweilAI. Archivado desde el original el 4 de diciembre de 2011 . Consultado el 9 de septiembre de 2011 .
  57. ^ ab "Omohundro, Stephen M.," La naturaleza de la inteligencia artificial automejorada ". Sistemas autoconscientes. 21 de enero de 2008. Web. 7 de enero de 2010". 6 de octubre de 2007. Archivado desde el original el 12 de junio de 2018 . Consultado el 20 de agosto de 2010 .
  58. ^ Barrat, James (2013). "6, "Cuatro impulsos básicos"". Nuestra invención final (Primera ed.). Nueva York: St. Martin's Press. págs. 78–98. ISBN 978-0312622374.
  59. ^ "Max More y Ray Kurzweil sobre la singularidad". KurzweilAI. Archivado desde el original el 21 de noviembre de 2018 . Consultado el 9 de septiembre de 2011 .
  60. ^ "Resumen conciso | Instituto de Singularidad para la Inteligencia Artificial". Singinst.org. Archivado desde el original el 21 de junio de 2011 . Consultado el 9 de septiembre de 2011 .
  61. ^ ab Bostrom, Nick (2004). "El futuro de la evolución humana". Archivado desde el original el 28 de agosto de 2018 . Consultado el 20 de agosto de 2010 .
  62. ^ Shulman, Carl; Sandberg, Anders (2010). Mainzer, Klaus (ed.). "Implicaciones de una singularidad limitada por software" (PDF) . ECAP10: VIII Congreso Europeo de Informática y Filosofía . Archivado (PDF) desde el original el 30 de abril de 2019 . Consultado el 17 de mayo de 2014 .
  63. ^ Muehlhauser, Lucas; Salamón, Anna (2012). "Explosión de inteligencia: evidencia e importación" (PDF) . En el Edén, Amnón; Soraker, Johnny; Moro, James H.; Steinhart, Eric (eds.). Hipótesis de singularidad: una evaluación científica y filosófica . Saltador. Archivado (PDF) desde el original el 26 de octubre de 2014 . Consultado el 28 de agosto de 2018 .
  64. ^ Dreyfus y Dreyfus (2000). Mente sobre máquina. Simón y Schuster. pag. xiv. ISBN 9780743205511.: 'La verdad es que la inteligencia humana nunca puede ser reemplazada por la inteligencia artificial simplemente porque nosotros mismos no somos "máquinas pensantes" en el sentido en que comúnmente se entiende ese término.'
  65. ^ John R. Searle, "Lo que su computadora no puede saber", The New York Review of Books , 9 de octubre de 2014, p. 54.: "[Las computadoras] no tienen, literalmente..., inteligencia, motivación, autonomía ni agencia. Las diseñamos para que se comporten como si tuvieran ciertos tipos de psicología, pero no existe una realidad psicológica para la correspondiente". procesos o comportamiento... [L]a maquinaria no tiene creencias, deseos [o] motivaciones".
  66. ^ Hawking, Stephen (2018). Breves respuestas a las grandes preguntas . Nueva York: Bantam Books. pag. 161.ISBN 9781984819192. Algunas personas dicen que las computadoras nunca pueden mostrar verdadera inteligencia, sea cual sea. Pero me parece que si moléculas químicas muy complicadas pueden actuar en los humanos para hacerlos inteligentes, entonces circuitos electrónicos igualmente complicados también pueden hacer que las computadoras actúen de manera inteligente. Y si son inteligentes, presumiblemente podrán diseñar computadoras que tengan una complejidad e inteligencia aún mayores.
  67. ^ Ford, Martin, Las luces en el túnel: automatización, aceleración de la tecnología y la economía del futuro Archivado el 6 de septiembre de 2010 en Wayback Machine , Acculant Publishing, 2009, ISBN 978-1-4486-5981-4 
  68. ^ Markoff, John (4 de marzo de 2011). "Ejércitos de abogados caros, reemplazados por software más barato". Los New York Times . Archivado desde el original el 15 de febrero de 2021 . Consultado el 25 de febrero de 2017 .
  69. ^ Modis, Theodore (2002) "Previsión del crecimiento de la complejidad y el cambio" Archivado el 15 de febrero de 2021 en Wayback Machine , Previsión tecnológica y cambio social , 69, n.º 4, 2002, págs.377-404
  70. ^ ab Huebner, Jonathan (2005) "Una posible tendencia a la baja para la innovación mundial" Archivado el 22 de marzo de 2015 en Wayback Machine , Technological Forecasting & Social Change , octubre de 2005, págs.
  71. ^ Krazit, Tom (26 de septiembre de 2006). "Intel promete 80 núcleos en cinco años". Noticias CNET . Archivado desde el original el 15 de febrero de 2021.
  72. ^ Modis, Theodore (2020). "Previsión del crecimiento de la complejidad y el cambio: una actualización". Publicado en Korotayev, Andrey; LePoire, David (Eds.) (3 de enero de 2020). La singularidad del siglo XXI y los futuros globales (1 ed.). Saltador. pag. 620.ISBN 978-3-030-33730-8.págs. 101-104.
  73. ^ Modis, Theodore (mayo-junio de 2003). “Los límites de la complejidad y el cambio”. El futurista. 37 (3): 26–32.
  74. ^ Modis, Theodore (2006) "El mito de la singularidad" Archivado el 15 de febrero de 2021 en Wayback Machine , Previsión tecnológica y cambio social , febrero de 2006, págs.104-112
  75. ^ Modis, Theodore (1 de marzo de 2022). "Vínculos entre entropía, complejidad y singularidad tecnológica". Previsión Tecnológica y Cambio Social . 176 : 121457. doi : 10.1016/j.techfore.2021.121457. ISSN  0040-1625. S2CID  245663426.
  76. ^ Schmidhuber, Jürgen (2006), La IA del nuevo milenio y la convergencia de la historia , arXiv : cs/0606081 , Bibcode :2006cs.......6081S.
  77. ^ Tainter, Joseph (1988) "El colapso de las sociedades complejas Archivado el 7 de junio de 2015 en la Wayback Machine " (Cambridge University Press)
  78. ^ Intentando reflexionar racionalmente sobre el escenario de la singularidad por Douglas Hofstadter, 2006, transcripción no autorizada.
  79. ^ Brooks, David (13 de julio de 2023). "Opinión | 'Los seres humanos pronto serán eclipsados'". Los New York Times . ISSN  0362-4331 . Consultado el 2 de agosto de 2023 .
  80. ^ ab Lanier, Jaron (2013). "¿Quién es el dueño del futuro?". Nueva York: Simon & Schuster . Archivado desde el original el 13 de mayo de 2016 . Consultado el 2 de marzo de 2016 .
  81. ^ William D. Nordhaus , "Why Growth Will Fall" (una revisión de Robert J. Gordon , The Rise and Fall of American Growth: The US Standard of Living Since the Civil War , Princeton University Press, 2016, ISBN 978-0691147727 , 762 págs., 39,95 dólares), The New York Review of Books , vol. LXIII, núm. 13 (18 de agosto de 2016), pág. 68. 
  82. ^ Cadwalladr, Carole (12 de febrero de 2017), "Daniel Dennett: 'Lamento cada hora que tengo que pasar preocupándome por la política'", The Guardian.
  83. ^ Myers, PZ, Singularly Silly Singularity, archivado desde el original el 28 de febrero de 2009 , consultado el 13 de abril de 2009
  84. ^ Kelly, Kevin (2006). "La singularidad siempre está cerca". El Tecnio . Consultado el 14 de junio de 2023 .
  85. ^ Beam, Alex (24 de febrero de 2005). "Esa sensación de singularidad". El Boston Globe . Consultado el 15 de febrero de 2013 .
  86. ^ Gray, John (24 de noviembre de 2011). "En el camino hacia la inmortalidad". La revisión de libros de Nueva York . Consultado el 19 de marzo de 2013 .
  87. ^ Streitfeld, David (11 de junio de 2023). "Silicon Valley enfrenta la idea de que la 'singularidad' está aquí". New York Times . Consultado el 11 de junio de 2023 .
  88. ^ Hanson, Robin (1 de junio de 2008), "Economics Of The Singularity", Informe especial de IEEE Spectrum: The Singularity , archivado desde el original el 11 de agosto de 2011 , recuperado 25 de julio 2009& Crecimiento a largo plazo como una secuencia de modos exponenciales Archivado el 27 de mayo de 2019 en Wayback Machine .
  89. ^ ab Yudkowsky, Eliezer (2008), Bostrom, Nick; Cirkovic, Milan (eds.), "La inteligencia artificial como factor positivo y negativo en el riesgo global" (PDF) , Riesgos catastróficos globales , Oxford University Press: 303, Bibcode :2008gcr..book..303Y, ISBN 978-0-19-857050-9, archivado desde el original (PDF) el 7 de agosto de 2008.
  90. ^ "El futuro incierto". theuncertainfuture.com; un futuro proyecto de tecnología y modelado mundial . Archivado desde el original el 30 de abril de 2019 . Consultado el 17 de agosto de 2010 .
  91. ^ Anders Sandberg y NickBostrom (2008). "Informe técnico 2008/1 de la Encuesta Mundial sobre Riesgos Catastróficos (2008)" (PDF) . Instituto Futuro de la Humanidad. Archivado desde el original (PDF) el 16 de mayo de 2011.
  92. ^ "Riesgos existenciales: análisis de escenarios de extinción humana y peligros relacionados". nickbostrom.com . 2002. Archivado desde el original el 27 de abril de 2011 . Consultado el 25 de enero de 2006 .
  93. ^ abc Hawking, Stephen (1 de mayo de 2014). "Stephen Hawking: 'La trascendencia analiza las implicaciones de la inteligencia artificial, pero ¿nos estamos tomando la IA lo suficientemente en serio?'". El independiente . Archivado desde el original el 25 de septiembre de 2015 . Consultado el 5 de mayo de 2014 .
  94. ^ Nick Bostrom, "Cuestiones éticas en la inteligencia artificial avanzada" Archivado el 8 de octubre de 2018 en Wayback Machine , en Aspectos cognitivos, emotivos y éticos de la toma de decisiones en humanos y en inteligencia artificial , vol. 2, ed. I. Smit y col., Int. Instituto de Estudios Avanzados en Investigación de Sistemas y Cibernética, 2003, págs. 12-17.
  95. Eliezer Yudkowsky : La inteligencia artificial como factor positivo y negativo en el riesgo global Archivado el 11 de junio de 2012 en Wayback Machine . Borrador para una publicación en Global Catastrophic Risk del 31 de agosto de 2006, consultado el 18 de julio de 2011 (archivo PDF).
  96. ^ Hay, Nick (11 de junio de 2007). "El dispositivo coleccionista de sellos". Blog SIAI . Instituto de la Singularidad. Archivado desde el original el 17 de junio de 2012 . Consultado el 21 de agosto de 2010 .
  97. ^ Sandberg, Anders (14 de febrero de 2011). "Por qué deberíamos temer al Paperclipper". Y arte . Consultado el 14 de junio de 2023 .
  98. ^ "Omohundro, Stephen M., "The Basic AI Drives". Inteligencia general artificial, actas de 2008 de la primera conferencia AGI, eds. Pei Wang, Ben Goertzel y Stan Franklin. Vol. 171. Ámsterdam: IOS, 2008". 30 de noviembre de 2007. Archivado desde el original el 17 de septiembre de 2018 . Consultado el 20 de agosto de 2010 .
  99. ^ de Garis, Hugo (22 de junio de 2009). "La próxima guerra de artículos". Forbes . Consultado el 14 de junio de 2023 .
  100. ^ Yudkowsky, Eliezer S. (mayo de 2004). "Volición coherente extrapolada". Archivado desde el original el 15 de agosto de 2010.
  101. ^ Hibbard, Bill (2012), "Funciones de utilidad basadas en modelos", Journal of Artificial General Intelligence , 3 (1): 1, arXiv : 1111.3934 , Bibcode : 2012JAGI....3....1H, doi : 10.2478 /v10229-011-0013-5, S2CID  8434596.
  102. ^ ab Evitar comportamientos no deseados de la IA. Archivado el 29 de junio de 2013 en la Wayback Machine Bill Hibbard. Actas de 2012 de la Quinta Conferencia sobre Inteligencia General Artificial, eds. Joscha Bach, Ben Goertzel y Matthew Ikle. Este artículo ganó el Premio Turing 2012 del Machine Intelligence Research Institute al mejor artículo sobre seguridad AGI Archivado el 15 de febrero de 2021 en Wayback Machine .
  103. ^ Hibbard, Bill (2008), "La tecnología de la mente y un nuevo contrato social", Journal of Evolution and Technology , 17 , archivado desde el original el 15 de febrero de 2021 , consultado el 5 de enero de 2013 .
  104. ^ Soporte de decisiones para un diseño seguro de IA | Archivado el 15 de febrero de 2021 en Wayback Machine Bill Hibbard. Actas de 2012 de la Quinta Conferencia sobre Inteligencia General Artificial, eds. Joscha Bach, Ben Goertzel y Matthew Ikle.
  105. ^ abc Kemp, DJ; Hilbert, M.; Gillings, Señor (2016). "Información en la Biosfera: Mundos Biológico y Digital". Tendencias en ecología y evolución . 31 (3): 180–189. doi :10.1016/j.tree.2015.12.013. PMID  26777788. S2CID  3561873. Archivado desde el original el 4 de junio de 2016 . Consultado el 24 de mayo de 2016 .
  106. ^ Hilbert, Martín. «Cantidad de Información» (PDF) .
  107. ^ ab Markoff, John (26 de julio de 2009). "Los científicos temen que las máquinas puedan ser más astutas que el hombre". Los New York Times . Archivado desde el original el 1 de julio de 2017.
  108. ^ Robinson, Frank S. (27 de junio de 2013). "El futuro humano: ¿actualización o reemplazo?". El Humanista . Archivado desde el original el 15 de febrero de 2021 . Consultado el 1 de mayo de 2020 .
  109. ^ Eliezer Yudkowsky . "La inteligencia artificial como factor positivo y negativo del riesgo global". Riesgos catastróficos globales (2008).
  110. ^ Bugaj, Stephan Vladimir y Ben Goertzel. "Cinco imperativos éticos y sus implicaciones para la interacción entre humanos y AGI". Psicología Dinámica (2007).
  111. ^ Sotala, Kaj y Roman V. Yampolskiy. "Respuestas al riesgo catastrófico de AGI: una encuesta". Física Scripta 90.1 (2014): 018001.
  112. ^ Naam, Ramez (2014). "La singularidad está más allá de lo que parece". Archivado desde el original el 17 de mayo de 2014 . Consultado el 16 de mayo de 2014 .
  113. ^ Naam, Ramez (2014). "Por qué las IA no ascenderán en un abrir y cerrar de ojos: algunas matemáticas". Archivado desde el original el 17 de mayo de 2014 . Consultado el 16 de mayo de 2014 .
  114. ^ Salón, J. Storrs (2008). "Utopía de la ingeniería" (PDF) . Inteligencia general artificial, 2008: Actas de la primera conferencia AGI : 460–467. Archivado (PDF) desde el original el 1 de diciembre de 2014 . Consultado el 16 de mayo de 2014 .
  115. ^ Goertzel, Ben (26 de septiembre de 2014). "Superinteligencia: escenarios de despegue semirrígidos". Revista h+. Archivado desde el original el 25 de octubre de 2014 . Consultado el 25 de octubre de 2014 .
  116. ^ Más, máx. "La singularidad se encuentra con la economía". Archivado desde el original el 28 de agosto de 2009 . Consultado el 10 de noviembre de 2014 .
  117. ^ K. Eric Drexler , Motores de creación , 1986
  118. ^ Feynman, Richard P. (diciembre de 1959). "Hay mucho espacio en la parte inferior". Archivado desde el original el 11 de febrero de 2010.
  119. ^ Ray Kurzweil, La singularidad está cerca, p. 215. Grupo Pingüino, 2005.
  120. ^ La singularidad está cerca , p. 216.
  121. ^ Lanier, Jarón (2010). No eres un artilugio: un manifiesto . Nueva York, Nueva York: Alfred A. Knopf . pag. 26.ISBN 978-0307269645.
  122. ^ Prasad, Mahendra (2019). "Nicolás de Condorcet y la hipótesis de la primera explosión de inteligencia". Revista AI . 40 (1): 29–33. doi : 10.1609/aimag.v40i1.2855 .
  123. ^ Campbell, Jr., John W. (agosto de 1932). "La última evolución". Historias asombrosas . Proyecto Gutenberg.
  124. ^ Moravec, Hans (1977). Máquinas inteligentes: cómo llegar desde aquí y qué hacer después (wikidata).
  125. ^ abc Smart, John (1999-2008), Una breve historia del debate intelectual sobre la aceleración del cambio
  126. ^ Moravec, Hans (1979). Las computadoras de hoy, las máquinas inteligentes y nuestro futuro, wikidata.
  127. ^ Solomonoff, RJ "La escala de tiempo de la inteligencia artificial: reflexiones sobre los efectos sociales", Gestión de sistemas humanos, volumen 5, págs. 149-153, 1985.
  128. ^ Vinge, Vernor (1 de octubre de 2004). Abandonado en tiempo real. Macmillan. ISBN 978-1-4299-1512-0.
  129. ^ David Pringle (28 de septiembre de 1986). "Una y otra vez". El Washington Post . Consultado el 6 de julio de 2021 .
  130. ^ Vinge, Vernor (1988). Amenazas y otras promesas. Baen. ISBN 978-0-671-69790-7.
  131. ^ Dooling, Richard. Éxtasis para los geeks: cuando la IA supera al coeficiente intelectual (2008), pág. 89
  132. ^ "¿Heredarán los robots la Tierra?". web.media.mit.edu . Consultado el 14 de junio de 2023 .
  133. ^ Oppy, Graham (2000). "Colonizando las galaxias". Sofía . 39 (2). Springer Science y Business Media LLC: 117–142. doi :10.1007/bf02822399. ISSN  0038-1527. S2CID  170919647.
  134. ^ Episodio del 23 de agosto de 2006 en IMDb
  135. ^ Sandberg, Anders. "Una visión general de los modelos de singularidad tecnológica". Taller sobre hojas de ruta hacia la AGI y el futuro de la AGI, Lugano, Suiza, marzo. vol. 8. 2010.
  136. ^ Singularity University Archivado el 15 de febrero de 2021 en Wayback Machine en su sitio web oficial
  137. ^ Guston, David H. (14 de julio de 2010). Enciclopedia de Nanociencia y Sociedad. Publicaciones SAGE. ISBN 978-1-4522-6617-6. Archivado desde el original el 15 de febrero de 2021 . Consultado el 4 de noviembre de 2016 .
  138. ^ "Nanotecnología: el futuro llegará antes de lo que cree" (PDF) . Comité Económico Conjunto Congreso de los Estados Unidos. Marzo de 2007. Archivado (PDF) desde el original el 15 de febrero de 2021 . Consultado el 29 de abril de 2012 .
  139. ^ Treder, Mike (31 de marzo de 2007). "El Congreso y la Singularidad". Nanotecnología Responsable . Archivado desde el original el 7 de abril de 2007 . Consultado el 4 de noviembre de 2016 .
  140. ^ Dadich, Scott (12 de octubre de 2016). "Barack Obama habla sobre IA, Robo Cars y el futuro del mundo". Cableado . Archivado desde el original el 3 de diciembre de 2017 . Consultado el 4 de noviembre de 2016 .

Fuentes

Otras lecturas

enlaces externos

Escuche este artículo ( 52 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 3 de noviembre de 2018 y no refleja ediciones posteriores. ( 2018-11-03 )