stringtranslate.com

Por qué el futuro no nos necesita

" Por qué el futuro no nos necesita " es un artículo escrito por Bill Joy (en aquel entonces científico jefe de Sun Microsystems ) en la edición de abril de 2000 de la revista Wired . En el artículo, sostiene que "nuestras tecnologías más poderosas del siglo XXI -la robótica , la ingeniería genética y la nanotecnología- amenazan con convertir a los humanos en una especie en peligro de extinción ". Joy advierte:

Las experiencias de los científicos atómicos muestran claramente la necesidad de asumir la responsabilidad personal, el peligro de que las cosas se muevan demasiado rápido y la forma en que un proceso puede adquirir vida propia. Podemos, como ellos, crear problemas insuperables en un abrir y cerrar de ojos. Debemos pensar más de antemano si no queremos ser sorprendidos y conmocionados de la misma manera por las consecuencias de nuestras invenciones.

Aunque algunos críticos han caracterizado la postura de Joy como oscurantismo o neoludismo , otros comparten sus preocupaciones sobre las consecuencias de la rápida expansión de la tecnología. [1]

Resumen

Joy sostiene que las tecnologías en desarrollo suponen un peligro mucho mayor para la humanidad que cualquier tecnología anterior. En particular, se centra en la ingeniería genética , la nanotecnología y la robótica . Argumenta que las tecnologías de destrucción del siglo XX, como la bomba nuclear, estaban limitadas a los grandes gobiernos, debido a la complejidad y el coste de dichos dispositivos, así como a la dificultad para adquirir los materiales necesarios. Utiliza la novela La peste blanca como un posible escenario de pesadilla, en el que un científico loco crea un virus capaz de acabar con la humanidad.

Joy también expresa su preocupación por el aumento de la potencia informática. Su preocupación es que las computadoras acabarán siendo más inteligentes que nosotros, lo que conducirá a escenarios distópicos como la rebelión de los robots . Cita a Ted Kaczynski (el Unabomber).

Joy expresa su preocupación por el hecho de que, con el tiempo, los ricos serán los únicos que tendrán el poder de controlar los futuros robots que se construirán y que estas personas también podrían decidir tomar la vida en sus propias manos y controlar cómo los humanos continúan poblando y reproduciéndose. [2] Comenzó a investigar más sobre robótica y personas que se especializan en robótica , y fuera de sus propios pensamientos, trató de obtener las opiniones de otros sobre el tema. Rodney Brooks , un especialista en robótica, cree que en el futuro habrá una fusión entre humanos y robots. [3] Joy mencionó el libro de Hans Moravec ''Robot: Mere Machine to Trascendent Mind'' donde creía que habrá un cambio en el futuro donde los robots se harán cargo de las actividades humanas normales, pero con el tiempo los humanos se sentirán bien viviendo de esa manera. [4]

Crítica

En The Singularity Is Near , Ray Kurzweil cuestionó la regulación de tecnologías potencialmente peligrosas, preguntando: "¿Deberíamos decirles a los millones de personas que padecen cáncer y otras enfermedades devastadoras que estamos cancelando el desarrollo de todos los tratamientos de bioingeniería porque existe el riesgo de que estas mismas tecnologías algún día puedan usarse con fines malévolos?" Sin embargo, John Zerzan y Chellis Glendinning creen que las tecnologías modernas son malas tanto para la libertad como para el problema del cáncer, y que las dos cuestiones están conectadas. [5] [6] [7]

En el artículo "Una respuesta a Bill Joy y los tecnofuturistas pesimistas" del Anuario de Políticas de Ciencia y Tecnología de la AAAS de 2001, John Seely Brown y Paul Duguid criticaron a Joy por tener una visión de túnel tecnológica en su predicción al no considerar los factores sociales. [8]

John McGinnis sostiene que la propuesta de Joy de “renunciar” a las tecnologías que podrían conducir a la inteligencia artificial general (IAG) fracasaría porque “las prohibiciones, al menos en la tecnología y la geopolítica actuales, seguramente serán ineficaces”. La verificación de los acuerdos de limitación de la IAG sería difícil debido a la naturaleza de doble uso de la IAG y a la facilidad de ocultarla. De manera similar, cree que la propuesta de Joy de “juramento hipocrático” de abstención voluntaria de los científicos de realizar investigaciones perjudiciales tampoco sería efectiva, porque los científicos podrían verse presionados por los gobiernos, tentados por las ganancias, inseguros de qué tecnologías conducirían a daños en el futuro o opuestos a la premisa de Joy en primer lugar. En lugar de renunciar a la IAG, McGinnis aboga por un tipo de desarrollo tecnológico diferencial en el que la inteligencia artificial amigable avance más rápido que otros tipos. [9]

El futurista extropiano Max More comparte el punto de vista de Kurzweil sobre la naturaleza impráctica e ineficaz de la "renuncia tecnológica", pero añade un componente moral y filosófico más amplio al argumento, argumentando que la perfección y evolución de la humanidad no implica "perder nuestra humanidad" y que una mayor capacidad buscada voluntariamente en cualquier ámbito ni siquiera representa "una pérdida" de ningún tipo. [10]

En el artículo de Zac Goldsmith sobre la entrevista a Bill Joy, lo cita sobre cómo algunas preocupaciones con las nuevas tecnologías en desarrollo son en realidad más peligrosas de lo que expresó en el artículo, porque Goldsmith afirma que los desarrolladores de estas máquinas les están dando demasiado poder. [11] Goldsmith afirma su creencia de que los científicos no piensan en muchas cosas que pueden salir mal cuando comienzan a hacer inventos, porque eso conducirá a menos financiación.

En la reseña de Sophie Tysom sobre el artículo de Bill Joy, dice que Joy no debería tener una sola opinión cuando se trata de nuevas tecnologías, y que también debería ver que podría haber un "compromiso" entre él y esas nuevas tecnologías. [12] También está de acuerdo en que tiene razón en estar preocupado por lo que sucederá a largo plazo, pero no cree que estas tecnologías intenten controlarnos en el futuro. Joy respondió a esto, afirmando que le gustaba que la gente estuviera empezando a responder a su artículo porque les daba una opinión sobre el tema. [13]

Secuelas

Después de la publicación del artículo, Bill Joy sugirió evaluar las tecnologías para medir sus peligros implícitos, así como también hacer que los científicos se nieguen a trabajar en tecnologías que tengan el potencial de causar daño.

En el número del 15º aniversario de Wired en 2008, el artículo de Lucas Graves informó que las tecnologías genéticas, nanotecnológicas y robóticas no han alcanzado el nivel que haría realidad el escenario de Bill Joy. [14]

El conocido teórico de la conspiración Alex Jones citó el artículo durante una discusión sobre las implicaciones del transhumanismo con los podcasters Joe Rogan y Tim Dillon en el episodio del 27 de octubre de 2020 de The Joe Rogan Experience . [15]

Referencias

  1. ^ Khushf, George (2004). "La ética de la nanotecnología: visión y valores para una nueva generación de ciencia e ingeniería", Tecnologías emergentes y cuestiones éticas en ingeniería , Academia Nacional de Ingeniería, págs. 31-32. Washington, DC: The National Academies Press. ISBN  030909271X
  2. ^ Joy, Bill (1 de abril de 2000). "Por qué el futuro no nos necesita". Wired . ISSN  1059-1028 . Consultado el 14 de noviembre de 2019 .
  3. ^ Messerly, John (17 de febrero de 2016). "Crítica de "Por qué el futuro no nos necesita" de Bill Joy". Razón y sentido . Consultado el 14 de noviembre de 2019 .
  4. ^ Moravec, Hans (1998). Robot: de mera máquina a mente trascendente. Oup Usa.
  5. ^ Zerzan, John (31 de octubre de 2002). "¿Qué nos aflige?". Green Anarchy (10). Federated Anarchy Inc. Consultado el 5 de marzo de 2012 .
  6. ^ "La era del duelo". Primitivism.com . Consultado el 8 de julio de 2009 .
  7. ^ Cohen, Mark Nathan (1991). "La salud y el surgimiento de la civilización". Primitivism.com (extracto); Yale University Press . Consultado el 8 de julio de 2009 .
  8. ^ Brown, John Seely ; Duguid, Paul (2001). "Una respuesta a Bill Joy y los tecnofuturistas pesimistas" (PDF) . Anuario de política científica y tecnológica . Asociación Estadounidense para el Avance de la Ciencia.
  9. ^ McGinnis, John O. (verano de 2010). «Accelerating AI» (Acelerando la IA). Northwestern University Law Review . 104 (3): 1253–1270 . Consultado el 16 de julio de 2014 .
  10. ^ More, Max (7 de mayo de 2000). "Acepta, no renuncies al futuro". Extropy . Consultado el 22 de julio de 2018 .
  11. ^ Goldsmith, Zac (octubre de 2000). «Discomfort and Joy: Bill Joy Interview» (Incomodidad y alegría: entrevista a Bill Joy) . Ecologista . 30. Consultado el 20 de noviembre de 2019 .
  12. ^ Tysom, Sophie (enero de 2001). «Utopías o distopías tecnológicas: ¿existe una tercera vía?» . 20 (1): 15–16 . Consultado el 20 de noviembre de 2019 . {{cite journal}}: Requiere citar revista |journal=( ayuda )
  13. ^ Joy, Bill (15 de septiembre de 2000). "El lado oscuro de la tecnología". Vital Speeches of the Day . 66 (23): 706–709. ProQuest  221453952.
  14. ^ Graves, Lucas (24 de marzo de 2008). "15º aniversario: por qué el futuro todavía nos necesita un poco más". Wired . Wired.com . Consultado el 22 de octubre de 2009 .
  15. ^ Experiencia Joe Rogan n.° 1555: Alex Jones y Tim Dillon. YouTube . Archivado desde el original el 11 de diciembre de 2021.

Lectura adicional

Enlaces externos