stringtranslate.com

Tres leyes de la robótica

Esta portada de Yo, Robot ilustra la historia "Runaround", la primera en enumerar las Tres Leyes de la Robótica.

Las Tres Leyes de la Robótica (a menudo abreviadas como Las Tres Leyes o Leyes de Asimov ) son un conjunto de reglas ideadas por el autor de ciencia ficción Isaac Asimov , que serían seguidas por los robots en varias de sus historias. Las reglas se introdujeron en su cuento de 1942 " Runaround " (incluido en la colección de 1950 I, Robot ), aunque en historias anteriores se habían implícito restricciones similares.

Las leyes

Las Tres Leyes, que se presentan como extraídas del ficticio "Manual de Robótica, 56.ª edición, 2058 d. C.", son: [1]

Uso en ficción

Las Tres Leyes forman un principio organizador y un tema unificador para la ficción basada en robots de Asimov , que aparecen en su serie Robot , las historias vinculadas a ella, y en su serie (inicialmente seudónima ) Lucky Starr de ficción para adultos jóvenes . Las Leyes están incorporadas en casi todos los robots positrónicos que aparecen en su ficción y no se pueden eludir, ya que están pensadas como una característica de seguridad. Muchas de las historias de Asimov centradas en robots involucran robots que se comportan de maneras inusuales y contraintuitivas como una consecuencia no deseada de cómo el robot aplica las Tres Leyes a la situación en la que se encuentra. Otros autores que trabajan en el universo ficticio de Asimov los han adoptado y aparecen referencias, a menudo paródicas , tanto en la ciencia ficción como en otros géneros.

Las leyes originales han sido modificadas y elaboradas por Asimov y otros autores. El propio Asimov hizo ligeras modificaciones a los tres primeros en trabajos posteriores para desarrollar aún más cómo los robots interactuarían con los humanos y entre sí. En ficción posterior, en la que los robots habían asumido la responsabilidad del gobierno de planetas enteros y de civilizaciones humanas, Asimov también añadió una cuarta ley, o ley cero, para preceder a las demás.

Las Tres Leyes y el Cero han invadido la ciencia ficción y se hace referencia a ellas en muchos libros, películas y otros medios. También han influido en el pensamiento sobre la ética de la inteligencia artificial .

Historia

En El resto de los robots , publicado en 1964, Isaac Asimov señaló que cuando comenzó a escribir en 1940 sentía que "una de las tramas típicas de la ciencia ficción era... los robots fueron creados y su creador fue destruido. El conocimiento tiene sus peligros, Sí, pero ¿la respuesta es retirarse del conocimiento? ¿O el conocimiento debe usarse como una barrera contra los peligros que trae consigo? Decidió que en sus historias un robot no "se volvería estúpidamente contra su creador sin otro propósito que el de demostrar, una vez más, el crimen y el castigo de Fausto ". [2]

El 3 de mayo de 1939, Asimov asistió a una reunión de la Sociedad de Ciencia Ficción de Queens ( Nueva York ), donde conoció a Earl y Otto Binder , quienes recientemente habían publicado un cuento "Yo, Robot" protagonizado por un simpático robot llamado Adam Link que fue incomprendido y motivado por el amor y el honor. (Esta fue la primera de una serie de diez historias; al año siguiente, "La venganza de Adam Link" (1940) presentó a Adam pensando: "Un robot nunca debe matar a un humano, por su propia voluntad".) [ 3] Asimov admiró la historia. . Tres días después, Asimov comenzó a escribir "mi propia historia de un robot noble y comprensivo", su decimocuarta historia. [4] Trece días después llevó " Robbie " a John W. Campbell , el editor de Astounding Science-Fiction . Campbell lo rechazó, alegando que se parecía demasiado a " Helen O'Loy " de Lester del Rey , publicada en diciembre de 1938: la historia de un robot que se parece tanto a una persona que se enamora de su creador. y se convierte en su esposa ideal. [5] Frederik Pohl publicó la historia bajo el título “Strange Playfellow” en Super Science Stories en septiembre de 1940. [6] [7]

Asimov atribuye las Tres Leyes a John W. Campbell, de una conversación que tuvo lugar el 23 de diciembre de 1940. Campbell afirmó que Asimov ya tenía las Tres Leyes en mente y que simplemente necesitaban enunciarse explícitamente. Varios años más tarde , Randall Garrett , amigo de Asimov, atribuyó las Leyes a una asociación simbiótica entre los dos hombres, sugerencia que Asimov adoptó con entusiasmo. [8] Según sus escritos autobiográficos, Asimov incluyó la cláusula de "inacción" de la Primera Ley debido al poema de Arthur Hugh Clough "The Latest Decálogue" (texto en Wikisource), que incluye las líneas satíricas "No matarás, pero necesitarás matar". no esforzarse / oficiosamente por mantenerse con vida". [9]

Aunque Asimov sitúa la creación de las Tres Leyes en una fecha particular, su aparición en su literatura ocurrió durante un período. Escribió dos historias de robots sin mención explícita de las Leyes, " Robbie " y " Razón ". Supuso, sin embargo, que los robots tendrían ciertas salvaguardias inherentes. "¡ Mentiroso! ", su tercera historia de robots, hace la primera mención de la Primera Ley pero no las otras dos. Las tres leyes finalmente aparecieron juntas en " Runaround ". Cuando estas historias y varias otras se compilaron en la antología I, Robot , "Reason" y "Robbie" se actualizaron para reconocer las Tres Leyes, aunque el material que Asimov agregó a "Reason" no es del todo consistente con las Tres Leyes como él los describió en otra parte. [10] En particular, la idea de un robot protegiendo vidas humanas cuando no cree que esos humanos realmente existan está en desacuerdo con el razonamiento de Elijah Baley, como se describe a continuación.

Durante la década de 1950, Asimov escribió una serie de novelas de ciencia ficción destinadas expresamente a un público adulto joven. Al principio, su editor esperaba que las novelas pudieran adaptarse a una serie de televisión de larga duración, algo así como El Llanero Solitario había sido para la radio. Temiendo que sus historias fueran adaptadas a la programación "uniformemente horrible" que veía inundar los canales de televisión [11] Asimov decidió publicar los libros de Lucky Starr bajo el seudónimo de "Paul French". Cuando los planes para la serie de televisión fracasaron, Asimov decidió abandonar la ficción; trajo las Tres Leyes a Lucky Starr y las Lunas de Júpiter , señalando que esto "era un claro indicio de la identidad de Paul French incluso para el lector más casual". [12]

En su cuento "Evidence", Asimov deja que su personaje recurrente, la Dra. Susan Calvin, exponga una base moral detrás de las Tres Leyes. Calvin señala que normalmente se espera que los seres humanos se abstengan de dañar a otros seres humanos (excepto en tiempos de extrema presión como la guerra, o para salvar a un número mayor) y esto es equivalente a la Primera Ley de un robot. Asimismo, según Calvino, la sociedad espera que los individuos obedezcan instrucciones de autoridades reconocidas como médicos, maestros, etc., lo que equivale a la Segunda Ley de la Robótica. Finalmente, se espera que los humanos eviten hacerse daño a sí mismos, lo cual es la Tercera Ley para un robot.

La trama de "Evidence" gira en torno a la cuestión de distinguir a un ser humano de un robot construido para parecer humano. Calvin razona que si tal individuo obedece las Tres Leyes puede ser un robot o simplemente "un muy buen hombre". Luego, otro personaje le pregunta a Calvin si, después de todo, los robots son muy diferentes de los seres humanos. Ella responde: "Mundos diferentes. Los robots son esencialmente decentes".

Asimov escribió más tarde que no debería ser elogiado por crear las Leyes, porque son "obvias desde el principio, y todos son conscientes de ellas de manera subliminal. Las Leyes nunca se expresaron en oraciones breves hasta que logré hacer el trabajo". Las Leyes se aplican, por supuesto, a todas las herramientas que utilizan los seres humanos", [13] y "los análogos de las Leyes están implícitos en el diseño de casi todas las herramientas, robóticas o no": [14]

  1. Ley 1: Una herramienta no debe ser insegura de usar. Los martillos tienen mangos y los destornilladores tienen empuñaduras para ayudar a aumentar el agarre. Por supuesto, es posible que una persona se lastime con una de estas herramientas, pero esa lesión sólo se debería a su incompetencia, no al diseño de la herramienta.
  2. Ley 2: Una herramienta debe realizar su función de manera eficiente a menos que esto perjudique al usuario. Ésta es la única razón por la que existen los interruptores de circuito de falla a tierra . Cualquier herramienta en funcionamiento sufrirá un corte de energía si un circuito detecta que parte de la corriente no regresa al cable neutro y, por lo tanto, podría estar fluyendo a través del usuario. La seguridad del usuario es primordial.
  3. Ley 3: Una herramienta debe permanecer intacta durante su uso a menos que su destrucción sea requerida por su uso o por seguridad. Por ejemplo, los discos Dremel están diseñados para ser lo más resistentes posible sin romperse, a menos que el trabajo requiera gastarlos. Además, están diseñados para romperse en un punto antes de que la velocidad de la metralla pueda dañar gravemente a alguien (aparte de los ojos, aunque de todos modos se deben usar gafas de seguridad en todo momento).

Asimov creía que, idealmente, los humanos también seguirían las Leyes: [13]

Tengo mi respuesta lista cada vez que alguien me pregunta si creo que mis Tres Leyes de la Robótica realmente se utilizarán para regir el comportamiento de los robots, una vez que se vuelvan lo suficientemente versátiles y flexibles como para poder elegir entre diferentes cursos de comportamiento.

Mi respuesta es: "Sí, las Tres Leyes son la única forma en que los seres humanos racionales pueden tratar con robots... o con cualquier otra cosa".

—Pero cuando digo eso, siempre recuerdo (tristemente) que los seres humanos no siempre somos racionales.

Asimov declaró en una entrevista de 1986 en el programa de acceso público de Manhattan Conversaciones con Harold Hudson Channer con Harold Channer con la copresentadora invitada Marilyn vos Savant : "Es un poco humillante pensar que lo que es más probable que sobreviva de todo lo que he dicho ... Después de todo, he publicado ahora... He publicado ahora al menos 20 millones de palabras. Tendré que averiguarlo, tal vez incluso más. Pero de todos esos millones de palabras que he publicado "Estoy convencido de que dentro de 100 años sólo sobrevivirán 60 de ellos. Los 60 que componen las Tres Leyes de la Robótica." [15] [16] [17]

Alteraciones

Por Asimov

Las historias de Asimov ponen a prueba sus Tres Leyes en una amplia variedad de circunstancias que conducen a propuestas y rechazo de modificaciones. El estudioso de la ciencia ficción James Gunn escribe en 1982: "Las historias de robots de Asimov en su conjunto pueden responder mejor a un análisis sobre esta base: la ambigüedad en las Tres Leyes y las formas en que Asimov interpretó veintinueve variaciones sobre un tema". [18] Si bien el conjunto original de Leyes sirvió de inspiración para muchas historias, Asimov introdujo versiones modificadas de vez en cuando.

Primera Ley modificada

En " Little Lost Robot " se crean varios robots NS-2, o "Nestor", con sólo una parte de la Primera Ley. [1] Dice:

1. Un robot no podrá dañar a un ser humano.

Esta modificación está motivada por una dificultad práctica, ya que los robots tienen que trabajar junto a seres humanos que están expuestos a bajas dosis de radiación. Debido a que sus cerebros positrónicos son altamente sensibles a los rayos gamma, los robots quedan inoperables con dosis razonablemente seguras para los humanos. Los robots están siendo destruidos al intentar rescatar a los humanos que no corren ningún peligro real pero que "podrían olvidarse de abandonar" la zona irradiada dentro del tiempo límite de exposición. Eliminar la cláusula de "inacción" de la Primera Ley resuelve este problema pero crea la posibilidad de uno aún mayor: un robot podría iniciar una acción que dañaría a un humano (dejar caer un peso pesado y no lograr atraparlo es el ejemplo que se da en el texto). , sabiendo que era capaz de prevenir el daño y luego decide no hacerlo. [1]

Gaia es un planeta con inteligencia colectiva en la serie Fundación que adopta una ley similar a la Primera Ley y la Ley Cero como filosofía:

Gaia no puede dañar la vida ni permitir que la vida sufra daño.

Se agregó la Ley Cero

Asimov una vez añadió una " Ley Cero ", llamada así para continuar el patrón en el que las leyes con números más bajos reemplazan a las leyes con números más altos, afirmando que un robot no debe dañar a la humanidad. El personaje robótico R. Daneel Olivaw fue el primero en darle un nombre a la Ley Cero en la novela Robots and Empire ; [19] sin embargo, el personaje Susan Calvin articula el concepto en el cuento " El conflicto evitable ".

En las escenas finales de la novela Robots and Empire , R. Giskard Reventlov es el primer robot que actúa según la Ley Cero. Giskard es telepático , como el robot Herbie en el cuento "¡ Mentiroso! ", e intenta aplicar la Ley Cero a través de su comprensión de un concepto de "daño" más sutil que el que la mayoría de los robots pueden captar. [20] Sin embargo, a diferencia de Herbie, Giskard comprende el concepto filosófico de la Ley Cero que le permite dañar a seres humanos individuales si puede hacerlo al servicio del concepto abstracto de humanidad. La Ley Cero nunca está programada en el cerebro de Giskard, sino que es una regla que intenta comprender a través de la metacognición pura . Aunque fracasa (en última instancia, destruye su cerebro positrónico, ya que no está seguro de si su elección será para el bien último de la humanidad o no), le da a su sucesor, R. Daneel Olivaw, sus habilidades telepáticas. A lo largo de miles de años, Daneel se adapta para poder obedecer plenamente la Ley Cero. [ cita necesaria ]

Daneel formuló originalmente la Ley Cero tanto en la novela Foundation and Earth (1986) como en la novela posterior Prelude to Foundation (1988):

Un robot no puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daño.

A las Tres Leyes originales se añadió una condición que establecía que no se debía infringir la Ley Cero, aunque Asimov reconoció la dificultad que tal ley plantearía en la práctica. La novela Fundación y Tierra de Asimov contiene el siguiente pasaje:

Trevize frunció el ceño. "¿Cómo se decide qué es perjudicial o no perjudicial para la humanidad en su conjunto?"

"Precisamente, señor", dijo Daneel. "En teoría, la Ley Cero era la respuesta a nuestros problemas. En la práctica, nunca pudimos decidir. Un ser humano es un objeto concreto. El daño sufrido por una persona se puede estimar y juzgar. La humanidad es una abstracción".

Un traductor incorporó el concepto de la Ley Cero en una de las novelas de Asimov antes de que el propio Asimov hiciera explícita la ley. [21] Cerca del clímax de Las Cuevas de Acero , Elijah Baley se hace un amargo comentario pensando que la Primera Ley prohíbe a un robot dañar a un ser humano. Determina que así debe ser a menos que el robot sea lo suficientemente inteligente como para comprender que sus acciones son por el bien a largo plazo de la humanidad. En la traducción francesa de Jacques Brécard de 1956 titulada Les Cavernes d'acier, los pensamientos de Baley emergen de una manera ligeramente diferente:

Un robot no puede dañar a un ser humano, a menos que encuentre una manera de demostrar que, en última instancia, el daño causado beneficiaría a la humanidad en general. [21]

Eliminación de las Tres Leyes

Tres veces durante su carrera como escritor, Asimov retrató robots que ignoran por completo las Tres Leyes. El primer caso fue un cuento breve titulado " Primera Ley " y a menudo se considera un "cuento fantástico" insignificante [22] o incluso apócrifo . [23] Por otro lado, el cuento " Cal " (de la colección Gold ), contado por un narrador robot en primera persona, presenta a un robot que ignora las Tres Leyes porque ha encontrado algo mucho más importante: quiere ser escritor. Humorística, en parte autobiográfica y de estilo inusualmente experimental, "Cal" ha sido considerada como una de las historias más fuertes de Gold . [24] El tercero es un cuento titulado " Sally " en el que los coches equipados con cerebros positrónicos aparentemente son capaces de dañar y matar humanos sin tener en cuenta la Primera Ley. Sin embargo, aparte del concepto de cerebro positrónico, esta historia no se refiere a otras historias de robots y es posible que no se desarrolle en la misma continuidad .

La historia que da título a la colección Robot Dreams retrata a LVX-1, o "Elvex", un robot que entra en un estado de inconsciencia y sueña gracias a la inusual construcción fractal de su cerebro positrónico. En su sueño las dos primeras Leyes están ausentes y la Tercera Ley dice "Un robot debe proteger su propia existencia". [25]

Asimov adoptó posiciones diversas sobre si las Leyes eran opcionales: aunque en sus primeros escritos eran simplemente salvaguardias cuidadosamente diseñadas, en historias posteriores Asimov afirmó que eran una parte inalienable de la base matemática subyacente al cerebro positrónico. Sin la teoría básica de las Tres Leyes, los científicos ficticios del universo de Asimov serían incapaces de diseñar una unidad cerebral viable. Esto es históricamente consistente: las ocasiones en las que los robóticos modifican las Leyes generalmente ocurren temprano dentro de la cronología de las historias y en un momento en el que hay menos trabajo por rehacer. En "El pequeño robot perdido", Susan Calvin considera que modificar las Leyes es una idea terrible, aunque posible, [26] mientras que siglos más tarde el Dr. Gerrigel en Las Cuevas de Acero cree que se necesitará un siglo simplemente para volver a desarrollar la teoría del cerebro positrónico desde cero. .

El personaje Dr. Gerrigel utiliza el término "Asenion" para describir robots programados con las Tres Leyes. Los robots de las historias de Asimov, al ser robots Asenion, son incapaces de violar conscientemente las Tres Leyes pero, en principio, un robot de ciencia ficción o del mundo real podría no ser Asenion. "Asenion" es un error ortográfico del nombre Asimov realizado por un editor de la revista Planet Stories. [27] Asimov usó esta oscura variación para insertarse en Las Cuevas de Acero tal como se refirió a sí mismo como "Azimut o, posiblemente, Asíntota" en Tiotimolina a las estrellas , de la misma manera que Vladimir Nabokov apareció en Lolita disfrazado anagramáticamente . como "Vivian Flor Oscura".

Los personajes de las historias a menudo señalan que las Tres Leyes, tal como existen en la mente de un robot, no son las versiones escritas que suelen citar los humanos, sino conceptos matemáticos abstractos en los que se basa toda la conciencia en desarrollo de un robot. Este concepto es en gran medida confuso y poco claro en historias anteriores que representan robots muy rudimentarios que solo están programados para comprender tareas físicas básicas, donde las Tres Leyes actúan como una salvaguardia general, pero en la era de Las Cuevas de Acero, que presenta robots con capacidades humanas o superiores. Inteligencia humana Las Tres Leyes se han convertido en la visión ética básica subyacente del mundo que determina las acciones de todos los robots.

Por otros autores

La trilogía de Roger MacBride Allen

En la década de 1990, Roger MacBride Allen escribió una trilogía ambientada en el universo ficticio de Asimov. Cada título tiene el prefijo "Isaac Asimov", ya que Asimov había aprobado el esquema de Allen antes de su muerte. [ cita necesaria ] Estos tres libros, Caliban , Inferno y Utopia , introducen un nuevo conjunto de las Tres Leyes. Las llamadas Nuevas Leyes son similares a las originales de Asimov con las siguientes diferencias: se modifica la Primera Ley para eliminar la cláusula de "inacción", misma modificación realizada en "El pequeño robot perdido"; se modifica la Segunda Ley para exigir cooperación en lugar de obediencia; la Tercera Ley se modifica para que ya no sea reemplazada por la Segunda (es decir, a un robot de la "Nueva Ley" no se le puede ordenar que se destruya a sí mismo); Finalmente, Allen añade una Cuarta Ley que ordena al robot que haga "lo que quiera" siempre que esto no entre en conflicto con las tres primeras leyes. La filosofía detrás de estos cambios es que los robots de la "Nueva Ley" deberían ser socios y no esclavos de la humanidad, según Fredda Leving, quien diseñó estos Robots de la Nueva Ley. Según la introducción del primer libro, Allen ideó las Nuevas Leyes en discusión con el propio Asimov. Sin embargo, la Encyclopedia of Science Fiction dice que "Con el permiso de Asimov, Allen replanteó las Tres Leyes y desarrolló un nuevo conjunto". [28]

"Con las manos juntas" de Jack Williamson

La novela de Jack Williamson " With Folded Hands " (1947), posteriormente reescrita como la novela The Humanoids , trata sobre robots sirvientes cuya directiva principal es "Servir y obedecer, y proteger a los hombres del daño". Si bien las leyes robóticas de Asimov están destinadas a proteger a los humanos de cualquier daño, los robots de la historia de Williamson han llevado estas instrucciones al extremo; protegen a los humanos de todo, incluida la infelicidad, el estrés, los estilos de vida poco saludables y todas las acciones que podrían ser potencialmente peligrosas. Lo único que les queda a los humanos es sentarse con las manos juntas. [29]

Trilogía secuela de la Fundación

En las secuelas de la Fundación con licencia oficial Foundation's Fear , Foundation and Chaos y Foundation's Triumph (de Gregory Benford , Greg Bear y David Brin respectivamente), se ve que el futuro Imperio Galáctico está controlado por una conspiración de robots humaniformes que siguen la Ley Cero y son guiados. por R. Daneel Olivaw .

Las Leyes de la Robótica se presentan como algo parecido a una religión humana , y se hace referencia a ellas en el lenguaje de la Reforma Protestante , siendo el conjunto de leyes que contiene la Ley Cero conocida como la "Reforma Giskardiana" hasta la "Ortodoxia Calviniana" original de la Tres leyes. Se ve a los robots de la Ley Cero bajo el control de R. Daneel Olivaw luchando continuamente con los robots de la "Primera Ley" que niegan la existencia de la Ley Cero, promoviendo agendas diferentes a las de Daneel. [30] Algunas de estas agendas se basan en la primera cláusula de la Primera Ley ("Un robot no puede dañar a un ser humano...") que aboga por una estricta no interferencia en la política humana para evitar causar daño sin saberlo. Otros se basan en la segunda cláusula ("...o, por inacción, permitir que un ser humano sufra daño"), afirmando que los robots deberían convertirse abiertamente en un gobierno dictatorial para proteger a los humanos de todo conflicto o desastre potencial.

Daneel también entra en conflicto con un robot conocido como R. Lodovic Trema cuyo cerebro positrónico fue infectado por una IA rebelde (específicamente, una simulación del fallecido Voltaire ) que, en consecuencia, libera a Trema de las Tres Leyes. Trema llega a creer que la humanidad debería ser libre de elegir su propio futuro. Además, un pequeño grupo de robots afirma que la Ley Cero de la Robótica en sí misma implica una Ley Menos Uno de la Robótica superior:

Un robot no puede dañar la sensibilidad o, por inacción, permitir que la sensibilidad sufra daño.

Por lo tanto, afirman que es moralmente indefendible que Daneel sacrifique despiadadamente robots y vida consciente extraterrestre en beneficio de la humanidad. Ninguna de estas reinterpretaciones desplaza con éxito la Ley Cero de Daneel, aunque El Triunfo de la Fundación insinúa que estas facciones robóticas permanecen activas como grupos marginales hasta el momento de la novela Fundación . [30]

Estas novelas tienen lugar en un futuro dictado por Asimov para estar libre de la presencia obvia de robots y suponer que la influencia secreta de R. Daneel en la historia a lo largo de milenios ha impedido tanto el redescubrimiento de la tecnología cerebral positrónica como la oportunidad de trabajar en máquinas inteligentes sofisticadas. Esta falta de redescubrimiento y de oportunidades garantiza que el poder físico e intelectual superior ejercido por las máquinas inteligentes permanezca directamente en posesión de robots obedientes a alguna forma de las Tres Leyes. [30] Que R. Daneel no tiene todo el éxito en esto queda claro en un breve período cuando los científicos de Trantor desarrollan " tiktoks ", máquinas programables simplistas similares a los robots modernos de la vida real y, por lo tanto, que carecen de las Tres Leyes. Los robots conspiradores ven los tiktoks trantorianos como una amenaza masiva a la estabilidad social, y su plan para eliminar la amenaza tiktok forma gran parte de la trama de Foundation's Fear .

En Foundation's Triumph, diferentes facciones de robots interpretan las Leyes de una amplia variedad de maneras, aparentemente haciendo sonar todas las permutaciones posibles sobre las ambigüedades de las Tres Leyes.

Serie de misterio de robots

Ambientada entre The Robots of Dawn y Robots and Empire , la trilogía Robot Mystery de Mark W. Tiedemann actualiza la saga RobotFoundation con mentes robóticas alojadas en computadoras centrales en lugar de cuerpos humanoides. [ se necesita aclaración ] La novela Aurora de 2002 tiene personajes robóticos que debaten las implicaciones morales de dañar formas de vida cyborg que son en parte artificiales y en parte biológicas. [31]

No se deben descuidar las propias creaciones de Asimov en estas áreas, como la tecnología de "visión" solariana y las máquinas originales de The Evitable Conflict que Tiedemann reconoce. Aurora , por ejemplo, denomina a las Máquinas "las primeras RI, en realidad". Además, la serie Robot Mystery aborda el problema de la nanotecnología : [32] construir un cerebro positrónico capaz de reproducir procesos cognitivos humanos requiere un alto grado de miniaturización, pero las historias de Asimov pasan por alto en gran medida los efectos que esta miniaturización tendría en otros campos de la tecnología. Por ejemplo, los lectores de tarjetas del departamento de policía en Las Cuevas de Acero tienen una capacidad de sólo unos pocos kilobytes por centímetro cuadrado de medio de almacenamiento. Aurora , en particular, presenta una secuencia de desarrollos históricos que explica la falta de nanotecnología: una retcon parcial , en cierto sentido, de la línea de tiempo de Asimov.

Randall Munroe

Randall Munroe ha discutido las Tres Leyes en varios casos, pero posiblemente más directamente en uno de sus cómics titulado Las Tres Leyes de la Robótica, que imagina las consecuencias de cada orden distinto de las tres leyes existentes.

Leyes adicionales

Otros autores, además de Asimov, a menudo han creado leyes adicionales.

La novela de Lyuben Dilov de 1974, El camino de Ícaro (también conocida como El viaje de Ícaro ) introdujo una Cuarta Ley de la robótica: "Un robot debe establecer su identidad como robot en todos los casos". Dilov explica así la cuarta salvaguardia: "La última Ley ha puesto fin a las costosas aberraciones de los diseñadores para dar a los psicorobots una forma lo más humana posible. Y a los malentendidos resultantes..." [ 33]

Nikola Kesarovski introdujo una quinta ley en su cuento "La quinta ley de la robótica". Esta quinta ley dice: "Un robot debe saber que es un robot". La trama gira en torno a un asesinato donde la investigación forense descubre que la víctima fue asesinada por un abrazo de un robot humaniforme que no estableció por sí mismo que se trataba de un robot. [34] La historia fue reseñada por Valentin D. Ivanov en la revista web de reseñas de SFF The Portal . [35]

Para la antología tributo de 1986, Foundation's Friends , Harry Harrison escribió una historia titulada "La cuarta ley de la robótica". Esta Cuarta Ley establece: "Un robot debe reproducirse. Siempre que dicha reproducción no interfiera con la Primera, Segunda o Tercera Ley".

En 2013, Hutan Ashrafian propuso una ley adicional que consideraba el papel de la inteligencia artificial sobre la inteligencia artificial o la relación entre los propios robots: la llamada ley AIonAI. [36] Esta sexta ley establece: "Todos los robots dotados de razón y conciencia humanas comparables deben actuar unos con otros con espíritu de hermandad".

Ambigüedades y lagunas

Incumplimiento de las leyes sin saberlo

En The Naked Sun , Elijah Baley señala que las Leyes habían sido tergiversadas deliberadamente porque los robots podían infringir cualquiera de ellas sin saberlo . Reformuló la primera ley como "Un robot no puede hacer nada que, a su entender, pueda dañar a un ser humano; ni, por inacción, permitir conscientemente que un ser humano sufra daño". Este cambio de redacción deja claro que los robots pueden convertirse en herramientas de asesinato, siempre que no sean conscientes de la naturaleza de sus tareas; por ejemplo, que le ordenen añadir algo a la comida de una persona, sin saber que es veneno. Además, señala que un criminal inteligente podría dividir una tarea entre varios robots de modo que ningún robot individual pudiera reconocer que sus acciones conducirían a dañar a un ser humano. [37] The Naked Sun complica el tema al retratar una red de comunicación descentralizada a nivel planetario entre los millones de robots de Solaria, lo que significa que el cerebro criminal podría estar ubicado en cualquier parte del planeta.

Baley propone además que algún día los solarianos puedan utilizar robots con fines militares. Si una nave espacial estuviera construida con un cerebro positrónico y no llevara humanos ni sistemas de soporte vital para sustentarlos, entonces la inteligencia robótica de la nave podría asumir naturalmente que todas las demás naves espaciales eran seres robóticos. Una nave así podría operar con mayor capacidad de respuesta y flexibilidad que una tripulada por humanos, podría estar más armada y su cerebro robótico equipado para masacrar a seres humanos cuya existencia desconoce por completo. [38] Se hace referencia a esta posibilidad en Foundation and Earth , donde se descubre que los solarianos poseen una fuerte fuerza policial de tamaño no especificado que ha sido programada para identificar solo a la raza solariana como humana. (La novela tiene lugar miles de años después de El sol desnudo, y los solarianos hace tiempo que se transformaron de humanos normales a telépatas hermafroditas con cerebros extendidos y órganos especializados). De manera similar, en Lucky Starr y los anillos de Saturno, Bigman intenta hablar con un Robot sirio sobre posibles daños a la población del Sistema Solar por sus acciones, pero parece desconocer los datos y está programado para ignorar los intentos de enseñarle sobre el asunto.

Ambigüedades resultantes de la falta de definición

Las Leyes de la Robótica suponen que los términos "ser humano" y "robot" se comprendan y estén bien definidos. En algunas historias esta presunción se anula.

Definición de "ser humano"

Los solarianos crean robots con las Tres Leyes pero con un significado retorcido de "humano". A los robots solarianos se les dice que sólo las personas que hablan con acento solariano son humanas. Esto permite a sus robots no tener ningún dilema ético al dañar a seres humanos no solares (y están específicamente programados para hacerlo). En el período de Fundación y Tierra, se revela que los solarianos se han modificado genéticamente para convertirse en una especie distinta de la humanidad, volviéndose hermafroditas [39] y psicoquinéticos y que contienen órganos biológicos capaces de alimentar y controlar individualmente complejos completos de robots. Por tanto, los robots de Solaria respetaban las Tres Leyes sólo con respecto a los "humanos" de Solaria. No está claro si todos los robots tenían tales definiciones, ya que sólo se demostró explícitamente que las tenían los robots supervisores y guardianes. En "Robots and Empire", su supervisor instruyó a los robots de clase baja sobre si ciertas criaturas son humanas o no.

Asimov aborda el problema de los robots humanoides (" androides ", en lenguaje posterior) varias veces. La novela Robots and Empire y los cuentos " Evidence " y "The Tricentenary Incident" describen robots diseñados para engañar a la gente haciéndoles creer que son humanos. [40] Por otro lado, " El hombre bicentenario " y " —Que seas consciente de él " exploran cómo los robots pueden cambiar su interpretación de las Leyes a medida que se vuelven más sofisticados. Gwendoline Butler escribe en Un ataúd para Canarias: "Quizás seamos robots. Robots que actúan según la última ley de la robótica... tender hacia lo humano". [41] En The Robots of Dawn , Elijah Baley señala que el uso de robots humaniformes como la primera ola de colonos en nuevos mundos espaciales puede llevar a que los robots se vean a sí mismos como verdaderos humanos y decidan quedarse con los mundos para ellos mismos. que permitir que los espaciales se establezcan allí.

"—Que seas consciente de él", que Asimov pretendía que fuera la investigación "definitiva" de las sutilezas de las Leyes, [42] finalmente utiliza las Tres Leyes para evocar el mismo escenario "Frankenstein" para cuya prevención fueron inventadas. Toma como concepto el creciente desarrollo de robots que imitan seres vivos no humanos y programas que imitan comportamientos animales simples que no requieren las Tres Leyes. La presencia de toda una gama de vida robótica que cumple el mismo propósito que la vida orgánica termina con dos robots humanoides, George Nine y George Ten, concluyendo que la vida orgánica es un requisito innecesario para una definición verdaderamente lógica y autoconsistente de "humanidad". , y que dado que son los seres pensantes más avanzados del planeta, son los dos únicos verdaderos humanos vivos y las Tres Leyes sólo se aplican a ellos mismos. La historia termina con una nota siniestra cuando los dos robots entran en hibernación y esperan el momento en el que conquistarán la Tierra y subyugarán a los humanos biológicos, un resultado que consideran un resultado inevitable de las "Tres Leyes de la Humanidad". [43]

Esta historia no encaja dentro del alcance general de la serie Robot and Foundation ; Si los robots George se apoderaran de la Tierra algún tiempo después del cierre de la historia, las historias posteriores serían redundantes o imposibles. Contradicciones de este tipo entre las obras de ficción de Asimov han llevado a los estudiosos a considerar las historias de robots más como "las sagas escandinavas o las leyendas griegas" que como un todo unificado. [44]

De hecho, Asimov describe "—Que seas consciente de él" y "Hombre bicentenario" como dos futuros opuestos y paralelos para los robots que obvian las Tres Leyes a medida que los robots llegan a considerarse humanos: uno retrata esto de una manera positiva con una robot se une a la sociedad humana, uno que retrata esto de manera negativa, con robots suplantando a los humanos. [45] Ambas deben considerarse alternativas a la posibilidad de una sociedad robótica que continúe siendo impulsada por las Tres Leyes como se describe en la serie Fundación . [¿ según quién? ] The Positronic Man , la novelización de The Bicentennial Man , Asimov y su coguionista Robert Silverberg implican que en el futuro donde Andrew Martin existe, su influencia hace que la humanidad abandone por completo la idea de robots independientes y sensibles con apariencia humana, creando un futuro completamente diferente. del de Fundación . [¿ según quién? ]

En Lucky Starr y los anillos de Saturno , una novela no relacionada con la serie Robot pero que presenta robots programados con las Tres Leyes, John Bigman Jones casi es asesinado por un robot sirio por orden de su maestro. La sociedad de Sirius está criada eugenésicamente para ser uniformemente alta y similar en apariencia y, como tal, dicho maestro puede convencer al robot de que Bigman, mucho más bajo, de hecho, no es un ser humano.

Definición de "robot"

Como señala "La Quinta Ley de la Robótica" de Nikola Kesarovski , "Un robot debe saber que es un robot": se presume que un robot tiene una definición del término o un medio para aplicarlo a sus propias acciones. Kesarovski jugó con esta idea al escribir sobre un robot que podía matar a un ser humano porque no entendía que era un robot y, por tanto, no aplicaba las Leyes de la Robótica a sus acciones.

Resolver conflictos entre las leyes.

Los robots avanzados de la ficción suelen estar programados para manejar las Tres Leyes de una manera sofisticada. En muchas historias, como " Runaround " de Asimov, se sopesan el potencial y la gravedad de todas las acciones y un robot infringirá las leyes lo menos posible en lugar de no hacer nada en absoluto. Por ejemplo, la Primera Ley puede prohibir que un robot funcione como cirujano, ya que ese acto puede causar daño a un ser humano; sin embargo, las historias de Asimov finalmente incluyeron cirujanos robot ("El hombre del bicentenario" es un ejemplo notable). Cuando los robots son lo suficientemente sofisticados como para sopesar alternativas, se puede programar un robot para que acepte la necesidad de infligir daño durante la cirugía a fin de evitar el daño mayor que resultaría si la cirugía no se llevara a cabo o si la llevara a cabo un ser humano más falible. cirujano. En " Evidence ", Susan Calvin señala que un robot puede incluso actuar como fiscal porque en el sistema de justicia estadounidense es el jurado el que decide la culpabilidad o la inocencia, el juez quien decide la sentencia y el verdugo quien aplica la pena capital . [46]

Los robots que obedecen las Tres Leyes de Asimov (robots Asenion) pueden experimentar un colapso mental irreversible si se ven obligados a situaciones en las que no pueden obedecer la Primera Ley, o si descubren que la han violado sin saberlo. El primer ejemplo de este modo de fracaso ocurre en la historia "¡ Mentiroso! ", que introdujo la Primera Ley misma e introduce el fracaso por dilema; en este caso el robot lastimará a los humanos si les dice algo y los lastimará si no lo hace. [47] Este modo de falla, que a menudo arruina el cerebro positrónico sin posibilidad de reparación, juega un papel importante en la novela de ciencia ficción de Asimov, El sol desnudo . Aquí Daneel describe actividades contrarias a una de las leyes, pero que apoyan otra, como sobrecargar algunos circuitos en el cerebro de un robot, la sensación equivalente al dolor en los humanos. El ejemplo que utiliza es ordenar por la fuerza a un robot que realice una tarea fuera de sus parámetros normales, una tarea que se le ha ordenado que abandone en favor de un robot especializado en esa tarea. [48]

En Los robots del amanecer , se afirma que se construyen robots más avanzados capaces de determinar qué acción es más dañina, e incluso elegir al azar si las alternativas son igualmente malas. Como tal, un robot es capaz de realizar una acción que puede interpretarse como que sigue la Primera Ley, evitando así un colapso mental. Toda la trama de la historia gira en torno a un robot que aparentemente fue destruido por tal colapso mental, y dado que su diseñador y creador se negó a compartir la teoría básica con otros, él es, por definición, la única persona capaz de eludir las salvaguardias y obligando al robot a una paradoja que destruye el cerebro.

En Robots and Empire , Daneel afirma que es muy desagradable para él tomar la decisión adecuada que lleva demasiado tiempo (en términos de robots), y no puede imaginarse estar sin las Leyes en absoluto, excepto en la medida en que sea similar a esa sensación desagradable, solo que permanente.

Aplicaciones a la tecnología del futuro

ASIMO era un robot humanoide avanzado desarrollado por Honda . Mostrado aquí en la Expo 2005 .

Los robots y las inteligencias artificiales no contienen ni obedecen inherentemente las Tres Leyes; sus creadores humanos deben elegir programarlos e idear un medio para hacerlo. Ya existen robots (por ejemplo, un Roomba ) que son demasiado simples para comprender cuándo están causando dolor o lesión y saber detenerse. Muchos están construidos con protecciones físicas como parachoques, pitidos de advertencia, jaulas de seguridad o zonas de acceso restringido para evitar accidentes. Incluso los robots más complejos que se producen actualmente son incapaces de comprender y aplicar las Tres Leyes; Se necesitarían avances significativos en inteligencia artificial para lograrlo, e incluso si la IA pudiera alcanzar una inteligencia a nivel humano, la complejidad ética inherente, así como la dependencia cultural/contextual de las leyes, les impiden ser un buen candidato para formular restricciones de diseño robótico. [49] Sin embargo, a medida que la complejidad de los robots ha aumentado, también lo ha hecho el interés en desarrollar directrices y salvaguardias para su funcionamiento. [50] [51]

En un editorial invitado de 2007 en la revista Science sobre el tema "Ética de los robots", el autor de ciencia ficción, Robert J. Sawyer, sostiene que dado que el ejército estadounidense es una fuente importante de financiación para la investigación robótica (y ya utiliza vehículos aéreos armados no tripulados para matar enemigos ) es poco probable que dichas leyes se incluyan en sus diseños. [52] En un ensayo separado, Sawyer generaliza este argumento para abarcar otras industrias afirmando:

El desarrollo de la IA es un negocio, y es notorio que las empresas no están interesadas en las salvaguardias fundamentales, especialmente las filosóficas. (Unos pocos ejemplos: la industria tabacalera, la industria automotriz, la industria nuclear. Ninguna de ellas ha dicho desde el principio que sean necesarias salvaguardias fundamentales, todas ellas se han resistido a salvaguardias impuestas externamente y ninguna ha aceptado un edicto absoluto. contra cualquier daño a los humanos.) [53]

David Langford ha sugerido [54] un conjunto irónico de leyes:

  1. Un robot no dañará al personal gubernamental autorizado pero acabará con los intrusos con extremo perjuicio .
  2. Un robot obedecerá las órdenes del personal autorizado excepto cuando dichas órdenes entren en conflicto con la Tercera Ley.
  3. Un robot protegerá su propia existencia con armamento antipersonal letal, porque un robot es muy caro.

Roger Clarke (también conocido como Rodger Clarke) escribió un par de artículos analizando las complicaciones en la implementación de estas leyes en caso de que algún día los sistemas fueran capaces de emplearlas. Sostuvo que "Las leyes de la robótica de Asimov han sido un recurso literario de gran éxito. Quizás irónicamente, o quizás porque era artísticamente apropiado, la suma de las historias de Asimov rebate la afirmación con la que comenzó: no es posible restringir de manera confiable el comportamiento de los robots. ideando y aplicando un conjunto de reglas." [55] Por otro lado, las novelas posteriores de Asimov Los robots del amanecer , Robots e imperio y Fundación y Tierra implican que los robots infligieron su peor daño a largo plazo al obedecer perfectamente bien las Tres Leyes, privando así a la humanidad de inventiva o riesgo. tomando comportamiento.

En marzo de 2007, el gobierno de Corea del Sur anunció que más adelante ese mismo año emitiría una "Carta de Ética de los Robots" que establecería normas tanto para los usuarios como para los fabricantes. Según Park Hye-Young, del Ministerio de Información y Comunicaciones, la Carta puede reflejar las Tres Leyes de Asimov, intentando establecer reglas básicas para el futuro desarrollo de la robótica. [56]

El futurista Hans Moravec (una figura destacada del movimiento transhumanista ) propuso que las leyes de la robótica deberían adaptarse a las "inteligencias corporativas": las corporaciones impulsadas por la inteligencia artificial y el poder de fabricación robótico que Moravec cree que surgirán en un futuro próximo. [50] Por el contrario, la novela de David Brin Foundation's Triumph (1999) sugiere que las Tres Leyes pueden decaer hasta volverse obsoletas: los robots utilizan la Ley Cero para racionalizar la Primera Ley y los robots se esconden de los seres humanos para que la Segunda Ley nunca llegue. en juego. Brin incluso retrata a R. Daneel Olivaw preocupado de que, si los robots continuaran reproduciéndose, las Tres Leyes se convertirían en una desventaja evolutiva y la selección natural barrería las Leyes: la cuidadosa base de Asimov deshecha por el cálculo evolutivo . Aunque los robots no evolucionarían a través del diseño en lugar de la mutación porque los robots tendrían que seguir las Tres Leyes durante el diseño y se garantizaría la prevalencia de las leyes, [57] los defectos de diseño o los errores de construcción podrían ocupar funcionalmente el lugar de la mutación biológica. .

En la edición de julio/agosto de 2009 de IEEE Intelligent Systems , Robin Murphy (Profesor Raytheon de Ciencias de la Computación e Ingeniería en Texas A&M) y David D. Woods (director del Laboratorio de Ingeniería de Sistemas Cognitivos en el Estado de Ohio) propusieron "Las tres leyes de la responsabilidad". Robótica" como una forma de estimular el debate sobre el papel de la responsabilidad y la autoridad al diseñar no sólo una plataforma robótica única sino el sistema más amplio en el que opera la plataforma. Las leyes son las siguientes:

  1. Un humano no puede desplegar un robot sin que el sistema de trabajo humano-robot cumpla con los más altos estándares legales y profesionales de seguridad y ética.
  2. Un robot debe responder a los humanos según sus funciones.
  3. Un robot debe estar dotado de suficiente autonomía situada para proteger su propia existencia, siempre que dicha protección proporcione una transferencia de control fluida que no entre en conflicto con la Primera y la Segunda Ley. [58]

Woods dijo: "Nuestras leyes son un poco más realistas y, por lo tanto, un poco más aburridas" y que "la filosofía ha sido: 'claro, la gente comete errores, pero los robots serán mejores: una versión perfecta de nosotros mismos'. Queríamos escribir tres nuevas leyes para que la gente pensara en la relación entre humanos y robots de manera más realista y fundamentada". [58]

A principios de 2011, el Reino Unido publicó lo que hoy se considera la primera ley flexible sobre IA a nivel nacional, que consistía en gran medida en un conjunto revisado de cinco leyes, las tres primeras de las cuales actualizaban la de Asimov. Estas leyes fueron publicadas con comentarios por el grupo de trabajo EPSRC/AHRC en 2010: [59] [60]

  1. Los robots son herramientas de usos múltiples. Los robots no deberían diseñarse única o principalmente para matar o dañar a seres humanos, excepto en interés de la seguridad nacional.
  2. Los humanos, no los robots, son agentes responsables. Los robots deben diseñarse y operarse, en la medida de lo posible, para cumplir con las leyes vigentes y los derechos y libertades fundamentales, incluida la privacidad.
  3. Los robots son productos. Deben diseñarse utilizando procesos que garanticen su seguridad y protección.
  4. Los robots son artefactos fabricados. No deben diseñarse de forma engañosa para explotar a los usuarios vulnerables; en cambio, su naturaleza mecánica debería ser transparente.
  5. Se debe atribuir la responsabilidad legal de un robot.

Otros sucesos en los medios

El propio Asimov creía que sus Tres Leyes se convirtieron en la base de una nueva visión de los robots que iba más allá del "complejo de Frankenstein". [ cita necesaria ] Su visión de que los robots son más que monstruos mecánicos finalmente se extendió por la ciencia ficción. [¿ según quién? ] Las historias escritas por otros autores han representado a los robots como si obedecieran las Tres Leyes, pero la tradición dicta que sólo Asimov podía citar las Leyes explícitamente. [¿ según quién? ] Asimov creía que las Tres Leyes ayudaron a fomentar el surgimiento de historias en las que los robots son "adorables", siendo Star Wars su ejemplo favorito. [61] Cuando las leyes se citan palabra por palabra, como en Buck Rogers en el episodio "Shgoratchx!" del siglo 25, no es raro que se mencione a Asimov en el mismo diálogo, como también se puede ver en el piloto de Aaron Stone donde un androide afirma que funciona según las Tres Leyes de Asimov. Sin embargo, la serie de televisión alemana de los años 1960 Raumpatrouille - Die phantastischen Abenteuer des Raumschiffes Orion ( Patrulla espacial - Las fantásticas aventuras de la nave espacial Orion ) basa el episodio tres titulado " Hüter des Gesetzes " ("Guardianes de la ley") en las Tres leyes de Asimov sin mencionar la fuente.

Han aparecido referencias a las Tres Leyes en la música popular ("Robot" del álbum PXR5 de Hawkwind de 1979 ), cine ( Repo Man , [62] Aliens , Ghost in the Shell 2: Innocence ), series de dibujos animados ( Los Simpson ), anime ( Eve no Jikan ), juegos de rol de mesa ( Paranoia ) y webcomics ( Piled Higher and Deeper y Freefall ).

Las tres leyes en el cine

Robby the Robot en Forbidden Planet (1956) tiene una estructura de comando jerárquica que le impide dañar a los humanos, incluso cuando se le ordena hacerlo, ya que tales órdenes causan un conflicto y un bloqueo muy parecido a los robots de Asimov. Robby es una de las primeras representaciones cinematográficas de un robot con protecciones internas implementadas de esta manera. Asimov estaba encantado con Robby y notó que Robby parecía estar programado para seguir sus Tres Leyes.

NDR-114 explicando las Tres Leyes

Las obras de Isaac Asimov han sido adaptadas al cine varias veces con distintos grados de éxito comercial y de crítica. Algunos de los intentos más notables han involucrado sus historias de "Robots", incluidas las Tres Leyes.

La película Bicentennial Man (1999) presenta a Robin Williams como el robot de las Tres Leyes NDR-114 (el número de serie es parcialmente una referencia al número característico de Stanley Kubrick ). Williams recita las Tres Leyes a sus empleadores, la familia Martin, con la ayuda de una proyección holográfica. La película sigue sólo vagamente la historia original.

El guión propuesto por Harlan Ellison para Yo, robot comenzó presentando las Tres Leyes, y los temas que surgen de las Tres Leyes forman una gran parte del desarrollo de la trama del guión. Debido a diversas complicaciones en el sistema cinematográfico de Hollywood, al que la introducción de Ellison dedica muchas invectivas, su guión nunca fue filmado. [63]

En la película Aliens de 1986 , después de que el androide Bishop se corta accidentalmente, intenta tranquilizar a Ripley afirmando que: "Es imposible para mí dañar o, por omisión de acción, permitir que sea dañado, un ser humano". [64]

La trama de la película estrenada en 2004 con el nombre Yo, Robot está "sugerida por" las historias de ficción de robots de Asimov [65] y la publicidad de la película incluía un avance que presentaba las Tres Leyes seguidas del aforismo : "Las reglas fueron hechas para ser roto". La película comienza con una recitación de las Tres Leyes y explora las implicaciones de la Ley Cero como una extrapolación lógica. El mayor conflicto de la película proviene de una inteligencia artificial informática que llega a la conclusión de que la humanidad es incapaz de cuidar de sí misma. [66]

La serie original de Netflix de 2019 Better than Us incluye las 3 leyes al comienzo del episodio 1.

Críticas

El filósofo James H. Moor dice que si se aplicaran minuciosamente producirían resultados inesperados. Pone el ejemplo de un robot que deambula por el mundo tratando de evitar que los seres humanos sufran daños. [67]

Ver también

Bibliografía

Referencias

  1. ^ abc Asimov, Isaac (1950). "Corre alrededor". Yo, robot (Colección Isaac Asimov ed.). Ciudad de Nueva York: Doubleday. pag. 40.ISBN 978-0-385-42304-5. Esta es una transcripción exacta de las leyes. También aparecen al principio del libro, y en ambos lugares no hay "a" en la segunda ley.
  2. ^ Isaac Asimov (1964). "Introducción". El resto de los robots . Doble día. ISBN 978-0-385-09041-4.
  3. ^ Gunn, James (julio de 1980). "Sobre variaciones de un robot". IASFM : 56–81.Reimpreso en James Gunn. (mil novecientos ochenta y dos). Isaac Asimov: Los fundamentos de la ciencia ficción. Oxford ua: Universidad de Oxford. Pr. ISBN 978-0-19-503060-0.
  4. ^ Asimov, Isaac (1979). En la memoria todavía verde. Doble día. pag. 237.ISBN 978-0-380-75432-8.
  5. ^ Asimov (1979), págs. 236–8
  6. ^ Listado del título de las Tres leyes de la robótica en Internet Speculative Fiction Database
  7. ^ Asimov (1979), pág. 263.
  8. ^ Asimov (1979), págs. 285–7.
  9. ^ Asimov, Isaac (1979). En la memoria todavía verde. Doble día. Capítulos 21 al 26 ISBN 0-380-75432-0
  10. ^ Patrouch, Joseph F. (1974). La ciencia ficción de Isaac Asimov. Doble día. pag. 42.ISBN 978-0-385-08696-7.
  11. ^ Asimov (1979), pág. 620.
  12. ^ Asimov, Isaac (1980). En la alegría todavía se siente. Doble día. pag. 61.ISBN 978-0-385-15544-1.
  13. ^ ab Asimov, Isaac (noviembre de 1981). "Las Tres Leyes". ¡Calcular! . pag. 18 . Consultado el 26 de octubre de 2013 .
  14. ^ Asimov, Isaac (12 de abril de 2001). Visiones de robots . Gollancz. ISBN 978-1-85798-336-4.
  15. ^ "Isaac Asimov (1920-1992 QEPD) Abril de 1986 Fecha de emisión original Compresión de You Tube" . Consultado el 29 de mayo de 2023 .
  16. ^ "Conversación con Harold Channer - Episodio 4628" . Consultado el 29 de mayo de 2023 .
  17. ^ "Conversación con Issac Asimov - Episodio 4628" . Consultado el 29 de mayo de 2023 .
  18. ^ Gunn (1982).
  19. ^ "Isaac Asimov". BBC . Consultado el 11 de noviembre de 2010 .
  20. ^ "El escritor de ciencia ficción Isaac Asimov". Estrella del campus . La estrella diaria . 29 de julio de 2007 . Consultado el 7 de agosto de 2016 . Sólo robots muy avanzados (como Daneel y Giskard) podrían comprender esta ley.
  21. ^ ab Asimov, Isaac (1952). Las Cuevas del Acero . Doble día., traducido por Jacques Brécard como Les Cavernes d'acier. J'ai Lu Ciencia ficción. 1975.ISBN 978-2-290-31902-4.
  22. ^ Patrucha (1974), pág. 50.
  23. ^ Gunn (1980); reimpreso en Gunn (1982), pág. 69.
  24. ^ Jenkins, John H. (2002). "Revisión de" Cal"". "La guía de Jenkins llena de spoilers sobre Isaac Asimov ". Archivado desde el original el 11 de septiembre de 2009 . Consultado el 26 de junio de 2009 .
  25. ^ Asimov, Isaac (1986). Sueños de robots (PDF) . Archivado desde el original el 16 de marzo de 2012 . Consultado el 11 de noviembre de 2010 ."Pero lo cita de forma incompleta. La Tercera Ley es: 'Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley'. " "Sí, Dr. Calvin. Esa es la Tercera Ley en realidad, pero en mi sueño, la Ley terminaba con la palabra 'existencia'. No se mencionaba la Primera ni la Segunda Ley."{{cite book}}: Mantenimiento CS1: bot: estado de la URL original desconocido ( enlace )
  26. ^ "'El robot completo 'de Isaac Asimov ". BBC. 3 de noviembre de 2000 . Consultado el 11 de noviembre de 2010 . La respuesta es que había modificado su Primera Ley.
  27. ^ Asimov (1979), págs. 291-2.
  28. ^ Don D'Ammassa (2005). "Allen, Roger MacBride". Enciclopedia de ciencia ficción . Publicación de bases de datos. pag. 7.ISBN 978-0-8160-5924-9.
  29. ^ "Los humanoides". Umich.edu . Consultado el 28 de marzo de 2015 .
  30. ^ a B C Heward Wilkinson (2009). La musa como terapeuta: un nuevo paradigma poético para la psicoterapia. Libros de Karnac. págs. 22-23. ISBN 978-1-85575-595-6.
  31. ^ MARCA W. TIEDEMANN. Aurora de Isaac Asimov (libro electrónico) . Publicaciones visuales de Byron Press. pag. 558. En resumen", dijo Bogard, "no todas las personas son humanas
  32. ^ "Entrevista con Mark Tiedemann". Mundo de ciencia ficción y fantasía. 16 de agosto de 2002 . Consultado el 12 de junio de 2006 .
  33. ^ Dilov, Lyuben (también conocido como Lyubin, Luben o Liuben) (2002). Пътят на Икар . Захари Стоянов. ISBN 978-954-739-338-7.{{cite book}}: Mantenimiento CS1: varios nombres: lista de autores ( enlace )
  34. ^ Кесаровски, Никола (1983). Петият закон . Отечество.
  35. ^ "Pequeño país legal: las leyes búlgaras de la robótica | El portal". Archivado desde el original el 6 de octubre de 2011 . Consultado el 25 de junio de 2011 .
  36. ^ Ashrafian, Hutan (2014). "AIonAI: una ley humanitaria de inteligencia artificial y robótica". Ética de la ciencia y la ingeniería . 21 (1): 29–40. doi :10.1007/s11948-013-9513-9. PMID  24414678. S2CID  2821971.
  37. ^ Asimov, Isaac (1956-1957). El sol desnudo (libro electrónico) . pag. 233. ... un robot envenena una flecha sin saber que estaba usando veneno, y un segundo robot le entrega la flecha envenenada al niño...
  38. ^ Asimov, Isaac (1956-1957). El sol desnudo (libro electrónico) . pag. 240. Pero me parece que una nave espacial que estuviera equipada con su propio cerebro positrónico atacaría alegremente a cualquier nave que se le ordenara atacar. Naturalmente, se asumiría que todos los demás barcos no estaban tripulados.
  39. ^ Branislav L. Slantchev. "Fundación y Tierra (1986)". gotterdammerung.org . Consultado el 11 de noviembre de 2010 .
  40. ^ Asimov, Isaac (1985). Robots e imperio. Libros de doble día. pag. 151.ISBN 978-0-385-19092-3. Aunque la mujer parecía tan humana como Daneel, era igual de no humana.
  41. ^ Mayordomo, Gwendoline (2001). Un Ataúd para Canarias . Crimen de la Daga Negra. ISBN 978-0-7540-8580-5.
  42. ^ Gunn (1980); reimpreso en Gunn (1982), pág. 73.
  43. ^ Asimov, Isaac (1982). "... Que seas consciente de él". El robot completo . Anochecer, Inc. pág. 611.
  44. ^ Gunn (1982), págs. 77–8.
  45. ^ Asimov, Isaac (1982). "El Hombre Bicentenario". El robot completo . Anochecer, Inc. pág. 658.
  46. ^ Isaac Asimov. Yo, Robot (Asimov, Isaac - Yo, Robot.pdf) . pag. 122 . Consultado el 11 de noviembre de 2010 .
  47. ^ Isaac Asimov. Yo, Robot (Asimov, Isaac - Yo, Robot.pdf) . pag. 75 . Consultado el 11 de noviembre de 2010 .
  48. ^ Asimov, Isaac (1956-1957). El sol desnudo (libro electrónico) . pag. 56. ¿Estás tratando de decirme, Daneel, que al robot le duele que yo haga su trabajo? ... la experiencia que sufre el robot es tan perturbadora para él como el dolor para un humano
  49. ^ Murphy, Robin; Woods, David D. (julio de 2009). "Más allá de Asimov: las tres leyes de la robótica responsable" (PDF) . Sistemas inteligentes IEEE . 24 (4): 14-20. doi :10.1109/mis.2009.69. S2CID  3165389.
  50. ^ ab Moravec, Hans . "La era de los robots", Extro 1, Actas de la primera conferencia del Instituto Extropy sobre pensamiento transhumanista (1994), págs. Versión de junio de 1993 disponible en línea.
  51. ^ "Reglas para el robot moderno". New Scientist (2544): 27, 27 de marzo de 2006 . Consultado el 12 de junio de 2006 .
  52. ^ Sawyer, Robert J. (16 de noviembre de 2007). "Editorial invitada: Ética de los robots". Ciencia . 318 (5853): 1037. doi : 10.1126/ciencia.1151606 . PMID  18006710 . Consultado el 10 de octubre de 2010 .
  53. ^ Sawyer, Robert J. (1991). "Sobre las tres leyes de la robótica de Asimov" . Consultado el 12 de junio de 2006 .
  54. ^ Originalmente en un discurso titulado "Un montón de bolas de cristal" en la convención Novacon SF en 1985; publicado en 1986 en el fanzine Prevert #15; recopilado en Platen Stories (1987) y la versión del libro electrónico de 2015 de The Silence of the Langford.
  55. ^ Clarke, Roger. Leyes de la robótica de Asimov: implicaciones para la tecnología de la información . Parte 1: Computadora IEEE, diciembre de 1993, páginas 53–61. Parte 2: Computadora IEEE, enero de 1994, páginas 57–66. Ambas partes están disponibles sin cargo en [1]. En "Mejoras a los códigos de ética".
  56. ^ "La era robótica plantea un dilema ético". Noticias de la BBC . 2007-03-07 . Consultado el 7 de marzo de 2007 .
  57. ^ Brin, David (1999). El triunfo de la Fundación. HarperCollins. ISBN 978-0-06-105241-5.
  58. ^ ab "¿Quiere robótica responsable? Comience con humanos responsables". Researchnews.osu.edu. Archivado desde el original el 15 de febrero de 2016 . Consultado el 28 de marzo de 2015 .
  59. ^ "Principios de la robótica - sitio web de EPSRC". Epsrc.ac.uk . Consultado el 17 de noviembre de 2022 .
  60. ^ Alan Winfield (30 de octubre de 2013). "Registro web de Alan Winfield: robots éticos: algunos desafíos técnicos y éticos". Alanwinfield.blogspot.co.uk . Consultado el 28 de marzo de 2015 .
  61. ^ Asimov, Isaac; Stanley Asimov (1995). Atentamente, Isaac Asimov: Una vida en letras. Doble día. ISBN 978-0-385-47622-5.
  62. ^ McGinnis, Rick (16 de julio de 2022). "Cuanto más conduces: Repo Man y el cine punk". Steyn en línea . Consultado el 5 de febrero de 2024 .
  63. ^ Ellison, Harlan (1994). Yo, Robot: El guión ilustrado . Aspecto. ISBN 978-0-446-67062-3.
  64. ^ "Aliens (1986) - Citas memorables". IMDb.com . Consultado el 28 de marzo de 2015 .
  65. ^ "Sugerido por" las historias de robots de Isaac Asimov (a dos paradas de "basado en" e "inspirado en", el crédito implica algo garabateado en una servilleta de bar), el thriller de ciencia ficción de Alex Proyas I, Robot rocía las ideas de Asimov como si fueran condimentos. un cubo gigante de palomitas de maíz. [...] Las simples y aparentemente infalibles Leyes de la Robótica de Asimov, diseñadas para proteger a los seres humanos y a los robots de cualquier daño, están sujetas a lagunas que al autor le encantaba explotar. Después de todo, gran parte de la humanidad está de acuerdo en principio en cumplir los Diez Mandamientos , pero el libre albedrío , las circunstancias y los impulsos contradictorios pueden encontrar margen de maniobra incluso en el decreto más inequívoco. Cada vez que Yo, Robot hace una pausa entre los tiempos de acción, Proyas captura parte de la emoción de películas como The Matrix , Minority Report y AI , todas las cuales demostraron que la filosofía y los comentarios sociales se pueden introducir de contrabando en el espectáculo. Si la película se hubiera basado en las historias de Asimov, en lugar de simplemente ser "sugerida por ellas", Proyas podría haber logrado el peso intelectual que le falta a su elegante película favorita de culto de 1998 , Dark City . Tobias, Scott (20 de julio de 2004). "revisión de Yo, robot". El Club AV Cebolla . Archivado desde el original el 9 de noviembre de 2005 . Consultado el 12 de junio de 2006 .
  66. ^ Dowling, Stephen (4 de agosto de 2004). "Un nuevo príncipe en un mundo de robots". Noticias de la BBC . Consultado el 11 de noviembre de 2010 .
  67. ^ Cuatro tipos de robots éticos

enlaces externos

Escuche este artículo ( 49 minutos )
Icono de Wikipedia hablado
Este archivo de audio se creó a partir de una revisión de este artículo con fecha del 28 de noviembre de 2008 y no refleja ediciones posteriores. ( 28 de noviembre de 2008 )