Las Tres Leyes de la Robótica (a menudo abreviadas como Las Tres Leyes o Leyes de Asimov ) son un conjunto de reglas ideadas por el autor de ciencia ficción Isaac Asimov , que debían ser seguidas por los robots en varias de sus historias. Las reglas fueron introducidas en su cuento de 1942 " Runaround " (incluido en la colección de 1950 Yo, Robot ), aunque restricciones similares habían sido implícitas en historias anteriores.
Las Tres Leyes, presentadas como provenientes del ficticio "Manual de Robótica, 56.ª Edición, 2058 d. C.", son: [1]
Las Tres Leyes forman un principio organizador y un tema unificador para la ficción basada en robots de Asimov , que aparece en su serie Robot , las historias vinculadas a ella y en su serie de ficción para adultos jóvenes Lucky Starr (inicialmente seudónima ) . Las Leyes están incorporadas en casi todos los robots positrónicos que aparecen en su ficción, y no se pueden eludir, ya que están pensadas como una medida de seguridad. Muchas de las historias centradas en robots de Asimov implican que los robots se comporten de formas inusuales y contraintuitivas como una consecuencia no intencionada de cómo el robot aplica las Tres Leyes a la situación en la que se encuentra. Otros autores que trabajan en el universo ficticio de Asimov las han adoptado y las referencias, a menudo paródicas , aparecen a lo largo de la ciencia ficción, así como en otros géneros.
Asimov y otros autores modificaron y ampliaron las leyes originales. El propio Asimov modificó ligeramente las tres primeras en obras posteriores para desarrollar más la forma en que los robots interactuarían con los humanos y entre sí. En obras posteriores, en las que los robots habían asumido la responsabilidad del gobierno de planetas enteros y civilizaciones humanas, Asimov también añadió una cuarta ley, o ley cero, que precedía a las demás.
Las Tres Leyes y la Ley Cero han permeado la ciencia ficción y se hace referencia a ellas en muchos libros, películas y otros medios. También han influido en el pensamiento sobre la ética de la inteligencia artificial .
En El resto de los robots , publicado en 1964, Isaac Asimov señaló que cuando comenzó a escribir en 1940 sintió que "una de las tramas típicas de la ciencia ficción era... los robots fueron creados y destruyeron a su creador. El conocimiento tiene sus peligros, sí, pero ¿la respuesta debe ser una retirada del conocimiento? ¿O el conocimiento debe usarse como una barrera contra los peligros que trae consigo?" Decidió que en sus historias un robot no se volvería "estúpidamente contra su creador sin otro propósito que demostrar, una vez más, el crimen y el castigo de Fausto ". [2]
El 3 de mayo de 1939, Asimov asistió a una reunión de la Sociedad de Ciencia Ficción de Queens ( Nueva York ), donde conoció a Earl y Otto Binder , quienes recientemente habían publicado un cuento "Yo, robot" que presentaba a un simpático robot llamado Adam Link que era incomprendido y estaba motivado por el amor y el honor. (Este fue el primero de una serie de diez historias; el año siguiente, "La venganza de Adam Link" (1940) presentó a Adam pensando "Un robot nunca debe matar a un humano, por su propia voluntad"). [3] Asimov admiró la historia. Tres días después, Asimov comenzó a escribir "mi propia historia de un robot simpático y noble", su decimocuarta historia. [4] Trece días después, llevó " Robbie " a John W. Campbell, el editor de Astounding Science-Fiction . Campbell lo rechazó, alegando que tenía un parecido demasiado fuerte con " Helen O'Loy " de Lester del Rey , publicada en diciembre de 1938, la historia de un robot que se parece tanto a una persona que se enamora de su creador y se convierte en su esposa ideal. [5] Frederik Pohl publicó la historia bajo el título "Strange Playfellow" en Super Science Stories en septiembre de 1940. [6] [7]
Asimov atribuye las Tres Leyes a John W. Campbell, a partir de una conversación que tuvo lugar el 23 de diciembre de 1940. Campbell afirmó que Asimov ya tenía las Tres Leyes en su mente y que simplemente necesitaban ser enunciadas explícitamente. Varios años después, el amigo de Asimov, Randall Garrett, atribuyó las Leyes a una asociación simbiótica entre los dos hombres, una sugerencia que Asimov adoptó con entusiasmo. [8] Según sus escritos autobiográficos, Asimov incluyó la cláusula de "inacción" de la Primera Ley debido al poema de Arthur Hugh Clough "El último decálogo" (texto en Wikisource), que incluye los versos satíricos "No matarás, pero no necesitarás esforzarte / oficiosamente para mantenerte vivo". [9]
Aunque Asimov sitúa la creación de las Tres Leyes en una fecha concreta, su aparición en su literatura se produjo a lo largo de un período. Escribió dos historias de robots sin mención explícita de las Leyes, « Robbie » y « Reason ». Sin embargo, supuso que los robots tendrían ciertas salvaguardas inherentes. « ¡Mentiroso! », su tercera historia de robots, hace la primera mención de la Primera Ley, pero no de las otras dos. Las tres leyes finalmente aparecieron juntas en « Runaround ». Cuando estas historias y varias otras se recopilaron en la antología Yo, robot , «Reason» y «Robbie» se actualizaron para reconocer las Tres Leyes, aunque el material que Asimov añadió a «Reason» no es del todo coherente con las Tres Leyes tal como las describió en otros lugares. [10] En particular, la idea de un robot que protege vidas humanas cuando no cree que esos humanos realmente existan está en desacuerdo con el razonamiento de Elijah Baley, como se describe a continuación.
Durante la década de 1950, Asimov escribió una serie de novelas de ciencia ficción expresamente destinadas a un público juvenil. En un principio, su editor esperaba que las novelas pudieran adaptarse a una serie de televisión de larga duración, algo así como El Llanero Solitario había sido para la radio. Temiendo que sus historias fueran adaptadas a la programación "uniformemente horrible" que vio inundar los canales de televisión [11], Asimov decidió publicar los libros de Lucky Starr bajo el seudónimo de "Paul French". Cuando los planes para la serie de televisión fracasaron, Asimov decidió abandonar la farsa; incorporó las Tres Leyes a Lucky Starr y las lunas de Júpiter , señalando que esto "era un claro indicio de la identidad de Paul French incluso para el lector más casual". [12]
En su cuento "La evidencia", Asimov deja que su personaje recurrente, la Dra. Susan Calvin, exponga una base moral detrás de las Tres Leyes. Calvin señala que, por lo general, se espera que los seres humanos se abstengan de dañar a otros seres humanos (excepto en tiempos de extrema necesidad, como la guerra, o para salvar a un mayor número de personas), y esto es equivalente a la Primera Ley de un robot. Asimismo, según Calvin, la sociedad espera que los individuos obedezcan las instrucciones de las autoridades reconocidas, como los médicos, los maestros, etc., lo que equivale a la Segunda Ley de la Robótica. Por último, se espera que los humanos eviten hacerse daño a sí mismos, lo que es la Tercera Ley para un robot.
La trama de "Evidence" gira en torno a la cuestión de distinguir a un ser humano de un robot construido para parecer humano. Calvin razona que si ese individuo obedece las Tres Leyes puede ser un robot o simplemente "un hombre muy bueno". Otro personaje le pregunta a Calvin si los robots son muy diferentes de los seres humanos después de todo. Ella responde: "Muy diferentes. Los robots son esencialmente decentes".
Asimov escribió más tarde que no se le debe elogiar por crear las Leyes, porque son "obvias desde el principio y todo el mundo las conoce de manera subliminal. Las Leyes nunca se pusieron en frases breves hasta que logré hacer el trabajo. Las Leyes se aplican, como algo natural, a todas las herramientas que utilizan los seres humanos", [13] y "los análogos de las Leyes están implícitos en el diseño de casi todas las herramientas, robóticas o no": [14]
Asimov creía que, idealmente, los humanos también seguirían las Leyes: [13]
Tengo mi respuesta preparada para cada vez que alguien me pregunta si creo que mis Tres Leyes de la Robótica realmente se utilizarán para gobernar el comportamiento de los robots, una vez que se vuelvan lo suficientemente versátiles y flexibles como para poder elegir entre diferentes cursos de comportamiento.
Mi respuesta es: "Sí, las Tres Leyes son la única forma en que los seres humanos racionales pueden tratar con los robots, o con cualquier otra cosa".
—Pero cuando digo eso, siempre recuerdo (tristemente) que los seres humanos no siempre somos racionales.
En una entrevista de 1986 en el programa de acceso público de Manhattan Conversations with Harold Hudson Channer with Harold Channer with guest-co-presentator Marilyn vos Savant , Asimov declaró: "Es un poco humillante pensar que, de todo lo que he dicho, lo que es más probable que sobreviva... Después de todo, he publicado... He publicado ahora al menos 20 millones de palabras. Tendré que averiguarlo, tal vez incluso más. Pero de todos esos millones de palabras que he publicado, estoy convencido de que dentro de 100 años solo sobrevivirán 60 de ellas. Las 60 que conforman las Tres Leyes de la Robótica". [15] [16] [17]
Las historias de Asimov ponen a prueba sus Tres Leyes en una amplia variedad de circunstancias que conducen a propuestas y rechazos de modificaciones. El experto en ciencia ficción James Gunn escribió en 1982: "Las historias de robots de Asimov en su conjunto pueden responder mejor a un análisis sobre esta base: la ambigüedad de las Tres Leyes y las formas en que Asimov jugó veintinueve variaciones sobre un tema". [18] Si bien el conjunto original de Leyes proporcionó inspiración para muchas historias, Asimov introdujo versiones modificadas de vez en cuando.
En " El pequeño robot perdido " se crean varios robots NS-2, o "Nestor", con solo una parte de la Primera Ley. [1] Dice así:
1. Un robot no puede dañar a un ser humano.
Esta modificación está motivada por una dificultad práctica, ya que los robots tienen que trabajar junto a seres humanos que están expuestos a dosis bajas de radiación. Debido a que sus cerebros positrónicos son altamente sensibles a los rayos gamma , los robots se vuelven inoperantes con dosis razonablemente seguras para los humanos. Los robots están siendo destruidos al intentar rescatar a los humanos que no están en peligro real pero "podrían olvidar abandonar" el área irradiada dentro del límite de tiempo de exposición. Eliminar la cláusula de "inacción" de la Primera Ley resuelve este problema, pero crea la posibilidad de uno aún mayor: un robot podría iniciar una acción que dañaría a un humano (dejar caer un peso pesado y no poder atraparlo es el ejemplo dado en el texto), sabiendo que era capaz de prevenir el daño y luego decidir no hacerlo. [1]
Gaia es un planeta con inteligencia colectiva de la serie Fundación que adopta una ley similar a la Primera Ley, y la Ley Cero, como su filosofía:
Gaia no puede dañar la vida ni permitir que la vida sufra daño.
Asimov añadió una vez una " Ley Cero " (llamada así para continuar con el patrón en el que las leyes de menor número reemplazan a las de mayor número) que establecía que un robot no debía dañar a la humanidad. El personaje robótico R. Daneel Olivaw fue el primero en darle un nombre a la Ley Cero en la novela Robots and Empire ; [19] sin embargo, el personaje Susan Calvin articula el concepto en el cuento " The Evitable Conflict ".
En las escenas finales de la novela Robots and Empire , R. Giskard Reventlov es el primer robot en actuar de acuerdo con la Ley Cero. Giskard es telépata , como el robot Herbie en el cuento corto " ¡Mentiroso! ", e intenta aplicar la Ley Cero a través de su comprensión de un concepto más sutil de "daño" que el que la mayoría de los robots pueden comprender. [20] Sin embargo, a diferencia de Herbie, Giskard comprende el concepto filosófico de la Ley Cero que le permite dañar a seres humanos individuales si puede hacerlo al servicio del concepto abstracto de humanidad. La Ley Cero nunca está programada en el cerebro de Giskard, sino que es una regla que intenta comprender a través de la metacognición pura . Aunque falla (finalmente destruye su cerebro positrónico ya que no está seguro de si su elección resultará ser para el bien último de la humanidad o no), le da a su sucesor R. Daneel Olivaw sus habilidades telepáticas. A lo largo de muchos miles de años, Daneel se adapta para poder obedecer completamente la Ley Cero. [ cita requerida ]
Daneel formuló originalmente la Ley Cero tanto en la novela Fundación y Tierra (1986) como en la novela posterior Preludio a Fundación (1988):
Un robot no puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daño.
A las Tres Leyes originales se les añadió una condición que establecía que la Ley Cero no debía ser violada, aunque Asimov reconoció la dificultad que dicha ley plantearía en la práctica. La novela de Asimov Fundación y Tierra contiene el siguiente pasaje:
Trevize frunció el ceño. —¿Cómo se decide qué es perjudicial o no para la humanidad en su conjunto?
—Exactamente, señor —dijo Daneel—. En teoría, la Ley Cero era la respuesta a nuestros problemas. En la práctica, nunca podríamos decidirlo. Un ser humano es un objeto concreto. El daño que sufre una persona puede estimarse y juzgarse. La humanidad es una abstracción.
Un traductor incorporó el concepto de la Ley Cero en una de las novelas de Asimov antes de que el propio Asimov hiciera explícita la ley. [21] Cerca del clímax de Las cavernas de acero , Elijah Baley hace un comentario amargo para sí mismo pensando que la Primera Ley prohíbe a un robot dañar a un ser humano. Decide que debe ser así a menos que el robot sea lo suficientemente inteligente como para comprender que sus acciones son para el bien a largo plazo de la humanidad. En la traducción francesa de Jacques Brécard de 1956 titulada Les Cavernes d'acier, los pensamientos de Baley surgen de una manera ligeramente diferente:
¡Un robot no puede dañar a un ser humano, a menos que encuentre una forma de demostrar que en última instancia el daño causado beneficiaría a la humanidad en general! [21]
En tres ocasiones durante su carrera como escritor, Asimov retrató robots que ignoraban por completo las Tres Leyes. El primer caso fue un cuento corto titulado " Primera ley " y a menudo se considera un "cuento fantástico" insignificante [22] o incluso apócrifo . [23] Por otro lado, el cuento " Cal " (de la colección Gold ), contado por un narrador robot en primera persona, presenta a un robot que ignora las Tres Leyes porque ha encontrado algo mucho más importante: quiere ser escritor. Humorístico, en parte autobiográfico y de estilo inusualmente experimental, "Cal" ha sido considerado como una de las historias más fuertes de Gold . [24] El tercero es un cuento corto titulado " Sally " en el que los automóviles equipados con cerebros positrónicos aparentemente pueden dañar y matar humanos sin tener en cuenta la Primera Ley. Sin embargo, aparte del concepto de cerebro positrónico, esta historia no hace referencia a otras historias de robots y puede que no esté ambientada en la misma continuidad .
La historia que da título a la colección Robot Dreams retrata a LVX-1, o "Elvex", un robot que entra en un estado de inconsciencia y sueña gracias a la inusual construcción fractal de su cerebro positrónico. En su sueño, las dos primeras leyes están ausentes y la tercera ley dice: "Un robot debe proteger su propia existencia". [25]
Asimov adoptó distintas posiciones sobre si las Leyes eran opcionales: aunque en sus primeros escritos eran simplemente salvaguardas cuidadosamente diseñadas, en historias posteriores Asimov afirmó que eran una parte inalienable de la base matemática que subyace al cerebro positrónico. Sin la teoría básica de las Tres Leyes, los científicos ficticios del universo de Asimov serían incapaces de diseñar una unidad cerebral funcional. Esto es históricamente consistente: las ocasiones en que los especialistas en robótica modifican las Leyes generalmente ocurren temprano en la cronología de las historias y en un momento en que hay menos trabajo existente para rehacer. En "Little Lost Robot", Susan Calvin considera que modificar las Leyes es una idea terrible, aunque posible, [26] mientras que siglos después, el Dr. Gerrigel en The Caves of Steel cree que se necesita un siglo solo para volver a desarrollar la teoría del cerebro positrónico desde cero.
El personaje del Dr. Gerrigel utiliza el término "Asenion" para describir a los robots programados con las Tres Leyes. Los robots en las historias de Asimov, al ser robots Asenion, son incapaces de violar conscientemente las Tres Leyes pero, en principio, un robot en la ciencia ficción o en el mundo real podría no ser Asenion. "Asenion" es un error ortográfico del nombre Asimov que fue cometido por un editor de la revista Planet Stories. [27] Asimov utilizó esta oscura variación para insertarse en Las Cuevas de Acero al igual que se refirió a sí mismo como "Azimut o, posiblemente, Asíntota" en Thiotimoline to the Stars , de la misma manera que Vladimir Nabokov apareció en Lolita disfrazado anagramáticamente como "Vivian Darkbloom".
Los personajes de las historias suelen señalar que las Tres Leyes, tal como existen en la mente de un robot, no son las versiones escritas que suelen citar los humanos, sino conceptos matemáticos abstractos en los que se basa toda la conciencia en desarrollo de un robot. Este concepto es en gran medida difuso y poco claro en las historias anteriores que representan robots muy rudimentarios que solo están programados para comprender tareas físicas básicas, donde las Tres Leyes actúan como una protección general, pero en la era de Las Cuevas de Acero, que presenta robots con inteligencia humana o superior a la humana, las Tres Leyes se han convertido en la cosmovisión ética básica subyacente que determina las acciones de todos los robots.
En la década de 1990, Roger MacBride Allen escribió una trilogía que se desarrollaba dentro del universo ficticio de Asimov. Cada título tiene el prefijo "de Isaac Asimov", ya que Asimov había aprobado el esquema de Allen antes de su muerte. [ cita requerida ] Estos tres libros, Caliban , Inferno y Utopía , introducen un nuevo conjunto de las Tres Leyes. Las llamadas Nuevas Leyes son similares a las originales de Asimov con las siguientes diferencias: la Primera Ley se modifica para eliminar la cláusula de "inacción", la misma modificación realizada en "El pequeño robot perdido"; la Segunda Ley se modifica para requerir cooperación en lugar de obediencia; la Tercera Ley se modifica para que ya no sea reemplazada por la Segunda (es decir, a un robot de la "Nueva Ley" no se le puede ordenar que se destruya a sí mismo); finalmente, Allen agrega una Cuarta Ley que instruye al robot a hacer "lo que quiera" siempre que esto no entre en conflicto con las primeras tres leyes. La filosofía detrás de estos cambios es que los robots de la “Nueva Ley” deberían ser socios en lugar de esclavos de la humanidad, según Fredda Leving, quien diseñó estos robots de la Nueva Ley. Según la introducción del primer libro, Allen ideó las Nuevas Leyes en una conversación con el propio Asimov. Sin embargo, la Enciclopedia de Ciencia Ficción dice que “con el permiso de Asimov, Allen replanteó las Tres Leyes y desarrolló un nuevo conjunto”. [28]
La novela corta de Jack Williamson " Con las manos cruzadas " (1947), posteriormente reescrita como la novela Los humanoides , trata de sirvientes robot cuya principal directiva es "Servir y obedecer, y proteger a los hombres del daño". Si bien las leyes robóticas de Asimov están destinadas a proteger a los humanos del daño, los robots en la historia de Williamson han llevado estas instrucciones al extremo; protegen a los humanos de todo, incluida la infelicidad, el estrés, el estilo de vida poco saludable y todas las acciones que podrían ser potencialmente peligrosas. Todo lo que les queda a los humanos por hacer es sentarse con las manos cruzadas. [29]
En las secuelas de la Fundación con licencia oficial Foundation's Fear , Foundation and Chaos y Foundation's Triumph (de Gregory Benford , Greg Bear y David Brin respectivamente), se ve que el futuro Imperio Galáctico está controlado por una conspiración de robots humaniformes que siguen la Ley Cero y están liderados por R. Daneel Olivaw .
Las Leyes de la Robótica se presentan como algo parecido a una religión humana , y se hace referencia a ellas en el lenguaje de la Reforma Protestante , con el conjunto de leyes que contienen la Ley Cero conocida como la "Reforma Giskardiana" hasta la "Ortodoxia Calvinista" original de las Tres Leyes. Los robots de la Ley Cero bajo el control de R. Daneel Olivaw se ven luchando continuamente con los robots de la "Primera Ley" que niegan la existencia de la Ley Cero, promoviendo agendas diferentes a las de Daneel. [30] Algunas de estas agendas se basan en la primera cláusula de la Primera Ley ("Un robot no puede dañar a un ser humano...") abogando por una estricta no interferencia en la política humana para evitar causar daño involuntariamente. Otras se basan en la segunda cláusula ("...o, por inacción, permitir que un ser humano sufra daño") afirmando que los robots deberían convertirse abiertamente en un gobierno dictatorial para proteger a los humanos de todo conflicto o desastre potencial.
Daneel también entra en conflicto con un robot conocido como R. Lodovic Trema, cuyo cerebro positrónico fue infectado por una IA rebelde (en concreto, una simulación del fallecido Voltaire ), lo que, en consecuencia, libera a Trema de las Tres Leyes. Trema llega a creer que la humanidad debería ser libre de elegir su propio futuro. Además, un pequeño grupo de robots afirma que la Ley Cero de la Robótica implica en sí misma una Ley Menos Uno de la Robótica superior:
Un robot no puede dañar la sensibilidad ni, por inacción, permitir que la sensibilidad sufra daño.
Por lo tanto, afirman que es moralmente indefendible que Daneel sacrifique sin piedad robots y vida extraterrestre sensible en beneficio de la humanidad. Ninguna de estas reinterpretaciones logra desplazar con éxito la Ley Cero de Daneel, aunque el Triunfo de la Fundación insinúa que estas facciones robóticas siguen activas como grupos marginales hasta la época de la novela Fundación . [30]
Estas novelas tienen lugar en un futuro dictado por Asimov para que esté libre de la presencia obvia de robots y suponen que la influencia secreta de R. Daneel en la historia a través de los milenios ha impedido tanto el redescubrimiento de la tecnología del cerebro positrónico como la oportunidad de trabajar en máquinas inteligentes sofisticadas. Esta falta de redescubrimiento y falta de oportunidad asegura que el poder físico e intelectual superior ejercido por las máquinas inteligentes permanezca directamente en posesión de robots obedientes a alguna forma de las Tres Leyes. [30] Que R. Daneel no tiene un éxito total en esto queda claro en un breve período cuando los científicos de Trantor desarrollan " tiktoks ", máquinas programables simplistas similares a los robots modernos de la vida real y, por lo tanto, carentes de las Tres Leyes. Los conspiradores robot ven a los tiktoks trantorianos como una amenaza masiva a la estabilidad social, y su plan para eliminar la amenaza de los tiktoks forma gran parte de la trama de Fear de Foundation .
En Fundación Triumph, diferentes facciones de robots interpretan las Leyes en una amplia variedad de formas, aparentemente haciendo sonar todas las permutaciones posibles en las ambigüedades de las Tres Leyes.
Ambientada entre Los robots del amanecer y Robots e Imperio , la trilogía Robot Mystery de Mark W. Tiedemann actualiza la saga Robot – Fundación con mentes robóticas alojadas en mainframes de computadoras en lugar de cuerpos humanoides. [ aclaración necesaria ] La novela Aurora de 2002 tiene personajes robóticos que debaten las implicaciones morales de dañar formas de vida cyborg que son en parte artificiales y en parte biológicas. [31]
No se deben descuidar las propias creaciones de Asimov en estas áreas, como la tecnología de "visión" solariana y las máquinas de los originales de The Evitable Conflict que Tiedemann reconoce. Aurora , por ejemplo, llama a las máquinas "las primeras RI, en realidad". Además, la serie Robot Mystery aborda el problema de la nanotecnología : [32] construir un cerebro positrónico capaz de reproducir los procesos cognitivos humanos requiere un alto grado de miniaturización, pero las historias de Asimov pasan por alto en gran medida los efectos que esta miniaturización tendría en otros campos de la tecnología. Por ejemplo, los lectores de tarjetas del departamento de policía en The Caves of Steel tienen una capacidad de solo unos pocos kilobytes por centímetro cuadrado de medio de almacenamiento. Aurora , en particular, presenta una secuencia de desarrollos históricos que explica la falta de nanotecnología: una retroconcepción parcial , en cierto sentido, de la línea de tiempo de Asimov.
Randall Munroe ha analizado las Tres Leyes en varias ocasiones, pero posiblemente de manera más directa en uno de sus cómics titulado Las tres leyes de la robótica, que imagina las consecuencias de cada ordenamiento distinto de las tres leyes existentes.
Otros autores además de Asimov han creado con frecuencia leyes adicionales.
La novela de Lyuben Dilov de 1974, El camino de Ícaro (también conocida como El viaje de Ícaro ) introdujo una cuarta ley de la robótica: "Un robot debe establecer su identidad como robot en todos los casos". Dilov da razones para la cuarta salvaguarda de esta manera: "La última ley ha puesto fin a las costosas aberraciones de los diseñadores para dar a los psicorobots una forma lo más parecida posible a la humana. Y a los malentendidos resultantes..." [33]
Nikola Kesarovski introdujo una quinta ley en su cuento "La quinta ley de la robótica". Esta quinta ley dice: "Un robot debe saber que es un robot". La trama gira en torno a un asesinato en el que la investigación forense descubre que la víctima fue asesinada por un abrazo de un robot humaniforme que no demostró por sí mismo que era un robot. [34] La historia fue revisada por Valentin D. Ivanov en la revista web de reseñas de ciencia ficción y fantasía The Portal . [35]
Para la antología de homenaje de 1986, Foundation's Friends , Harry Harrison escribió una historia titulada "La cuarta ley de la robótica". Esta cuarta ley establece: "Un robot debe reproducirse, siempre y cuando dicha reproducción no interfiera con la primera, la segunda o la tercera ley".
En 2013, Hutan Ashrafian propuso una ley adicional que consideraba el papel de la inteligencia artificial sobre la inteligencia artificial o la relación entre los propios robots: la llamada ley AIonAI. [36] Esta sexta ley establece: "Todos los robots dotados de una razón y una conciencia humanas comparables deben actuar entre sí con un espíritu de hermandad".
En The Naked Sun , Elijah Baley señala que las Leyes habían sido deliberadamente tergiversadas porque los robots podían romper cualquiera de ellas sin saberlo . Reiteró la primera ley como "Un robot no puede hacer nada que, a su conocimiento, dañará a un ser humano; ni, por inacción, permitir conscientemente que un ser humano sufra daño". Este cambio en la redacción deja claro que los robots pueden convertirse en herramientas de asesinato, siempre que no sean conscientes de la naturaleza de sus tareas; por ejemplo, que se les ordene agregar algo a la comida de una persona, sin saber que es veneno. Además, señala que un criminal inteligente podría dividir una tarea entre varios robots para que ningún robot individual pudiera reconocer que sus acciones conducirían a dañar a un ser humano. [37] The Naked Sun complica el asunto al retratar una red de comunicación descentralizada y planetaria entre los millones de robots de Solaria, lo que significa que el cerebro criminal podría estar ubicado en cualquier parte del planeta.
Baley propone además que los solarianos podrían algún día utilizar robots con fines militares. Si una nave espacial fuese construida con un cerebro positrónico y no llevase ni humanos ni los sistemas de soporte vital para sostenerlos, entonces la inteligencia robótica de la nave podría asumir naturalmente que todas las demás naves espaciales eran seres robóticos. Una nave así podría operar de forma más receptiva y flexible que una tripulada por humanos, podría estar armada más pesadamente y su cerebro robótico equipado para matar humanos de cuya existencia es totalmente ignorante. [38] Esta posibilidad es mencionada en Fundación y Tierra donde se descubre que los solarianos poseen una fuerte fuerza policial de tamaño no especificado que ha sido programada para identificar sólo a la raza solariana como humana. (La novela tiene lugar miles de años después de El sol desnudo, y los solarianos hace mucho que se modificaron de humanos normales a telépatas hermafroditas con cerebros extendidos y órganos especializados). De manera similar, en Lucky Starr y los anillos de Saturno, Bigman intenta hablar con un robot siriano sobre posibles daños a la población del Sistema Solar por sus acciones, pero este parece no estar al tanto de los datos y está programado para ignorar los intentos de enseñarle sobre el asunto.
Las leyes de la robótica presuponen que los términos "ser humano" y "robot" se entienden y están bien definidos. En algunas historias, esta presunción se ve revocada.
Los solarianos crean robots con las Tres Leyes pero con un significado distorsionado de "humano". A los robots solarianos se les dice que solo las personas que hablan con acento solariano son humanas. Esto permite que sus robots no tengan ningún dilema ético al dañar a seres humanos no solarianos (y están específicamente programados para hacerlo). En el período de tiempo de Fundación y Tierra se revela que los solarianos se han modificado genéticamente para convertirse en una especie distinta de la humanidad, volviéndose hermafroditas [39] y psicoquinéticos y conteniendo órganos biológicos capaces de alimentar y controlar individualmente complejos enteros de robots. Los robots de Solaria, por lo tanto, respetaban las Tres Leyes solo con respecto a los "humanos" de Solaria. No está claro si todos los robots tenían tales definiciones, ya que solo se mostró explícitamente que los robots supervisores y guardianes las tenían. En "Robots and Empire", los robots de clase baja recibieron instrucciones de su supervisor sobre si ciertas criaturas eran humanas o no.
Asimov aborda el problema de los robots humanoides (" androides " en el lenguaje posterior) varias veces. La novela Robots and Empire y los cuentos " Evidence " y "The Tercentenary Incident" describen robots creados para engañar a la gente y hacerles creer que los robots son humanos. [40] Por otro lado, " The Bicentennial Man " y " —That Thou Art Mindful of Him " exploran cómo los robots pueden cambiar su interpretación de las Leyes a medida que se vuelven más sofisticados. Gwendoline Butler escribe en A Coffin for the Canary "Tal vez seamos robots. Robots que actúan según la última Ley de la Robótica... Para tender hacia lo humano". [41] En The Robots of Dawn , Elijah Baley señala que el uso de robots humaniformes como la primera ola de colonos en nuevos mundos espaciales puede llevar a que los robots se vean a sí mismos como los verdaderos humanos y decidan quedarse con los mundos para ellos mismos en lugar de permitir que los espaciales se establezcan allí.
"—Que Tú Estés Atento a Él", que Asimov pretendía que fuera la "última" investigación sobre las sutilezas de las Leyes, [42] finalmente utiliza las Tres Leyes para evocar el mismo escenario "Frankenstein" que se inventaron para prevenir. Toma como concepto el creciente desarrollo de robots que imitan seres vivos no humanos y se les dan programas que imitan comportamientos animales simples que no requieren las Tres Leyes. La presencia de toda una gama de vida robótica que sirve al mismo propósito que la vida orgánica termina con dos robots humanoides, George Nine y George Ten, que concluyen que la vida orgánica es un requisito innecesario para una definición verdaderamente lógica y autoconsistente de "humanidad", y que dado que son los seres pensantes más avanzados del planeta, son por lo tanto los únicos dos humanos verdaderos vivos y las Tres Leyes solo se aplican a ellos mismos. La historia termina con una nota siniestra cuando los dos robots entran en hibernación y esperan el momento en que conquistarán la Tierra y subyugarán a los humanos biológicos, un resultado que consideran un resultado inevitable de las "Tres Leyes de la Humanidad". [43]
Esta historia no encaja en el conjunto de las series Robot y Fundación ; si los robots de George se apoderaron de la Tierra algún tiempo después de que la historia termina, las historias posteriores serían redundantes o imposibles. Contradicciones de este tipo entre las obras de ficción de Asimov han llevado a los académicos a considerar las historias de Robot como más parecidas a "las sagas escandinavas o las leyendas griegas" que a un todo unificado. [44]
De hecho, Asimov describe "—Que Tú Art Recordatorio de Él" y "El Hombre Bicentenario" como dos futuros opuestos y paralelos para robots que obvian las Tres Leyes a medida que los robots llegan a considerarse humanos: uno retrata esto de una manera positiva con un robot uniéndose a la sociedad humana, uno retrata esto de una manera negativa con robots suplantando a los humanos. [45] Ambos deben considerarse alternativas a la posibilidad de una sociedad robótica que continúa siendo impulsada por las Tres Leyes como se retrata en la serie Fundación . [ ¿según quién? ] En El hombre positrónico , la novelización de El hombre bicentenario , Asimov y su coguionista Robert Silverberg insinúan que en el futuro donde existe Andrew Martin su influencia hace que la humanidad abandone por completo la idea de robots independientes, sensibles y parecidos a los humanos, creando un futuro completamente diferente al de Fundación . [ ¿según quién? ]
En Lucky Starr y los anillos de Saturno , una novela no relacionada con la serie Robot pero que presenta robots programados con las Tres Leyes, John Bigman Jones casi es asesinado por un robot sirio por orden de su amo. La sociedad de Sirio está criada eugenésicamente para ser uniformemente alta y similar en apariencia y, como tal, dicho amo puede convencer al robot de que Bigman, mucho más bajo, no es, de hecho, un ser humano.
Como se señala en “La quinta ley de la robótica” de Nikola Kesarovski , “un robot debe saber que es un robot”: se presupone que un robot tiene una definición del término o un medio para aplicarlo a sus propias acciones. Kesarovski jugó con esta idea al escribir sobre un robot que podría matar a un ser humano porque no entendía que era un robot y, por lo tanto, no aplicaba las Leyes de la Robótica a sus acciones.
Los robots avanzados en la ficción suelen estar programados para manejar las Tres Leyes de una manera sofisticada. En muchas historias, como " Runaround " de Asimov, se sopesan el potencial y la gravedad de todas las acciones y un robot romperá las leyes lo menos posible en lugar de no hacer nada en absoluto. Por ejemplo, la Primera Ley puede prohibir que un robot funcione como cirujano, ya que ese acto puede causar daño a un humano; sin embargo, las historias de Asimov eventualmente incluyeron cirujanos robot ("El hombre bicentenario" es un ejemplo notable). Cuando los robots son lo suficientemente sofisticados como para sopesar alternativas, un robot puede ser programado para aceptar la necesidad de infligir daño durante la cirugía para prevenir el daño mayor que resultaría si la cirugía no se llevara a cabo, o si la llevara a cabo un cirujano humano más falible. En " Evidence ", Susan Calvin señala que un robot puede incluso actuar como fiscal porque en el sistema de justicia estadounidense es el jurado el que decide la culpabilidad o la inocencia, el juez el que decide la sentencia y el verdugo el que ejecuta la pena capital . [46]
Los robots que obedecen las Tres Leyes de Asimov (robots Asenion) pueden experimentar un colapso mental irreversible si se les obliga a situaciones en las que no pueden obedecer la Primera Ley, o si descubren que la han violado sin saberlo. El primer ejemplo de este modo de falla ocurre en la historia " ¡Mentiroso! ", que introdujo la Primera Ley en sí misma e introduce el fracaso por dilema: en este caso, el robot dañará a los humanos si les dice algo y los dañará si no lo hace. [47] Este modo de falla, que a menudo arruina el cerebro positrónico sin posibilidad de reparación, juega un papel importante en la novela de ciencia ficción y misterio de Asimov El sol desnudo . Aquí Daneel describe actividades contrarias a una de las leyes, pero en apoyo de otra, como sobrecargar algunos circuitos en el cerebro de un robot, la sensación equivalente al dolor en los humanos. El ejemplo que usa es ordenar a la fuerza a un robot que deje que un humano haga su trabajo, lo que en Solaria, debido a la especialización extrema, significaría su único propósito. [48]
En Los robots del amanecer se afirma que se construyen robots más avanzados capaces de determinar qué acción es más dañina, e incluso de elegir al azar si las alternativas son igualmente malas. Como tal, un robot es capaz de realizar una acción que puede interpretarse como seguir la Primera Ley, evitando así un colapso mental. Toda la trama de la historia gira en torno a un robot que aparentemente fue destruido por tal colapso mental, y dado que su diseñador y creador se negó a compartir la teoría básica con los demás, él es, por definición, la única persona capaz de burlar las salvaguardas y forzar al robot a una paradoja que destruye el cerebro.
En Robots and Empire , Daneel afirma que es muy desagradable para él cuando tomar la decisión adecuada lleva demasiado tiempo (en términos de robots), y no puede imaginar estar sin las Leyes en absoluto, excepto en la medida en que sea similar a esa sensación desagradable, solo que permanente.
Los robots y las inteligencias artificiales no contienen ni obedecen inherentemente las Tres Leyes; sus creadores humanos deben elegir programarlos y diseñar un medio para hacerlo. Ya existen robots (por ejemplo, un Roomba ) que son demasiado simples para comprender cuándo están causando dolor o lesiones y saben que deben detenerse. Muchos están construidos con salvaguardas físicas como parachoques, pitidos de advertencia, jaulas de seguridad o zonas de acceso restringido para prevenir accidentes. Incluso los robots más complejos producidos actualmente son incapaces de comprender y aplicar las Tres Leyes; se necesitarían avances significativos en inteligencia artificial para hacerlo, e incluso si la IA pudiera alcanzar la inteligencia de nivel humano, la complejidad ética inherente, así como la dependencia cultural/contextual de las leyes, les impiden ser un buen candidato para formular restricciones de diseño de robótica. [49] Sin embargo, a medida que la complejidad de los robots ha aumentado, también lo ha hecho el interés en desarrollar pautas y salvaguardas para su funcionamiento. [50] [51]
En un editorial de 2007 en la revista Science sobre el tema de la "Ética de los robots", el autor de ciencia ficción Robert J. Sawyer sostiene que, dado que el ejército estadounidense es una fuente importante de financiación para la investigación robótica (y ya utiliza vehículos aéreos no tripulados armados para matar enemigos), es poco probable que tales leyes se incorporen a sus diseños. [52] En un ensayo independiente, Sawyer generaliza este argumento para cubrir otras industrias y afirma:
El desarrollo de la IA es un negocio, y las empresas notoriamente no se interesan por las salvaguardas fundamentales, especialmente las filosóficas (unos pocos ejemplos rápidos: la industria tabacalera, la industria automotriz, la industria nuclear. Ninguna de ellas ha dicho desde el principio que las salvaguardas fundamentales son necesarias, todas se han resistido a las salvaguardas impuestas externamente, y ninguna ha aceptado un edicto absoluto que prohíba causar daño a los humanos). [53]
David Langford ha sugerido [54] un conjunto de leyes irónicas:
Roger Clarke (también conocido como Rodger Clarke) escribió un par de artículos en los que analizaba las complicaciones que suponía implementar estas leyes en caso de que algún día los sistemas fueran capaces de emplearlas. Sostuvo que "las Leyes de la Robótica de Asimov han sido un recurso literario muy exitoso. Quizá irónicamente, o quizá porque era artísticamente apropiado, la suma de las historias de Asimov refuta la afirmación con la que comenzó: no es posible limitar de manera confiable el comportamiento de los robots ideando y aplicando un conjunto de reglas". [55] Por otro lado, las novelas posteriores de Asimov, Los robots del amanecer , Robots e Imperio y Fundación y Tierra, implican que los robots infligieron su peor daño a largo plazo al obedecer perfectamente las Tres Leyes, privando así a la humanidad de un comportamiento inventivo o arriesgado.
En marzo de 2007, el gobierno de Corea del Sur anunció que, más adelante ese mismo año, emitiría una "Carta de Ética de los Robots" que establecería normas tanto para los usuarios como para los fabricantes. Según Park Hye-Young, del Ministerio de Información y Comunicación, la Carta podría reflejar las Tres Leyes de Asimov, intentando establecer reglas básicas para el desarrollo futuro de la robótica. [56]
El futurista Hans Moravec (una figura prominente en el movimiento transhumanista ) propuso que las Leyes de la Robótica deberían ser adaptadas a las "inteligencias corporativas" -las corporaciones impulsadas por la IA y el poder de fabricación robótica que Moravec cree que surgirán en el futuro cercano. [50] En contraste, la novela de David Brin El triunfo de la Fundación (1999) sugiere que las Tres Leyes pueden decaer hasta quedar obsoletas: los robots usan la Ley Cero para racionalizar la Primera Ley y los robots se esconden de los seres humanos para que la Segunda Ley nunca entre en juego. Brin incluso retrata a R. Daneel Olivaw preocupado de que, si los robots continúan reproduciéndose, las Tres Leyes se convertirían en una desventaja evolutiva y la selección natural las eliminaría -la cuidadosa base de Asimov deshecha por la computación evolutiva . Aunque los robots no evolucionarían a través del diseño en lugar de por mutación porque tendrían que seguir las Tres Leyes durante el diseño y se garantizaría la prevalencia de las leyes, [57] los fallos de diseño o errores de construcción podrían ocupar funcionalmente el lugar de la mutación biológica.
En la edición de julio/agosto de 2009 de IEEE Intelligent Systems , Robin Murphy (profesor Raytheon de Ciencias de la Computación e Ingeniería en Texas A&M) y David D. Woods (director del Laboratorio de Ingeniería de Sistemas Cognitivos en Ohio State) propusieron "Las tres leyes de la robótica responsable" como una forma de estimular el debate sobre el papel de la responsabilidad y la autoridad al diseñar no sólo una única plataforma robótica sino el sistema más amplio en el que opera la plataforma. Las leyes son las siguientes:
Woods dijo: “Nuestras leyes son un poco más realistas y, por lo tanto, un poco más aburridas” y que “la filosofía ha sido: ‘claro, la gente comete errores, pero los robots serán mejores: una versión perfecta de nosotros mismos’. Queríamos escribir tres nuevas leyes para que la gente pensara en la relación entre humanos y robots de maneras más realistas y fundamentadas”. [58]
A principios de 2011, el Reino Unido publicó lo que ahora se considera la primera ley blanda de inteligencia artificial a nivel nacional, que consistía en gran parte en un conjunto revisado de cinco leyes, las tres primeras de las cuales actualizaban la de Asimov. Estas leyes fueron publicadas con comentarios por el grupo de trabajo EPSRC/AHRC en 2010: [59] [60]
El propio Asimov creía que sus Tres Leyes se convirtieron en la base para una nueva visión de los robots que iba más allá del "complejo de Frankenstein". [ cita requerida ] Su visión de que los robots son más que monstruos mecánicos eventualmente se extendió por toda la ciencia ficción. [ según quién? ] Las historias escritas por otros autores han representado a los robots como si obedecieran las Tres Leyes, pero la tradición dicta que solo Asimov podía citar las Leyes explícitamente. [ según quién? ] Asimov creía que las Tres Leyes ayudaron a fomentar el surgimiento de historias en las que los robots son "adorables" - Star Wars es su ejemplo favorito. [61] Cuando las leyes se citan textualmente, como en el episodio de Buck Rogers en el siglo 25 "Shgoratchx!", no es raro que se mencione a Asimov en el mismo diálogo como también se puede ver en el piloto de Aaron Stone donde un androide afirma que funciona bajo las Tres Leyes de Asimov. Sin embargo, la serie de televisión alemana de los años 60 Raumpatrouille – Die phantastischen Abenteuer des Raumschiffes Orion ( Patrulla espacial: las fantásticas aventuras de la nave espacial Orión ) basa el tercer episodio titulado " Hüter des Gesetzes " ("Guardianes de la ley") en las Tres Leyes de Asimov sin mencionar la fuente.
Referencias a las Tres Leyes han aparecido en música popular ("Robot" del álbum PXR5 de Hawkwind de 1979 ), cine ( Repo Man , [62] Aliens , Ghost in the Shell 2: Innocence ), series de dibujos animados ( Los Simpson ), anime ( Eve no Jikan ), juegos de rol de mesa ( Paranoia ) y webcomics ( Piled Higher and Deeper y Freefall ).
Robby el robot en Planeta prohibido (1956) tiene una estructura de mando jerárquica que le impide hacer daño a los humanos, incluso cuando se le ordena hacerlo, ya que dichas órdenes provocan un conflicto y un encierro muy similar a los robots de Asimov. Robby es una de las primeras representaciones cinematográficas de un robot con salvaguardas internas implementadas de esta manera. Asimov estaba encantado con Robby y notó que Robby parecía estar programado para seguir sus Tres Leyes.
Las obras de Isaac Asimov han sido adaptadas al cine varias veces con distintos grados de éxito crítico y comercial. Algunos de los intentos más notables han sido sus historias de "Robots", incluidas las Tres Leyes.
En la película Bicentennial Man (1999), Robin Williams interpreta al robot de las Tres Leyes NDR-114 (el número de serie es en parte una referencia al número característico de Stanley Kubrick ). Williams recita las Tres Leyes a sus empleadores, la familia Martin, con la ayuda de una proyección holográfica. La película sigue la historia original de forma muy vaga.
El guión propuesto por Harlan Ellison para Yo, robot comenzaba presentando las Tres Leyes, y las cuestiones derivadas de ellas formaban una gran parte del desarrollo de la trama del guión. Debido a diversas complicaciones en el sistema cinematográfico de Hollywood, a las que la introducción de Ellison dedica muchos insultos, su guión nunca se filmó. [63]
En la película Aliens de 1986 , después de que el androide Bishop se corta accidentalmente, intenta tranquilizar a Ripley afirmando que: "Es imposible para mí dañar o, por omisión de acción, permitir que se dañe a un ser humano". [64]
La trama de la película estrenada en 2004 bajo el nombre de Yo, Robot está "sugerida por" las historias de ficción de robots de Asimov [65] y la publicidad de la película incluía un tráiler que presentaba las Tres Leyes seguido del aforismo "Las reglas se hicieron para romperse". La película comienza con una recitación de las Tres Leyes y explora las implicaciones de la Ley Cero como una extrapolación lógica. El principal conflicto de la película surge de una inteligencia artificial informática que llega a la conclusión de que la humanidad es incapaz de cuidar de sí misma. [66]
La serie original de Netflix de 2019 Better than Us incluye las 3 leyes en la apertura del episodio 1.
El filósofo analítico James H. Moor afirma que, si se aplicaran a fondo, producirían resultados inesperados. Pone el ejemplo de un robot que vaga por el mundo intentando evitar que los seres humanos sufran daños. [67]
es una transcripción exacta de las leyes. También aparecen al principio del libro y en ambos lugares no aparece la palabra "to" en la segunda ley.
Solo los robots muy avanzados (como Daneel y Giskard) podrían comprender esta ley.
—Pero lo cita de forma incompleta. La Tercera Ley dice: «Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley». —Sí, doctor Calvin. Esa es la Tercera Ley en realidad, pero en mi sueño, la Ley terminaba con la palabra «existencia». No se mencionaba ni la Primera ni la Segunda Ley.
{{cite book}}
: CS1 maint: bot: estado de URL original desconocido ( enlace )La respuesta es que se le había modificado la Primera Ley.
En resumen, Bogard dijo que "no todas las personas son humanas".
{{cite book}}
: CS1 maint: varios nombres: lista de autores ( enlace )... un robot envenena una flecha sin saber que estaba usando veneno, y un segundo robot le entrega la flecha envenenada al niño...
Pero una nave espacial equipada con su propio cerebro positrónico atacaría alegremente a cualquier nave que se le ordene atacar, me parece a mí. Naturalmente asumiría que todas las demás naves no están tripuladas.
aunque la mujer parecía tan humana como Daneel, era igual de no humana
¿Estás tratando de decirme, Daneel, que al robot le duele que yo haga su trabajo? ... la experiencia que experimenta el robot le resulta tan perturbadora como el dolor para un ser humano.