stringtranslate.com

Leyes de la robótica

Las leyes de la robótica son cualquier conjunto de leyes, reglas o principios que se conciben como un marco fundamental para sustentar el comportamiento de los robots diseñados para tener un grado de autonomía . Los robots de este grado de complejidad aún no existen, pero han sido ampliamente anticipados en la ciencia ficción , las películas y son un tema de investigación y desarrollo activo en los campos de la robótica y la inteligencia artificial .

El conjunto de leyes más conocido es el escrito por Isaac Asimov en la década de 1940, o basado en él, pero otros conjuntos de leyes han sido propuestos por investigadores en las décadas transcurridas desde entonces.

Las tres leyes de la robótica de Isaac Asimov

El conjunto de leyes más conocido son las " Tres leyes de la robótica " de Isaac Asimov . Estas leyes se introdujeron en su cuento de 1942 " Runaround ", aunque ya se habían anticipado en algunos relatos anteriores. Las tres leyes son:

  1. Un robot no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o la Segunda Ley. [1]

En " El conflicto evitable " las máquinas generalizan la Primera Ley para significar:

  1. Ninguna máquina puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daño.

Esto se perfeccionó al final de Fundación y Tierra . Se introdujo una ley cero, con las tres originales adecuadamente reescritas como subordinadas a ella:

  1. Un robot no puede dañar a la humanidad ni, por inacción, permitir que la humanidad sufra daño.

Existen adaptaciones y ampliaciones basadas en este marco. A partir de 2024, siguen siendo un " dispositivo ficticio ". [2]

Leyes adicionales

Otros autores además de Asimov han creado con frecuencia leyes adicionales.

La novela de Lyuben Dilov de 1974, El camino de Ícaro (también conocida como El viaje de Ícaro ) introdujo una cuarta ley de la robótica: "Un robot debe establecer su identidad como robot en todos los casos". Dilov da razones para la cuarta salvaguarda de esta manera: "La última ley ha puesto fin a las costosas aberraciones de los diseñadores para dar a los psicorobots una forma lo más parecida posible a la humana. Y a los malentendidos resultantes..." [3]

Nikola Kesarovski introdujo una quinta ley en su cuento "La quinta ley de la robótica". Esta quinta ley dice: "Un robot debe saber que es un robot". La trama gira en torno a un asesinato en el que la investigación forense descubre que la víctima fue asesinada por un abrazo de un robot humaniforme que no demostró por sí mismo que era un robot. [4] La historia fue revisada por Valentin D. Ivanov en la revista web de reseñas de ciencia ficción y fantasía The Portal . [5]

Para la antología de homenaje de 1986, Foundation's Friends , Harry Harrison escribió una historia titulada "La cuarta ley de la robótica". Esta cuarta ley establece: "Un robot debe reproducirse, siempre y cuando dicha reproducción no interfiera con la primera, la segunda o la tercera ley".

En 2013, Hutan Ashrafian propuso una ley adicional que analizaba el papel de la inteligencia artificial sobre la inteligencia artificial o la relación entre los propios robots: la llamada ley AIonAI [6] . Esta sexta ley establece: “Todos los robots dotados de una razón y una conciencia comparables a las humanas deben actuar entre sí con un espíritu de hermandad”.

Principios de robótica del EPSRC/AHRC

En 2011, el Consejo de Investigación en Ingeniería y Ciencias Físicas (EPSRC) y el Consejo de Investigación en Artes y Humanidades (AHRC) del Reino Unido publicaron conjuntamente un conjunto de cinco "principios éticos para diseñadores, constructores y usuarios de robots" en el mundo real, junto con siete "mensajes de alto nivel" destinados a ser transmitidos, basados ​​en un taller de investigación de septiembre de 2010: [2] [7] [8]

  1. Los robots no deberían diseñarse única o principalmente para matar o dañar a humanos.
  2. Los seres humanos, no los robots, son agentes responsables. Los robots son herramientas diseñadas para alcanzar objetivos humanos.
  3. Los robots deben diseñarse de manera que se garantice su seguridad y protección.
  4. Los robots son artefactos; no deberían estar diseñados para explotar a usuarios vulnerables evocando una respuesta emocional o dependencia. Siempre debería ser posible distinguir un robot de un humano.
  5. Siempre debería ser posible averiguar quién es legalmente responsable de un robot.

Los mensajes que se pretendían transmitir eran:

  1. Creemos que los robots tienen el potencial de generar un inmenso impacto positivo en la sociedad. Queremos fomentar la investigación responsable sobre robots.
  2. Las malas prácticas nos perjudican a todos.
  3. Abordar las preocupaciones públicas obvias nos ayudará a todos a avanzar.
  4. Es importante demostrar que nosotros, como especialistas en robótica, estamos comprometidos con los mejores estándares de práctica posibles.
  5. Para entender el contexto y las consecuencias de nuestra investigación, debemos trabajar con expertos de otras disciplinas, incluidas: las ciencias sociales, el derecho, la filosofía y las artes.
  6. Deberíamos considerar la ética de la transparencia: ¿existen límites a lo que debe estar disponible abiertamente?
  7. Cuando vemos informes erróneos en la prensa, nos comprometemos a tomarnos el tiempo para contactar a los periodistas que los informan.

Los principios de la EPSRC gozan de un amplio reconocimiento como punto de partida útil. En 2016, Tony Prescott organizó un taller para revisar estos principios, por ejemplo, para diferenciar los principios éticos de los legales. [9]

Desarrollo judicial

Otra codificación terminológica integral para la evaluación jurídica de los avances tecnológicos en la industria de la robótica ya ha comenzado, principalmente en los países asiáticos. [10] Este avance representa una reinterpretación contemporánea del derecho (y de la ética) en el campo de la robótica, una interpretación que supone un replanteamiento de las constelaciones jurídicas tradicionales, que incluyen principalmente cuestiones de responsabilidad legal en el derecho civil y penal.

Las leyes de Satya Nadella

En junio de 2016, Satya Nadella , el CEO de Microsoft Corporation , tuvo una entrevista con la revista Slate y reflexionó sobre qué tipo de principios y objetivos deberían considerar la industria y la sociedad al discutir sobre inteligencias artificiales: [11] [12]

  1. "La IA debe estar diseñada para ayudar a la humanidad", lo que significa que se debe respetar la autonomía humana.
  2. "La IA debe ser transparente", lo que significa que los humanos deben saber y poder entender cómo funcionan.
  3. "La IA debe maximizar la eficiencia sin destruir la dignidad de las personas".
  4. "La IA debe estar diseñada para una privacidad inteligente", lo que significa que debe ganarse la confianza protegiendo su información.
  5. "La IA debe tener responsabilidad algorítmica para que los humanos puedan reparar daños no deseados".
  6. "La IA debe protegerse contra los sesgos" para no discriminar a las personas.

Leyes de Tilden

Mark W. Tilden es un físico robótico que fue pionero en el desarrollo de la robótica simple. [13] Sus tres principios/reglas rectores para los robots son: [13] [14] [15]

  1. Un robot debe proteger su existencia a toda costa.
  2. Un robot debe obtener y mantener acceso a su propia fuente de energía.
  3. Un robot debe buscar continuamente mejores fuentes de energía.

Lo que es notable en estas tres reglas es que son básicamente reglas para la vida "salvaje", por lo que en esencia lo que Tilden afirmó es que lo que quería era "convertir a una especie de silicio en sensible, pero con control total sobre las especificaciones. No plantas. No animales. Algo más". [16]

Véase también

Referencias

  1. ^ Asimov, Isaac (1950). Yo, robot .
  2. ^ ab Stewart, Jon (3 de octubre de 2011). "¿Listo para la revolución robótica?". BBC News . Consultado el 3 de octubre de 2011 .
  3. ^ Dilov, Lyuben (también conocido como Lyubin, Luben o Liuben) (2002). Пътят на Икар . Захари Стоянов. ISBN 978-954-739-338-7.{{cite book}}: CS1 maint: varios nombres: lista de autores ( enlace )
  4. ^ Кесаровски, Никола (1983). Петият закон . Отечество.
  5. ^ Un país pequeño y legal: las leyes búlgaras de la robótica | El Portal
  6. ^ Ashrafian, Hutan (2014). "AIonAI: una ley humanitaria de inteligencia artificial y robótica". Ética de la ciencia y la ingeniería . 21 (1): 29–40. doi :10.1007/s11948-013-9513-9. PMID  24414678. S2CID  2821971.
  7. ^ "Principios de la robótica: regulación de los robots en el mundo real". Consejo de Investigación en Ingeniería y Ciencias Físicas . Consultado el 3 de octubre de 2011 .
  8. ^ Winfield, Alan. «Cinco principios roboéticos para los humanos». New Scientist . Consultado el 3 de octubre de 2011 .
  9. ^ Müller, Vincent C. (2017). "Obligaciones legales y éticas: un comentario sobre los principios del EPSRC para la robótica". Connection Science . 29 (2): 137–141. Bibcode :2017ConSc..29..137M. doi :10.1080/09540091.2016.1276516. S2CID  19080722.
  10. ^ bcc.co.uk: La era de los robots plantea un dilema ético. Enlace
  11. ^ Nadella, Satya (28 de junio de 2016). "La asociación del futuro". Slate . ISSN  1091-2339 . Consultado el 30 de junio de 2016 .
  12. ^ Vincent, James (29 de junio de 2016). «Las reglas de Satya Nadella para la IA son más aburridas (y relevantes) que las Tres Leyes de Asimov». The Verge . Vox Media . Consultado el 30 de junio de 2016 .
  13. ^ ab Hapgood, Fred (septiembre de 1994). "Chaotic Robotics". Wired . Vol. 2, núm. 9.
  14. ^ Ashley Dunn. "Machine Intelligence, Part II: From Bumper Cars to Electronic Minds" (Inteligencia artificial, parte II: de los autos chocadores a las mentes electrónicas), The New York Times, 5 de junio de 1996. Consultado el 26 de julio de 2009.
  15. ^ makezine.com: Guía para principiantes de BEAM (la mayor parte del artículo es contenido exclusivo para suscripción).
  16. ^ Hapgood, Fred (septiembre de 1994). "Chaotic Robotics (continuación)". Wired . Vol. 2, núm. 9.

[1]

  1. ^ 17. Locutor (2011). Portal 2