stringtranslate.com

Ética de los robots

La ética de los robots , a veces conocida como " roboética ", se refiere a los problemas éticos que ocurren con los robots, como si los robots representan una amenaza para los humanos a largo o corto plazo, si algunos usos de los robots son problemáticos (como en la atención médica o como ' asesinos '). robots 'en la guerra), y cómo los robots deberían diseñarse de manera que actúen 'éticamente' (esta última preocupación también se llama ética de las máquinas ). Alternativamente, la roboética se refiere específicamente a la ética del comportamiento humano hacia los robots, a medida que los robots se vuelven cada vez más avanzados. [1] La ética de los robots es un subcampo de la ética de la tecnología, específicamente la tecnología de la información, y tiene estrechos vínculos con preocupaciones legales y socioeconómicas. Investigadores de diversas áreas están comenzando a abordar cuestiones éticas sobre la creación de tecnología robótica y su implementación en las sociedades, de una manera que aún garantice la seguridad de la raza humana. [2]

Si bien los problemas son tan antiguos como la palabra robot , alrededor del año 2000 comenzaron serios debates académicos. La ética de los robots requiere el compromiso combinado de expertos de varias disciplinas, que tienen que ajustar las leyes y regulaciones a los problemas resultantes de los logros científicos y tecnológicos en Robótica e IA. Los principales campos involucrados en la ética de los robots son: robótica , informática , inteligencia artificial , filosofía , ética , teología , biología , fisiología , ciencias cognitivas , neurociencias , derecho , sociología , psicología y diseño industrial . [3]

Historia y eventos

Algunas de las discusiones centrales de la ética en relación con el tratamiento de las cosas no humanas o no biológicas y su potencial "espiritualidad". Otro tema central, tiene que ver con el desarrollo de maquinaria y eventualmente robots, esta filosofía también se aplicó a la robótica. Una de las primeras publicaciones que abordó directamente y sentó las bases de la ética de los robots fue Runaround (historia) , un cuento de ciencia ficción escrito por Isaac Asimov en 1942 que presentaba sus conocidas Tres leyes de la robótica . Asimov modificó continuamente estas tres leyes, y finalmente se añadió una cuarta, o ley cero, para preceder a las tres primeras, en el contexto de sus obras de ciencia ficción . El término abreviado "roboética" probablemente fue acuñado por Gianmarco Veruggio. [4]

Un evento importante que impulsó la preocupación por la roboética fue el Primer Simposio Internacional sobre Roboética en 2004, realizado por el esfuerzo colaborativo de la Scuola di Robotica, el Laboratorio de Artes de la Scuola Superiore Sant'Anna, Pisa, y el Instituto Teológico de la Pontificia Accademia della Santa Croce. Roma. [5] Debido a las actividades de la escuela de Robótica que es una organización sin fines de lucro y tiene como objetivo promover el conocimiento de la ciencia de la Robótica entre los estudiantes y público en general, se realizó este Simposio de Roboética. En conversaciones con estudiantes y no especialistas, Gianmarco Veruggio y Fiorella Operto pensaron que era necesario difundir entre el público en general concepciones correctas sobre los supuestos peligros de la robótica. Pensaron que un debate productivo basado en ideas precisas y conocimientos reales podría impulsar a la gente a tomar parte activa en la educación de la opinión pública, hacerles comprender los usos positivos de la nueva tecnología y prevenir su abuso. Después de dos días de intenso debate, la antropóloga Daniela Cerqui identificó tres posiciones éticas principales que surgieron de dos días de intenso debate:

  1. Los que no están interesados ​​en la ética. Consideran que sus acciones son estrictamente técnicas y no creen tener una responsabilidad social o moral en su trabajo.
  2. Aquellos que estén interesados ​​en cuestiones éticas a corto plazo. Según este perfil, las preguntas se expresan en términos de “bueno” o “malo” y hacen referencia a algunos valores culturales. Por ejemplo, creen que los robots deben adherirse a las convenciones sociales. Esto incluirá “respetar” y ayudar a los humanos en diversas áreas, como la implementación de leyes o la ayuda a las personas mayores. (Estas consideraciones son importantes, pero debemos recordar que los valores utilizados para definir lo “malo” y lo “bueno” son relativos. Son los valores contemporáneos de los países industrializados).
  3. Aquellos que piensan en términos de cuestiones éticas a largo plazo, como por ejemplo la “brecha digital” entre el Sur y el Norte, o entre jóvenes y ancianos. Son conscientes de la brecha entre los países industrializados y los pobres, y se preguntan si los primeros no deberían cambiar su forma de desarrollar la robótica para que sea más útil para el Sur. No formulan explícitamente la pregunta para qué, pero podemos considerar que está implícita". [6]

Estos son algunos eventos y proyectos importantes en ética de los robots. El grupo de temas ELS de euRobotics y RoboHub anuncian más eventos en este campo:

Un robot de reparto de hospital frente a las puertas de un ascensor indicando "El robot tiene prioridad", una situación que puede considerarse como discriminación inversa en relación con los humanos.

La científica informática Virginia Dignum señaló en una edición de marzo de 2018 de Ética y Tecnología de la Información que la actitud social general hacia la inteligencia artificial (IA), en la era moderna, ha pasado de ver la IA como una herramienta a verla como un “equipo” inteligente. -compañero". En el mismo artículo, evaluó que, con respecto a la IA, los pensadores éticos tienen tres objetivos, cada uno de los cuales, según ella, se puede lograr en la era moderna con una reflexión e implementación cuidadosas. [14] [15] [16] [17] [18] Los tres objetivos éticos son los siguientes:

En la cultura popular

La roboética como tema científico o filosófico ha comenzado a ser un tema común en la literatura y las películas de ciencia ficción. Una película que se podría argumentar que está arraigada en la cultura pop y que describe el uso distópico futuro de la IA robótica es The Matrix , que describe un futuro en el que los humanos y la IA consciente y consciente luchan por el control del planeta Tierra, lo que resulta en la destrucción de la mayor parte de la raza humana. . Una película animada basada en The Matrix , Animatrix , se centró en gran medida en los posibles problemas éticos e inseguridades entre humanos y robots. La película está dividida en historias cortas. Los cortos animados de Animatrix también llevan el nombre de las historias de ficción de Isaac Asimov.

Otra faceta de la roboética se ocupa específicamente del tratamiento de los robots por parte de los humanos y ha sido explorada en numerosas películas y programas de televisión. Un ejemplo de ello es Star Trek: The Next Generation , que tiene un androide humanoide, llamado Data , como uno de sus personajes principales. En su mayor parte, se le confía un trabajo de misión crítica, pero su capacidad para encajar con los demás seres vivos a menudo está en duda. [20] Más recientemente, la película Ex Machina y el programa de televisión Westworld han abordado estas cuestiones éticas de manera bastante directa al representar robots hiperrealistas que los humanos tratan como mercancías intrascendentes. [21] [22] Las preguntas que rodean el tratamiento de los seres diseñados también han sido un componente clave de Blade Runner (franquicia) durante más de 50 años. [23] Películas como Her incluso han destilado aún más la relación humana con los robots al eliminar el aspecto físico y centrarse en las emociones.

Aunque no forma parte de la roboética per se , el comportamiento ético de los propios robots también ha sido un tema común en la roboética en la cultura popular. La serie Terminator se centra en robots dirigidos por un programa de inteligencia artificial consciente sin restricciones para acabar con sus enemigos. Esta serie también tiene el mismo arquetipo que la serie Matrix , donde los robots han tomado el control. Otro caso famoso de la cultura pop de robots o IA sin ética o moral programada es HAL 9000 en la serie Space Odyssey , donde HAL (una computadora con capacidades avanzadas de IA que monitorea y ayuda a los humanos en una estación espacial) mata a todos los humanos a bordo para asegurar el éxito de la misión asignada después de que su propia vida se vea amenazada. [24]

robots asesinos

Los sistemas de armas autónomos letales (LAWS), a menudo denominados “robots asesinos”, son teóricamente capaces de apuntar y disparar sin supervisión ni interferencia humana. En 2014, la Convención sobre Armas Convencionales (CAC) celebró dos reuniones. La primera fue la Reunión de Expertos en Sistemas de Armas Letales Autónomas (LAWS). Esta reunión fue sobre el mandato especial sobre LAWS y suscitó una intensa discusión. [25] Delegaciones nacionales y numerosas organizaciones no gubernamentales (ONG) expresaron sus opiniones al respecto.

Numerosas ONG y ciertos estados como Pakistán y Cuba piden una prohibición preventiva de LAWS. Propusieron sus opiniones basándose en razonamientos deontológicos y consecuencialistas. Desde el punto de vista deontológico, ciertos filósofos como Peter Asaro y Robert Sparrow, la mayoría de las ONG y el Vaticano argumentan que autorizar demasiados derechos a las máquinas viola la dignidad humana y que las personas tienen el “derecho a no ser asesinadas por una máquina”. En apoyo de su punto de vista, citan repetidamente la cláusula Martens .

Al final de esta reunión, la objeción consecuencialista más importante fue que LAWS nunca podría respetar el derecho internacional humanitario (DIH), como creían las ONG, muchos investigadores y varios Estados ( Pakistán , Austria , Egipto , México ).

Según el Comité Internacional de la Cruz Roja (CICR), “no hay duda de que el desarrollo y uso de sistemas de armas autónomos en conflictos armados se rige por el derecho internacional humanitario”. [26] Los Estados lo reconocen: quienes participaron en la primera Reunión de Expertos de la ONU en mayo de 2014 reconocieron el respeto al DIH como una condición esencial para la implementación de los SAAL. Con diversas predicciones, algunos Estados creen que los LAWS no podrán cumplir este criterio, mientras que otros subrayan la dificultad de pronunciarse en esta fase sin conocer las capacidades futuras de las armas ( Japón , Australia ). Todos insisten por igual en la verificación ex ante de la conformidad de los sistemas con el DIH antes de su puesta en servicio, en virtud del artículo del primer protocolo adicional a los Convenios de Ginebra.

Grado de control humano

Bonnie Docherty estableció tres clasificaciones del grado de control humano de los sistemas de armas autónomos en un informe de Human Rights Watch de 2012. [27]

robots sexuales

En 2015 se lanzó la Campaña Contra los Robots Sexuales (CASR) para llamar la atención sobre la relación sexual de los humanos con las máquinas. La campaña afirma que los robots sexuales son potencialmente dañinos y contribuirán a las desigualdades en la sociedad, y que es necesario un enfoque organizado y una respuesta ética contra el desarrollo de robots sexuales. [28]

En el artículo ¿Deberíamos hacer campaña contra los robots sexuales? , publicado por MIT Press , los investigadores señalaron algunos defectos en esta campaña y no apoyaron completamente la prohibición de los robots sexuales. En primer lugar, argumentaron que las afirmaciones particulares presentadas por la CASR eran "poco convincentes", en parte debido a una falta de claridad sobre los objetivos de la campaña y en parte debido a defectos sustanciales en las principales objeciones éticas planteadas por los fundadores de la campaña. En segundo lugar, argumentaron que sería muy difícil respaldar una campaña general contra los robots sexuales a menos que se adoptara una actitud muy conservadora hacia la ética del sexo. Basándose en el ejemplo de la campaña para detener a los robots asesinos, pensaron que no había propiedades intrínsecamente malas de los robots sexuales que dieran lugar a niveles de preocupación igualmente graves, siendo el daño causado por los robots sexuales especulativo e indirecto. No obstante, el artículo admite que se pueden plantear preocupaciones legítimas sobre el desarrollo de robots sexuales. [29]

Ley

Con los problemas tecnológicos contemporáneos que surgen a medida que la sociedad avanza, un tema que requiere una reflexión profunda es la ética de los robots en relación con la ley. Los académicos han estado debatiendo el proceso de cómo un gobierno podría crear una legislación con ética y derecho de los robots. Un par de académicos que han estado haciendo estas preguntas son el Profesor de Derecho Neil M. Richards en la Facultad de Derecho de la Universidad de Washington y el Profesor Asociado William D. Smart de Ciencias de la Computación en la Facultad de Ingeniería McKelvey . En su artículo "¿Cómo deberían pensar los robots sobre la ley?", hacen cuatro afirmaciones principales sobre la ética y la ley de los robots. [30] La base de su argumento radica en la definición de robot como "agentes autónomos no biológicos que creemos que captura la esencia de los desafíos regulatorios y tecnológicos que presentan los robots, y que podrían ser útilmente la base de la regulación". En segundo lugar, la pareja explora las futuras capacidades avanzadas de los robots dentro de aproximadamente unas décadas. Su tercera afirmación argumenta una relación entre las cuestiones jurídicas que la ética de los robots y las experiencias jurídicas tienen con las experiencias jurídicas del derecho cibernético. Lo que significa que las leyes de ética de los robots pueden buscar orientación en las leyes cibernéticas. La "lección" aprendida del derecho cibernético es la importancia de las metáforas que entendemos como los problemas emergentes en la tecnología. Esto se basa en que, si nos equivocamos con la metáfora, por ejemplo, lo más probable es que la legislación que rodea la cuestión tecnológica emergente esté equivocada. La cuarta afirmación contra la que argumentan es una metáfora que la pareja define como "La falacia de Android". Argumentan en contra de la falacia androide que afirma que los humanos y las entidades no biológicas son "como las personas".

Busqueda empirica

Hay pruebas contradictorias sobre si las personas juzgan el comportamiento de los robots de manera similar al de los humanos o no. Alguna evidencia indica que las personas ven el mal comportamiento de manera negativa y el buen comportamiento de manera positiva, independientemente de si el agente del comportamiento es un humano o un robot; sin embargo, los robots reciben menos crédito por su buen comportamiento y más culpa por su mal comportamiento. [31] Otra evidencia sugiere que el comportamiento malévolo por parte de los robots se considera más moralmente incorrecto que el comportamiento benévolo como moralmente correcto; El comportamiento malévolo de los robots se considera más intencionado que benévolo. [32] En general, los juicios morales de las personas tanto sobre robots como sobre humanos se basan en las mismas justificaciones y conceptos, pero las personas tienen diferentes expectativas morales al juzgar a humanos y robots. [33] Las investigaciones también han descubierto que cuando las personas intentan interpretar y comprender cómo los robots deciden comportarse de una manera particular, pueden ver que los robots utilizan reglas generales (hacer avanzar a uno mismo, hacer lo correcto, hacer avanzar a los demás, hacer lo que es correcto). lógico y hacer lo que es normal) que se alinean con las doctrinas éticas establecidas (egoísmo, deontología, altruismo, utilitarismo y normativo). [34]

Ver también

Notas

  1. ^ Veruggio, Gianmarco; Operto, Fiorella (2008), Siciliano, Bruno; Khatib, Oussama (eds.), "Roboethics: Social and Ethical Implications of Robotics", Springer Handbook of Robotics , Springer Berlin Heidelberg, págs. 1499-1524, doi :10.1007/978-3-540-30301-5_65, ISBN 9783540303015
  2. ^ "Ética de los robots". Sociedad de Automatización y Robótica IEEE . Consultado el 26 de junio de 2017 .
  3. ^ "Ética de los robots - Sociedad de automatización y robótica IEEE - Sociedad de automatización y robótica IEEE". www.ieee-ras.org . Consultado el 10 de abril de 2022 .
  4. ^ Tzafestas, Spyros G. (2016). Roboética: una descripción general de la navegación . Cham: Springer. pag. 1.ISBN 978-3-319-21713-0.
  5. ^ "Portada de ROBOÉTICA". www.roboethics.org . Consultado el 29 de septiembre de 2020 .
  6. ^ Veruggio, Gianmarco. "El nacimiento de la roboética" (PDF) . www.roboethics.org .
  7. ^ "Declaración mundial de robots". Noticias de Kyodo .
  8. ^ "Arabia Saudita otorga la ciudadanía a un robot no musulmán de habla inglesa". Semana de noticias . 26 de octubre de 2017.
  9. ^ "Arabia Saudita otorga la ciudadanía a un robot llamado Sophia". TechCrunch . 26 de octubre de 2017 . Consultado el 27 de octubre de 2016 .
  10. ^ "Arabia Saudita da un paso aterrador hacia el futuro al otorgar la ciudadanía a un robot". Club AV . 26 de octubre de 2017 . Consultado el 28 de octubre de 2017 .
  11. ^ "Arabia Saudita criticada por otorgar la ciudadanía a las mujeres robot, mientras restringe los derechos de las mujeres - ABC News". Abcnews.go.com . Consultado el 28 de octubre de 2017 .
  12. ^ Iphofen, Ron; Kritikos, Mihalis (15 de marzo de 2021). "Regulación de la inteligencia artificial y la robótica: ética por diseño en una sociedad digital". Ciencias Sociales Contemporáneas . 16 (2): 170–184. doi :10.1080/21582041.2018.1563803. ISSN  2158-2041. S2CID  59298502.
  13. ^ "Partido no humano". 2021.
  14. ^ Rahwan, Iyad (2018). "Sociedad en el circuito: programación del contrato social algorítmico". Ética y Tecnología de la Información . 20 : 5–14. arXiv : 1707.07232 . doi :10.1007/s10676-017-9430-8. S2CID  3674879.
  15. ^ Bryson, Joanna (2018). "La paciencia no es una virtud: el diseño de sistemas inteligentes y sistemas de ética". Ética y Tecnología de la Información . 20 : 15-26. doi : 10.1007/s10676-018-9448-6 .
  16. ^ Vamplew, Peter; Dazeley, Richard; Foale, Cameron; Firmin, Sally (2018). "La inteligencia artificial alineada con los humanos es un problema multiobjetivo". Ética y Tecnología de la Información . 20 : 27–40. doi :10.1007/s10676-017-9440-6. hdl :1959.17/164225. S2CID  3696067.
  17. ^ Bonnemains, Vicente; Saurel, Claire; Tessier, Catalina (2018). "Ética integrada: algunos desafíos técnicos y éticos" (PDF) . Ética y Tecnología de la Información . 20 : 41–58. doi :10.1007/s10676-018-9444-x. S2CID  3697093.
  18. ^ Arnoldo, Thomas; Scheutz, Matías (2018). "El 'gran botón rojo' es demasiado tarde: un modelo alternativo para la evaluación ética de los sistemas de inteligencia artificial". Ética y Tecnología de la Información . 20 : 59–69. doi :10.1007/s10676-018-9447-7. S2CID  3582967.
  19. ^ Dignum, Virginia (2018). "Ética en la Inteligencia Artificial: Introducción al Número Especial". Ética y Tecnología de la Información . 20 : 1–3. doi : 10.1007/s10676-018-9450-z .
  20. ^ Breve, Sue (1 de enero de 2003). "¿La medida de un hombre?: El hombre bicentenario de Asimov, los datos de Star Trek y el ser humano". Extrapolación . 44 (2): 209–223. doi :10.3828/extr.2003.44.2.6. ISSN  0014-5483.
  21. ^ Personal, Estándar del Pacífico. "¿Puede 'Westworld' brindarnos nuevas formas de hablar sobre la esclavitud?". Estándar del Pacífico . Consultado el 16 de septiembre de 2019 .
  22. ^ Parker, Laura (15 de abril de 2015). "Cómo 'Ex Machina' se destaca por no temer a la inteligencia artificial". El Atlántico . Consultado el 16 de septiembre de 2019 .
  23. ^ Kilkenny, Katie. "El significado de la vida en 'Blade Runner 2049'". Estándar del Pacífico . Consultado el 16 de septiembre de 2019 .
  24. ^ Krishnan, Armin (2016). Robots asesinos: legalidad y ética de las armas autónomas. Rutledge. doi :10.4324/9781315591070. ISBN 9781315591070. Consultado el 16 de septiembre de 2019 .
  25. ^ "2014". alcanzando la voluntad crítica.org . Consultado el 3 de abril de 2022 .
  26. ^ "Posición del Comité Internacional de la Cruz Roja (CICR) sobre los sistemas de armas autónomos: posición del CICR y documento de antecedentes". Revista Internacional de la Cruz Roja . 102 (915): 1335-1349. Diciembre de 2020. doi : 10.1017/s1816383121000564. ISSN  1816-3831. S2CID  244396800.
  27. ^ Amitai Etzioni; Oren Etzioni (junio de 2017). "Pros y contras de los sistemas de armas autónomos". ejército.mil .
  28. ^ Temperton, James (15 de septiembre de 2015). "La campaña pide la prohibición de los robots sexuales". Reino Unido cableado . ISSN  1357-0978 . Consultado el 7 de agosto de 2022 .
  29. ^ Danaher, Juan; Earp, Brian D.; Sandberg, Anders (2017), Danaher, John; McArthur, Neil (eds.), "¿Deberíamos hacer campaña contra los robots sexuales?", Sexo con robots: implicaciones sociales y éticas , Cambridge, MA: MIT Press , consultado el 16 de abril de 2022.
  30. ^ Richards, Neil M.; Inteligente, William D. (2013). "¿Cómo debería pensar la ley sobre los robots?". SSRN  2263363.
  31. ^ Bancos, Jaime (10 de septiembre de 2020). "Robots buenos, robots malos: efectos del comportamiento con valencia moral en la mente percibida, la moralidad y la confianza". Revista Internacional de Robótica Social . 13 (8): 2021-2038. doi : 10.1007/s12369-020-00692-3 . hdl : 2346/89911 .
  32. ^ Swiderska, Aleksandra; Küster, Dennis (2020). "Robots como agentes morales malévolos: el comportamiento nocivo da como resultado la deshumanización, no el antropomorfismo". Ciencia cognitiva . 44 (7): e12872. doi : 10.1111/cogs.12872 . PMID  33020966. S2CID  220429245.
  33. ^ Voiklis, John; Kim, Boyoung; Cusimano, Corey; Malle, Bertram F. (agosto de 2016). "Juicios morales de agentes humanos versus robots". 2016 25º Simposio Internacional IEEE sobre Comunicación Interactiva Humana y Robots (RO-MAN) . págs. 775–780. doi :10.1109/ROMAN.2016.7745207. ISBN 978-1-5090-3929-6. S2CID  25295130.
  34. ^ Bancos, Jaime; Koban, Kevin (2021). "Efectos del encuadre sobre los juicios sobre los comportamientos (im)morales de los robots sociales". Fronteras en robótica e inteligencia artificial . 8 : 627233. doi : 10.3389/frobt.2021.627233 . PMC 8141842 . PMID  34041272. 

Referencias

Otras lecturas

enlaces externos