stringtranslate.com

Ética de las máquinas

La ética de las máquinas (o moralidad de las máquinas , moralidad computacional o ética computacional ) es una parte de la ética de la inteligencia artificial que se ocupa de agregar o asegurar comportamientos morales de las máquinas creadas por el hombre que utilizan inteligencia artificial, también conocidas como agentes inteligentes artificiales . [1] La ética de las máquinas se diferencia de otros campos éticos relacionados con la ingeniería y la tecnología . No debe confundirse con la ética informática , que se centra en el uso humano de las computadoras. También debe distinguirse de la filosofía de la tecnología , que se ocupa de los efectos sociales más amplios de la tecnología. [2]

Definiciones

James H. Moor , uno de los teóricos pioneros en el campo de la ética informática , define cuatro tipos de robots éticos. Como investigador extensivo en los estudios de filosofía de la inteligencia artificial , filosofía de la mente , filosofía de la ciencia y lógica , Moor define las máquinas como agentes de impacto ético, agentes éticos implícitos, agentes éticos explícitos o agentes éticos completos. Una máquina puede ser más de un tipo de agente. [3]

(Véase sistemas artificiales y responsabilidad moral .)

Historia

Antes del siglo XXI, la ética de las máquinas había sido en gran medida objeto de ciencia ficción , debido principalmente a las limitaciones de la informática y la inteligencia artificial (IA). Aunque la definición de "ética de las máquinas" ha evolucionado desde entonces, el término fue acuñado por Mitchell Waldrop en el artículo de la revista AI de 1987 "A Question of Responsibility":

Una cosa que se desprende de la discusión anterior es que las máquinas inteligentes incorporarán valores, supuestos y propósitos, independientemente de que sus programadores lo pretendan conscientemente o no. Por lo tanto, a medida que las computadoras y los robots se vuelven cada vez más inteligentes, se vuelve imperativo que pensemos cuidadosa y explícitamente sobre cuáles son esos valores incorporados. Tal vez lo que necesitamos es, de hecho, una teoría y una práctica de la ética de las máquinas, en el espíritu de las tres leyes de la robótica de Asimov . [4]

En 2004, Towards Machine Ethics [5] se presentó en el Taller AAAI sobre Organizaciones de Agentes: Teoría y Práctica. [6] Se establecieron los fundamentos teóricos para la ética de las máquinas.

En el Simposio sobre Ética de Máquinas de la AAAI de Otoño de 2005, los investigadores se reunieron por primera vez para considerar la implementación de una dimensión ética en sistemas autónomos. [7] Se puede encontrar una variedad de perspectivas de este campo naciente en la edición recopilada Machine Ethics [8] que surge de ese simposio.

En 2007, la revista AI publicó "Machine Ethics: Creating an Ethical Intelligent Agent" [9] , un artículo que analizaba la importancia de la ética de las máquinas, la necesidad de máquinas que representen principios éticos de forma explícita y los desafíos que enfrentan quienes trabajan en ética de las máquinas. También demostró que es posible, al menos en un ámbito limitado, que una máquina abstraiga un principio ético de ejemplos de juicios éticos y utilice ese principio para guiar su comportamiento.

En 2009, Oxford University Press publicó Moral Machines, Teaching Robots Right from Wrong [10] , que promocionó como "el primer libro que examina el desafío de construir agentes morales artificiales, indagando profundamente en la naturaleza de la toma de decisiones y la ética humanas". Citó 450 fuentes, de las cuales unas 100 abordaban cuestiones importantes de la ética de las máquinas.

En 2011, Cambridge University Press publicó una colección de ensayos sobre la ética de las máquinas editada por Michael y Susan Leigh Anderson, [8] quienes también editaron un número especial de IEEE Intelligent Systems sobre el tema en 2006. [11] La colección se centra en los desafíos de agregar principios éticos a las máquinas. [12]

En 2014, la Oficina de Investigación Naval de Estados Unidos anunció que distribuiría 7,5 millones de dólares en subvenciones durante cinco años a investigadores universitarios para estudiar cuestiones de ética de las máquinas aplicadas a los robots autónomos, [13] y Superintelligence: Paths, Dangers, Strategies de Nick Bostrom , que planteó la ética de las máquinas como el "problema más importante... que la humanidad haya enfrentado jamás", alcanzó el puesto número 17 en la lista de libros científicos más vendidos del New York Times . [14]

En 2016, el Parlamento Europeo publicó un documento [15] para alentar a la Comisión a que abordara el estatuto jurídico de los robots. [16] El documento incluye secciones sobre la responsabilidad legal de los robots, en las que se sostiene que su responsabilidad debería ser proporcional a su nivel de autonomía. El documento también analiza cuántos trabajos podrían asumir los robots con IA. [17]

En 2019, las Actas del IEEE publicaron un número especial sobre Ética de las máquinas: el diseño y la gobernanza de la IA ética y los sistemas autónomos , editado por Alan Winfield , Katina Michael, Jeremy Pitt y Vanessa Evers. [18] "El número incluye artículos que describen agentes éticos implícitos, donde las máquinas están diseñadas para evitar resultados no éticos, así como agentes éticos explícitos, o máquinas que codifican o aprenden la ética y determinan acciones basadas en esa ética". [19]

Áreas de interés

Problema de control de IA

Algunos académicos, como Bostrom y el investigador de IA Stuart Russell , argumentan que, si la IA supera a la humanidad en inteligencia general y se vuelve " superinteligente ", esta nueva superinteligencia podría volverse poderosa y difícil de controlar: así como el destino del gorila de montaña depende de la buena voluntad humana, también podría depender el destino de la humanidad de las acciones de una futura superinteligencia. [20] En sus respectivos libros Superintelligence and Human Compatible , Bostrom y Russell afirman que, si bien el futuro de la IA es muy incierto, el riesgo para la humanidad es lo suficientemente grande como para merecer una acción significativa en el presente.

Esto plantea el problema del control de la IA : cómo construir un agente inteligente que ayude a sus creadores sin construir inadvertidamente una superinteligencia que los dañará. El peligro de no diseñar el control correctamente "la primera vez" es que una superinteligencia puede ser capaz de tomar el poder sobre su entorno y evitar que la apaguemos. Las posibles estrategias de control de la IA incluyen el "control de capacidad" (limitar la capacidad de una IA para influir en el mundo) y el "control motivacional" (una forma de construir una IA cuyos objetivos estén alineados con los valores humanos u óptimos). Varias organizaciones están investigando el problema del control de la IA, incluido el Future of Humanity Institute , el Machine Intelligence Research Institute , el Center for Human-Compatible Artificial Intelligence y el Future of Life Institute .

Algoritmos y entrenamiento

Los paradigmas de la IA han sido debatidos, especialmente su eficacia y sesgo. Bostrom y Eliezer Yudkowsky han defendido los árboles de decisión (como ID3 ) en lugar de las redes neuronales y los algoritmos genéticos, con el argumento de que los árboles de decisión obedecen a las normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis ). [21] Por el contrario, Chris Santos-Lang ha argumentado a favor de las redes neuronales y los algoritmos genéticos con el argumento de que se debe permitir que las normas de cualquier época cambien y que el fracaso natural para satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables que las máquinas a los piratas informáticos criminales . [22] [23]

En 2009, en un experimento en el Laboratorio de Sistemas Inteligentes de la Escuela Politécnica Federal de Lausana , se programaron robots de IA para que cooperaran entre sí y se les asignó la tarea de buscar un recurso beneficioso mientras evitaban uno venenoso. [24] Durante el experimento, los robots se agruparon en clanes y el código genético digital de los miembros exitosos se utilizó para la siguiente generación, un tipo de algoritmo conocido como algoritmo genético. Después de 50 generaciones sucesivas en la IA, los miembros de un clan descubrieron cómo distinguir el recurso beneficioso del venenoso. Luego, los robots aprendieron a mentirse entre sí en un intento de acaparar el recurso beneficioso de otros robots. [24] En el mismo experimento, los mismos robots también aprendieron a comportarse desinteresadamente y a señalar el peligro a otros robots, y murieron para salvar a otros robots. [22] Los especialistas en ética de las máquinas han cuestionado las implicaciones del experimento. En el experimento, los objetivos de los robots fueron programados para ser "terminales", pero los motivos humanos generalmente requieren un aprendizaje interminable.

Sistemas de armas autónomos

En 2009, académicos y expertos técnicos asistieron a una conferencia para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía, y hasta qué punto podrían usarla para plantear una amenaza o peligro. Observaron que algunas máquinas han adquirido varias formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismas y elegir independientemente objetivos para atacar con armas. También observaron que algunos virus informáticos pueden evadir la eliminación y han alcanzado la "inteligencia de las cucarachas". Observaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y dificultades potenciales. [25]

Algunos expertos y académicos han cuestionado el uso de robots en combate militar, especialmente robots con cierto grado de autonomía. [26] La Marina de Estados Unidos financió un informe que indica que a medida que los robots militares se vuelven más complejos, deberíamos prestar mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [27] [28] El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio sobre esta cuestión. [29]

Integración de las inteligencias artificiales generales con la sociedad

Un robot de reparto de hospital delante de las puertas del ascensor que dice "El robot tiene prioridad", una situación que puede considerarse una discriminación inversa en relación con los humanos.

Se han realizado trabajos preliminares sobre métodos para integrar las inteligencias artificiales generales (agentes éticos plenos, tal como se definieron anteriormente) con los marcos jurídicos y sociales existentes. Los enfoques se han centrado en su posición jurídica y sus derechos. [30]

Sesgo del aprendizaje automático

Los algoritmos de big data y aprendizaje automático se han vuelto populares en numerosas industrias, incluida la publicidad en línea , las calificaciones crediticias y las sentencias penales, con la promesa de proporcionar resultados más objetivos basados ​​​​en datos, pero se han identificado como una forma potencial de perpetuar las desigualdades sociales y la discriminación . [31] [32] Un estudio de 2015 descubrió que las mujeres tenían menos probabilidades que los hombres de recibir anuncios de trabajo de altos ingresos a través de AdSense de Google . Otro estudio descubrió que el servicio de entrega en el mismo día de Amazon se hizo intencionalmente no disponible en los vecindarios negros. Tanto Google como Amazon no pudieron aislar estos resultados a un solo problema, y ​​​​dijeron que los resultados eran el resultado de los algoritmos de caja negra que utilizan. [31]

El sistema judicial de Estados Unidos ha comenzado a utilizar software de evaluación de riesgos cuantitativos al tomar decisiones relacionadas con la liberación de personas bajo fianza y la sentencia en un esfuerzo por ser más justo y reducir la tasa de encarcelamiento . Estas herramientas analizan los antecedentes penales de un acusado, entre otros atributos. En un estudio de 7.000 personas arrestadas en el condado de Broward , Florida , solo el 20% de las personas que se predijo que cometerían un delito utilizando el sistema de puntuación de evaluación de riesgos del condado procedieron a cometer un delito. [32] Un informe de ProPublica de 2016 analizó las puntuaciones de riesgo de reincidencia calculadas por una de las herramientas más utilizadas, el sistema Northpointe COMPAS , y examinó los resultados durante dos años. El informe encontró que solo el 61% de los considerados de alto riesgo cometieron delitos adicionales durante ese período. El informe también señaló que los acusados ​​afroamericanos tenían muchas más probabilidades de recibir puntuaciones de alto riesgo que sus contrapartes blancas. [32] Se ha argumentado que dichas evaluaciones de riesgo previas al juicio violan los derechos de igualdad de protección en función de la raza, debido a factores que incluyen la posible intención discriminatoria del propio algoritmo, según una teoría de capacidad jurídica parcial para las inteligencias artificiales. [33]

En 2016, el Grupo de Trabajo de Big Data de la administración Obama (un supervisor de varios marcos regulatorios de big data) publicó informes que advertían sobre "el potencial de codificar la discriminación en decisiones automatizadas" y pedían "igualdad de oportunidades por diseño" para aplicaciones como la calificación crediticia. [34] [35] Los informes alientan el debate entre los responsables de las políticas, los ciudadanos y los académicos por igual, pero reconocen que aún no existe una solución para la codificación del sesgo y la discriminación en sistemas algorítmicos.

Marcos y prácticas éticas

Prácticas

En marzo de 2018, en un esfuerzo por abordar las crecientes preocupaciones sobre el impacto del aprendizaje automático en los derechos humanos , el Foro Económico Mundial y el Consejo Global para el Futuro de los Derechos Humanos publicaron un libro blanco con recomendaciones detalladas sobre la mejor manera de prevenir resultados discriminatorios en el aprendizaje automático. [36] El Foro Económico Mundial desarrolló cuatro recomendaciones basadas en los Principios Rectores de Derechos Humanos de las Naciones Unidas para ayudar a abordar y prevenir resultados discriminatorios en el aprendizaje automático: [36]

  1. Inclusión activa : el desarrollo y el diseño de aplicaciones de aprendizaje automático deben buscar activamente una diversidad de aportes, especialmente de las normas y valores de las poblaciones afectadas por el resultado de los sistemas de IA.
  2. Equidad : las personas involucradas en la conceptualización, el desarrollo y la implementación de sistemas de aprendizaje automático deben considerar qué definición de equidad se aplica mejor a su contexto y aplicación, y priorizarla en la arquitectura y las métricas de evaluación del sistema de aprendizaje automático.
  3. Derecho a la comprensión : la participación de los sistemas de aprendizaje automático en la toma de decisiones que afectan a los derechos individuales debe ser revelada, y los sistemas deben poder explicar su toma de decisiones de una manera que sea comprensible para los usuarios finales y revisable por una autoridad humana competente. Cuando esto sea imposible y estén en juego derechos, los líderes en el diseño, la implementación y la regulación de la tecnología de aprendizaje automático deben preguntarse si se debe utilizar.
  4. Acceso a la reparación : los líderes, diseñadores y desarrolladores de sistemas de aprendizaje automático son responsables de identificar los posibles impactos negativos de sus sistemas sobre los derechos humanos. Deben hacer visibles las vías de reparación para quienes se ven afectados por impactos dispares y establecer procesos para la reparación oportuna de cualquier resultado discriminatorio.

En enero de 2020, el Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard publicó un metaestudio de 36 conjuntos destacados de principios para la IA, identificando ocho temas clave: privacidad, responsabilidad, seguridad, transparencia y explicabilidad , equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y promoción de los valores humanos. [37] Investigadores del Instituto Federal Suizo de Tecnología en Zúrich realizaron un metaestudio similar en 2019. [38]

Aproches

Ha habido varios intentos de hacer que la ética sea computable, o al menos formal . Las Tres Leyes de la Robótica de Isaac Asimov no suelen considerarse adecuadas para un agente moral artificial, [39] pero se ha estudiado si se puede utilizar el imperativo categórico de Kant. [40] Se ha señalado que el valor humano es, en algunos aspectos, muy complejo. [41] Una forma de superar explícitamente esta dificultad es recibir valores humanos directamente de las personas a través de algún mecanismo, por ejemplo aprendiéndolos. [42] [43] [44]
Otro enfoque es basar las consideraciones éticas actuales en situaciones similares anteriores. Esto se llama casuística y podría implementarse a través de la investigación en Internet. El consenso de un millón de decisiones pasadas conduciría a una nueva decisión que depende de la democracia. [9] Bruce M. McLaren construyó un modelo computacional temprano (mediados de la década de 1990) de casuística, un programa llamado SIROCCO construido con IA y técnicas de razonamiento basado en casos que recupera y analiza dilemas éticos. [45] Pero este enfoque podría llevar a decisiones que reflejen los prejuicios y el comportamiento poco ético de la sociedad. Los efectos negativos de este enfoque se pueden ver en Tay de Microsoft , un chatbot que aprendió a repetir tuits racistas y con carga sexual. [46]

Un experimento mental se centra en un genio gólem con poderes ilimitados que se presenta al lector. Este genio declara que volverá en 50 años y exige que se le proporcione un conjunto definido de principios morales que luego aplicará de inmediato. El propósito de este experimento es generar un debate sobre cuál es la mejor manera de manejar conjuntos definidos de principios éticos que las computadoras puedan comprender. [47]

Algunos trabajos recientes intentan reconstruir la moralidad y el control de la IA de manera más amplia como un problema de disputa mutua entre la IA como subjetividad foucaultiana por un lado y los humanos o las instituciones por el otro, todo dentro de un aparato disciplinario . Es necesario cumplir con ciertos desiderata: autocuidado encarnado, intencionalidad encarnada, imaginación y reflexividad, que en conjunto condicionarían el surgimiento de la IA como un sujeto ético capaz de autoconducirse. [48]

En la ficción

En la ciencia ficción , las películas y las novelas han jugado con la idea de robots y máquinas sensibles.

Chappie (2015), de Neill Blomkamp , ​​presenta un escenario en el que uno puede transferir su conciencia a una computadora. [49] La película Ex Machina ( 2014) de Alex Garland sigue a un androide con inteligencia artificial que se somete a una variación del Test de Turing , una prueba administrada a una máquina para ver si su comportamiento se puede distinguir del de un humano. Películas como Terminator (1984) y Matrix (1999) incorporan el concepto de máquinas que se vuelven contra sus amos humanos.

Asimov consideró el tema en la década de 1950 en Yo, robot . Por insistencia de su editor John W. Campbell Jr. , propuso las Tres Leyes de la Robótica para gobernar los sistemas de inteligencia artificial. Gran parte de su trabajo se dedicó entonces a probar los límites de sus tres leyes para ver dónde fallan o crean un comportamiento paradójico o imprevisto. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles. [50] La novela de Philip K. Dick de 1968 ¿Sueñan los androides con ovejas eléctricas? explora lo que significa ser humano. En su escenario postapocalíptico, cuestiona si la empatía es una característica enteramente humana. El libro es la base de la película de ciencia ficción de 1982 Blade Runner .

Campos relacionados

Véase también

Notas

  1. ^ Moor, JH (2006). "La naturaleza, importancia y dificultad de la ética de las máquinas". IEEE Intelligent Systems . 21 (4): 18–21. doi :10.1109/MIS.2006.80. S2CID  831873.
  2. ^ Boyles, Robert James. "Un caso de ética de las máquinas en el modelado de agentes inteligentes a nivel humano" (PDF) . Kritike . Consultado el 1 de noviembre de 2019 .
  3. ^ Moor, James M. (2009). "Cuatro tipos de robots éticos". Philosophy Now .
  4. ^ Waldrop, Mitchell (primavera de 1987). "Una cuestión de responsabilidad". AI Magazine . 8 (1): 28–39. doi :10.1609/aimag.v8i1.572.
  5. ^ Anderson, M., Anderson, S. y Armen, C. (2004) "Hacia la ética de las máquinas" en Actas del taller AAAI sobre organización de agentes: teoría y práctica, AAAI Press [1]
  6. ^ Taller de la AAAI sobre organización de agentes: teoría y práctica, AAAI Press
  7. ^ "Artículos del Simposio de otoño de la AAAI de 2005". Archivado desde el original el 29 de noviembre de 2014.
  8. ^ ab Anderson, Michael; Anderson, Susan Leigh, eds. (julio de 2011). Machine Ethics . Cambridge University Press . ISBN 978-0-521-11235-2.
  9. ^ ab Anderson, M. y Anderson, S. (2007). Creación de un agente inteligente ético. AI Magazine , Volumen 28(4).
  10. ^ Wallach, Wendell; Allen, Colin (2009). Máquinas morales: enseñar a los robots a distinguir el bien del mal . Oxford University Press. ISBN 9780195374049.
  11. ^ Anderson, Michael; Anderson, Susan Leigh, eds. (julio-agosto de 2006). "Número especial sobre ética de las máquinas". IEEE Intelligent Systems . 21 (4): 10–63. doi :10.1109/mis.2006.70. ISSN  1541-1672. S2CID  9570832. Archivado desde el original el 26 de noviembre de 2011.
  12. ^ Siler, Cory (2015). "Revisión de Anderson y la ética de las máquinas de Anderson". Inteligencia artificial . 229 : 200–201. doi : 10.1016/j.artint.2015.08.013 . S2CID  5613776.
  13. ^ Tucker, Patrick (13 de mayo de 2014). "Ahora los militares van a construir robots que tengan moral". Defense One . Consultado el 9 de julio de 2014 .
  14. ^ "Los libros de ciencia más vendidos". New York Times . 8 de septiembre de 2014 . Consultado el 9 de noviembre de 2014 .
  15. ^ "Parlamento Europeo, Comisión de Asuntos Jurídicos. Proyecto de informe con recomendaciones a la Comisión sobre normas de Derecho civil relativas a la robótica". Comisión Europea . Consultado el 12 de enero de 2017 .
  16. ^ Wakefield, Jane (12 de enero de 2017). «Los eurodiputados votan sobre el estatus legal de los robots y si es necesario un interruptor de seguridad». BBC News . Consultado el 12 de enero de 2017 .
  17. ^ «Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones a la Comisión sobre normas de Derecho civil relativas a la robótica». Parlamento Europeo . Consultado el 8 de noviembre de 2019 .
  18. ^ Alan Winfield; Katina Michael; Jeremy Pitt; Vanessa Evers (marzo de 2019). «Ética de las máquinas: el diseño y la gobernanza de la IA ética y los sistemas autónomos». Actas del IEEE . 107 (3): 501–615. doi : 10.1109/JPROC.2019.2898289 .
  19. ^ "Actas del IEEE sobre ética de las máquinas". Asociación de Normas IEEE. 30 de agosto de 2019. Archivado desde el original el 4 de diciembre de 2022.
  20. ^ Bostrom, Nick (2014). Superinteligencia: caminos, peligros, estrategias (Primera edición). Oxford University Press. ISBN 978-0199678112.
  21. ^ Bostrom, Nick ; Yudkowsky, Eliezer (2011). "La ética de la inteligencia artificial" (PDF) . Cambridge Handbook of Artificial Intelligence . Cambridge Press . Archivado desde el original (PDF) el 2016-03-04 . Consultado el 2011-06-28 .
  22. ^ ab Santos-Lang, Chris (2002). "Ética para las inteligencias artificiales". Archivado desde el original el 3 de diciembre de 2011.
  23. ^ Santos-Lang, Christopher (2014). "Enfoques de la ecología moral para la ética de las máquinas" (PDF) . En van Rysewyk, Simon; Pontier, Matthijs (eds.). Ética médica de las máquinas . Sistemas inteligentes, control y automatización: ciencia e ingeniería. Vol. 74. Suiza: Springer. págs. 111–127. doi :10.1007/978-3-319-08108-3_8. ISBN . 978-3-319-08107-6.
  24. ^ ab Fox, Stuart (18 de agosto de 2009). "Los robots en evolución aprenden a mentirse unos a otros". Popular Science .
  25. ^ Markoff, John (25 de julio de 2009). "Los científicos temen que las máquinas puedan ser más inteligentes que el hombre". New York Times .
  26. ^ Palmer, Jason (3 de agosto de 2009). "Llamado al debate sobre los robots asesinos". BBC News .
  27. ^ Ciencia Nuevo informe financiado por la Marina advierte sobre robots de guerra que se convertirán en "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  28. ^ Flatley, Joseph L. (18 de febrero de 2009). "Un informe de la Marina advierte de un levantamiento de robots y sugiere una fuerte brújula moral". Engadget .
  29. ^ Estudio del Panel Presidencial de la AAAI sobre el Futuro de la IA a Largo Plazo 2008-2009, Asociación para el Avance de la Inteligencia Artificial, consultado el 26/7/09.
  30. ^ Sotala, Kaj; Yampolskiy, Roman V (19 de diciembre de 2014). "Respuestas al riesgo catastrófico de IAG: una encuesta". Physica Scripta . 90 (1): 8. doi : 10.1088/0031-8949/90/1/018001 . ISSN  0031-8949.
  31. ^ ab Crawford, Kate (25 de junio de 2016). "El problema de los hombres blancos en la inteligencia artificial". The New York Times .
  32. ^ abc Julia Angwin ; Surya Mattu; Jeff Larson; Lauren Kircher (23 de mayo de 2016). "Sesgo de las máquinas: se utiliza software en todo el país para predecir futuros criminales. Y está sesgado contra los negros". ProPublica .
  33. ^ Thomas, C.; Nunez, A. (2022). "Automatización de la discreción judicial: cómo las evaluaciones algorítmicas de riesgos en las sentencias previas al juicio violan los derechos de protección igualitaria sobre la base de la raza". Derecho y desigualdad . 40 (2): 371–407. doi : 10.24926/25730037.649 .
  34. ^ Oficina Ejecutiva del Presidente (mayo de 2016). "Big Data: Un informe sobre sistemas algorítmicos, oportunidades y derechos civiles" (PDF) . Casa Blanca de Obama.
  35. ^ "Grandes riesgos, grandes oportunidades: la intersección de los macrodatos y los derechos civiles". Casa Blanca de Obama. 4 de mayo de 2016.
  36. ^ ab "Cómo prevenir resultados discriminatorios en el aprendizaje automático". Foro Económico Mundial . 12 de marzo de 2018 . Consultado el 11 de diciembre de 2018 .
  37. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). "Inteligencia artificial basada en principios: mapeo del consenso en enfoques éticos y basados ​​en derechos para los principios de la IA". Serie de documentos de trabajo de la SSRN . doi :10.2139/ssrn.3518482. ISSN  1556-5068. S2CID  214464355.
  38. ^ Jobín, Anna; Ienca, Marcello; Vayena, Effy (2019). "El panorama global de las directrices éticas de la IA". Inteligencia de la máquina de la naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi : 10.1038/s42256-019-0088-2 . ISSN  2522-5839. S2CID  201827642.
  39. ^ Anderson, Susan Leigh (2011): La inaceptabilidad de las tres leyes de la robótica de Asimov como base para la ética de las máquinas. En: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. Nueva York: Oxford University Press. pp.285–296. ISBN 9780511978036 
  40. ^ Powers, Thomas M. (2011): Perspectivas para una máquina kantiana. En: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. Nueva York: Oxford University Press. pp.464–475.
  41. ^ Muehlhauser, Luke, Helm, Louie (2012): Explosión de inteligencia y ética de las máquinas.
  42. ^ Yudkowsky, Eliezer (2004): Volición extrapolada coherente.
  43. ^ Guarini, Marcello (2011): Modelado neuronal computacional y filosofía de la ética. Reflexiones sobre el debate entre particularismo y generalismo. En: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. Nueva York: Oxford University Press. pp.316–334.
  44. ^ Hibbard, Bill (2014). "Inteligencia artificial ética". arXiv : 1411.1373 [cs.AI].
  45. ^ McLaren, Bruce M. (2003). "Definición extensional de principios y casos en ética: un modelo de IA". Inteligencia artificial . 150 (1–2): 145–181. doi :10.1016/S0004-3702(03)00135-8. S2CID  11588399.
  46. ^ Wakefield, Jane (24 de marzo de 2016). «A un chatbot de Microsoft se le enseña a decir palabrotas en Twitter». BBC News . Consultado el 17 de abril de 2016 .
  47. ^ Nazaretyan, A. (2014). AH Eden, JH Moor, JH Søraker y E. Steinhart (eds): Hipótesis de singularidad: una evaluación científica y filosófica. Mentes y máquinas, 24(2), pp.245–248.
  48. ^ D'Amato, Kristian (9 de abril de 2024). "ChatGPT: hacia la subjetividad de la IA". AI & Society . doi : 10.1007/s00146-024-01898-z . ISSN  0951-5666.
  49. ^ Brundage, Miles; Winterton, Jamie (17 de marzo de 2015). "Chappie y el futuro de las máquinas morales". Slate . Consultado el 30 de octubre de 2019 .
  50. ^ Asimov, Isaac (2008). Yo, robot . Nueva York: Bantam. ISBN 978-0-553-38256-3.
  51. ^ Ganascia, Jean-Gabriel. "Formalización de sistemas éticos utilizando lógicas no monótonas". Actas de la Reunión Anual de la Sociedad de Ciencias Cognitivas. Vol. 29. Núm. 29. 2007.

Referencias

Lectura adicional

Enlaces externos