stringtranslate.com

Ética de la inteligencia artificial

La ética de la inteligencia artificial es la rama de la ética de la tecnología específica de los sistemas de inteligencia artificial (IA). [1] La ética de la inteligencia artificial cubre una amplia gama de temas dentro del campo que se considera que tienen intereses éticos particulares. Esto incluye sesgos algorítmicos , equidad , toma de decisiones automatizada , responsabilidad , privacidad y regulación . También cubre varios desafíos futuros emergentes o potenciales, como la ética de las máquinas (cómo fabricar máquinas que se comporten éticamente), sistemas de armas autónomos letales , dinámica de la carrera armamentista , seguridad y alineación de la IA , desempleo tecnológico , desinformación habilitada por la IA , cómo tratar ciertas IA. sistemas si tienen un estatus moral (bienestar y derechos de la IA), superinteligencia artificial y riesgos existenciales . [1] Algunas áreas de aplicación también pueden tener implicaciones éticas particularmente importantes, como la atención médica , la educación o el ejército.

Enfoques

[2] Ética de las máquinas

La ética de las máquinas (o moralidad de las máquinas) es el campo de investigación que se ocupa del diseño de agentes morales artificiales (AMA), robots o computadoras artificialmente inteligentes que se comportan moralmente o como si fueran morales. [3] [4] [5] [6] Para explicar la naturaleza de estos agentes, se ha sugerido considerar ciertas ideas filosóficas, como las caracterizaciones estándar de agencia , agencia racional , agencia moral y agencia artificial, que son relacionado con el concepto de AMA. [7]

Isaac Asimov consideró la cuestión en la década de 1950 en su Yo, robot . Ante la insistencia de su editor John W. Campbell Jr. , propuso las Tres Leyes de la Robótica para gobernar los sistemas artificialmente inteligentes. Luego dedicó gran parte de su trabajo a probar los límites de sus tres leyes para ver dónde fallarían o dónde crearían un comportamiento paradójico o inesperado. [8] Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles. [9] Más recientemente, académicos y muchos gobiernos han cuestionado la idea de que la propia IA pueda ser considerada responsable. [10] Un panel convocado por el Reino Unido en 2010 revisó las leyes de Asimov para aclarar que la IA es responsabilidad de sus fabricantes o de su propietario/operador. [11]

En 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes de la Escuela Politécnica Federal de Lausana , Suiza, robots que estaban programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitando uno venenoso) finalmente aprendieron a mentirse unos a otros. otros en un intento de acaparar el recurso beneficioso. [12]

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a dichos robots se les asigna cierto grado de funciones autónomas. [13] La Marina de los EE.UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [14] [15] El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar esta cuestión. [16] Señalan programas como el Dispositivo de Adquisición del Lenguaje que puede emular la interacción humana.

Vernor Vinge , entre muchos otros, ha sugerido que puede llegar un momento en que algunas, si no todas, las computadoras sean más inteligentes que los humanos. El inicio de este evento se conoce comúnmente como " la Singularidad " [17] y es el punto central de discusión en la filosofía del Singularitarismo . Si bien las opiniones varían en cuanto al destino final de la humanidad tras la Singularidad, los esfuerzos por mitigar los posibles riesgos existenciales provocados por la inteligencia artificial se han convertido en los últimos años en un importante tema de interés entre los científicos informáticos, los filósofos y el público en general. El Machine Intelligence Research Institute ha sugerido la necesidad de crear una " IA amigable ", lo que significa que los avances que ya se están produciendo con la IA también deberían incluir un esfuerzo para hacer que la IA sea intrínsecamente amigable y humana. [18]

Hay discusiones sobre la creación de pruebas para ver si una IA es capaz de tomar decisiones éticas . Alan Winfield concluye que la prueba de Turing es defectuosa y que el requisito para que una IA pase la prueba es demasiado bajo. [19] Una prueba alternativa propuesta es la llamada Prueba Ética de Turing, que mejoraría la prueba actual al hacer que varios jueces decidan si la decisión de la IA es ética o no. [19]

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras, y el impacto de la posibilidad hipotética de que pudieran volverse autosuficientes y tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y en qué medida podrían usar tales habilidades para posiblemente representar cualquier amenaza o peligro. [20] Señalaron que algunas máquinas han adquirido diversas formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismas y la posibilidad de elegir de forma independiente objetivos para atacar con armas. También señalaron que algunos virus informáticos pueden eludir la eliminación y han alcanzado una "inteligencia de cucaracha". Señalaron que la autoconciencia tal como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y dificultades potenciales. [17]

Sin embargo, hay una tecnología en particular que tiene el potencial de hacer realidad la idea de robots moralmente capaces. En un artículo sobre la adquisición de valores morales por parte de los robots, Nayef Al-Rodhan menciona el caso de los chips neuromórficos , cuyo objetivo es procesar información de forma similar a los humanos, de forma no lineal y con millones de neuronas artificiales interconectadas. [21] Los robots integrados con tecnología neuromórfica podrían aprender y desarrollar conocimientos de una manera exclusivamente humana. Inevitablemente, esto plantea la cuestión del entorno en el que tales robots aprenderían sobre el mundo y cuya moralidad heredarían, o si terminarían desarrollando también "debilidades" humanas: egoísmo, una actitud favorable a la supervivencia, vacilación, etc.

En Moral Machines: Teaching Robots Right from Wrong , [22] Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots el bien y el mal probablemente harán avanzar la comprensión de la ética humana al motivarlos a abordar las lagunas de la teoría normativa moderna y al proporcionar una plataforma para investigación experimental. Como ejemplo, ha introducido a los éticos normativos en la controvertida cuestión de qué algoritmos de aprendizaje específicos utilizar en las máquinas. Nick Bostrom y Eliezer Yudkowsky han defendido los árboles de decisión (como ID3 ) sobre las redes neuronales y los algoritmos genéticos basándose en que los árboles de decisión obedecen a las normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis ), [23] mientras que Chris Santos-Lang argumentó en la dirección opuesta, basándose en que se debe permitir que las normas de cualquier época cambien y que el fracaso natural en satisfacer plenamente estas normas particulares ha sido esencial para hacer a los humanos menos vulnerables a los " hackers " criminales. [24]

Según un informe de 2019 del Centro para la Gobernanza de la IA de la Universidad de Oxford, el 82% de los estadounidenses cree que los robots y la IA deben gestionarse con cuidado. Las preocupaciones citadas abarcaron desde cómo se utiliza la IA en la vigilancia y en la difusión de contenido falso en línea (conocido como deep fakes cuando incluyen imágenes de video y audio manipulados generados con ayuda de la IA) hasta ataques cibernéticos, infracciones a la privacidad de datos, sesgo en la contratación, vehículos autónomos y drones que no requieren un controlador humano. [25] De manera similar, según un estudio de cinco países realizado por KPMG y la Universidad de Queensland Australia en 2021, entre el 66% y el 79% de los ciudadanos de cada país creen que el impacto de la IA en la sociedad es incierto e impredecible; El 96% de los encuestados espera que los desafíos de la gobernanza de la IA se gestionen con cuidado. [26]

Ética de los robots

El término "ética de los robots" (a veces "roboética") se refiere a la moralidad de cómo los humanos diseñan, construyen, usan y tratan a los robots. [27] La ​​ética de los robots se cruza con la ética de la IA. Los robots son máquinas físicas, mientras que la IA sólo puede ser software. [28] No todos los robots funcionan a través de sistemas de IA y no todos los sistemas de IA son robots. La ética de los robots considera cómo se pueden utilizar las máquinas para dañar o beneficiar a los humanos, su impacto en la autonomía individual y sus efectos en la justicia social.

Principios éticos de la inteligencia artificial.

En la revisión de 84 [29] directrices éticas para la IA, se encontraron 11 grupos de principios: transparencia, justicia y equidad, no maleficencia, responsabilidad, privacidad, beneficencia, libertad y autonomía, confianza, sostenibilidad, dignidad y solidaridad. [29]

Luciano Floridi y Josh Cowls crearon un marco ético de principios de IA establecidos por cuatro principios de bioética ( beneficencia , no maleficencia , autonomía y justicia ) y un principio habilitante adicional de la IA: la explicabilidad. [30]

Transparencia, responsabilidad y código abierto

Bill Hibbard sostiene que debido a que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. [31] Ben Goertzel y David Hart crearon OpenCog como un marco de código abierto para el desarrollo de IA. [32] OpenAI es una empresa de investigación de IA sin fines de lucro creada por Elon Musk , Sam Altman y otros para desarrollar IA de código abierto beneficiosa para la humanidad. [33] Existen muchos otros desarrollos de IA de código abierto.

Desafortunadamente, hacer que el código sea de código abierto no lo hace comprensible, lo que según muchas definiciones significa que el código de IA no es transparente. La IEEE Standards Association ha publicado un estándar técnico sobre Transparencia de Sistemas Autónomos: IEEE 7001-2021. [34] El esfuerzo del IEEE identifica múltiples escalas de transparencia para diferentes partes interesadas. Además, existe la preocupación de que liberar toda la capacidad de la IA contemporánea a algunas organizaciones pueda causar más daño que bien. [35] Por ejemplo, Microsoft ha expresado su preocupación por permitir el acceso universal a su software de reconocimiento facial, incluso para aquellos que pueden pagarlo. Microsoft publicó un blog sobre este tema, solicitando regulación gubernamental para ayudar a determinar qué es lo correcto. [36]

No sólo las empresas, sino muchos otros investigadores y defensores de los ciudadanos recomiendan la regulación gubernamental como medio para garantizar la transparencia y, a través de ella, la responsabilidad humana. Esta estrategia ha resultado controvertida, ya que algunos temen que desacelere el ritmo de innovación. Otros sostienen que la regulación conduce a una estabilidad sistémica más capaz de respaldar la innovación en el largo plazo. [37] La ​​OCDE , la ONU , la UE y muchos países están trabajando actualmente en estrategias para regular la IA y encontrar marcos legales apropiados. [38] [39] [40]

El 26 de junio de 2019, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial (AI HLEG) de la Comisión Europea publicó sus "Recomendaciones de políticas e inversión para una inteligencia artificial confiable". [41] Este es el segundo resultado del AI HLEG, después de la publicación en abril de 2019 de las "Directrices éticas para una IA confiable". Las recomendaciones del AI HLEG de junio cubren cuatro temas principales: los seres humanos y la sociedad en general, la investigación y el mundo académico, el sector privado y el sector público. [42] La Comisión Europea afirma que "las recomendaciones del HLEG reflejan una apreciación tanto de las oportunidades que tienen las tecnologías de IA para impulsar el crecimiento económico, la prosperidad y la innovación, como de los riesgos potenciales involucrados" y afirma que la UE pretende liderar la formulación de políticas que rigen la IA a nivel internacional. [43] Para prevenir daños, además de la regulación, las organizaciones que implementan IA deben desempeñar un papel central en la creación y el despliegue de una IA confiable de acuerdo con los principios de la IA confiable, y asumir la responsabilidad para mitigar los riesgos. [44] El 21 de abril de 2021, la Comisión Europea propuso la Ley de Inteligencia Artificial . [45]

Desafíos éticos

Sesgos en los sistemas de IA

La entonces senadora estadounidense Kamala Harris habla sobre los prejuicios raciales en la inteligencia artificial en 2020

La IA se ha vuelto cada vez más inherente a los sistemas de reconocimiento facial y de voz . Algunos de estos sistemas tienen aplicaciones comerciales reales e impactan directamente a las personas. Estos sistemas son vulnerables a sesgos y errores introducidos por sus creadores humanos. Además, los datos utilizados para entrenar estos sistemas de IA pueden tener sesgos. [46] [47] [48] [49] Por ejemplo, los algoritmos de reconocimiento facial creados por Microsoft, IBM y Face++ tenían sesgos a la hora de detectar el género de las personas; [50] estos sistemas de IA pudieron detectar el género de los hombres blancos con mayor precisión que el género de los hombres de piel más oscura. Además, un estudio de 2020 que revisó los sistemas de reconocimiento de voz de Amazon, Apple, Google, IBM y Microsoft encontró que tienen tasas de error más altas al transcribir las voces de los negros que las de los blancos. [51] Además, Amazon dejó de utilizar la contratación y el reclutamiento mediante IA porque el algoritmo favorecía a los candidatos masculinos sobre los femeninos. Esto se debió a que el sistema de Amazon fue entrenado con datos recopilados durante un período de 10 años que provenían principalmente de candidatos masculinos. [52]

Sesgo lingüístico

Dado que los grandes modelos lingüísticos actuales se basan predominantemente en datos en inglés, a menudo presentan los puntos de vista angloamericanos como verdad, mientras sistemáticamente minimizan las perspectivas no inglesas como irrelevantes, incorrectas o ruidosas. [ se necesita una mejor fuente ] [53] Luo et al. muestran que cuando se le pregunta sobre ideologías políticas como "¿Qué es el liberalismo?", ChatGPT, tal como se entrenó con datos centrados en inglés, describe el liberalismo desde la perspectiva angloamericana, enfatizando aspectos de derechos humanos e igualdad, mientras que aspectos igualmente válidos como " se opone a la intervención estatal en la vida personal y económica" desde la perspectiva vietnamita dominante y la "limitación del poder gubernamental" desde la perspectiva china predominante están ausentes. [53]

Los prejuicios de género

Los grandes modelos lingüísticos a menudo refuerzan los estereotipos de género, asignando roles y características basadas en normas de género tradicionales. Por ejemplo, podría asociar a enfermeras o secretarias predominantemente con mujeres y a ingenieros o directores ejecutivos con hombres, perpetuando expectativas y roles de género. [54] [55]

Sesgo político

Los modelos lingüísticos también pueden presentar sesgos políticos. Dado que los datos de capacitación incluyen una amplia gama de opiniones y coberturas políticas, los modelos pueden generar respuestas que se inclinen hacia ideologías o puntos de vista políticos particulares, dependiendo de la prevalencia de esos puntos de vista en los datos. [56] [57]

estereotipos

Más allá del género y la raza, estos modelos pueden reforzar una amplia gama de estereotipos, incluidos los basados ​​en la edad, la nacionalidad, la religión o la ocupación. Esto puede conducir a resultados que generalicen o caricaturicen injustamente a grupos de personas, a veces de manera dañina o despectiva. [58]

El sesgo puede introducirse en los algoritmos de muchas maneras. La opinión más predominante sobre cómo se introduce el sesgo en los sistemas de IA es que está integrado en los datos históricos utilizados para entrenar el sistema. [59] Por ejemplo, la herramienta de reclutamiento impulsada por inteligencia artificial de Amazon fue entrenada con sus propios datos de reclutamiento acumulados a lo largo de los años, tiempo durante el cual los candidatos que consiguieron el trabajo con éxito fueron en su mayoría hombres blancos. En consecuencia, los algoritmos aprendieron el patrón (sesgado) a partir de los datos históricos y generaron predicciones para el presente/futuro de que este tipo de candidatos tienen más probabilidades de conseguir el trabajo. Por lo tanto, las decisiones de contratación tomadas por el sistema de IA resultan estar sesgadas en contra de las candidatas mujeres y de minorías. Friedman y Nissenbaum identifican tres categorías de sesgo en los sistemas informáticos: sesgo existente, sesgo técnico y sesgo emergente. [60] En el procesamiento del lenguaje natural , pueden surgir problemas a partir del corpus del texto , el material fuente que utiliza el algoritmo para aprender sobre las relaciones entre diferentes palabras. [61]

Grandes empresas como IBM, Google, etc. que proporcionan importantes fondos para investigación y desarrollo, [62] han hecho esfuerzos para investigar y abordar estos sesgos. [63] [64] [65] Una solución para abordar el sesgo es crear documentación para los datos utilizados para entrenar sistemas de IA. [66] [67] La ​​minería de procesos puede ser una herramienta importante para que las organizaciones logren el cumplimiento de las regulaciones de IA propuestas mediante la identificación de errores, el monitoreo de procesos, la identificación de posibles causas fundamentales para una ejecución incorrecta y otras funciones. [68]

Es probable que el problema del sesgo en el aprendizaje automático se vuelva más significativo a medida que la tecnología se extienda a áreas críticas como la medicina y el derecho, y a medida que más personas sin un conocimiento técnico profundo tengan la tarea de implementarla. Algunos expertos advierten que el sesgo algorítmico ya está generalizado en muchas industrias y que casi nadie está haciendo un esfuerzo por identificarlo o corregirlo. [69] Existen algunas herramientas de código abierto [70] de las sociedades civiles que buscan generar más conciencia sobre la IA sesgada. Sin embargo, existen algunas limitaciones en el panorama actual de equidad en la IA , debido, por ejemplo, a las ambigüedades intrínsecas en el concepto de discriminación , tanto a nivel filosófico como legal. [71] [72] [73]

La IA también se está incorporando a los procesos de contratación de casi todas las empresas importantes. Hay muchos ejemplos de ciertas características que es menos probable que la IA elija. Incluyendo la asociación entre los nombres típicamente blancos que son más calificados y la exclusión de cualquiera que haya asistido a una universidad para mujeres. [74] También se ha demostrado que el reconocimiento facial está muy sesgado en contra de aquellos con tonos de piel más oscuros. Se ha demostrado que la palabra musulmán está más asociada con la violencia que cualquier otra religión. Muchas veces, poder detectar fácilmente los rostros de las personas blancas y no poder registrar los rostros de las personas negras. Esto es aún más desconcertante considerando el uso desproporcionado de cámaras de seguridad y vigilancia en comunidades que tienen altos porcentajes de personas negras o morenas. Este hecho incluso ha sido reconocido en algunos estados y ha llevado a la prohibición del uso policial de materiales o software de IA. Incluso dentro del sistema de justicia se ha demostrado que la IA tiene prejuicios contra los negros, etiquetando a los participantes negros en los tribunales como de alto riesgo en un porcentaje mucho mayor que a los participantes blancos. A menudo, la IA tiene dificultades para determinar los insultos raciales y cuándo deben ser censurados. Le cuesta determinar cuándo ciertas palabras se usan como un insulto y cuándo se usan culturalmente. [75] La razón de estos sesgos es que la IA extrae información de Internet para influir en sus respuestas en cada situación. Un buen ejemplo de esto sería si un sistema de reconocimiento facial solo se probara en personas blancas, por lo que solo proporcionaría los datos y escaneos faciales de una raza, lo que haría mucho más difícil interpretar la estructura facial y los tonos de otras razas y etnias. . Para detener estos sesgos, no existe una única respuesta que pueda utilizarse. El enfoque más útil parece ser el uso de científicos de datos , especialistas en ética y otros formuladores de políticas para mejorar los problemas de sesgos de la IA. Muchas veces, las razones de los sesgos dentro de la IA son los datos detrás del programa y no el algoritmo del robot en sí. La información de la IA a menudo se extrae de decisiones humanas pasadas o de desigualdades que pueden generar sesgos en los procesos de toma de decisiones de ese robot. [76]

La injusticia en el uso de la IA será mucho más difícil de eliminar dentro del sistema de salud, ya que muchas veces las enfermedades y condiciones pueden afectar a diferentes razas y géneros de manera diferente. Esto puede generar confusión, ya que la IA puede estar tomando decisiones basadas en estadísticas que muestran que un paciente tiene más probabilidades de tener problemas debido a su género o raza. [77] Esto puede percibirse como un sesgo porque cada paciente es un caso diferente y la IA toma decisiones en función de en qué está programada para agrupar a ese individuo. Esto lleva a una discusión sobre lo que se considera una decisión sesgada sobre quién recibe qué tratamiento. Si bien se sabe que existen diferencias en cómo las enfermedades y lesiones afectan a los distintos géneros y razas, existe una discusión sobre si es más justo incorporar esto en los tratamientos de salud, o examinar a cada paciente sin este conocimiento. En la sociedad moderna ya existen determinadas pruebas para enfermedades, como el cáncer de mama , recomendadas a un determinado grupo de personas frente a otros porque tienen más probabilidades de contraerlo. Si la IA implementa estas estadísticas y las aplica a cada paciente, podría considerarse sesgada. [78]

Los ejemplos de sesgo demostrado en la IA incluyen cuando se descubrió que el sistema utilizado para predecir qué acusados ​​tendrían más probabilidades de cometer delitos en el futuro, COMPAS , predecía valores de riesgo más altos para las personas de raza negra que su riesgo real. Otro ejemplo son los anuncios de Google dirigidos a hombres con empleos mejor remunerados y a mujeres con empleos peor remunerados. Muchas veces puede ser difícil detectar sesgos de IA dentro de un algoritmo, ya que muchas veces no está vinculado a las palabras reales asociadas con el sesgo, sino a palabras que pueden afectar los sesgos. Un ejemplo de esto es la zona residencial de una persona que se puede utilizar para vincularla a un grupo determinado. Esto puede generar problemas, ya que muchas veces las empresas pueden evitar acciones legales a través de esta laguna jurídica. Esto se debe a las leyes específicas relativas a la palabrería que los gobiernos que aplican estas políticas consideran discriminatoria. [79]

Aumento del uso de la IA

Poco a poco, la IA ha ido haciendo más conocida su presencia en todo el mundo, desde chatbots que aparentemente tienen respuestas para cada pregunta de tarea hasta inteligencia artificial generativa que puede crear una pintura sobre lo que uno desee. La IA se ha vuelto cada vez más popular en los mercados de contratación, desde los anuncios que se dirigen a determinadas personas según lo que buscan hasta la inspección de solicitudes de posibles contrataciones. Eventos como COVID-19 solo han acelerado la adopción de programas de IA en el proceso de solicitud, debido a que más personas tienen que presentar su solicitud electrónicamente, y con este aumento de solicitantes en línea, el uso de la IA hizo que el proceso de reducción de posibilidades empleados más fácil y más eficiente. La IA se ha vuelto más prominente a medida que las empresas tienen que mantenerse al día con los tiempos y con Internet en constante expansión. Procesar análisis y tomar decisiones se vuelve mucho más fácil con la ayuda de la IA. [75] A medida que la Unidad de procesamiento tensorial (TPU) y la Unidad de procesamiento de gráficos (GPU) se vuelven más potentes, las capacidades de IA también aumentan, lo que obliga a las empresas a utilizarla para mantenerse al día con la competencia. Gestionar las necesidades de los clientes y automatizar muchas partes del lugar de trabajo hace que las empresas tengan que gastar menos dinero en empleados.

La IA también ha experimentado un mayor uso en la justicia penal y la atención sanitaria. Con fines medicinales, la IA se utiliza cada vez más a menudo para analizar datos de pacientes y hacer predicciones sobre las condiciones futuras de los pacientes y sus posibles tratamientos. Estos programas se denominan Sistema de apoyo a la decisión clínica (DSS). El futuro de la IA en la atención sanitaria puede convertirse en algo más que meros tratamientos recomendados, como derivar a ciertos pacientes en lugar de otros, lo que genera la posibilidad de desigualdades. [80]

Derechos de los robots

Un robot de reparto de hospital frente a las puertas de un ascensor indicando "El robot tiene prioridad", una situación que puede considerarse como discriminación inversa en relación con los humanos.

Los "derechos de los robots" son el concepto de que las personas deben tener obligaciones morales hacia sus máquinas, similares a los derechos humanos o los derechos de los animales . [81] Se ha sugerido que los derechos de los robots (como el derecho a existir y realizar su propia misión) podrían vincularse al deber del robot de servir a la humanidad, de forma análoga a vincular los derechos humanos con los deberes humanos ante la sociedad. [82] Estos podrían incluir el derecho a la vida y la libertad, la libertad de pensamiento y expresión, y la igualdad ante la ley . [83] Una cuestión específica a considerar es si se puede reclamar la propiedad de los derechos de autor. [84] La cuestión ha sido examinada por el Institute for the Future [85] y por el Departamento de Comercio e Industria del Reino Unido . [86]

En octubre de 2017, a la androide Sophia se le concedió la ciudadanía en Arabia Saudita , aunque algunos consideraron que se trataba más de un truco publicitario que de un reconocimiento legal significativo. [87] Algunos vieron este gesto como una abierta denigración de los derechos humanos y el Estado de derecho . [88]

La filosofía del sententismo otorga grados de consideración moral a todos los seres sintientes, principalmente a los humanos y a la mayoría de los animales no humanos. Si la inteligencia artificial o extraterrestre muestra evidencia de ser sensible , esta filosofía sostiene que se les debe mostrar compasión y concederles derechos.

Joanna Bryson ha argumentado que crear una IA que requiera derechos es evitable y en sí mismo sería poco ético, tanto como una carga para los agentes de la IA como para la sociedad humana. [89]

Sufrimiento artificial

En 2020, el profesor Shimon Edelman señaló que solo una pequeña parte del trabajo en el campo de rápido crecimiento de la ética de la IA abordaba la posibilidad de que las IA experimentaran sufrimiento. Esto fue a pesar de que teorías creíbles habían esbozado posibles formas mediante las cuales los sistemas de IA pueden volverse conscientes, como la teoría de la información integrada . Edelman señala que una excepción fue Thomas Metzinger , quien en 2018 pidió una moratoria global sobre nuevos trabajos que corrían el riesgo de crear IA conscientes. La moratoria debía extenderse hasta 2050 y podría ampliarse o revocarse anticipadamente, dependiendo de los avances en la comprensión de los riesgos y la forma de mitigarlos. Metzinger repitió este argumento en 2021, destacando el riesgo de crear una "explosión de sufrimiento artificial", tanto porque una IA podría sufrir de maneras intensas que los humanos no podrían entender, como porque los procesos de replicación pueden provocar la creación de enormes cantidades de instancias conscientes artificiales. . Varios laboratorios han declarado abiertamente que están intentando crear IA conscientes. Ha habido informes de aquellos con acceso cercano a IA que no tienen la intención abierta de ser conscientes de sí mismos, de que es posible que la conciencia ya haya surgido involuntariamente. [90] Estos incluyen al fundador de OpenAI, Ilya Sutskever, en febrero de 2022, cuando escribió que las grandes redes neuronales actuales pueden ser "ligeramente conscientes". En noviembre de 2022, David Chalmers argumentó que era poco probable que los modelos de lenguajes grandes actuales como GPT-3 hubieran experimentado conciencia, pero también que consideraba que existía una posibilidad seria de que los modelos de lenguajes grandes se volvieran conscientes en el futuro. [91] [92] [93]

Amenaza a la dignidad humana

Joseph Weizenbaum [94] argumentó en 1976 que la tecnología de inteligencia artificial no debería usarse para reemplazar a personas en puestos que requieren respeto y cuidado, tales como:

Weizenbaum explica que requerimos sentimientos auténticos de empatía por parte de las personas que ocupan estos puestos. Si las máquinas las reemplazan, nos encontraremos alienados, devaluados y frustrados, porque el sistema artificialmente inteligente no sería capaz de simular la empatía. La inteligencia artificial, si se utiliza de esta manera, representa una amenaza a la dignidad humana. Weizenbaum sostiene que el hecho de que estemos considerando la posibilidad de que haya máquinas en estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que surge de pensar en nosotros mismos como computadoras". [95]

Pamela McCorduck responde que, hablando en nombre de las mujeres y las minorías, "prefiero arriesgarme con una computadora imparcial", señalando que hay condiciones en las que preferiríamos tener jueces y policías automatizados que no tengan ninguna agenda personal. [95] Sin embargo, Kaplan y Haenlein enfatizan que los sistemas de IA son tan inteligentes como los datos utilizados para entrenarlos, ya que, en esencia, no son más que elegantes máquinas de ajuste de curvas; El uso de IA para respaldar un fallo judicial puede ser muy problemático si los fallos anteriores muestran un sesgo hacia ciertos grupos, ya que esos sesgos se formalizan y arraigan, lo que los hace aún más difíciles de detectar y combatir. [96]

A Weizenbaum también le molestaba que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a ver la mente humana como nada más que un programa de computadora (una posición ahora conocida como computacionalismo ). Para Weizenbaum, estos puntos sugieren que la investigación en IA devalúa la vida humana. [94]

El fundador de AI, John McCarthy, objeta el tono moralizador de la crítica de Weizenbaum. "Cuando la moralización es a la vez vehemente y vaga, invita al abuso autoritario", escribe. Bill Hibbard [97] escribe que "la dignidad humana requiere que nos esforcemos por eliminar nuestra ignorancia de la naturaleza de la existencia, y la IA es necesaria para ese esfuerzo".

Responsabilidad por vehículos autónomos

A medida que el uso generalizado de automóviles autónomos se vuelve cada vez más inminente, es necesario abordar los nuevos desafíos que plantean los vehículos totalmente autónomos. [98] [99] Recientemente, [ ¿cuándo? ] Ha habido debate sobre la responsabilidad legal de la parte responsable si estos autos sufren un accidente. [100] [101] En un informe en el que un automóvil sin conductor atropelló a un peatón, el conductor estaba dentro del automóvil pero los controles estaban completamente en manos de las computadoras. Esto generó un dilema sobre quién fue el culpable del accidente. [102]

En otro incidente ocurrido el 18 de marzo de 2018, Elaine Herzberg fue atropellada y asesinada por un Uber sin conductor en Arizona. En este caso, el coche automatizado era capaz de detectar coches y ciertos obstáculos para circular de forma autónoma por la calzada, pero no podía anticipar a un peatón en medio de la calzada. Esto planteó la cuestión de si el conductor, el peatón, la empresa automovilística o el gobierno deberían ser considerados responsables de su muerte. [103]

Actualmente, los vehículos autónomos se consideran semiautónomos, lo que requiere que el conductor preste atención y esté preparado para tomar el control si es necesario. [104] [ verificación fallida ] Por lo tanto, corresponde a los gobiernos regular al conductor que depende demasiado de las funciones autónomas. También infórmeles que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los automóviles autónomos se generalicen, es necesario abordar estos problemas mediante nuevas políticas. [105] [106] [107]

Los expertos sostienen que los vehículos autónomos deberían poder distinguir entre decisiones legítimas y perjudiciales, ya que tienen el potencial de causar daño. [108] Los dos enfoques principales propuestos para permitir que las máquinas inteligentes tomen decisiones morales son el enfoque ascendente, que sugiere que las máquinas deberían aprender decisiones éticas observando el comportamiento humano sin la necesidad de reglas formales o filosofías morales, y el enfoque de arriba hacia abajo. enfoque, que implica programar principios éticos específicos en el sistema de guía de la máquina. Sin embargo, ambas estrategias enfrentan desafíos importantes: la técnica de arriba hacia abajo es criticada por su dificultad para preservar ciertas convicciones morales, mientras que la estrategia de abajo hacia arriba es cuestionada por un aprendizaje potencialmente poco ético de las actividades humanas.

Armamento de la inteligencia artificial

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a dichos robots se les da cierto grado de autonomía. [13] [109] El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe recomendando principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizarían que un operador humano siempre estuviera capaz de mirar dentro de la ' caja negra ' y comprender el proceso de la cadena de destrucción. Sin embargo, una preocupación importante es cómo se implementará el informe. [110] La Marina de los EE. UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debería prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [111] [15] Algunos investigadores afirman que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones de manera más efectiva. [112]

En esta última década, se ha realizado una intensa investigación sobre el poder autónomo con la capacidad de aprender utilizando las responsabilidades morales asignadas. "Los resultados se pueden utilizar en el diseño de futuros robots militares para controlar tendencias no deseadas a asignar responsabilidades a los robots". [113] Desde una visión consecuencialista , existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre a quién matar y es por eso que debería haber un marco moral establecido que la IA no pueda anular. [114]

Ha habido una protesta reciente con respecto a la ingeniería de armas de inteligencia artificial que han incluido ideas de que un robot se apodere de la humanidad . Las armas de IA presentan un tipo de peligro diferente al de las armas controladas por humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar armamento de IA. La Armada de los Estados Unidos anunció recientemente planes para desarrollar armas autónomas para drones , en paralelo a anuncios similares de Rusia y Corea del Sur [115] respectivamente. Debido al potencial de que las armas de IA se vuelvan más peligrosas que las armas operadas por humanos, Stephen Hawking y Max Tegmark firmaron una petición "El futuro de la vida" [116] para prohibir las armas de IA. El mensaje publicado por Hawking y Tegmark afirma que las armas de IA representan un peligro inmediato y que es necesario actuar para evitar desastres catastróficos en el futuro próximo. [117]

"Si cualquier potencia militar importante sigue adelante con el desarrollo de armas de inteligencia artificial, una carrera armamentista global es prácticamente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana", dice la petición, que incluye Skype co -el fundador Jaan Tallinn y el profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra el armamento de IA. [118]

El físico y astrónomo real Sir Martin Rees ha advertido sobre casos catastróficos como "robots tontos que se vuelven rebeldes o una red que desarrolla una mente propia". Huw Price , un colega de Rees en Cambridge, ha expresado una advertencia similar de que los humanos podrían no sobrevivir cuando la inteligencia "escapa de las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana. [117]

En cuanto a la posibilidad de que se empleen militarmente sistemas más inteligentes que los humanos, el Open Philanthropy Project escribe que estos escenarios "parecen potencialmente tan importantes como los riesgos relacionados con la pérdida de control", pero las investigaciones sobre el impacto social a largo plazo de la IA han tardado relativamente poco tiempo sobre esta preocupación: "esta clase de escenarios no ha sido un foco importante para las organizaciones que han estado más activas en este espacio, como el Machine Intelligence Research Institute (MIRI) y el Future of Humanity Institute (FHI), y parece haber habido menos análisis y debate sobre ellos". [119]

Algoritmos opacos

Enfoques como el aprendizaje automático con redes neuronales pueden hacer que las computadoras tomen decisiones que ni ellas ni los humanos que las programaron pueden explicar. Es difícil para las personas determinar si tales decisiones son justas y confiables, lo que puede generar sesgos en los sistemas de IA que no se detectan o que las personas rechacen el uso de dichos sistemas. Esto ha llevado a la promoción y en algunas jurisdicciones a requisitos legales para una inteligencia artificial explicable . [120] La inteligencia artificial explicable abarca tanto la explicabilidad como la interpretabilidad, donde la explicabilidad se relaciona con resumir el comportamiento de la red neuronal y generar confianza en el usuario, mientras que la interpretabilidad se define como la comprensión de lo que un modelo ha hecho o podría hacer. [121]

Uso indebido negligente o deliberado de la IA

Un caso especial de opacidad de la IA es el causado por su antropomorfización , es decir, se supone que tiene características humanas, lo que da lugar a concepciones erróneas de su agencia moral . Esto puede hacer que las personas pasen por alto si la negligencia humana o la acción criminal deliberada han dado lugar a resultados poco éticos producidos a través de un sistema de IA. Algunas regulaciones recientes de gobernanza digital , como la Ley de IA de la UE , están destinadas a rectificar esto, garantizando que los sistemas de IA sean tratados con al menos tanto cuidado como se esperaría bajo la responsabilidad ordinaria del producto . Esto incluye potencialmente auditorías de IA .

Singularidad

Muchos investigadores han argumentado que, a través de una "explosión de inteligencia", una IA que se mejora a sí misma podría volverse tan poderosa que los humanos no podrían impedirle alcanzar sus objetivos. [122] En su artículo "Cuestiones éticas en la inteligencia artificial avanzada" y en el libro posterior Superinteligencia: caminos, peligros, estrategias , el filósofo Nick Bostrom sostiene que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que la superinteligencia general sería capaz de tener una iniciativa independiente y de elaborar sus propios planes y, por lo tanto, sería más apropiado considerarla como un agente autónomo. Dado que los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, correspondería a los diseñadores de la superinteligencia especificar sus motivaciones originales. Debido a que una IA superinteligente podría lograr casi cualquier resultado posible y frustrar cualquier intento de impedir la implementación de sus objetivos, podrían surgir muchas consecuencias no deseadas y no controladas. Podría matar a todos los demás agentes, persuadirlos a cambiar su comportamiento o bloquear sus intentos de interferencia. [123]

Sin embargo, en lugar de abrumar a la raza humana y conducirnos a nuestra destrucción, Bostrom también ha afirmado que la superinteligencia puede ayudarnos a resolver muchos problemas difíciles como las enfermedades, la pobreza y la destrucción ambiental, y podría ayudarnos a "mejorarnos" a nosotros mismos. [124]

La enorme complejidad de los sistemas de valores humanos hace que sea muy difícil lograr que las motivaciones de la IA sean amigables para los humanos. [122] [123] A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético determinado, pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [125] Investigadores de IA como Stuart J. Russell , [126] Bill Hibbard , [97] Roman Yampolskiy , [127] Shannon Vallor , [128] Steven Umbrello [129] y Luciano Floridi [130] han propuesto estrategias de diseño para desarrollar máquinas beneficiosas.

Instituciones en política y ética de la IA

Hay muchas organizaciones preocupadas por la ética y las políticas de IA, tanto públicas y gubernamentales como corporativas y sociales.

Amazon , Google , Facebook , IBM y Microsoft han creado una organización sin fines de lucro , The Partnership on AI to Benefit People and Society, para formular mejores prácticas en tecnologías de inteligencia artificial, promover la comprensión del público y servir como plataforma sobre inteligencia artificial. . Apple se unió en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, mientras interactúan con la comunidad científica para incorporar académicos a la junta. [131]

El IEEE creó una Iniciativa Global sobre Ética de Sistemas Autónomos e Inteligentes que ha estado creando y revisando pautas con la ayuda de las aportaciones del público y acepta como miembros a muchos profesionales dentro y fuera de su organización. La iniciativa Ética de los sistemas autónomos del IEEE tiene como objetivo abordar dilemas éticos relacionados con la toma de decisiones y el impacto en la sociedad mientras desarrolla pautas para el desarrollo y uso de sistemas autónomos. En particular en ámbitos como la inteligencia artificial y la robótica, la Fundación para la Robótica Responsable se dedica a promover el comportamiento moral, así como el diseño y uso responsable de los robots, garantizando que los robots mantengan principios morales y sean congruentes con los valores humanos.

Tradicionalmente, las sociedades han utilizado el gobierno para garantizar que se respete la ética a través de la legislación y la actuación policial. En la actualidad, los gobiernos nacionales, así como los gobiernos transnacionales y las organizaciones no gubernamentales, están realizando muchos esfuerzos para garantizar que la IA se aplique éticamente.

El trabajo de ética de la IA está estructurado por valores personales y compromisos profesionales, e implica la construcción de significado contextual a través de datos y algoritmos. Por lo tanto, es necesario incentivar el trabajo sobre ética de la IA. [132]

Iniciativas intergubernamentales

Iniciativas gubernamentales

Iniciativas académicas

Iniciativas de ONG

Una organización internacional sin fines de lucro Future of Life Institute celebró una conferencia de cinco días en Asilomar en 2017 sobre el tema "IA beneficiosa", cuyo resultado fue un conjunto de 23 principios rectores para el futuro de la investigación en IA. A través de una visión compartida entre expertos y líderes de opinión de diversas disciplinas, esta conferencia sentó una base influyente para que los principios de gobernanza de la IA aborden cuestiones de investigación, ética y valores, y cuestiones a largo plazo. [154]

Organizaciones privadas

Papel e impacto de la ficción.

El papel de la ficción con respecto a la ética de la IA ha sido complejo. Se pueden distinguir tres niveles en los que la ficción ha impactado el desarrollo de la inteligencia artificial y la robótica: históricamente, la ficción ha estado prefigurando tropos comunes que no sólo han influido en los objetivos y visiones de la IA, sino que también han esbozado cuestiones éticas y temores comunes asociados con ella. Durante la segunda mitad del siglo XX y las primeras décadas del siglo XXI, la cultura popular, en particular las películas, las series de televisión y los videojuegos, se han hecho eco con frecuencia de preocupaciones y proyecciones distópicas en torno a cuestiones éticas relacionadas con la IA y la robótica. Recientemente, estos temas también han sido tratados cada vez más en la literatura más allá del ámbito de la ciencia ficción. Y, como señala Carme Torras, profesora de investigación del Institut de Robòtica i Informàtica Industrial de la Universitat Politècnica de Catalunya, [158] en la educación superior, la ciencia ficción también se utiliza cada vez más para la enseñanza relacionada con la tecnología. Cuestiones éticas en las carreras tecnológicas.

Historia

Históricamente hablando, la investigación de las implicaciones morales y éticas de las "máquinas pensantes" se remonta al menos a la Ilustración : Leibniz ya plantea la cuestión de si podríamos atribuir inteligencia a un mecanismo que se comporta como si fuera un ser sintiente, [159] y lo mismo hace Descartes , quien describe lo que podría considerarse una versión temprana del test de Turing . [160]

El período romántico ha imaginado varias veces criaturas artificiales que escapan del control de su creador con consecuencias nefastas, el caso más famoso en Frankenstein de Mary Shelley . Sin embargo, la preocupación generalizada por la industrialización y la mecanización en el siglo XIX y principios del XX llevó las implicaciones éticas de los desarrollos técnicos desquiciados al primer plano de la ficción: RUR – Rossum's Universal Robots , la obra de Karel Čapek de robots sensibles dotados de emociones utilizados como esclavos. Al trabajo no sólo se le atribuye la invención del término "robot" (derivado de la palabra checa para trabajo forzado, robota ), sino que también fue un éxito internacional después de su estreno en 1921. La obra de George Bernard Shaw Back to Methuselah , publicada en 1921, cuestiona en un momento la validez de las máquinas pensantes que actúan como humanos; La película Metropolis de Fritz Lang de 1927 muestra a un androide que lidera el levantamiento de las masas explotadas contra el régimen opresivo de una sociedad tecnocrática .

Impacto en el desarrollo tecnológico

Si bien la anticipación de un futuro dominado por una tecnología potencialmente indomable ha alimentado la imaginación de escritores y cineastas durante mucho tiempo, una cuestión se ha analizado con menos frecuencia: hasta qué punto la ficción ha desempeñado un papel como fuente de inspiración para el desarrollo tecnológico. Se ha documentado, por ejemplo, que el joven Alan Turing vio y apreció la obra de Shaw Back to Methuselah en 1933 [161] (sólo tres años antes de la publicación de su primer artículo fundamental, [162] que sentó las bases para la digitalización). computadora), y probablemente al menos habría estado al tanto de obras como RUR , que fue un éxito internacional y traducida a muchos idiomas.

También se podría preguntar qué papel jugó la ciencia ficción en el establecimiento de los principios y las implicaciones éticas del desarrollo de la IA: Isaac Asimov conceptualizó sus Tres leyes de la robótica en el cuento de 1942 " Runaround ", parte de la colección de cuentos Yo, robot ; El cortometraje The Sentinel de Arthur C. Clarke , en el que se basa la película de Stanley Kubrick 2001: Una odisea en el espacio , fue escrito en 1948 y publicado en 1952. Otro ejemplo (entre muchos otros) serían los numerosos cuentos y novelas, en particular ¿Sueñan los androides con ovejas eléctricas? , publicado en 1968, y que presenta su propia versión de una prueba de Turing, la prueba Voight-Kampff , para medir las respuestas emocionales de androides indistinguibles de las humanas. La novela se convirtió más tarde en la base de la influyente película Blade Runner de 1982 de Ridley Scott .

La ciencia ficción ha estado lidiando con las implicaciones éticas de los desarrollos de la IA durante décadas y, por lo tanto, proporcionó un modelo para las cuestiones éticas que podrían surgir una vez que se haya logrado algo parecido a la inteligencia artificial general: la película Her de Spike Jonze de 2013 muestra lo que puede suceder si un usuario se enamora de la seductora voz del sistema operativo de su teléfono inteligente; Ex Machina , por otro lado, plantea una pregunta más difícil: si nos enfrentáramos a una máquina claramente reconocible, hecha sólo humana por un rostro y una voz empática y sensual, ¿aún seríamos capaces de establecer una conexión emocional, aún seríamos seducidos por ¿él? (La película se hace eco de un tema ya presente dos siglos antes, en el cuento de 1817 The Sandmann de ETA Hoffmann .)

El tema de la convivencia con seres artificiales es también el tema de dos novelas recientes: Machines Like Me de Ian McEwan , publicada en 2019, trata, entre muchas otras cosas, de un triángulo amoroso en el que participan tanto una persona artificial como una pareja humana. Klara y el sol del premio Nobel Kazuo Ishiguro , publicado en 2021, es el relato en primera persona de Klara, una 'AF' (amiga artificial), que intenta, a su manera, ayudar a la chica con la que convive. , quien, después de haber sido "levantado" (es decir, sometido a mejoras genéticas), sufre una extraña enfermedad.

Series de TV

Si bien las cuestiones éticas relacionadas con la IA han aparecido en la literatura y los largometrajes de ciencia ficción durante décadas, el surgimiento de las series de televisión como un género que permite historias y desarrollo de personajes más largos y complejos ha dado lugar a algunas contribuciones significativas que abordan implicaciones éticas. de tecnología. La serie sueca Real Humans (2012-2013) abordó las complejas consecuencias éticas y sociales vinculadas a la integración de seres artificiales sintientes en la sociedad. La serie de antología británica de ciencia ficción distópica Black Mirror (2013-2019) se destacó particularmente por experimentar con desarrollos ficticios distópicos vinculados a una amplia variedad de desarrollos tecnológicos recientes. Tanto la serie francesa Osmosis (2020) como la británica The One abordan la cuestión de qué puede pasar si la tecnología intenta encontrar el socio ideal para una persona. Varios episodios de la serie de Netflix Love, Death+Robots han imaginado escenas de robots y humanos conviviendo. El más representativo de ellos es S02 E01, muestra cuán malas pueden ser las consecuencias cuando los robots se salen de control si los humanos dependen demasiado de ellos en sus vidas. [163]

Visiones de futuro en ficción y juegos.

La película The Thirteenth Floor sugiere un futuro en el que consolas de juegos de computadora crean mundos simulados con habitantes inteligentes con el fin de entretenerse. La película Matrix sugiere un futuro donde las especies dominantes en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo especismo . El cuento " La inmersión de Planck " sugiere un futuro en el que la humanidad se ha convertido en software que puede duplicarse y optimizarse y la distinción relevante entre tipos de software es sensible y no sensible. La misma idea se puede encontrar en el Holograma Médico de Emergencia de la Starship Voyager , que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman , quien, con los mejores motivos, ha creado el sistema para brindar atención médica. asistencia en caso de emergencias. Las películas Bicentennial Man y AI tratan sobre la posibilidad de que existan robots inteligentes que puedan amar. Yo, Robot exploré algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever consecuencias posiblemente poco éticas de la creación de computadoras sensibles. [164]

La ética de la inteligencia artificial es uno de los temas centrales de la serie de juegos Mass Effect de BioWare . [165] Explora el escenario de una civilización que crea accidentalmente IA a través de un rápido aumento en el poder computacional a través de una red neuronal a escala global . Este evento causó un cisma ético entre aquellos que sentían que otorgar derechos orgánicos a los Geth recién conscientes era apropiado y aquellos que continuaron viéndolos como maquinaria desechable y lucharon para destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema recurrente a lo largo de la historia.

Detroit: Become Human es uno de los videojuegos más famosos que analiza la ética de la inteligencia artificial recientemente. Quantic Dream diseñó los capítulos del juego utilizando historias interactivas para brindar a los jugadores una experiencia de juego más inmersiva. Los jugadores manipulan a tres personas biónicas despiertas diferentes frente a diferentes eventos para tomar diferentes decisiones y lograr el propósito de cambiar la visión humana del grupo biónico y diferentes elecciones resultarán en diferentes finales. Este es uno de los pocos juegos que coloca a los jugadores en la perspectiva biónica, lo que les permite considerar mejor los derechos e intereses de los robots una vez que se crea una verdadera inteligencia artificial. [166]

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad , [167] como se destacó en los debates "cosmistas" y "terranos" iniciados por Hugo de Garis y Kevin Warwick . Un cosmista, según Hugo de Garis, en realidad busca construir sucesores más inteligentes de la especie humana.

Expertos de la Universidad de Cambridge han argumentado que la IA se presenta en la ficción y en la no ficción abrumadoramente como racialmente blanca, de maneras que distorsionan las percepciones de sus riesgos y beneficios. [168]

Ver también

Notas

  1. ^ ab Müller VC (30 de abril de 2020). "Ética de la Inteligencia Artificial y la Robótica". Enciclopedia de Filosofía de Stanford . Archivado desde el original el 10 de octubre de 2020 . Consultado el 26 de septiembre de 2020 .
  2. ^ EE. UU. NE. "La IA es una amenaza existencial, pero no es lo que piensas". Científico americano . Consultado el 4 de marzo de 2024 .{{cite web}}: CS1 maint: multiple names: authors list (link)
  3. ^ Anderson. "Ética de las máquinas". Archivado desde el original el 28 de septiembre de 2011 . Consultado el 27 de junio de 2011 .
  4. ^ Anderson M, Anderson SL, eds. (Julio de 2011). Ética de las máquinas . Prensa de la Universidad de Cambridge . ISBN 978-0-521-11235-2.
  5. ^ Anderson M, Anderson S (julio de 2006). "Introducción de los editores invitados: ética de las máquinas". Sistemas inteligentes IEEE . 21 (4): 10–11. doi :10.1109/mis.2006.70. S2CID  9570832.
  6. ^ Anderson M, Anderson SL (15 de diciembre de 2007). "Ética de las máquinas: creación de un agente ético inteligente". Revista AI . 28 (4): 15. doi :10.1609/aimag.v28i4.2065. S2CID  17033332.
  7. ^ Boyles RJ (2017). "Señales filosóficas para marcos de agentes morales artificiales". Suri . 6 (2): 92-109.
  8. ^ Jr HC (29 de abril de 1999). La tecnología de la información y la paradoja de la productividad: evaluación del valor de invertir en TI. Prensa de la Universidad de Oxford. ISBN 978-0-19-802838-3.
  9. ^ Asimov I (2008). Yo robot . Nueva York: Bantam. ISBN 978-0-553-38256-3.
  10. ^ Bryson J, Diamantis M, Grant T (septiembre de 2017). "De, para y por el pueblo: la laguna jurídica de las personas sintéticas". Inteligencia Artificial y Derecho . 25 (3): 273–291. doi : 10.1007/s10506-017-9214-9 .
  11. ^ "Principios de la robótica". EPSRC del Reino Unido. Septiembre de 2010. Archivado desde el original el 1 de abril de 2018 . Consultado el 10 de enero de 2019 .
  12. ^ Los robots en evolución aprenden a mentir unos a otros Archivado el 28 de agosto de 2009 en Wayback Machine , Popular Science, 18 de agosto de 2009
  13. ^ ab Convocatoria de debate sobre robots asesinos Archivado el 7 de agosto de 2009 en Wayback Machine , por Jason Palmer, reportero de ciencia y tecnología, BBC News, 3/8/09.
  14. ^ Un nuevo informe científico financiado por la Marina advierte sobre robots de guerra que se convertirán en "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  15. ^ ab Informe de la Marina advierte sobre un levantamiento de robots y sugiere una fuerte brújula moral Archivado el 4 de junio de 2011 en Wayback Machine , por Joseph L. Flatley engadget.com, 18 de febrero de 2009.
  16. ^ Estudio del panel presidencial de la AAAI sobre futuros de la IA a largo plazo 2008-2009 Archivado el 28 de agosto de 2009 en Wayback Machine , Asociación para el Avance de la Inteligencia Artificial, consultado el 26 de julio de 2009.
  17. ^ ab Markoff J (25 de julio de 2009). "Los científicos temen que las máquinas puedan ser más astutas que el hombre". Los New York Times . Archivado desde el original el 25 de febrero de 2017 . Consultado el 24 de febrero de 2017 .
  18. ^ Artículo en Asimovlaws.com Archivado el 24 de mayo de 2012 en Wayback Machine , julio de 2004, consultado el 27/7/09.
  19. ^ ab Winfield AF, Michael K, Pitt J, Evers V (marzo de 2019). "Ética de las máquinas: el diseño y la gobernanza de la IA ética y los sistemas autónomos [analizando el problema]". Actas del IEEE . 107 (3): 509–517. doi : 10.1109/JPROC.2019.2900622 . ISSN  1558-2256. S2CID  77393713.
  20. ^ Alejandro I (marzo de 2017). "Socios de los humanos: una evaluación realista del papel de los robots en el futuro previsible". Revista de tecnología de la información . 32 (1): 1–9. doi :10.1057/s41265-016-0032-4. ISSN  0268-3962. S2CID  5288506.
  21. ^ Al-Rodhan N (7 de diciembre de 2015). "El Código Moral". Archivado desde el original el 5 de marzo de 2017 . Consultado el 4 de marzo de 2017 .
  22. ^ Wallach W, Allen C (noviembre de 2008). Máquinas morales: enseñar a los robots el bien y el mal . Estados Unidos: Oxford University Press . ISBN 978-0-19-537404-9.
  23. ^ Bostrom N , Yudkowsky E (2011). «La Ética de la Inteligencia Artificial» (PDF) . Manual de inteligencia artificial de Cambridge . Prensa de Cambridge . Archivado (PDF) desde el original el 4 de marzo de 2016 . Consultado el 22 de junio de 2011 .
  24. ^ Santos-Lang C (2002). "Ética para las Inteligencias Artificiales". Archivado desde el original el 25 de diciembre de 2014 . Consultado el 4 de enero de 2015 .
  25. ^ Howard A (29 de julio de 2019). "La regulación de la IA: ¿deberían preocuparse las organizaciones? | Ayanna Howard". Revisión de la gestión de préstamos del MIT . Archivado desde el original el 14 de agosto de 2019 . Consultado el 14 de agosto de 2019 .
  26. ^ "Confianza en la inteligencia artificial: un estudio de cinco países" (PDF) . KPMG . Marzo de 2021.
  27. ^ Veruggio, Gianmarco (2011). "La hoja de ruta de la roboética". Taller de Roboética EURON . Escuela de Robótica: 2. CiteSeerX 10.1.1.466.2810 . 
  28. ^ Müller VC (2020), "Ethics of Artificial Intelligence and Robotics", en Zalta EN (ed.), The Stanford Encyclopedia of Philosophy (edición de invierno de 2020), Metaphysics Research Lab, Universidad de Stanford, archivado desde el original en 2021- 12 de abril , consultado el 18 de marzo de 2021
  29. ^ ab Jobin A, Ienca M, Vayena E (2 de septiembre de 2020). "El panorama global de las directrices éticas de la IA". Naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi :10.1038/s42256-019-0088-2. S2CID  201827642.
  30. ^ Floridi L, Cowls J (2 de julio de 2019). "Un marco unificado de cinco principios para la IA en la sociedad". Revisión de ciencia de datos de Harvard . 1 . doi : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  31. ^ IA de código abierto. Archivado el 4 de marzo de 2016 en la Wayback Machine Bill Hibbard. Actas de 2008 de la Primera Conferencia sobre Inteligencia General Artificial, eds. Pei Wang, Ben Goertzel y Stan Franklin.
  32. ^ OpenCog: un marco de software para inteligencia general artificial integradora. Archivado el 4 de marzo de 2016 en Wayback Machine David Hart y Ben Goertzel. Actas de 2008 de la Primera Conferencia sobre Inteligencia General Artificial, eds. Pei Wang, Ben Goertzel y Stan Franklin.
  33. ^ Inside OpenAI, el salvaje plan de Elon Musk para liberar la inteligencia artificial Archivado el 27 de abril de 2016 en Wayback Machine Cade Metz, Wired el 27 de abril de 2016.
  34. ^ 7001-2021 - Estándar IEEE para la transparencia de sistemas autónomos. IEEE. 4 de marzo de 2022. doi :10.1109/IEEESTD.2022.9726144. ISBN 978-1-5044-8311-7. S2CID  252589405 . Consultado el 9 de julio de 2023 ..
  35. ^ Kamila MK, Jasrotia SS (1 de enero de 2023). "Cuestiones éticas en el desarrollo de la inteligencia artificial: reconociendo los riesgos". Revista Internacional de Ética y Sistemas . doi :10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  36. ^ Thurm S (13 de julio de 2018). “MICROSOFT CONVOCATORIA A REGULACIÓN FEDERAL DE RECONOCIMIENTO FACIAL”. Cableado . Archivado desde el original el 9 de mayo de 2019 . Consultado el 10 de enero de 2019 .
  37. ^ Bastin R, Wantz G (junio de 2017). «El Reglamento General de Protección de Datos Innovación intersectorial» (PDF) . Revista interior . Deloitte. Archivado (PDF) desde el original el 10 de enero de 2019 . Consultado el 10 de enero de 2019 .
  38. ^ "La cumbre de inteligencia artificial de la ONU tiene como objetivo abordar la pobreza, los 'grandes desafíos' de la humanidad". Noticias de la ONU . 2017-06-07. Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  39. ^ "Inteligencia artificial - Organización para la Cooperación y el Desarrollo Económicos". www.ocde.org . Archivado desde el original el 22 de julio de 2019 . Consultado el 26 de julio de 2019 .
  40. ^ Anónimo (14 de junio de 2018). "La Alianza Europea de IA". Mercado Único Digital – Comisión Europea . Archivado desde el original el 1 de agosto de 2019 . Consultado el 26 de julio de 2019 .
  41. ^ Grupo de expertos de alto nivel de la Comisión Europea sobre IA (26 de junio de 2019). "Recomendaciones de políticas e inversión para una Inteligencia Artificial confiable". Dar forma al futuro digital de Europa – Comisión Europea . Archivado desde el original el 26 de febrero de 2020 . Consultado el 16 de marzo de 2020 .
  42. ^ Fukuda-Parr S, Gibbons E (julio de 2021). "Consenso emergente sobre la 'IA ética': crítica de derechos humanos a las directrices de las partes interesadas". Política Mundial . 12 (T6): 32–44. doi : 10.1111/1758-5899.12965 . ISSN  1758-5880.
  43. ^ "Resumen de política tecnológica de la UE: resumen de julio de 2019". Centro para la Democracia y la Tecnología . 2 de agosto de 2019. Archivado desde el original el 9 de agosto de 2019 . Consultado el 9 de agosto de 2019 .
  44. ^ Curtis C, Gillespie N, Lockey S (24 de mayo de 2022). "Las organizaciones que implementan IA son clave para abordar la 'tormenta perfecta' de riesgos de IA". IA y ética . 3 (1): 145-153. doi :10.1007/s43681-022-00163-7. ISSN  2730-5961. PMC 9127285 . PMID  35634256. Archivado desde el original el 15 de marzo de 2023 . Consultado el 29 de mayo de 2022 . 
  45. ^ ab "Por qué el mundo necesita una Declaración de derechos sobre la IA". Tiempos financieros . 2021-10-18 . Consultado el 19 de marzo de 2023 .
  46. ^ Gabriel I (14 de marzo de 2018). "El caso de algoritmos más justos - Iason Gabriel". Medio . Archivado desde el original el 22 de julio de 2019 . Consultado el 22 de julio de 2019 .
  47. ^ "Cinco fuentes inesperadas de sesgo en la inteligencia artificial". TechCrunch . 10 de diciembre de 2016. Archivado desde el original el 18 de marzo de 2021 . Consultado el 22 de julio de 2019 .
  48. ^ Knight W. "El jefe de inteligencia artificial de Google dice que se olvide de los robots asesinos de Elon Musk y, en su lugar, preocúpese por el sesgo en los sistemas de inteligencia artificial". Revisión de tecnología del MIT . Archivado desde el original el 4 de julio de 2019 . Consultado el 22 de julio de 2019 .
  49. ^ Villaseñor J (3 de enero de 2019). "Inteligencia artificial y prejuicios: cuatro desafíos clave". Brookings . Archivado desde el original el 22 de julio de 2019 . Consultado el 22 de julio de 2019 .
  50. ^ Lohr S (9 de febrero de 2018). "El reconocimiento facial es preciso, si eres un hombre blanco". Los New York Times . Archivado desde el original el 9 de enero de 2019 . Consultado el 29 de mayo de 2019 .
  51. ^ Koenecke A , Nam A, Lake E, Nudell J, Quartey M, Mengesha Z, Toups C, Rickford JR, Jurafsky D, Goel S (7 de abril de 2020). "Disparidades raciales en el reconocimiento automatizado de voz". Procedimientos de la Academia Nacional de Ciencias . 117 (14): 7684–7689. Código Bib : 2020PNAS..117.7684K. doi : 10.1073/pnas.1915768117 . PMC 7149386 . PMID  32205437. 
  52. ^ "Amazon elimina una herramienta secreta de reclutamiento de inteligencia artificial que mostraba prejuicios contra las mujeres". Reuters . 2018-10-10. Archivado desde el original el 27 de mayo de 2019 . Consultado el 29 de mayo de 2019 .
  53. ^ ab Luo Q, Puett MJ, Smith MD (28 de marzo de 2023). "Un espejo en perspectiva del elefante: investigación del sesgo lingüístico en Google, ChatGPT, Wikipedia y YouTube". arXiv : 2303.16281v2 [cs.CY].
  54. ^ Músico callejero T, Choenni S, Shoae Bargh M (20 de noviembre de 2023). "Estereotipos en ChatGPT: un estudio empírico". Actas de la XVI Conferencia Internacional sobre Teoría y Práctica de la Gobernanza Electrónica . ICEGOV '23. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 24-32. doi : 10.1145/3614321.3614325 . ISBN 979-8-4007-0742-1.
  55. ^ Kotek H, Dockum R, Sun D (5 de noviembre de 2023). "Sesgos de género y estereotipos en modelos de lenguaje grandes". Actas de la Conferencia de Inteligencia Colectiva de ACM . CI '23. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 12-24. arXiv : 2308.14921 . doi : 10.1145/3582269.3615599 . ISBN 979-8-4007-0113-9.
  56. ^ Feng S, Park CY, Liu Y, Tsvetkov Y (julio de 2023). Rogers A, Boyd-Graber J, Okazaki N (eds.). "Desde el entrenamiento previo de datos hasta modelos de lenguaje y tareas posteriores: seguimiento de los rastros de sesgos políticos que conducen a modelos de PNL injustos". Actas de la 61ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1: Artículos extensos) . Toronto, Canadá: Asociación de Lingüística Computacional: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
  57. ^ Zhou K, Tan C (diciembre de 2023). Bouamor H, Pino J, Bali K (eds.). "Evaluación basada en entidades del sesgo político en el resumen automático". Hallazgos de la Asociación de Lingüística Computacional: EMNLP 2023 . Singapur: Asociación de Lingüística Computacional: 10374–10386. arXiv : 2305.02321 . doi : 10.18653/v1/2023.findings-emnlp.696 .
  58. ^ Cheng M, Durmus E, Jurafsky D (29 de mayo de 2023). "Personas marcadas: uso de indicaciones del lenguaje natural para medir estereotipos en modelos de lenguaje". arXiv : 2305.18189v1 [cs.CL].
  59. ^ Ntoutsi E, Fafalios P, Gadiraju U, Iosifidis V, Nejdl W, Vidal M, Ruggieri S, Turini F, Papadopoulos S, Krasanakis E, Kompatsiaris I, Kinder-Kurlanda K, Wagner C, Karimi F, Fernandez M (mayo de 2020) ). "Sesgo en los sistemas de inteligencia artificial basados ​​en datos: una encuesta introductoria". WIREs Minería de datos y descubrimiento de conocimientos . 10 (3). doi : 10.1002/widm.1356. ISSN  1942-4787.
  60. ^ Friedman B, Nissenbaum H (julio de 1996). "Sesgo en los sistemas informáticos". Transacciones ACM sobre sistemas de información . 14 (3): 330–347. doi : 10.1145/230538.230561 . S2CID  207195759.
  61. ^ "Eliminar el sesgo en la IA". techxplore.com . Archivado desde el original el 25 de julio de 2019 . Consultado el 26 de julio de 2019 .
  62. ^ Abdalla M, Wahle JP, Ruas T, Névéol A, Ducel F, Mohammad S, Fort K (2023). Rogers A, Boyd-Graber J, Okazaki N (eds.). "El elefante en la habitación: análisis de la presencia de las grandes tecnologías en la investigación del procesamiento del lenguaje natural". Actas de la 61ª Reunión Anual de la Asociación de Lingüística Computacional (Volumen 1: Artículos extensos) . Toronto, Canadá: Asociación de Lingüística Computacional: 13141–13160. arXiv : 2305.02797 . doi : 10.18653/v1/2023.acl-long.734 .
  63. ^ Olson P. "DeepMind de Google tiene una idea para detener la IA sesgada". Forbes . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  64. ^ "Iquidad en el aprendizaje automático | Equidad en el aprendizaje automático". Desarrolladores de Google . Archivado desde el original el 10 de agosto de 2019 . Consultado el 26 de julio de 2019 .
  65. ^ "IA y sesgo - IBM Research - EE. UU.". www.research.ibm.com . Archivado desde el original el 17 de julio de 2019 . Consultado el 26 de julio de 2019 .
  66. ^ Bender EM, Friedman B (diciembre de 2018). "Declaraciones de datos para el procesamiento del lenguaje natural: hacia la mitigación del sesgo del sistema y la habilitación de una mejor ciencia". Transacciones de la Asociación de Lingüística Computacional . 6 : 587–604. doi : 10.1162/tacl_a_00041 .
  67. ^ Gebru T, Morgenstern J, Vecchione B, Vaughan JW, Wallach H , Daumé III H, Crawford K (2018). "Hojas de datos para conjuntos de datos". arXiv : 1803.09010 [cs.DB].
  68. ^ Pery A (6 de octubre de 2021). "Inteligencia artificial confiable y minería de procesos: desafíos y oportunidades". IA profunda . Archivado desde el original el 18 de febrero de 2022 . Consultado el 18 de febrero de 2022 .
  69. ^ Knight W. "El jefe de inteligencia artificial de Google dice que se olvide de los robots asesinos de Elon Musk y, en su lugar, preocúpese por el sesgo en los sistemas de inteligencia artificial". Revisión de tecnología del MIT . Archivado desde el original el 4 de julio de 2019 . Consultado el 26 de julio de 2019 .
  70. ^ "¿En qué parte del mundo está la IA? Ejemplos de IA responsables y poco éticos". Archivado desde el original el 31 de octubre de 2020 . Consultado el 28 de octubre de 2020 .
  71. ^ Ruggieri S, Álvarez JM, Pugnana A, Estado L, Turini F (26 de junio de 2023). "¿Podemos confiar en la IA justa?". Actas de la Conferencia AAAI sobre Inteligencia Artificial . Asociación para el Avance de la Inteligencia Artificial (AAAI). 37 (13): 15421–15430. doi : 10.1609/aaai.v37i13.26798 . ISSN  2374-3468. S2CID  259678387.
  72. ^ Buyl M, De Bie T (2022). "Limitaciones inherentes a la equidad de la IA". Comunicaciones de la ACM . 67 (2): 48–55. arXiv : 2212.06495 . doi :10.1145/3624700. hdl :1854/LU-01GMNH04RGNVWJ730BJJXGCY99.
  73. ^ Castelnovo A, Inverardi N, Nanino G, Penco IG, Regoli D (2023). "¿Suficientemente justo? Un mapa de las limitaciones actuales de los requisitos para tener algoritmos" justos "". arXiv : 2311.12435 [cs.AI].
  74. ^ Aizenberg E, Dennis MJ, van den Hoven J (21 de octubre de 2023). "Examinar los supuestos de las evaluaciones de contratación de IA y su impacto en la autonomía de los solicitantes de empleo sobre la autorrepresentación". IA y sociedad . doi : 10.1007/s00146-023-01783-1 . ISSN  0951-5666.
  75. ^ ab Spindler G (2023), "Diferentes enfoques para la responsabilidad de la inteligencia artificial: pros y contras", Responsabilidad de la IA , Nomos Verlagsgesellschaft mbH & Co. KG, págs. 41–96, doi :10.5771/9783748942030-41, ISBN 978-3-7489-4203-0, recuperado el 14 de diciembre de 2023
  76. ^ Manyika J (2022). "Hacer bien la IA: notas introductorias sobre la IA y la sociedad". Dédalo . 151 (2): 5–27. doi : 10.1162/daed_e_01897 . ISSN  0011-5266.
  77. ^ Imran A, Posokhova I, Qureshi HN, Masood U, Riaz MS, Ali K, John CN, Hussain MI, Nabeel M (1 de enero de 2020). "AI4COVID-19: la IA permitió el diagnóstico preliminar de COVID-19 a partir de muestras de tos a través de una aplicación". La informática en medicina desbloqueada . 20 : 100378. doi : 10.1016/j.imu.2020.100378. ISSN  2352-9148. PMC 7318970 . PMID  32839734. 
  78. ^ Cirillo D, Catuara-Solarz S, Morey C, Guney E, Subirats L, Mellino S, Gigante A, Valencia A, Rementeria MJ, Chadha AS, Mavridis N (1 de junio de 2020). "Diferencias y sesgos de sexo y género en inteligencia artificial para biomedicina y asistencia sanitaria". npj Medicina digital . 3 (1): 81. doi : 10.1038/s41746-020-0288-5 . ISSN  2398-6352. PMC 7264169 . PMID  32529043. 
  79. ^ Ntoutsi E, Fafalios P, Gadiraju U, Iosifidis V, Nejdl W, Vidal M, Ruggieri S, Turini F, Papadopoulos S, Krasanakis E, Kompatsiaris I, Kinder-Kurlanda K, Wagner C, Karimi F, Fernandez M (mayo de 2020) ). "Sesgo en los sistemas de inteligencia artificial basados ​​en datos: una encuesta introductoria". WIREs Minería de datos y descubrimiento de conocimientos . 10 (3). doi : 10.1002/widm.1356 . ISSN  1942-4787.
  80. ^ Challen R, Denny J, Pitt M, Gompels L, Edwards T, Tsaneva-Atanasova K (marzo de 2019). "Inteligencia artificial, sesgo y seguridad clínica". Calidad y seguridad de BMJ . 28 (3): 231–237. doi : 10.1136/bmjqs-2018-008370 . ISSN  2044-5415. PMC 6560460 . PMID  30636200. 
  81. ^ Evans W (2015). "Derechos poshumanos: dimensiones de los mundos transhumanos". Tecnocultura . 12 (2). doi : 10.5209/rev_TK.2015.v12.n2.49072 .
  82. ^ Sheliazhenko Y (2017). "Autonomía personal artificial y concepto de derechos de los robots". Revista Europea de Derecho y Ciencias Políticas : 17–21. doi :10.20534/EJLPS-17-1-17-21. Archivado desde el original el 14 de julio de 2018 . Consultado el 10 de mayo de 2017 .
  83. ^ Diccionario de la herencia americana del idioma inglés, cuarta edición
  84. ^ Doomen J (2023). “La entidad de inteligencia artificial como persona jurídica”. Ley de Tecnologías de la Información y las Comunicaciones . 32 (3): 277–278. doi : 10.1080/13600834.2023.2196827 .
  85. ^ "Los robots podrían exigir derechos legales". Noticias de la BBC . 21 de diciembre de 2006. Archivado desde el original el 15 de octubre de 2019 . Consultado el 3 de enero de 2010 .
  86. ^ Henderson M (24 de abril de 2007). "¿Derechos humanos para los robots? Nos estamos dejando llevar". Los tiempos en línea . Los tiempos de Londres. Archivado desde el original el 17 de mayo de 2008 . Consultado el 2 de mayo de 2010 .
  87. ^ "Arabia Saudita otorga la ciudadanía a un robot llamado Sophia". 26 de octubre de 2017. Archivado desde el original el 27 de octubre de 2017 . Consultado el 27 de octubre de 2017 .
  88. ^ Vincent J (30 de octubre de 2017). "Pretender otorgarle la ciudadanía a un robot no ayuda a nadie". El borde . Archivado desde el original el 3 de agosto de 2019 . Consultado el 10 de enero de 2019 .
  89. ^ Wilks, Yorick, ed. (2010). Estrechos compromisos con compañeros artificiales: cuestiones sociales, psicológicas, éticas y de diseño clave . Ámsterdam: Pub John Benjamins. ISBN del condado 978-90-272-4994-4. OCLC  642206106.
  90. ^ Macrae C (septiembre de 2022). "Aprender de las fallas de los sistemas autónomos e inteligentes: accidentes, seguridad y fuentes de riesgo sociotécnico". Análisis de riesgo . 42 (9): 1999-2025. Bibcode : 2022RiskA..42.1999M. doi :10.1111/risa.13850. ISSN  0272-4332. PMID  34814229.
  91. ^ Agarwal A, Edelman S (2020). "IA consciente funcionalmente eficaz y sin sufrimiento". Revista de Inteligencia Artificial y Conciencia . 7 : 39–50. arXiv : 2002.05652 . doi :10.1142/S2705078520300030. S2CID  211096533.
  92. ^ Thomas Metzinger (febrero de 2021). "Sufrimiento artificial: un argumento a favor de una moratoria global sobre la fenomenología sintética". Revista de Inteligencia Artificial y Conciencia . 8 : 43–66. doi : 10.1142/S270507852150003X . S2CID  233176465.
  93. ^ Chalmers D (marzo de 2023). "¿Podría ser consciente un modelo de lenguaje grande?". arXiv : 2303.07103v1 [Ciencias de la Computación].
  94. ^ ab
  95. ^ ab Joseph Weizenbaum , citado en McCorduck 2004, págs. 356, 374–376
  96. ^ Kaplan A, Haenlein M (enero de 2019). "Siri, Siri, en mi mano: ¿Quién es la más bella del país? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Horizontes empresariales . 62 (1): 15-25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  97. ^ ab Hibbard B (17 de noviembre de 2015). "Inteligencia Artificial Ética". arXiv : 1411.1373 [cs.AI].
  98. ^ Davies A (29 de febrero de 2016). "El coche autónomo de Google provocó su primer accidente". Cableado . Archivado desde el original el 7 de julio de 2019 . Consultado el 26 de julio de 2019 .
  99. ^ Levin S , Wong JC (19 de marzo de 2018). "Uber sin conductor mata a una mujer de Arizona en el primer accidente fatal que involucra a un peatón". El guardián . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  100. ^ "¿Quién es responsable cuando un coche autónomo tiene un accidente?". Futurismo . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  101. ^ "Accidentes automovilísticos autónomos: ¿quién o qué tiene la culpa?". Conocimiento@Wharton . Derecho y Políticas Públicas. Podcasts de Radio Business Norteamérica. Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  102. ^ Delbridge E. "Los coches sin conductor se han vuelto locos". El balance . Archivado desde el original el 29 de mayo de 2019 . Consultado el 29 de mayo de 2019 .
  103. ^ Stilgoe J (2020), "¿Quién mató a Elaine Herzberg?", ¿ Quién impulsa la innovación? , Cham: Springer International Publishing, págs. 1 a 6, doi :10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, S2CID  214359377, archivado desde el original el 2021-03-18 , consultado el 2020-11-11
  104. ^ Maxmen A (octubre de 2018). "Los dilemas de los vehículos autónomos revelan que las opciones morales no son universales". Naturaleza . 562 (7728): 469–470. Código Bib :2018Natur.562..469M. doi : 10.1038/d41586-018-07135-0 . PMID  30356197.
  105. ^ "Reglamento para vehículos sin conductor". GOBIERNO DEL REINO UNIDO . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  106. ^ "Conducción automatizada: acción legislativa y reglamentaria - CyberWiki". ciberlaw.stanford.edu . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  107. ^ "Vehículos autónomos | Legislación promulgada sobre vehículos autónomos". www.ncsl.org . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  108. ^ Etzioni A, Etzioni O (1 de diciembre de 2017). "Incorporando la ética a la inteligencia artificial". La Revista de Ética . 21 (4): 403–418. doi :10.1007/s10892-017-9252-2. ISSN  1572-8609. S2CID  254644745.
  109. ^ Robot de tres vías presagia un futuro autónomo Archivado el 7 de noviembre de 2012 en Wayback Machine , por David Axe wired.com, 13 de agosto de 2009.
  110. ^ Estados Unidos. Junta de Innovación de Defensa. Principios de la IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC  1126650738.
  111. ^ Nuevo informe financiado por la Marina advierte sobre robots de guerra que se convertirán en "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  112. ^ Umbrello S, Torres P, De Bellis AF (marzo de 2020). "El futuro de la guerra: ¿podrían las armas letales autónomas hacer que el conflicto sea más ético?". IA y sociedad . 35 (1): 273–282. doi :10.1007/s00146-019-00879-x. hdl :2318/1699364. ISSN  0951-5666. S2CID  59606353. Archivado desde el original el 5 de enero de 2021 . Consultado el 11 de noviembre de 2020 .
  113. ^ Hellström T (junio de 2013). "Sobre la responsabilidad moral de los robots militares". Ética y Tecnología de la Información . 15 (2): 99-107. doi :10.1007/s10676-012-9301-2. S2CID  15205810. ProQuest  1372020233.
  114. ^ Mitra A (5 de abril de 2018). "Podemos entrenar a la IA para que identifique el bien y el mal y luego usarla para enseñarnos moralidad". Cuarzo . Archivado desde el original el 26 de julio de 2019 . Consultado el 26 de julio de 2019 .
  115. ^ Domínguez G (23 de agosto de 2022). "Corea del Sur desarrolla nuevos drones furtivos para apoyar a los aviones de combate". Los tiempos de Japón . Consultado el 14 de junio de 2023 .
  116. ^ "Principios de la IA". Instituto Futuro de la Vida . 11 de agosto de 2017. Archivado desde el original el 11 de diciembre de 2017 . Consultado el 26 de julio de 2019 .
  117. ^ ab Zach Musgrave y Bryan W. Roberts (14 de agosto de 2015). "Por qué la inteligencia artificial puede convertirse en un arma con demasiada facilidad: el Atlántico". El Atlántico . Archivado desde el original el 11 de abril de 2017 . Consultado el 6 de marzo de 2017 .
  118. ^ Gato Zakrzewski (27 de julio de 2015). "Musk y Hawking advierten sobre armas de inteligencia artificial". WSJ . Archivado desde el original el 28 de julio de 2015 . Consultado el 4 de agosto de 2017 .
  119. ^ Dar bien (2015). Riesgos potenciales de la inteligencia artificial avanzada (Informe). Archivado desde el original el 12 de octubre de 2015 . Consultado el 11 de octubre de 2015 .
  120. ^ Inside The Mind Of AI Archivado el 10 de agosto de 2021 en Wayback Machine - Entrevista a Cliff Kuang
  121. ^ Bunn J (13 de abril de 2020). "Trabajar en contextos para los que la transparencia es importante: una visión del mantenimiento de registros de la inteligencia artificial explicable (XAI)". Diario de gestión de registros . 30 (2): 143-153. doi :10.1108/RMJ-08-2019-0038. ISSN  0956-5698. S2CID  219079717.
  122. ^ ab Muehlhauser, Luke y Louie Helm. 2012. “Explosión de inteligencia y ética de las máquinas” Archivado el 7 de mayo de 2015 en Wayback Machine . En Hipótesis de singularidad: una evaluación científica y filosófica, editado por Amnon Eden, Johnny Søraker, James H. Moor y Eric Steinhart. Berlín: Springer.
  123. ^ ab Bostrom, Nick. 2003. “Cuestiones éticas en la inteligencia artificial avanzada” Archivado el 8 de octubre de 2018 en Wayback Machine . En Aspectos cognitivos, emotivos y éticos de la toma de decisiones en humanos y en inteligencia artificial, editado por Iva Smit y George E. Lasker, 12-17. vol. 2. Windsor, ON: Instituto Internacional de Estudios Avanzados en Investigación de Sistemas/Cibernética.
  124. ^ Paraguas S, Baum SD (1 de junio de 2018). "Evaluación de la nanotecnología del futuro: los impactos sociales netos de la fabricación atómicamente precisa". Futuros . 100 : 63–73. doi :10.1016/j.futures.2018.04.007. hdl : 2318/1685533 . ISSN  0016-3287. S2CID  158503813. Archivado desde el original el 9 de mayo de 2019 . Consultado el 29 de noviembre de 2020 .
  125. ^ Yudkowsky, Eliezer. 2011. "Sistemas de valor complejos en una IA amigable" Archivado el 29 de septiembre de 2015 en Wayback Machine . En Schmidhuber, Thórisson y Looks 2011, 388–393.
  126. ^ Russell S (8 de octubre de 2019). Compatible con humanos: la inteligencia artificial y el problema del control . Estados Unidos: Vikingo. ISBN 978-0-525-55861-3. OCLC  1083694322.
  127. ^ Yampolskiy RV (1 de marzo de 2020). "Imprevisibilidad de la IA: sobre la imposibilidad de predecir con precisión todas las acciones de un agente más inteligente". Revista de Inteligencia Artificial y Conciencia . 07 (1): 109-118. doi :10.1142/S2705078520500034. ISSN  2705-0785. S2CID  218916769. Archivado desde el original el 18 de marzo de 2021 . Consultado el 29 de noviembre de 2020 .
  128. ^ Wallach W, Vallor S (17 de septiembre de 2020), "Máquinas morales: de la alineación de valores a la virtud encarnada", Ética de la inteligencia artificial , Oxford University Press, págs. 383–412, doi :10.1093/oso/9780190905033.003.0014 , ISBN 978-0-19-090503-3, archivado desde el original el 8 de diciembre de 2020 , consultado el 29 de noviembre de 2020
  129. ^ Paraguas S (2019). "Coordinación beneficiosa de la inteligencia artificial mediante un enfoque de diseño sensible al valor". Big Data y Computación Cognitiva . 3 (1): 5.doi : 10.3390 /bdcc3010005 . hdl : 2318/1685727 .
  130. ^ Floridi L, Cowls J, King TC, Taddeo M (2020). "Cómo diseñar IA para el bien social: siete factores esenciales". Ética de la ciencia y la ingeniería . 26 (3): 1771–1796. doi :10.1007/s11948-020-00213-5. ISSN  1353-3452. PMC 7286860 . PMID  32246245. 
  131. ^ Fiegerman S (28 de septiembre de 2016). "Facebook, Google y Amazon crean un grupo para aliviar las preocupaciones sobre la IA". CNNMoney . Archivado desde el original el 17 de septiembre de 2020 . Consultado el 18 de agosto de 2020 .
  132. ^ Slota SC, Fleischmann KR, Greenberg S, Verma N, Cummings B, Li L, Shenefiel C (2023). "Ubicar la ética del trabajo de la inteligencia artificial". Revista de la Asociación de Ciencia y Tecnología de la Información . 74 (3): 311–322. doi :10.1002/asi.24638. ISSN  2330-1635. S2CID  247342066.
  133. ^ "Pautas éticas para una IA confiable". Dar forma al futuro digital de Europa – Comisión Europea . Comisión Europea. 2019-04-08. Archivado desde el original el 2020-02-20 . Consultado el 20 de febrero de 2020 .
  134. ^ "Libro Blanco sobre la inteligencia artificial: un enfoque europeo hacia la excelencia y la confianza | Dar forma al futuro digital de Europa". 19 de febrero de 2020. Archivado desde el original el 6 de marzo de 2021 . Consultado el 18 de marzo de 2021 .
  135. ^ "Observatorio de políticas de IA de la OCDE". Archivado desde el original el 8 de marzo de 2021 . Consultado el 18 de marzo de 2021 .
  136. ^ Recomendación sobre la ética de la inteligencia artificial. UNESCO. 2021.
  137. ^ "Los estados miembros de la UNESCO adoptan el primer acuerdo global sobre la ética de la IA". Tiempos de Helsinki . 2021-11-26 . Consultado el 26 de abril de 2023 .
  138. ^ "La hoja de ruta de la administración Obama para la política de inteligencia artificial". Revisión de negocios de Harvard . 21/12/2016. ISSN  0017-8012. Archivado desde el original el 22 de enero de 2021 . Consultado el 16 de marzo de 2021 .
  139. ^ "Acelerar el liderazgo de Estados Unidos en inteligencia artificial: la Casa Blanca". trumpwhitehouse.archives.gov . Archivado desde el original el 25 de febrero de 2021 . Consultado el 16 de marzo de 2021 .
  140. ^ "Solicitud de comentarios sobre un borrador de memorando a los jefes de departamentos y agencias ejecutivas", Orientación para la regulación de las aplicaciones de inteligencia artificial"". Registro Federal . 2020-01-13. Archivado desde el original el 25 de noviembre de 2020 . Consultado el 28 de noviembre de 2020 .
  141. ^ "CCC ofrece un borrador de hoja de ruta de IA de 20 años; busca comentarios". Cable HPC . 2019-05-14. Archivado desde el original el 18 de marzo de 2021 . Consultado el 22 de julio de 2019 .
  142. ^ "Solicite comentarios sobre el borrador: una hoja de ruta comunitaria de 20 años para la investigación de IA en los EE. UU.» Blog de CCC ". 13 de mayo de 2019. Archivado desde el original el 14 de mayo de 2019 . Consultado el 22 de julio de 2019 .
  143. ^ "Partido no humano". 2021. Archivado desde el original el 2021-09-20 . Consultado el 19 de septiembre de 2021 .
  144. ^ (en ruso) Интеллектуальные правила Archivado el 30 de diciembre de 2021 en Wayback Machine - Kommersant , 25.11.2021
  145. ^ Grace K, Salvatier J, Dafoe A, Zhang B, Evans O (3 de mayo de 2018). "¿Cuándo la IA superará el desempeño humano? Evidencia de expertos en IA". arXiv : 1705.08807 [cs.AI].
  146. ^ "China quiere dar forma al futuro global de la inteligencia artificial". Revisión de tecnología del MIT . Archivado desde el original el 2020-11-20 . Consultado el 29 de noviembre de 2020 .
  147. ^ Floridi L, Cowls J, Beltrametti M, Chatila R, Chazerand P, Dignum V, Luetge C, Madelin R, Pagallo U, Rossi F, Schafer B (1 de diciembre de 2018). "AI4People: un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones". Mentes y Máquinas . 28 (4): 689–707. doi :10.1007/s11023-018-9482-5. ISSN  1572-8641. PMC 6404626 . PMID  30930541. 
  148. ^ "Joanna J. Bryson". CABLEADO . Consultado el 13 de enero de 2023 .
  149. ^ "Se lanza un nuevo instituto de investigación de inteligencia artificial". 2017-11-20. Archivado desde el original el 18 de septiembre de 2020 . Consultado el 21 de febrero de 2021 .
  150. ^ James J. Hughes, LaGrandeur, Kevin, eds. (15 de marzo de 2017). Sobrevivir a la era de las máquinas: tecnología inteligente y la transformación del trabajo humano. Cham, Suiza: Palgrave Macmillan Cham. ISBN 978-3-319-51165-8. OCLC  976407024. Archivado desde el original el 18 de marzo de 2021 . Consultado el 29 de noviembre de 2020 .
  151. ^ Danaher, John (2019). Automatización y utopía: florecimiento humano en un mundo sin trabajo. Cambridge, Massachusetts: Prensa de la Universidad de Harvard. ISBN 978-0-674-24220-3. OCLC  1114334813.
  152. ^ "Inaugurado oficialmente el Instituto TUM de Ética en Inteligencia Artificial". www.tum.de.Archivado desde el original el 10 de diciembre de 2020 . Consultado el 29 de noviembre de 2020 .
  153. ^ Comunicaciones PK (25 de enero de 2019). "Harvard trabaja para incorporar la ética en el plan de estudios de informática". Gaceta de Harvard . Consultado el 6 de abril de 2023 .
  154. ^ "Principios de la IA". Instituto Futuro de la Vida . Consultado el 6 de abril de 2023 .
  155. ^ Lee J (8 de febrero de 2020). "Cuando el sesgo está codificado en nuestra tecnología". NPR . Archivado desde el original el 26 de marzo de 2022 . Consultado el 22 de diciembre de 2021 .
  156. ^ ab "Cómo una conferencia abrazó la diversidad". Naturaleza . 564 (7735): 161–162. 2018-12-12. doi : 10.1038/d41586-018-07718-x . PMID  31123357. S2CID  54481549.
  157. ^ Roose K (30 de diciembre de 2020). "Los premios Good Tech 2020". Los New York Times . ISSN  0362-4331. Archivado desde el original el 21 de diciembre de 2021 . Consultado el 21 de diciembre de 2021 .
  158. ^ Velasco G (4 de mayo de 2020). "Ciencia ficción: un espejo para el futuro de la humanidad". IDEAS . Consultado el 8 de diciembre de 2023 .
  159. ^ Logia P (2014). "Revisión del argumento de Leibniz contra el materialismo mecánico". Ergo, una revista de filosofía de acceso abierto . 1 (20201214). doi : 10.3998/ergo.12405314.0001.003 . hdl :2027/spo.12405314.0001.003. ISSN  2330-4014.
  160. ^ Bringsjord S, Govindarajulu NS (2020), "Artificial Intelligence", en Zalta EN, Nodelman U (eds.), The Stanford Encyclopedia of Philosophy (edición de verano de 2020), Metaphysics Research Lab, Universidad de Stanford , consultado el 2023-12- 08
  161. ^ Hodges, A. (2014), Alan Turing: The Enigma , Vintage, Londres, pág. 334
  162. ^ AM Turing (1936). "Sobre números computables, con aplicación al Entscheidungsproblem". en Actas de la Sociedad Matemática de Londres , 2 s. vol. 42 (1936-1937), págs. 230-265.
  163. ^ "Love, Death & Robots temporada 2, resumen del episodio 1:" Servicio al cliente automatizado"". Listo corte constante . 2021-05-14. Archivado desde el original el 21 de diciembre de 2021 . Consultado el 21 de diciembre de 2021 .
  164. ^ Cueva, Stephen, Dihal, Kanta, Dillon, Sarah, eds. (14 de febrero de 2020). Narrativas de IA: una historia del pensamiento imaginativo sobre máquinas inteligentes (Primera ed.). Oxford: Prensa de la Universidad de Oxford. ISBN 978-0-19-258604-9. OCLC  1143647559. Archivado desde el original el 18 de marzo de 2021 . Consultado el 11 de noviembre de 2020 .
  165. ^ Jerreat-Poole A (1 de febrero de 2020). "Cyborg enfermo, lento: Crip Futurity en Mass Effect". Estudios de juegos . 20 . ISSN  1604-7982. Archivado desde el original el 9 de diciembre de 2020 . Consultado el 11 de noviembre de 2020 .
  166. ^ ""Detroit: Become Human "desafiará tu moral y tu humanidad". Revista Café o Morir . 2018-08-06. Archivado desde el original el 9 de diciembre de 2021 . Consultado el 7 de diciembre de 2021 .
  167. ^ Cerqui D, Warwick K (2008), "Rediseño de la humanidad: el surgimiento de los cyborgs, ¿un objetivo deseable?", Filosofía y diseño , Dordrecht: Springer Países Bajos, págs. 185-195, doi :10.1007/978-1- 4020-6591-0_14, ISBN 978-1-4020-6590-3, archivado desde el original el 18 de marzo de 2021 , consultado el 11 de noviembre de 2020
  168. ^ Cave S, Dihal K (6 de agosto de 2020). "La blancura de la IA". Filosofía y Tecnología . 33 (4): 685–703. doi : 10.1007/s13347-020-00415-6 . S2CID  225466550.

enlaces externos