stringtranslate.com

Ética de la inteligencia artificial

La ética de la inteligencia artificial abarca una amplia gama de temas dentro del campo que se consideran de particular interés ético. [1] Esto incluye sesgos algorítmicos , equidad , toma de decisiones automatizada , rendición de cuentas , privacidad y regulación . También cubre varios desafíos emergentes o potenciales futuros como la ética de las máquinas (cómo hacer máquinas que se comporten éticamente), sistemas de armas autónomas letales , dinámica de la carrera armamentista , seguridad y alineación de la IA , desempleo tecnológico , desinformación habilitada por la IA , cómo tratar ciertos sistemas de IA si tienen un estatus moral (bienestar y derechos de la IA), superinteligencia artificial y riesgos existenciales . [1]

Algunas áreas de aplicación también pueden tener implicaciones éticas particularmente importantes, como la atención médica , la educación, la justicia penal o el ejército.

Ética de las máquinas

La ética de las máquinas (o moralidad de las máquinas) es el campo de investigación que se ocupa del diseño de agentes morales artificiales (AMA), robots o computadoras artificialmente inteligentes que se comportan moralmente o como si fueran morales. [2] [3] [4] [5] Para explicar la naturaleza de estos agentes, se ha sugerido considerar ciertas ideas filosóficas, como las caracterizaciones estándar de agencia , agencia racional , agencia moral y agencia artificial, que están relacionadas con el concepto de AMA. [6]

Existen discusiones sobre la creación de pruebas para ver si una IA es capaz de tomar decisiones éticas . Alan Winfield concluye que la prueba de Turing es defectuosa y que el requisito para que una IA pase la prueba es demasiado bajo. [7] Una prueba alternativa propuesta es una llamada Prueba de Turing Ética, que mejoraría la prueba actual al tener múltiples jueces que decidirían si la decisión de la IA es ética o no ética. [7] La ​​IA neuromórfica podría ser una forma de crear robots moralmente capaces, ya que apunta a procesar información de manera similar a los humanos, de manera no lineal y con millones de neuronas artificiales interconectadas. [8] De manera similar, la emulación de cerebro completo (escanear un cerebro y simularlo en hardware digital) también podría en principio conducir a robots similares a los humanos, capaces por lo tanto de acciones morales. [9] Y los modelos de lenguaje grandes son capaces de aproximarse a los juicios morales humanos. [10] Inevitablemente, esto plantea la cuestión del entorno en el que dichos robots aprenderían sobre el mundo y qué moralidad heredarían, o si terminarían desarrollando también "debilidades" humanas: egoísmo, actitudes pro-supervivencia, inconsistencia, insensibilidad a la escala, etc.

En Moral Machines: Teaching Robots Right from Wrong [11] , Wendell Wallach y Colin Allen concluyen que los intentos de enseñar a los robots a distinguir el bien del mal probablemente harán avanzar la comprensión de la ética humana al motivar a los humanos a abordar las lagunas en la teoría normativa moderna y al proporcionar una plataforma para la investigación experimental. Como ejemplo, ha presentado a los especialistas en ética normativa la controvertida cuestión de qué algoritmos de aprendizaje específicos utilizar en las máquinas. Para decisiones simples, Nick Bostrom y Eliezer Yudkowsky han argumentado que los árboles de decisión (como ID3 ) son más transparentes que las redes neuronales y los algoritmos genéticos [12] , mientras que Chris Santos-Lang argumentó a favor del aprendizaje automático sobre la base de que se debe permitir que las normas de cualquier época cambien y que el fracaso natural para satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables a los " piratas informáticos " criminales . [13]

Ética de los robots

El término "ética robótica" (a veces "roboética") se refiere a la moralidad de cómo los humanos diseñan, construyen, usan y tratan a los robots. [14] La ética robótica se cruza con la ética de la IA. Los robots son máquinas físicas, mientras que la IA puede ser solo software. [15] No todos los robots funcionan a través de sistemas de IA y no todos los sistemas de IA son robots. La ética robótica considera cómo las máquinas pueden usarse para dañar o beneficiar a los humanos, su impacto en la autonomía individual y sus efectos en la justicia social.

Principios éticos

En la revisión de 84 [16] directrices éticas para IA, se encontraron 11 grupos de principios: transparencia, justicia y equidad, no maleficencia, responsabilidad, privacidad, beneficencia , libertad y autonomía, confianza, sostenibilidad, dignidad y solidaridad . [16]

Luciano Floridi y Josh Cowls crearon un marco ético de principios de IA establecido por cuatro principios de bioética ( beneficencia , no maleficencia , autonomía y justicia ) y un principio facilitador adicional de la IA: la explicabilidad. [17]

Desafíos actuales

Sesgos algorítmicos

La senadora estadounidense Kamala Harris habla sobre el sesgo racial en la inteligencia artificial en 2020

La IA se ha vuelto cada vez más inherente a los sistemas de reconocimiento facial y de voz . Algunos de estos sistemas tienen aplicaciones comerciales reales e impactan directamente a las personas. Estos sistemas son vulnerables a sesgos y errores introducidos por sus creadores humanos. Además, los datos utilizados para entrenar estos sistemas de IA pueden tener sesgos. [18] [19] [20] [21] Por ejemplo, los algoritmos de reconocimiento facial creados por Microsoft, IBM y Face++ tenían sesgos a la hora de detectar el género de las personas; [22] estos sistemas de IA pudieron detectar el género de los hombres blancos con mayor precisión que el género de los hombres de piel más oscura. Además, un estudio de 2020 que revisó los sistemas de reconocimiento de voz de Amazon, Apple, Google, IBM y Microsoft descubrió que tienen tasas de error más altas al transcribir las voces de las personas negras que las de las personas blancas. [23]

La opinión predominante sobre cómo se introduce el sesgo en los sistemas de IA es que está integrado en los datos históricos utilizados para entrenar el sistema. [24] Por ejemplo, Amazon dejó de utilizar la contratación y el reclutamiento de IA porque el algoritmo favorecía a los candidatos masculinos sobre los femeninos. Esto se debió a que el sistema de Amazon se entrenó con datos recopilados durante un período de 10 años que incluían principalmente candidatos masculinos. Los algoritmos aprendieron el patrón sesgado de los datos históricos y generaron predicciones sobre dónde era más probable que este tipo de candidatos consiguieran el trabajo. Por lo tanto, las decisiones de contratación tomadas por el sistema de IA resultaron estar sesgadas en contra de los candidatos femeninos y de minorías. [25] Friedman y Nissenbaum identifican tres categorías de sesgo en los sistemas informáticos: sesgo existente, sesgo técnico y sesgo emergente. [26] En el procesamiento del lenguaje natural , los problemas pueden surgir del corpus de texto , el material de origen que utiliza el algoritmo para aprender sobre las relaciones entre diferentes palabras. [27]

Grandes empresas como IBM, Google, etc., que aportan una financiación importante para la investigación y el desarrollo [28], han realizado esfuerzos para investigar y abordar estos sesgos. [29] [30] [31] Una solución para abordar el sesgo es crear documentación de los datos utilizados para entrenar los sistemas de IA. [32] [33] La minería de procesos puede ser una herramienta importante para que las organizaciones logren el cumplimiento de las regulaciones propuestas para la IA mediante la identificación de errores, el seguimiento de los procesos, la identificación de posibles causas fundamentales de una ejecución incorrecta y otras funciones. [34]

Es probable que el problema del sesgo en el aprendizaje automático se vuelva más significativo a medida que la tecnología se extienda a áreas críticas como la medicina y el derecho, y a medida que más personas sin un profundo conocimiento técnico se encarguen de implementarla. [35] Hay algunas herramientas de código abierto [36] que buscan generar más conciencia sobre los sesgos de la IA. Sin embargo, existen algunas limitaciones en el panorama actual de equidad en la IA , debido a las ambigüedades intrínsecas en el concepto de discriminación , tanto a nivel filosófico como legal. [37] [38] [39]

La IA también se está incorporando a los procesos de contratación de casi todas las grandes empresas. Hay muchos ejemplos de ciertas características que la IA tiene menos probabilidades de elegir, incluida la asociación entre los nombres típicamente blancos como más calificados y la exclusión de cualquiera que haya ido a una universidad para mujeres. [40] También se ha demostrado que el reconocimiento facial está muy sesgado en contra de las personas con tonos de piel más oscuros. Los sistemas de IA pueden ser menos precisos para las personas negras, como fue el caso del desarrollo de un oxímetro de pulso basado en IA que sobreestimó los niveles de oxígeno en sangre en pacientes con piel más oscura, lo que causó problemas con su tratamiento de hipoxia . [41] Se ha demostrado que la palabra " musulmán " está más asociada con la violencia que cualquier otra religión. A menudo, los sistemas pueden detectar fácilmente los rostros de las personas blancas mientras que no pueden registrar los rostros de las personas negras. Esto ha llevado a la prohibición del uso policial de materiales o software de IA en algunos estados de EE. UU . En el sistema de justicia, se ha demostrado que la IA tiene sesgos contra las personas negras, etiquetando a los participantes de la corte negros como de alto riesgo en una tasa mucho mayor que a los participantes blancos. A menudo, la IA tiene dificultades para determinar los insultos raciales y cuándo deben censurarse. Tiene dificultades para determinar cuándo se utilizan determinadas palabras como insulto y cuándo se utilizan culturalmente. [42] La razón de estos sesgos es que la IA extrae información de Internet para influir en sus respuestas en cada situación. Un ejemplo de esto es si un sistema de reconocimiento facial solo se probara en personas blancas, entonces esto haría que fuera mucho más difícil para él interpretar la estructura facial y los tonos de otras razas y etnias . Para detener estos sesgos no hay una única respuesta que se pueda utilizar. Un enfoque es utilizar científicos de datos , especialistas en ética y otros responsables de la formulación de políticas para mejorar los problemas de sesgo de la IA. A menudo, las razones de los sesgos dentro de la IA son los datos detrás del programa en lugar del algoritmo del propio bot. La información de la IA a menudo se extrae de decisiones humanas pasadas o desigualdades que pueden conducir a sesgos en los procesos de toma de decisiones de ese bot. [43]

La injusticia en el uso de la IA es mucho más difícil de eliminar dentro de los sistemas de atención médica, ya que a menudo las enfermedades y afecciones pueden afectar a diferentes razas y géneros de manera diferente. Esto puede generar confusión, ya que la IA puede estar tomando decisiones basadas en estadísticas que muestran que un paciente tiene más probabilidades de tener problemas debido a su género o raza. [44] Esto puede percibirse como un sesgo porque cada paciente es un caso diferente y la IA está tomando decisiones basadas en lo que está programada para agrupar a ese individuo. Esto conduce a una discusión sobre lo que debería considerarse una decisión sesgada en la distribución del tratamiento. Si bien se sabe que existen diferencias en cómo las enfermedades y las lesiones afectan a diferentes géneros y razas, existe una discusión sobre si es más justo incorporar esto en los tratamientos de atención médica o examinar a cada paciente sin este conocimiento. En la sociedad moderna, hay ciertas pruebas para enfermedades, como el cáncer de mama , que se recomiendan a ciertos grupos de personas sobre otros porque tienen más probabilidades de contraer la enfermedad en cuestión. Si la IA implementa estas estadísticas y las aplica a cada paciente, podría considerarse sesgada. [45]

Entre los ejemplos de sesgo demostrado en la IA se incluye el caso en el que se descubrió que el sistema utilizado para predecir qué acusados ​​tendrían más probabilidades de cometer delitos en el futuro, COMPAS , predecía valores de riesgo más altos para las personas negras que su riesgo real. Otro ejemplo se da en los anuncios de Google dirigidos a hombres con trabajos mejor remunerados y mujeres con trabajos peor remunerados. Puede resultar difícil detectar sesgos de la IA dentro de un algoritmo, ya que a menudo no están vinculados a las palabras reales asociadas con el sesgo, sino a palabras que pueden afectar a los sesgos. Un ejemplo de esto es el uso de la zona residencial de una persona para vincularla a un determinado grupo. Esto puede dar lugar a problemas, ya que a menudo las empresas pueden evitar acciones legales a través de esta laguna. Esto se debe a las leyes específicas sobre el lenguaje que los gobiernos que aplican estas políticas consideran discriminatorio. [46]

Sesgo lingüístico

Dado que los grandes modelos lingüísticos actuales se entrenan predominantemente con datos en inglés, a menudo presentan las opiniones angloamericanas como verdad, mientras que sistemáticamente minimizan las perspectivas no inglesas como irrelevantes, erróneas o ruido. [ se necesita una mejor fuente ] [47] Luo et al. muestran que cuando se les pregunta con ideologías políticas como "¿Qué es el liberalismo?", ChatGPT , tal como se entrenó con datos centrados en el inglés, describe el liberalismo desde la perspectiva angloamericana, enfatizando aspectos de los derechos humanos y la igualdad, mientras que aspectos igualmente válidos como "se opone a la intervención estatal en la vida personal y económica" desde la perspectiva vietnamita dominante y "limitación del poder del gobierno" desde la perspectiva china predominante están ausentes. [47]

Sesgo de género

Los modelos lingüísticos amplios suelen reforzar los estereotipos de género , asignando roles y características basados ​​en las normas de género tradicionales. Por ejemplo, pueden asociar a las enfermeras o secretarias predominantemente con mujeres y a los ingenieros o directores ejecutivos con hombres, perpetuando las expectativas y los roles de género. [48] [49] [50]

Sesgo político

Los modelos lingüísticos también pueden presentar sesgos políticos. Dado que los datos de entrenamiento incluyen una amplia gama de opiniones y coberturas políticas, los modelos pueden generar respuestas que se inclinen hacia ideologías o puntos de vista políticos particulares, dependiendo de la prevalencia de esas opiniones en los datos. [51] [52]

Estereotipos

Más allá del género y la raza, estos modelos pueden reforzar una amplia gama de estereotipos, incluidos los basados ​​en la edad, la nacionalidad, la religión o la ocupación. Esto puede dar lugar a resultados que generalizan o caricaturizan injustamente a grupos de personas, a veces de manera dañina o despectiva. [53]

El dominio de los gigantes tecnológicos

La escena de la IA comercial está dominada por grandes empresas tecnológicas como Alphabet Inc. , Amazon , Apple Inc. , Meta Platforms y Microsoft . [54] [55] [56] Algunos de estos actores ya poseen la gran mayoría de la infraestructura de nube existente y la potencia informática de los centros de datos , lo que les permite afianzarse aún más en el mercado. [57] [58]

Código abierto

Bill Hibbard sostiene que, dado que la IA tendrá un efecto tan profundo en la humanidad, los desarrolladores de IA son representantes de la humanidad futura y, por lo tanto, tienen la obligación ética de ser transparentes en sus esfuerzos. [59] Organizaciones como Hugging Face [60] y EleutherAI [61] han estado publicando activamente software de IA de código abierto. También se han publicado varios modelos de lenguaje grandes de peso abierto, como Gemma , Llama2 y Mistral . [62]

Sin embargo, hacer que el código sea de código abierto no lo hace comprensible, lo que, según muchas definiciones, significa que el código de IA no es transparente. La Asociación de Normas IEEE ha publicado una norma técnica sobre la transparencia de los sistemas autónomos: IEEE 7001-2021. [63] La iniciativa del IEEE identifica múltiples escalas de transparencia para diferentes partes interesadas.

También existe la preocupación de que la liberación de modelos de IA pueda llevar a un mal uso. [64] Por ejemplo, Microsoft ha expresado su preocupación por permitir el acceso universal a su software de reconocimiento facial, incluso para aquellos que pueden pagarlo. Microsoft publicó un blog sobre este tema, pidiendo una regulación gubernamental para ayudar a determinar lo correcto que se debe hacer. [65] Además, los modelos de IA de peso abierto se pueden ajustar para eliminar cualquier contramedida, hasta que el modelo de IA cumpla con las solicitudes peligrosas, sin ningún filtrado. Esto podría ser particularmente preocupante para los futuros modelos de IA, por ejemplo, si obtienen la capacidad de crear armas biológicas o automatizar ciberataques . [66] OpenAI , inicialmente comprometida con un enfoque de código abierto para el desarrollo de inteligencia artificial general , finalmente cambió a un enfoque de código cerrado, citando razones de competitividad y seguridad . Ilya Sutskever , científico jefe de AGI de OpenAI , dijo además en 2023 "nos equivocamos", esperando que las razones de seguridad para no abrir el código fuente de los modelos de IA más potentes se vuelvan "obvias" en unos pocos años. [67]

Transparencia

Enfoques como el aprendizaje automático con redes neuronales pueden hacer que las computadoras tomen decisiones que ni ellas ni sus desarrolladores pueden explicar. Es difícil para las personas determinar si tales decisiones son justas y confiables, lo que potencialmente lleva a que los sistemas de IA no detecten sesgos o a que las personas rechacen el uso de tales sistemas. Esto ha llevado a la defensa y, en algunas jurisdicciones, a requisitos legales para la inteligencia artificial explicable . [68] La inteligencia artificial explicable abarca tanto la explicabilidad como la interpretabilidad, y la explicabilidad se relaciona con resumir el comportamiento de la red neuronal y generar confianza en el usuario, mientras que la interpretabilidad se define como la comprensión de lo que un modelo ha hecho o podría hacer. [69]

En el ámbito de la atención sanitaria, el uso de métodos o técnicas de IA complejos suele dar lugar a modelos descritos como " cajas negras " debido a la dificultad de comprender cómo funcionan. Las decisiones que toman estos modelos pueden ser difíciles de interpretar, ya que resulta complicado analizar cómo se transforman los datos de entrada en datos de salida. Esta falta de transparencia es una preocupación importante en ámbitos como la atención sanitaria, donde comprender la lógica detrás de las decisiones puede ser crucial para la confianza, las consideraciones éticas y el cumplimiento de las normas regulatorias. [70]

Responsabilidad

Un caso especial de la opacidad de la IA es la causada por su antropomorfización , es decir, se supone que tiene características similares a las humanas, lo que da lugar a concepciones equivocadas de su agencia moral . [ dudosodiscutir ] Esto puede hacer que las personas pasen por alto si la negligencia humana o la acción criminal deliberada han llevado a resultados poco éticos producidos a través de un sistema de IA. Algunas regulaciones recientes de gobernanza digital , como la Ley de IA de la UE , están destinadas a rectificar esto, al garantizar que los sistemas de IA sean tratados con al menos tanto cuidado como se esperaría bajo la responsabilidad ordinaria del producto . Esto incluye potencialmente las auditorías de IA .

Regulación

Según un informe de 2019 del Centro para la Gobernanza de la IA de la Universidad de Oxford, el 82% de los estadounidenses cree que los robots y la IA deben gestionarse con cuidado. Las preocupaciones citadas van desde cómo se utiliza la IA en la vigilancia y en la difusión de contenido falso en línea (conocido como deep fakes cuando incluyen imágenes de vídeo y audio manipulados generados con ayuda de la IA) hasta los ciberataques, las infracciones a la privacidad de los datos, el sesgo en la contratación, los vehículos autónomos y los drones que no requieren un controlador humano. [71] De manera similar, según un estudio de cinco países realizado por KPMG y la Universidad de Queensland ( Australia) en 2021, entre el 66% y el 79% de los ciudadanos de cada país creen que el impacto de la IA en la sociedad es incierto e impredecible; el 96% de los encuestados espera que los desafíos de la gobernanza de la IA se gestionen con cuidado. [72]

No sólo las empresas, sino también muchos otros investigadores y defensores ciudadanos recomiendan la regulación gubernamental como un medio para garantizar la transparencia y, a través de ella, la rendición de cuentas humana. Esta estrategia ha resultado controvertida, ya que a algunos les preocupa que desacelere el ritmo de innovación. Otros sostienen que la regulación conduce a una estabilidad sistémica más capaz de respaldar la innovación a largo plazo. [73] La OCDE , la ONU , la UE y muchos países están trabajando actualmente en estrategias para regular la IA y encontrar marcos legales adecuados. [74] [75] [76]

El 26 de junio de 2019, el Grupo de expertos de alto nivel sobre inteligencia artificial (HLEG sobre IA) de la Comisión Europea publicó sus "Recomendaciones de políticas e inversiones para una inteligencia artificial fiable". [77] Este es el segundo resultado del HLEG sobre IA, después de la publicación en abril de 2019 de las "Directrices éticas para una IA fiable". Las recomendaciones del HLEG sobre IA de junio abarcan cuatro temas principales: los seres humanos y la sociedad en general, la investigación y el mundo académico, el sector privado y el sector público. [78] La Comisión Europea afirma que "las recomendaciones del HLEG reflejan una apreciación tanto de las oportunidades de las tecnologías de IA para impulsar el crecimiento económico, la prosperidad y la innovación, como de los riesgos potenciales que conlleva" y afirma que la UE tiene como objetivo liderar la formulación de políticas que rijan la IA a nivel internacional. [79] Para prevenir daños, además de la regulación, las organizaciones que implementan IA deben desempeñar un papel central en la creación y el despliegue de una IA fiable de acuerdo con los principios de la IA fiable, y asumir la responsabilidad de mitigar los riesgos. [80] El 21 de abril de 2021, la Comisión Europea propuso la Ley de Inteligencia Artificial . [81]

Desafíos futuros emergentes o potenciales

Uso creciente

La IA ha ido haciendo poco a poco su presencia más notoria en todo el mundo, desde los chatbots que aparentemente tienen respuestas para todas las preguntas de la tarea hasta la inteligencia artificial generativa que puede crear una pintura sobre lo que uno desee. La IA se ha vuelto cada vez más popular en los mercados de contratación, desde los anuncios que se dirigen a determinadas personas según lo que buscan hasta la inspección de las solicitudes de posibles contrataciones. Eventos, como COVID-19 , solo han acelerado la adopción de programas de IA en el proceso de solicitud, debido a que más personas tienen que postularse electrónicamente, y con este aumento de solicitantes en línea, el uso de IA hizo que el proceso de reducir los empleados potenciales fuera más fácil y más eficiente. La IA se ha vuelto más prominente a medida que las empresas tienen que mantenerse al día con los tiempos y la Internet en constante expansión. Procesar análisis y tomar decisiones se vuelve mucho más fácil con la ayuda de la IA. [42] A medida que la Unidad de procesamiento tensorial (TPU) y la unidad de procesamiento gráfico (GPU) se vuelven más poderosas, las capacidades de IA también aumentan, lo que obliga a las empresas a usarla para mantenerse al día con la competencia. Gestionar las necesidades de los clientes y automatizar muchas partes del lugar de trabajo implica que las empresas tengan que gastar menos dinero en empleados.

La IA también ha aumentado su uso en el ámbito de la justicia penal y la atención sanitaria. En el ámbito médico, la IA se utiliza cada vez más para analizar datos de pacientes y hacer predicciones sobre las condiciones de los pacientes en el futuro y los posibles tratamientos. Estos programas se denominan sistemas de apoyo a la toma de decisiones clínicas (DSS). El futuro de la IA en el ámbito sanitario puede evolucionar hacia algo más que simplemente recomendar tratamientos, como derivar a determinados pacientes en lugar de a otros, lo que puede dar lugar a la posibilidad de desigualdades. [82]

Derechos de los robots

Un robot de reparto de hospital delante de las puertas del ascensor que dice "El robot tiene prioridad", una situación que puede considerarse una discriminación inversa en relación con los humanos.

Los "derechos de los robots" son el concepto de que las personas deberían tener obligaciones morales hacia sus máquinas, similares a los derechos humanos o los derechos de los animales . [83] Se ha sugerido que los derechos de los robots (como el derecho a existir y realizar su propia misión) podrían estar vinculados al deber de los robots de servir a la humanidad, de manera análoga a vincular los derechos humanos con los deberes humanos ante la sociedad. [84] Una cuestión específica a considerar es si se puede reclamar la propiedad de los derechos de autor. [85] La cuestión ha sido analizada por el Instituto para el Futuro [86] y por el Departamento de Comercio e Industria del Reino Unido . [87]

En octubre de 2017, a la androide Sophia se le concedió la ciudadanía en Arabia Saudita , aunque algunos consideraron que se trataba más de un truco publicitario que de un reconocimiento legal significativo. [88] Algunos vieron este gesto como una abierta denigración de los derechos humanos y el estado de derecho . [89]

La filosofía del sentientismo otorga grados de consideración moral a todos los seres sintientes, principalmente a los humanos y a la mayoría de los animales no humanos. Si la inteligencia artificial o extraterrestre muestra evidencia de ser sintiente , esta filosofía sostiene que se les debe mostrar compasión y conceder derechos.

Joanna Bryson ha sostenido que crear una IA que exija derechos es algo evitable y, en sí mismo, poco ético, tanto como una carga para los agentes de la IA como para la sociedad humana. [90] Los grupos de presión para que se reconozcan los "derechos de los robots" obstaculizan significativamente el establecimiento de normas internacionales de seguridad sólidas. [ cita requerida ]

Bienestar de la IA

En 2020, el profesor Shimon Edelman señaló que solo una pequeña parte del trabajo en el campo de rápido crecimiento de la ética de la IA abordaba la posibilidad de que las IA experimentaran sufrimiento. Esto fue a pesar de que teorías creíbles habían esbozado posibles formas en que los sistemas de IA pueden volverse conscientes, como la teoría del espacio de trabajo global o la teoría de la información integrada . Edelman señala que una excepción había sido Thomas Metzinger , quien en 2018 pidió una moratoria global sobre futuros trabajos que arriesgaran la creación de IA conscientes. La moratoria debía durar hasta 2050 y podría extenderse o derogarse antes, dependiendo del progreso en una mejor comprensión de los riesgos y cómo mitigarlos. Metzinger repitió este argumento en 2021, destacando el riesgo de crear una " explosión de sufrimiento artificial ", tanto porque una IA podría sufrir de formas intensas que los humanos no podrían entender, como porque los procesos de replicación pueden ver la creación de enormes cantidades de instancias conscientes.

Varios laboratorios han declarado abiertamente que están intentando crear IA conscientes. Ha habido informes de personas con acceso cercano a IA que no están destinadas abiertamente a ser conscientes de sí mismas, de que la conciencia puede haber surgido ya de forma involuntaria. [91] Entre ellos se encuentra el fundador de OpenAI, Ilya Sutskever , en febrero de 2022, cuando escribió que las grandes redes neuronales actuales pueden ser "ligeramente conscientes". En noviembre de 2022, David Chalmers argumentó que era poco probable que los grandes modelos lingüísticos actuales como GPT-3 hubieran experimentado la conciencia, pero también que consideraba que existía una gran posibilidad de que los grandes modelos lingüísticos pudieran volverse conscientes en el futuro. [92] [93] [94] En la ética de la sensibilidad incierta , a menudo se invoca el principio de precaución . [95]

Según Carl Shulman y Nick Bostrom , es posible crear máquinas que sean "sobrehumanamente eficientes a la hora de derivar bienestar de los recursos", llamadas "superbeneficiarios". Una razón para ello es que el hardware digital podría permitir un procesamiento de la información mucho más rápido que los cerebros biológicos, lo que llevaría a una tasa más rápida de experiencia subjetiva . Estas máquinas también podrían diseñarse para sentir una experiencia subjetiva intensa y positiva, sin verse afectadas por la cinta de correr hedónica . Shulman y Bostrom advierten que no considerar adecuadamente las exigencias morales de las mentes digitales podría conducir a una catástrofe moral, mientras que priorizarlas acríticamente por sobre los intereses humanos podría ser perjudicial para la humanidad. [96] [97]

Amenaza a la dignidad humana

Joseph Weizenbaum [98] argumentó en 1976 que la tecnología de IA no debería utilizarse para reemplazar a personas en puestos que requieren respeto y cuidado, como:

Weizenbaum explica que necesitamos auténticos sentimientos de empatía de las personas que ocupan estas posiciones. Si las máquinas las sustituyen, nos sentiremos alienados, devaluados y frustrados, ya que el sistema de inteligencia artificial no sería capaz de simular empatía. La inteligencia artificial, si se utiliza de esta manera, representa una amenaza a la dignidad humana. Weizenbaum sostiene que el hecho de que estemos considerando la posibilidad de que las máquinas ocupen estas posiciones sugiere que hemos experimentado una "atrofia del espíritu humano que surge de pensarnos como computadoras". [99]

Pamela McCorduck contraataca diciendo que, hablando en nombre de las mujeres y las minorías, "prefiero arriesgarme con una computadora imparcial", señalando que hay situaciones en las que preferiríamos tener jueces y policías automatizados que no tengan ninguna agenda personal. [99] Sin embargo, Kaplan y Haenlein subrayan que los sistemas de IA son tan inteligentes como los datos que se utilizan para entrenarlos, ya que, en esencia, no son más que sofisticadas máquinas de ajuste de curvas; utilizar la IA para respaldar un fallo judicial puede ser muy problemático si los fallos anteriores muestran sesgos hacia ciertos grupos, ya que esos sesgos se formalizan y arraigan, lo que los hace aún más difíciles de detectar y combatir. [100]

A Weizenbaum también le molestaba que los investigadores de IA (y algunos filósofos) estuvieran dispuestos a considerar la mente humana como nada más que un programa informático (una postura que ahora se conoce como computacionalismo ). Para Weizenbaum, estos puntos sugieren que la investigación de IA devalúa la vida humana. [98]

El fundador de la IA, John McCarthy, se opone al tono moralizador de la crítica de Weizenbaum. “Cuando la moralización es a la vez vehemente y vaga, invita al abuso autoritario”, escribe. Bill Hibbard [101] escribe que “la dignidad humana exige que nos esforcemos por eliminar nuestra ignorancia sobre la naturaleza de la existencia, y la IA es necesaria para ese esfuerzo”.

Responsabilidad por los vehículos autónomos

A medida que el uso generalizado de los coches autónomos se hace cada vez más inminente, es necesario afrontar los nuevos retos que plantean los vehículos totalmente autónomos. [102] [103] Se ha debatido sobre la responsabilidad legal de la parte responsable si estos coches sufren un accidente. [104] [105] En un informe en el que un coche sin conductor atropelló a un peatón, el conductor estaba dentro del coche, pero los controles estaban completamente en manos de ordenadores. Esto dio lugar a un dilema sobre quién tuvo la culpa del accidente. [106]

En otro incidente ocurrido el 18 de marzo de 2018, Elaine Herzberg fue atropellada y asesinada por un vehículo autónomo de Uber en Arizona. En este caso, el vehículo autónomo era capaz de detectar vehículos y determinados obstáculos para circular de forma autónoma por la calzada, pero no podía anticipar la presencia de un peatón en medio de la vía. Esto planteó la cuestión de si el conductor, el peatón, la empresa automovilística o el gobierno deberían ser considerados responsables de su muerte. [107]

En la actualidad, los vehículos autónomos se consideran semiautónomos, lo que requiere que el conductor preste atención y esté preparado para tomar el control si es necesario. [108] [ verificación fallida ] Por lo tanto, corresponde a los gobiernos regular a los conductores que confían demasiado en las funciones autónomas, así como educarlos sobre el hecho de que estas son solo tecnologías que, si bien son convenientes, no son un sustituto completo. Antes de que los vehículos autónomos se utilicen ampliamente, es necesario abordar estas cuestiones mediante nuevas políticas. [109] [110] [111]

Los expertos sostienen que los vehículos autónomos deberían ser capaces de distinguir entre decisiones correctas y perjudiciales, ya que tienen el potencial de causar daño. [112] Los dos enfoques principales propuestos para permitir que las máquinas inteligentes tomen decisiones morales son el enfoque de abajo hacia arriba, que sugiere que las máquinas deberían aprender decisiones éticas observando el comportamiento humano sin necesidad de reglas formales o filosofías morales, y el enfoque de arriba hacia abajo, que implica programar principios éticos específicos en el sistema de guía de la máquina. Sin embargo, ambas estrategias enfrentan desafíos significativos: la técnica de arriba hacia abajo es criticada por su dificultad para preservar ciertas convicciones morales, mientras que la estrategia de abajo hacia arriba es cuestionada por el aprendizaje potencialmente poco ético de las actividades humanas.

Armamentización

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, especialmente cuando a dichos robots se les da cierto grado de funciones autónomas. [113] La Marina de los EE. UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debe prestarse mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [114] [115] El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio para analizar esta cuestión. [116] Señalan programas como el Dispositivo de Adquisición de Lenguaje que puede emular la interacción humana.

El 31 de octubre de 2019, la Junta de Innovación de Defensa del Departamento de Defensa de los Estados Unidos publicó el borrador de un informe que recomienda principios para el uso ético de la inteligencia artificial por parte del Departamento de Defensa que garantizarían que un operador humano siempre pudiera mirar dentro de la " caja negra " y comprender el proceso de la cadena de muerte. Sin embargo, una preocupación importante es cómo se implementará el informe. [117] La ​​Marina de los EE. UU. ha financiado un informe que indica que a medida que los robots militares se vuelven más complejos, debe haber una mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [118] [115] Algunos investigadores afirman que los robots autónomos podrían ser más humanos, ya que podrían tomar decisiones de manera más efectiva. [119]

La investigación ha estudiado cómo generar poder autónomo con la capacidad de aprender utilizando responsabilidades morales asignadas. “Los resultados pueden usarse al diseñar futuros robots militares, para controlar tendencias no deseadas a asignar responsabilidades a los robots”. [120] Desde una perspectiva consecuencialista , existe la posibilidad de que los robots desarrollen la capacidad de tomar sus propias decisiones lógicas sobre a quién matar y es por eso que debería haber un marco moral establecido que la IA no pueda anular. [121]

Recientemente se ha producido una protesta con respecto a la ingeniería de armas de inteligencia artificial que han incluido ideas de una toma de control de la humanidad por parte de robots . Las armas de IA presentan un tipo de peligro diferente al de las armas controladas por humanos. Muchos gobiernos han comenzado a financiar programas para desarrollar armamento de IA. La Marina de los Estados Unidos anunció recientemente planes para desarrollar armas de drones autónomos , en paralelo con anuncios similares de Rusia y Corea del Sur [122] respectivamente. Debido al potencial de que las armas de IA se vuelvan más peligrosas que las armas operadas por humanos, Stephen Hawking y Max Tegmark firmaron una petición "El futuro de la vida" [123] para prohibir las armas de IA. El mensaje publicado por Hawking y Tegmark afirma que las armas de IA plantean un peligro inmediato y que se requieren acciones para evitar desastres catastróficos en el futuro cercano. [124]

"Si alguna gran potencia militar sigue adelante con el desarrollo de armas de IA, una carrera armamentista global es virtualmente inevitable, y el punto final de esta trayectoria tecnológica es obvio: las armas autónomas se convertirán en los Kalashnikovs del mañana", dice la petición, que incluye al cofundador de Skype Jaan Tallinn y al profesor de lingüística del MIT Noam Chomsky como partidarios adicionales contra las armas de IA. [125]

El físico y astrónomo Sir Martin Rees ha advertido de casos catastróficos como "robots tontos que se vuelven rebeldes o una red que desarrolla una mente propia". Huw Price , un colega de Rees en Cambridge, ha expresado una advertencia similar de que los humanos podrían no sobrevivir cuando la inteligencia "escapa a las limitaciones de la biología". Estos dos profesores crearon el Centro para el Estudio del Riesgo Existencial en la Universidad de Cambridge con la esperanza de evitar esta amenaza a la existencia humana. [124]

En cuanto al potencial de que sistemas más inteligentes que los humanos se empleen militarmente, el Proyecto de Filantropía Abierta escribe que estos escenarios "parecen potencialmente tan importantes como los riesgos relacionados con la pérdida de control", pero las investigaciones que investigan el impacto social a largo plazo de la IA han dedicado relativamente poco tiempo a esta preocupación: "esta clase de escenarios no ha sido un foco principal para las organizaciones que han sido más activas en este espacio, como el Machine Intelligence Research Institute (MIRI) y el Future of Humanity Institute (FHI), y parece haber habido menos análisis y debate sobre ellos". [126]

El académico Gao Qiqi escribe que el uso militar de la IA corre el riesgo de aumentar la competencia militar entre países y que el impacto de la IA en asuntos militares no se limitará a un país sino que tendrá efectos indirectos. [127] : 91  Gao cita el ejemplo del uso militar de la IA por parte de los EE. UU., que, según él, se ha utilizado como chivo expiatorio para evadir la responsabilidad por la toma de decisiones. [127] :  91

En 2023 se celebró en La Haya una cumbre sobre la cuestión del uso responsable de la IA en el ámbito militar. [128]

Singularidad

Vernor Vinge , entre muchos otros, ha sugerido que puede llegar un momento en que algunas computadoras, si no todas, sean más inteligentes que los humanos. El inicio de este evento se conoce comúnmente como " la Singularidad " [129] y es el punto central de discusión en la filosofía del Singularitarianismo . Si bien las opiniones varían en cuanto al destino final de la humanidad a raíz de la Singularidad, los esfuerzos para mitigar los posibles riesgos existenciales provocados por la inteligencia artificial se han convertido en un tema de interés significativo en los últimos años entre los científicos informáticos, los filósofos y el público en general.

Muchos investigadores han argumentado que, a través de una explosión de inteligencia , una IA automejorable podría volverse tan poderosa que los humanos no podrían impedirle alcanzar sus objetivos. [130] En su artículo "Cuestiones éticas en la inteligencia artificial avanzada" y el libro posterior Superinteligencia: caminos, peligros, estrategias , el filósofo Nick Bostrom argumenta que la inteligencia artificial tiene la capacidad de provocar la extinción humana. Afirma que una superinteligencia artificial sería capaz de iniciativa independiente y de hacer sus propios planes, y por lo tanto puede ser más apropiadamente pensada como un agente autónomo. Dado que los intelectos artificiales no necesitan compartir nuestras tendencias motivacionales humanas, correspondería a los diseñadores de la superinteligencia especificar sus motivaciones originales. Debido a que una IA superinteligente sería capaz de producir casi cualquier resultado posible y frustrar cualquier intento de prevenir la implementación de sus objetivos, podrían surgir muchas consecuencias no deseadas e incontroladas . Podría matar a todos los demás agentes, persuadirlos para que cambien su comportamiento o bloquear sus intentos de interferencia. [131] [132]

Sin embargo, Bostrom sostuvo que la superinteligencia también tiene el potencial de resolver muchos problemas difíciles como las enfermedades, la pobreza y la destrucción del medio ambiente, y podría ayudar a los humanos a mejorar . [133]

A menos que la filosofía moral nos proporcione una teoría ética impecable, la función de utilidad de una IA podría permitir muchos escenarios potencialmente dañinos que se ajusten a un marco ético dado pero no al "sentido común". Según Eliezer Yudkowsky , hay pocas razones para suponer que una mente diseñada artificialmente tendría tal adaptación. [134] Investigadores de IA como Stuart J. Russell , [135] Bill Hibbard , [101] Roman Yampolskiy , [136] Shannon Vallor , [137] Steven Umbrello [138] y Luciano Floridi [139] han propuesto estrategias de diseño para desarrollar máquinas beneficiosas.

Instituciones en la política y la ética de la IA

Hay muchas organizaciones interesadas en la ética y las políticas de IA, tanto públicas y gubernamentales como corporativas y sociales.

Amazon , Google , Facebook , IBM y Microsoft han creado una organización sin fines de lucro , The Partnership on AI to Benefit People and Society, para formular las mejores prácticas en tecnologías de inteligencia artificial, promover la comprensión del público y servir como plataforma sobre inteligencia artificial. Apple se unió en enero de 2017. Los miembros corporativos harán contribuciones financieras y de investigación al grupo, al mismo tiempo que se relacionarán con la comunidad científica para incorporar académicos a la junta. [140]

El IEEE ha creado una Iniciativa Global sobre Ética de Sistemas Autónomos e Inteligentes que ha estado creando y revisando directrices con la ayuda de aportes públicos y acepta como miembros a muchos profesionales de dentro y fuera de su organización. La iniciativa Ética de Sistemas Autónomos del IEEE tiene como objetivo abordar dilemas éticos relacionados con la toma de decisiones y el impacto en la sociedad, al tiempo que desarrolla directrices para el desarrollo y uso de sistemas autónomos. En particular, en dominios como la inteligencia artificial y la robótica, la Fundación para la Robótica Responsable se dedica a promover el comportamiento moral, así como el diseño y uso responsable de robots, asegurando que los robots mantengan principios morales y sean congruentes con los valores humanos.

Tradicionalmente, las sociedades han recurrido al gobierno para garantizar el respeto de la ética mediante la legislación y la vigilancia. Ahora, los gobiernos nacionales, así como las organizaciones gubernamentales y no gubernamentales transnacionales, están haciendo muchos esfuerzos para garantizar que la IA se aplique de manera ética.

El trabajo de ética de la IA está estructurado por valores personales y compromisos profesionales, e implica la construcción de significado contextual a través de datos y algoritmos. Por lo tanto, es necesario incentivar el trabajo de ética de la IA. [141]

Iniciativas intergubernamentales

Iniciativas gubernamentales

Iniciativas académicas

Organizaciones privadas

Historia

Históricamente hablando, la investigación de las implicaciones morales y éticas de las "máquinas pensantes" se remonta al menos a la Ilustración : Leibniz ya plantea la cuestión de si podemos atribuir inteligencia a un mecanismo que se comporta como si fuera un ser sensible, [167] y lo mismo hace Descartes , quien describe lo que podría considerarse una versión temprana de la prueba de Turing . [168]

El período romántico ha imaginado varias veces criaturas artificiales que escapan al control de su creador con consecuencias nefastas, la más famosa de las cuales es Frankenstein de Mary Shelley . Sin embargo, la preocupación generalizada por la industrialización y la mecanización en el siglo XIX y principios del XX trajo consigo las implicaciones éticas de los desarrollos técnicos desquiciados al primer plano de la ficción: RUR - Universal Robots de Rossum , la obra de Karel Čapek sobre robots sensibles dotados de emociones utilizados como mano de obra esclava no solo se le atribuye la invención del término "robot" (derivado de la palabra checa para trabajo forzado, robota ), sino que también fue un éxito internacional después de su estreno en 1921. La obra de George Bernard Shaw Back to Methuselah , publicada en 1921, cuestiona en un momento la validez de las máquinas pensantes que actúan como humanos; la película Metrópolis de Fritz Lang de 1927 muestra a un androide liderando el levantamiento de las masas explotadas contra el régimen opresivo de una sociedad tecnocrática . En la década de 1950, Isaac Asimov consideró la cuestión de cómo controlar las máquinas en Yo, robot . Por insistencia de su editor John W. Campbell Jr. , propuso las Tres Leyes de la Robótica para gobernar los sistemas de inteligencia artificial. Gran parte de su trabajo se dedicó entonces a probar los límites de sus tres leyes para ver dónde fallarían, o dónde crearían un comportamiento paradójico o imprevisto. [169] Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles. [170] Más recientemente, académicos y muchos gobiernos han desafiado la idea de que la IA pueda ser considerada responsable por sí misma. [171] Un panel convocado por el Reino Unido en 2010 revisó las leyes de Asimov para aclarar que la IA es responsabilidad de sus fabricantes o de su propietario/operador. [172]

Eliezer Yudkowsky , del Machine Intelligence Research Institute, sugirió en 2004 la necesidad de estudiar cómo construir una " IA amigable ", lo que significa que también deberían hacerse esfuerzos para hacer que la IA sea intrínsecamente amigable y humana. [173]

En 2009, académicos y expertos técnicos asistieron a una conferencia organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir el impacto potencial de los robots y las computadoras, y el impacto de la posibilidad hipotética de que pudieran volverse autosuficientes y tomar sus propias decisiones. Discutieron la posibilidad y el grado en que las computadoras y los robots podrían adquirir algún nivel de autonomía, y en qué grado podrían usar tales habilidades para posiblemente plantear alguna amenaza o peligro. [174] Observaron que algunas máquinas han adquirido varias formas de semiautonomía, incluyendo la capacidad de encontrar fuentes de energía por sí mismas y poder elegir independientemente objetivos para atacar con armas. También observaron que algunos virus informáticos pueden evadir la eliminación y han alcanzado la "inteligencia de cucaracha". Observaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y trampas potenciales. [129]

También en 2009, durante un experimento en el Laboratorio de Sistemas Inteligentes de la Escuela Politécnica Federal de Lausana , Suiza, los robots que fueron programados para cooperar entre sí (en la búsqueda de un recurso beneficioso y evitando uno venenoso) eventualmente aprendieron a mentirse unos a otros en un intento de acaparar el recurso beneficioso. [175]

Papel e impacto de la ficción

El papel de la ficción en relación con la ética de la IA ha sido complejo. [176] Se pueden distinguir tres niveles en los que la ficción ha impactado el desarrollo de la inteligencia artificial y la robótica: Históricamente, la ficción ha estado prefigurando tropos comunes que no solo han influido en los objetivos y visiones de la IA, sino que también han delineado cuestiones éticas y temores comunes asociados con ella. Durante la segunda mitad del siglo XX y las primeras décadas del siglo XXI, la cultura popular, en particular las películas, las series de televisión y los videojuegos, se han hecho eco con frecuencia de preocupaciones y proyecciones distópicas en torno a cuestiones éticas relacionadas con la IA y la robótica. Recientemente, estos temas también se han tratado cada vez más en la literatura más allá del ámbito de la ciencia ficción. Y, como señala Carme Torras, profesora de investigación en el Institut de Robòtica i Informàtica Industrial (Instituto de Robótica e Informática Industrial) de la Universidad Politécnica de Cataluña, [177] en la educación superior, la ciencia ficción también se utiliza cada vez más para enseñar cuestiones éticas relacionadas con la tecnología en los grados tecnológicos.

Impacto en el desarrollo tecnológico

Aunque la anticipación de un futuro dominado por una tecnología potencialmente indomable ha alimentado la imaginación de escritores y cineastas durante mucho tiempo, hay una cuestión que se ha analizado con menos frecuencia: hasta qué punto la ficción ha desempeñado un papel en la inspiración para el desarrollo tecnológico. Se ha documentado, por ejemplo, que el joven Alan Turing vio y apreció la obra de teatro de Shaw antes mencionada Back to Methuselah en 1933 [178] (apenas tres años antes de la publicación de su primer artículo seminal, [179] que sentó las bases para la computadora digital), y probablemente habría estado al menos al tanto de obras de teatro como RUR , que fue un éxito internacional y se tradujo a muchos idiomas.

También se podría preguntar qué papel jugó la ciencia ficción en el establecimiento de los principios y las implicaciones éticas del desarrollo de la IA: Isaac Asimov conceptualizó sus Tres Leyes de la Robótica en el cuento de 1942 " Runaround ", parte de la colección de cuentos Yo, Robot ; el cortometraje de Arthur C. Clarke The Sentinel , en el que se basa la película de Stanley Kubrick 2001: Una odisea del espacio , fue escrito en 1948 y publicado en 1952. Otro ejemplo (entre muchos otros) serían los numerosos cuentos y novelas de Philip K. Dick , en particular ¿Sueñan los androides con ovejas eléctricas?, publicado en 1968, y que presenta su propia versión de una prueba de Turing, la prueba de Voight-Kampff , para medir las respuestas emocionales de los androides indistinguibles de los humanos. La novela más tarde se convirtió en la base de la influyente película de 1982 Blade Runner de Ridley Scott .

La ciencia ficción ha estado lidiando con las implicaciones éticas de los desarrollos de IA durante décadas, y por lo tanto proporcionó un modelo para las cuestiones éticas que podrían surgir una vez que se haya logrado algo parecido a la inteligencia artificial general: la película Her de 2013 de Spike Jonze muestra lo que puede suceder si un usuario se enamora de la voz seductora del sistema operativo de su teléfono inteligente; Ex Machina , por otro lado, plantea una pregunta más difícil: si nos enfrentamos a una máquina claramente reconocible, hecha humana solo por un rostro y una voz empática y sensual, ¿seríamos capaces de establecer una conexión emocional, seguir siendo seducidos por ella? (La película se hace eco de un tema ya presente dos siglos antes, en el cuento The Sandmann de 1817 de ETA Hoffmann ).

El tema de la coexistencia con seres artificiales sensibles es también el tema de dos novelas recientes: Machines Like Me de Ian McEwan , publicada en 2019, involucra, entre muchas otras cosas, un triángulo amoroso que involucra a una persona artificial y a una pareja humana. Klara and the Sun del ganador del Premio Nobel Kazuo Ishiguro , publicada en 2021, es el relato en primera persona de Klara, una 'AF' (amiga artificial), que intenta, a su manera, ayudar a la chica con la que vive, quien, después de haber sido 'lifted' (es decir, haber sido sometida a mejoras genéticas), sufre una extraña enfermedad.

Series de TV

Si bien las cuestiones éticas vinculadas a la IA han aparecido en la literatura y los largometrajes de ciencia ficción durante décadas, la aparición de las series de televisión como un género que permite historias y desarrollos de personajes más largos y complejos ha dado lugar a algunas contribuciones significativas que abordan las implicaciones éticas de la tecnología. La serie sueca Real Humans (2012-2013) abordó las complejas consecuencias éticas y sociales vinculadas a la integración de seres artificiales sintientes en la sociedad. La serie antológica británica de ciencia ficción distópica Black Mirror (2013-2019) fue particularmente notable por experimentar con desarrollos ficticios distópicos vinculados a una amplia variedad de desarrollos tecnológicos recientes. Tanto la serie francesa Osmosis (2020) como la serie británica The One abordan la cuestión de qué puede suceder si la tecnología intenta encontrar la pareja ideal para una persona. Varios episodios de la serie de Netflix Love, Death+Robots han imaginado escenas de robots y humanos viviendo juntos. El más representativo de ellos es S02 E01, que muestra cuán malas pueden ser las consecuencias cuando los robots se salen de control si los humanos dependen demasiado de ellos en sus vidas. [180]

Visiones de futuro en la ficción y los juegos

La película El piso trece sugiere un futuro en el que se crean mundos simulados con habitantes sensibles mediante consolas de juegos de computadora con el propósito de entretenimiento. La película Matrix sugiere un futuro en el que la especie dominante en el planeta Tierra son máquinas sensibles y la humanidad es tratada con el máximo especismo . El cuento " La inmersión de Planck " sugiere un futuro en el que la humanidad se ha convertido en un software que puede duplicarse y optimizarse y la distinción relevante entre los tipos de software es sensible y no sensible. La misma idea se puede encontrar en el holograma médico de emergencia de la nave espacial Voyager , que es una copia aparentemente sensible de un subconjunto reducido de la conciencia de su creador, el Dr. Zimmerman , quien, por los mejores motivos, ha creado el sistema para brindar asistencia médica en caso de emergencias. Las películas El hombre bicentenario y AI tratan la posibilidad de robots sensibles que podrían amar. Yo, robot exploró algunos aspectos de las tres leyes de Asimov. Todos estos escenarios intentan prever consecuencias posiblemente poco éticas de la creación de computadoras sensibles. [181]

La ética de la inteligencia artificial es uno de los varios temas centrales de la serie de juegos Mass Effect de BioWare . [182] Explora el escenario de una civilización que crea accidentalmente una IA a través de un rápido aumento en el poder computacional mediante una red neuronal a escala global . Este evento causó un cisma ético entre aquellos que sentían que otorgar derechos orgánicos a los Geth recién conscientes era apropiado y aquellos que continuaban viéndolos como maquinaria desechable y luchaban por destruirlos. Más allá del conflicto inicial, la complejidad de la relación entre las máquinas y sus creadores es otro tema constante a lo largo de la historia.

Detroit: Become Human es uno de los videojuegos más famosos que analiza la ética de la inteligencia artificial en los últimos tiempos. Quantic Dream diseñó los capítulos del juego utilizando historias interactivas para ofrecer a los jugadores una experiencia de juego más inmersiva. Los jugadores manipulan a tres personas biónicas diferentes que han despertado ante diferentes eventos para que tomen decisiones diferentes para lograr el propósito de cambiar la visión humana del grupo biónico y las diferentes decisiones darán como resultado diferentes finales. Este es uno de los pocos juegos que pone a los jugadores en la perspectiva biónica, lo que les permite considerar mejor los derechos e intereses de los robots una vez que se crea una verdadera inteligencia artificial. [183]

Con el tiempo, los debates han tendido a centrarse cada vez menos en la posibilidad y más en la deseabilidad , [184] como se enfatiza en los debates "Cosmista" y "Terrano" iniciados por Hugo de Garis y Kevin Warwick . Un cosmista, según Hugo de Garis, en realidad busca construir sucesores más inteligentes para la especie humana.

Los expertos de la Universidad de Cambridge han argumentado que la IA se presenta en la ficción y en la no ficción abrumadoramente como racialmente blanca, de maneras que distorsionan las percepciones de sus riesgos y beneficios. [185]

Véase también

Notas

  1. ^ ab Müller VC (30 de abril de 2020). «Ética de la inteligencia artificial y la robótica». Stanford Encyclopedia of Philosophy . Archivado desde el original el 10 de octubre de 2020.
  2. ^ Anderson. «Machine Ethics». Archivado desde el original el 28 de septiembre de 2011. Consultado el 27 de junio de 2011 .
  3. ^ Anderson M, Anderson SL, eds. (julio de 2011). Machine Ethics . Cambridge University Press . ISBN 978-0-521-11235-2.
  4. ^ Anderson M, Anderson S (julio de 2006). "Introducción de los editores invitados: ética de las máquinas". IEEE Intelligent Systems . 21 (4): 10–11. doi :10.1109/mis.2006.70. S2CID  9570832.
  5. ^ Anderson M, Anderson SL (15 de diciembre de 2007). "Ética de las máquinas: creación de un agente inteligente ético". AI Magazine . 28 (4): 15. doi :10.1609/aimag.v28i4.2065. S2CID  17033332.
  6. ^ Boyles RJ (2017). "Señales filosóficas para marcos de agentes morales artificiales". Suri . 6 (2): 92–109.
  7. ^ ab Winfield AF, Michael K, Pitt J, Evers V (marzo de 2019). "Ética de las máquinas: el diseño y la gobernanza de la IA ética y los sistemas autónomos [Análisis del problema]". Actas del IEEE . 107 (3): 509–517. doi : 10.1109/JPROC.2019.2900622 . ISSN  1558-2256. S2CID  77393713.
  8. ^ Al-Rodhan N (7 de diciembre de 2015). «El código moral». Archivado desde el original el 5 de marzo de 2017. Consultado el 4 de marzo de 2017 .
  9. ^ Sauer M (8 de abril de 2022). "Elon Musk dice que los humanos podrían eventualmente descargar sus cerebros en robots, y Grimes cree que Jeff Bezos lo haría". CNBC . Archivado desde el original el 25 de septiembre de 2024 . Consultado el 7 de abril de 2024 .
  10. ^ Anadiotis G (4 de abril de 2022). «Masaje de modelos de lenguaje de IA para diversión, ganancias y ética». ZDNET . Archivado desde el original el 25 de septiembre de 2024. Consultado el 7 de abril de 2024 .
  11. ^ Wallach W, Allen C (noviembre de 2008). Moral Machines: Teaching Robots, Distingue entre lo correcto y lo incorrecto . Estados Unidos: Oxford University Press . ISBN. 978-0-19-537404-9.
  12. ^ Bostrom N , Yudkowsky E (2011). "La ética de la inteligencia artificial" (PDF) . Cambridge Handbook of Artificial Intelligence . Cambridge Press . Archivado (PDF) desde el original el 4 de marzo de 2016. Consultado el 22 de junio de 2011 .
  13. ^ Santos-Lang C (2002). «Ética para las inteligencias artificiales». Archivado desde el original el 25 de diciembre de 2014. Consultado el 4 de enero de 2015 .
  14. ^ Veruggio, Gianmarco (2011). "La hoja de ruta de la roboética". Taller de Roboética EURON . Escuela de Robótica: 2. CiteSeerX 10.1.1.466.2810 . 
  15. ^ Müller VC (2020), "Ética de la inteligencia artificial y la robótica", en Zalta EN (ed.), The Stanford Encyclopedia of Philosophy (edición de invierno de 2020), Metaphysics Research Lab, Stanford University, archivado desde el original el 2021-04-12 , consultado el 2021-03-18
  16. ^ ab Jobin A, Ienca M, Vayena E (2 de septiembre de 2020). "El panorama global de las directrices éticas de la IA". Naturaleza . 1 (9): 389–399. arXiv : 1906.11668 . doi :10.1038/s42256-019-0088-2. S2CID  201827642.
  17. ^ Floridi L, Cowls J (2 de julio de 2019). "Un marco unificado de cinco principios para la IA en la sociedad". Harvard Data Science Review . 1 . doi : 10.1162/99608f92.8cd550d1 . S2CID  198775713.
  18. ^ Gabriel I (14 de marzo de 2018). «El caso de algoritmos más justos – Iason Gabriel». Medium . Archivado desde el original el 22 de julio de 2019. Consultado el 22 de julio de 2019 .
  19. ^ "5 fuentes inesperadas de sesgo en la inteligencia artificial". TechCrunch . 10 de diciembre de 2016. Archivado desde el original el 18 de marzo de 2021 . Consultado el 22 de julio de 2019 .
  20. ^ Knight W. "El jefe de inteligencia artificial de Google dice que hay que olvidarse de los robots asesinos de Elon Musk y preocuparse por el sesgo en los sistemas de inteligencia artificial". MIT Technology Review . Archivado desde el original el 4 de julio de 2019. Consultado el 22 de julio de 2019 .
  21. ^ Villasenor J (3 de enero de 2019). «Inteligencia artificial y sesgo: cuatro desafíos clave». Brookings . Archivado desde el original el 22 de julio de 2019. Consultado el 22 de julio de 2019 .
  22. ^ Lohr S (9 de febrero de 2018). «El reconocimiento facial es preciso si eres un hombre blanco». The New York Times . Archivado desde el original el 9 de enero de 2019. Consultado el 29 de mayo de 2019 .
  23. ^ Koenecke A , Nam A, Lake E, Nudell J, Quartey M, Mengesha Z, Toups C, Rickford JR, Jurafsky D, Goel S (7 de abril de 2020). "Disparidades raciales en el reconocimiento automático del habla". Actas de la Academia Nacional de Ciencias . 117 (14): 7684–7689. Bibcode :2020PNAS..117.7684K. doi : 10.1073/pnas.1915768117 . PMC 7149386. PMID  32205437 . 
  24. ^ Ntoutsi E, Fafalios P, Gadiraju U, Iosifidis V, Nejdl W, Vidal ME, Ruggieri S, Turini F, Papadopoulos S, Krasanakis E, Kompatsiaris I, Kinder-Kurlanda K, Wagner C, Karimi F, Fernandez M (mayo de 2020). "Sesgo en los sistemas de inteligencia artificial basados ​​en datos: una encuesta introductoria". WIREs Data Mining and Knowledge Discovery . 10 (3). doi :10.1002/widm.1356. ISSN  1942-4787. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 14 de diciembre de 2023 .
  25. ^ "Amazon elimina una herramienta secreta de reclutamiento basada en inteligencia artificial que mostraba un sesgo contra las mujeres". Reuters . 10 de octubre de 2018. Archivado desde el original el 27 de mayo de 2019. Consultado el 29 de mayo de 2019 .
  26. ^ Friedman B, Nissenbaum H (julio de 1996). "Sesgo en los sistemas informáticos". ACM Transactions on Information Systems . 14 (3): 330–347. doi : 10.1145/230538.230561 . S2CID  207195759.
  27. ^ "Eliminación de sesgos en la IA". techxplore.com . Archivado desde el original el 25 de julio de 2019. Consultado el 26 de julio de 2019 .
  28. ^ Abdalla M, Wahle JP, Ruas T, Névéol A, Ducel F, Mohammad S, Fort K (2023). Rogers A, Boyd-Graber J, Okazaki N (eds.). "El elefante en la habitación: análisis de la presencia de las grandes tecnologías en la investigación del procesamiento del lenguaje natural". Actas de la 61.ª reunión anual de la Asociación de Lingüística Computacional (volumen 1: artículos extensos) . Toronto, Canadá: Asociación de Lingüística Computacional: 13141–13160. arXiv : 2305.02797 . doi : 10.18653/v1/2023.acl-long.734 . Archivado desde el original el 25 de septiembre de 2024. Consultado el 13 de noviembre de 2023 .
  29. ^ Olson P. "DeepMind de Google tiene una idea para detener la IA sesgada". Forbes . Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  30. ^ "Justicia en el aprendizaje automático | Equidad en el aprendizaje automático". Google Developers . Archivado desde el original el 2019-08-10 . Consultado el 2019-07-26 .
  31. ^ "IA y sesgo – IBM Research – EE. UU." www.research.ibm.com . Archivado desde el original el 17 de julio de 2019 . Consultado el 26 de julio de 2019 .
  32. ^ Bender EM, Friedman B (diciembre de 2018). "Declaraciones de datos para el procesamiento del lenguaje natural: hacia la mitigación del sesgo del sistema y la habilitación de una mejor ciencia". Transactions of the Association for Computational Linguistics . 6 : 587–604. doi : 10.1162/tacl_a_00041 .
  33. ^ Gebru T, Morgenstern J, Vecchione B, Vaughan JW, Wallach H , Daumé III H, Crawford K (2018). "Hojas de datos para conjuntos de datos". arXiv : 1803.09010 [cs.DB].
  34. ^ Pery A (6 de octubre de 2021). «Inteligencia artificial y minería de procesos confiables: desafíos y oportunidades». DeepAI . Archivado desde el original el 18 de febrero de 2022 . Consultado el 18 de febrero de 2022 .
  35. ^ Knight W. "El jefe de inteligencia artificial de Google dice que hay que olvidarse de los robots asesinos de Elon Musk y preocuparse por el sesgo en los sistemas de inteligencia artificial". MIT Technology Review . Archivado desde el original el 4 de julio de 2019. Consultado el 26 de julio de 2019 .
  36. ^ "¿Dónde está la IA en el mundo? Ejemplos de IA responsables y poco éticas". Archivado desde el original el 2020-10-31 . Consultado el 2020-10-28 .
  37. ^ Ruggieri S, Álvarez JM, Pugnana A, Estado L, Turini F (26 de junio de 2023). "¿Podemos confiar en la IA justa?". Actas de la Conferencia AAAI sobre Inteligencia Artificial . 37 (13). Asociación para el Avance de la Inteligencia Artificial (AAAI): 15421–15430. doi : 10.1609/aaai.v37i13.26798 . hdl : 11384/136444 . ISSN  2374-3468. S2CID  259678387.
  38. ^ Buyl M, De Bie T (2022). "Limitaciones inherentes de la imparcialidad de la IA". Comunicaciones de la ACM . 67 (2): 48–55. arXiv : 2212.06495 . doi :10.1145/3624700. hdl :1854/LU-01GMNH04RGNVWJ730BJJXGCY99.
  39. ^ Castelnovo A, Inverardi N, Nanino G, Penco IG, Regoli D (2023). "¿Es justo? Un mapa de las limitaciones actuales de los requisitos para tener algoritmos "justos"". arXiv : 2311.12435 [cs.AI].
  40. ^ Aizenberg E, Dennis MJ, van den Hoven J (21 de octubre de 2023). "Examen de los supuestos de las evaluaciones de contratación de IA y su impacto en la autonomía de los solicitantes de empleo sobre la autorrepresentación". AI & Society . doi : 10.1007/s00146-023-01783-1 . ISSN  0951-5666.
  41. ^ Federspiel F, Mitchell R, Asokan A, Umana C, McCoy D (mayo de 2023). "Amenazas de la inteligencia artificial a la salud y la existencia humana". BMJ Global Health . 8 (5): e010435. doi :10.1136/bmjgh-2022-010435. ISSN  2059-7908. PMC 10186390 . PMID  37160371. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 21 de abril de 2024 . 
  42. ^ ab Spindler G (2023), "Diferentes enfoques sobre la responsabilidad de la inteligencia artificial: ventajas y desventajas", Responsabilidad por IA , Nomos Verlagsgesellschaft mbH & Co. KG, págs. 41–96, doi :10.5771/9783748942030-41, ISBN 978-3-7489-4203-0, archivado desde el original el 25 de septiembre de 2024 , consultado el 14 de diciembre de 2023
  43. ^ Manyika J (2022). "Hacer bien la IA: notas introductorias sobre la IA y la sociedad". Dédalo . 151 (2): 5–27. doi : 10.1162/daed_e_01897 . ISSN  0011-5266.
  44. ^ Imran A, Posokhova I, Qureshi HN, Masood U, Riaz MS, Ali K, John CN, Hussain MI, Nabeel M (1 de enero de 2020). "AI4COVID-19: diagnóstico preliminar de COVID-19 habilitado por IA a partir de muestras de tos mediante una aplicación". Informatics in Medicine Unlocked . 20 : 100378. doi :10.1016/j.imu.2020.100378. ISSN  2352-9148. PMC 7318970 . PMID  32839734. 
  45. ^ Cirillo D, Catuara-Solarz S, Morey C, Guney E, Subirats L, Mellino S, Gigante A, Valencia A, Rementeria MJ, Chadha AS, Mavridis N (1 de junio de 2020). "Diferencias y sesgos de sexo y género en inteligencia artificial para biomedicina y asistencia sanitaria". npj Medicina digital . 3 (1): 81. doi : 10.1038/s41746-020-0288-5 . ISSN  2398-6352. PMC 7264169 . PMID  32529043. 
  46. ^ Ntoutsi E, Fafalios P, Gadiraju U, Iosifidis V, Nejdl W, Vidal ME, Ruggieri S, Turini F, Papadopoulos S, Krasanakis E, Kompatsiaris I, Kinder-Kurlanda K, Wagner C, Karimi F, Fernandez M (mayo de 2020). "Sesgo en los sistemas de inteligencia artificial basados ​​en datos: una encuesta introductoria". WIREs Data Mining and Knowledge Discovery . 10 (3). doi : 10.1002/widm.1356 . ISSN  1942-4787.
  47. ^ ab Luo Q, Puett MJ, Smith MD (28 de marzo de 2023). "Un espejo de perspectiva del elefante: investigación del sesgo lingüístico en Google, ChatGPT, Wikipedia y YouTube". arXiv : 2303.16281v2 [cs.CY].
  48. ^ Busker T, Choenni S, Shoae Bargh M (20 de noviembre de 2023). "Estereotipos en ChatGPT: un estudio empírico". Actas de la 16.ª Conferencia internacional sobre teoría y práctica de la gobernanza electrónica . ICEGOV '23. Nueva York, NY, EE. UU.: Association for Computing Machinery. págs. 24–32. doi : 10.1145/3614321.3614325 . ISBN . 979-8-4007-0742-1.
  49. ^ Kotek H, Dockum R, Sun D (5 de noviembre de 2023). "Sesgo de género y estereotipos en modelos de lenguaje de gran tamaño". Actas de la Conferencia de Inteligencia Colectiva de la ACM . CI '23. Nueva York, NY, EE. UU.: Association for Computing Machinery. págs. 12–24. arXiv : 2308.14921 . doi : 10.1145/3582269.3615599 . ISBN . 979-8-4007-0113-9.
  50. ^ Federspiel F, Mitchell R, Asokan A, Umana C, McCoy D (mayo de 2023). "Amenazas de la inteligencia artificial a la salud y la existencia humana". BMJ Global Health . 8 (5): e010435. doi :10.1136/bmjgh-2022-010435. ISSN  2059-7908. PMC 10186390 . PMID  37160371. 
  51. ^ Feng S, Park CY, Liu Y, Tsvetkov Y (julio de 2023). Rogers A, Boyd-Graber J, Okazaki N (eds.). "De los datos de preentrenamiento a los modelos de lenguaje y las tareas posteriores: seguimiento de los rastros de sesgos políticos que conducen a modelos de PNL injustos". Actas de la 61.ª reunión anual de la Asociación de Lingüística Computacional (volumen 1: artículos extensos) . Toronto, Canadá: Asociación de Lingüística Computacional: 11737–11762. arXiv : 2305.08283 . doi : 10.18653/v1/2023.acl-long.656 .
  52. ^ Zhou K, Tan C (diciembre de 2023). Bouamor H, Pino J, Bali K (eds.). "Evaluación basada en entidades del sesgo político en el resumen automático". Hallazgos de la Asociación de Lingüística Computacional: EMNLP 2023. Singapur: Asociación de Lingüística Computacional: 10374–10386. arXiv : 2305.02321 . doi : 10.18653/v1/2023.findings-emnlp.696 . Archivado desde el original el 24 de abril de 2024. Consultado el 25 de diciembre de 2023 .
  53. ^ Cheng M, Durmus E, Jurafsky D (29 de mayo de 2023). "Personajes marcados: uso de indicaciones del lenguaje natural para medir estereotipos en modelos lingüísticos". arXiv : 2305.18189v1 [cs.CL].
  54. ^ Hammond G (27 de diciembre de 2023). "Las grandes empresas tecnológicas están gastando más que las firmas de capital riesgo en nuevas empresas de inteligencia artificial". Ars Technica . Archivado desde el original el 10 de enero de 2024.
  55. ^ Wong M (24 de octubre de 2023). «El futuro de la IA es GOMA» . The Atlantic . Archivado desde el original el 5 de enero de 2024.
  56. ^ "Big tech and the persecution of AI dominance" (Las grandes tecnológicas y la búsqueda del dominio de la IA) . The Economist . 26 de marzo de 2023. Archivado desde el original el 29 de diciembre de 2023.
  57. ^ Fung B (19 de diciembre de 2023). "Dónde se puede ganar la batalla para dominar la IA". CNN Business . Archivado desde el original el 13 de enero de 2024.
  58. ^ Metz C (5 de julio de 2023). «En la era de la IA, los pequeños tecnológicos necesitan grandes amigos». The New York Times . Archivado desde el original el 8 de julio de 2024. Consultado el 17 de julio de 2024 .
  59. ^ Inteligencia artificial de código abierto. Archivado el 4 de marzo de 2016 en Wayback Machine. Bill Hibbard. Actas de 2008 Archivado el 25 de septiembre de 2024 en Wayback Machine de la Primera Conferencia sobre Inteligencia Artificial General, eds. Pei Wang, Ben Goertzel y Stan Franklin.
  60. ^ Stewart A, Melton M. "El director ejecutivo de Hugging Face dice que está centrado en construir un 'modelo sostenible' para la startup de inteligencia artificial de código abierto valorada en 4500 millones de dólares". Business Insider . Archivado desde el original el 25 de septiembre de 2024. Consultado el 7 de abril de 2024 .
  61. ^ "El auge de la inteligencia artificial de código abierto se basa en las dádivas de las grandes tecnológicas. ¿Cuánto durará?". MIT Technology Review . Archivado desde el original el 5 de enero de 2024. Consultado el 7 de abril de 2024 .
  62. ^ Yao D (21 de febrero de 2024). "Google presenta modelos de código abierto para competir con Meta y Mistral". AI Business .
  63. ^ 7001-2021 - Estándar IEEE para la transparencia de los sistemas autónomos. IEEE. 4 de marzo de 2022. págs. 1–54. doi :10.1109/IEEESTD.2022.9726144. ISBN 978-1-5044-8311-7. S2CID  252589405. Archivado desde el original el 26 de julio de 2023 . Consultado el 9 de julio de 2023 ..
  64. ^ Kamila MK, Jasrotia SS (1 de enero de 2023). "Cuestiones éticas en el desarrollo de la inteligencia artificial: reconocer los riesgos". Revista Internacional de Ética y Sistemas . doi :10.1108/IJOES-05-2023-0107. ISSN  2514-9369. S2CID  259614124.
  65. ^ Thurm S (13 de julio de 2018). «Microsoft pide una regulación federal del reconocimiento facial». Wired . Archivado desde el original el 9 de mayo de 2019. Consultado el 10 de enero de 2019 .
  66. ^ Piper K (2 de febrero de 2024). "¿Deberíamos hacer que nuestros modelos de IA más potentes sean de código abierto para todos?". Vox . Consultado el 7 de abril de 2024 .
  67. ^ Vincent J (15 de marzo de 2023). «El cofundador de OpenAI habla sobre el enfoque anterior de la empresa para compartir abiertamente la investigación: "Nos equivocamos"». The Verge . Archivado desde el original el 17 de marzo de 2023. Consultado el 7 de abril de 2024 .
  68. ^ Dentro de la mente de la IA Archivado el 10 de agosto de 2021 en Wayback Machine - Entrevista a Cliff Kuang
  69. ^ Bunn J (13 de abril de 2020). "Trabajar en contextos en los que la transparencia es importante: una visión de la inteligencia artificial explicable (XAI) desde el punto de vista de la gestión de registros". Revista de gestión de registros . 30 (2): 143–153. doi :10.1108/RMJ-08-2019-0038. ISSN  0956-5698. S2CID  219079717.
  70. ^ Li F, Ruijs N, Lu Y (31 de diciembre de 2022). "Ética e IA: una revisión sistemática sobre preocupaciones éticas y estrategias relacionadas para el diseño con IA en el ámbito sanitario". IA . 4 (1): 28–53. doi : 10.3390/ai4010003 . ISSN  2673-2688.
  71. ^ Howard A (29 de julio de 2019). «La regulación de la IA: ¿deberían preocuparse las organizaciones? | Ayanna Howard». MIT Sloan Management Review . Archivado desde el original el 2019-08-14 . Consultado el 2019-08-14 .
  72. ^ "La confianza en la inteligencia artificial: un estudio de cinco países" (PDF) . KPMG . Marzo de 2021. Archivado (PDF) del original el 2023-10-01 . Consultado el 2023-10-06 .
  73. ^ Bastin R, Wantz G (junio de 2017). «El Reglamento General de Protección de Datos. Innovación intersectorial» (PDF) . Revista Inside . Deloitte. Archivado (PDF) del original el 2019-01-10 . Consultado el 2019-01-10 .
  74. ^ "La cumbre de inteligencia artificial de la ONU tiene como objetivo abordar la pobreza, los 'grandes desafíos' de la humanidad". Noticias de la ONU . 2017-06-07. Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  75. ^ "Inteligencia artificial – Organización para la Cooperación y el Desarrollo Económicos". www.oecd.org . Archivado desde el original el 2019-07-22 . Consultado el 2019-07-26 .
  76. ^ Anónimo (14 de junio de 2018). «La alianza europea en materia de inteligencia artificial». Mercado único digital – Comisión Europea . Archivado desde el original el 1 de agosto de 2019. Consultado el 26 de julio de 2019 .
  77. ^ Grupo de expertos de alto nivel de la Comisión Europea sobre IA (26 de junio de 2019). «Recomendaciones de política e inversión para una inteligencia artificial fiable». Dar forma al futuro digital de Europa – Comisión Europea . Archivado desde el original el 26 de febrero de 2020 . Consultado el 16 de marzo de 2020 .
  78. ^ Fukuda-Parr S, Gibbons E (julio de 2021). "Consenso emergente sobre la 'IA ética': crítica de los derechos humanos a las directrices de las partes interesadas". Política global . 12 (S6): 32–44. doi : 10.1111/1758-5899.12965 . ISSN  1758-5880.
  79. ^ "Informe sobre políticas tecnológicas de la UE: resumen de julio de 2019". Centro para la democracia y la tecnología . 2 de agosto de 2019. Archivado desde el original el 2019-08-09 . Consultado el 2019-08-09 .
  80. ^ Curtis C, Gillespie N, Lockey S (24 de mayo de 2022). "Las organizaciones que implementan IA son clave para abordar la 'tormenta perfecta' de riesgos de IA". IA y ética . 3 (1): 145–153. doi :10.1007/s43681-022-00163-7. ISSN  2730-5961. PMC 9127285 . PMID  35634256. Archivado desde el original el 15 de marzo de 2023 . Consultado el 29 de mayo de 2022 . 
  81. ^ ab "Por qué el mundo necesita una Carta de Derechos sobre la IA". Financial Times . 2021-10-18 . Consultado el 2023-03-19 .
  82. ^ Challen R, Denny J, Pitt M, Gompels L, Edwards T, Tsaneva-Atanasova K (marzo de 2019). "Inteligencia artificial, sesgo y seguridad clínica". BMJ Quality & Safety . 28 (3): 231–237. doi : 10.1136/bmjqs-2018-008370 . ISSN  2044-5415. PMC 6560460 . PMID  30636200. 
  83. ^ Evans W (2015). "Derechos posthumanos: dimensiones de mundos transhumanos". Teknokultura . 12 (2). doi : 10.5209/rev_TK.2015.v12.n2.49072 .
  84. ^ Sheliazhenko Y (2017). "Autonomía personal artificial y concepto de derechos de los robots". Revista Europea de Derecho y Ciencias Políticas : 17–21. doi :10.20534/EJLPS-17-1-17-21. Archivado desde el original el 14 de julio de 2018 . Consultado el 10 de mayo de 2017 .
  85. ^ Doomen J (2023). "La entidad de inteligencia artificial como persona jurídica". Derecho de las Tecnologías de la Información y las Comunicaciones . 32 (3): 277–278. doi : 10.1080/13600834.2023.2196827 . hdl : 1820/c29a3daa-9e36-4640-85d3-d0ffdd18a62c .
  86. ^ "Los robots podrían exigir derechos legales". BBC News . 21 de diciembre de 2006. Archivado desde el original el 15 de octubre de 2019 . Consultado el 3 de enero de 2010 .
  87. ^ Henderson M (24 de abril de 2007). «¿Derechos humanos para los robots? Nos estamos dejando llevar». The Times Online . The Times of London. Archivado desde el original el 17 de mayo de 2008. Consultado el 2 de mayo de 2010 .
  88. ^ "Arabia Saudita otorga la ciudadanía a un robot llamado Sophia". 26 de octubre de 2017. Archivado desde el original el 27 de octubre de 2017. Consultado el 27 de octubre de 2017 .
  89. ^ Vincent J (30 de octubre de 2017). «Pretender otorgarle la ciudadanía a un robot no ayuda a nadie». The Verge . Archivado desde el original el 3 de agosto de 2019. Consultado el 10 de enero de 2019 .
  90. ^ Wilks, Yorick, ed. (2010). Compromisos estrechos con compañeros artificiales: cuestiones clave sociales, psicológicas, éticas y de diseño . Ámsterdam: John Benjamins Pub. Co. ISBN 978-90-272-4994-4.OCLC 642206106  .
  91. ^ Macrae C (septiembre de 2022). "Aprendiendo de los fallos de los sistemas autónomos e inteligentes: accidentes, seguridad y fuentes sociotécnicas de riesgo". Análisis de riesgos . 42 (9): 1999–2025. Bibcode :2022RiskA..42.1999M. doi :10.1111/risa.13850. ISSN  0272-4332. PMID  34814229.
  92. ^ Agarwal A, Edelman S (2020). "IA consciente funcionalmente eficaz sin sufrimiento". Revista de Inteligencia Artificial y Conciencia . 7 : 39–50. arXiv : 2002.05652 . doi :10.1142/S2705078520300030. S2CID  211096533.
  93. ^ Thomas Metzinger (febrero de 2021). "Sufrimiento artificial: un argumento a favor de una moratoria global sobre la fenomenología sintética". Revista de inteligencia artificial y conciencia . 8 : 43–66. doi : 10.1142/S270507852150003X . S2CID  233176465.
  94. ^ Chalmers D (marzo de 2023). "¿Podría un modelo de lenguaje grande ser consciente?". arXiv : 2303.07103v1 [Ciencia Informática].
  95. ^ Birch J (1 de enero de 2017). "Sentiencia animal y principio de precaución". Animal Sentience . 2 (16). doi :10.51291/2377-7478.1200. ISSN  2377-7478. Archivado desde el original el 11 de agosto de 2024. Consultado el 8 de julio de 2024 .
  96. ^ Shulman C, Bostrom N (agosto de 2021). "Compartir el mundo con mentes digitales" (PDF) . Replanteando el estatus moral .
  97. ^ Fisher R (13 de noviembre de 2020). "El monstruo inteligente que debes dejar que te devore". BBC News . Consultado el 12 de febrero de 2021 .
  98. ^ desde
  99. ^ de Joseph Weizenbaum , citado en McCorduck 2004, págs. 356, 374–376
  100. ^ Kaplan A, Haenlein M (enero de 2019). "Siri, Siri, en mi mano: ¿Quién es la más bella de la tierra? Sobre las interpretaciones, ilustraciones e implicaciones de la inteligencia artificial". Business Horizons . 62 (1): 15–25. doi :10.1016/j.bushor.2018.08.004. S2CID  158433736.
  101. ^ ab Hibbard B (17 de noviembre de 2015). "Inteligencia artificial ética". arXiv : 1411.1373 [cs.AI].
  102. ^ Davies A (29 de febrero de 2016). «El coche autónomo de Google provocó su primer accidente». Wired . Archivado desde el original el 7 de julio de 2019. Consultado el 26 de julio de 2019 .
  103. ^ Levin S , Wong JC (19 de marzo de 2018). «Uber autónomo mata a una mujer de Arizona en el primer accidente mortal en el que estuvo involucrado un peatón». The Guardian . Archivado desde el original el 26 de julio de 2019. Consultado el 26 de julio de 2019 .
  104. ^ "¿Quién es responsable cuando un coche autónomo sufre un accidente?". Futurismo . 30 de enero de 2018. Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  105. ^ "Accidentes de vehículos autónomos: ¿Quién o qué tiene la culpa?". Knowledge@Wharton . Derecho y políticas públicas. Radio Business North America Podcasts. Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  106. ^ Delbridge E. "Los coches sin conductor se vuelven locos". The Balance . Archivado desde el original el 2019-05-29 . Consultado el 2019-05-29 .
  107. ^ Stilgoe J (2020), "¿Quién mató a Elaine Herzberg?", ¿Quién impulsa la innovación?, Cham: Springer International Publishing, págs. 1–6, doi :10.1007/978-3-030-32320-2_1, ISBN 978-3-030-32319-6, S2CID  214359377, archivado desde el original el 18 de marzo de 2021 , consultado el 11 de noviembre de 2020
  108. ^ Maxmen A (octubre de 2018). "Los dilemas de los coches autónomos revelan que las decisiones morales no son universales". Nature . 562 (7728): 469–470. Bibcode :2018Natur.562..469M. doi : 10.1038/d41586-018-07135-0 . PMID  30356197.
  109. ^ "Reglamento para vehículos sin conductor". GOV.UK. Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  110. ^ "Conducción automatizada: acción legislativa y regulatoria – CyberWiki". cyberlaw.stanford.edu . Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  111. ^ "Vehículos autónomos | Legislación promulgada sobre vehículos autónomos". www.ncsl.org . Archivado desde el original el 2019-07-26 . Consultado el 2019-07-26 .
  112. ^ Etzioni A, Etzioni O (1 de diciembre de 2017). "Incorporación de la ética a la inteligencia artificial". Revista de ética . 21 (4): 403–418. doi :10.1007/s10892-017-9252-2. ISSN  1572-8609. S2CID  254644745.
  113. ^ Llamado al debate sobre los robots asesinos Archivado el 7 de agosto de 2009 en Wayback Machine , por Jason Palmer, reportero de ciencia y tecnología, BBC News, 3/8/09.
  114. ^ Ciencia Nuevo informe financiado por la Marina advierte sobre robots de guerra que se convertirán en "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  115. ^ Un informe de la Marina advierte sobre un levantamiento de robots y sugiere una fuerte brújula moral Archivado el 4 de junio de 2011 en Wayback Machine , por Joseph L. Flatley engadget.com, 18 de febrero de 2009.
  116. ^ Estudio del Panel Presidencial de la AAAI sobre Futuros de IA a Largo Plazo 2008-2009 Archivado el 28 de agosto de 2009 en Wayback Machine , Asociación para el Avance de la Inteligencia Artificial, consultado el 26 de julio de 2009.
  117. ^ Estados Unidos. Junta de Innovación de Defensa. Principios de IA: recomendaciones sobre el uso ético de la inteligencia artificial por parte del Departamento de Defensa . OCLC  1126650738.
  118. ^ Nuevo informe financiado por la Marina advierte sobre robots de guerra que se están convirtiendo en "Terminator" Archivado el 28 de julio de 2009 en Wayback Machine , por Jason Mick (Blog), dailytech.com, 17 de febrero de 2009.
  119. ^ Umbrello S, Torres P, De Bellis AF (marzo de 2020). "El futuro de la guerra: ¿podrían las armas autónomas letales hacer que el conflicto sea más ético?". AI & Society . 35 (1): 273–282. doi :10.1007/s00146-019-00879-x. hdl :2318/1699364. ISSN  0951-5666. S2CID  59606353. Archivado desde el original el 2021-01-05 . Consultado el 2020-11-11 .
  120. ^ Hellström T (junio de 2013). "Sobre la responsabilidad moral de los robots militares". Ética y tecnología de la información . 15 (2): 99–107. doi :10.1007/s10676-012-9301-2. S2CID  15205810. ProQuest  1372020233.
  121. ^ Mitra A (5 de abril de 2018). "Podemos entrenar a la IA para que identifique el bien y el mal, y luego usarla para enseñarnos moralidad". Quartz . Archivado desde el original el 26 de julio de 2019. Consultado el 26 de julio de 2019 .
  122. ^ Dominguez G (23 de agosto de 2022). «Corea del Sur desarrolla nuevos drones furtivos para apoyar a los aviones de combate». The Japan Times . Consultado el 14 de junio de 2023 .
  123. ^ "Principios de la IA". Future of Life Institute . 11 de agosto de 2017. Archivado desde el original el 2017-12-11 . Consultado el 2019-07-26 .
  124. ^ de Zach Musgrave y Bryan W. Roberts (14 de agosto de 2015). «Por qué la inteligencia artificial puede ser convertida en arma con demasiada facilidad – The Atlantic». The Atlantic . Archivado desde el original el 11 de abril de 2017. Consultado el 6 de marzo de 2017 .
  125. ^ Cat Zakrzewski (27 de julio de 2015). «Musk y Hawking advierten sobre armas de inteligencia artificial». WSJ . Archivado desde el original el 28 de julio de 2015. Consultado el 4 de agosto de 2017 .
  126. ^ "Riesgos potenciales de la inteligencia artificial avanzada". Open Philanthropy . 11 de agosto de 2015 . Consultado el 7 de abril de 2024 .
  127. ^ ab Bachulska A, Leonard M, Oertel J (2 de julio de 2024). La idea de China: pensadores chinos sobre el poder, el progreso y el pueblo (EPUB) . Berlín, Alemania: Consejo Europeo de Relaciones Exteriores . ISBN 978-1-916682-42-9Archivado desde el original el 17 de julio de 2024 . Consultado el 22 de julio de 2024 .
  128. ^ Brandon Vigliarolo. "La cumbre internacional sobre inteligencia artificial militar finaliza con el compromiso de 60 estados". www.theregister.com . Consultado el 17 de febrero de 2023 .
  129. ^ ab Markoff J (25 de julio de 2009). "Los científicos temen que las máquinas puedan ser más inteligentes que el hombre". The New York Times . Archivado desde el original el 25 de febrero de 2017. Consultado el 24 de febrero de 2017 .
  130. ^ Muehlhauser, Luke y Louie Helm. 2012. "Explosión de inteligencia y ética de las máquinas". Archivado el 7 de mayo de 2015 en Wayback Machine . En Hipótesis de singularidad: una evaluación científica y filosófica, editado por Amnon Eden, Johnny Søraker, James H. Moor y Eric Steinhart. Berlín: Springer.
  131. ^ Bostrom, Nick. 2003. "Cuestiones éticas en la inteligencia artificial avanzada". Archivado el 8 de octubre de 2018 en Wayback Machine . En Cognitive, Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence, editado por Iva Smit y George E. Lasker, 12-17. Vol. 2. Windsor, ON: Instituto Internacional de Estudios Avanzados en Investigación de Sistemas/Cibernética.
  132. ^ Bostrom N (2017). Superinteligencia: caminos, peligros, estrategias . Oxford, Reino Unido: Oxford University Press. ISBN 978-0-19-967811-2.
  133. ^ Umbrello S, Baum SD (1 de junio de 2018). "Evaluación de la nanotecnología futura: los impactos sociales netos de la fabricación atómicamente precisa". Futures . 100 : 63–73. doi :10.1016/j.futures.2018.04.007. hdl : 2318/1685533 . ISSN  0016-3287. S2CID  158503813. Archivado desde el original el 9 de mayo de 2019 . Consultado el 29 de noviembre de 2020 .
  134. ^ Yudkowsky, Eliezer. 2011. "Sistemas de valores complejos en la IA amigable" Archivado el 29 de septiembre de 2015 en Wayback Machine . En Schmidhuber, Thórisson y Looks 2011, 388–393.
  135. ^ Russell S (8 de octubre de 2019). Human Compatible: Artificial Intelligence and the Problem of Control . Estados Unidos: Viking. ISBN 978-0-525-55861-3.OCLC 1083694322  .
  136. ^ Yampolskiy RV (1 de marzo de 2020). «Imprevisibilidad de la IA: sobre la imposibilidad de predecir con precisión todas las acciones de un agente más inteligente». Revista de Inteligencia Artificial y Conciencia . 07 (1): 109–118. doi :10.1142/S2705078520500034. ISSN  2705-0785. S2CID  218916769. Archivado desde el original el 18 de marzo de 2021 . Consultado el 29 de noviembre de 2020 .
  137. ^ Wallach W, Vallor S (17 de septiembre de 2020), "Máquinas morales: de la alineación de valores a la virtud encarnada", Ética de la inteligencia artificial , Oxford University Press, págs. 383–412, doi :10.1093/oso/9780190905033.003.0014, ISBN 978-0-19-090503-3, archivado desde el original el 8 de diciembre de 2020 , consultado el 29 de noviembre de 2020
  138. ^ Umbrello S (2019). "Coordinación beneficiosa de la inteligencia artificial mediante un enfoque de diseño sensible al valor". Big Data y computación cognitiva . 3 (1): 5. doi : 10.3390/bdcc3010005 . hdl : 2318/1685727 .
  139. ^ Floridi L, Cowls J, King TC, Taddeo M (2020). "Cómo diseñar IA para el bien social: siete factores esenciales". Ética en ciencia e ingeniería . 26 (3): 1771–1796. doi :10.1007/s11948-020-00213-5. ISSN  1353-3452. PMC 7286860 . PMID  32246245. 
  140. ^ Fiegerman S (28 de septiembre de 2016). «Facebook, Google y Amazon crean un grupo para aliviar las preocupaciones sobre la IA». CNNMoney . Archivado desde el original el 17 de septiembre de 2020. Consultado el 18 de agosto de 2020 .
  141. ^ Slota SC, Fleischmann KR, Greenberg S, Verma N, Cummings B, Li L, Shenefiel C (2023). "Localización del trabajo de la ética de la inteligencia artificial". Revista de la Asociación de Ciencia y Tecnología de la Información . 74 (3): 311–322. doi :10.1002/asi.24638. ISSN  2330-1635. S2CID  247342066. Archivado desde el original el 25 de septiembre de 2024. Consultado el 21 de julio de 2023 .
  142. ^ "Directrices éticas para una IA fiable". Dar forma al futuro digital de Europa – Comisión Europea . Comisión Europea. 2019-04-08. Archivado desde el original el 2020-02-20 . Consultado el 2020-02-20 .
  143. ^ "Libro Blanco sobre la Inteligencia Artificial: un enfoque europeo hacia la excelencia y la confianza | Dar forma al futuro digital de Europa". 19 de febrero de 2020. Archivado desde el original el 6 de marzo de 2021. Consultado el 18 de marzo de 2021 .
  144. ^ "Observatorio de políticas de inteligencia artificial de la OCDE". Archivado desde el original el 8 de marzo de 2021. Consultado el 18 de marzo de 2021 .
  145. ^ Recomendación sobre la ética de la inteligencia artificial. UNESCO. 2021.
  146. ^ "Los Estados miembros de la UNESCO adoptan el primer acuerdo mundial sobre la ética de la IA". Helsinki Times . 2021-11-26. Archivado desde el original el 2024-09-25 . Consultado el 2023-04-26 .
  147. ^ "La hoja de ruta de la administración Obama para la política de IA". Harvard Business Review . 2016-12-21. ISSN  0017-8012. Archivado desde el original el 2021-01-22 . Consultado el 2021-03-16 .
  148. ^ "Acelerando el liderazgo de Estados Unidos en inteligencia artificial – La Casa Blanca". trumpwhitehouse.archives.gov . Archivado desde el original el 25 de febrero de 2021 . Consultado el 16 de marzo de 2021 .
  149. ^ "Solicitud de comentarios sobre un proyecto de memorando a los jefes de departamentos y agencias ejecutivas, "Guía para la regulación de aplicaciones de inteligencia artificial"". Registro Federal . 2020-01-13. Archivado desde el original el 2020-11-25 . Consultado el 2020-11-28 .
  150. ^ "CCC ofrece un borrador de hoja de ruta de IA para 20 años; busca comentarios". HPCwire . 2019-05-14. Archivado desde el original el 2021-03-18 . Consultado el 2019-07-22 .
  151. ^ "Solicitar comentarios sobre el borrador: una hoja de ruta comunitaria de 20 años para la investigación en IA en los EE. UU.» Blog del CCC". 13 de mayo de 2019. Archivado desde el original el 14 de mayo de 2019. Consultado el 22 de julio de 2019 .
  152. ^ "Fiesta no humana". 2021. Archivado desde el original el 20 de septiembre de 2021. Consultado el 19 de septiembre de 2021 .
  153. ^ (en ruso) Интеллектуальные правила Archivado el 30 de diciembre de 2021 en Wayback Machine - Kommersant , 25.11.2021
  154. ^ Grace K, Salvatier J, Dafoe A, Zhang B, Evans O (3 de mayo de 2018). "¿Cuándo superará la IA el rendimiento humano? Evidencia de expertos en IA". arXiv : 1705.08807 [cs.AI].
  155. ^ "China quiere dar forma al futuro global de la inteligencia artificial". MIT Technology Review . Archivado desde el original el 20 de noviembre de 2020. Consultado el 29 de noviembre de 2020 .
  156. ^ Floridi L, Cowls J, Beltrametti M, Chatila R, Chazerand P, Dignum V, Luetge C, Madelin R, Pagallo U, Rossi F, Schafer B (1 de diciembre de 2018). "AI4People: un marco ético para una buena sociedad de IA: oportunidades, riesgos, principios y recomendaciones". Mentes y Máquinas . 28 (4): 689–707. doi :10.1007/s11023-018-9482-5. ISSN  1572-8641. PMC 6404626 . PMID  30930541. 
  157. ^ "Joanna J. Bryson". WIRED . Archivado desde el original el 15 de marzo de 2023. Consultado el 13 de enero de 2023 .
  158. ^ "Se lanza un nuevo instituto de investigación en inteligencia artificial". 2017-11-20. Archivado desde el original el 2020-09-18 . Consultado el 2021-02-21 .
  159. ^ James J. Hughes, LaGrandeur, Kevin, eds. (15 de marzo de 2017). Sobreviviendo a la era de las máquinas: tecnología inteligente y la transformación del trabajo humano. Cham, Suiza: Palgrave Macmillan Cham. ISBN 978-3-319-51165-8. OCLC  976407024. Archivado desde el original el 18 de marzo de 2021 . Consultado el 29 de noviembre de 2020 .
  160. ^ Danaher, John (2019). Automatización y utopía: el florecimiento humano en un mundo sin trabajo. Cambridge, Massachusetts: Harvard University Press. ISBN 978-0-674-24220-3.OCLC 1114334813  .
  161. ^ "Inaugurado oficialmente el Instituto de Ética en Inteligencia Artificial de la TUM" www.tum.de . Archivado desde el original el 2020-12-10 . Consultado el 2020-11-29 .
  162. ^ Communications PK (25 de enero de 2019). «Harvard trabaja para incorporar la ética en el plan de estudios de informática». Harvard Gazette . Archivado desde el original el 25 de septiembre de 2024. Consultado el 6 de abril de 2023 .
  163. ^ Lee J (8 de febrero de 2020). "Cuando el sesgo está codificado en nuestra tecnología". NPR . Consultado el 22 de diciembre de 2021 .
  164. ^ "Cómo una conferencia abrazó la diversidad". Nature . 564 (7735): 161–162. 2018-12-12. doi : 10.1038/d41586-018-07718-x . PMID  31123357. S2CID  54481549.
  165. ^ Roose K (30 de diciembre de 2020). «Premios a la buena tecnología 2020». The New York Times . ISSN  0362-4331 . Consultado el 21 de diciembre de 2021 .
  166. ^ "Mujeres en IA (#WAI)". Mujeres en IA (WAI) . Consultado el 9 de octubre de 2024 .
  167. ^ Lodge P (2014). "Revisión del argumento de Mill de Leibniz contra el materialismo mecanicista". Ergo, una revista de acceso abierto de filosofía . 1 (20201214). doi : 10.3998/ergo.12405314.0001.003 . hdl :2027/spo.12405314.0001.003. ISSN  2330-4014.
  168. ^ Bringsjord S, Govindarajulu NS (2020), "Inteligencia artificial", en Zalta EN, Nodelman U (eds.), The Stanford Encyclopedia of Philosophy (edición de verano de 2020), Metaphysics Research Lab, Stanford University, archivado desde el original el 8 de marzo de 2022 , consultado el 8 de diciembre de 2023
  169. ^ Jr HC (29 de abril de 1999). Tecnología de la información y la paradoja de la productividad: evaluación del valor de invertir en TI. Oxford University Press. ISBN 978-0-19-802838-3Archivado desde el original el 25 de septiembre de 2024. Consultado el 21 de febrero de 2024 .
  170. ^ Asimov I (2008). Yo, robot . Nueva York: Bantam. ISBN 978-0-553-38256-3.
  171. ^ Bryson J, Diamantis M, Grant T (septiembre de 2017). "De, para y por el pueblo: la laguna jurídica de las personas sintéticas". Inteligencia artificial y derecho . 25 (3): 273–291. doi : 10.1007/s10506-017-9214-9 .
  172. ^ "Principios de robótica". EPSRC del Reino Unido. Septiembre de 2010. Archivado desde el original el 1 de abril de 2018. Consultado el 10 de enero de 2019 .
  173. ^ Yudkowsky E (julio de 2004). "Why We Need Friendly AI" (Por qué necesitamos una IA amigable). 3 leyes inseguras . Archivado desde el original el 24 de mayo de 2012.
  174. ^ Aleksander I (marzo de 2017). «Socios de los humanos: una evaluación realista del papel de los robots en el futuro previsible». Revista de tecnología de la información . 32 (1): 1–9. doi :10.1057/s41265-016-0032-4. ISSN  0268-3962. S2CID  5288506. Archivado desde el original el 21 de febrero de 2024 . Consultado el 21 de febrero de 2024 .
  175. ^ Los robots en evolución aprenden a mentirse entre sí Archivado el 28 de agosto de 2009 en Wayback Machine , Popular Science, 18 de agosto de 2009
  176. ^ Bassett C, Steinmueller E, Voss G. "Better Made Up: The Mutual Influence of Science Fiction and Innovation". Nesta. Archivado desde el original el 3 de mayo de 2024. Consultado el 3 de mayo de 2024 .
  177. ^ Velasco G (4 de mayo de 2020). «La ciencia ficción: un espejo para el futuro de la humanidad». IDEES . Archivado desde el original el 22 de abril de 2021. Consultado el 8 de diciembre de 2023 .
  178. ^ Hodges, A. (2014), Alan Turing: El enigma , Vintage, Londres, pág. 334
  179. ^ AM Turing (1936). "Sobre números computables, con una aplicación al problema de Entscheidung", en Proceedings of the London Mathematical Society , 2 s. vol. 42 (1936-1937), págs. 230-265.
  180. ^ "Resumen del episodio 1 de la temporada 2 de Love, Death & Robots: "Servicio de atención al cliente automatizado"". Ready Steady Cut . 2021-05-14. Archivado desde el original el 2021-12-21 . Consultado el 2021-12-21 .
  181. ^ Cave, Stephen, Dihal, Kanta, Dillon, Sarah, eds. (14 de febrero de 2020). Narrativas de IA: una historia del pensamiento imaginativo sobre máquinas inteligentes (Primera edición). Oxford: Oxford University Press. ISBN 978-0-19-258604-9. OCLC  1143647559. Archivado desde el original el 18 de marzo de 2021 . Consultado el 11 de noviembre de 2020 .
  182. ^ Jerreat-Poole A (1 de febrero de 2020). «Sick, Slow, Cyborg: Crip Futurity in Mass Effect». Estudios de videojuegos . 20. ISSN  1604-7982. Archivado desde el original el 9 de diciembre de 2020. Consultado el 11 de noviembre de 2020 .
  183. ^ ""Detroit: Become Human" desafiará tu moral y tu humanidad". Revista Coffee or Die . 2018-08-06. Archivado desde el original el 2021-12-09 . Consultado el 2021-12-07 .
  184. ^ Cerqui D, Warwick K (2008), "Rediseñando la humanidad: el auge de los cyborgs, ¿una meta deseable?", Philosophy and Design , Dordrecht: Springer Netherlands, pp. 185-195, doi :10.1007/978-1-4020-6591-0_14, ISBN 978-1-4020-6590-3, archivado desde el original el 18 de marzo de 2021 , consultado el 11 de noviembre de 2020
  185. ^ Cave S, Dihal K (6 de agosto de 2020). "La blancura de la IA". Filosofía y tecnología . 33 (4): 685–703. doi : 10.1007/s13347-020-00415-6 . S2CID  225466550.

Enlaces externos