La ética de las máquinas (o moralidad de las máquinas , moralidad computacional o ética computacional ) es una parte de la ética de la inteligencia artificial que se ocupa de agregar o asegurar comportamientos morales de las máquinas creadas por el hombre que utilizan inteligencia artificial, también conocidas como agentes inteligentes artificiales . [1] La ética de las máquinas se diferencia de otros campos éticos relacionados con la ingeniería y la tecnología . No debe confundirse con la ética informática , que se centra en el uso humano de las computadoras. También debe distinguirse de la filosofía de la tecnología , que se ocupa de los efectos sociales más amplios de la tecnología. [2]
James H. Moor , uno de los teóricos pioneros en el campo de la ética informática , define cuatro tipos de robots éticos. Como investigador extensivo en los estudios de filosofía de la inteligencia artificial , filosofía de la mente , filosofía de la ciencia y lógica , Moor define las máquinas como agentes de impacto ético, agentes éticos implícitos, agentes éticos explícitos o agentes éticos completos. Una máquina puede ser más de un tipo de agente. [3]
(Véase sistemas artificiales y responsabilidad moral .)
Antes del siglo XXI, la ética de las máquinas había sido en gran medida objeto de ciencia ficción , debido principalmente a las limitaciones de la informática y la inteligencia artificial (IA). Aunque la definición de "ética de las máquinas" ha evolucionado desde entonces, el término fue acuñado por Mitchell Waldrop en el artículo de la revista AI de 1987 "A Question of Responsibility":
Una cosa que se desprende de la discusión anterior es que las máquinas inteligentes incorporarán valores, supuestos y propósitos, independientemente de que sus programadores lo pretendan conscientemente o no. Por lo tanto, a medida que las computadoras y los robots se vuelven cada vez más inteligentes, se vuelve imperativo que pensemos cuidadosa y explícitamente sobre cuáles son esos valores incorporados. Tal vez lo que necesitamos es, de hecho, una teoría y una práctica de la ética de las máquinas, en el espíritu de las tres leyes de la robótica de Asimov . [4]
En 2004, Towards Machine Ethics [5] se presentó en el Taller AAAI sobre Organizaciones de Agentes: Teoría y Práctica. [6] Se establecieron los fundamentos teóricos para la ética de las máquinas.
En el Simposio sobre Ética de Máquinas de la AAAI de Otoño de 2005, los investigadores se reunieron por primera vez para considerar la implementación de una dimensión ética en sistemas autónomos. [7] Se puede encontrar una variedad de perspectivas de este campo naciente en la edición recopilada Machine Ethics [8] que surge de ese simposio.
En 2007, la revista AI publicó "Machine Ethics: Creating an Ethical Intelligent Agent" [9] , un artículo que analizaba la importancia de la ética de las máquinas, la necesidad de máquinas que representen principios éticos de forma explícita y los desafíos que enfrentan quienes trabajan en ética de las máquinas. También demostró que es posible, al menos en un ámbito limitado, que una máquina abstraiga un principio ético de ejemplos de juicios éticos y utilice ese principio para guiar su comportamiento.
En 2009, Oxford University Press publicó Moral Machines, Teaching Robots Right from Wrong [10] , que promocionó como "el primer libro que examina el desafío de construir agentes morales artificiales, indagando profundamente en la naturaleza de la toma de decisiones y la ética humanas". Citó 450 fuentes, de las cuales unas 100 abordaban cuestiones importantes de la ética de las máquinas.
En 2011, Cambridge University Press publicó una colección de ensayos sobre la ética de las máquinas editada por Michael y Susan Leigh Anderson, [8] quienes también editaron un número especial de IEEE Intelligent Systems sobre el tema en 2006. [11] La colección se centra en los desafíos de agregar principios éticos a las máquinas. [12]
En 2014, la Oficina de Investigación Naval de Estados Unidos anunció que distribuiría 7,5 millones de dólares en subvenciones durante cinco años a investigadores universitarios para estudiar cuestiones de ética de las máquinas aplicadas a los robots autónomos, [13] y Superintelligence: Paths, Dangers, Strategies de Nick Bostrom , que planteó la ética de las máquinas como el "problema más importante... que la humanidad haya enfrentado jamás", alcanzó el puesto número 17 en la lista de libros científicos más vendidos del New York Times . [14]
En 2016, el Parlamento Europeo publicó un documento [15] para alentar a la Comisión a que abordara el estatuto jurídico de los robots. [16] El documento incluye secciones sobre la responsabilidad legal de los robots, en las que se sostiene que su responsabilidad debería ser proporcional a su nivel de autonomía. El documento también analiza cuántos trabajos podrían asumir los robots con IA. [17]
En 2019, las Actas del IEEE publicaron un número especial sobre Ética de las máquinas: el diseño y la gobernanza de la IA ética y los sistemas autónomos , editado por Alan Winfield , Katina Michael, Jeremy Pitt y Vanessa Evers. [18] "El número incluye artículos que describen agentes éticos implícitos, donde las máquinas están diseñadas para evitar resultados no éticos, así como agentes éticos explícitos, o máquinas que codifican o aprenden la ética y determinan acciones basadas en esa ética". [19]
Algunos académicos, como Bostrom y el investigador de IA Stuart Russell , argumentan que, si la IA supera a la humanidad en inteligencia general y se vuelve " superinteligente ", esta nueva superinteligencia podría volverse poderosa y difícil de controlar: así como el destino del gorila de montaña depende de la buena voluntad humana, también podría depender el destino de la humanidad de las acciones de una futura superinteligencia. [20] En sus respectivos libros Superintelligence and Human Compatible , Bostrom y Russell afirman que, si bien el futuro de la IA es muy incierto, el riesgo para la humanidad es lo suficientemente grande como para merecer una acción significativa en el presente.
Esto plantea el problema del control de la IA : cómo construir un agente inteligente que ayude a sus creadores sin construir inadvertidamente una superinteligencia que los dañará. El peligro de no diseñar el control correctamente "la primera vez" es que una superinteligencia puede ser capaz de tomar el poder sobre su entorno y evitar que la apaguemos. Las posibles estrategias de control de la IA incluyen el "control de capacidad" (limitar la capacidad de una IA para influir en el mundo) y el "control motivacional" (una forma de construir una IA cuyos objetivos estén alineados con los valores humanos u óptimos). Varias organizaciones están investigando el problema del control de la IA, incluido el Future of Humanity Institute , el Machine Intelligence Research Institute , el Center for Human-Compatible Artificial Intelligence y el Future of Life Institute .
Los paradigmas de la IA han sido debatidos, especialmente su eficacia y sesgo. Bostrom y Eliezer Yudkowsky han defendido los árboles de decisión (como ID3 ) en lugar de las redes neuronales y los algoritmos genéticos, con el argumento de que los árboles de decisión obedecen a las normas sociales modernas de transparencia y previsibilidad (por ejemplo, stare decisis ). [21] Por el contrario, Chris Santos-Lang ha argumentado a favor de las redes neuronales y los algoritmos genéticos con el argumento de que se debe permitir que las normas de cualquier época cambien y que el fracaso natural para satisfacer plenamente estas normas particulares ha sido esencial para hacer que los humanos sean menos vulnerables que las máquinas a los piratas informáticos criminales . [22] [23]
En 2009, en un experimento en el Laboratorio de Sistemas Inteligentes de la Escuela Politécnica Federal de Lausana , se programaron robots de IA para que cooperaran entre sí y se les asignó la tarea de buscar un recurso beneficioso mientras evitaban uno venenoso. [24] Durante el experimento, los robots se agruparon en clanes y el código genético digital de los miembros exitosos se utilizó para la siguiente generación, un tipo de algoritmo conocido como algoritmo genético. Después de 50 generaciones sucesivas en la IA, los miembros de un clan descubrieron cómo distinguir el recurso beneficioso del venenoso. Luego, los robots aprendieron a mentirse entre sí en un intento de acaparar el recurso beneficioso de otros robots. [24] En el mismo experimento, los mismos robots también aprendieron a comportarse desinteresadamente y a señalar el peligro a otros robots, y murieron para salvar a otros robots. [22] Los especialistas en ética de las máquinas han cuestionado las implicaciones del experimento. En el experimento, los objetivos de los robots fueron programados para ser "terminales", pero los motivos humanos generalmente requieren un aprendizaje interminable.
En 2009, académicos y expertos técnicos asistieron a una conferencia para discutir el impacto potencial de los robots y las computadoras y el impacto de la posibilidad de que pudieran volverse autosuficientes y capaces de tomar sus propias decisiones. Discutieron hasta qué punto las computadoras y los robots podrían adquirir autonomía, y hasta qué punto podrían usarla para plantear una amenaza o peligro. Observaron que algunas máquinas han adquirido varias formas de semiautonomía, incluida la capacidad de encontrar fuentes de energía por sí mismas y elegir independientemente objetivos para atacar con armas. También observaron que algunos virus informáticos pueden evadir la eliminación y han alcanzado la "inteligencia de las cucarachas". Observaron que la autoconciencia como se describe en la ciencia ficción es probablemente poco probable, pero que existen otros peligros y dificultades potenciales. [25]
Algunos expertos y académicos han cuestionado el uso de robots en combate militar, especialmente robots con cierto grado de autonomía. [26] La Marina de Estados Unidos financió un informe que indica que a medida que los robots militares se vuelven más complejos, deberíamos prestar mayor atención a las implicaciones de su capacidad para tomar decisiones autónomas. [27] [28] El presidente de la Asociación para el Avance de la Inteligencia Artificial ha encargado un estudio sobre esta cuestión. [29]
Se han realizado trabajos preliminares sobre métodos para integrar las inteligencias artificiales generales (agentes éticos plenos, tal como se definieron anteriormente) con los marcos jurídicos y sociales existentes. Los enfoques se han centrado en su posición jurídica y sus derechos. [30]
Los algoritmos de big data y aprendizaje automático se han vuelto populares en numerosas industrias, incluida la publicidad en línea , las calificaciones crediticias y las sentencias penales, con la promesa de proporcionar resultados más objetivos basados en datos, pero se han identificado como una forma potencial de perpetuar las desigualdades sociales y la discriminación . [31] [32] Un estudio de 2015 descubrió que las mujeres tenían menos probabilidades que los hombres de recibir anuncios de trabajo de altos ingresos a través de AdSense de Google . Otro estudio descubrió que el servicio de entrega en el mismo día de Amazon se hizo intencionalmente no disponible en los vecindarios negros. Tanto Google como Amazon no pudieron aislar estos resultados a un solo problema, y dijeron que los resultados eran el resultado de los algoritmos de caja negra que utilizan. [31]
El sistema judicial de Estados Unidos ha comenzado a utilizar software de evaluación de riesgos cuantitativos al tomar decisiones relacionadas con la liberación de personas bajo fianza y la sentencia en un esfuerzo por ser más justo y reducir la tasa de encarcelamiento . Estas herramientas analizan los antecedentes penales de un acusado, entre otros atributos. En un estudio de 7.000 personas arrestadas en el condado de Broward , Florida , solo el 20% de las personas que se predijo que cometerían un delito utilizando el sistema de puntuación de evaluación de riesgos del condado procedieron a cometer un delito. [32] Un informe de ProPublica de 2016 analizó las puntuaciones de riesgo de reincidencia calculadas por una de las herramientas más utilizadas, el sistema Northpointe COMPAS , y examinó los resultados durante dos años. El informe encontró que solo el 61% de los considerados de alto riesgo cometieron delitos adicionales durante ese período. El informe también señaló que los acusados afroamericanos tenían muchas más probabilidades de recibir puntuaciones de alto riesgo que sus contrapartes blancas. [32] Se ha argumentado que dichas evaluaciones de riesgo previas al juicio violan los derechos de igualdad de protección en función de la raza, debido a factores que incluyen la posible intención discriminatoria del propio algoritmo, según una teoría de capacidad jurídica parcial para las inteligencias artificiales. [33]
En 2016, el Grupo de Trabajo de Big Data de la administración Obama (un supervisor de varios marcos regulatorios de big data) publicó informes que advertían sobre "el potencial de codificar la discriminación en decisiones automatizadas" y pedían "igualdad de oportunidades por diseño" para aplicaciones como la calificación crediticia. [34] [35] Los informes alientan el debate entre los responsables de las políticas, los ciudadanos y los académicos por igual, pero reconocen que aún no existe una solución para la codificación del sesgo y la discriminación en sistemas algorítmicos.
En marzo de 2018, en un esfuerzo por abordar las crecientes preocupaciones sobre el impacto del aprendizaje automático en los derechos humanos , el Foro Económico Mundial y el Consejo Global para el Futuro de los Derechos Humanos publicaron un libro blanco con recomendaciones detalladas sobre la mejor manera de prevenir resultados discriminatorios en el aprendizaje automático. [36] El Foro Económico Mundial desarrolló cuatro recomendaciones basadas en los Principios Rectores de Derechos Humanos de las Naciones Unidas para ayudar a abordar y prevenir resultados discriminatorios en el aprendizaje automático: [36]
En enero de 2020, el Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard publicó un metaestudio de 36 conjuntos destacados de principios para la IA, identificando ocho temas clave: privacidad, responsabilidad, seguridad, transparencia y explicabilidad , equidad y no discriminación, control humano de la tecnología, responsabilidad profesional y promoción de los valores humanos. [37] Investigadores del Instituto Federal Suizo de Tecnología en Zúrich realizaron un metaestudio similar en 2019. [38]
Ha habido varios intentos de hacer que la ética sea computable, o al menos formal . Las Tres Leyes de la Robótica de Isaac Asimov no suelen considerarse adecuadas para un agente moral artificial, [39] pero se ha estudiado si se puede utilizar el imperativo categórico de Kant. [40] Se ha señalado que el valor humano es, en algunos aspectos, muy complejo. [41] Una forma de superar explícitamente esta dificultad es recibir valores humanos directamente de las personas a través de algún mecanismo, por ejemplo aprendiéndolos. [42] [43] [44]
Otro enfoque es basar las consideraciones éticas actuales en situaciones similares anteriores. Esto se llama casuística y podría implementarse a través de la investigación en Internet. El consenso de un millón de decisiones pasadas conduciría a una nueva decisión que depende de la democracia. [9] Bruce M. McLaren construyó un modelo computacional temprano (mediados de la década de 1990) de casuística, un programa llamado SIROCCO construido con IA y técnicas de razonamiento basado en casos que recupera y analiza dilemas éticos. [45] Pero este enfoque podría llevar a decisiones que reflejen los prejuicios y el comportamiento poco ético de la sociedad. Los efectos negativos de este enfoque se pueden ver en Tay de Microsoft , un chatbot que aprendió a repetir tuits racistas y con carga sexual. [46]
Un experimento mental se centra en un genio gólem con poderes ilimitados que se presenta al lector. Este genio declara que volverá en 50 años y exige que se le proporcione un conjunto definido de principios morales que luego aplicará de inmediato. El propósito de este experimento es generar un debate sobre cuál es la mejor manera de manejar conjuntos definidos de principios éticos que las computadoras puedan comprender. [47]
Algunos trabajos recientes intentan reconstruir la moralidad y el control de la IA de manera más amplia como un problema de disputa mutua entre la IA como subjetividad foucaultiana por un lado y los humanos o las instituciones por el otro, todo dentro de un aparato disciplinario . Es necesario cumplir con ciertos desiderata: autocuidado encarnado, intencionalidad encarnada, imaginación y reflexividad, que en conjunto condicionarían el surgimiento de la IA como un sujeto ético capaz de autoconducirse. [48]
En la ciencia ficción , las películas y las novelas han jugado con la idea de robots y máquinas sensibles.
Chappie (2015), de Neill Blomkamp , presenta un escenario en el que uno puede transferir su conciencia a una computadora. [49] La película Ex Machina ( 2014) de Alex Garland sigue a un androide con inteligencia artificial que se somete a una variación del Test de Turing , una prueba administrada a una máquina para ver si su comportamiento se puede distinguir del de un humano. Películas como Terminator (1984) y Matrix (1999) incorporan el concepto de máquinas que se vuelven contra sus amos humanos.
Asimov consideró el tema en la década de 1950 en Yo, robot . Por insistencia de su editor John W. Campbell Jr. , propuso las Tres Leyes de la Robótica para gobernar los sistemas de inteligencia artificial. Gran parte de su trabajo se dedicó entonces a probar los límites de sus tres leyes para ver dónde fallan o crean un comportamiento paradójico o imprevisto. Su trabajo sugiere que ningún conjunto de leyes fijas puede anticipar suficientemente todas las circunstancias posibles. [50] La novela de Philip K. Dick de 1968 ¿Sueñan los androides con ovejas eléctricas? explora lo que significa ser humano. En su escenario postapocalíptico, cuestiona si la empatía es una característica enteramente humana. El libro es la base de la película de ciencia ficción de 1982 Blade Runner .