La externalización moral se refiere a la atribución de la responsabilidad de la toma de decisiones éticas a entidades externas, a menudo algoritmos . El término se utiliza a menudo en debates sobre informática y equidad algorítmica [1] , pero puede aplicarse a cualquier situación en la que se recurra a agentes externos para eximirse de la responsabilidad de sus acciones. En este contexto, la externalización moral se refiere específicamente a la tendencia de la sociedad a culpar a la tecnología, en lugar de a sus creadores o usuarios, por cualquier daño que pueda causar. [2]
El término "subcontratación moral" fue acuñado por primera vez por el Dr. Rumman Chowdhury , un científico de datos interesado en la superposición entre la inteligencia artificial y las cuestiones sociales. [1] Chowdhury utilizó el término para describir los temores inminentes de una llamada " Cuarta Revolución Industrial " tras el surgimiento de la inteligencia artificial.
Los tecnólogos suelen recurrir a la externalización moral para eludir su responsabilidad en la creación de productos ofensivos. En su charla TED, Chowdhury da el ejemplo de un creador que justifica su trabajo diciendo que simplemente estaba haciendo su trabajo. [1] Este es un caso de externalización moral y de no asumir la responsabilidad por las consecuencias de la creación.
En el caso de la IA, la externalización moral permite a los creadores decidir cuándo la máquina es humana y cuándo es una computadora, trasladando la culpa y la responsabilidad de los problemas morales de los tecnólogos a la tecnología. Las conversaciones sobre la IA y los prejuicios y sus impactos requieren rendición de cuentas para generar cambios. Es difícil abordar estos sistemas sesgados si sus creadores utilizan la externalización moral para evitar asumir cualquier responsabilidad por el problema. [2]
Un ejemplo de externalización moral es la ira dirigida hacia las máquinas por “quitarles el trabajo a los humanos”, en lugar de hacia las empresas por emplear esa tecnología y poner en peligro los empleos en primer lugar. [1]
El término "subcontratación moral" se refiere al concepto de externalización , o contratación de una operación externa para realizar un trabajo específico para otra organización. En el caso de la subcontratación moral, se supone que el trabajo de resolver dilemas morales o tomar decisiones de acuerdo con un código ético debe ser realizado por otra entidad. [3]
En el campo médico, la IA participa cada vez más en los procesos de toma de decisiones sobre qué pacientes tratar y cómo tratarlos. [4] La responsabilidad del médico de tomar decisiones informadas sobre lo que es mejor para sus pacientes se ha externalizado a un algoritmo. También se observa que la empatía es una parte importante de la práctica médica, un aspecto del que la inteligencia artificial, evidentemente, carece. [5] Esta forma de externalización moral es una preocupación importante en la comunidad médica.
Otro campo de la tecnología en el que se habla con frecuencia de externalización moral son los vehículos autónomos . [6] Keith Abney, profesor de la Universidad Politécnica Estatal de California, propuso un escenario de ejemplo: "Supongamos que tenemos unos adolescentes [problemáticos] que ven un vehículo autónomo y se dirigen hacia él. Saben que el vehículo autónomo se desviará de la carretera y se precipitará por un precipicio, pero ¿deberían hacerlo?" [6] La decisión de sacrificar el vehículo autónomo (y los pasajeros que se encuentran en su interior) o el vehículo que se dirige hacia él se escribirá en los algoritmos que definen el comportamiento del coche. En el caso de la externalización moral, la responsabilidad de cualquier daño causado por un accidente puede atribuirse al propio vehículo autónomo, en lugar de a los creadores que escribieron el protocolo que el vehículo utilizará para "decidir" qué hacer. [1]
La externalización moral también se utiliza para delegar las consecuencias de los algoritmos de vigilancia predictiva a la tecnología, en lugar de a los creadores o a la policía. Existen muchas preocupaciones éticas con la vigilancia predictiva debido al hecho de que da como resultado una vigilancia excesiva de las comunidades de bajos ingresos y minoritarias. [7] En el contexto de la externalización moral, el ciclo de retroalimentación positiva de enviar fuerzas policiales desproporcionadas a las comunidades minoritarias se atribuye al algoritmo y a los datos que se introducen en este sistema, en lugar de a los usuarios y creadores de la tecnología de vigilancia predictiva.
La externalización moral también se observa con frecuencia en las apelaciones a la religión para justificar la discriminación o el daño. En su libro What It Means to be Moral, el sociólogo Phil Zuckerman contradice la noción religiosa popular de que la moralidad proviene de Dios. A menudo se cita la religión como fundamento de una postura moral sin ninguna relación tangible entre las creencias religiosas y la postura personal. [8] En estos casos, las personas religiosas "externalizan" sus creencias y opiniones personales al afirmar que son el resultado de su identificación religiosa. Esto se observa cuando se cita la religión como un factor para las creencias políticas, [9] las creencias médicas, [10] y, en casos extremos, como excusa para la violencia. [11]
La externalización moral también se observa en el mundo empresarial en términos de fabricación de bienes y evasión de la responsabilidad ambiental. Algunas empresas de los Estados Unidos trasladan su proceso de producción a países extranjeros con políticas ambientales más laxas para evitar las leyes de contaminación que existen en los EE. UU. Un estudio de Harvard Business Review concluyó que "en países con una regulación ambiental estricta, las empresas tienen un 29% menos de emisiones internas en promedio. Por otro lado, un endurecimiento de la regulación resulta en un 43% más de emisiones en el extranjero". [12] Las consecuencias de las mayores tasas de contaminación se atribuyen entonces a las regulaciones laxas en estos países, en lugar de a las propias empresas que se mudaron deliberadamente a estas áreas para evitar políticas de contaminación estrictas.
Chowdhury tiene una voz destacada en los debates sobre la intersección de la ética y la IA. Sus ideas han sido incluidas en The Atlantic, [13] Forbes, [3] MIT Technology Review, [14] y Harvard Business Review. [15]