La IA explicable ( XAI ), que a menudo se superpone con la IA interpretable o el aprendizaje automático explicable ( XML ), se refiere a un sistema de inteligencia artificial (IA) sobre el cual los humanos pueden mantener una supervisión intelectual , o se refiere a los métodos para lograr esto. [1] [2] El enfoque principal suele estar en el razonamiento detrás de las decisiones o predicciones realizadas por la IA [3] que se hacen más comprensibles y transparentes. [4] La XAI contrarresta la tendencia de " caja negra " del aprendizaje automático, donde incluso los diseñadores de la IA no pueden explicar por qué llegó a una decisión específica. [5] [6]
La XAI espera ayudar a los usuarios de sistemas impulsados por IA a desempeñarse de manera más efectiva al mejorar su comprensión de cómo razonan esos sistemas. [7] La XAI puede ser una implementación del derecho social a la explicación . [8] Incluso si no existe tal derecho legal o requisito regulatorio, la XAI puede mejorar la experiencia del usuario de un producto o servicio al ayudar a los usuarios finales a confiar en que la IA está tomando buenas decisiones. [9] La XAI tiene como objetivo explicar lo que se ha hecho, lo que se está haciendo y lo que se hará a continuación, y revelar en qué información se basan estas acciones. [10] Esto hace posible confirmar el conocimiento existente, desafiar el conocimiento existente y generar nuevos supuestos. [11]
Los algoritmos de aprendizaje automático (ML) utilizados en IA se pueden clasificar como de caja blanca o de caja negra . [12] Los modelos de caja blanca proporcionan resultados que son comprensibles para los expertos en el dominio. Los modelos de caja negra, por otro lado, son extremadamente difíciles de explicar y es posible que ni siquiera los expertos en el dominio los comprendan. [13] Los algoritmos XAI siguen los tres principios de transparencia, interpretabilidad y explicabilidad. Un modelo es transparente "si los procesos que extraen los parámetros del modelo de los datos de entrenamiento y generan etiquetas a partir de los datos de prueba pueden ser descritos y motivados por el diseñador del enfoque". [14] La interpretabilidad describe la posibilidad de comprender el modelo de ML y presentar la base subyacente para la toma de decisiones de una manera que sea comprensible para los humanos. [15] [16] [17] La explicabilidad es un concepto que se reconoce como importante, pero aún no hay una definición de consenso disponible; [14] una posibilidad es "la colección de características del dominio interpretable que han contribuido, para un ejemplo dado, a producir una decisión (por ejemplo, clasificación o regresión)". [18] Si los algoritmos cumplen estos principios, proporcionan una base para justificar decisiones, rastrearlas y, por lo tanto, verificarlas, mejorar los algoritmos y explorar nuevos hechos. [19]
A veces también es posible lograr un resultado de alta precisión con algoritmos de ML de caja blanca. Estos algoritmos tienen una estructura interpretable que se puede utilizar para explicar predicciones. [20] Los modelos de cuello de botella conceptual, que utilizan abstracciones a nivel de concepto para explicar el razonamiento del modelo, son ejemplos de esto y se pueden aplicar tanto en tareas de predicción de imágenes [21] como de texto [22] . Esto es especialmente importante en dominios como la medicina, la defensa, las finanzas y el derecho, donde es crucial comprender las decisiones y generar confianza en los algoritmos. [10] Muchos investigadores sostienen que, al menos para el aprendizaje automático supervisado, el camino a seguir es la regresión simbólica, donde el algoritmo busca en el espacio de expresiones matemáticas para encontrar el modelo que mejor se ajusta a un conjunto de datos determinado. [23] [24] [25]
Los sistemas de IA optimizan el comportamiento para satisfacer un sistema de objetivos especificado matemáticamente elegido por los diseñadores del sistema, como el comando "maximizar la precisión de la evaluación de cuán positivas son las críticas de películas en el conjunto de datos de prueba". La IA puede aprender reglas generales útiles del conjunto de prueba, como "es probable que las críticas que contienen la palabra 'horrible' sean negativas". Sin embargo, también puede aprender reglas inapropiadas, como "las críticas que contienen ' Daniel Day-Lewis ' suelen ser positivas"; tales reglas pueden ser indeseables si es probable que no se generalicen fuera del conjunto de entrenamiento, o si las personas consideran que la regla es "tramposa" o "injusta". Un humano puede auditar las reglas en una XAI para tener una idea de qué tan probable es que el sistema se generalice a futuros datos del mundo real fuera del conjunto de prueba. [26]
La cooperación entre agentes –en este caso, algoritmos y humanos– depende de la confianza. Para que los humanos acepten las prescripciones algorítmicas, deben confiar en ellas. La falta de completitud en los criterios formales de confianza es una barrera para la optimización. La transparencia, la interpretabilidad y la explicabilidad son objetivos intermedios en el camino hacia estos criterios de confianza más integrales. [27] Esto es particularmente relevante en medicina, [28] especialmente con los sistemas de apoyo a las decisiones clínicas (CDSS), en los que los profesionales médicos deben poder entender cómo y por qué se tomó una decisión basada en máquinas para poder confiar en la decisión y mejorar su proceso de toma de decisiones. [29]
Los sistemas de IA a veces aprenden trucos indeseables que cumplen de manera óptima los objetivos explícitos preprogramados en los datos de entrenamiento, pero no reflejan los deseos implícitos más matizados de los diseñadores del sistema humano ni la complejidad total de los datos del dominio. Por ejemplo, un sistema de 2017 encargado del reconocimiento de imágenes aprendió a "hacer trampa" buscando una etiqueta de derechos de autor que estaba asociada con imágenes de caballos en lugar de aprender a determinar si realmente había un caballo en la imagen. [6] En otro sistema de 2017, una IA de aprendizaje supervisado encargada de agarrar objetos en un mundo virtual aprendió a hacer trampa colocando su manipulador entre el objeto y el espectador de manera que pareciera falsamente que estaba agarrando el objeto. [30] [31]
Un proyecto de transparencia, el programa DARPA XAI, tiene como objetivo producir modelos de " caja de cristal " que sean explicables a un " humano en el circuito " sin sacrificar en gran medida el rendimiento de la IA. Los usuarios humanos de un sistema de este tipo pueden comprender la cognición de la IA (tanto en tiempo real como después del hecho) y pueden determinar si confiar en la IA. [32] Otras aplicaciones de XAI son la extracción de conocimiento de modelos de caja negra y las comparaciones de modelos. [33] En el contexto de los sistemas de monitoreo para el cumplimiento ético y socio-legal, el término "caja de cristal" se usa comúnmente para referirse a herramientas que rastrean las entradas y salidas del sistema en cuestión y brindan explicaciones basadas en valores para su comportamiento. Estas herramientas tienen como objetivo garantizar que el sistema funcione de acuerdo con estándares éticos y legales, y que sus procesos de toma de decisiones sean transparentes y responsables. El término "caja de cristal" se usa a menudo en contraste con los sistemas de "caja negra", que carecen de transparencia y pueden ser más difíciles de monitorear y regular. [34] El término también se utiliza para nombrar a un asistente de voz que produce declaraciones contrafácticas como explicaciones. [35]
Existe una sutil diferencia entre los términos explicabilidad e interpretabilidad en el contexto de la IA. [36]
Algunas técnicas de explicabilidad no implican comprender cómo funciona el modelo y pueden funcionar en varios sistemas de IA. Tratar el modelo como una caja negra y analizar cómo los cambios marginales en las entradas afectan el resultado a veces proporciona una explicación suficiente.
La explicabilidad es útil para garantizar que los modelos de IA no tomen decisiones basadas en criterios irrelevantes o injustos. Existen varias técnicas populares para los modelos de clasificación y regresión :
En el caso de las imágenes, los mapas de saliencia resaltan las partes de una imagen que más influyeron en el resultado. [41]
Sin embargo, estas técnicas no son muy adecuadas para modelos de lenguaje como los transformadores generativos preentrenados . Dado que estos modelos generan lenguaje, pueden proporcionar una explicación, pero que puede no ser confiable. Otras técnicas incluyen el análisis de la atención (examinar cómo el modelo se enfoca en diferentes partes de la entrada), métodos de sondeo (probar qué información se captura en las representaciones del modelo), rastreo causal (rastrear el flujo de información a través del modelo) y descubrimiento de circuitos (identificar subredes específicas responsables de ciertos comportamientos). La investigación de explicabilidad en esta área se superpone significativamente con la investigación de interpretabilidad y alineación . [42]
Los académicos a veces utilizan el término "interpretabilidad mecanicista" para referirse al proceso de ingeniería inversa de redes neuronales artificiales para comprender sus mecanismos y componentes internos de toma de decisiones, de manera similar a cómo se podría analizar una máquina compleja o un programa de computadora. [43]
La investigación sobre interpretabilidad suele centrarse en transformadores generativos preentrenados. Es especialmente relevante para la seguridad y la alineación de la IA, ya que puede permitir identificar señales de comportamientos no deseados, como la adulación , el engaño o el sesgo, y orientar mejor los modelos de IA. [44]
El estudio de la interpretabilidad de los modelos de base más avanzados a menudo implica la búsqueda de una forma automatizada de identificar "características" en transformadores generativos preentrenados. En una red neuronal , una característica es un patrón de activaciones neuronales que corresponde a un concepto. Una técnica de uso intensivo de recursos computacionales llamada " aprendizaje de diccionario " permite identificar características hasta cierto punto. Se espera que la mejora de la capacidad de identificar y editar características mejore significativamente la seguridad de los modelos de IA de frontera . [45] [46]
Para las redes neuronales convolucionales , DeepDream puede generar imágenes que activan fuertemente una neurona en particular, brindando una pista visual sobre lo que la neurona está entrenada para identificar. [47]
Durante los años 1970 a 1990, los sistemas de razonamiento simbólico , como MYCIN , [48] GUIDON, [49] SOPHIE, [50] y PROTOS [51] [52] podían representar, razonar y explicar su razonamiento con fines de diagnóstico, instrucción o aprendizaje automático (aprendizaje basado en explicaciones). MYCIN, desarrollado a principios de los años 1970 como un prototipo de investigación para diagnosticar infecciones de bacteriemia del torrente sanguíneo, podía explicar [53] cuál de sus reglas codificadas a mano contribuía a un diagnóstico en un caso específico. La investigación en sistemas de tutoría inteligente dio como resultado el desarrollo de sistemas como SOPHIE que podían actuar como un "experto articulado", explicando la estrategia de resolución de problemas a un nivel que el estudiante pudiera entender, para que supiera qué acción tomar a continuación. Por ejemplo, SOPHIE podía explicar el razonamiento cualitativo detrás de su resolución de problemas electrónicos, aunque en última instancia dependía del simulador de circuitos SPICE . De manera similar, GUIDON agregó reglas tutoriales para complementar las reglas a nivel de dominio de MYCIN, de modo que pudiera explicar la estrategia para el diagnóstico médico. Los enfoques simbólicos para el aprendizaje automático que se basan en el aprendizaje basado en explicaciones, como PROTOS, hicieron uso de representaciones explícitas de explicaciones expresadas en un lenguaje de explicación dedicado, tanto para explicar sus acciones como para adquirir nuevos conocimientos. [52]
En la década de 1980 y hasta principios de la de 1990, los sistemas de mantenimiento de la verdad (TMS) ampliaron las capacidades de los sistemas de inferencia basados en reglas , lógica y razonamiento causal . [54] : 360–362 Un TMS rastrea explícitamente líneas alternativas de razonamiento, justificaciones para conclusiones y líneas de razonamiento que conducen a contradicciones, lo que permite que el razonamiento futuro evite estos callejones sin salida. Para proporcionar una explicación, rastrean el razonamiento desde las conclusiones hasta los supuestos a través de operaciones de reglas o inferencias lógicas, lo que permite generar explicaciones a partir de los rastros de razonamiento. Como ejemplo, considere un solucionador de problemas basado en reglas con solo unas pocas reglas sobre Sócrates que concluye que ha muerto envenenado:
Con solo rastrear la estructura de dependencia, el solucionador de problemas puede construir la siguiente explicación: "Sócrates murió porque era mortal y bebió veneno, y todos los mortales mueren cuando beben veneno. Sócrates era mortal porque era un hombre y todos los hombres son mortales. Sócrates bebió veneno porque sostenía creencias disidentes, el gobierno era conservador y aquellos que tenían creencias disidentes conservadoras bajo gobiernos conservadores deben beber veneno". [55] : 164–165
En la década de 1990, los investigadores comenzaron a estudiar si era posible extraer de manera significativa las reglas no codificadas a mano que generaban las redes neuronales entrenadas opacas. [56] Los investigadores en sistemas expertos clínicos que creaban [ aclaración necesaria ] soporte de decisiones impulsado por redes neuronales para médicos buscaron desarrollar explicaciones dinámicas que permitieran que estas tecnologías fueran más confiables y dignas de confianza en la práctica. [8] En la década de 2010, las preocupaciones públicas sobre el sesgo racial y de otro tipo en el uso de IA para decisiones de sentencias penales y hallazgos de solvencia pueden haber llevado a una mayor demanda de inteligencia artificial transparente. [6] Como resultado, muchos académicos y organizaciones están desarrollando herramientas para ayudar a detectar sesgos en sus sistemas. [57]
Marvin Minsky et al. plantearon la cuestión de que la IA puede funcionar como una forma de vigilancia, con los sesgos inherentes a la vigilancia, y sugirieron la IA (Inteligencia Humanística) como una forma de crear una IA más justa y equilibrada con "humanos en el circuito". [58]
Las técnicas modernas de IA complejas, como el aprendizaje profundo , son naturalmente opacas. [59] Para abordar este problema, se han desarrollado métodos para hacer que los nuevos modelos sean más explicables e interpretables. [60] [16] [15] [61] [62] [63] Esto incluye la propagación de relevancia por capas (LRP), una técnica para determinar qué características en un vector de entrada particular contribuyen más fuertemente a la salida de una red neuronal. [64] [65] Otras técnicas explican alguna predicción particular hecha por un modelo de caja negra (no lineal), un objetivo conocido como "interpretabilidad local". [66] [67] [68] [69] [70] [71] También hay investigaciones sobre si los conceptos de interpretabilidad local se pueden aplicar a un contexto remoto, donde un modelo es operado por un tercero. [72] [73]
Se ha trabajado en la creación de modelos de caja de cristal que sean más transparentes a la inspección. [20] [74] Esto incluye árboles de decisión , [75] redes bayesianas , modelos lineales dispersos , [76] y más. [77] La Conferencia de la Asociación para la Maquinaria Informática sobre Equidad, Responsabilidad y Transparencia (ACM FAccT) se estableció en 2018 para estudiar la transparencia y la explicabilidad en el contexto de los sistemas sociotécnicos, muchos de los cuales incluyen inteligencia artificial. [78] [79]
Algunas técnicas permiten visualizar las entradas a las que las neuronas de software individuales responden con mayor intensidad. Varios grupos descubrieron que las neuronas pueden agruparse en circuitos que realizan funciones comprensibles para los humanos, algunas de las cuales surgen de manera confiable en diferentes redes entrenadas de forma independiente. [80] [81]
Existen diversas técnicas para extraer representaciones comprimidas de las características de entradas dadas, que luego pueden analizarse mediante técnicas de agrupamiento estándar . Alternativamente, las redes pueden entrenarse para generar explicaciones lingüísticas de su comportamiento, que luego son directamente interpretables por humanos. [82] El comportamiento del modelo también puede explicarse con referencia a los datos de entrenamiento, por ejemplo, evaluando qué entradas de entrenamiento influyeron más en un comportamiento dado. [83]
El uso de inteligencia artificial explicable (XAI) en la investigación del dolor, específicamente en la comprensión del papel de la actividad electrodérmica para el reconocimiento automatizado del dolor : características creadas a mano y modelos de aprendizaje profundo en el reconocimiento del dolor, destacando las ideas de que las características simples creadas a mano pueden producir rendimientos comparativos con los modelos de aprendizaje profundo y que tanto la ingeniería de características tradicionales como los enfoques de aprendizaje de características profundas se basan en características simples de los datos de series de tiempo de entrada. [84]
A medida que los reguladores, los organismos oficiales y los usuarios en general dependan de los sistemas dinámicos basados en IA, será necesario que los procesos automatizados de toma de decisiones rindan cuentas de manera más clara para garantizar la confianza y la transparencia. La primera conferencia mundial dedicada exclusivamente a esta disciplina emergente fue la Conferencia Conjunta Internacional sobre Inteligencia Artificial de 2017 : Taller sobre Inteligencia Artificial Explicable (XAI). [85] Ha evolucionado a lo largo de los años, con varios talleres organizados y ubicados en el mismo lugar que muchas otras conferencias internacionales, y ahora tiene un evento mundial dedicado, "La conferencia mundial sobre Inteligencia Artificial Explicable", con sus propias actas. [86] [87]
La Unión Europea introdujo un derecho a explicación en el Derecho General de Protección de Datos (RGPD) para abordar los posibles problemas derivados de la creciente importancia de los algoritmos. La implementación de la regulación comenzó en 2018. Sin embargo, el derecho a explicación en el RGPD cubre solo el aspecto local de la interpretabilidad. En los Estados Unidos, las compañías de seguros deben poder explicar sus decisiones sobre tarifas y cobertura. [88] En Francia, la Loi pour une République numérique (Ley para una República Digital) otorga a los sujetos el derecho a solicitar y recibir información relacionada con la implementación de algoritmos que procesan datos sobre ellos.
A pesar de los esfuerzos constantes por mejorar la explicabilidad de los modelos de IA, estos persisten con varias limitaciones inherentes.
Al hacer que un sistema de IA sea más explicable, también revelamos más de su funcionamiento interno. Por ejemplo, el método de explicabilidad de la importancia de las características identifica las características o variables que son más importantes para determinar el resultado del modelo, mientras que el método de muestras influyentes identifica las muestras de entrenamiento que son más influyentes para determinar el resultado, dada una entrada particular. [89] Las partes adversarias podrían aprovechar este conocimiento.
Por ejemplo, las empresas competidoras podrían replicar aspectos del sistema de IA original en su propio producto, reduciendo así la ventaja competitiva. [90] Un sistema de IA explicable también es susceptible de ser “engañado”, es decir, influenciado de una manera que socave su propósito previsto. Un estudio da el ejemplo de un sistema de vigilancia predictiva; en este caso, quienes podrían potencialmente “engañar” al sistema son los criminales sujetos a las decisiones del sistema. En este estudio, los desarrolladores del sistema analizaron la cuestión de las bandas criminales que buscan obtener pasaportes ilegalmente y expresaron su preocupación por el hecho de que, si se les da una idea de qué factores podrían activar una alerta en el proceso de solicitud de pasaportes, esas bandas podrían “enviar conejillos de indias” para probar esos factores desencadenantes, encontrando eventualmente una laguna que les permitiría “obtener pasaportes de manera confiable bajo las narices de las autoridades”. [91]
Una barrera fundamental para hacer que los sistemas de IA sean explicables es la complejidad técnica de dichos sistemas. Los usuarios finales a menudo carecen de los conocimientos de codificación necesarios para comprender cualquier tipo de software. Los métodos actuales que se utilizan para explicar la IA son principalmente técnicos, orientados a los ingenieros de aprendizaje automático con fines de depuración, en lugar de a los usuarios finales que son los afectados en última instancia por el sistema, lo que provoca “una brecha entre la explicabilidad en la práctica y el objetivo de transparencia”. [89] Las soluciones propuestas para abordar el problema de la complejidad técnica incluyen promover la educación en codificación del público en general para que las explicaciones técnicas sean más accesibles para los usuarios finales, o proporcionar explicaciones en términos sencillos. [90]
La solución debe evitar la simplificación excesiva. Es importante lograr un equilibrio entre la precisión (la fidelidad con la que la explicación refleja el proceso del sistema de IA) y la explicabilidad (la comprensión del proceso por parte de los usuarios finales). Se trata de un equilibrio difícil de lograr, ya que la complejidad del aprendizaje automático dificulta su comprensión total incluso para los ingenieros de ML, y mucho menos para los no expertos. [89]
El objetivo de que los usuarios finales de los sistemas de IA puedan ser explicados es aumentar la confianza en los sistemas, e incluso “abordar las preocupaciones sobre la falta de 'justicia' y los efectos discriminatorios”. [90] Sin embargo, incluso con un buen conocimiento de un sistema de IA, los usuarios finales pueden no confiar necesariamente en el sistema. [92] En un estudio, se presentó a los participantes combinaciones de explicaciones de caja blanca y caja negra, y explicaciones estáticas e interactivas de los sistemas de IA. Si bien estas explicaciones sirvieron para aumentar tanto su comprensión autoinformada como la objetiva, no tuvieron ningún impacto en su nivel de confianza, que se mantuvo escéptico. [93]
Este resultado fue especialmente cierto en el caso de decisiones que impactaban al usuario final de manera significativa, como las admisiones a la escuela de posgrado. Los participantes juzgaron que los algoritmos eran demasiado inflexibles e implacables en comparación con los tomadores de decisiones humanos; en lugar de adherirse rígidamente a un conjunto de reglas, los humanos pueden considerar casos excepcionales, así como apelaciones a su decisión inicial. [93] Para tales decisiones, la explicabilidad no necesariamente hará que los usuarios finales acepten el uso de algoritmos de toma de decisiones. Tendremos que recurrir a otro método para aumentar la confianza y la aceptación de los algoritmos de toma de decisiones, o cuestionar la necesidad de confiar únicamente en la IA para tomar decisiones tan impactantes en primer lugar.
Sin embargo, algunos destacan que el propósito de la explicabilidad de la inteligencia artificial no es simplemente aumentar la confianza de los usuarios en las decisiones del sistema, sino calibrar el nivel de confianza de los usuarios al nivel correcto. [94] Según este principio, demasiada o muy poca confianza del usuario en el sistema de IA dañará el desempeño general de la unidad humano-sistema. Cuando la confianza es excesiva, los usuarios no son críticos ante los posibles errores del sistema y cuando los usuarios no tienen suficiente confianza en el sistema, no agotarán los beneficios inherentes a él.
Algunos académicos han sugerido que la explicabilidad en la IA debe considerarse un objetivo secundario a la efectividad de la IA, y que alentar el desarrollo exclusivo de XAI puede limitar la funcionalidad de la IA de manera más amplia. [95] [96] Las críticas a XAI se basan en conceptos desarrollados de razonamiento mecanicista y empírico de la medicina basada en evidencia para sugerir que las tecnologías de IA pueden validarse clínicamente incluso cuando sus operadores no pueden comprender su función. [95]
Algunos investigadores abogan por el uso de modelos de aprendizaje automático inherentemente interpretables, en lugar de utilizar explicaciones post-hoc en las que se crea un segundo modelo para explicar el primero. Esto se debe en parte a que los modelos post-hoc aumentan la complejidad en una vía de decisión y en parte a que a menudo no está claro con qué fidelidad una explicación post-hoc puede imitar los cálculos de un modelo completamente separado. [20] Sin embargo, otra opinión es que lo importante es que la explicación cumpla con la tarea en cuestión, y no importa si es pre o post-hoc. Si un método de explicación post-hoc ayuda a un médico a diagnosticar mejor el cáncer, es de importancia secundaria si es una explicación correcta o incorrecta.
Los objetivos de la XAI son una forma de compresión con pérdida que se volverá menos efectiva a medida que aumente el número de parámetros de los modelos de IA. Junto con otros factores, esto conduce a un límite teórico para la explicabilidad. [97]
La explicabilidad también se estudió en la teoría de la elección social . La teoría de la elección social tiene como objetivo encontrar soluciones a los problemas de decisión social, que se basan en axiomas bien establecidos. Ariel D. Procaccia [98] explica que estos axiomas pueden usarse para construir explicaciones convincentes de las soluciones. Este principio se ha utilizado para construir explicaciones en varios subcampos de la elección social.
Cailloux y Endriss [99] presentan un método para explicar las reglas de votación utilizando los axiomas que las caracterizan. Ejemplifican su método con la regla de votación de Borda .
Peters, Procaccia, Psomas y Zhou [100] presentan un algoritmo para explicar los resultados de la regla de Borda utilizando explicaciones O( m 2 ), y demuestran que es estricto en el peor de los casos.
Yang, Hausladen, Peters, Pournaras, Fricker y Helbing [101] presentan un estudio empírico de la explicabilidad en el presupuesto participativo . Compararon las reglas codiciosas y de partes iguales , y tres tipos de explicaciones: explicación del mecanismo (una explicación general de cómo funciona la regla de agregación dada la entrada de votación), explicación individual (explicando cuántos votantes tenían al menos un proyecto aprobado, al menos 10000 CHF en proyectos aprobados), y explicación de grupo (explicando cómo se distribuye el presupuesto entre los distritos y temas). Compararon la confiabilidad y justicia percibidas de las partes iguales y codiciosas, antes y después de las explicaciones. Descubrieron que, para MES, la explicación del mecanismo produce el mayor aumento en la justicia y confiabilidad percibidas; el segundo más alto fue la explicación de grupo. Para Greedy, la explicación del mecanismo aumenta la confiabilidad percibida pero no la equidad, mientras que la explicación individual aumenta tanto la justicia como la confiabilidad percibidas. La explicación de grupo disminuye la justicia y confiabilidad percibidas.
Nizri, Azaria y Hazon [102] presentan un algoritmo para calcular explicaciones para el valor de Shapley . Dado un juego de coalición, su algoritmo lo descompone en subjuegos, para los cuales es fácil generar explicaciones verbales basadas en los axiomas que caracterizan el valor de Shapley. La asignación de pagos para cada subjuego se percibe como justa, por lo que la asignación de pagos basada en Shapley para el juego dado también debería parecer justa. Un experimento con 210 sujetos humanos muestra que, con sus explicaciones generadas automáticamente, los sujetos perciben la asignación de pagos basada en Shapley como significativamente más justa que con una explicación estándar general.
{{cite arXiv}}
: CS1 maint: multiple names: authors list (link){{cite journal}}
: Requiere citar revista |journal=
( ayuda )